BR112016000999B1 - Aparelho e método para mapear primeiros e segundos canais de entrada para pelo menos um canal de saída - Google Patents

Aparelho e método para mapear primeiros e segundos canais de entrada para pelo menos um canal de saída Download PDF

Info

Publication number
BR112016000999B1
BR112016000999B1 BR112016000999-1A BR112016000999A BR112016000999B1 BR 112016000999 B1 BR112016000999 B1 BR 112016000999B1 BR 112016000999 A BR112016000999 A BR 112016000999A BR 112016000999 B1 BR112016000999 B1 BR 112016000999B1
Authority
BR
Brazil
Prior art keywords
channel
input
speaker
output
channels
Prior art date
Application number
BR112016000999-1A
Other languages
English (en)
Other versions
BR112016000999A2 (pt
Inventor
Jürgen Herre
Fabian KÜCH
Michael KRATSCHMER
Achim Kuntz
Christoph Faller
Original Assignee
Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E.V.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E.V. filed Critical Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E.V.
Publication of BR112016000999A2 publication Critical patent/BR112016000999A2/pt
Publication of BR112016000999B1 publication Critical patent/BR112016000999B1/pt

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/02Spatial or constructional arrangements of loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/002Non-adaptive circuits, e.g. manually adjustable or static, for enhancing the sound image or the spatial distribution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/008Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/02Systems employing more than two channels, e.g. quadraphonic of the matrix type, i.e. in which input signals are combined algebraically, e.g. after having been phase shifted with respect to each other
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/308Electronic adaptation dependent on speaker or headphone connection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/01Multi-channel, i.e. more than two input channels, sound reproduction with two speakers wherein the multi-channel information is substantially preserved
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/03Aspects of down-mixing multi-channel audio to configurations with lower numbers of playback channels, e.g. 7.1 -> 5.1
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/03Application of parametric coding in stereophonic audio systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/305Electronic adaptation of stereophonic audio signals to reverberation of the listening space

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Algebra (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Stereophonic System (AREA)
  • Time-Division Multiplex Systems (AREA)

Abstract

aparelho e método para mapear primeiros e segundos canais de entrada para pelo menos um canal de saída. aparelho para mapear um primeiro canal de entrada e um segundo canal de entrada de uma configuração do canal de entrada para pelo menos um canal de saída de uma configuração do canal de saída, em que cada canal de entrada e cada canal de saída é dotado de uma direção na qual um altifalante associado se encontra localizado em relação a uma posição central do ouvinte, em que o aparelho está configurado para mapear o primeiro canal de entrada a um primeiro canal de saída da configuração do canal de saída. o aparelho está ainda configurado para pelo menos um a) mapear o segundo canal de entrada ao primeiro canal de saída, compreendendo o processamento do segundo canal de entrada aplicando pelo menos um filtro de equalização e um filtro de descorrelação ao segundo canal de entrada, e b) apesar do facto de que um desvio angular entre uma direção do segundo canal de entrada e uma direção do primeiro canal de saída ser inferior ao desvio angular entre uma direção do segundo canal de entrada e o segundo canal de saída e/ou inferior a um desvio angular entre a direção do segundo canal de entrada e a direção do terceiro canal de saída, mapear o segundo canal de entrada ao segundo e terceiro canais de saída através de controlo de panorâmico entre o segundo e o terceiro canais de saída.

Description

Descrição
[001] Esta invenção diz respeito a um aparelho e um método para mapear primeiros e segundos canais de entrada para pelo menos um canal de saída e, em especial, um aparelho e um método adequado para ser utilizado numa conversão de formato entre diferentes configurações de canal do altifalante.
[002] Ferramentas de codificação áudio espacial são bem conhecidas na área e encontram-se normalizadas, por exemplo, na norma MPEG-surround. A codificação áudio espacial começa numa série de entradas originais, por exemplo, cinco ou sete canais de entrada, identificados pela sua colocação numa definição de reprodução, por exemplo, como um canal esquerdo, um canal central, um canal direito, um canal surround esquerdo, um canal surround direito e um canal de enriquecimento de baixa frequência (LFE). Um codificador áudio espacial pode derivar um ou mais canais de downmix dos canais originais e, além disso, pode derivar dados paramétricos relativos a sinais espaciais tais como diferenças de nível entre canais, diferenças de fase entre canais, diferenças de tempo entre canais, etc. O um ou mais canais de downmix são transmitidos juntamente com a informação paramétrica paralela indicando os sinais espaciais a um descodificador áudio espacial para descodificar os canais de downmix e os dados paramétricos associados para finalmente obter canais de saída que são uma versão aproximada dos canais de entrada originais. A colocação dos canais na definição de saída pode ser fixa, por exemplo, um formato 5.1, um formato 7.1, etc.
[003] Também, as ferramentas de codificação áudio espacial são bem conhecidas na área e encontram-se normalizadas, por exemplo, na norma MPEG SAOC (SAOC = codificação do objeto áudio espacial). Ao contrário da codificação de áudio espacial a partir dos canais originais, a codificação do objeto de áudio espacial começa a partir de objetos de áudio não automaticamente dedicados para uma certa transmissão da posição de reprodução. Pelo contrário, a colocação de objetos de áudio na cena de reprodução é flexível e pode ser executada por um utilizador, por exemplo, através de uma entrada de certa informação de transmissão num descodificador de codificação do objeto de áudio espacial. Em alternativa, ou adicionalmente, a informação de transmissão pode ser transmitida como informação paralela adicional ou metadados; a informação de apresentação pode incluir informação em cuja posição na definição de reprodução um certo objeto de áudio deverá ser colocado (por exemplo, ao longo do tempo). Para obter uma certa compressão de dados, um número de objetos de áudio é codificado utilizando um codificador SAOC que calcula, a partir dos objetos de entrada, um ou mais canais de transporte através de downmixing de objetos de acordo com certa informação de downmixing. Além disso, o codificador SAOC calcula informação paramétrica paralela que representa sinais entre objetos tais como diferenças de nível do objeto (OLD), valores de coerência do objeto, etc. Tal como na SAC (SAC = Codificação de Áudio Espacial), os dados paramétricos entre objetos são calculados para tempo individual/ladrilhos de frequência. Para um certo quadro (por exemplo, os quadros 1024 ou 2048) do sinal de áudio uma série de bandas de frequência (por exemplo, as bandas 24, 32 ou 64) são consideradas de modo que os dados paramétricos sejam previstos para cada quadro e cada banda de frequência. Por exemplo, quando uma peça de áudio possui 20 quadros e quando cada quadro é subdividido em 32 bandas de frequência, o número de ladrilhos de tempo/frequência é de 640.
[004] Um formato de reprodução desejado, isto é, uma configuração do canal de saída (configuração do altifalante de saída) pode diferir de uma configuração do canal de entrada, em que o número de canais de saída é, regra geral, diferente do número de canais de saída. Assim, uma conversão de formato pode ser exigida para mapear os canais de entrada da configuração do canal de entrada aos canais de saída da configuração do canal de saída.
[005] É objetivo subjacente a invenção proporcionar um aparelho e um método que permitam uma reprodução de som melhorado, em especial no caso de uma conversão de formato entre diferentes configurações do canal do altifalante.
[006] Este objetivo é alcançado por um aparelho de acordo com a reivindicação 1 e um método de acordo dom a reivindicação 12.
[007] Os modelos da invenção proporcionam um aparelho para mapeamento de um primeiro canal de entrada e um segundo canal de entrada de uma configuração do canal de entrada a pelo menos um canal de saída de uma configuração do canal de saída, em que cada canal de entrada e cada canal de saída possui uma direção na qual um altifalante associado se encontra localizado em relação a uma posição central do ouvinte, em que o aparelho está configurado para:
[008] mapear o primeiro canal de entrada a um primeiro canal de saída da configuração do canal de saída; e pelo menos um do seguinte: a) mapear o segundo canal de entrada ao primeiro canal de saída, compreendendo o processamento do segundo canal de entrada aplicando pelo menos um filtro de equalização e um filtro de descorrelação ao segundo canal de entrada; e b) apesar do facto de que um desvio angular entre uma direção do segundo canal de entrada e uma direção do primeiro canal de saída ser inferior ao desvio angular entre uma direção do segundo canal de entrada e o segundo canal de saída e/ou inferior a um desvio angular entre a direção do segundo canal de entrada e a direção do terceiro canal de saída, mapear o segundo canal de entrada ao segundo e terceiro canais de saída através do controlo de panorâmico entre o segundo e o terceiro canais.
[009] Os modelos da invenção fornecem um método para mapeamento de um primeiro canal de entrada e um segundo canal de entrada de uma configuração do canal de entrada a pelo menos um canal de saída de uma configuração do canal de saída, em que cada canal de entrada e cada canal de saída possui uma direção na qual um altifalante associado se encontra localizado em relação à posição central do ouvinte, compreendendo:
[010] mapear o primeiro canal de entrada para um primeiro canal de saída da configuração do canal de saída; e pelo menos um do seguinte: a) mapear o segundo canal de entrada para o primeiro canal de saída, compreendendo o processamento do segundo canal de entrada aplicando pelo menos um de um filtro de equalização e um filtro de descorrelação ao segundo canal de entrada; e b) apesar do facto de que um desvio angular entre uma direção do segundo canal de entrada e uma direção do primeiro canal de saída ser inferior ao desvio angular entre uma direção do segundo canal de entrada e o segundo canal de saída e/ou inferior a um desvio angular entre a direção do segundo canal de entrada e a direção do terceiro canal de saída, mapear o segundo canal de entrada ao segundo e terceiro canais de saída através do controlo de panorâmico entre o segundo e o terceiro canais.
[011] Os modelos da invenção têm como base a descoberta de que uma reprodução de áudio melhorada pode ser obtida mesmo no caso de um processo de downmixing de um número de canais de entrada para um número mais pequeno de canais de saída se uma abordagem for utilizada destinada a tentar preservar a diversidade espacial de pelo menos dois canais de entrada que são mapeados para pelo menos um canal de saída. De acordo com modelos da invenção, isto é obtido através do processamento de um dos canais de entrada mapeados para o mesmo canal de saída aplicando pelo menos um de um filtro de equalização e um filtro de descorrelação. Nos modelos da invenção, isto é obtido através da geração de uma fonte “fantasma” para um dos canais de entrada utilizando dois canais de saída, pelo menos um dos quais possui um desvio angular do canal de entrada que é maior do que um desvio angular do canal de entrada para outro canal de saída.
[012] Nos modelos da invenção, um filtro de equalização é aplicado ao segundo canal de entrada e está configurado para impulsionar uma parte espectral do segundo canal de entrada, conhecida como dando ao ouvinte a impressão de que o som provem de uma posição correspondente à posição do segundo canal de entrada. Nos modelos da invenção, um ângulo de elevação do segundo canal de entrada pode ser maior do que um ângulo de elevação de um ou mais canais de saída ao qual o canal de entrada está mapeado. Por exemplo, um altifalante associado ao segundo canal de entrada pode estar numa posição acima de um plano horizontal do ouvinte, enquanto os altifalantes associados a um ou mais canais de saída podem estar numa posição no plano horizontal do ouvinte. O filtro de equalização pode ser configurado para impulsionar uma parte espectral do segundo canal numa gama de frequência entre 7 kHz e 10 kHz. Ao processar o segundo sinal de entrada desta maneira, pode ser dada a impressão a um ouvinte que o som provem de uma posição elevada mesmo se não provem na verdade de uma posição elevada.
[013] Nos modelos da invenção, o segundo canal de entrada é processado aplicando um filtro de equalização configurado para processar o segundo canal de entrada de modo a compensar as diferenças de timbre originadas pelas diferentes posições do segundo canal de entrada e o pelo menos um canal de saída ao qual o segundo canal de entrada está mapeado. Assim, o timbre do segundo canal de entrada, reproduzido por um altifalante na posição errada pode ser manipulado de modo que um utilizador possa ficar com a impressão que o som provém de outra posição mais próxima à posição original, isto é, a posição do segundo canal de entrada.
[014] Nos modelos da invenção, um filtro de descorrelação é aplicado ao segundo canal de entrada. Aplicando um filtro de descorrelação ao segundo canal de entrada pode também dar a um ouvinte a impressão de que os sinais sonoros reproduzidos pelo primeiro canal de saída provêm de diferentes canais de entrada localizados em diferentes posições na configuração do canal de entrada. Por exemplo, o filtro de descorrelação pode ser configurado para introduzir atrasos dependentes de frequência e/ou fases aleatórias no segundo canal de entrada. Em modelos da invenção, o filtro de descorrelação pode ser um filtro de reverberação configurado para introduzir partes do sinal de reverberação no segundo canal de entrada, de modo que um ouvinte possa ficar com a impressão de que os sinais sonoros reproduzidos através do primeiro canal de saída provêm de diferentes posições. Em modelos da invenção, o filtro de descorrelação pode ser configurado para convolver o segundo canal de entrada com uma sequência de ruído exponencialmente descendente de modo a estimular reflexões difusas no segundo sinal de entrada.
[015] Em modelos da invenção, os coeficientes do filtro de equalização e/ou o filtro de descorrelação são definidos com base numa resposta de impulso de espaço binaural (BRIR) de um auditório específico ou definidos com base em conhecimento empírico relativo a acústica de auditórios (que pode também ter em consideração um auditório específico). Assim, o respectivo processamento de modo a ter a diversidade espacial dos canais de entrada em consideração pode ser adaptado através do cenário específico, tal como o auditório específico, no qual o sinal é reproduzido através da configuração do canal de saída.
[016] Os modelos da invenção são agora explicados fazendo-se referência aos desenhos que os acompanham, nos quais:
[017] A Fig. 1 ilustra uma visão global de um codificador áudio 3D de um sistema áudio 3D;
[018] A Fig. 2 ilustra uma visão global de um descodificador áudio 3D de um sistema áudio 3D;
[019] A Fig. 3 ilustra um exemplo para implementação de um conversor de formato que pode ser implementado no descodificador áudio 3D da Fig. 2;
[020] A Fig. 4 ilustra uma vista de cima esquemática de uma configuração do altifalante;
[021] A Fig. 5 ilustra uma vista traseira esquemática de outra configuração do altifalante;
[022] As Figs. 6a e 6b ilustram vistas esquemáticas de um aparelho para mapeamento do primeiro e do segundo canal de entrada para um canal de saída;
[023] As Figs. 7a e 7b ilustram vistas esquemáticas de um aparelho para mapeamento do primeiro e do segundo canal de entrada para vários canais de saída;
[024] A Fig. 8 ilustra uma vista esquemática de um aparelho para mapeamento de um primeiro canal e de um segundo canal para um canal de saída;
[025] A Fig. 9 ilustra uma vista esquemática de um aparelho para mapeamento do primeiro e do segundo canal de entrada para diferentes canais de saída;
[026] A Fig. 10 ilustra um diagrama de blocos de uma unidade de processamento de sinais para mapeamento de canais de entrada de uma configuração do canal de entrada para canais de saída de uma configuração do canal de saída;
[027] A Fig. 11 ilustra uma unidade de processamento de sinais; e
[028] A Fig. 12 é um diagrama que ilustra as bandas chamadas de Blauert.
[029] Antes da descrição dos modelos da abordagem inovadora em detalhe, é dada uma visão global de um sistema do codec áudio 3D no qual a abordagem inovadora pode ser implementada.
[030] As Figs. 1 e 2 ilustram blocos algorítmicos de um sistema áudio 3D de acordo com os modelos. Mais especificamente, a Fig. 1 ilustra uma visão global de um codificador áudio 3D 100. O codificador áudio 100 recebe num circuito de pré-transmissor/misturador 102, que pode estar opcionalmente previsto, sinais de entrada, mais especificamente uma série de canais de entrada fornecendo ao codificador áudio 100 uma série de sinais de canal 104, uma série de sinais de objeto 106 e respectivos metadados de objeto 108. Os sinais de objeto 106 processados encontram-se junto ao pré- transmissor/misturador 102 (ver sinais 110) podem ser fornecidos ao codificador SAOC 112 (SAOC = Codificação do Objeto Áudio Espacial). O codificador SAOC 112 gera os canais de transporte SAOC 114 fornecidos às entradas de um codificador USAC 116 (USAC = Discurso unificado e codificação áudio). Além disso, o sinal SAOC-SI 118 (SAOC-SI = informação paralela SAOC) é também fornecido às entradas do codificador USAC 116. O codificador USAC 166 recebe depois sinais objeto 120 diretamente do pré- transmissor/misturador assim como os sinais do canal e sinais de objeto pré- transmitidos 122. A informação de metadados do objeto 108 é aplicada a um codificador OAM 124 (OAM = metadados do objeto) fornecendo a informação de metadados do objeto comprimida 126 ao codificador USAC. O codificador USAC 116, com base nos sinais de entrada mencionados, gera um sinal de saída comprimido MP4, tal como ilustrado em 128.
[031] A Fig. 2 ilustra uma visão global de um descodificador áudio 3D 200 do sistema áudio 3D. O sinal codificado 128 (MP4) gerado pelo codificador áudio 100 da Fig. 1 é recebido no descodificador áudio 200, mais especialmente num descodificador USAC 202. O descodificador USAC 202 descodifica o sinal recebido 128 em sinais do canal 204, os sinais objeto pré- transmitidos 206, os sinais objeto 208, e os sinais do canal de transporte SAOC 210. Além disso, a informação de metadados do objeto comprimidos 212 e o sinal SAOC-SI 214 são obrigados a sair pelo descodificador USAC. Os sinais objeto 208 são fornecidos a um objeto transmitido 216 com capacidade de saída de sinais objeto transmitidos 218. Os sinais do canal de transporte SAOC 210 são fornecidos ao descodificador SAOC 220 com capacidade de saída de sinais objeto transmitidos 222. A informação de metadados do objeto comprimidos 212 é fornecida ao descodificador OAM 224 com capacidade de saída dos respectivos sinais de controlo ao transmissor do objeto 216 e ao descodificador SAOC 220 para gerar os sinais objeto transmitidos 218 e aos sinais objeto transmitido 222. O descodificador compreende ainda um misturador 226 que recebe, tal como ilustrado na Fig. 2, os sinais de entrada 204, 206, 218 e 222 com capacidade de saída dos sinais do canal 228. Os sinais do canal podem sair diretamente para um altifalante, por exemplo, um altifalante do canal 32, tal como indicado em 230. Em alternativa, os sinais 228 podem ser fornecidos a um circuito de conversão de formato 232 que recebe como uma entrada de controlo um sinal de configuração de reprodução indicando o modo como os sinais do canal 228 vão ser convertidos. No modelo descrito na Fig. 2, pressupõe-se que a conversão deva ser efetuada de maneira que os sinais possam ser fornecidos a um sistema de altifalantes 5.1 tal como indicado em 234. Também, os sinais dos canais 228 são fornecidos a um transmissor binaural 236 que gera dois sinais de saída, por exemplo para um auscultador, tal como indicado em 238.
[032] O sistema de codificação/descodificação descrito nas Figs. 1 e 2 pode ser baseado no codec MPEG-D USAC para codificar os sinais do canal e objeto (ver sinais 104 e 106). Para aumentar a eficácia para codificação de um grande número de objetos, a tecnologia MPEG SAOC pode ser utilizada. Três tipos de transmissores podem executar as tarefas de transmissão de objetos para canais, renderizando canais para auscultadores ou renderizando canais para uma diferente definição de altifalante (ver Fig. 2, sinais de referência 230, 234 e 238). Quando sinais objeto são explicitamente transmitidos ou parametricamente codificados utilizando SAOC, a respetiva informação de metadados objeto 108 é comprimida (ver sinal 126) e multiplexada no fluxo de bits de áudio 3D 128.
[033] As Figs. 1 e 2 ilustram os blocos de algoritmo para todo o sistema áudio 3D que será descrito com mais detalhe em baixo.
[034] O pré-transmissor/misturador 102 pode ser opcionalmente fornecido para converter um canal mais cena de entrada de objeto numa cena de canal antes da codificação. Funcionalmente, é idêntico ao objeto transmissor/misturador que irá ser descrito em detalhe em baixo. A pré- transmissão de objetos pode ser desejada para assegurar uma entropia do sinal determinista na entrada do codificador basicamente independente do número de sinais objeto simultaneamente ativos. Com a pré-transmissão de objetos, nenhuma transmissão de metadados é necessária. Discretos sinais objeto são transmitidos à configuração do canal que o codificador é configurado para utilizar. Os pesos dos objetos para cada canal são obtidos a partir de metadados objeto associados (OAM).
[035] O codificador USAC 116 é o codec núcleo para sinais de canal de altifalantes, discretos sinais objetos, sinais objeto de downmix e sinais pré- transmitidos. Tem como base a tecnologia MPEG-D USAC. Trata a codificação dos sinais em cima criando informação de mapeamento canal e objeto com base em informação geométrica e semântica do canal de entrada e atribuição do objeto. Esta informação de mapeamento descreve como canais de entrada e objetos são mapeados para elementos de canais USAC, como elementos de par de canais (CPEs), elementos de canal único (SCEs), efeitos de baixa frequência (LFEs) e elementos de quatro canais (QCEs) e CPEs, SCEs e LFEs, e a respetiva informação é transmitida ao descodificador. Todas as cargas úteis adicionais como dados SAOC 114, 118 ou metadados objeto 126 são consideradas no controlo da velocidade dos codificadores. A codificação de objetos é possível de diferentes maneiras, dependendo dos requisitos velocidade/distorção e dos requisitos de interatividade para o transmissor. De acordo com os modelos, as seguintes variantes de codificação de objeto são possíveis:
[036] Objetos pré-transmitidos: Os sinais objeto são pré-transmitidos e misturados aos sinais do canal 22.2 antes da codificação. A posterior cadeia de codificação apresenta sinais do canal 22.2.
[037] Formas de onda objeto discretas: Os objetos são fornecidos como formas de onda monofónicas ao codificador. O codificador utiliza elementos de canal único (SCEs) para transmitir os objetos para além dos sinais do canal. Os objetos descodificados são transmitidos e misturados no lado receptor. Informação de metadados objeto comprimidos é transmitida ao receptor/transmissor.
[038] Formas de onda objeto paramétrico: As características objeto e a sua relação entre si são descritas através de parâmetros SAOC. O down-mix dos sinais objeto é codificado com a USAC. A informação paramétrica é transmitida lado a lado. O número de canais de downmix é escolhido dependendo do número de objetos e da velocidade de transmissão total. A informação de metadados objeto comprimida é transmitida ao transmissor SAOC.
[039] O codificador SAOC 112 e o descodificador SAOC 220 para sinais objeto pode ter como base a tecnologia MPEG SAOC. O sistema é capaz de recrear, modificar e transmitir um número de objetos áudio baseados num número mais pequeno de canais transmitidos e dados paramétricos adicionais, tais como OLDs, IOCs (Coerência Entre Objetos), DMGs (Ganhos Down Mix). O dado paramétrico adicional exibe uma velocidade de transmissão significativamente inferior ao exigido para transmitir todos os objetos individualmente, tornando a codificação muito difícil. O codificador SAOC 112 considera como entrada os sinais objeto/canal como formas de onda monofónicas e como saídas a informação paramétrica (compactados no fluxo de bits de áudio 3D 128) e os canais de transporte SAOC (codificados utilizando elementos de canal único e transmitidos). O descodificador SAOC 220 reconstrói os sinais objeto/canal dos canais de transporte SAOC descodificados 210 e a informação paramétrica 214, e gera a cena de áudio de saída com base na configuração de reprodução, na informação de metadados objeto e opcionalmente com base na informação de interação do utilizador.
[040] O codec de metadados objeto (ver codificador OAM 124 e codificador OAM 224) está previsto de modo que, para cada objeto, os metadados associados que especificam a posição geométrica e o volume dos objetos no espaço 3D são eficazmente codificados através de quantização das características objeto no tempo e no espaço. Os metadados objeto comprimidos cOAM 126 são transmitidos ao receptor 200 como informação lateral.
[041] O transmissor objeto 216 utiliza os metadados objeto comprimidos para gerar formas de onda objeto de acordo com o dado formato de reprodução. Cada objeto é transmitido a um certo canal de saída 218 de acordo com estes metadados. A saída deste bloco resulta da soma dos resultados parciais. Se tanto o conteúdo baseado no canal assim como objetos discretos/paramétricos forem codificados, as formas de onda baseadas no canal e as formas de onda objeto transmitido são misturadas pelo misturador 226 antes da saída das formas de onda resultantes 228 ou antes de as alimentar a um módulo pós-processador como o transmissor binaural 236 ou o módulo transmissor do altifalante 232.
[042] O módulo transmissor binaural 236 produz um downmix binaural do material áudio multicanal de modo que cada canal de entrada seja representado por uma fonte de som virtual. O processamento é conduzido por quadro no domínio QMF (Banco de Filtros Espelho em Quadratura), e a binauralização é baseada nas respostas de impulso do espaço binaural medido.
[043] O transmissor do altifalante 232 converte entre a configuração do canal transmitido 228 e o formato de reprodução desejado. Pode também ser designado de “conversor de formato”. O conversor de formato executa conversões para baixos números de canais de saída, isto é, cria downmixes.
[044] Uma possível implementação de um conversor de formato 232 é ilustrada na Fig. 3. Em modelos da invenção, a unidade de processamento de sinais é esse conversor de formato. O conversor de formato 232, também referido como transmissor do altifalante, converte entre a configuração do canal transmissor e o formato de reprodução desejado mapeando os canais (de entrada) transmissores da configuração do canal (de entrada) transmissor para os canais (de saída) do formato de reprodução desejado (configuração do canal de saída). O conversor de formato 232 regra geral executa conversões para um baixo número de canais de saída, isto é, executa um processo de downmix (DMX) 240. O downmixer 240, que de preferência opera no domínio QMF, recebe os sinais de saída do misturador 228 e produz sinais do altifalante 234. Um configurador 242, também referido como controlador, pode estar previsto para receber, como um controlo de entrada, um sinal 246 indicativo da configuração de saída do misturador (configuração do canal de entrada), isto é, a configuração para a qual os dados representados pelo sinal de saída do misturador 228 são determinados, e o sinal 248 indicativo da configuração de reprodução desejada (configuração do canal de saída). Com base nesta informação, o controlador 242, de preferência automaticamente, gera matrizes de downmix para a dada combinação de formatos de entrada e de saída e aplica estas matrizes ao downmixer 240. O conversor de formato 232 permite configurações do altifalante padrão assim como configurações aleatórias com posições do altifalante não padrão.
[045] Os modelos desta invenção dizem respeito a uma implementação do transmissor do altifalante 232, isto é, aparelho e métodos para a implementação de parte da funcionalidade do transmissor do altifalante 232.
[046] Referência será agora feita às Figs. 4 e 5. A Fig. 4 ilustra uma configuração do altifalante que representa um formato 5.1 compreendendo seis altifalantes representando um canal esquerdo LC, um canal central CC, um canal direito RC, um canal de som esquerdo LSC, um canal de som direito LRC e um canal de enriquecimento de baixa frequência LFC. A Fig. 5 ilustra outra configuração do altifalante compreendendo altifalantes que representam um canal esquerdo LC, um canal central CC, um canal direito RC e um canal central elevado ECC.
[047] A seguir, o canal de enriquecimento de baixa frequência não é considerado pois a posição exata do altifalante (“subwoofer” - altifalante de graves) associado ao canal de enriquecimento de baixa frequência não é relevante.
[048] Os canais encontram-se dispostos em direções específicas em relação a uma posição central do ouvinte P. A direção de cada canal encontra- se definida por um ângulo azimutal α e um ângulo de elevação β, ver Fig. 5. O ângulo azimutal representa o ângulo do canal num plano horizontal do ouvinte 300 e pode representar a direção do respectivo canal em relação a uma direção central dianteira 302. Tal como pode ser observado na Fig. 4, a direção central dianteira 302 pode ser definida como a suposta direção de visão de um ouvinte localizado na posição P. Uma direção central traseira 304 compreende um ângulo azimutal de 180° em relação à direção central dianteira 300. Todos os ângulos azimutais à esquerda da direção central dianteira entre a direção central dianteira e a direção central traseira encontram-se no lado esquerdo da direção central dianteira e todos os ângulos azimutais à direita da direção central dianteira entre a direção central dianteira e a direção central traseira encontram-se no lado direito da direção central dianteira. Todos os altifalantes localizados em frente a uma linha virtual 306, ortogonal à direção central dianteira 302 e passa a posição central do ouvinte P, são altifalantes frontais e altifalantes localizados atrás da linha virtual 306 são altifalantes traseiros. No formato 5.1, o ângulo azimutal α do canal LC é de 30° à esquerda, α do CC é de 0°, α do RC é de 30° à direita, α do LSC é de 110° à esquerda, e α do RSC é de 110° à direita.
[049] O ângulo de elevação β de um canal define o ângulo entre o plano horizontal do ouvinte 300 e a direção de uma ligação virtual entre a posição central do ouvinte e o altifalante associado ao canal. Na configuração ilustrada no Fig. 4, todos os altifalantes encontram-se colocados no plano horizontal do ouvinte 300 e, por isso, todos os ângulos de elevação são de zero. Na Fig. 5, o ângulo de elevação β do canal ECC pode ser de 30°. Um altifalante localizado exatamente por cima da posição central do ouvinte teria um ângulo de elevação de 90°. Os altifalantes dispostos por baixo do plano horizontal do ouvinte 300 possuem um ângulo de elevação negativo. Na Fig. 5, o LC tem uma direção x1, CC tem uma direção x2, RC tem uma direção x3 e ECC tem uma direção x4.
[050] A posição de um canal especial no espaço, isto é, a posição do altifalante associada ao canal especial, é dada pelo ângulo azimutal, o ângulo de elevação e a distância do altifalante a partir da posição central do ouvinte. Dever-se-á ter em atenção que o termo “posição de um altifalante” é muitas vezes descrito pelos especialistas na área como referência ao ângulo azimutal e ao ângulo de elevação apenas.
[051] Regra geral, uma conversão de formato entre diferentes configurações do canal do altifalante é executada como um processo de downmixing que planeia um número de canais de entrada a um número de canais de saída, em que o número de canais de saída é regra geral mais pequeno do que o número de canais de entrada, e em que as posições do canal de saída podem divergir das posições do canal de entrada. Um ou mais canais de entrada pode ser misturado ao mesmo canal de saída. Ao mesmo tempo, um ou mais canais de entrada pode ser transmitido sobre mais do que um canal de saída. Este mapeamento dos canais de entrada ao canal de saída é habitualmente determinado por um conjunto de coeficientes de downmix, ou alternativamente formulado como uma matriz de downmix. A escolha dos coeficientes de downmix afeta significativamente a qualidade do som de downmix de saída alcançável. Más escolhas podem conduzir a uma mistura desequilibrada ou a uma má reprodução espacial da cena sonora de entrada.
[052] Cada canal tem nele associado um sinal de áudio a ser reproduzido pelo respectivo altifalante. A instrução em que um canal específico é processado (tal como aplicando um coeficiente, aplicando um filtro de equalização ou aplicando um filtro de descorrelação) significa que o sinal de áudio associado a este canal é processado. No contexto deste pedido, o termo “filtro de equalização” significa envolver qualquer meio de aplicação de uma equalização para o sinal de modo que uma frequência dependente do peso de partes do sinal seja alcançada. Por exemplo, um filtro de equalização pode ser configurado para aplicar coeficientes de ganho em função da frequência a bandas de frequência do sinal. No contexto deste pedido, o termo “filtro de descorrelação” significa envolver qualquer meio de aplicação de uma descorrelação ao sinal, tal como através da introdução de atrasos em função da frequência e/ou fases aleatórias no sinal. Por exemplo, um filtro de descorrelação pode ser configurado para aplicar coeficientes de atraso em função da frequência a bandas de frequência do sinal e/ou aplicar coeficientes de fases aleatórias ao sinal.
[053] Em modelos da invenção, o mapeamento de um canal de entrada em um ou mais canais de saída inclui a aplicação de pelo menos um coeficiente a ser aplicado ao canal de entrada para cada canal de saída ao qual o canal de entrada é mapeado. O pelo menos um coeficiente pode incluir um coeficiente de ganho, isto é, um valor ganho, a ser aplicado ao sinal de entrada associado ao canal de entrada, e/ou um coeficiente de atraso, isto é, um valor de atraso a ser aplicado ao sinal de entrada associado ao canal de entrada. Em modelos da invenção, o mapeamento pode incluir a aplicação de coeficientes seletivos de frequência, isto é, diferentes coeficientes para diferentes bandas de frequências dos canais de entrada. Em modelos da invenção, o mapeamento de canais de entrada para canais de saída inclui a geração de uma ou mais matrizes de coeficientes dos coeficientes. Cada matriz define um coeficiente a ser aplicado a cada canal de entrada da configuração do canal de entrada para cada canal de saída da configuração do canal de saída. Para canais de saída, para o qual o canal de entrada não está mapeado, o respectivo coeficiente na matriz de coeficientes será zero. Em modelos da invenção, matrizes de coeficientes separados para coeficientes de ganho e coeficientes de atraso podem ser geradas. Em modelos da invenção, uma matriz do coeficiente para cada banda de frequência pode ser gerada no caso de coeficientes serem seletivos de frequência. Em modelos da invenção, o mapeamento pode incluir ainda a aplicação de coeficientes derivados aos sinais de entrada associados aos canais de entrada.
[054] Para obter bons coeficientes de downmix, um perito (por exemplo, um engenheiro de som) pode sintonizar manualmente os coeficientes, tendo em consideração este conhecimento técnico. Outra possibilidade é automaticamente derivar coeficientes de downmix para uma dada combinação de configurações de entrada e de saída tratando cada canal de entrada como uma fonte sonora virtual cuja posição no espaço é dada pela posição no espaço associada ao canal em especial, isto é, a posição do altifalante associada ao canal de entrada em especial. Cada fonte virtual pode ser reproduzida por um algoritmo através do controlo de panorâmico genérico como controlo de panorâmico tangente em 2D ou do controlo de panorâmico de amplitude do vetor base (VBAP) em 3D, ver V. Pulkki: “Virtual Sound Source Positioning Using Vector Base Amplitude Panning”, Journal of the Audio Engineering Society, vol. 45, pp. 456-466, 1997. Outra proposta para uma derivação matemática, isto é, automática de coeficientes downmix para uma dada combinação de configurações de entrada e de saída foi feita por A. Ando: “Conversion of Multichannel Sound Signal Maintaing Phusical Properties of Sound in Reproduced Sound Field”, IEEE Transactions on Audio, Speech, and Language Processing, vol. 19, n° 6, Agosto de 2011.
[055] Por conseguinte, abordagens de downmix existentes são principalmente baseadas em três estratégias para a derivação de coeficientes de downmix. A primeira estratégia é um mapeamento direto de canais de entrada rejeitados para canais de saída na mesma ou comparável posição azimutal. Desvios de elevação são negligenciados. Por exemplo, é uma prática comum transmitir canais de altura diretamente com canais horizontais na mesma ou comparável posição azimutal, se a camada de altura não estiver presente na configuração do canal de saída. Uma segunda estratégia é a utilização de algoritmos genéricos através do controlo de panorâmico, que tratam os canais de entrada como fontes sonoras virtuais e preservam informação azimutal através da introdução de fontes fantasma na posição de canais de entrada rejeitados. Desvios de elevação são negligenciados. Nos métodos do estado da arte o controlo de panorâmico é utilizado apenas se não existir um altifalante de saída disponível na posição de saída desejada, por exemplo no ângulo azimutal desejado. Uma terceira estratégia é a incorporação de conhecimento técnico para a derivação de coeficientes de downmix ótimos no sentido empírico, artístico ou psicoacústico. Uma aplicação separada ou combinada de diferentes estratégias pode ser utilizada.
[056] Os modelos da invenção fornecem uma solução técnica que permite melhorar ou otimizar um processo de downmixing de modo que sinais de saída de downmix de elevada qualidade possam ser obtidos do que sem utilizar esta solução. Em modelos, a solução pode melhorar a qualidade de downmix em casos em que a diversidade espacial inerente à configuração do canal de entrada se teria perdido durante o downmixing sem aplicar a solução proposta.
[057] Com esta finalidade, os modelos da invenção permitem a preservação da diversidade espacial inerente à configuração do canal de entrada e que não é preservada pela abordagem de downmix direta (DMX). Os cenários de downmix, nos quais o número de canais acústicos é reduzido, modelos da invenção têm como principal objetivo reduzir a perda de diversidade e envolvimento, que implicitamente ocorre aquando do mapeamento a partir de um número elevado para um número baixo de canais.
[058] Os inventores reconheceram que, dependendo da configuração específica, a diversidade espacial inerente e o envolvimento espacial de uma configuração do canal de entrada é muitas vezes consideravelmente reduzida ou completamente perdida na configuração do canal de saída. Além disso, se eventos de auditório forem simultaneamente reproduzidos a partir de vários altifalantes na configuração de entrada, tornam-se mais coerentes, condensados e focados na configuração de saída. Isto pode conduzir a uma impressão espacial perceptivamente mais premente, que muitas vezes surge como menos aprazível do que a configuração do canal de entrada. Os modelos da invenção têm como objetivo uma preservação explícita da diversidade espacial na configuração do canal de entrada pela primeira vez. Os modelos da invenção têm como objetivo a preservação da localização observada de um evento de auditório o mais próximo possível comparando com o caso da utilização da configuração do altifalante do canal de entrada original.
[059] Por conseguinte, os modelos da invenção fornecem uma abordagem específica de mapeamento de um primeiro canal de entrada e de um segundo canal de entrada, associados a diferentes posições do altifalante de uma configuração do canal de entrada e, desse modo, compreendem uma diversidade espacial, a pelo menos um canal de saída. Em modelos da invenção, o primeiro e o segundo canal de entrada encontram-se em diferentes elevações em relação a um plano horizontal do ouvinte. Assim, os desvios de elevação entre o primeiro canal de entrada e o segundo canal de entrada podem ser tidos em consideração para promover a reprodução sonora utilizando os altifalantes da configuração do canal de saída.
[060] No contexto deste pedido, a diversidade pode ser descrita do seguinte modo. Diferentes altifalantes de uma configuração do canal de entrada resultam em diferentes canais acústicos dos altifalantes aos ouvidos, tal como os ouvidos do ouvinte na posição P. Existe um número de trajetos acústicos diretos e um número de trajetos acústicos indiretos, também conhecidos como reflexões ou reverberação, que surgem de uma emotividade do auditório diversidade e que adiciona correlação adicional e alterações de timbre aos sinais apreendidos das diferentes posições do altifalante. Os canais acústicos podem ser totalmente modelados por BRIRs, característicos para cada auditório. A experiência do auditório de uma configuração do canal de entrada é fortemente dependente de uma combinação característica de diferentes canais de entrada e diversos BRIRs, correspondendo a posições específicas do altifalante. Assim, a diversidade e o envolvimento surge das diversas modificações de sinal, inerentemente aplicadas a todos os sinais de altifalantes no auditório.
[061] O raciocínio para a necessidade de abordagens de downmix, que preservam a diversidade espacial de uma configuração do canal de entrada é agora apresentado. Uma configuração do canal de entrada pode utilizar mais altifalantes do que uma configuração do canal de saída ou pode utilizar pelo menos um altifalante não presente na configuração do altifalante de saída. Meramente para fins ilustrativos, uma configuração do canal de entrada pode utilizar altifalantes LC, CC, RC, ECC tal como ilustrado na Fig. 5, enquanto uma configuração do canal de saída pode utilizar apenas altifalantes LC, CC e RC, isto é, não utiliza altifalantes ECC. Desse modo, a configuração do canal de entrada utiliza um elevado número de camadas de leitura do que a configuração do canal de saída. Por exemplo, a configuração do canal de entrada pode fornecer altifalantes tanto horizontais (LC, CC, RC) como em altura (ECC), enquanto a configuração de saída pode apenas fornecer altifalantes horizontais (LC, CC, RC). Assim, o número de canais acústicos do altifalante aos ouvidos é reduzido com a configuração do canal de saída em situações de downmix. Especificamente, downmixes (DMWes) 3D (por ex.: 22.2) a 2D (por ex.: 5.19 são afetados na sua maioria devido à falta de diferentes camadas de reprodução na configuração do canal de saída. Os graus de liberdade a atingir uma experiência de auditório idêntica com a configuração do canal de saída em relação à diversidade e envolvimento são reduzidos e, assim, limitados. Os modelos da invenção fornecem abordagens de downmix, melhorando a preservação da diversidade espacial de uma configuração do canal de entrada, em que os aparelhos e métodos descritos não se restringem a qualquer tipo especial de abordagem de downmix e podem ser aplicados em vários contextos e aplicações.
[062] A seguir, os modelos da invenção são descritos fazendo-se referência ao cenário específico ilustrado na Fig. 5. Contudo, os problemas e soluções descritos podem ser facilmente adaptados a outros cenários com condições idênticas. Sem preda de generalidade, as seguintes configurações do canal de entrada e de saída são assumidas:
[063] Configuração do canal de entrada: quatro altifalantes LC, CC, RC e ECC nas posições x1 = (α1, β1), x2 = (α2, β1), x3 = (α3, β1) e x4 = (α4, β2), em que α2 ~ α4 ou α2 = α4.
[064] Configuração do canal de saída: três altifalantes na posição x1 = (α1, β1), x2 = (α2, β1) e x3 = (α3, β1), isto é, o altifalante na posição x4 é rejeitado no downmix. α representa o ângulo azimutal e β representa o ângulo de elevação.
[065] Tal como explicado em cima, uma abordagem DMX direta deverá priorizar a preservação da informação azimutal direcional e apenas rejeitar qualquer desvio de elevação. Desse modo, os sinais do altifalante ECC na posição x4 deverão simplesmente passar para o altifalante CC na posição x2. Contudo, ao fazê-lo as características perdem-se. Em primeiro lugar, diferenças de timbre, devido a diferentes BRIRs, inerentemente aplicados nas posições de reprodução x2 e x4 perdem-se. Em segundo lugar, a diversidade espacial dos sinais de entrada, reproduzidos em diferentes posições x2 e x4 perdem-se. Em terceiro lugar, uma descorrelação inerente de sinais de entrada devido a diferentes trajetos de propagação acústica das posições x2 e x4 aos ouvidos dos ouvintes perde-se.
[066] Os modelos da invenção têm como objetivo uma preservação ou emulação de uma ou mais das características descritas através da aplicação das estratégias aqui explicadas em separado ou combinadas para o processo de downmixing.
[067] As Figs. 6a e 6b ilustram vistas esquemáticas para explicar um aparelho 10 para implementação de uma estratégia, na qual um primeiro canal de entrada 12 e um segundo canal de entrada 14 são mapeados para o mesmo canal de saída 16, em que o processamento do segundo canal de entrada é executado através da aplicação de pelo menos um filtro de equalização e um filtro de descorrelação ao segundo canal de entrada. Este processamento encontra-se indicado na Fig. 6a através do bloco 18.
[068] É claro para os especialistas na área que os aparelhos explicados e descritos neste pedido podem ser implementados através dos respectivos computadores ou processadores configurados e/ou programados para obter a funcionalidade descrita. Em alternativa, os aparelhos podem ser implementados como outras estruturas de hardware programadas, tal como redes de portas lógicas programáveis, e idêntico.
[069] O primeiro canal de entrada 12, na Fig. 6a, pode estar associado ao altifalante central CC na direção x2 e o segundo canal de entrada 14 pode estar associado ao altifalante central elevado ECC na posição x4 (na configuração do canal de entrada, respetivamente). O canal de saída 16 pode estar associado ao altifalante central elevado ECC na posição x2 (na configuração do canal de saída). A Fig. 6b ilustra que o canal 14 associado ao altifalante na posição x4 é mapeado para o primeiro canal de saída 16 associado ao altifalante CC na posição x2 e que este mapeamento compreende processamento 18 do segundo canal de entrada 14, isto é, processamento do sinal de áudio associado ao segundo canal de entrada 14. O processamento do segundo canal de entrada compreende a aplicação de pelo menos um filtro de equalização e um filtro de descorrelação para o segundo canal de entrada para preservar diferentes características entre o primeiro e o segundo canal de entrada na configuração do canal de entrada. Em modelos, o filtro de equalização e/ou o filtro de descorrelação podem ser configurados para preservar características relativas às diferenças de timbre devido a diferentes BRIRs, inerentemente aplicadas nas diferenças posições do altifalante x2 e x4 associados ao primeiro e ao segundo canais. Em modelos, o filtro de equalização e/ou o filtro de descorrelação são configurados para preservar diversidade espacial de sinais de entrada, reproduzidos em diferentes posições de modo que a diversidade espacial do primeiro e do segundo canais de entrada se mantenha perceptível apesar de o facto de que o primeiro e o segundo canais de entrada são mapeados para o mesmo canal de saída.
[070] Em modelos da invenção, um filtro de descorrelação é configurado para preservar uma descorrelação inerente de sinais de entrada devido a diferentes trajetos de propagação acústica provenientes de diferentes posições associadas ao primeiro e ao segundo canais de entrada aos ouvidos do ouvinte.
[071] Num modelo da invenção, um filtro de equalização é aplicado ao segundo canal de entrada, isto é, o sinal de áudio associado ao segundo canal de entrada na posição x4, se for downmixed para o altifalante CC na posição x2. O filtro de equalização compensa as alterações de timbre de diferentes canais acústicos e pode ser derivado com base em conhecimento técnico empírico e/ou dados BRIR medidos ou idêntico. Por exemplo, assume-se que a configuração do canal de entrada fornece um canal Voz de Deus (VoG) numa elevação de 90°. Se a configuração do canal de saída fornecer apenas altifalantes numa camada e o canal VoG for rejeitado como, por exemplo, com uma configuração de saída 5.1, é uma simples abordagem direta distribuir o canal VoG a todos os altifalantes de saída para preservar a informação direcional do canal VoG pelo menos no ponto ideal.
[072] Contudo, o altifalante VoG original é apreendido de modo bem diferente devido a um BRIR diferente. Através da aplicação de um filtro de equalização dedicado ao canal VoG antes da distribuição a todos os altifalantes de saída, a diferença de timbre pode ser compensada.
[073] Em modelos da invenção, o filtro de equalização pode ser configurado para executar uma ponderação em função da frequência do canal de entrada de correspondente para ter em consideração os achados psicoacústicos em redor da percepção de sinais de áudio. Um exemplo desses achados é as chamadas bandas Blauert, representando bandas determinadoras de direção. A Fig. 12 ilustra três gráficos 20, 22 e 24 representando a probabilidade de que uma direção específica de sinais de áudio é reconhecida. Tal como pode ser observado do gráfico 20, os sinais de áudio em cima podem ser reconhecidos com elevada probabilidade numa banda de frequências 1200 entre 7 kHz e 10 kHz. Tal como pode ser observado do gráfico 22, os sinais de áudio atrás podem ser reconhecidos com elevada probabilidade numa banda de frequências 1202 de cerca de 0.7 kHz a cerca de 2 kHz numa banda de frequências 1204 de cerca de 10 kHz a cerca de 12.5 kHz. Tal como pode ser observado do gráfico 24, os sinais de áudio à frente podem ser reconhecidos com elevada probabilidade numa banda de frequências 1206 de cerca de 0.3 kHz a 0.6 kHz e numa banda de frequências 1208 de cerca de 2.52 a cerca de 5.5 kHz.
[074] Em modelos da invenção, o filtro de equalização é configurado utilizando este reconhecimento. Por outras palavras, o filtro de equalização pode ser configurado para aplicar coeficientes (impulso) de ganho elevado a bandas de frequências conhecidas para darem a um utilizador a impressão que o som provém de umas direções específicas, quando comparado com outras bandas de frequências. Para ser mais específico, no caso de um canal de entrada para um canal de saída inferior, uma parte espectral do canal de entrada na gama da banda de frequências 1200 entre 7 kHz e 10 kHz pode ser impulsionada quando comparada com outras partes espectrais dos segundos canais de entrada de modo que o ouvinte possa ter a impressão que o respectivo sinal provém de uma posição elevada. Do mesmo modo, o filtro de equalização pode ser configurado para impulsionar outras partes espectrais do segundo canal de entrada tal como ilustrado na Fig. 12. Por exemplo, no caso de um canal de entrada ser mapeado para um canal de saída colocado numa posição mais à frente, as bandas 1206 e 1208 podem ser impulsionadas, e no caso de um canal de entrada ser mapeado para um canal de saída colocado numa posição mais à retaguarda, as bandas 1202 e 1204 podem ser impulsionadas.
[075] Em modelos da invenção, o aparelho está configurado para aplicar um filtro de descorrelação ao segundo canal de entrada. Por exemplo, um filtro de descorrelação/reverberação pode ser aplicado ao sinal de entrada associado ao segundo canal de entrada (associado ao altifalante na posição x4), se for downmixed a um altifalante na posição x2. Esse filtro de descorrelação/reverberação pode ser derivado das medidas BRIR ou conhecimento empírico em relação à acústica do auditório ou idêntico. Se o canal de entrada for mapeado para múltiplos canais de entrada, o sinal filtrado pode ser reproduzido sobre os vários altifalantes, em que para cada altifalante diferentes filtros podem ser aplicados. O filtro (s) pode também modelar apenas os reflexos iniciais.
[076] A Fig. 8 ilustra uma vista esquemática de um aparelho 30 compreendendo um filtro 32, que pode representar um filtro de equalização ou um filtro de descorrelação. O aparelho 30 recebe um número de canais de entrada 34 e produz um número de canais de saída 36. Os canais de entrada 34 representam uma configuração do canal de entrada e os canais de saída 36 representam uma configuração do canal de saída. Tal como ilustrado na Fig. 8, um terceiro canal de entrada 38 é diretamente mapeado para um segundo canal de saída 42 e um quarto canal de entrada 40 é diretamente mapeado para um terceiro canal de saída 44. O terceiro canal de entrada 38 pode ser um canal esquerdo associado ao altifalante esquerdo LC. O quarto canal de entrada 40 pode ser um canal de entrada direito associado ao altifalante direito RC. O segundo canal de saída 42 pode ser um canal esquerdo associado ao altifalante esquerdo LC e o terceiro canal de saída 44 pode ser um canal direito associado ao altifalante direito RC. O primeiro canal de entrada 12 pode ser o canal horizontal central associado ao altifalante central CC e o segundo canal de entrada 14 pode ser o canal central de altura associado ao altifalante central elevado ECC. O filtro 32 é aplicado ao segundo canal de entrada 14, isto é, o canal central de altura. O filtro 32 pode ser um filtro de descorrelação ou reverberação. Após a filtragem, o segundo canal de entrada é encaminhado para um altifalante horizontal central, isto é, o primeiro canal de saída 16 associado ao altifalante CC na posição x2. Assim, ambos canais de entrada 12 e 14 são mapeados para o primeiro canal de saída 16, tal como indicado pelo bloco 46 na Fig. 8. Em modelos da invenção, o primeiro canal de entrada 12 e a versão processada do segundo canal de entrada 14 podem ser adicionados no bloco 46 e fornecidos ao altifalante associado ao canal de saída 16, isto é, ao altifalante horizontal central CC no modelo descrito.
[077] Em modelos da invenção, o filtro 32 pode ser um filtro de descorrelação ou de reverberação de modo a modelar o efeito de auditório adicional percepcionado quando dois canais acústicos separados se encontram presentes. A descorrelação pode ter o benefício adicional de que perturbações de cancelamento DMX podem ser reduzidas por esta notificação. Em modelos da invenção, o filtro 32 pode ser um filtro de equalização e pode ser configurado para executar uma equalização de timbre. Noutros modelos da invenção, um filtro de descorrelação e um filtro de reverberação podem ser aplicados de modo a aplicarem a equalização e descorrelação de timbre antes do downmixing do sinal do altifalante elevado. Em modelos da invenção, o filtro 32 pode ser configurado para combinar ambas funcionalidades, isto é, equalização do timbre e descorrelação.
[078] Em modelos da invenção, o filtro de descorrelação pode ser implementado como um filtro de reverberação introduzindo reverberações no segundo canal de entrada. Em modelos da invenção, o filtro de descorrelação pode ser configurado para convolver o segundo canal de entrada com uma sequência de ruído exponencialmente descendente. Em modelos da invenção, qualquer filtro de descorrelação pode ser utilizado para descorrelacionar o segundo canal de entrada de modo a preservar a impressão dada a um ouvinte de que o sinal do primeiro canal de entrada e o segundo canal de entrada provém de altifalantes em diferentes posições.
[079] A Fig. 7a ilustra uma vista esquemática de um aparelho 50 de acordo com outro modelo. O aparelho 50 está configurado para receber o primeiro canal de entrada 12 e o segundo canal de entrada 14. O aparelho 50 está configurado para mapear o primeiro canal de entrada 12 diretamente para o primeiro canal de saída 16. O aparelho 50 está ainda configurado para gerar uma fonte fantasma através de controlo de panorâmico entre o segundo e o terceiro canais de saída, que pode ser o segundo canal de saída 42 e o terceiro canal de saída 44. Isto encontra-se indicado na Fig. 7a através do bloco 52. Assim, uma fonte fantasma dotada de um ângulo azimutal correspondente ao ângulo azimutal do segundo canal de entrada é gerada.
[080] Considerando o cenário na Fig. 5, o primeiro canal de entrada 12 pode ser associado ao altifalante horizontal central CC, o segundo canal de entrada 14 pode ser associado a um altifalante elevado central ECC, o primeiro canal de saída 16 pode ser associado ao altifalante central CC, o segundo canal de saída 42 pode ser associado ao altifalante esquerdo LC e o terceiro canal de saída 44 pode ser associado ao altifalante direito RC. Assim, no modelo ilustrado na Fig. 7a, uma fonte fantasma é colocada na posição x2 através controlo de panorâmico de altifalantes nas posições x1 e x2 em vez de diretamente aplicar o respectivo sinal ao altifalante na posição x2. Deste modo, o controlo de panorâmico entre altifalantes nas posições x1 e x3 é executado apesar do facto de existir outro altifalante na posição x2, mais próximo da posição x4 do que as posições x1 e x3. Por outras palavras, o controlo de panorâmico entre altifalantes nas posições x1 e x3 é executado apesar do facto de que desvios de ângulo azimutal Δα entre os respectivos canais 42, 44 e canal 14 são maiores do que o desvio do ângulo azimutal entre canais 14 e 16, que é 0°, ver Fig. 7b. Ao fazê-lo, a diversidade espacial introduzida pelos altifalantes nas posições x2 e x4 é preservada utilizando um altifalante discreto na posição x2 para o sinal originalmente atribuído ao respectivo canal de entrada, e uma fonte fantasma na mesma posição. O sinal no doente fantasma corresponde ao sinal do altifalante na posição x4 da configuração do canal de entrada original.
[081] A Fig. 7b ilustra esquematicamente o mapeamento do canal de entrada associado ao altifalante na posição x4 por controlo de panorâmico 52 entre o altifalante nas posições x1 e x3.
[082] Nos modelos descritos em relação às Figs. 7a e 7b, assume-se que uma configuração do canal de entrada fornece uma camada de altura e horizontal incluindo um altifalante em altura central e um altifalante horizontal central. Além disso, supõe-se que a configuração do canal de saída pode proporcionar uma camada horizontal incluindo um altifalante horizontal central e altifalantes horizontais esquerdo e direito, que possam executar uma fonte fantasma na posição do altifalante horizontal central. Tal como explicado, numa abordagem comum direta, o canal de entrada de altura central iria ser reproduzido com o altifalante de saída horizontal central. Em vez disso, de acordo com o modelo descrito da invenção, o canal de entrada de altura central é deliberadamente controlado em panorâmico entre altifalantes de saída horizontal esquerdo e direito. Desse modo, a diversidade espacial do altifalante de altura central e o altifalante horizontal central da configuração do canal de entrada é preservada utilizando o altifalante horizontal central e uma fonte fantasma alimentada pelo canal de entrada de altura central.
[083] Em modelos da invenção, para além do controlo de panorâmico, um filtro de equalização pode ser aplicado para compensar possíveis alterações de timbre devido a diferentes BRIRs.
[084] Um modelo de um aparelho 60 implementando a abordagem do controlo de panorâmico encontra-se ilustrado na Fig. 9. Na Fig. 9, os canais de entrada e os canais de saída correspondem aos canais de entrada e ao canal de saída ilustrado na Fig. 8 e a descrição daí repetida é omitida. O aparelho 60 é configurado para gerar uma fonte fantasma através do controlo de panorâmico entre o segundo e o terceiro canais de saída 42 e 44, tal como ilustrado na Fig. 9 através dos blocos 62.
[085] Em modelos da invenção, o controlo de panorâmico pode ser obtido através da utilização de algoritmos de controlo de panorâmico comuns, tais como algoritmos de controlo de panorâmico genéricos como controlo de panorâmico tangente 2D ou controlo de panorâmico de amplitude do vetor base em 3D, ver V. Pulkki: “Virtual Sound Source Positioning Using Vector Base Amplitude Panning”, Journal of the Audio Engineering Society, vol. 45, pp. 456466, 1997, e não precisa ser aqui descrito com mais detalhe. Os ganhos do controlo de panorâmico do controlo de panorâmico aplicado determinam os ganhos que são aplicados aquando do mapeamento dos canais de entrada para os canais de saída. Os sinais obtidos respectivos são adicionados ao segundo e ao terceiro canais 42 e 44, ver blocos somadores 64 na Fig. 9. Assim, o segundo canal de entrada 14 é mapeado ao segundo e terceiro canais de entrada 42 e 44 através do controlo de panorâmico de modo a gerar uma fonte fantasma na posição x2, o primeiro canal de entrada 12 é diretamente mapeado ao primeiro canal de saída 16, e o terceiro e quarto canais de entrada 38 e 40 são também mapeados diretamente ao segundo e ao terceiro canais de saída 42 e 44.
[086] Em modelos alternativos, o bloco 62 pode ser modificado de modo a adicionalmente fornecer a funcionalidade de um filtro de equalização para além da funcionalidade do controlo de panorâmico. Desse modo, possíveis alterações do timbre devido a diferentes BRIRs podem ser compensadas para além da preservação da diversidade espacial através da abordagem do controlo de panorâmico.
[087] A Fig. 10 ilustra um sistema para gerar uma matriz DMX, na qual esta invenção pode ser incluída. O sistema compreende conjuntos de regras que descrevem potenciais mapeamentos de canais de entrada e saída, bloco 400, e um seletor 402 que seleciona as regras mais adequadas para uma dada combinação de uma configuração do canal de entrada 404 e uma combinação de configuração do canal de saída 406 com base nos conjuntos de regras 400. O sistema pode compreender uma interface adequada para receber informação na configuração do canal de entrada 404 e a configuração do canal de saída 406. A configuração do canal de entrada define os canais presentes numa posição de entrada, em que cada canal de entrada tem com isso associada uma direção ou posição. A configuração do canal de saída define os canais presentes na posição de saída, em que cada canal de saída tem com isso associada uma direção ou posição. O seletor 402 fornece as regras selecionadas 408 a um avaliador 410. O avaliador 410 recebe as regras selecionadas 408 e avalia as regras selecionadas 408 para derivar coeficientes DMX 412 com base nas regras selecionadas 408. Uma matriz DMX 414 pode ser gerada a partir de coeficientes de downmix derivados. O avaliador 410 pode ser configurado para derivar a matriz de downmix dos coeficientes de downmix. O avaliador 410 pode receber informação sobre a configuração do canal de entrada e a configuração do canal de saída, tal como informação sobre a geométrica de posição de saída (por ex.: posições do canal) e informação sobre a geometria de posição de entrada (por ex.: posições do canal) e ter a informação em consideração quando deriva os coeficientes DMX. Tal como ilustrado na Fig. 11, o sistema pode ser implementado numa unidade de processamento do sinal 420 compreendendo um processador 422 programado ou configurado para atuar como o seletor 402 e o avaliador 410 e uma memória 424 configurada para armazenar pelo menos parte dos conjuntos 400 de regras de mapeamento. Outra parte das regras de mapeamento pode ser verificada pelo processador sem avaliar as regras armazenadas na memória 422. Em qualquer um dos casos, as regras são fornecidas ao processador para executar os métodos descritos. A unidade de processamento de sinais pode incluir uma interface de entrada 426 para receber os sinais de entrada 228 associados aos canais de entrada e uma interface de saída 428 para produzir os sinais de saída 234 associados aos sinais de saída.
[088] Algumas das regras 400 podem ser concebidas de modo que a unidade de processamento de sinais 420 implemente um modelo da invenção. Regras exemplo para mapeamento de um canal de entrada a um ou mais canais de saída são apresentadas na Tabela 1.
[089] Tabela 1: Regras de Mapeamento
Figure img0001
Figure img0002
Figure img0003
Figure img0004
Figure img0005
[090] As etiquetas utilizadas na tabela 1 para os respectivos canais devem ser interpretadas do seguinte modo: Caracteres “CH” significam “Canal”. O caractere “M” significa “plano horizontal do ouvinte”, isto é, um ângulo de elevação de 0°. Este é o plano no qual os altifalantes se encontram localizados numa posição normal 2D tal como estéreo ou 5.1. O caractere “L” significa um plano inferior, isto é, um ângulo de elevação <0°. O caractere “U” significa um plano elevado, isto é, um ângulo de elevação >0°, tal como 30° como um altifalante superior numa posição 3D. O caractere “T” dignifica canal de cima, isto é, um ângulo de elevação de 90°, também conhecido como canal “voz de deus”. Localizado após uma das etiquetas, M/L/U/T é uma etiqueta para esquerda (L) ou direita (R) seguida por um ângulo azimutal. Por exemplo, CH_M_L030 e CH_M_R030 representa o canal esquerdo e direito de uma posição estéreo convencional. O ângulo azimutal e o ângulo de elevação para cada canal encontram-se indicados na Tabela 1, exceto para os canais LFE e o último canal vazio.
[091] A Tabela 2 ilustra uma matriz de regras na qual uma ou mais regras são associadas a cada canal de entrada (canal fonte). Tal como se pode constatar na Tabela 1, cada regra define um ou mais canais de saída (canais de destino), ao qual o canal de entrada vai ser mapeado. Além disso, cada regra define valor de ganho G na sua terceira coluna. Cada regra define ainda um índice EQ indicando se um filtro de equalização deve ser aplicado ou não e, se for, qual o filtro de equalização específico (índice EQ de 1 a 4) deverá ser aplicado. O mapeamento do canal de entrada a um canal de saída é executado com o ganho G dado na coluna 3 da Tabela 1. O mapeamento do canal de entrada a dois canais de saída (indicados na segunda coluna) é executado através da aplicação do controlo de panorâmico entre os dois canais de saída, em que os ganhos g1 e g2 do controlo de panorâmico, resultantes da aplicação do controlo de panorâmico são adicionalmente multiplicados pelo ganho dado pela respetiva regra (coluna três na Tabela 1). Regras especiais aplicam-se para o canal de cima. De acordo com uma primeira regra, o canal de cima é mapeado a todos os canais de saída do plano superior, indicado por ALL_U, e de acordo com uma segunda regra (menos priorizada), o canal de cima é mapeado a todos os canais de saída do plano horizontal do ouvinte, indicado por ALL_M.
[092] Quando considerando as regras indicadas na Tabela 1, as regras que definem o mapeamento do canal CH_U_000 para os canais esquerdo e direito representam uma implementação de um modelo da invenção. Além disso, as regras que definem que a equalização deverá ser aplicada representam implementações de modelos da invenção.
[093] Tal como pode ser observado na Tabela 1, um dos filtros de equalização 1 a 4 é aplicado se um canal de entrada elevado for mapeado a um ou mais canais inferiores. Os valores do ganho do equalizador GEQ podem ser determinados do seguinte modo com base em frequências centrais normalizadas dadas na Tabela 2 e com base em parâmetros dados na Tabela 3.
[094] Tabela 2: Frequências Centrais Normalizadas de 77 bandas de Bancos de Filtros
Figure img0006
Figure img0007
Figure img0008
Figure img0009
Figure img0010
[095] Tabela 3: Parâmetros equalizadores
Figure img0011
[096] GEQ consiste em valores de ganhos por banda de frequências k e índice equalizador e. Cinco equalizadores pré-definidos são combinações de diferentes picos de filtro. Tal como se pode observar na Tabela 3, os equalizadores GEQ,1, GEQ,2 e GEQ,5 incluem um único pico de filtro, o equalizador GEQ,3 inclui três picos de filtro e o equalizador GEQ,4 inclui dois picos de filtro. Cada equalizador é uma serial em cascata de um ou mais picos de filtro e um
Figure img0012
[097] em que band(k) é a frequência central normalizada da banda de frequências j, especificada na Tabela 2, fs é a frequência de amostragem, e peak() da função é G negativo
Figure img0013
[098] e de outro modo
Figure img0014
[099] Os parâmetros para os equalizadores encontram-se especificados na Tabela 3. Nas Equações 1 e 2 em cima, b é dado pelo band(k)⋅fs/2, Q é dado por PQ para o respectivo pico de filtro (1 a n), G é dado por Pg para o respectivo pico de filtro, e f é dado por Pf para o respectivo pico de filtro.
[100] Como um exemplo, os valores de ganho do equalizador GEQ,4 para o equalizador dotado do índice 4 são calculados com os parâmetros de filtro obtidos de acordo com a fila correspondente da Tabela 3. A Tabela 3 indica dois conjuntos de parâmetros para pico de filtro para GEQ,4, isto é, conjuntos de parâmetros para n=1 e n=2. Os parâmetros são pico de frequência Pf em Hz, o fator de qualidade do pico do filtro PQ, o ganho Pg (em dB) aplicado ao pico de frequência, e um ganho total g em dB aplicado à cascata dos dois filtros do pico (cascata de filtros para parâmetros n=1 e n=2).
[101] Assim
[102]
Figure img0015
[103] A definição de ganhos GEQ,4 de fase zero independentemente para cada banda de frequências k. Cada banda de frequências k é especificada pela sua band(k) de frequências centrais normalizadas em que 0<=band<=1. De salientar que a banda de frequências normalizadas band=1 corresponde à frequência não normalizada f;/2, em que f; indica a frequência de amostragem. Desse modo, a band(k) ■ f;/2 indica a frequência central não normalizada da banda k em Hz.
[104] Desse modo, um diferente filtro do equalizador que pode ser utilizado em modelos da invenção foi descrito. Está, contudo, claro que a descrição destes filtros de equalização é para fins ilustrativos e que outros filtros de equalização ou filtros de descorrelação podem ser utilizados noutros modelos.
[105] A Tabela 4 ilustra canais exemplo tendo neles associados um respectivo ângulo azimutal e ângulo de elevação.
[106] Tabela 4: Canais com ângulos azimutais e de elevação correspondentes
Figure img0016
Figure img0017
Figure img0018
[107] Em modelos da invenção, o controlo de panorâmico entre dois canais de destino pode ser obtido aplicando controlo de panorâmico de amplitude tangente. No controlo de panorâmico um canal fonte para um primeiro e um segundo canal de destino, um coeficiente de ganho G1 é calculado para o primeiro canal de destino e um coeficiente de ganho G2 é calculado para o segundo canal de destino:
[108] G1 = (valor da coluna de Ganho na Tabela 4)* g1, e
[109] G2 =(valor da coluna de Ganho na Tabela 4)* g2.
[110] Os ganhos g1 e g2 são calculados aplicando o controlo de panorâmica de amplitude tangente da seguinte maneira: desfazer ângulos azimutais do canal de destino como positivos os ângulos azimutais dos canais de destino são α1 e α2 (ver Tabela
[111] o ângulo azimutal do canal fonte (alvo do controlo de panorâmica) é
[112]
Figure img0019
[113]
Figure img0020
[114]
Figure img0021
[115]
Figure img0022
[116] Noutros modelos, diferentes regras de controlo de panorâmico podem ser aplicados.
[117] Em princípio, modelos da invenção têm como objetivo modelar um elevado número de canais sonoros na configuração do canal de entrada através de mapeamentos de canais alterados e de modificações de sinal na configuração do canal de saída. Comparada com abordagens diretas, muitas vezes consideradas como espacialmente mais prementes, menos diversas e menos envolventes do que a configuração do canal de entrada, a diversidade espacial e toda a experiência de audição pode ser melhorada e mais agradável através da aplicação dos modelos da invenção.
[118] Por outras palavras, em modelos da invenção dois ou mais canais de entrada são misturados numa aplicação de downmixing, em que um módulo de processamento é aplicado a um dos sinais de entrada para preservar as diferentes características dos diferentes trajetos de transmissão a partir dos canais de entrada originais aos ouvidos do ouvinte. Em modelos da invenção, o módulo de processamento pode envolver filtros que modificam as características do sinal, por ex.: filtros de equalização ou filtros de descorrelação. Os filtros de equalização podem em especial compensar a perda de diferentes timbres de canais de entrada com diferente atribuição de elevação a eles. Em modelos da invenção, o módulo de processamento pode encaminhar pelo menos um dos sinais de entrada para múltiplos altifalantes de saída para gerar um diferente trajeto de transmissão ao ouvinte, preservando assim diversidade espacial dos canais de entrada. Em modelos da invenção, modificações do filtro e de trajeto podem ser aplicadas em separado ou combinadas. Em modelos da invenção, o módulo de processamento de saída pode ser reproduzido sobre um ou múltiplos altifalantes.
[119] Apesar de alguns aspetos terem sido descritos no contexto de um aparelho, está claro que estes aspetos representam também uma descrição do método correspondente, em que um bloco ou dispositivo corresponde a uma etapa do método ou uma característica de uma etapa do método. Do mesmo modo, aspetos descritos no contexto de uma etapa do método representam também uma descrição de um bloco ou item ou característica correspondente de um aparelho correspondente. Algumas ou todas as etapas do método podem ser executas (ou utilizadas) por um aparelho de hardware, como por exemplo, um microprocessador, um computador programável ou um circuito eletrônico. Nalguns modelos, algumas uma ou mais das etapas do método mais importantes podem ser executadas por esse aparelho. Em modelos da invenção, os métodos aqui descritos são implementados por processador ou implementados por computador.
[120] Dependendo de certos requisitos de implementação, os modelos da invenção podem ser implementados em hardware ou em software. A implementação pode ser executada utilizando um suporte de memória não transitório tal como um suporte de memória digital, por exemplo um disquete, um DVD, Blu-Ray, CD, ROM, PROM, EPROM, EEPROM ou memória FLASH, dotado de sinais de controlo lidos eletronicamente ali armazenados, que cooperam (ou são capazes de cooperar) com um sistema de computador programável de modo que o respectivo método seja executado. Desse modo, o suporte de memória digital pode ser lido por computador.
[121] Alguns modelos de acordo com a invenção compreendem um suporte de dados dotado de sinais de controlo lidos eletronicamente, capazes de cooperarem com um sistema de computador programável, de modo que um dos métodos aqui descrito seja executado.
[122] Regra geral, os modelos desta invenção podem ser implementados como um produto do programa de computador com um código do programa, em que o código do programa é operativo para executar um dos métodos quando o produto do programa de computador funciona num computador. O código do programa pode ser, por exemplo, armazenado num suporte automático.
[123] Outros modelos compreendem o programa do computador para executar um dos métodos aqui descritos, armazenados num suporte automático.
[124] Por outras palavras, um modelo do método inovador é, pois, um programa de computador dotado de um código do programa para executar um dos métodos aqui descritos, quando o programa do computador funciona num computador.
[125] Um modelo adicional do método inovador é, pois, um suporte de dados (ou um suporte de memória digital, ou um suporte lido por computador) compreendendo, nele registado, o programa do computador para executar um dos métodos aqui descritos. O suporte de dados, o suporte de memória digital ou o suporte registado são habitualmente tangíveis e/ou não transitórios.
[126] Um modelo adicional do método inovador é, pois, um fluxo de dados ou uma sequência de sinais representando o programa do computador para executar um dos métodos aqui descritos. O fluxo de dados ou a sequência de sinais pode, por exemplo, ser configurado para ser transferido através de uma ligação de dados de comunicação, por exemplo, através da internet.
[127] Um modelo adicional compreende um meio de processamento, por exemplo, um computador ou um dispositivo de lógica programável, programado, configurado, ou adaptado para executar um dos métodos aqui descritos.
[128] Um modelo adicional compreende um computador tendo nele instalado o programa de computador para executar um dos métodos aqui descritos.
[129] Um modelo adicional de acordo com a invenção compreende um aparelho ou um sistema configurado para transferir (por exemplo, eletronicamente ou oticamente) um programa de computador para executar um dos métodos aqui descritos para um receptor. O receptor pode, por exemplo, ser um computador, um dispositivo móvel, um dispositivo de memória ou idêntico. O aparelho ou o sistema pode, por exemplo, compreender um servidor de ficheiros para transferir o programa de computador ao receptor.
[130] Nalguns modelos, um dispositivo de lógica programável (por exemplo, uma rede de portas lógicas programáveis) pode ser utilizado para executar algumas ou todas as funcionalidades dos métodos aqui descritos. Nalguns modelos, uma rede de portas lógicas programáveis pode cooperar com um microprocessador de modo a executar um dos métodos aqui descritos. Regra geral, os métodos são de preferência executados por qualquer aparelho de hardware.
[131] Os modelos em cima descritos são meramente ilustrativos para os princípios desta invenção. Entende-se que modificações e variações das disposições e os detalhes aqui descritos irão ser notórios a outros especialistas na área. É, pois, objetivo serem limitados apenas pelo âmbito das reivindicações de patente iminente e não pelos detalhes específicos apresentados como descrição e explicação dos modelos aqui presentes.

Claims (3)

1. Aparelho (10; 30; 50; 60) para mapear um primeiro canal de alto- falante de entrada (12) e um segundo canal de alto-falante de entrada (14) de uma configuração de canal de alto-falante de entrada para canais de alto- falante de saída (16, 42, 44) de uma configuração de canal de alto-falante de saída, em que cada canal de alto-falante de entrada e cada canal de alto- falante de saída têm uma direção em relação a uma posição de ouvinte central (P), em que os primeiro e segundo canais de alto-falante de entrada (12, 14) têm diferentes ângulos de elevação em relação a um plano de ouvinte horizontal (300), em que o aparelho é caracterizado por ser configurado para: mapear o primeiro canal de alto-falante de entrada (12) para um primeiro canal de alto-falante de saída (16) da configuração de canal de alto-falante de saída; e apesar do fato de que um desvio de ângulo azimutal entre uma direção do segundo canal de alto-falante de entrada (14) e uma direção do primeiro canal de alto-falante de saída (16) é menor que um desvio de ângulo azimutal entre uma direção do segundo canal de alto-falante de entrada (14) e um segundo canal de alto-falante de saída (42) e/ou é menor que um desvio de ângulo azimutal entre a direção do segundo canal de alto-falante de entrada (14) e a direção de um terceiro canal de alto-falante de saída (44), mapear o segundo canal de alto-falante de entrada (14) para os segundo e terceiro canais de alto-falante de saída (42, 44) através da varredura panorâmica (52, 62) entre os segundo e terceiro canais de alto-falante de saída (42, 44) para gerar uma fonte fantasma na posição do alto-falante associada ao primeiro canal de alto-falante de saída.
2. Aparelho, de acordo com a reivindicação 1, caracterizado por ser configurado para processar o segundo canal de alto-falante de entrada (14) através da aplicação de pelo menos um dentre um filtro de equalização e um filtro de descorrelação ao segundo canal de alto-falante de entrada (14).
3. Método para mapear um primeiro canal de alto-falante de entrada (12) e um segundo canal de alto-falante de entrada (14) de uma configuração de canal de alto-falante de entrada para canais de alto-falante de saída de uma configuração de canal de alto-falante de saída, em que cada canal de alto- falante de entrada e cada canal de alto-falante de saída têm uma direção em relação a uma posição de ouvinte central (P), em que os primeiro e segundo canais de alto-falante de entrada (12, 14) têm diferentes ângulos de elevação em relação a um plano de ouvinte horizontal (300), caracterizado por compreender: mapear o primeiro canal de alto-falante de entrada (12) para um primeiro canal de alto-falante de saída (16) da configuração de canal de alto-falante de saída; e apesar do fato de que um desvio de ângulo azimutal entre uma direção do segundo canal de alto-falante de entrada (14) e uma direção do primeiro canal de alto-falante de saída (16) é menor que um desvio de ângulo azimutal entre uma direção do segundo canal de alto-falante de entrada (14) e um segundo canal de alto-falante de saída (42) e/ou é menor que um desvio de ângulo azimutal entre a direção do segundo canal de alto-falante de entrada (14) e a direção de um terceiro canal de alto-falante de saída (44), mapear o segundo canal de alto-falante de entrada (14) para os segundo e terceiro canais de alto-falante de saída (42, 44) através da varredura panorâmica (52, 62) entre os segundo e terceiro canais de alto-falante de saída (42, 44) para gerar uma fonte fantasma na posição do alto-falante associada ao primeiro canal de alto-falante de saída.
BR112016000999-1A 2013-07-22 2014-07-15 Aparelho e método para mapear primeiros e segundos canais de entrada para pelo menos um canal de saída BR112016000999B1 (pt)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
EP13177360 2013-07-22
EP13177360.8 2013-07-22
EP13189243.2 2013-10-18
EP13189243.2A EP2830335A3 (en) 2013-07-22 2013-10-18 Apparatus, method, and computer program for mapping first and second input channels to at least one output channel
PCT/EP2014/065153 WO2015010961A2 (en) 2013-07-22 2014-07-15 Apparatus and method for mapping first and second input channels to at least one output channel

Publications (2)

Publication Number Publication Date
BR112016000999A2 BR112016000999A2 (pt) 2017-07-25
BR112016000999B1 true BR112016000999B1 (pt) 2022-03-15

Family

ID=48874133

Family Applications (2)

Application Number Title Priority Date Filing Date
BR112016000999-1A BR112016000999B1 (pt) 2013-07-22 2014-07-15 Aparelho e método para mapear primeiros e segundos canais de entrada para pelo menos um canal de saída
BR112016000990-8A BR112016000990B1 (pt) 2013-07-22 2014-07-15 Método e unidade de processamento do sinal para mapeamento de uma variedade de canais de entrada de uma configuração do canal de entrada para canais de saída de uma configuração do canal de saída

Family Applications After (1)

Application Number Title Priority Date Filing Date
BR112016000990-8A BR112016000990B1 (pt) 2013-07-22 2014-07-15 Método e unidade de processamento do sinal para mapeamento de uma variedade de canais de entrada de uma configuração do canal de entrada para canais de saída de uma configuração do canal de saída

Country Status (20)

Country Link
US (6) US9936327B2 (pt)
EP (8) EP2830335A3 (pt)
JP (2) JP6130599B2 (pt)
KR (3) KR101803214B1 (pt)
CN (4) CN105556992B (pt)
AR (4) AR096996A1 (pt)
AU (3) AU2014295309B2 (pt)
BR (2) BR112016000999B1 (pt)
CA (3) CA2968646C (pt)
ES (5) ES2645674T3 (pt)
HK (1) HK1248439B (pt)
MX (2) MX355588B (pt)
MY (1) MY183635A (pt)
PL (5) PL3025518T3 (pt)
PT (5) PT3258710T (pt)
RU (3) RU2635903C2 (pt)
SG (3) SG11201600402PA (pt)
TW (2) TWI532391B (pt)
WO (2) WO2015010961A2 (pt)
ZA (1) ZA201601013B (pt)

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2830051A3 (en) 2013-07-22 2015-03-04 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoder, audio decoder, methods and computer program using jointly encoded residual signals
KR102268836B1 (ko) * 2013-10-09 2021-06-25 소니그룹주식회사 부호화 장치 및 방법, 복호 장치 및 방법, 그리고 프로그램
CN106303897A (zh) 2015-06-01 2017-01-04 杜比实验室特许公司 处理基于对象的音频信号
CN114005454A (zh) 2015-06-17 2022-02-01 三星电子株式会社 实现低复杂度格式转换的内部声道处理方法和装置
US11128978B2 (en) * 2015-11-20 2021-09-21 Dolby Laboratories Licensing Corporation Rendering of immersive audio content
EP3179744B1 (en) * 2015-12-08 2018-01-31 Axis AB Method, device and system for controlling a sound image in an audio zone
KR102358283B1 (ko) * 2016-05-06 2022-02-04 디티에스, 인코포레이티드 몰입형 오디오 재생 시스템
GB201609089D0 (en) * 2016-05-24 2016-07-06 Smyth Stephen M F Improving the sound quality of virtualisation
CN106604199B (zh) * 2016-12-23 2018-09-18 湖南国科微电子股份有限公司 一种数字音频信号的矩阵处理方法及装置
EP3583772B1 (en) * 2017-02-02 2021-10-06 Bose Corporation Conference room audio setup
US10979844B2 (en) 2017-03-08 2021-04-13 Dts, Inc. Distributed audio virtualization systems
GB2561844A (en) * 2017-04-24 2018-10-31 Nokia Technologies Oy Spatial audio processing
MX2019013056A (es) * 2017-05-03 2020-02-07 Fraunhofer Ges Forschung Procesador de audio, sistema, metodo y programa de computadora para reproducir audio.
CN109151704B (zh) * 2017-06-15 2020-05-19 宏达国际电子股份有限公司 音讯处理方法、音频定位系统以及非暂态电脑可读取媒体
US10257623B2 (en) * 2017-07-04 2019-04-09 Oticon A/S Hearing assistance system, system signal processing unit and method for generating an enhanced electric audio signal
JP6988904B2 (ja) * 2017-09-28 2022-01-05 株式会社ソシオネクスト 音響信号処理装置および音響信号処理方法
KR102511818B1 (ko) * 2017-10-18 2023-03-17 디티에스, 인코포레이티드 3d 오디오 가상화를 위한 오디오 신호 사전 설정
US11540075B2 (en) * 2018-04-10 2022-12-27 Gaudio Lab, Inc. Method and device for processing audio signal, using metadata
CN109905338B (zh) * 2019-01-25 2021-10-19 晶晨半导体(上海)股份有限公司 一种串行数据接收器的多级均衡器增益的控制方法
US11568889B2 (en) 2019-07-22 2023-01-31 Rkmag Corporation Magnetic processing unit
JP2021048500A (ja) * 2019-09-19 2021-03-25 ソニー株式会社 信号処理装置、信号処理方法および信号処理システム
KR102283964B1 (ko) * 2019-12-17 2021-07-30 주식회사 라온에이엔씨 인터콤시스템 통신명료도 향상을 위한 다채널다객체 음원 처리 장치
GB2594265A (en) * 2020-04-20 2021-10-27 Nokia Technologies Oy Apparatus, methods and computer programs for enabling rendering of spatial audio signals
TWI742689B (zh) * 2020-05-22 2021-10-11 宏正自動科技股份有限公司 影音處理裝置、影音播放系統及其影音處理方法
CN112135226B (zh) * 2020-08-11 2022-06-10 广东声音科技有限公司 Y轴音频再生方法以及y轴音频再生系统
RU207301U1 (ru) * 2021-04-14 2021-10-21 Федеральное государственное бюджетное образовательное учреждение высшего образования "Санкт-Петербургский государственный институт кино и телевидения" (СПбГИКиТ) Усилительно-преобразовательное устройство
US20220386062A1 (en) * 2021-05-28 2022-12-01 Algoriddim Gmbh Stereophonic audio rearrangement based on decomposed tracks
WO2022258876A1 (en) * 2021-06-10 2022-12-15 Nokia Technologies Oy Parametric spatial audio rendering
CN114866948A (zh) * 2022-04-26 2022-08-05 北京奇艺世纪科技有限公司 一种音频处理方法、装置、电子设备和可读存储介质
KR102671956B1 (ko) * 2022-12-06 2024-06-05 주식회사 라온에이엔씨 인터콤용 실감음향 오디오출력장치

Family Cites Families (83)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4308423A (en) 1980-03-12 1981-12-29 Cohen Joel M Stereo image separation and perimeter enhancement
US4748669A (en) * 1986-03-27 1988-05-31 Hughes Aircraft Company Stereo enhancement system
JPS6460200A (en) * 1987-08-31 1989-03-07 Yamaha Corp Stereoscopic signal processing circuit
GB9103207D0 (en) * 1991-02-15 1991-04-03 Gerzon Michael A Stereophonic sound reproduction system
JPH04281700A (ja) * 1991-03-08 1992-10-07 Yamaha Corp 多チャンネル再生装置
JP3146687B2 (ja) 1992-10-20 2001-03-19 株式会社神戸製鋼所 高耐食性表面改質TiまたはTi基合金部材
JPH089499B2 (ja) 1992-11-24 1996-01-31 東京窯業株式会社 焼成マグネシア・ドロマイトれんが
JP2944424B2 (ja) * 1994-06-16 1999-09-06 三洋電機株式会社 音響再生回路
US6128597A (en) * 1996-05-03 2000-10-03 Lsi Logic Corporation Audio decoder with a reconfigurable downmixing/windowing pipeline and method therefor
US6421446B1 (en) 1996-09-25 2002-07-16 Qsound Labs, Inc. Apparatus for creating 3D audio imaging over headphones using binaural synthesis including elevation
JP4304401B2 (ja) 2000-06-07 2009-07-29 ソニー株式会社 マルチチャンネルオーディオ再生装置
US20040062401A1 (en) * 2002-02-07 2004-04-01 Davis Mark Franklin Audio channel translation
US7660424B2 (en) * 2001-02-07 2010-02-09 Dolby Laboratories Licensing Corporation Audio channel spatial translation
TW533746B (en) * 2001-02-23 2003-05-21 Formosa Ind Computing Inc Surrounding sound effect system with automatic detection and multiple channels
ES2271654T3 (es) * 2002-08-07 2007-04-16 Dolby Laboratories Licensing Corporation Conversion espacial de canales de audio.
WO2004047489A1 (en) * 2002-11-20 2004-06-03 Koninklijke Philips Electronics N.V. Audio based data representation apparatus and method
JP3785154B2 (ja) * 2003-04-17 2006-06-14 パイオニア株式会社 情報記録装置、情報再生装置及び情報記録媒体
US7394903B2 (en) 2004-01-20 2008-07-01 Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E.V. Apparatus and method for constructing a multi-channel output signal or for generating a downmix signal
KR101079066B1 (ko) 2004-03-01 2011-11-02 돌비 레버러토리즈 라이쎈싱 코오포레이션 멀티채널 오디오 코딩
US8046217B2 (en) 2004-08-27 2011-10-25 Panasonic Corporation Geometric calculation of absolute phases for parametric stereo decoding
CN101010726A (zh) 2004-08-27 2007-08-01 松下电器产业株式会社 音频解码器、方法以及程序
JP4369957B2 (ja) * 2005-02-01 2009-11-25 パナソニック株式会社 再生装置
US7991272B2 (en) * 2005-07-11 2011-08-02 Lg Electronics Inc. Apparatus and method of processing an audio signal
KR100619082B1 (ko) 2005-07-20 2006-09-05 삼성전자주식회사 와이드 모노 사운드 재생 방법 및 시스템
US20080221907A1 (en) * 2005-09-14 2008-09-11 Lg Electronics, Inc. Method and Apparatus for Decoding an Audio Signal
US20070080485A1 (en) 2005-10-07 2007-04-12 Kerscher Christopher S Film and methods of making film
TWI469133B (zh) 2006-01-19 2015-01-11 Lg Electronics Inc 媒體訊號處理方法及裝置
TWI342718B (en) 2006-03-24 2011-05-21 Coding Tech Ab Decoder and method for deriving headphone down mix signal, receiver, binaural decoder, audio player, receiving method, audio playing method, and computer program
US8712061B2 (en) * 2006-05-17 2014-04-29 Creative Technology Ltd Phase-amplitude 3-D stereo encoder and decoder
US8027479B2 (en) 2006-06-02 2011-09-27 Coding Technologies Ab Binaural multi-channel decoder in the context of non-energy conserving upmix rules
FR2903562A1 (fr) * 2006-07-07 2008-01-11 France Telecom Spatialisation binaurale de donnees sonores encodees en compression.
AU2007312597B2 (en) * 2006-10-16 2011-04-14 Dolby International Ab Apparatus and method for multi -channel parameter transformation
US8050434B1 (en) * 2006-12-21 2011-11-01 Srs Labs, Inc. Multi-channel audio enhancement system
RU2406165C2 (ru) 2007-02-14 2010-12-10 ЭлДжи ЭЛЕКТРОНИКС ИНК. Способы и устройства для кодирования и декодирования объектно-базированных аудиосигналов
AU2008215232B2 (en) * 2007-02-14 2010-02-25 Lg Electronics Inc. Methods and apparatuses for encoding and decoding object-based audio signals
US8290167B2 (en) * 2007-03-21 2012-10-16 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Method and apparatus for conversion between multi-channel audio formats
TWM346237U (en) * 2008-07-03 2008-12-01 Cotron Corp Digital decoder box with multiple audio source detection function
US8483395B2 (en) 2007-05-04 2013-07-09 Electronics And Telecommunications Research Institute Sound field reproduction apparatus and method for reproducing reflections
US20080298610A1 (en) * 2007-05-30 2008-12-04 Nokia Corporation Parameter Space Re-Panning for Spatial Audio
JP2009077379A (ja) * 2007-08-30 2009-04-09 Victor Co Of Japan Ltd 立体音響再生装置、立体音響再生方法及びコンピュータプログラム
CN101889307B (zh) * 2007-10-04 2013-01-23 创新科技有限公司 相位-幅度3d立体声编码器和解码器
JP2009100144A (ja) * 2007-10-16 2009-05-07 Panasonic Corp 音場制御装置、音場制御方法およびプログラム
EP2258120B1 (en) * 2008-03-07 2019-08-07 Sennheiser Electronic GmbH & Co. KG Methods and devices for reproducing surround audio signals via headphones
US8306233B2 (en) * 2008-06-17 2012-11-06 Nokia Corporation Transmission of audio signals
US8315396B2 (en) * 2008-07-17 2012-11-20 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus and method for generating audio output signals using object based metadata
CA2820199C (en) * 2008-07-31 2017-02-28 Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E.V. Signal generation for binaural signals
EP2398257B1 (en) * 2008-12-18 2017-05-10 Dolby Laboratories Licensing Corporation Audio channel spatial translation
EP2214161A1 (en) 2009-01-28 2010-08-04 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus, method and computer program for upmixing a downmix audio signal
JP4788790B2 (ja) * 2009-02-27 2011-10-05 ソニー株式会社 コンテンツ再生装置、コンテンツ再生方法、プログラム、及びコンテンツ再生システム
AU2013206557B2 (en) 2009-03-17 2015-11-12 Dolby International Ab Advanced stereo coding based on a combination of adaptively selectable left/right or mid/side stereo coding and of parametric stereo coding
WO2010115850A1 (en) 2009-04-08 2010-10-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus, method and computer program for upmixing a downmix audio signal using a phase value smoothing
US8699849B2 (en) * 2009-04-14 2014-04-15 Strubwerks Llc Systems, methods, and apparatus for recording multi-dimensional audio
KR20100121299A (ko) 2009-05-08 2010-11-17 주식회사 비에스이 다기능 마이크로 스피커
US8848952B2 (en) * 2009-05-11 2014-09-30 Panasonic Corporation Audio reproduction apparatus
SG177277A1 (en) 2009-06-24 2012-02-28 Fraunhofer Ges Forschung Audio signal decoder, method for decoding an audio signal and computer program using cascaded audio object processing stages
TWI413110B (zh) * 2009-10-06 2013-10-21 Dolby Int Ab 以選擇性通道解碼的有效多通道信號處理
EP2326108B1 (en) 2009-11-02 2015-06-03 Harman Becker Automotive Systems GmbH Audio system phase equalizion
WO2011072729A1 (en) 2009-12-16 2011-06-23 Nokia Corporation Multi-channel audio processing
KR101673232B1 (ko) 2010-03-11 2016-11-07 삼성전자주식회사 수직 방향 가상 채널을 생성하는 장치 및 그 방법
WO2011152044A1 (ja) * 2010-05-31 2011-12-08 パナソニック株式会社 音響再生装置
KR102033071B1 (ko) * 2010-08-17 2019-10-16 한국전자통신연구원 멀티 채널 오디오 호환 시스템 및 방법
CN103210668B (zh) * 2010-09-06 2016-05-04 杜比国际公司 用于多通道音频再生的向上混合方法及系统
US8903525B2 (en) * 2010-09-28 2014-12-02 Sony Corporation Sound processing device, sound data selecting method and sound data selecting program
KR101756838B1 (ko) 2010-10-13 2017-07-11 삼성전자주식회사 다채널 오디오 신호를 다운 믹스하는 방법 및 장치
KR20120038891A (ko) 2010-10-14 2012-04-24 삼성전자주식회사 오디오 시스템 및 그를 이용한 오디오 신호들의 다운 믹싱 방법
US20120093323A1 (en) * 2010-10-14 2012-04-19 Samsung Electronics Co., Ltd. Audio system and method of down mixing audio signals using the same
EP2450880A1 (en) * 2010-11-05 2012-05-09 Thomson Licensing Data structure for Higher Order Ambisonics audio data
US9154896B2 (en) 2010-12-22 2015-10-06 Genaudio, Inc. Audio spatialization and environment simulation
EP2673956B1 (en) * 2011-02-10 2019-04-24 Dolby Laboratories Licensing Corporation System and method for wind detection and suppression
WO2012122035A2 (en) 2011-03-04 2012-09-13 Third Millennium Metals, Llc Aluminum-carbon compositions
WO2012140525A1 (en) * 2011-04-12 2012-10-18 International Business Machines Corporation Translating user interface sounds into 3d audio space
US9031268B2 (en) * 2011-05-09 2015-05-12 Dts, Inc. Room characterization and correction for multi-channel audio
TW202339510A (zh) * 2011-07-01 2023-10-01 美商杜比實驗室特許公司 用於適應性音頻信號的產生、譯碼與呈現之系統與方法
TWM416815U (en) * 2011-07-13 2011-11-21 Elitegroup Computer Sys Co Ltd Output/input module for switching audio source and audiovisual playback device thereof
EP2560161A1 (en) * 2011-08-17 2013-02-20 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Optimal mixing matrices and usage of decorrelators in spatial audio processing
TWI479905B (zh) * 2012-01-12 2015-04-01 Univ Nat Central Multi-channel down mixing device
EP2645749B1 (en) 2012-03-30 2020-02-19 Samsung Electronics Co., Ltd. Audio apparatus and method of converting audio signal thereof
KR101915258B1 (ko) * 2012-04-13 2018-11-05 한국전자통신연구원 오디오 메타데이터 제공 장치 및 방법, 오디오 데이터 제공 장치 및 방법, 오디오 데이터 재생 장치 및 방법
US9479886B2 (en) * 2012-07-20 2016-10-25 Qualcomm Incorporated Scalable downmix design with feedback for object-based surround codec
KR101676634B1 (ko) * 2012-08-31 2016-11-16 돌비 레버러토리즈 라이쎈싱 코오포레이션 오브젝트―기반 오디오를 위한 반사된 사운드 렌더링
PL2896221T3 (pl) * 2012-09-12 2017-04-28 Fraunhofer Gesellschaft zur Förderung der angewandten Forschung e.V. Urządzenie do i sposób zapewniania rozszerzonych możliwości kierowanego downmixu dla 3D audio
KR101407192B1 (ko) * 2012-09-28 2014-06-16 주식회사 팬택 사운드 출력을 제어하는 휴대 단말 및 사운드 출력 제어 방법
US8638959B1 (en) 2012-10-08 2014-01-28 Loring C. Hall Reduced acoustic signature loudspeaker (RSL)

Also Published As

Publication number Publication date
KR101803214B1 (ko) 2017-11-29
CA2918843C (en) 2019-12-03
ES2729308T3 (es) 2019-10-31
EP3518563B1 (en) 2022-05-11
KR101858479B1 (ko) 2018-05-16
PL3133840T3 (pl) 2019-01-31
CN107040861A (zh) 2017-08-11
SG11201600475VA (en) 2016-02-26
ZA201601013B (en) 2017-09-27
EP3025518B1 (en) 2017-09-13
EP2830332A3 (en) 2015-03-11
KR101810342B1 (ko) 2018-01-18
EP3133840B1 (en) 2018-07-04
US20180192225A1 (en) 2018-07-05
AU2014295310B2 (en) 2017-07-13
EP3025519A2 (en) 2016-06-01
JP6227138B2 (ja) 2017-11-08
TW201519663A (zh) 2015-05-16
CA2918811C (en) 2018-06-26
AU2014295309A1 (en) 2016-02-11
KR20160061977A (ko) 2016-06-01
RU2672386C1 (ru) 2018-11-14
US11877141B2 (en) 2024-01-16
JP2016527806A (ja) 2016-09-08
CA2918811A1 (en) 2015-01-29
EP3025518A2 (en) 2016-06-01
AU2017204282A1 (en) 2017-07-13
PT3258710T (pt) 2019-06-25
PL3025519T3 (pl) 2018-02-28
SG11201600402PA (en) 2016-02-26
CN105556991B (zh) 2017-07-11
AR109897A2 (es) 2019-02-06
US11272309B2 (en) 2022-03-08
MY183635A (en) 2021-03-04
US10798512B2 (en) 2020-10-06
EP3258710B1 (en) 2019-03-20
WO2015010962A3 (en) 2015-03-26
EP4061020A1 (en) 2022-09-21
BR112016000999A2 (pt) 2017-07-25
US20160142853A1 (en) 2016-05-19
ES2649725T3 (es) 2018-01-15
ES2688387T3 (es) 2018-11-02
KR20170141266A (ko) 2017-12-22
RU2016105648A (ru) 2017-08-29
US9936327B2 (en) 2018-04-03
US20210037334A1 (en) 2021-02-04
US20190075419A1 (en) 2019-03-07
WO2015010962A2 (en) 2015-01-29
CN105556991A (zh) 2016-05-04
RU2635903C2 (ru) 2017-11-16
TWI562652B (en) 2016-12-11
RU2016105608A (ru) 2017-08-28
EP2830332A2 (en) 2015-01-28
JP6130599B2 (ja) 2017-05-17
TW201513686A (zh) 2015-04-01
US20160134989A1 (en) 2016-05-12
US20200396557A1 (en) 2020-12-17
JP2016527805A (ja) 2016-09-08
ES2925205T3 (es) 2022-10-14
EP3025519B1 (en) 2017-08-23
RU2640647C2 (ru) 2018-01-10
CN106804023A (zh) 2017-06-06
SG10201605327YA (en) 2016-08-30
PT3025519T (pt) 2017-11-21
PL3518563T3 (pl) 2022-09-19
WO2015010961A2 (en) 2015-01-29
AU2014295310A1 (en) 2016-02-11
CA2918843A1 (en) 2015-01-29
CA2968646A1 (en) 2015-01-29
EP3133840A1 (en) 2017-02-22
PL3025518T3 (pl) 2018-03-30
KR20160034962A (ko) 2016-03-30
EP3518563A2 (en) 2019-07-31
MX355273B (es) 2018-04-13
AR097004A1 (es) 2016-02-10
CA2968646C (en) 2019-08-20
AU2014295309B2 (en) 2016-10-27
ES2645674T3 (es) 2017-12-07
US10154362B2 (en) 2018-12-11
BR112016000990B1 (pt) 2022-04-05
AR116606A2 (es) 2021-05-26
TWI532391B (zh) 2016-05-01
WO2015010961A3 (en) 2015-03-26
AU2017204282B2 (en) 2018-04-26
US10701507B2 (en) 2020-06-30
MX2016000911A (es) 2016-05-05
EP2830335A3 (en) 2015-02-25
PT3133840T (pt) 2018-10-18
MX2016000905A (es) 2016-04-28
EP2830335A2 (en) 2015-01-28
CN107040861B (zh) 2019-02-05
AR096996A1 (es) 2016-02-10
PL3258710T3 (pl) 2019-09-30
PT3025518T (pt) 2017-12-18
HK1248439B (zh) 2020-04-09
CN105556992A (zh) 2016-05-04
CN105556992B (zh) 2018-07-20
BR112016000990A2 (pt) 2017-07-25
MX355588B (es) 2018-04-24
EP3258710A1 (en) 2017-12-20
EP3518563A3 (en) 2019-08-14
CN106804023B (zh) 2019-02-05
PT3518563T (pt) 2022-08-16

Similar Documents

Publication Publication Date Title
US11272309B2 (en) Apparatus and method for mapping first and second input channels to at least one output channel
AU2021203143B2 (en) Audio encoding and decoding using presentation transform parameters
US8194861B2 (en) Scheme for generating a parametric representation for low-bit rate applications
EA042232B1 (ru) Кодирование и декодирование звука с использованием параметров преобразования представления

Legal Events

Date Code Title Description
B06U Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette]
B350 Update of information on the portal [chapter 15.35 patent gazette]
B09A Decision: intention to grant [chapter 9.1 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 15/07/2014, OBSERVADAS AS CONDICOES LEGAIS.