BR122012003058A2 - Aparelho e método para determinar um sinal de áudio de canais múltiplos de saída espacial - Google Patents

Aparelho e método para determinar um sinal de áudio de canais múltiplos de saída espacial Download PDF

Info

Publication number
BR122012003058A2
BR122012003058A2 BR122012003058-9A BR122012003058A BR122012003058A2 BR 122012003058 A2 BR122012003058 A2 BR 122012003058A2 BR 122012003058 A BR122012003058 A BR 122012003058A BR 122012003058 A2 BR122012003058 A2 BR 122012003058A2
Authority
BR
Brazil
Prior art keywords
signal
dirac
decomposed
stage
monosynthesis
Prior art date
Application number
BR122012003058-9A
Other languages
English (en)
Other versions
BR122012003058B1 (pt
Inventor
Sascha Disch
Ville Pulkki
Mikko-Ville Laitinen
Cumhur Erkut
Original Assignee
Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=40121202&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=BR122012003058(A2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. filed Critical Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V.
Publication of BR122012003058A2 publication Critical patent/BR122012003058A2/pt
Publication of BR122012003058B1 publication Critical patent/BR122012003058B1/pt

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/03Application of parametric coding in stereophonic audio systems

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Stereophonic System (AREA)

Abstract

aparelho e método para determinar um sinal de áudio de canais múltiplos de saída espacial aparelho (100) para determinar um sinal de áudio de canais múltiplos de saída espacial com base em um sinal de áudio de entrada e um parâmetro de entrada. o aparelho (100) compreende um decompositor (110) para decompor o sinal de áudio de entrada com base no parâmetro de entrada para obter um primeiro sinal decomposto e um segundo sinal decomposto diferentes entre si. além disso, o aparelho (100) compreende um transmissor (110) para transmitir o primeiro sinal decomposto para obter um primeiro sinal transmitido tendo uma primeira propriedade semântica e para transmitir o segundo sinal decomposto para obter um segundo sinal transmitido tendo uma segunda propriedade semântica sendo diferente da primeira propriedade semântica. o aparelho ( 100) compreende um processador (130) para processamento do primeiro sinal transmitido e do segundo sinal transmitido para obter o sinal de áudio de canais múltiplos de saída ·espacial. adicionalmente, as configurações provêem um método de descorrelação/transmissão novo que oferece alta qualidade perceptual com custos moderados, especialmente para material de áudio crítico do tipo de aplausos ou outros materiais de ambiente similares como, por exemplo, o ruído que é emitido por um bando de pássaros, uma orla marítima, cavalos a galope, uma divisão de soldados marchando etc.

Description

"APARELHO Ε MÉTODO PARA DETERMINAR UM SINAL DE ÁUDIO DE CANAIS MÚLTIPLOS DE SAÍDA ESPACIAL" Dividido do PI 0912466-7, depositado em CAMPO DA INVENÇÃO A presente invenção está na área de processamento de áudio, especialmente processamento de propriedades de áudio espacial.
Processamento e/ou codificação de áudio têm avançado de muitas maneiras. Mais e mais demanda é gerada para aplicações de áudio espacial. Em muitas aplicações, processamento de sinal de áudio é utilizado para descorrelacionar ou transmitir sinais. Estas aplicações podem, por exemplo, executar upmix de mono para estéreo, upmix mono/estéreo para canais múltiplos, reverberação artificial, ampliação de estéreo ou mixagem/transmissão interativa.
Para certas classes de sinais, como por exemplo, sinais do tipo de ruído como, por exemplo, sinais do tipo de aplauso, métodos e sistemas convencionais sofrem tanto de qualidade perceptual insatisfatória quanto, se uma abordagem orientada para o objeto for usada, alta complexidade computacional devido ao número de ~ eventos auditivos a serem modelados ou processados. Outros exemplos de materiais de áudio, que são problemáticos, são geralmente materiais ambientais como, por exemplo, o ruído que é emitido por um bando de pássaros, pela orla marítima, cavalos a galope, uma divisão de soldados marchando etc.
Conceitos convencionais usam, por exemplo, codificação estéreo paramétrica ou MPEG-surround (MPEG = Grupo Especialista de Imagens em Movimento). A Figura 6 mostra uma aplicação típica de um descorrelacionador em um dispositivo de upmix de mono para estéreo. A Figura 6 mostra um sinal de entrada mono provido para um descorrelacionador 610, que provê um sinal de entrada descorrelacionado em sua saída. O sinal de entrada original é provido para uma matriz de upmix 620 juntamente com o sinal descorrelacionado. Dependendo dos parâmetros de controle de upmix 630, um sinal de saída é transmitido. O descorrelacionador de sinal 610 gera um sinal descorrelacionado D alimentado para o estágio de matriz 620 juntamente com o sinal mono seco M. Dentro da matriz de mixagem 620, os canais estéreos L (L = canal estéreo esquerdo) e R (R = canal estéreo direito) são formados de acordo com uma matriz de mixagem H. Os coeficientes na matriz H podem ser fixos, dependentes de sinal ou controlados por um usuário.
Alternativamente, a matriz pode ser controlada por informação de lado, transmitida juntamente com o downmix, contendo uma descrição paramétrica sobre como fazer o upmix de sinais de downmix para formar a saída de canais múltiplos desejada. Esta informação de lado espacial é usualmente gerada por um codificador de sinal antes do processo de upmix.
Isto é tipicamente feito em codificação de áudio espacial paramétrica como, por exemplo, no "Parametric Stereo", cf. J. Breebaart, S. van de Par, A. Kohlrausch, E. Schuijers, "High-Quality Parametric Spatial Audio Coding at Low Bitrates" na 116â Convenção AES, Berlim, Pré-impressão 6072, Maio de 2004 e no "MPEG Surround", cf. J. Herre, K. Kjôrling, J. Breebaart, et. al., "MPEG Surround - the ISO/MPEG Standard for Efficient and Compatible Multi-Channel Audio Coding" nos Procedimentos da 122- Convenção AES, Viena, Áustria, Maio de 2007. Uma estrutura típica de um decodificador de estéreo paramétrico é mostrada na Figura 7. Neste exemplo, o processo de descorrelação é executado em um domínio de transformada, que é indicado pelo banco de filtro de análise 710, que transforma um sinal mono de entrada para o domínio de transformada como, por exemplo, o domínio de frequência em termos de uma série de bandas de frequência.
No domínio de frequência, o descorrelacionador 720 gera o sinal descorrelacionado correspondente, que deve passar por um upmix na matriz de upmix 730. A matriz de upmix 730 considera parâmetros de upmix, que são providos pela caixa de modificação de parâmetro 740, que é provida com parâmetros de entrada espacial e acoplada a um estágio de controle de parâmetro 750. No exemplo mostrado na Figura 7, os parâmetros espaciais podem ser modificados por um usuário ou ferramentas adicionais como, por exemplo, pós-processamento para transmissão/apresentação binaural. Neste caso, os parâmetros de upmix podem ser fundidos com os parâmetros dos filtros binaurais para formar os parâmetros de entrada para a matriz de upmix 730. A medição dos parâmetros pode ser executada pelo bloco de modificação de parâmetro 740. A saida da matriz de upmix 730 é, então, provida para um banco de filtro-de síntese 760, que determina o sinal de saída estéreo.
Conforme descrito acima, a saída L!R da matriz de mixagem H pode ser computada do sinal de entrada mono M e do sinal descorrelacionado D, por exemplo, de acordo com L hi] M
R h2\^22_ D
Na matriz de mixagem, a quantidade de som descorrelacionado alimentado à saída pode ser controlada com base nos parâmetros transmitidos, por exemplo, ICC (ICC= Correlação Entre Canais) e/ou ajustes mixados ou definidos pelo usuário.
Outra abordagem convencional é estabelecida pelo método de permuta temporal. Uma proposta dedicada sobre descorrelação de sinais do tipo aplauso pode ser encontrada, por exemplo, em Gerard Hotho, Steven van de Par, Jeroen Breebaart, "Multichannel Coding of Applause Signals," no EURASIP Journal on Advances in Signal Processing, Vol. 1, Art. 10, 2008. Aqui, um sinal de áudio monofônico é segmentado em segmentos de tempo sobrepostos, que são temporariamente permutados pseudo-aleatoriamente dentro de um "super" bloco para formar os canais de saída descorrelacionados. As permutações são mutuamente independentes para uma série de canais de saída n.
Outra abordagem é a varredura de canal alternativa de cópia original e retardada de modo a obter um sinal descorrelacionado, conforme o pedido de patente Alemã 102007018032.4-55.
Em alguns sistemas convencionais orientados por objeto conceituai, por exemplo, em Wagner, Andreas; Walther, Andreas; Melchoir, Frank; StrauB, Michael; "Generation of Highly Immersive Atmospheres for Wave Field Synthesis Reproduction" na 116ã Convenção Internacional EAS, Berlim, 2004, é descrito como criar uma cena imersiva fora de muitos objetos conforme, por exemplo, palmas individuais, pela aplicação de uma síntese de área de onda.
Ainda, outra abordagem é a assim chamada "codificação de áudio direcional" (DirAC = Codificação de Áudio Direcional), que é um método para representação de som espacial, aplicável a diferentes sistemas de reprodução de som, conforme Pulkki, Ville, "Spatial Sound Reproduction with Directional Audio Coding" no J. Audio Eng. Soc., Vol. 55, N- 6, 2007. Na parte de análise, a difusão e direção de chegada de som são estimadas em um local único dependente do tempo e frequência. Na parte da síntese, sinais de microfone são primeiramente divididos em partes não difusas e difusas e são, então, reproduzidos usando estratégias diferentes.
Abordagens convencionais têm uma série de desvantagens. Por exemplo, upmix guiada ou não guiada de sinais de áudio tendo teor tal como aplauso podem requerer uma descorrelação forte. Consequentemente, por um lado, descorrelação forte é necessária para recuperar a sensação ambiental de estar, por exemplo, em uma sala de concerto. Por outro lado, filtros de descorrelação adequados como, por exemplo, filtros de passagem total, degradam uma reprodução de qualidade de eventos transientes, como uma palma de mão única pela introdução de efeitos de truncamento temporal tais como pré- e pós-ecos e oscilação indesejada de filtro. Além disso, dispersão de sinal de som espacial de eventos de palma únicos tem que ser feita em uma grade de tempo bastante fina, enquanto descorrelação de ambiente deve ser quase-fixa em relação ao tempo.
Sistemas da técnica anterior de acordo com J. Breebaart, S. van de Par, A. Kohlrausch, E. Schuijers, "High-Quality Parametric Spatial Audio Coding at Low Bitrates" na 116-Convenção AES, Berlim, Pré-impressão 6072, Maio de 2004 e J. Herre, K. Kjõrling, J. Breebaart, et. al. , "MPEG Surround - the ISO/MPEG Standard for Efficient and Compatible Multi-Channel Audio Coding" nos Procedimentos da 122- Convenção AES, Viena, Áustria, Maio de 2007 comprometem resolução temporal vs. estabilidade de ambiente e degradação de qualidade transiente vs. descorrelação de ambiente.
Um sistema utilizando o método de permuta temporal, por exemplo, exibirá degradação perceptível do som da saída devido a uma certa qualidade repetitiva no sinal de áudio de saída. Isto se deve ao fato de que um e o mesmo segmento do sinal de entrada parece inalterado em todo canal de saída, embora em um ponto diferente no tempo. Além disso, para evitar densidade de aplauso aumentada, alguns canais originais devem ser derrubados na upmix e, assim, algum evento auditivo importante pode ser perdido na upmix resultante.
Em sistemas orientados por objeto, tipicamente, estes eventos de som são espacializados como um grupo grande de fontes do tipo ponto, que conduzem a uma implementação de computação complexa. É o objetivo da presente invenção prover um conceito melhorado para processamento de áudio espacial.
Este objetivo é atingido por um aparelho de acordo com a reivindicação 1 e um método de acordo com a -reivindicação 16. É uma descoberta da presente invenção que um sinal de áudio pode ser descomposto em vários componentes aos quais uma transmissão espacial, por exemplo, em termos de uma descorrelação ou em termos de uma abordagem de dispersão de amplitude, pode ser adaptada. Em outras palavras, a presente invenção é baseada na descoberta de que, por exemplo, em um cenário com fontes de áudio múltiplas, fontes de primeiro plano e de plano de fundo podem ser distinguidas e transmitidas ou descorrelacionadas diferentemente. Geralmente, profundidades espaciais e/ou extensões de objetos de áudio diferentes podem ser distinguidas.
Um dos pontos chave da presente invenção é a decomposição de sinais, como o som originário de uma platéia aplaudindo, um bando de pássaros, uma orla marítima, cavalos galopando, uma divisão de soldados marchando etc., em uma parte de primeiro plano e uma parte de plano de fundo, onde a parte de primeiro plano contém eventos auditivos individuais originados, por exemplo, de fontes próximas, e a parte de plano de fundo retém o ambiente dos eventos distantes perceptualmente fundidos. Antes da mixagem final, estas duas partes de sinal são processadas separadamente, por exemplo, de modo a sintetizar a correlação, transmitir uma cena etc.
Configurações não se limitam a distinguir apenas partes de primeiro plano e de plano de fundo do sinal, elas podem distinguir múltiplas diferentes partes de áudio, todas as quais podem ser transmitidas ou descorrelacionadas diferentemente.
No geral, sinais de áudio podem ser decompostos em n partes semânticas diferentes pelas configurações, que são processadas separadamente. 0 processamento separado/decomposição de diferentes componentes semânticos pode ser obtido no domínio de tempo e/ou de frequência pelas configurações.
Configurações podem prover a vantagem de qualidade perceptual superior do som transmitido com custo moderado de computação. As configurações provêem um método de descorrelação/transmissão novo que oferece alta qualidade perceptual com custos moderados, especialmente para material de áudio critico do tipo de aplausos ou outros materiais de ambiente similares como, por exemplo, o ruído que é emitido por um bando de pássaros, uma orla marítima, cavalos a galope, uma divisão de soldados marchando etc.
Configurações da presente invenção serão detalhadas com a ajuda das Figuras em anexo, nas quais A Figura la mostra uma configuração de um aparelho para determinar um sinal de áudio de canais múltiplos de áudio espacial; A Figura lb mostra um diagrama de bloco de outra configuração; A Figura 2 mostra uma configuração ilustrando uma multiplicidade de sinais decompostos; A Figura 3 ilustra uma configuração com uma decomposição semântica de primeiro plano e de plano de fundo; A Figura 4 ilustra um exemplo de um método de separação de transiente para obter um componente de sinal de plano de fundo; A Figura 5 ilustra uma síntese de fontes de som tendo espacialmente uma extensão maior; A Figura 6 ilustra um pedido da técnica anterior de um descorrelacionador no domínio de tempo em um dispositivo de upmix de mono para estéreo; e A Figura 7 mostra outro pedido da técnica anterior de um descorrelacionador no domínio de frequência em um cenário de dispositivo de upmix de mono para estéreo. A Figura 1 mostra uma configuração de um aparelho 100 para determinar um sinal de áudio de canais múltiplos de saída espacial em um sinal de áudio de entrada. Em algumas configurações, o aparelho pode ser adaptado para fundamentar adicionalmente o sinal de áudio de canais múltiplos de saída espacial em um parâmetro de entrada. O parâmetro de entrada pode ser gerado localmente ou provido com o sinal de áudio de entrada, por exemplo, como informação de lado.
Na configuração ilustrada na Figura 1, o aparelho 100 compreende um decompositor 110 para decompor o sinal de áudio de entrada para obter um primeiro sinal decomposto tendo uma primeira propriedade semântica e um segundo sinal decomposto tendo uma segunda propriedade semântica sendo diferente da primeira propriedade semântica. O aparelho 100 compreende ainda um transmissor 120 para transmitir o primeiro sinal decomposto usando uma primeira característica de transmissão para obter um primeiro sinal transmitido tendo a primeira propriedade semântica e para transmitir o segundo sinal decomposto usando uma segunda característica de transmissão para obter um segundo sinal transmitido tendo a segunda propriedade semântica.
Uma propriedade semântica pode corresponder a uma propriedade espacial, tanto próxima quanto distante, focada ou ampla, e/ou uma propriedade dinâmica como, por exemplo, se um sinal é tonal, fixo ou transiente e/ou uma propriedade de dominância como, por exemplo, se o sinal é de primeiro plano ou de plano de fundo, uma medição do mesmo, respectivamente.
Além disso, na configuração, o aparelho 100 compreende um processador 130 para processar o primeiro sinal transmitido e o segundo sinal transmitido para obter o sinal de áudio de canais múltiplos de saída espacial.
Em outras palavras, o decompositor 110 é adaptado para decompor o sinal de áudio de entrada, em algumas configurações com base no parâmetro de entrada. A decomposição do sinal de áudio de entrada é adaptada à semântica, por exemplo, espacial, propriedades de partes diferentes do sinal de áudio de entrada. Além disso, transmissão executada pelo transmissor 120, de acordo com a primeira e segunda características de transmissão, pode também ser adaptada às propriedades espaciais, que permite, por exemplo, em um cenário onde o primeiro sinal decomposto corresponde a um sinal de áudio de plano de fundo e o segundo sinal decomposto corresponde a um sinal de áudio de primeiro plano, que transmissão ou descorrelacionadores diferentes sejam aplicados, e inversamente, respectivamente. A seguir, o termo “primeiro plano" é entendido como se referindo a um objeto de áudio sendo dominante no ambiente de áudio, de modo que um ouvinte potencial observaria um objeto de áudio de primeiro plano. Um objeto de áudio de primeiro plano ou fonte pode ser distinguido ou diferenciado de um objeto ou fonte de áudio de plano de fundo. Um objeto ou fonte de áudio de plano de fundo pode não ser observável por um ouvinte potencial em um ambiente de áudio como sendo menos dominante do que um objeto ou fonte de áudio de primeiro plano. Nas configurações, objetos ou fontes de áudio de primeiro plano podem ser, mas não se limitam a uma fonte de áudio do tipo de ponto, onde objetos ou fontes de áudio de plano de fundo podem corresponder a objetos ou fontes de áudio espacialmente mais amplos.
Em outras palavras, nas configurações, a primeira característica de transmissão pode ser baseada ou corresponder à primeira propriedade semântica e a segunda característica de transmissão pode ser baseada ou corresponder à segunda propriedade semântica. Em uma configuração, a primeira propriedade semântica e a primeira característica de transmissão correspondem a uma fonte ou objeto de áudio de primeiro plano e o transmissor 120 pode ser adaptado para aplicar dispersão de amplitude ao primeiro sinal decomposto. O transmissor 120 pode, então, ser adicionalmente adaptado para prover, como o primeiro sinal transmitido, duas versões de dispersão de amplitude do primeiro sinal decomposto. Nesta configuração, a segunda propriedade semântica e a segunda característica de transmissão correspondem a uma fonte ou objeto de áudio de plano de fundo, uma pluralidade da mesma, respectivamente, e o transmissor 120 pode ser adaptado para aplicar uma descorrelação ao segundo sinal decomposto, e prover, como segundo sinal transmitido, o segundo sinal decomposto e a versão descorrelacionada do mesmo.
Nas configurações, o transmissor 120 pode ser adicionalmente adaptado para transmitir o primeiro sinal decomposto de modo que a primeira característica de transmissão não tenha uma característica de introdução de atraso. Em outras palavras, pode não haver descorrelação do primeiro sinal decomposto. Em outra configuração, a primeira característica de transmissão pode ter uma característica de introdução de atraso tendo uma primeira quantidade de atraso e a segunda característica de transmissão pode ter uma segunda quantidade de atraso, a segunda quantidade de atraso sendo maior que a primeira quantidade de atraso. Em outras palavras nesta configuração, ambos, o primeiro sinal decomposto e o segundo sinal decomposto, podem ser descorrelacionados, entretanto, o nível de descorrelação pode ser escalonado com a quantidade de atraso introduzida nas respectivas versões descorrelacionadas dos sinais decompostos. A descorrelação pode, portanto, ser mais forte para o segundo sinal decomposto do que para o primeiro sinal decomposto.
Nas configurações, o primeiro sinal decomposto e o segundo sinal decomposto podem ser sobrepostos e/ou podem ser sincronizados no tempo. Em outras palavras, o processamento de sinal pode ser executado ao nível de bloco, onde um bloco de amostras de sinal de áudio de entrada pode ser subdividido pelo decompositor 110 em uma série de blocos de sinais decompostos. Nas configurações, o número de sinais decompostos pode, pelo menos parcialmente, ser sobreposto no domínio de tempo, isto é, eles podem representar sobreposição de amostras de domínio de tempo. Em outras palavras, os sinais decompostos podem corresponder a partes do sinal de áudio de entrada, que se sobrepõem, isto é, que representam, pelo menos parcialmente, sinais de áudio simultâneos. Nas configurações, os primeiro e segundo sinais decompostos podem representar versões filtradas ou transformadas de um sinal de entrada original. Por exemplo, eles podem representar partes de sinal sendo extraídas de um sinal espacial composto correspondendo, por exemplo, a uma fonte de som fechada ou a uma fonte de som mais distante. Em outras configurações eles podem corresponder a componentes de sinal transiente ou fixo etc.
Nas configurações, o transmissor 120 pode ser subdividido em um primeiro transmissor e um segundo transmissor, onde o primeiro transmissor pode ser adaptado para transmitir o primeiro sinal decomposto e o segundo transmissor pode ser adaptado para transmitir o segundo sinal decomposto. Nas configurações, o transmissor 120 pode ser implementado em software, por exemplo, como um programa armazenado em uma memória a ser operado em um processador ou um processador de sinal digital que, por sua vez, é adaptado para transmitir os sinais decompostos seqüencialmente. O transmissor 120 pode ser adaptado para descorrelacionar o primeiro sinal decomposto para obter um primeiro sinal descorrelacionado e/ou para descorrelacionar o segundo sinal decomposto para obter um segundo sinal descorrelacionado. Em outras palavras, o transmissor 120 pode ser adaptado para descorrelacionar ambos os sinais decompostos, entretanto, usando descorrelações ou características de transmissão diferentes. Nas configurações, o transmissor 120 pode ser adaptado para aplicar dispersão de amplitude para um dentre o primeiro ou segundo sinal decomposto ao invés ou em adição à descorrelação. O transmissor 120 pode ser adaptado para transmitir o primeiro e segundo sinais transmitidos, cada um tendo tanto componentes quanto canais no sinal de áudio de canais múltiplos de saída espacial e o processador 130 pode ser adaptado para combinar os componentes dos primeiro e segundo sinais transmitidos para obter o sinal de áudio de canais múltiplos de saída espacial. Em outras configurações, o transmissor 120 pode ser adaptado para transmitir o primeiro e o segundo sinal transmitido, cada um tendo menos componentes do que o sinal de áudio de canais múltiplos de saída espacial, e onde o processador 130 pode ser adaptado para fazer upmix dos componentes dos primeiro e segundo sinais transmitidos para obter o sinal de áudio de canais múltiplos de saída espacial. A Figura lb mostra outra configuração de um aparelho 100, compreendendo componentes similares conforme foram introduzidos com a ajuda da Figura la. Entretanto, a Figura lb mostra uma configuração tendo maiores detalhes. A Figura lb mostra um decompositor 110 recebendo o sinal de áudio de entrada e, opcionalmente, o parâmetro de entrada. Como pode ser visto da Figura lb, o decompositor é adaptado para prover um primeiro sinal decomposto e um segundo sinal decomposto para um transmissor 120, que é indicado pelas linhas tracejadas. Na configuração mostrada na Figura lb, é pressuposto que o primeiro sinal decomposto corresponde a uma fonte de áudio do tipo de ponto como a primeira propriedade semântica, e que o transmissor 120 é adaptado para aplicar dispersão de amplitude como a primeira característica de transmissão ao primeiro sinal decomposto. Nas configurações, os primeiro e segundo sinais decompostos podem ser trocados entre si, isto é, em outras configurações dispersão de amplitude pode ser aplicada ao segundo sinal decomposto.
Na configuração ilustrada na Figura lb, o transmissor 120 mostra, no caminho do sinal do primeiro sinal decomposto, dois amplificadores escalonáveis 121 e 122, que são adaptados para amplificar duas cópias do primeiro sinal decomposto diferentemente. Os fatores de amplificação diferentes usados podem, nas configurações, ser determinados do parâmetro de entrada, em outras configurações, eles podem ser determinados do sinal de áudio de entrada, podem ser pré-definidos ou podem ser localmente gerados, possivelmente também com referência a uma entrada de usuário. As saídas dos dois amplificadores escalonáveis 121 e 122 são providas ao processador 130, para os quais serão providos detalhes a seguir.
Como pode ser visto da Figura lb, o decompositor 110 provê um segundo sinal decomposto ao transmissor 120, que executa uma transmissão diferente no caminho do processamento do segundo sinal decomposto. Em outras configurações, o primeiro sinal decomposto pode ser processado no caminho presentemente descrito, assim como ou ao invés do segundo sinal decomposto. O primeiro e segundo sinais decompostos podem ser trocados nas configurações.
Na configuração ilustrada na Figura lb, no caminho de processamento do segundo sinal decomposto, existe um descorrelacionador 123 seguido por um rotor ou estéreo paramétrico ou módulo de upmix 124 como a segunda característica de transmissão. O descorrelacionador 123 pode ser adaptado para descorrelacionar o segundo sinal decomposto Y[A] e para prover uma versão descorrelacionada Q[k] do segundo sinal decomposto para õ estéreo paramétrico ou módulo de upmix 124. Na Figura lb, o sinal mono é alimentado na unidade do descorrelacionador "D" 123 assim como no módulo de upmix 124. A unidade de descorrelação 123 pode criar a versão descorrelacionada Q[k] do sinal de entrada, tendo as mesmas características de frequência e a mesma energia de longa duração. O módulo de upmix 124 pode calcular uma matriz de upmix com base nos parâmetros espaciais e sintetizar os canais de saída }j[£] e T2[k] . O módulo de upmix pode ser explicado de acordo com Sendo os parâmetros cz , cr , a e β constantes, ou valores de variantes de tempo e frequência estimados do sinal de entrada Y[Á:] de forma adaptativa, ou transmitidos como informação de lado juntamente com o sinal de entrada na forma de, por exemplo, parâmetros ILD (ILD = Diferença de Nível Entre Canais) e parâmetros ICC (ICC = Correlação Entre Canais). 0 sinal 2f[Á] é o sinal mono recebido, o sinal Q[k] é o sinal descorrelacionado, sendo uma versão descorrelacionada do sinal de entrada . Os sinais de saída são denotados por e T2[k] . 0 descorrelacionador 123 pode ser implementado como um filtro IIR (IIR = Resposta de Impulso Infinito), um filtro arbitrário FIR (FIR = Resposta de Impulso Finito) ou um filtro FIR especial usando um toque único ("single tap") para simplesmente retardar o sinal.
Os parâmetros c. , cr , a e β podem ser determinados de diferentes maneiras. Em algumas configurações, eles são simplesmente determinados por parâmetros de entrada, que podem ser providos juntamente com o sinal de áudio de entrada, por exemplo, com os dados de downmix como uma informação de lado. Em outras configurações, eles podem ser gerados localmente ou derivados das propriedades do sinal de áudio de entrada.
Na configuração mostrada na Figura lb, o transmissor 120 é adaptado para prover o segundo sinal transmitido em termos dos dois sinais de saída e K,[fc] do módulo de upmix 124 do processador 130.
De acordo com o caminho de processamento do primeiro sinal decomposto, as duas versões de dispersão de amplitude do primeiro sinal decomposto, disponíveis das saídas dos dois amplificadores escalonáveis 121 e 122, são também providas para o processador 130. Em outras configurações, os amplificadores escalonáveis 121 e 122 podem estar presentes no processador 130, onde apenas o primeiro sinal decomposto e um fator de dispersão pode ser provido pelo transmissor 120.
Como pode ser visto na Figura lb, o processador 130 pode ser adaptado para processamento ou combinação do primeiro sinal transmitido e do segundo sinal transmitido, nesta configuração simplesmente pela combinação das saídas de modo a prover um sinal estéreo tendo um canal esquerdo L e um canal direito R correspondendo ao sinal de áudio de canais múltiplos de saída espacial da Figura la.
Na configuração na Figura lb, em ambos os caminhos de sinalização, os canais esquerdo e direito para um sinal estéreo são determinados. No caminho do primeiro sinal decomposto, dispersão de amplitude é executada pelos dois amplificadores escalonáveis 121 e 122, portanto, os dois componentes resultam em dois sinais de áudio em fase, que são escalonados diferentemente. Isto corresponde a uma impressão de uma fonte de áudio do tipo de ponto como uma propriedade semântica ou característica de transmissão.
No caminho de processamento de sinal do segundo sinal decomposto, os sinais de saída f[Â:] e fW s^° Providos para o processador 130 correspondendo aos canais esquerdo e direito conforme determinado pelo módulo de upmix 124. Os parâmetros c; , cr , a e β determinam a largura espacial da fonte de áudio correspondente. Em outras palavras, os parâmetros cz , cr , a e β podem ser escolhidos de uma maneira ou variar de modo que para os canais L e R qualquer correlação entre uma correlação máxima e uma correlação mínima possa ser obtida no segundo caminho de processamento de sinal como segunda característica de transmissão. Além disso, isto pode ser executado independentemente para diferentes bandas de freqüência. Em outras palavras, os parâmetros c: , cr , a e β podem ser escolhidos de uma maneira ou variarem de modo que os canais L e R estejam em fase, modelando uma fonte de áudio do tipo de ponto como propriedade semântica.
Os parâmetros ct , cr , a e β podem também ser escolhidos de uma maneira ou variarem de modo que os canais L e R no segundo caminho de processamento de sinal sejam descorrelacionados, modelando uma fonte de áudio bastante distribuída espacialmente como propriedade semântica, por exemplo, modelando uma fonte de som de plano de fundo ou mais ampla espacialmente. A Figura 2 ilustra outra configuração, a qual é mais geral. A Figura 2 mostra um bloco de decomposição semântica 210, que corresponde ao decompositor 110. A saída da decomposição semântica 210 é a entrada de um estágio de transmissão 220, que corresponde ao transmissor 120. O estágio de transmissão 220 é composto de uma série de transmissores individuais 221 a 22n, isto é, o estágio de decomposição de semântica 210 é adaptado para decompor um sinal de entrada mono/estéreo em n sinais decompostos, tendo n propriedades semânticas. A decomposição pode ser executada com base nos parâmetros de controle de decomposição, que podem ser providos juntamente com o sinal de entrada mono/estéreo, pré-definidos, gerados localmente ou inseridos por um usuário etc.
Em outras palavras, o decompositor 110 pode ser adaptado para decompor o sinal de áudio de entrada semanticamente com base no parâmetro de entrada opcional e/ou para determinar o parâmetro de entrada a partir do sinal de áudio de entrada. A saída do estágio de descorrelação ou transmissão 220 é, então, provida para um bloco de upmix 230, que determina uma saída de canais múltiplos com base nos sinais descorrelacionados ou transmitidos e opcionalmente baseados em parâmetros controlados de upmix.
De forma geral, configurações podem separar o material de som em n diferentes componentes semânticos e descorrelacionar cada componente separadamente com um descorrelacionador de correspondência, que são também rotulados D1 a Dn na Figura 2. Em outras palavras, nas configurações as características de transmissão podem ser correspondidas com as propriedades semânticas dos sinais decompostos. Cada um dos descorrelacionados ou transmissores pode ser adaptado às propriedades semânticas do componente de sinal decomposto consequentemente. Subsequentemente, os componentes processados podem ser mixados para obter o sinal de canais múltiplos de saída. Os componentes diferentes poderíam, por exemplo, corresponder a objetos de modelagem de primeiro plano e plano de fundo.
Em outras palavras, o transmissor 110 pode ser adaptado para combinar o primeiro sinal decomposto e o primeiro sinal descorrelacionado para obter um sinal de upmix estéreo ou de canais múltiplos como o primeiro sinal transmitido e/ou para combinar o segundo sinal decomposto e o segundo sinal descorrelacionado para obter um sinal upmix estéreo como o segundo sinal transmitido.
Além disso, o transmissor 120 pode ser adaptado para transmitir o primeiro sinal decomposto de acordo com uma característica de áudio de plano de fundo e/ou para transmitir o segundo sinal decomposto de acordo com uma característica de áudio de primeiro plano ou vice-versa.
Visto que, por exemplo, sinais do tipo de aplauso podem ser vistos como compostos de palmas individuais, palmas distintas próximas e de um ruído do tipo ambiental originário de palmas distantes muito densas, uma decomposição adequada destes sinais pode ser obtida pela distinção entre eventos de palmas de primeiro plano isoladas como um componente e plano de fundo do tipo de ruído como outro componente. Em outras palavras, em uma configuração, n=2. Nesta configuração, por exemplo, o transmissor 120 pode ser adaptado para transmitir o primeiro sinal decomposto por dispersão de amplitude do primeiro sinal decomposto. Em outras palavras, a correlação ou transmissão do componente de palma do primeiro plano pode, nas configurações, ser atingido em D1 por dispersão de amplitude de cada evento único em seu local original estimado.
Nas configurações, o transmissor 120 pode ser adaptado para transmitir o primeiro e/ou segundo sinal decomposto, por exemplo, por filtragem de alta passagem do primeiro ou segundo sinal decomposto para obter o primeiro ou segundo sinal descorrelacionado.
Em outras palavras, nas configurações, o plano de fundo pode ser descorrelacionado ou transmitido pelo uso de m filtros de passagem total mutuamente independentes Nas configurações, apenas o plano de fundo quase-fixo pode ser processado pelos filtros de passagem total, os efeitos de truncamento dos métodos de descorrelação da técnica anterior podem ser evitados desta maneira. Visto que dispersão de amplitude pode ser aplicada aos eventos do objeto de primeiro plano, a densidade de aplauso de primeiro plano original pode ser aproximadamente armazenada como oposta ao sistema da técnica anterior como, por exemplo, apresentado no parágrafo por J. Breebaart, S. van de Par, Ά. Kohlrausch, E. Schuijers, "High-Quality Parametric Spatial Audio Coding at Low Bitrates" na 116- Convenção AES, Berlim, Pré-impressão 6072, Maio de 2004 e J. Herre, K. Kjõrling, J. Breebaart, et. al., "MPEG Surround - the ISO/MPEG Standard for Efficient and Compatible Multi-Channel Audio Coding" nos Procedimentos da 122-Convenção AES, Viena, Áustria, Maio de 2007.
Em outras palavras, nas configurações, o decompositor 110 pode ser adaptado para decompor o sinal de áudio de entrada semanticamente baseado no parâmetro de entrada, onde o parâmetro de entrada pode ser provido juntamente com o sinal de áudio de entrada como, por exemplo, uma informação de lado. Nesta configuração, o decompositor 110 pode ser adaptado para determinar o parâmetro de entrada do sinal de áudio de entrada. Em outras configurações, o decompositor 110 pode ser adaptado para determinar o parâmetro de entrada como um parâmetro de controle independente do sinal de áudio de entrada, que pode ser gerado localmente, pré-definido, ou pode também ser inserido por um usuário.
Nas configurações, o transmissor 120 pode ser adaptado para obter uma distribuição espacial do primeiro sinal transmitido ou do segundo sinal transmitido pela aplicação de uma dispersão de amplitude de banda larga. Em outras palavras, de acordo com a descrição da Figura lb acima, ao invés de gerar uma fonte do tipo de ponto, o local de dispersão da fonte pode ser temporariamente variado de modo a gerar uma fonte de áudio tendo certa distribuição espacial. Nas configurações, o transmissor 120 pode ser adaptado para aplicar o ruído de baixa passagem gerado localmente para dispersão de amplitude, isto é, os fatores de escalonamento para a dispersão de amplitude para, por exemplo, os amplificadores escalonáveis 121 e 122 na Figura lb correspondem a um valor de ruído gerado localmente, isto é, são de variação de tempo com uma certa largura de banda.
Configurações podem ser adaptadas para serem operadas em um modo guiado ou não guiado. Por exemplo, em um cenário guiado, com referência às linhas tracejadas, por exemplo, na Figura 2, a descorrelação pode ser obtida pela aplicação de filtros de descorrelação de tecnologia padrão controlados em uma grade de tempo grosseira, por exemplo, o plano de fundo ou parte ambiental apenas e obter a correlação pela redistribuição de cada evento único, por exemplo, na parte do primeiro plano por meio de posicionamento espacial de variante de tempo usando dispersão de amplitude de banda larga em uma grade de tempo muito mais fina. Em outras palavras, nas configurações, o transmissor 120 pode ser adaptado para operar descorrelacionadores para diferentes sinais decompostos em diferentes grades de tempo, por exemplo, com base em escalas temporais diferentes, que podem ser em termos de taxas de amostra diferentes ou atraso diferente para os descorrelacionadores respectivos. Em uma configuração, para executar separação de primeiro plano e plano de fundo, a parte de primeiro plano pode usar dispersão de amplitude, onde a amplitude é alterada em uma grade de tempo muito mais fina do que a operação para um descorrelacionador com relação à parte de plano de fundo.
Além disso, é enfatizado que para a descorrelação de, por exemplo, sinais do tipo de aplauso, isto é, sinais com qualidade aleatória quase-fixa, a posição espacial exata de cada palma de primeiro plano individual pode não ser de tanta importância quanto à recuperação da distribuição geral da quantidade de eventos de palmas. Configurações podem se beneficiar deste fato e podem operar em um modo não guiado. Nesse modo, o fator de dispersão de amplitude mencionado acima podería ser controlado por ruído de baixa passagem. A Figura 3 ilustra um sistema de mono-para-estéreo implementando o cenário. A Figura 3 mostra um bloco de decomposição semântica 310 correspondendo ao decompositor 110 para decompor o sinal de entrada mono em uma parte de sinal decomposto de primeiro plano e de plano de fundo.
Como pode ser visto da Figura 3, a parte decomposta de plano de fundo do sinal é transmitida por D1 de passagem total 320. O sinal descorrelacionado é, então, provido juntamente com a parte decomposta de plano de fundo transmitida para o upmix 330, correspondendo ao processador 130. A parte do sinal decomposto de primeiro plano é provida para um estágio D2 de dispersão de amplitude 340, que corresponde ao transmissor 120. Ruído de baixa passagem localmente gerado 350 é, também, provido para o estágio de dispersão de amplitude 340, que pode, então, prover o sinal decomposto de primeiro plano em uma configuração de dispersão de amplitude para o upmix 330. O estágio D2 de dispersão de amplitude 340 pode determinar sua saída pela provisão de um fator de escalonamento k para uma seleção de amplitude entre dois de um conjunto estéreo de canais de áudio. O fator de escalonamento k pode ser baseado no ruído de baixa passagem.
Como pode ser visto da Figura 3, existe apenas uma seta entre a dispersão de amplitude 340 e o upmix 330. Essa seta pode, também, representar sinais de amplitude dispersa, isto é, no caso de upmix estéreo, já o canal esquerdo e o canal direito. Como pode ser visto da Figura 3, o upmix 330 correspondendo ao processador 130 é, então, adaptado para processar ou combinar os sinais decompostos de plano de fundo e primeiro plano para derivar a saída estéreo.
Outras configurações podem usar processamento nativo de modo a derivar sinais decompostos de plano de fundo e primeiro plano ou parâmetros de entrada para decomposição. O decompositor 110 pode ser adaptado para determinar o primeiro sinal decomposto e/ou o segundo sinal decomposto com base em um método de separação de transiente. Em outras palavras, o decompositor 110 pode ser adaptado para determinar o primeiro ou segundo sinal decomposto com base em um método de separação e o outro sinal decomposto com base na diferença entre o primeiro sinal decomposto determinado e o sinal de áudio de entrada. Em outras configurações, o primeiro ou segundo sinal decomposto pode ser determinado com base no método de separação de transiente e o outro sinal decomposto pode ser baseado na diferença entre o primeiro ou segundo sinal decomposto e o sinal de áudio de entrada. 0 decompositor 110 e/ou o transmissor 120 e/ou o processador 130 podem compreender um estágio mono-síntese DirAC e/ou um estágio de síntese DirAC e/ou um estágio de fusão DirAC. Nas configurações, o decompositor 110 pode ser adaptado para decompor o sinal de áudio de entrada, o transmissor 120 pode ser adaptado para transmitir os primeiro e/ou segundo sinais decompostos, e/ou o processador 130 pode ser adaptado para processar o primeiro e/ou segundo sinais transmitidos em termos de diferentes bandas de frequência.
Configurações podem usar a aproximação a seguir para sinais do tipo de aplauso. Embora os componentes de primeiro plano possam ser obtidos por detecção de transiente ou métodos de separação, conforme Pulkki, Ville; "Spatial Sound Reproduction with Directional Audio Coding" no J. Audio Eng. Soc., Vol. 55, N-6, 2007, o componente de plano de fundo pode ser provido pelo sinal residual. A Figura 4 ilustra um exemplo onde um método adequado para obter um componente de plano de fundo x' (n) de, por exemplo, um sinal do tipo de aplauso x(n), implementa a decomposição semântica 310 na Figura 3, isto é, uma configuração do decompositor 120. Ά Figura 4 mostra um sinal de entrada de tempo discreto x(n), que é inserido a uma DFT 410 (DFT Transformada Discreta de Fourier). A saída do bloco DFT 410 é provida a um bloco para suavizar o espectro 420 e para um bloco de branqueamento espectral 430 para branqueamento espectral com base na saída da DFT 410 e na saída do estágio de espectro suave 430. A saída do estágio de branqueamento espectral 430 é, então, provida para um estágio de captação de pico 440, que separa o espectro e provê duas saídas, isto é, um sinal residual de transiente e ruído e um sinal tonal. 0 sinal residual de transiente e ruído é provido para um filtro LPC 450 (LPC = Codificação de Prediçâo Linear) do qual o sinal de ruído residual é provido ao estágio de mixagem 460 juntamente com o sinal tonal como saída do estágio de captação de pico espectral 440. A saída do estágio de mixagem 460 é, então, provida a um estágio de formatação espectral 470, que formata o espectro com base no espectro suavizado provido pelo estágio de espectro suavizado 420. A saída do estágio de formatação espectral 470 é, então, provida para o filtro de síntese 480, isto é, uma transformada discreta de Fourier inversa para obter x' (n) representando o componente de plano de fundo. O componente de primeiro plano pode, então, ser derivado como a diferença entre o sinal de entrada e o sinal de saída, isto é, como x(n)-x'(n).
Configurações da presente invenção podem ser operadas em aplicações de realidade virtual como, por exemplo, jogos em 3D. Nessas aplicações, a síntese de fontes de som com uma extensão espacial grande pode ser complicada e complexa quando baseada em conceitos convencionais. Estas fontes podem, por exemplo, ser uma orla marítima, um bando de pássaros, cavalos a galope, uma divisão de soldados marchando, ou uma platéia aplaudindo. Tipicamente, estes eventos de som são espacializados como um grupo grande de fontes do tipo de ponto, que conduz a implementações de computação complexa, conforme Wagner, Andreas; Walther, Andreas; Melchoir, Frank; Strauú, Michael; "Generation of Highly Immersive Atmospheres for Wave Field Synthesis Reproduction" na 116-Convenção Internacional EAS, Berlim, 2004.
Configurações podem executar um método, que executa a síntese da extensão de fontes de som possivelmente, mas, simultaneamente, tendo uma complexidade computacional e estrutural baixa. Configurações podem ser baseadas em DirAC (DirAC = Codificação de Áudio Direcional) , conforme Pulkki, Ville; "Spatial Sound Reproduction with Directional Audio Coding" no J. Audio Eng. Soc., Vol. 55, N2 6, 2007. Em outras palavras, nas configurações, o decompositor 110 e/ou o transmissor 120 e/ou o processador 130 podem ser adaptados para processamento de sinais DirAC. Em outras palavras, o decompositor 110 pode compreender estágios mono-síntese DirAC, o transmissor 120 pode compreender um estádio de síntese DirAC e/ou o processador pode compreender um estágio de fusão DirAC.
Configurações podem ser baseadas em processamento DirAC, por exemplo, usando apenas duas estruturas de síntese, por exemplo, uma para fontes de som de primeiro plano e uma para fontes de plano de fundo. O som de primeiro plano pode ser aplicado a uma corrente DirAC única com dados direcionais controlados, resultando na percepção de fontes do tipo de ponto próximas. O som de plano de fundo pode, também, ser reproduzido pelo uso de correntes diretas únicas com dados direcionais diferentemente controlados, que conduz à percepção de objetos de som de dispersão espacial. As duas correntes DirAC podem, então, ser fundidas e decodificadas por ajuste arbitrário de alto-falante ou de fones de ouvido, por exemplo. A Figura 5 ilustra uma síntese de fontes de som tendo uma extensão espacial grande. Ά Figura 5 mostra um bloco de mono-síntese superior 610, que cria uma corrente mono-DirAC conduzindo a uma percepção de fonte de som do tipo de ponto próxima, tal como os aplausos mais próximos de uma platéia. O bloco de mono-síntese inferior 620 é usado para criar uma corrente mono-DirAC conduzindo à percepção de som disperso espacialmente, que é, por exemplo, adequado para gerar som de plano de fundo como o som de aplauso da platéia. As saídas dos dois blocos de mono-síntese DirAC 610 e 620 são, então, fundidas no estágio de fusão DirAC 630. A Figura 5 mostra que apenas dois blocos de síntese DirAC 610 e 620 são usados nesta configuração. Um deles é usado para criar os eventos de som, que estão no primeiro plano, tais como pássaros mais próximos ou pessoas mais próximas em uma platéia aplaudindo, e o outro gera um som de plano de fundo, o som de bando de pássaros contínuo etc. O som de primeiro plano é convertido em uma corrente mono-DirAC com bloco DirAC-mono-síntese 610 de uma maneira que os dados azimute são mantidos constantes com frequência, entretanto alterados randomicamente ou controlado por um processo externo temporal. O parâmetro de difusão ψ é definido como 0, isto é, representando uma fonte do tipo de ponto. A entrada de áudio para o bloco 610 é pressuposta ser temporariamente sons não sobrepostos, tais como chamadas de pássaro distintas ou palmas, que geram a percepção de fontes de som próximas, tais como pássaros ou pessoas aplaudindo. A extensão espacial dos eventos de som de primeiro plano é controlada pelo ajuste de Θ e Θ faixa primeiro plano, que significa que os eventos de som individuais serão percebidos nas direções 9±9f faixa primeiro plano, entretanto, um evento único pode ser percebido como do tipo de ponto. Em outras palavras, fontes de som do tipo de ponto são geradas onde as posições possíveis do ponto são limitadas à faixa θ±θ faixa primeiro plano. 0 bloco de plano de fundo 620 toma como corrente de áudio de entrada, um sinal, que contém todos os outros eventos de som não presentes na corrente de áudio de primeiro plano, que objetiva incluir quantidades de eventos de som sobrepostos temporariamente, por exemplo, centenas de pássaros ou um grande número de pessoas distantes aplaudindo. Os valores azimute anexados são, então, definidos aleatoriamente, tanto no tempo quanto na frequência, dentro de valores de azimute de restrição providos QiQfaixa de plano de fundo. A extensão espacial dos sons de plano de fundo pode, dessa maneira, ser sintetizada com baixa complexidade computacional. A difusão Ψ pode também ser controlada. Se ela foi adicionada, o decodificador DirAC aplicaria o som a todas as direções, o que pode ser usado quando a fonte de som envolve o ouvinte totalmente. Se ela não envolve, a difusão pode ser mantida baixa ou próxima de zero, ou zero nas configurações.
Configurações da presente invenção podem prover a vantagem de que qualidade perceptual superior de sons transmitidos pode ser atingida com um custo computacional moderado. Configurações podem permitir uma implementação modular de som espacial transmitindo como, por exemplo, mostrado na Figura 5.
Dependendo de certos requisitos de implementação dos métodos inventivos, os métodos inventivos podem ser implementados em hardware ou em software. A implementação pode ser executada usando um meio de armazenagem digital e, especificamente, uma memória "flash", um disco, um DVD ou um CD tendo sinais de controle eletronicamente legíveis armazenados nos mesmos, que cooperam com o sistema de computador programável, de modo que os métodos inventivos sejam executados. De forma geral, a presente invenção é, portanto, um produto de programa de computador com um código de programa armazenado em um veículo legível por máquina, o código de programa sendo operacional para executar os métodos inventivos quando o programa de computador opera em um computador. Em outras palavras, os métodos inventivos são, portanto, um programa de computador tendo um código de programa para executar pelo menos um dos métodos inventivos quando o programa de computador opera em um computador.
REIVINDICAÇÕES

Claims (5)

1. "APARELHO PARA DETERMINAR UM SINAL DE ÁUDIO DE CANAIS MÚLTIPLOS DE SAÍDA ESPACIAL", com base na entrada de sinal de áudio, onde o aparelho compreende: um decompositor semântico (110) configurado para decompor o sinal de áudio de entrada para obter um primeiro sinal decomposto tendo uma primeira propriedade semântica, o primeiro sinal decomposto sendo uma parte de sinal de primeiro plano, e um segundo sinal decomposto tendo uma segunda propriedade semântica sendo diferente da primeira propriedade semântica, o segundo sinal decomposto sendo uma parte de sinal de plano de fundo; um transmissor (120) para transmitir o primeiro sinal decomposto usando uma primeira característica de transmissão para obter um primeiro sinal transmitido tendo a primeira propriedade semântica, e para transmitir um segundo sinal decomposto usando uma segunda característica de transmissão para obter um segundo sinal transmitido tendo a segunda propriedade semântica; onde a primeira característica de transmissão e a segunda característica de transmissão são diferentes uma da outra, caracterizado por o transmissor (120) compreender um primeiro estágio mono-síntese DirAC (610) para transmitir parte de sinal de primeiro plano, o primeiro estágio mono-síntese DirAC (610) sendo configurado para _ criar uma primeira corrente mono-DirAC conduzindo a uma percepção de fonte de som do tipo de ponto próxima, e um segundo estágio mono-síntese DirAC (610) para transmissão da parte do plano de fundo, o segundo estágio mono-síntese DirAC (620) sendo configurado para criar uma corrente mono-síntese DirAC que conduz à percepção de objetos de som de dispersão espacial. um processador (130) para processamento do primeiro sinal transmitido e o segundo sinal transmitido para obter o sinal de áudio de canais múltiplos de saída espacial, onde o processador (130) compreende um estágio de fusão DirAc (630) para fundir um primeiro estágio de corrente mono-síntese DirAC e um segundo estágio de corrente mono-sintese DirAC.
2. Aparelho (100), de acordo com a reivindicação 1, caracterizado por o primeiro estágio mono-síntese DirAC (610) ser configurado de uma maneira tal que os dados azimute são mantidos constantes com frequência, e alterados randomicamente ou controlado por um processo externo temporal dentro de faixa de valores de azimute de restrição e um parâmetro de difusão que é mantido próximo de zero; e no qual o segundo estágio mono-síntese DirAC (620) é configurado de uma maneira tal que os dados azimute são mantidos randomicamente tanto no tempo quanto na frequência, dentro de valores de azimute de restrição.
3. MÉTODO PARA DETERMINAR UM SINAL DE ÁUDIO DE CANAIS MÚLTIPLOS DE SAÍDA ESPACIAL, com base em um sinal de áudio de entrada e um parâmetro de entrada, compreendendo as etapas de: decompor semanticamente o sinal de áudio de entrada para obter um primeiro sinal decomposto tendo uma primeira propriedade semântica, o primeiro sinal decomposto sendo uma parte de sinal de primeiro plano, e um segundo sinal decomposto tendo uma segunda propriedade semântica sendo diferente da primeira propriedade semântica, o segundo sinal decomposto sendo uma parte de sinal de plano de fundo;caracterizado por transmitir o primeiro sinal decomposto usando uma primeira característica de transmissão para obter um primeiro sinal transmitido tendo a primeira propriedade semântica, pelo porcessamento do primeiro sinal decomposto em um primeiro estágio mono-síntese DirAC (610) , o primeiro estágio mono-síntese DirAC (610) sendo configurado para criar uma primeira corrente mono-DirAC conduzindo a uma percepção de fonte de som do tipo de ponto próxima; transmitir o segundo sinal decomposto usando uma segunda característica de transmissão para obter um segundo sinal transmitido tendo uma segunda propriedade semântica, pelo porcessamento do segundo sinal decomposto em um segundo estágio mono-síntese DirAC (620), o segundo estágio mono-síntese DirAC (620) sendo configurado para criar uma corrente mono-síntese DirAC que conduz à percepção de objetos de som de dispersão espacial. processar o primeiro sinal transmitido e o segundo sinal transmitido para obter o sinal de áudio de canais múltiplos de saída espacial usando um estágio de fusão Dirac (630)para fundir a primeira corrente de mono-síntese DirAC e uma segunda corrente de mono-síntese DirAC.
4. Método, de acrodo com a reivindicação 3, caracterizado por no primeiro estágio mono-síntese DirAC (610), os dados azimute são mantidos constantes com freqüência, e alterados randomicamente ou controlado por um processo externo temporal dentro de faixa de valores de azimute de restrição e um parâmetro de difusão que pode ser mantido próximo de zero; e no segundo estágio mono-síntese DirAC (620)os dados azimute são mantidos randomicamente tanto no tempo quanto na freqüência, dentro de valores de azimute de restrição
5. Programa de computador, caracterizado por compreender um código de programa para executar o método da reivindicação 3, quando executado em um computador ou um processador.
BR122012003058-9A 2008-08-13 2009-08-11 Aparelho e método para determinar um sinal de áudio de canais múltiplos de saída espacial BR122012003058B1 (pt)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
US8850508P 2008-08-13 2008-08-13
US61/088,505 2008-08-13
EP08018793A EP2154911A1 (en) 2008-08-13 2008-10-28 An apparatus for determining a spatial output multi-channel audio signal
EP08018793.3 2008-10-28
BRPI0912466-7A BRPI0912466B1 (pt) 2008-08-13 2009-08-11 Aparelho para determinar um sinal de áudio de canais múltiplos de saída espacial
PCT/EP2009/005828 WO2010017967A1 (en) 2008-08-13 2009-08-11 An apparatus for determining a spatial output multi-channel audio signal

Publications (2)

Publication Number Publication Date
BR122012003058A2 true BR122012003058A2 (pt) 2019-10-15
BR122012003058B1 BR122012003058B1 (pt) 2021-05-04

Family

ID=40121202

Family Applications (3)

Application Number Title Priority Date Filing Date
BRPI0912466-7A BRPI0912466B1 (pt) 2008-08-13 2009-08-11 Aparelho para determinar um sinal de áudio de canais múltiplos de saída espacial
BR122012003058-9A BR122012003058B1 (pt) 2008-08-13 2009-08-11 Aparelho e método para determinar um sinal de áudio de canais múltiplos de saída espacial
BR122012003329-4A BR122012003329B1 (pt) 2008-08-13 2009-08-11 Aparelho e método para determinar um sinal de áudio de canais múltiplos de saída espacial

Family Applications Before (1)

Application Number Title Priority Date Filing Date
BRPI0912466-7A BRPI0912466B1 (pt) 2008-08-13 2009-08-11 Aparelho para determinar um sinal de áudio de canais múltiplos de saída espacial

Family Applications After (1)

Application Number Title Priority Date Filing Date
BR122012003329-4A BR122012003329B1 (pt) 2008-08-13 2009-08-11 Aparelho e método para determinar um sinal de áudio de canais múltiplos de saída espacial

Country Status (17)

Country Link
US (3) US8824689B2 (pt)
EP (4) EP2154911A1 (pt)
JP (3) JP5425907B2 (pt)
KR (5) KR101424752B1 (pt)
CN (3) CN102523551B (pt)
AU (1) AU2009281356B2 (pt)
BR (3) BRPI0912466B1 (pt)
CA (3) CA2822867C (pt)
CO (1) CO6420385A2 (pt)
ES (3) ES2553382T3 (pt)
HK (4) HK1154145A1 (pt)
MX (1) MX2011001654A (pt)
MY (1) MY157894A (pt)
PL (2) PL2311274T3 (pt)
RU (3) RU2537044C2 (pt)
WO (1) WO2010017967A1 (pt)
ZA (1) ZA201100956B (pt)

Families Citing this family (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8107631B2 (en) * 2007-10-04 2012-01-31 Creative Technology Ltd Correlation-based method for ambience extraction from two-channel audio signals
CN102246543B (zh) 2008-12-11 2014-06-18 弗兰霍菲尔运输应用研究公司 产生多信道音频信号的装置
US8139773B2 (en) * 2009-01-28 2012-03-20 Lg Electronics Inc. Method and an apparatus for decoding an audio signal
WO2011071928A2 (en) * 2009-12-07 2011-06-16 Pixel Instruments Corporation Dialogue detector and correction
PL2609590T3 (pl) 2010-08-25 2015-10-30 Fraunhofer Ges Forschung Urządzenie do dekodowania sygnału zawierającego transjenty z użyciem jednostki łączenia i miksera
ES2922639T3 (es) * 2010-08-27 2022-09-19 Sennheiser Electronic Gmbh & Co Kg Método y dispositivo para la reproducción mejorada de campo sonoro de señales de entrada de audio codificadas espacialmente
EP2541542A1 (en) 2011-06-27 2013-01-02 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for determining a measure for a perceived level of reverberation, audio processor and method for processing a signal
WO2012164153A1 (en) * 2011-05-23 2012-12-06 Nokia Corporation Spatial audio processing apparatus
WO2012160472A1 (en) 2011-05-26 2012-11-29 Koninklijke Philips Electronics N.V. An audio system and method therefor
DK2727381T3 (da) * 2011-07-01 2022-04-04 Dolby Laboratories Licensing Corp Apparat og fremgangsmåde til gengivelse af audioobjekter
KR101901908B1 (ko) * 2011-07-29 2018-11-05 삼성전자주식회사 오디오 신호 처리 방법 및 그에 따른 오디오 신호 처리 장치
EP2600343A1 (en) * 2011-12-02 2013-06-05 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for merging geometry - based spatial audio coding streams
US9336792B2 (en) * 2012-05-07 2016-05-10 Marvell World Trade Ltd. Systems and methods for voice enhancement in audio conference
US9190065B2 (en) 2012-07-15 2015-11-17 Qualcomm Incorporated Systems, methods, apparatus, and computer-readable media for three-dimensional audio coding using basis function coefficients
CN110223701B (zh) 2012-08-03 2024-04-09 弗劳恩霍夫应用研究促进协会 用于从缩混信号产生音频输出信号的解码器和方法
SG10201709574WA (en) 2012-12-04 2018-01-30 Samsung Electronics Co Ltd Audio providing apparatus and audio providing method
WO2014112793A1 (ko) 2013-01-15 2014-07-24 한국전자통신연구원 채널 신호를 처리하는 부호화/복호화 장치 및 방법
CN105009207B (zh) 2013-01-15 2018-09-25 韩国电子通信研究院 处理信道信号的编码/解码装置及方法
CN104010265A (zh) 2013-02-22 2014-08-27 杜比实验室特许公司 音频空间渲染设备及方法
US9332370B2 (en) * 2013-03-14 2016-05-03 Futurewei Technologies, Inc. Method and apparatus for using spatial audio rendering for a parallel playback of call audio and multimedia content
WO2014171706A1 (ko) * 2013-04-15 2014-10-23 인텔렉추얼디스커버리 주식회사 가상 객체 생성을 이용한 오디오 신호 처리 방법
EP2806658B1 (en) * 2013-05-24 2017-09-27 Barco N.V. Arrangement and method for reproducing audio data of an acoustic scene
KR101984356B1 (ko) 2013-05-31 2019-12-02 노키아 테크놀로지스 오와이 오디오 장면 장치
KR102149046B1 (ko) * 2013-07-05 2020-08-28 한국전자통신연구원 2차원 및 3차원 공간 상에서의 가상 음상 정위 방법
EP2830336A3 (en) * 2013-07-22 2015-03-04 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Renderer controlled spatial upmix
EP2830063A1 (en) 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus, method and computer program for decoding an encoded audio signal
WO2015017223A1 (en) * 2013-07-29 2015-02-05 Dolby Laboratories Licensing Corporation System and method for reducing temporal artifacts for transient signals in a decorrelator circuit
US9794716B2 (en) 2013-10-03 2017-10-17 Dolby Laboratories Licensing Corporation Adaptive diffuse signal generation in an upmixer
EP2866227A1 (en) 2013-10-22 2015-04-29 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Method for decoding and encoding a downmix matrix, method for presenting audio content, encoder and decoder for a downmix matrix, audio encoder and audio decoder
KR102231755B1 (ko) * 2013-10-25 2021-03-24 삼성전자주식회사 입체 음향 재생 방법 및 장치
CN103607690A (zh) * 2013-12-06 2014-02-26 武汉轻工大学 一种3d音频中多声道信号的下混方法
WO2015147619A1 (ko) 2014-03-28 2015-10-01 삼성전자 주식회사 음향 신호의 렌더링 방법, 장치 및 컴퓨터 판독 가능한 기록 매체
EP2942981A1 (en) 2014-05-05 2015-11-11 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. System, apparatus and method for consistent acoustic scene reproduction based on adaptive functions
CN110213709B (zh) 2014-06-26 2021-06-15 三星电子株式会社 用于渲染声学信号的方法和设备及计算机可读记录介质
CN105336332A (zh) 2014-07-17 2016-02-17 杜比实验室特许公司 分解音频信号
EP2980789A1 (en) * 2014-07-30 2016-02-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for enhancing an audio signal, sound enhancing system
US9984693B2 (en) * 2014-10-10 2018-05-29 Qualcomm Incorporated Signaling channels for scalable coding of higher order ambisonic audio data
US10140996B2 (en) 2014-10-10 2018-11-27 Qualcomm Incorporated Signaling layers for scalable coding of higher order ambisonic audio data
CA2963771A1 (en) * 2014-10-16 2016-04-21 Sony Corporation Transmission device, transmission method, reception device, and reception method
CN111586552B (zh) 2015-02-06 2021-11-05 杜比实验室特许公司 用于自适应音频的混合型基于优先度的渲染系统和方法
CN105992120B (zh) 2015-02-09 2019-12-31 杜比实验室特许公司 音频信号的上混音
CN107980225B (zh) * 2015-04-17 2021-02-12 华为技术有限公司 使用驱动信号驱动扬声器阵列的装置和方法
CN108352166B (zh) 2015-09-25 2022-10-28 弗劳恩霍夫应用研究促进协会 使用线性预测编码对音频信号进行编码的编码器和方法
WO2018026963A1 (en) * 2016-08-03 2018-02-08 Hear360 Llc Head-trackable spatial audio for headphones and system and method for head-trackable spatial audio for headphones
US10901681B1 (en) * 2016-10-17 2021-01-26 Cisco Technology, Inc. Visual audio control
EP3324407A1 (en) 2016-11-17 2018-05-23 Fraunhofer Gesellschaft zur Förderung der Angewand Apparatus and method for decomposing an audio signal using a ratio as a separation characteristic
EP3324406A1 (en) 2016-11-17 2018-05-23 Fraunhofer Gesellschaft zur Förderung der Angewand Apparatus and method for decomposing an audio signal using a variable threshold
KR102580502B1 (ko) * 2016-11-29 2023-09-21 삼성전자주식회사 전자장치 및 그 제어방법
US10659906B2 (en) 2017-01-13 2020-05-19 Qualcomm Incorporated Audio parallax for virtual reality, augmented reality, and mixed reality
EP3382703A1 (en) 2017-03-31 2018-10-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and methods for processing an audio signal
GB2565747A (en) * 2017-04-20 2019-02-27 Nokia Technologies Oy Enhancing loudspeaker playback using a spatial extent processed audio signal
US10416954B2 (en) * 2017-04-28 2019-09-17 Microsoft Technology Licensing, Llc Streaming of augmented/virtual reality spatial audio/video
US11595774B2 (en) 2017-05-12 2023-02-28 Microsoft Technology Licensing, Llc Spatializing audio data based on analysis of incoming audio data
MX2020003506A (es) 2017-10-04 2020-07-22 Fraunhofer Ges Forschung Aparato, metodo y programa de computacion para la codificacion, la decodificacion, el procesamiento de escenas y otros procedimientos relacionados con la codificacion de audio espacial basada en dirac.
GB201808897D0 (en) * 2018-05-31 2018-07-18 Nokia Technologies Oy Spatial audio parameters
EP3818521A1 (en) * 2018-07-02 2021-05-12 Dolby Laboratories Licensing Corporation Methods and devices for encoding and/or decoding immersive audio signals
WO2020008112A1 (en) 2018-07-03 2020-01-09 Nokia Technologies Oy Energy-ratio signalling and synthesis
DE102018127071B3 (de) * 2018-10-30 2020-01-09 Harman Becker Automotive Systems Gmbh Audiosignalverarbeitung mit akustischer Echounterdrückung
GB2584630A (en) * 2019-05-29 2020-12-16 Nokia Technologies Oy Audio processing
KR102565131B1 (ko) * 2019-05-31 2023-08-08 디티에스, 인코포레이티드 포비에이티드 오디오 렌더링
CN113889125B (zh) * 2021-12-02 2022-03-04 腾讯科技(深圳)有限公司 音频生成方法、装置、计算机设备和存储介质

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR595335A (fr) * 1924-06-04 1925-09-30 Procédé d'élimination des parasites naturels ou artificiels, permettant l'emploi, en t. s. f., des appareils télégraphiques rapides dits
US5210366A (en) * 1991-06-10 1993-05-11 Sykes Jr Richard O Method and device for detecting and separating voices in a complex musical composition
GB9211756D0 (en) * 1992-06-03 1992-07-15 Gerzon Michael A Stereophonic directional dispersion method
JP4038844B2 (ja) * 1996-11-29 2008-01-30 ソニー株式会社 ディジタル信号再生装置、ディジタル信号再生方法、ディジタル信号記録装置、ディジタル信号記録方法及び記録媒体
JP3594790B2 (ja) * 1998-02-10 2004-12-02 株式会社河合楽器製作所 ステレオ楽音発生方法及びその装置
WO2000019415A2 (en) * 1998-09-25 2000-04-06 Creative Technology Ltd. Method and apparatus for three-dimensional audio display
JP2001069597A (ja) * 1999-06-22 2001-03-16 Yamaha Corp 音声処理方法及び装置
KR100542129B1 (ko) * 2002-10-28 2006-01-11 한국전자통신연구원 객체기반 3차원 오디오 시스템 및 그 제어 방법
KR101169596B1 (ko) * 2003-04-17 2012-07-30 코닌클리케 필립스 일렉트로닉스 엔.브이. 오디오 신호 합성
US7447317B2 (en) * 2003-10-02 2008-11-04 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V Compatible multi-channel coding/decoding by weighting the downmix channel
US7394903B2 (en) 2004-01-20 2008-07-01 Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E.V. Apparatus and method for constructing a multi-channel output signal or for generating a downmix signal
ES2324926T3 (es) * 2004-03-01 2009-08-19 Dolby Laboratories Licensing Corporation Descodificacion de audio multicanal.
EP1769491B1 (en) * 2004-07-14 2009-09-30 Koninklijke Philips Electronics N.V. Audio channel conversion
KR101185820B1 (ko) 2004-10-13 2012-10-02 코닌클리케 필립스 일렉트로닉스 엔.브이. 에코 소거
JP5106115B2 (ja) 2004-11-30 2012-12-26 アギア システムズ インコーポレーテッド オブジェクト・ベースのサイド情報を用いる空間オーディオのパラメトリック・コーディング
CN101138021B (zh) * 2005-03-14 2012-01-04 韩国电子通信研究院 使用虚拟源位置信息的多声道音频压缩和解压缩方法
CN101433099A (zh) * 2006-01-05 2009-05-13 艾利森电话股份有限公司 多声道环绕声的个性化解码
US8374365B2 (en) * 2006-05-17 2013-02-12 Creative Technology Ltd Spatial audio analysis and synthesis for binaural reproduction and format conversion
US8345899B2 (en) * 2006-05-17 2013-01-01 Creative Technology Ltd Phase-amplitude matrixed surround decoder
DE102006050068B4 (de) * 2006-10-24 2010-11-11 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Erzeugen eines Umgebungssignals aus einem Audiosignal, Vorrichtung und Verfahren zum Ableiten eines Mehrkanal-Audiosignals aus einem Audiosignal und Computerprogramm
JP4819742B2 (ja) 2006-12-13 2011-11-24 アンリツ株式会社 信号処理方法および信号処理装置
US8553891B2 (en) * 2007-02-06 2013-10-08 Koninklijke Philips N.V. Low complexity parametric stereo decoder

Also Published As

Publication number Publication date
CA2827507C (en) 2016-09-20
KR20130027564A (ko) 2013-03-15
EP2311274A1 (en) 2011-04-20
KR101424752B1 (ko) 2014-08-01
JP2012070414A (ja) 2012-04-05
JP2011530913A (ja) 2011-12-22
CN102348158A (zh) 2012-02-08
KR101456640B1 (ko) 2014-11-12
CN102348158B (zh) 2015-03-25
KR101301113B1 (ko) 2013-08-27
BR122012003058B1 (pt) 2021-05-04
KR20130073990A (ko) 2013-07-03
US20120057710A1 (en) 2012-03-08
US8879742B2 (en) 2014-11-04
RU2011154551A (ru) 2013-07-10
ES2545220T3 (es) 2015-09-09
US8855320B2 (en) 2014-10-07
AU2009281356B2 (en) 2012-08-30
JP5526107B2 (ja) 2014-06-18
RU2523215C2 (ru) 2014-07-20
CO6420385A2 (es) 2012-04-16
US20120051547A1 (en) 2012-03-01
EP2418877B1 (en) 2015-09-09
CA2734098C (en) 2015-12-01
MX2011001654A (es) 2011-03-02
CN102165797A (zh) 2011-08-24
EP2418877A1 (en) 2012-02-15
KR20110050451A (ko) 2011-05-13
BR122012003329B1 (pt) 2022-07-05
KR101310857B1 (ko) 2013-09-25
WO2010017967A1 (en) 2010-02-18
US8824689B2 (en) 2014-09-02
EP2311274B1 (en) 2012-08-08
EP2421284A1 (en) 2012-02-22
CA2827507A1 (en) 2010-02-18
RU2537044C2 (ru) 2014-12-27
RU2504847C2 (ru) 2014-01-20
CN102165797B (zh) 2013-12-25
EP2421284B1 (en) 2015-07-01
JP2012068666A (ja) 2012-04-05
HK1154145A1 (en) 2012-04-20
ZA201100956B (en) 2011-10-26
BRPI0912466A2 (pt) 2019-09-24
BR122012003329A2 (pt) 2020-12-08
CA2822867C (en) 2016-08-23
BRPI0912466B1 (pt) 2021-05-04
EP2154911A1 (en) 2010-02-17
ES2392609T3 (es) 2012-12-12
JP5379838B2 (ja) 2013-12-25
US20110200196A1 (en) 2011-08-18
CA2822867A1 (en) 2010-02-18
HK1172475A1 (en) 2013-04-19
CA2734098A1 (en) 2010-02-18
PL2421284T3 (pl) 2015-12-31
KR20120006581A (ko) 2012-01-18
ES2553382T3 (es) 2015-12-09
CN102523551B (zh) 2014-11-26
KR20120016169A (ko) 2012-02-22
PL2311274T3 (pl) 2012-12-31
CN102523551A (zh) 2012-06-27
HK1168708A1 (en) 2013-01-04
HK1164010A1 (en) 2012-09-14
RU2011154550A (ru) 2013-07-10
JP5425907B2 (ja) 2014-02-26
MY157894A (en) 2016-08-15
KR101226567B1 (ko) 2013-01-28
RU2011106583A (ru) 2012-08-27
AU2009281356A1 (en) 2010-02-18

Similar Documents

Publication Publication Date Title
BR122012003058A2 (pt) Aparelho e método para determinar um sinal de áudio de canais múltiplos de saída espacial
AU2011247872B2 (en) An apparatus for determining a spatial output multi-channel audio signal
AU2011247873A1 (en) An apparatus for determining a spatial output multi-channel audio signal

Legal Events

Date Code Title Description
B03A Publication of a patent application or of a certificate of addition of invention [chapter 3.1 patent gazette]
B06F Objections, documents and/or translations needed after an examination request according [chapter 6.6 patent gazette]
B06U Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette]
B06A Patent application procedure suspended [chapter 6.1 patent gazette]
B09A Decision: intention to grant [chapter 9.1 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 10 (DEZ) ANOS CONTADOS A PARTIR DE 04/05/2021, OBSERVADAS AS CONDICOES LEGAIS.