BR122022005104B1 - Método para renderizar um áudio de entrada, aparelho para renderizar um áudio de entrada e meio não transitório - Google Patents

Método para renderizar um áudio de entrada, aparelho para renderizar um áudio de entrada e meio não transitório Download PDF

Info

Publication number
BR122022005104B1
BR122022005104B1 BR122022005104-9A BR122022005104A BR122022005104B1 BR 122022005104 B1 BR122022005104 B1 BR 122022005104B1 BR 122022005104 A BR122022005104 A BR 122022005104A BR 122022005104 B1 BR122022005104 B1 BR 122022005104B1
Authority
BR
Brazil
Prior art keywords
audio
audio object
virtual
playback
data
Prior art date
Application number
BR122022005104-9A
Other languages
English (en)
Inventor
Antonio Mateos Sole
Nicolas R. Tsingos
Original Assignee
Dolby Laboratories Licensing Corporation
Dolby International Ab
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dolby Laboratories Licensing Corporation, Dolby International Ab filed Critical Dolby Laboratories Licensing Corporation
Publication of BR122022005104B1 publication Critical patent/BR122022005104B1/pt

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S5/00Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation 
    • H04S5/005Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation  of the pseudo five- or more-channel type, e.g. virtual surround
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/02Spatial or constructional arrangements of loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/008Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/305Electronic adaptation of stereophonic audio signals to reverberation of the listening space
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/01Multi-channel, i.e. more than two input channels, sound reproduction with two speakers wherein the multi-channel information is substantially preserved
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/13Aspects of volume control, not necessarily automatic, in stereophonic sound systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/15Aspects of sound capture and related signal processing for recording or reproduction

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Stereophonic System (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)

Abstract

Múltiplas localizações de fonte virtual podem ser definidas para um volume dentro do qual objetos de áudio podem se mover. Um processo de ajuste para transformar dados de áudio pode envolver receber dados de localização de alto-falante de reprodução e pré-computar valores de ganho para cada uma das fontes virtuais de acordo com os dados de localização de altofalante de reprodução e a localização de fonte virtual. Os valores de ganho podem ser armazenados e utilizados durante o "tempo de execução", durante o qual dados de reprodução de áudio são transformados para os alto-falantes do ambiente de reprodução. Durante o tempo de execução, para cada objeto de áudio, contribuições de localizações de fonte virtual dentro de uma área ou um volume definido pelos dados de posição de objeto de áudio e pelos dados de tamanho de objeto de áudio podem ser computadas. Um conjunto de valores de ganho para cada canal de saída do ambiente de reprodução pode ser computado com base, pelo menos em parte, nas contribuições computadas. Cada canal de saída pode corresponder a pelo menos um alto-falante de reprodução do ambiente de reprodução.

Description

REFERÊNCIA CRUZADA A PEDIDOS RELACIONADOS
[0001] Este pedido reivindica prioridade do Pedido de Patente Espanhol N°. P201330461, depositado em 28 de Março de 2013 e Pedido de Patente Provisório dos Estados Unidos N°. 61/833.581, depositado em 11 de Junho de 2013, cada um dos quais é aqui incorporado por referência na sua totalidade.
CAMPO TÉCNICO
[0002] Esta divulgação se refere à criação e transformação de dados de reprodução de áudio. Em particular, esta divulgação se refere à criação e transformação de dados de reprodução de áudio para ambientes de reprodução, tal como sistemas de reprodução de som de cinema.
ANTECEDENTES
[0003] Desde a introdução do som com filme em 1927 tem havido uma evolução constante da tecnologia usada para capturar a intenção artística da trilha sonora cinematográfica e reproduzi-la em um ambiente de cinema. Na década de 1930, o som sincronizado no disco deu lugar ao som de área variável no filme, que foi ainda melhorado na década de 1940 com considerações acústicas teatrais e projeto melhorado de alto-falante, juntamente com a introdução precoce de gravação de múltiplas trilhas e replay orientável (usando tons de controle para mover sons). Na década de 1950 e 1960, a separação magnética de filme permitiu reprodução em múltiplos canais no teatro, introdução canais surround e até cinco canais de tela em teatros premium.
[0004] Na década de 1970 Dolby introduziu redução de ruído, tanto em pós-produção quanto no filme, juntamente com um meio eficaz em custo de codificar e distribuir mixes com 3 canais de tela e um canal surround mono. A qualidade de som de cinema foi ainda melhorada nos anos 1980 com programas de redução de ruído e de certificação Dolby Spectral Recording (SR), tal como THX. Dolby trouxe o som digital para o cinema durante a década de 1990 com um formato de canal 5.1 que fornece canais de tela esquerdo, central e direito discretos, matrizes surround esquerda e direita e um canal subwoofer para efeitos de baixa frequência. Dolby Surround 7.1, introduzido em 2010, aumentou o número de canais surround, dividindo os canais surround esquerdo e direito existentes em quatro "zonas".
[0005] Como o número de canais aumenta e o leiaute de alto- falante faz a transição de uma matriz planar bidimensional (2D) para uma matriz tridimensional (3D) incluindo elevação, as tarefas de criar e transformar sons estão se tornando cada vez mais complexas. Métodos e dispositivos melhorados seriam desejáveis.
SUMÁRIO
[0006] Alguns aspectos do assunto em questão descrito nesta divulgação podem ser implementados em ferramentas para transformar dados de reprodução de áudio que incluem objetos de áudio criados sem referência a qualquer ambiente de reprodução particular. Como aqui utilizado, o termo "objeto de áudio" pode se referir a um fluxo de sinais de áudio e metadados associados. Os metadados podem indicar pelo menos a posição e o tamanho aparente do objeto de áudio. No entanto, os metadados também podem indicar transformar dados de restrição, dados tipo conteúdo (por exemplo, diálogo, efeitos, etc.), dados de ganho, dados de trajetória, etc. Alguns objetos de áudio podem ser estáticos, ao passo que outros podem ter metadados variando no tempo: tais objetos de áudio podem se mover, podem mudar de tamanho e/ou podem ter outras propriedades que mudam ao longo do tempo.
[0007] Quando os objetos de áudio são monitorados ou reproduzidos em um ambiente de reprodução, os objetos de áudio podem ser transformados de acordo com pelo menos os metadados de posição e tamanho. O processo de transformação pode envolver computar um conjunto de valores de ganho de objeto de áudio para cada canal de um conjunto de canais de saída. Cada canal de saída pode corresponder a um ou mais alto-falantes de reprodução do ambiente de reprodução.
[0008] Algumas implementações aqui descritas envolvem um processo de "ajuste" que pode ocorrer antes de transformar quaisquer objetos de áudio particulares. O processo de ajuste que também pode ser aqui denominado como um primeiro estágio ou Estágio 1, pode envolver definir múltiplas localizações de fonte virtual em um volume dentro do qual os objetos de áudio podem se mover. Como aqui utilizada, uma "localização de fonte virtual" é uma localização de uma fonte de ponto estático. De acordo com essas implementações, o processo de ajuste pode envolver receber dados de localização de alto- falante de reprodução e pré-computar valores de ganho de fonte virtual para cada uma das fontes virtuais de acordo com os dados de localização de alto-falante de reprodução e a localização de fonte virtual. Como aqui utilizado, o termo "dados de localização de alto-falante" pode incluir dados de localização indicando as posições de alguns ou de todos os alto-falantes do ambiente de reprodução. Os dados de localização podem ser proporcionados como coordenadas absolutas das localizações de alto-falantes de reprodução, por exemplo, coordenadas Cartesianas, coordenadas esféricas, etc. Em alternativa, ou adicionalmente, os dados de localização podem ser fornecidos como coordenadas (por exemplo, por exemplo, coordenadas Cartesianas ou co- ordenadas angulares) em relação a outras localizações de ambiente de reprodução, tal como "pontos doces" acústicos do ambiente de reprodução.
[0009] Em algumas implementações, os valores de ganho de fonte virtual podem ser armazenados e utilizados durante o "tempo de execução", durante o qual dados de reprodução de áudio são transformados para os alto-falantes do ambiente de reprodução. Durante o tempo de execução, para cada objeto de áudio, contribuições de localizações de fonte virtual dentro de uma área ou um volume definido pelos dados de posição de objeto de áudio e pelos dados de tamanho de objeto de áudio podem ser computadas. O processo de computar contribuições de localizações de fonte virtual pode envolver computar uma média ponderada de múltiplos valores de ganho de fonte virtual pré- computados, determinados durante o processo de ajuste, para localizações de fonte virtual que estão dentro de uma área ou de um volume de objeto de áudio definido pelo tamanho e pela localização do objeto de áudio. Um conjunto de valores de ganho de objeto de áudio para cada canal de saída do ambiente de reprodução pode ser computado com base, pelo menos em parte, nas contribuições de fonte virtuais computadas. Cada canal de saída pode corresponder a pelo menos um alto-falante de reprodução do ambiente de reprodução.
[00010] Por conseguinte, alguns métodos aqui descritos envolvem a recepção de dados de reprodução de áudio que incluem um ou mais objetos de áudio. Os objetos de áudio podem incluir sinais de áudio e metadados associados. Os metadados podem incluir pelo menos dados de posição de objeto de áudio e dados de tamanho de objeto de áudio. Os métodos podem envolver computar contribuições de fontes virtuais dentro de uma área ou um volume de objeto de áudio definido pelos dados de posição de objeto de áudio e pelos dados de tamanho de objeto de áudio. Os métodos podem envolver computar um conjun- to de valores de ganho de objeto de áudio para cada um de uma pluralidade de canais de saída com base, pelo menos em parte, nas contribuições computadas. Cada canal de saída pode corresponder a pelo menos um alto-falante de reprodução de um ambiente de reprodução. Por exemplo, o ambiente de reprodução pode ser um ambiente de sistema de som de cinema.
[00011] O processo de computar contribuições de fontes virtuais pode envolver computar uma média ponderada de valores de ganho de fonte virtual das fontes virtuais dentro da área ou do volume de objeto de áudio. Os pesos para a média ponderada podem depender da posição do objeto de áudio, do tamanho do objeto de áudio e/ou de cada localização de fonte virtual dentro da área ou do volume de objeto de áudio.
[00012] Os métodos também podem envolver receber dados do ambiente de reprodução incluindo dados de localização de alto-falante de reprodução. Os métodos podem também envolver definir uma pluralidade de localizações de fontes virtuais de acordo com os dados de ambiente de reprodução e computar, para cada uma das localizações de fontes virtuais, um valor de ganho de fonte virtual para cada um da pluralidade de canais de saída. Em algumas implementações, cada uma das localizações de fonte virtual pode corresponder a uma localização dentro do ambiente de reprodução. No entanto, em algumas implementações, pelo menos algumas das localizações de fonte virtual podem corresponder a localizações fora do ambiente de reprodução.
[00013] Em algumas implementações, as localizações de fonte virtual podem ser espaçadas uniformemente ao longo dos eixos x, y e z. No entanto, em algumas implementações, o espaçamento pode não ser o mesmo em todas as direções. Por exemplo, as localizações de fonte virtual podem ter um primeiro espaçamento uniforme ao longo dos eixos x e y e um segundo espaçamento uniforme ao longo de um eixo z. O processo de computar o conjunto de valores de ganho de objeto de áudio para cada um da pluralidade de canais de saída pode envolver computações independentes de contribuições de fontes virtuais ao longo dos eixos x, y e z. Em implementações alternativas, as localizações de fonte virtual podem ser espaçadas de maneira não uniforme.
[00014] Em algumas implementações, o processo de computar o valor de ganho de objeto de áudio para cada um da pluralidade de canais de saída pode envolver determinar um valor de ganho (gl(xo,yo,zo;s)) para um objeto de áudio de tamanho (s) a ser transformado na localização xo,yo,zo. Por exemplo, o valor de ganho de objeto de áudio (gl(xo,yo,zo;s)) pode ser expresso como:
Figure img0001
em que (xvs, yvs, zvs) representa uma localização de fonte virtual, gl(xvs, yvs, zvs) representa um valor de ganho para o canal l para a localização de fonte virtual xvs, yvs, zvs e w(xvs, yvs, zvs; xo, yo, zo;s) representa uma ou mais funções de peso para gl(xvs, yvs, zvs) determinadas, pelo menos em parte, com base na localização (xo, yo, zo) do objeto de áudio, no tamanho (s) do objeto de áudio e na localização de fonte virtual (xvs, yvs, zvs).
[00015] De acordo com algumas implementações, gl(xvs, yvs, zvs) = gl(xvs)gl(yvs)gl(zvs), em que gl(xvs), gl(yvs) e gl(zvs) representam funções de ganho independentes de x, y e z. Em algumas de tais implementações, as funções de peso pode fatorar como:
Figure img0002
em que wx(xvs; xo; s), wy(yvs; yo; s) e wz(zvs;zo; s) representam funções de peso independentes de xvS, yvs e zvs. De acordo com algumas de tais implementações, p pode ser uma função do tamanho do objeto áudio (s).
[00016] Alguns desses métodos podem envolver armazenar valores de ganho de fonte virtual computados em um sistema de memória. O processo de computar contribuições de fontes virtuais dentro da área ou do volume do objeto de áudio pode envolver recuperar, do sistema de memória, valores de ganho de fonte virtual computados correspondentes a uma posição e um tamanho de objeto de áudio e interpolar entre os valores de ganho de fonte virtual computados. O processo de interpolação entre os valores de ganho de fonte virtual computados pode envolver: determinar uma pluralidade de localizações de fonte virtual vizinhas próximas da posição de objeto de áudio; determinar valores de ganho de fonte virtual computados para cada uma das localizações de fonte virtual vizinhas; determinar uma pluralidade de distâncias entre a posição de objeto de áudio e cada uma das localizações de fonte virtual vizinhas; e interpolar entre os valores de ganho de fonte virtual computados de acordo com a pluralidade de distâncias.
[00017] Em algumas implementações, os dados de ambiente de reprodução podem incluir dados de limite de ambiente de reprodução. O método pode envolver determinar que uma área ou um volume de objeto de áudio inclui uma área ou um volume externo fora de um limite de ambiente de reprodução e aplicar um fator de desvanecimento com base, pelo menos em parte, na área ou no volume externo. Alguns métodos podem envolver determinar que um objeto de áudio pode estar dentro de uma distância de limiar de um limite de ambiente de reprodução e não fornecer nenhum sinal de alimentação de alto- falante para alto-falantes de reprodução num limite oposto do ambiente de reprodução. Em algumas implementações, uma área ou um volume de objeto de áudio podem ser um retângulo, um prisma retangular, um círculo, uma esfera, uma elipse e/ou um elipsoide.
[00018] Alguns métodos podem envolver decorrelacionar pelo menos alguns dos dados de reprodução de áudio. Por exemplo, os méto- dos podem envolver decorrelacionar dados de reprodução de áudio para objetos de áudio tendo um tamanho de objeto de áudio que ultrapassa um valor de limiar.
[00019] Métodos alternativos são aqui descritos. Alguns desses métodos envolvem receber dados de ambiente de reprodução incluindo dados de localização de alto-falante de reprodução e dados de limite de ambiente de reprodução, e receber dados de reprodução de áudio incluindo um ou mais metadados de objetos de áudio e metadados associados. Os metadados podem incluir dados de posição de objeto de áudio e dados de tamanho de objeto de áudio. Os métodos podem envolver determinar que uma área ou um volume de objeto de áudio, definidos pelos dados de posição de objeto de áudio e dados de tamanho de objeto de áudio, incluem uma área ou um volume externo fora de um limite de ambiente de reprodução e determinar um fator de desvanecimento com base, pelo menos em parte, na área ou no volume ex-terno. Os métodos podem envolver computar um conjunto de valores de ganho para cada um da pluralidade de canais de saída com base, pelo menos em parte, nos metadados associados e no fator de desvanecimento. Cada canal de saída pode corresponder a pelo menos um alto-falante de reprodução do ambiente de reprodução. O fator de desvanecimento pode ser proporcional à área externa.
[00020] Os métodos também podem envolver determinar que um objeto de áudio pode estar dentro de uma distância de limiar de um limite de ambiente de reprodução e não fornecer nenhum sinal de alimentação de alto-falante para alto-falantes de reprodução num limite oposto do ambiente de reprodução.
[00021] Os métodos também podem envolver computar contribuições de fontes virtuais dentro da área ou do volume de objeto de áudio. Os métodos podem envolver definir uma pluralidade de localizações de fontes virtuais de acordo com os dados de ambiente de repro- dução e computar, para cada uma das localizações de fontes virtuais, um valor de ganho de fonte virtual para cada um da pluralidade de canais de saída. As localizações de fonte virtual podem ou não podem ser uniformemente espaçadas, dependendo da implementação particular.
[00022] Algumas implementações podem ser manifestadas em um ou mais meios não transitórios tendo software armazenado nos mesmos. O software pode incluir instruções para controlar um ou mais dispositivos para receber dados de reprodução de áudio incluindo um ou mais objetos de áudio. Os objetos de áudio podem incluir sinais de áudio e metadados associados. Os metadados podem incluir pelo menos dados de posição de objeto de áudio e dados de tamanho de objeto de áudio. O software pode incluir instruções para computar, para um objeto de áudio dos um ou mais objetos de áudio, contribuições de fontes virtuais dentro de uma área ou de um volume definido pelos dados de posição de objeto de áudio e pelos dados de tamanho de objeto de áudio e computar um conjunto de valores de ganho de objeto de áudio para cada um de uma pluralidade de canais de saída com base, pelo menos em parte, nas contribuições computadas. Cada canal de saída pode corresponder a pelo menos um alto-falante de reprodução de um ambiente de reprodução.
[00023] Em algumas implementações, o processo de computar contribuições de fontes virtuais pode envolver computar uma média ponderada de valores de ganho de fonte virtual das fontes virtuais dentro da área ou do volume de objeto de áudio. Os pesos para a média ponderada podem depender da posição do objeto de áudio, do tamanho do objeto de áudio e/ou de cada localização de fonte virtual dentro da área ou do volume de objeto de áudio.
[00024] O software pode incluir instruções para receber dados de ambiente de reprodução incluindo dados de localização de alto-falante de reprodução. O software pode incluir instruções para definir uma pluralidade de localizações de fontes virtuais de acordo com os dados de ambiente de reprodução e computar, para cada uma das localizações de fontes virtuais, um valor de ganho de fonte virtual para cada um da pluralidade de canais de saída. Cada uma das localizações de fonte virtual pode corresponder a uma localização dentro do ambiente de reprodução. Em algumas implementações, pelo menos algumas das localizações de fonte virtual podem corresponder a localizações fora do ambiente de reprodução.
[00025] De acordo com algumas implementações, as localizações de fonte virtual podem ser espaçadas de modo uniforme. Em algumas implementações, as localizações de fonte virtual podem ter um primeiro espaçamento uniforme ao longo dos eixos x e y e um segundo espaçamento uniforme ao longo de um eixo z. O processo de computar o conjunto de valores de ganho de objeto de áudio para cada um da pluralidade de canais de saída pode envolver computações independentes de contribuições de fontes virtuais ao longo dos eixos x, y e z.
[00026] Vários dispositivos e aparelhos são descritos aqui. Alguns desse aparelhos podem incluir um sistema de interface e um sistema de lógica. O sistema de interface pode incluir uma interface de rede. Em algumas implementações, o aparelho pode incluir um dispositivo de memória. O sistema de interface pode incluir uma interface entre o sistema de lógica e o dispositivo de memória.
[00027] O sistema de lógica pode ser adaptado para receber, do sistema de interface, dados de reprodução de áudio incluindo um ou mais objetos de áudio. Os objetos de áudio podem incluir sinais de áudio e metadados associados. Os metadados podem incluir pelo menos dados de posição de objeto de áudio e dados de tamanho de objeto de áudio. O sistema de lógica pode ser adaptado para computar, para um objeto de áudio a partir dos um ou mais objetos de áudio, contribui- ções de fontes virtuais dentro de uma área ou um volume de objeto de áudio definido pelos dados de posição de objeto de áudio e pelos dados de tamanho de objeto de áudio. O sistema de lógica pode ser adaptado para computar um conjunto de valores de ganho de objeto de áudio para cada um de uma pluralidade de canais de saída com base, pelo menos em parte, nas contribuições computadas. Cada canal de saída pode corresponder a pelo menos um alto-falante de reprodução de um ambiente de reprodução.
[00028] O processo de computar contribuições de fontes virtuais pode envolver computar uma média ponderada de valores de ganho de fonte virtual das fontes virtuais dentro da área ou do volume de objeto de áudio. Pesos para a média ponderada podem depender da posição do objeto de áudio, do tamanho do objeto de áudio e de cada localização de fonte virtual dentro da área ou do volume de objeto de áudio. O sistema de lógica pode ser adaptado para receber, do sistema de interface, dados de ambiente de reprodução incluindo dados de localização de alto-falante de reprodução.
[00029] O sistema de lógica pode ser adaptado para definir uma pluralidade de localizações de fontes virtuais de acordo com os dados de ambiente de reprodução e computar, para cada uma das localizações de fontes virtuais, um valor de ganho de fonte virtual para cada um da pluralidade de canais de saída. Cada uma das localizações de fonte virtual pode corresponder a uma localização dentro do ambiente de reprodução. No entanto, em algumas implementações, pelo menos algumas das localizações de fonte virtual podem corresponder a localizações fora do ambiente de reprodução. As localizações de fonte virtual podem ou não podem ser uniformemente espaçadas, dependendo da implementação. Em algumas implementações, as localizações de fonte virtual podem ter um primeiro espaçamento uniforme ao longo dos eixos x e y e um segundo espaçamento uniforme ao longo de um eixo z. O processo de computar o conjunto de valores de ganho de objeto de áudio para cada um da pluralidade de canais de saída pode envolver computações independentes de contribuições de fontes virtuais ao longo dos eixos x, y e z.
[00030] O aparelho também pode incluir uma interface de usuário. O sistema de lógica pode ser adaptado para receber entrada de usuário, tal como dados de tamanho de objeto de áudio via a interface de usuário. Em alguma implementação, o sistema de lógica pode ser adaptado para escalonar os dados de tamanho de objeto de áudio de entrada.
[00031] Detalhes de uma ou mais implementações da matéria objeto descrita neste relatório descritivo são estabelecidos nos desenhos anexos e na descrição abaixo. Outras características, aspectos e vantagens se tornarão evidentes a partir da descrição, dos desenhos e das reivindicações. Notem que as dimensões relativas das figuras seguintes podem não ser desenhadas em escala.
BREVE DESCRIÇÃO DOS DESENHOS
[00032] A Figura 1 mostra um exemplo de um ambiente de reprodução tendo uma configuração Dolby Surround 5.1.
[00033] A Figura 2 mostra um exemplo de um ambiente de reprodução tendo uma configuração Dolby Surround 7.1.
[00034] A Figura 3 mostra um exemplo de um ambiente de reprodução tendo uma configuração de som Hamasaki 22.2 surround.
[00035] A Figura 4A mostra um exemplo de uma interface gráfica de usuário (GUI) que retrata zonas de alto-falante em elevações variadas em um ambiente de reprodução virtual.
[00036] A Figura 4B mostra um exemplo de outro ambiente de reprodução.
[00037] A Figura 5A é um diagrama de fluxo que fornece uma visão geral de um método de processamento de áudio.
[00038] A Figura 5B é um diagrama de fluxo que fornece um exemplo de um processo de ajuste.
[00039] A Figura 5C é um diagrama de fluxo que fornece um exemplo de um processo de tempo de execução para computar valores de ganho para objetos de áudio recebidos de acordo com valores de ganho pré-computados para localizações de fonte virtual.
[00040] A Figura 6A mostra um exemplo de localizações de fonte virtual relativas a um ambiente de reprodução.
[00041] A Figura 6B mostra um exemplo alternativo de localizações de fonte virtual relativas a um ambiente de reprodução.
[00042] As Figuras 6C-6F mostram exemplos de aplicação de técnicas panorâmicas de campo próximo e de campo distante a objetos de áudio em diferentes localizações.
[00043] A Figura 6G ilustra um exemplo de um ambiente de reprodução tendo um alto-falante em cada canto de um quadrado tendo um comprimento de borda igual a 1.
[00044] A Figura 7 mostra um exemplo de contribuições de fontes virtuais dentro de uma área definida por dados de posição de objeto de áudio e dados de tamanho de objeto de áudio.
[00045] As Figuras 8A e 8B mostram um objeto de áudio em duas posições dentro de um ambiente de reprodução.
[00046] A Figura 9 é um diagrama de fluxo que delineia um método para determinar um fator de desvanecimento com base, pelo menos em parte, em quanto de uma área ou de um volume de um objeto de áudio se estende para fora de um limite de um ambiente de reprodução.
[00047] A Figura 10 é um diagrama de blocos que proporciona exemplos de componentes de um aparelho para criar e/ou transformar.
[00048] A Figura 11A é um diagrama de blocos que representa alguns componentes que podem ser usados para criação de conteúdo de áudio.
[00049] A Figura 11B é um diagrama de blocos que representa alguns componentes que podem ser usados para reprodução de áudio num ambiente de reprodução.
[00050] Números de referência e designações similares nos vários desenhos indicam elementos semelhantes.
DESCRIÇÃO DE MODALIDADES DE EXEMPLO
[00051] A descrição seguinte é dirigida a certas implementações para os propósitos de descrever alguns aspectos inovadores desta divulgação, assim como exemplos de contextos nos quais estes aspectos inovadores podem ser implementados. No entanto, os ensinamentos aqui apresentados podem ser aplicados de várias maneiras diferentes. Por exemplo, embora várias implementações tenham sido descritas em termos de ambientes de reprodução particulares, os ensinamentos deste documento são amplamente aplicáveis a outros ambientes de reprodução conhecidos, assim como ambientes de reprodução que possam ser introduzidos no futuro. Mais ainda, as implementações descritas podem ser implementadas em várias ferramentas de criação e/ou transformação as quais podem ser implementadas numa variedade de hardware, software, firmware, etc. Por conseguinte, os ensinamentos desta divulgação não se destinam a ser limitados às implementações mostradas nas figuras e/ou descritas neste documento, mas em vez disso têm uma ampla aplicabilidade.
[00052] A Figura 1 mostra um exemplo de um ambiente de reprodução tendo uma configuração Dolby Surround 5.1. Dolby Surround 5.1 foi desenvolvido na década de 1990, mas esta configuração ainda é amplamente implantada em ambientes de sistema de som de cinema. Um projetor 105 pode ser configurado para projetar imagens de vídeo, por exemplo, para um filme, na tela 150. Dados de reprodução de áudio podem ser sincronizados com as imagens de vídeo e proces- sados pelo processador de som 110. Os amplificadores de potência 115 podem fornecer sinais de alimentação de alto-falante para alto- falantes do ambiente de reprodução 100.
[00053] A configuração Dolby Surround 5.1 inclui matriz surround esquerda 120 e matriz surround direita 125, cada uma das quais inclui um grupo de alto-falantes que são orientados por conjugação por um único canal. A configuração Dolby Surround 5.1 também inclui canais separados para o canal de tela esquerdo 130, o canal de tela central 135 e o canal de tela direito 140. Um canal separado para o subwoofer 145 é fornecido para efeitos de baixa frequência (LFE).
[00054] Em 2010, a Dolby forneceu intensificações para som de cinema digital introduzindo Dolby Surround 7.1. A Figura 2 mostra um exemplo de um ambiente de reprodução tendo uma configuração Dolby Surround 7.1. Um projetor digital 205 pode ser configurado para receber dados de vídeo digitais e para projetar imagens de vídeo na tela 150. Dados de reprodução de áudio podem ser processados pelo processador de som 210. Os amplificadores de potência 215 podem fornecer sinais de alimentação de alto-falante para alto-falantes do ambiente de reprodução 200.
[00055] A configuração Dolby Surround 7.1 inclui a matriz surround esquerda 220 e a matriz surround direita 225, cada uma das quais pode ser acionada por um único canal. Como Dolby Surround 5.1, a configuração Dolby Surround 7.1 inclui canais separados para o canal de tela esquerdo 230, o canal de tela central 235, o canal de tela direito 240 e o sobwoofer 245. No entanto, Dolby Surround 7.1 aumenta o número de canais surround dividindo os canais surround esquerdo e direito de Dolby Surround 5.1 em quatro zonas: além da matriz surround esquerda 220 e da matriz surround direita 225, canais separa-dos são incluídos para os alto-falantes surround traseiros esquerdos 224 e os alto-falantes surround traseiros direitos 226. O aumento do número de zonas surround dentro do ambiente de reprodução 200 pode melhorar significativamente a localização do som.
[00056] Em um esforço para criar um ambiente mais imersivo, alguns ambientes de reprodução podem ser configurados com elevado número de alto-falantes, acionados por elevados números de canais. Mais ainda, alguns ambientes de reprodução podem incluir alto- falantes implantados em várias elevações, alguns dos quais podem estar acima de uma zona de assentamento do ambiente de reprodução.
[00057] A Figura 3 mostra um exemplo de um ambiente de reprodução tendo uma configuração de som Hamasaki 22.2 surround. Ha- masaki 22.2 foi desenvolvido no NHK Science & Technology Research Laboratories no Japão como o componente de som surround da Televisão de Ultra-alta Definição. Hamasaki 22.2 fornece 24 canais de alto- falantes os quais podem ser utilizados para acionar alto-falantes dispostos em três camadas. A camada de alto-falante superior 310 do ambiente de reprodução 300 pode ser acionada por 9 canais. A camada de alto-falante do meio 320 pode ser acionada por 10 canais. A camada de alto-falante inferior 330 pode ser acionada por 5 canais, dos quais dois são para os subwoofers 345a e 345b.
[00058] Por conseguinte, a tendência moderna é incluir não só mais alto-falantes e mais canais, mas também para incluir alto-falantes em diferentes alturas. À medida que o número de canais aumenta e o leiaute de alto-falante faz a transição de uma matriz 2D para uma matriz 3D, as tarefas de posicionar e transformar sons se torna cada vez mais difícil. Por conseguinte, o presente cessionário desenvolveu várias ferramentas, bem como interfaces de usuário relacionadas, as quais aumentam a funcionalidade e/ou reduzem a complexidade de criação para um sistema de som de áudio 3D. Algumas destas ferramentas são descritas em detalhes com referência às Figuras 5A-19D do Pedido de Patente Provisório US 61/636.102, depositado em 20 de abril de 2012 e intitulado "System and Tools for Enhanced 3D Áudio Authoring and Rendering" (o "Pedido Authoring and Rendering") que é aqui incorporado por referência.
[00059] A Figura 4A mostra um exemplo de uma interface gráfica de usuário (GUI) que retrata zonas de alto-falante em elevações variadas em um ambiente de reprodução virtual. A GUI 400 pode, por exemplo, ser exibida num dispositivo de exibição de acordo com instruções de um sistema de lógica de acordo com sinais recebidos de dispositivos de entrada de usuário, etc. Alguns de tais dispositivos são descritos abaixo com referência à Figura 10.
[00060] Como aqui utilizado com referência a ambientes de reprodução virtuais, tais como o ambiente de reprodução virtual 404, o termo "zona de alto-falante" geralmente se refere a uma construção lógica que pode ou não pode ter uma correspondência de um para um com um alto-falante de reprodução de um ambiente de reprodução real. Por exemplo, uma "localização de zona de alto-falante" pode ou não pode corresponder a uma localização de alto-falante de reprodução particular de um ambiente de reprodução de cinema. Em vez disso, o termo "localização de zona de alto-falante" pode se referir genericamente a uma zona de um ambiente de reprodução virtual. Em algumas implementações, uma zona de alto-falante de um ambiente de reprodução virtual pode corresponder a um alto-falante virtual, por exemplo, via o uso de tecnologia de virtualização, tal como Dolby Headphone,™ (por vezes denominado Mobile Surround™), que cria um ambiente de som surround virtual em tempo real usando um conjunto de fones de ouvido estéreo de dois canais. Na GUI 400, há sete zonas de alto-falante 402a em uma primeira elevação e duas zonas de alto- falante 402b em uma segunda elevação, perfazendo um total de nove zonas de alto-falante no ambiente de reprodução virtual 404. Neste exemplo, as zonas de alto-falante 1-3 estão na área frontal 405 do ambiente de reprodução virtual 404. A área frontal 405 pode corresponder, por exemplo, a uma área de um ambiente de reprodução de cinema no qual uma tela 150 está localizada, a uma área de uma casa na qual uma tela de televisão está localizada, etc.
[00061] Aqui, a zona de alto-falante 4 corresponde geralmente a alto-falantes na área esquerda 410 e a zona 5 corresponde a alto- falantes na área direita 415 do ambiente de reprodução virtual 404. A zona de alto-falante 6 corresponde a uma área traseira esquerda 412 e a zona de alto-falante 7 corresponde a uma área traseira direita 414 do ambiente de reprodução virtual 404. A zona de alto-falante 8 corresponde a alto-falante em uma área superior 420a e a zona de alto- falante 9 corresponde a alto-falantes em uma área superior 420b que pode ser uma área de teto virtual, tal como uma área do teto virtual 520 mostrada nas Figuras 5D e 5E. Por conseguinte, e como descrito em mais detalhes no Pedido Authoring and Rendering, as localizações das zonas de alto-falante 1-9 que são mostradas na Figura 4A podem ou não podem corresponder às localizações de alto-falantes de reprodução de um ambiente de reprodução real. Mais ainda, outras implementações podem incluir mais ou menos zonas de alto-falante e/ou elevações.
[00062] Em várias implementações descritas no Pedido Authoring and Rendering, uma interface de usuário, tal como GUI 400, pode ser usada como parte de uma ferramenta de criação e/ou uma ferramenta de transformação. Em algumas implementações, a ferramenta de criação e/ou a ferramenta de transformação pode ser implementada via software armazenado em um ou mais meios não transitórios. A ferramenta de criação e/ou a ferramenta de transformação pode ser implementada (pelo menos em parte) por hardware, firmware, etc., tal como o sistema de lógica e outros dispositivos descritos abaixo com referên- cia à Figura 10. Em algumas implementações de criação, uma ferramenta de criação associada pode ser usada para criar metadados para dados de áudio associados. Os metadados podem, por exemplo, incluir dados indicando a posição e/ou trajetória de um objeto de áudio num espaço tridimensional, dados de restrição de zona de alto-falante, etc. Os metadados podem ser criados com respeito às zonas de alto- falante 402 do ambiente de reprodução virtual 404 em vez de com respeito a um leiaute de alto-falante particular de um ambiente de reprodução real. A ferramenta de transformação pode receber dados de áudio e metadados associados e pode computar ganhos de áudio e sinais de alimentação de alto-falante para um ambiente de reprodução. Esses ganhos de áudio e sinais de alimentação de alto-falante podem ser computados de acordo com um processo panorâmico de amplitude que pode criar uma percepção de que um som está vindo de uma posição P no ambiente de reprodução. Por exemplo, sinais de alimentação de alto-falante podem ser fornecidos aos alto-falantes de reprodução 1 a N do ambiente de reprodução de acordo com a seguinte equação:
Figure img0003
[00063] Na Equação 1, xi(t) representa o sinal de alimentação de alto-falante a ser aplicado ao alto-falante i, gi representa o fato de ganho do canal correspondente, x(t) representa o sinal de áudio e t representa tempo. Os fatores de ganho podem ser determinados, por exemplo, de acordo com os métodos de panorâmicos de amplitude descritos na Seção 2, páginas 3-4 de V. Pulkki, Compensating Displacement of Amplitude-Panned Virtual Sources (Áudio Engineering Society (AES) International Conference on Virtual, Synthetic and Entertainment Áudio), que é por meio deste incorporado por referência. Em algumas implementações, os ganhos podem ser dependentes de frequência. Em algumas implementações, um retardo de tempo pode ser introduzido substituindo x(t) por x(t-Δt).
[00064] Em algumas implementações de transformação, dados de reprodução de áudio criados com referência às zonas de alto-falante 402 podem ser mapeados para localizações de alto-falante de uma ampla faixa de ambientes de reprodução que podem estar em uma configuração Dolby Surround 5.1, uma configuração Dolby Surround 7.1, uma configuração Hamasaki 22,2 ou outra configuração. Por exemplo, com referência à Figura 2, uma ferramenta de transformação pode mapear dados de reprodução de áudio para zonas de alto-falante 4 e 5 para a matriz surround esquerda 220 e a matriz surround direita 225 de um ambiente de reprodução tendo uma configuração Dolby Surround 7.1. Dados de reprodução de áudio para zonas de alto- falante 1, 2 e 3 podem ser mapeados para o canal de tela esquerdo 230, o canal de tela direito 240 e o canal de tela central 235, respectivamente. Dados de reprodução de áudio para zonas de alto-falante 6 e 7 podem ser mapeados para os alto-falantes surround traseiros esquerdos 224 e os alto-falantes surround traseiros direitos 226.
[00065] A Figura 4B mostra um exemplo de outro ambiente de reprodução. Em algumas implementações, uma ferramenta de renderi- zação pode mapear dados de reprodução de áudio para zonas de alto- falante 1, 2 e 3 para alto-falantes de tela correspondentes 455 do ambiente de reprodução 450. A ferramenta de transformação pode mapear dados de reprodução de áudio para zonas de alto-falante 4 e 5 para a matriz surround esquerda 460 e a matriz surround direita 465 e pode mapear os dados de reprodução de áudio para zonas de alto- falante 8 e 9 para os alto-falantes aéreos esquerdos 470A e alto- falantes aéreos direitos 470B. Dados de reprodução de áudio para zonas de alto-falante 6 e 7 podem ser mapeados para os alto-falantes surround traseiros esquerdos 480a e os alto-falantes surround traseiros direitos 480b.
[00066] Em algumas implementações de criação, uma ferramenta de criação pode ser usada para criar metadados para objetos de áudio. Como observado acima, o termo "objeto de áudio" pode se referir a um fluxo de sinais de dados de áudio e metadados associados. Os metadados podem indicar a posição 3D do objeto de áudio, o tamanho aparente do objeto de áudio, restrições de transformação, bem como tipo de conteúdo (por exemplo, diálogo, efeitos), etc. Dependendo da implementação, os metadados podem incluir outros tipos de dados, tal como dados de ganho, dados de trajetória, etc. Alguns objetos de áudio podem ser estáticos, ao passo que outros podem se mover. Detalhes do objeto de áudio podem ser criados ou transformados para os metadados associados que, entre outras coisas, podem indicar a posição do objeto de áudio num espaço tridimensional em um determinado ponto no tempo. Quando os objetos de áudio são monitorados ou reproduzidos em um ambiente de reprodução, os objetos de áudio podem ser transformados de acordo com seu metadados de posição e tamanho de acordo com o leiaute de alto-falante de reprodução do ambiente de reprodução.
[00067] A Figura 5A é um diagrama de fluxo que fornece uma visão geral de um método de processamento de áudio. Exemplos mais detalhados são descritos abaixo com referência às Figuras 5B et seq. Estes métodos podem incluir mais ou menos blocos do que mostrados e aqui descritos e não são necessariamente realizados na ordem aqui mostrada. Estes métodos podem ser realizados, pelo menos em parte, por um aparelho, tal como aqueles mostrados nas Figuras 10-11B e descritos abaixo. Em algumas modalidades, estes métodos podem ser implementados, pelo menos em parte, por software armazenado em um ou mais meios não transitórios. O software pode incluir instruções para controlar um ou mais dispositivos para realizar os métodos aqui descritos.
[00068] No exemplo mostrado na Figura 5A, o método 500 começa com um processo de ajuste para determinar valores de ganho de fonte virtual para localizações de fonte virtual relativas a um ambiente de reprodução particular (bloco 505). A Figura 6A mostra um exemplo de localizações de fonte virtual relativas a um ambiente de reprodução. Por exemplo, o bloco 505 pode envolver a determinação de valores de ganho de fonte virtual das localizações de fonte virtual 605 relativas às localizações de alto-falante de reprodução 625 do ambiente de reprodução 600a. As localizações de fonte virtual 605 e as localizações de alto-falante de reprodução 625 são apenas exemplos. No exemplo mostrado na Figura 6A, as localizações de fonte virtual 605 são espa-çadas uniformemente ao longo dos eixos x, y e z. No entanto, em im-plementações alternativas, as localizações de fonte virtual 605 podem ser espaçadas de maneira diferente. Por exemplo, em algumas implementações, as localizações de fonte virtual 605 podem ter um primeiro espaçamento uniforme ao longo dos eixos x e y e um segundo espaçamento uniforme ao longo do eixo z. Em outras implementações, as localizações de fonte virtual 605 podem ser espaçadas de maneira não uniforme.
[00069] No exemplo mostrado na Figura 6A, o ambiente de reprodução 600a e o volume de fonte virtual 602a são coextensivos, de modo que cada uma das localizações de fonte virtual 605 corresponda a uma localização dentro do ambiente de reprodução 600a. No entanto, em implementações alternativas, o ambiente de reprodução 600 e o volume de fonte virtual 602 podem não ser coextensivos. Por exemplo, pelo menos algumas das localizações de fonte virtual 605 podem corresponder a localizações fora do ambiente de reprodução 600.
[00070] A Figura 6B mostra um exemplo alternativo de localizações de fonte virtual relativas a um ambiente de reprodução. Neste exemplo, o volume de fonte virtual 602b se estende fora do ambiente de re- produção 600b.
[00071] Voltando à Figura 5A, neste exemplo, o processo de ajuste do bloco 505 ocorre antes de transformar quaisquer objetos de áudio particulares. Em algumas implementações, os valores de ganho de fonte virtual determinados no bloco 505 podem ser armazenados num sistema de armazenamento. Os valores de ganho de fonte virtual armazenados podem ser utilizados durante um processo de "tempo de execução" de computação de valores de ganho de objeto de áudio para objetos de áudio recebidos de acordo com pelo menos alguns dos valores de ganho de fonte virtual (bloco 510). Por exemplo, o bloco 510 pode envolver computar os valores de ganho de objeto de áudio com base, pelo menos em parte, em valores de ganho de fonte virtual correspondentes a localizações de fonte virtual que estão dentro de uma área ou um volume de objeto de áudio.
[00072] Em algumas implementações, o método 500 pode incluir o bloco opcional 515 que envolve decorrelacionar dados de áudio. O bloco 515 pode ser parte de um processo de tempo de execução. Em algumas de tais implementações, o bloco 515 pode envolver convolu- ção no domínio de frequência. Por exemplo, o bloco 515 pode envolver aplicar um filtro de resposta de impulso finita ("FIR") a cada sinal de alimentação alto-falante.
[00073] Em algumas implementações, os processos do bloco 515 pode ou não podem ser efetuados, dependendo de um tamanho de objeto de áudio e/ou de uma intenção artística de criador. De acordo com algumas de tais implementações, uma ferramenta de criação pode ligar tamanho de objeto de áudio com decorrelação indicando (por exemplo, via um sinalizador de decorrelação incluído em metadados associados) que a decorrelação deve ser ligada quando o tamanho do objeto de áudio for maior ou igual a um valor de limiar de tamanho e que a decorrelação deve ser desligada se o tamanho de objeto de áu- dio estiver abaixo do valor de limiar de tamanho. Em algumas imple-mentações, a decorrelação pode ser controlada (por exemplo, aumentada, diminuída ou desabilitada) de acordo com a entrada de usuário a respeito do valor de limiar de tamanho e/ou outros valores de entrada.
[00074] A Figura 5B é um diagrama de fluxo que fornece um exemplo de um processo de ajuste. Por conseguinte, todos os blocos mostrados na Figura 5B são exemplos de processos que podem ser realizados no bloco 505 da Figura 5A. Aqui, o processo de ajuste começa com o recebimento de dados de ambiente de reprodução (bloco 520). Os dados de ambiente de reprodução podem incluir dados de localização de alto-falante de reprodução. Os dados de ambiente de reprodução também podem incluir dados representando limites de um ambien-te de reprodução, tal como paredes, teto, etc. Se o ambiente de reprodução for um cinema, os dados de ambiente de reprodução também podem incluir uma indicação de uma localização de tela de cinema.
[00075] Os dados de ambiente de reprodução também podem incluir dados indicando uma correlação de canais de saída com alto- falantes de reprodução de um ambiente de reprodução. Por exemplo, o ambiente de reprodução pode ter uma configuração Dolby Surround 7.1, tal como aquela mostrada na Figura 2 e descrita acima. Por conseguinte, os dados de ambiente de reprodução também podem incluir dados indicando uma correlação entre um canal Lss e os alto-falantes surround esquerdos 220, entre um canal Lrs e os alto-falantes surround traseiros esquerdos 224, etc.
[00076] Neste exemplo, o bloco 525 envolve a definição de localizações de fonte virtual 605 de acordo com os dados de ambiente de reprodução. As localizações de fonte virtual 605 podem ser definidas dentro de um volume de fonte virtual. Em algumas implementações, o volume de fonte virtual pode corresponder a um volume dentro do qual objetos de áudio podem se mover. Como mostrado nas Figuras 6A e 6B, em algumas implementações o volume de fonte virtual 602 pode ser coextensivo com um volume do ambiente de reprodução 600, ao passo que em outras implementações pelo menos algumas das localizações de fonte virtual 605 podem corresponder a localizações fora do ambiente de reprodução 600.
[00077] Mais ainda, as localizações de fonte virtual 605 podem ou não podem ser espaçadas de forma uniforme dentro do volume de fonte virtual 602, dependendo da implementação particular. Em algumas implementações, as localizações de fonte virtual 605 podem ser espaçadas uniformemente em todas as direções. Por exemplo, as localizações de fonte virtual 605 podem formar uma grade retangular de Nx por Ny por Nz localizações de fonte virtual 605. Em algumas implementações, o valor de N pode estar na faixa de 5 a 100. O valor de N pode depender, pelo menos em parte, do número de alto-falantes de reprodução no ambiente de reprodução: pode ser desejável incluir duas ou mais localizações de fonte virtual 605 entre cada localização de alto- falante de reprodução.
[00078] Em algumas implementações, as localizações de fonte virtual 605 podem ter um primeiro espaçamento uniforme ao longo dos eixos x e y e um segundo espaçamento uniforme ao longo de um eixo z. As localizações de fonte virtual 605 podem formar uma grade retangular de Nx por Ny por Mz localizações de fonte virtual 605. Por exemplo, em algumas implementações, podem existir menos localizações de fonte virtual 605 ao longo do eixo z do que ao longo dos eixos x ou y. Em algumas de tais implementações, o valor de N pode estar na faixa de 10 a 100, ao passo que o valor de M pode estar na faixa de 5 a 10.
[00079] Neste exemplo, o bloco 530 envolve computar valores de ganho de fonte virtual para cada uma das localizações de fonte virtual 605. Em algumas implementações, o bloco 530 envolve computar, pa ra cada uma das localizações de fonte virtual 605, valores de ganho de fonte virtual para cada canal de uma pluralidade de canais de saída do ambiente de reprodução. Em algumas implementações, o bloco 530 pode envolver aplicar um algoritmo panorâmico de amplitude à base de vetor ("VBAP"), um algoritmo panorâmico aos pares ou um algoritmo semelhante para computar valores de ganho para fontes pontuais localizadas em cada uma das localizações de fonte virtual 605. Em outras implementações, o bloco 530 pode envolver aplicar um algoritmo separável para calcular valores de ganho para fontes pontuais lo-calizadas em cada uma das localizações de fonte virtual 605. Como aqui utilizado, um algoritmo "separável" é aquele para o qual o ganho de um dado alto-falante pode ser expresso como um produto de dois ou mais fatores que podem ser computados separadamente para cada uma das coordenadas da localização de fonte virtual. Exemplos incluem algoritmos implementados em vários panorâmicos de console de mixagem existentes incluindo, mas não se limitando ao software Pro Tools™ e panorâmicos implementados em consoles de filmes digitais fornecidos por AMS Neve. Alguns exemplos bidimensionais são fornecidos abaixo.
[00080] As Figuras 6C-6F mostram exemplos de aplicação de técnicas panorâmicas de campo próximo e de campo distante a objetos de áudio em diferentes localizações. Com referência primeiro à Figura 6C, o objeto de áudio está substancialmente fora do ambiente de reprodução virtual 400a. Portanto, um ou mais métodos panorâmicos de campo distante serão aplicados neste caso. Em algumas implementações, os métodos panorâmicos de campo distante podem ser baseados em equações panorâmicas de amplitude à base de vetor (VBAP) que são conhecidas pelos versados na técnica. Por exemplo, os métodos panorâmicos de campo distante podem ser baseados nas equa-ções VBAP descritas na Seção 2.3, página 4 de V. Pulkki, Compensa ting Displacement of Amplitude-Panned Virtual Sources (AES International Conference on Virtual, Synthetic and Entertainment Áudio), que é por meio deste incorporado por referência. Em implementações alternativas, outros métodos podem ser utilizados para panorâmico de objetos de áudio de campo distante e de campo próximo, por exemplo, métodos que envolvem a síntese de planos acústicos correspondentes ou onda esférica. D. de Vries, Wave Field Synthesis (AES Monograph 1999) que é aqui incorporado por referência descreve métodos relevantes.
[00081] Com referência agora à Figura 6D, o objeto de áudio 610 está dentro do ambiente de reprodução virtual 400a. Portanto, um ou mais métodos panorâmicos de campo próximo serão aplicados neste caso. Alguns desses métodos panorâmicos de campo próximo usarão uma série de zonas de alto-falante envolvendo o objeto de áudio 610 no ambiente de reprodução virtual 400a.
[00082] A Figura 6G ilustra um exemplo de um ambiente de reprodução tendo um alto-falante em cada canto de um quadrado tendo um comprimento de borda igual a 1. Neste exemplo, a origem (0,0), do eixo x-y é coincidente com o alto-falante de tela esquerdo (L) 130. Por conseguinte, o alto-falante de tela direito (R) 140 tem coordenadas (1,0), o alto-falante surround esquerdo (Ls) 120 tem coordenadas (0,1) e o alto-falante surround direito (Rs) 125 tem coordenadas (1,1). A posição de objeto de áudio 615 (x,y) é de x unidades para a direita do alto-falante L e de y unidades da tela 150. Neste exemplo, cada um dos quatro alto-falantes recebe um fator cos/sin proporcional à sua distância ao longo do eixo x e do eixo y. De acordo com algumas imple-mentações, os ganhos podem ser computados como a seguir:
Figure img0004
Figure img0005
[00083] O ganho geral é o produto: G_l(x,y) =G_l(x) G_l(y). Em geral, estas funções dependem todas as coordenadas de todos os alto- falantes. No entanto, G_l(x) não depende da posição y da fonte e G_l(y) não depende de sua posição x. Para ilustrar um cálculo simples, suponhamos que a posição de objeto de áudio 615 é (0,0), a localização do alto-falante L. G_L (x) = cos (0) = 1. G_L (y) = cos (0) = 1. O ganho geral é o produto: G_L(x,y) =G_L(x) G_L(y) = 1. Cálculos semelhantes levam a G_Ls = G_Rs = G_R = 0.
[00084] Pode ser desejável misturar entre diferentes modos de panorâmico quando um objeto de áudio entra ou sai do ambiente de reprodução virtual 400a. Por exemplo, uma mistura de ganhos computados de acordo com métodos panorâmicos de campo próximo e métodos de panorâmico de campo distante pode ser aplicada quando o objeto de áudio 610 se move da localização de objeto de áudio 615 mostrada na Figura 6C para a localização de objeto de áudio 615 mostrada na Figura 6D ou vice-versa. Em algumas implementações, uma lei de panorâmico em pares (por exemplo, um seno de preservação de energia ou lei de potência) pode ser utilizada para misturar entre os ganhos computados de acordo com métodos de panorâmico de campo próximo e métodos de panorâmico de campo distante. Em implementações alternativas, a lei de panorâmico em pares pode ser de preservação de amplitude vez de preservação de energia, de modo que a soma seja igual a um, em vez de a soma dos quadrados ser igual a um. É também possível misturar os sinais processados resultantes, por exemplo, para processar o sinal de áudio usando ambos os métodos de panorâmico independentemente e desvanecer cruzado os dois sinais de áudio resultantes.
[00085] Voltando agora à Figura 5B, independentemente do algoritmo usado no bloco 530, os valores de ganho resultantes podem ser armazenados num sistema de memória (bloco 535), para utilização durante as operações de tempo de execução.
[00086] A Figura 5C é um diagrama de fluxo que fornece um exemplo de um processo de tempo de execução para computar valores de ganho para objetos de áudio recebidos de acordo com valores de ganho pré-computados para localizações de fonte virtual. Todos os blocos mostrados na Figura 5C são exemplos de processos que podem ser realizados no bloco 510 da Figura 5A.
[00087] Neste exemplo, o processo de tempo de execução começa com a recepção de dados de reprodução de áudio que incluem um ou mais objetos de áudio (bloco 540). Os objetos de áudio incluem sinais de áudio e metadados associados incluindo pelo menos dados de posição de objeto de áudio e dados de tamanho de objeto de áudio neste exemplo. Com referência à Figura 6A, por exemplo, o objeto de áudio 610 é definido pelo menos em parte por uma posição de objeto de áudio 615 e um volume de objeto de áudio 620a. Neste exemplo, os dados de tamanho de objeto de áudio recebidos indicam que o volume de objeto de áudio 620a corresponde àquele de um prisma retangular. No exemplo, mostrado na Figura 6B, no entanto, os dados de tamanho de objeto de áudio recebidos indicam que o volume de objeto de áudio 620b corresponde àquele de uma esfera. Estes tamanhos e formas são apenas exemplos; em implementações alternativas, objetos de áudio podem ter uma variedade de outros tamanhos e/ou formas. Em alguns exemplos alternativos, a área ou o volume de um objeto de áudio pode ser um retângulo, um círculo, uma elipse, um elipsoide ou um setor esférico.
[00088] Nesta implementação, o bloco 545 envolve computar contribuições de fontes virtuais dentro de uma área ou um volume definido pelos dados de posição de objeto de áudio e pelos dados de tamanho de objeto de áudio. Nos exemplos mostrados nas Figuras 6A e 6B, o bloco 545 pode envolver computação de contribuições de fontes virtuais nas localizações de fonte virtual 605 que estão dentro do volume de objeto de áudio 620a ou do volume de objeto de áudio 620b. Se os metadados do objeto de áudio mudam ao longo do tempo, o bloco 545 pode ser realizada novamente de acordo com os novos valores de metadados. Por exemplo, se o tamanho de objeto de áudio e/ou a posição objeto de áudio mudarem, diferentes localizações de fonte virtual 605 podem cair dentro do volume de objeto de áudio 620 e/ou as localizações de fonte virtual 605 usadas em uma computação anterior podem estar a uma distância diferente da posição de objeto de áudio 615. No bloco 545, as contribuições de fonte virtual correspondentes seriam computadas de acordo com o novo tamanho e/ou posição do objeto de áudio.
[00089] Em alguns exemplos, o bloco 545 pode envolver recuperar, de um sistema de memória, valores de ganho de fonte virtual computados para localizações de fonte virtual correspondentes a uma posição e um tamanho de objeto de áudio e interpolar entre os valores de ganho de fonte virtual computados. O processo de interpolar entre os valores de ganho de fonte virtual computados pode envolver determinar uma pluralidade de localizações de fonte virtual vizinhas próximas da posição de objeto de áudio; determinar valores de ganho de fonte virtual computados para cada uma das localizações de fonte virtual vizinhas; determinar uma pluralidade de distâncias entre a posição de objeto de áudio e cada uma das localizações de fonte virtual vizinhas; e interpolar entre os valores de ganho de fonte virtual computados de acordo com a pluralidade de distâncias.
[00090] O processo de computar contribuições de fontes virtuais pode envolver computar uma média ponderada de valores de ganho de fonte virtual computados para localizações de fonte virtual dentro de uma área ou de um volume definido pelo tamanho do objeto de áu- dio. Pesos para a média ponderada podem depender, por exemplo, da posição do objeto de áudio, do tamanho do objeto de áudio e de cada localização de fonte virtual dentro da área ou do volume.
[00091] A Figura 7 mostra um exemplo de contribuições de fontes virtuais dentro de uma área definida por dados de posição de objeto de áudio e dados de tamanho de objeto de áudio. A Figura 7 representa uma seção transversal de um ambiente de áudio 200a tomada perpendicular ao eixo z. Por conseguinte, a Figura 7 é desenhada da perspectiva de um espectador olhando para baixo para o ambiente de áudio 200a ao longo do eixo z. Neste exemplo, o ambiente de áudio 200a é um ambiente de sistema de som de cinema tendo uma configuração Dolby Surround 7.1, tais como aquela mostrada na Figura 2 e descrita acima. Por conseguinte, o ambiente de reprodução 200a inclui os alto-falantes surround esquerdos 220, os alto-falantes surround traseiros esquerdos 224, os alto-falantes surround direitos 225, os alto- falantes surround traseiros direitos 226, o canal de tela esquerdo 230, o canal de tela central 235, o canal de tela direito 240 e o subwoofer 245.
[00092] O objeto de áudio 610 tem um tamanho indicado pelo volume de objeto de áudio 620b, uma área de seção transversal retangular da qual é mostrada na Figura 7. Dada a posição de objeto de áudio 615 no instante de tempo representado na Figura 7, 12 localizações de fonte virtual 605 são incluídas na área abrangida pelo volume de objeto de áudio 620b no plano x-y. Dependendo da extensão do volume de objeto de áudio 620b na direção z e do espaçamento das localizações de fonte virtual 605 ao longo do eixo z, localizações de fonte virtual adicionais 605s podem ou não podem ser englobadas dentro do volume de objeto de áudio 620b.
[00093] A Figura 7 indica contribuições das localizações de fonte virtual 605 dentro da área ou do volume definido pelo tamanho do ob- jeto de áudio 610. Neste exemplo, o diâmetro do círculo usado para representar cada uma das localizações de fonte virtual 605 corresponde à contribuição da localização de fonte virtual correspondente 605. As localizações de fonte virtual 605a são mais próximas da posição de objeto de áudio 615 são mostradas como as maiores, indicando a maior contribuição das fontes virtuais correspondentes. As segundas maiores contribuições são de fontes virtuais nas localizações de fonte virtual 605b que são as segundas mais próximas à posição de objeto de áudio 615. Contribuições menores são feitas pelas localizações de fonte virtual 605c que estão mais longe da posição de objeto de áudio 615, mas ainda dentro do volume de objeto de áudio 620b. As localizações de fonte virtual 605d que estão fora do volume de objeto de áudio 620b são mostradas como sendo as menores, o que indica que neste exemplo as fontes virtuais correspondentes não fazem nenhuma contribuição.
[00094] Voltando à Figura 5C, neste exemplo o bloco 550 envolve computar um conjunto de valores de ganho de objeto de áudio para cada um de uma pluralidade de canais de saída com base, pelo menos em parte, nas contribuições computadas. Cada canal de saída pode corresponder a pelo menos um alto-falante de reprodução do ambiente de reprodução. O bloco 550 pode envolver normalizar os valores de ganho de objeto de áudio resultantes. Para a implementação mostrada na Figura 7, por exemplo, cada canal de saída pode corresponder a um único alto-falante ou um grupo de alto-falantes.
[00095] O processo de computar o valor de ganho de objeto de áudio para cada um da pluralidade de canais de saída pode envolver determinar um valor de ganho (gltamanho(xo,yo,zo;s)) para um objeto de áudio de tamanho (s) a ser transformado na localização xo,yo,zo. Este valor de ganho de objeto de áudio pode algumas vezer ser denominado neste documento como uma "contribuição de tamanho de objeto de áudio". De acordo com algumas implementações o valor de ganho de objeto de áudio (gltamanho(xo,yo,zo;s)) pode ser expresso como:
Figure img0006
[00096] Na Equação 2, (xvs, yvs, zvs) representa uma localização de fonte virtual, gl(xvs, yvs, zvs) representa um valor de ganho para canal l para a localização de fonte virtual xvs, yvs, zvs e w(xvs, yvs, zvs; xo, yo, zo;s) representa um peso para gl(xvs, yvs, zvs) que e determinado com base, pelo menos em parte, na localização (xo, yo, zo) do objeto de áudio, no tamanho (s) do objeto de áudio e na localização da fonte virtual (xvs, yvs, zvs).
[00097] Em alguns exemplos, o expoente p pode ter um valor entre 1 e 10. Em algumas implementações, p pode ser uma função do tamanho do objeto áudio s. Por exemplo, se s for relativamente maior, em algumas implementações p pode ser relativamente menor. e acordo com algumas tais implementações, p pode ser determinado como a seguir:
Figure img0007
em que smax corresponde ao valor máximo de um tamanho escalonado interno sinterno (descrito abaixo) e em que um tamanho de objeto de áudio s = 1 pode corresponder a um objeto de áudio tendo um tamanho (por exemplo, um diâmetro) igual a um comprimento de um dos limites do ambiente de reprodução (por exemplo, igual ao comprimento de uma parede do ambiente de reprodução).
[00098] Dependendo em parte do(s) algoritmo(s) usado(s) para computar os valores de ganho de fonte virtual, pode ser possível simplificar a Equação 2 se as localizações de fonte virtual forem uniformemente distribuídas ao longo de um eixo e se as funções de ponderação e as funções de ganho forem separáveis, por exemplo, como descrito acima. Se estas condições forem atendidas, então, gl(xvs, yvs, zvs) pode ser expresso como glx(xvs)gly(yvs)glz(zvs), em que glx(xvs), glx(yvs) e glz(zvs) representam funções de ganho independentes de coordenadas x, y e z para uma localização de fonte virtual.
[00099] Similarmente, w(xvs,yvs,zvs;xo,yo,zo;s) pode fatorar como wx(xvs;xo;s)wy(yvs;yo;s)wz(zvs;zo;s), em que wx(xvs; xo; s), wy(yvs; yo; s) e wz(zvs;zo; s) representam funções de peso independentes de coordenadas x, y e z para uma localização de fonte virtual. Um tal exemplo é mostrado na Figura 7. Neste exemplo, a função de peso 710, expressa como wx(xvs; xo; s), pode ser computada independentemente da função de peso 720, expressa como wy(yvs; xo; s). Em algumas implementações, as funções de peso 710 e 720 podem ser funções gaussianas, ao passo que a função de peso wz(zvs; zo; s) pode ser um produto de funções cosseno e gaussianas.
[000100] Se w(xvs,yvs,zvs;xo,yo,zo;s) pode ser fatorada como
Figure img0008
[000101] As funções f podem conter todas as informações necessárias relativas às fontes virtuais. Se as posições de objeto possíveis são discretizadas ao longo de cada eixo, pode-se expressar cada função f como uma matriz. Cada função f pode ser pré- computada durante o processo de ajuste do bloco 505 (ver Figura 5A) e armazenada num sistema de memória, por exemplo, como uma matriz ou como uma tabela de consulta. Em tempo de execução (bloco 510), as tabelas de consulta ou matrizes podem ser recuperadas do sistema de memória. O processo de tempo de execução pode envolver interpolação, dada uma posição de objeto de áudio e tamanho, entre os valores correspondentes mais próximos destas matrizes. Em algumas implementações, a interpolação pode ser linear.
[000102] Em algumas implementações, a contribuição de tamanho de objeto de áudio gltamanho pode ser combinada com o resultado "de ganho próximo de objeto de áudio" para a posição de objeto de áudio. Como aqui utilizado, o "ganho próximo de objeto de áudio" é um ganho computado que é baseado na posição de objeto de áudio 615. A computação de ganho pode ser feita utilizando o mesmo algoritmo utilizado para computar cada um dos valores de ganho de fonte virtual. De acordo com algumas de tais implementações, um cálculo de desvanecimento cruzado pode ser realizado entre a contribuição de tamanho de objeto de áudio e o resultado de ganho próximo de objeto de áudio, por exemplo, em função de tamanho de objeto de áudio. Tais implementações podem fornecer panorâmico suave e crescimento suave de objetos de áudio e podem permitir uma transição suave entre os menores e os maiores tamanhos de objeto de áudio. Numa tal implementação,
Figure img0009
e em que g~lsize representa a versão normalizada de g size previamente computada. Em algumas dessas implementações, sxdesvanecimento =0.2. Entretanto, em implementações alternativas, sxdesvanecimento pode ter outros valores.
[000103] De acordo com algumas implementações, o valor de tamanho de objeto de áudio pode ser escalonado para cima na porção maior de sua faixa de valores possíveis. Em algumas implementações de criação, por exemplo, um usuário pode ser exposto a valores de tamanho de objeto de áudio que são mapeados para o tamanho real utilizado pelo algoritmo para uma escala maior, por exemplo, a faixa [0, smax] , em que smax > 1. Este mapeamento pode assegurar que quando o tamanho for ajustado para o máximo pelo usuário, os ganhos se tornarão verdadeiramente independentes da posição do objeto. De acordo com algumas dessas implementações, esses mapeamentos podem ser feitos de acordo com uma função linear em pedaços que conecta pares de pontos (susuário, sinterno), em que susuário representa um tamanho de objeto de áudio selecionado pelo usuário e sinterno representa um tamanho de objeto de áudio correspondente que é determinado pelo algoritmo. De acordo com algumas dessas implementações, o mapeamento pode ser feito de acordo com uma função linear em pedaços que conecta pares de pontos (0, 0), (0,2, 0,3), (0,5, 0,9), (0,75, 1,5) e (1, smax). Numa tal implementação, smax = 2,8.
[000104] As Figuras 8A e 8B mostram um objeto de áudio em duas posições dentro de um ambiente de reprodução. Nestes exemplos, o volume de objeto de áudio 620b é uma esfera tendo um raio de menos da metade do comprimento ou da largura do ambiente de reprodução 200a. O ambiente de reprodução 200a é configurado de acordo com Dolby 7.1. No instante de tempo representado na Figura 8A, a posição do objeto de áudio 615 é relativamente mais próxima do meio do ambiente de reprodução 200a. No tempo representado na Figura 8B, a posição do objeto de áudio 615 se moveu para perto de um limite do ambiente de reprodução 200a. Neste exemplo, o limite é uma parede esquerda de um cinema e coincide com as localizações dos alto- falantes surround esquerdos 220.
[000105] Por razões estéticas, pode ser desejável modificar os cálculos de ganho de objeto de áudio para objetos de áudio que se aproxi- mam de um limite de um ambiente de reprodução. Nas Figuras 8A e 8B, por exemplo, nenhum sinal de alimentação de alto-falante é fornecido a alto-falantes em um limite oposto do ambiente de reprodução (aqui, os alto-falantes surround direitos 225) quando a posição do objeto de áudio 615 está dentro de uma distância de limiar do limite esquerdo 805 do ambiente de reprodução. No exemplo mostrado na Figura 8B, nenhum sinal de alimentação de alto-falante é fornecido a alto-falantes correspondentes ao canal de tela esquerdo 230, ao canal de tela central 235, ao canal de tela direito 240 ou ao subwoofer 245 quando a posição de objeto de áudio 615 está dentro de uma distância de limiar (que pode ser uma distância de limiar diferente) do limite esquerdo 805 do ambiente de reprodução, se a posição de objeto de áudio 615 também for mais do que uma distância de limiar da tela.
[000106] No exemplo mostrado na Figura 8B, o volume de objeto de áudio 620b inclui uma área ou um volume fora do limite esquerdo 805. De acordo com algumas implementações, um fator de desvanecimento para cálculos de ganho pode ser baseado, pelo menos em parte, em quanto do limite esquerdo 805 está dentro do volume de objeto de áudio 620b e/ou quanto da área ou do volume de um objeto de áudio se estende para fora de tal limite.
[000107] A Figura 9 é um diagrama de fluxo que delineia um método para determinar um fator de desvanecimento com base, pelo menos em parte, em quanto de uma área ou de um volume de um objeto de áudio se estende para fora de um limite de um ambiente de reprodução. No bloco 905, os dados de ambiente de reprodução são recebidos. Neste exemplo, os dados de ambiente de reprodução incluem dados de localização de alto-falante de reprodução e dados de limite de ambiente de reprodução. O bloco 910 envolve receber dados de reprodução de áudio incluindo um ou mais objetos de áudio e metadados associados. Os metadados incluem pelo menos dados de posição de objeto de áudio e dados de tamanho de objeto de áudio neste exemplo.
[000108] Nesta implementação, o bloco 915 envolve determinar que uma área ou um volume de objeto de áudio definido pelos dados de posição de objeto de áudio e dados de tamanho de objeto de áudio inclui uma área ou um volume externo fora de um limite de ambiente de reprodução. O bloco 915 também pode envolver determinar que proporção da área ou do volume de objeto de áudio está fora do limite do ambiente de reprodução.
[000109] No bloco 920, um fator de desvanecimento é determinado. Neste exemplo, o fator de desvanecimento pode ser baseado, pelo menos em parte, na área externa. Por exemplo, o fator de desvanecimento pode ser proporcional à área externa.
[000110] No bloco 925, um conjunto de valores de ganho de objeto de áudio pode ser computado para cada um de uma pluralidade de canais de saída com base, pelo menos em parte, nos metadados associados (neste exemplo, os dados de posição de objeto de áudio e dados de tamanho de objeto de áudio) e no fator de desvanecimento. Cada canal de saída pode corresponder a pelo menos um alto-falante de reprodução do ambiente de reprodução.
[000111] Em algumas implementações, as computações de ganho de objeto de áudio podem envolver contribuições de computação de fontes virtuais dentro de uma área ou de um volume de objeto de áudio. As fontes virtuais podem corresponder à pluralidade de localizações de fonte virtual que podem ser definidas com referência aos dados de ambiente de reprodução. As localizações de fonte virtual podem ou não podem ser uniformemente espaçadas. Para cada uma das localizações de fonte virtual, um valor de ganho de fonte virtual pode ser computado para cada um da pluralidade de canais de saída. Como descrito acima, em algumas implementações estes valores de ganho de fonte virtual podem ser computados e armazenados durante um processo de ajuste, então, recuperados para uso durante operações de tempo de execução.
[000112] Em algumas implementações, o fator de desvanecimento pode ser aplicado a todos os valores de ganho de fonte virtual correspondentes a localizações de fonte virtual dentro de um ambiente de reprodução. Em algumas implementações, gltamanho pode ser modificado como a seguir:
Figure img0010
em que dlimite representa a distância mínima entre uma localização de objeto de áudio e um limite do ambiente de reprodução e gllimite representa a contribuição de fontes virtuais ao longo do limite. Por exemplo, com referência à Figura 8B,gllimite pode representar a contribuição de fontes virtuais dentro do volume de objeto de áudio 620b e adjacente ao limite 805. Neste exemplo, como aquele da Figura 6A, não há fontes virtuais localizadas fora do ambiente de reprodução.
[000113] Em implementações alternativas, gltamanho pode ser modificado como a seguir:
Figure img0011
em que glexterna representa ganhos de objeto de áudio com base em fontes virtuais localizadas fora de um ambiente de reprodução, mas dentro de uma área ou de um volume de objeto de áudio. Por exemplo, com referência à Figura 8B,glexterna pode representar a contribuição de fontes virtuais dentro do volume de objeto de áudio 620b e fora do limite 805. Neste exemplo, como aquele da Figura 6B, não há fontes virtuais localizadas tanto dentro quanto fora do ambiente de reprodução.
[000114] A Figura 10 é um diagrama de blocos que proporciona exemplos de componentes de um aparelho para criar e/ou transformar. Neste exemplo, o dispositivo 1000 inclui um sistema de interface 1005. O sistema de interface 1005 pode incluir uma interface de rede, tal como uma interface de rede sem fios. Alternativamente, ou adicionalmente, o sistema de interface 1005 pode incluir uma interface de bar- ramento serial universal (USB) ou outra tal interface.
[000115] O dispositivo 1000 inclui um sistema de lógica 1010. O sistema de lógica 1010 pode incluir um processador, tal como um processador de chip único ou múltiplo de uso geral. O sistema de lógica 1010 pode incluir um processador de sinal digital (DSP), um circuito integrado específico de aplicação (ASIC), uma matriz de porta programável no campo (FPGA) ou outro dispositivo lógico programável, porta discreta ou lógica de transistor, ou componentes de hardware discretos ou combinações dos mesmos. O sistema de lógica 1010 pode ser configurado para controlar os outros componentes do dispositivo 1000. Embora nenhuma interface entre os componentes do dispositivo 1000 seja mostrada na Figura 10, o sistema de lógica 1010 pode ser configurado com interfaces para comunicação com os outros componentes. Os outros componentes podem ou não ser configurados para comunicação um com o outro, conforme adequado.
[000116] O sistema de lógica 1010 pode ser configurado para executar criação de áudio e/ou transformar funcionalidade incluindo, mas não se limitando aos tipos de criação de áudio e/ou transformação de funcionalidade aqui descritos. Em algumas de tais implementações, o sistema de lógica 1010 pode ser configurado para operar (pelo menos em parte) de acordo com o software armazenado em um ou mais meios não transitórios. Os meios não transitórios podem incluir memória associada com o sistema de lógica 1010, tal como memória de acesso aleatório (RAM) e/ou memória somente de leitura (ROM). Os meios não transitórios podem incluir memória do sistema de memória 1015. O sistema de memória 1015 pode incluir um ou mais tipos adequados de meios de armazenamento não transitórios, tal como memória flash, um disco rígido, etc.
[000117] O sistema de exibição 1030 pode incluir um ou mais tipos adequados de exibição, dependendo da manifestação do dispositivo 1000. Por exemplo, o sistema de exibição 1030 pode incluir um mostrador de cristal líquido, um mostrador de plasma, um mostrador bies- tável, etc.
[000118] O sistema de entrada de usuário 1035 pode incluir um ou mais dispositivos configurados para aceitar entrada de um usuário. Em algumas implementações, o sistema de entrada de usuário 1035 pode incluir uma tela de toque que se sobrepõe a um mostrador do sistema de exibição 1030. O sistema de entrada de usuário 1035 pode incluir um mouse, uma track ball, um sistema de detecção de gesto, um joystick, uma ou mais GUIs e/ou menus apresentados no sistema de exibição 1030, botões, um teclado, chaves, etc. Em algumas implementações, o sistema de entrada de usuário 1035 pode incluir o microfone 1025: um usuário pode fornecer comandos de voz para o dispositivo 1000 via o microfone 1025. O sistema de lógica pode ser configurado para reconhecimento de fala e para controle de pelo menos algumas operações do dispositivo 1000 de acordo com tais comandos de voz.
[000119] O sistema de energia 1040 pode incluir um ou mais dispositivos de armazenamento de energia adequados, tal como uma bateria de níquel-cádmio ou uma bateria de íons de lítio. O sistema de energia 1040 pode ser configurado para receber energia de uma tomada elétrica.
[000120] A Figura 11A é um diagrama de blocos que representa alguns componentes que podem ser usados para criação de conteúdo de áudio. O sistema 1100 pode, por exemplo, ser usado para criação de conteúdo de áudio em estúdios de mixagem e/ou estágios de dublagem. Neste exemplo, o sistema 1100 inclui uma ferramenta de criação de áudio e metadados 1105 e uma ferramenta de transformação 1110. Nesta implementação, a ferramenta de áudio e criação de metadados 1105 e a ferramenta de renderização 1110 incluem áudio conectar interfaces de 1107 e 1112, respectivamente, o que pode ser configurado para comunicação via AES / EBU, MADI, analógico, etc. A ferramenta de áudio e metadados autoria 1105 e a ferramenta de processamento 1110 incluem interfaces de rede 1109 e 1117, respectivamente, que podem ser configurados para enviar e receber metadados por meio do TCP / IP ou qualquer outro protocolo apropriado. A interface 1120 é configurada para enviar dados de áudio para alto- falantes.
[000121] O sistema 1100 pode, por exemplo, incluir um sistema de criação existente, tal como um sistema Pro Tools™, executando uma ferramenta de criação de metadados (isto é, um panorâmico como descrito aqui) como um plug-in. O panorâmico também pode rodar em um sistema autônomo (por exemplo, um PC ou um console de mixa- gem) conectado à ferramenta de transformação 1110 ou pode rodar no mesmo dispositivo físico que a ferramenta de transformação 1110. No último caso, o panorâmico e transformador podem utilizar uma conexão local, por exemplo, por meio de memória compartilhada. A GUI de panorâmico também pode ser fornecida em um dispositivo de tablet, um computador portátil, etc. A ferramenta de transformação 1110 pode compreender um sistema de transformação que inclui um processador de som que é configurado para executar métodos de transformação como os descritos nas Figuras 5A-C e Fig. 9. O sistema de transformação pode incluir, por exemplo, um computador pessoal, um compu-tador portátil, etc., que inclui interfaces para entrada/saída de áudio e um sistema de lógica adequado.
[000122] A Figura 11B é um diagrama de blocos que representa alguns componentes que podem ser usados para reprodução de áudio num ambiente de reprodução (por exemplo, um cinema). O sistema 1150 inclui um servidor de cinema 1155 e um sistema de transformação 1160 neste exemplo. O servidor de cinema 1155 e o sistema de transformação 1160 incluem interfaces de rede 1157 e 1162, respectivamente, que podem ser configuradas para enviar e receber objetos de áudio via TCP/IP ou qualquer outro protocolo apropriado. A interface 1164 é configurada para enviar dados de áudio para alto-falantes.
[000123] Várias modificações às implementações descritas nesta divulgação podem ser prontamente evidentes para aqueles versados na técnica. Os princípios gerais aqui definidos podem ser aplicados a outras implementações sem se afastar do espírito ou do escopo desta divulgação. Assim, as reivindicações não se destinam a ser limitadas às implementações mostradas, mas serão de acordo com o escopo mais amplo consistente com a divulgação, os princípios e as características novas divulgadas neste documento.

Claims (3)

1. Método para renderizar um áudio de entrada incluindo pelo menos um objeto de áudio e metadados associados, caracterizado pelo fato de que os metadados incluem metadados de tamanho de objeto de áudio e metadados de posição de objeto de áudio correspondentes ao pelo menos um objeto de áudio, o método compreendendo as etapas de: determinar uma pluralidade de objetos de áudio virtuais com base nos metadados de tamanho de objeto de áudio e os metadados de posição do objeto de áudio correspondentes ao pelo menos um objeto de áudio; para cada objeto de áudio virtual da pluralidade de objetos de áudio virtuais, determinar uma localização do objeto de áudio virtual correspondente; para cada objeto de áudio virtual da pluralidade de objetos de áudio virtual, determinar pelo menos um ganho do objeto de áudio virtual correspondente, em que cada ganho do objeto virtual correspondente é baseado em um ganho de metadados de áudio de objeto correspondente ao pelo menos um objeto de áudio; renderizar o objeto de áudio para um ou mais feeds de alto- falante, em que o objeto de áudio é renderizado com base nas localizações e ganhos correspondentes de pelo menos alguns da pluralidade de objetos de áudio virtuais.
2. Aparelho para renderizar um áudio de entrada incluindo pelo menos um objeto de áudio e metadados associados, caracterizado pelo fato de que os metadados incluem metadados de tamanho de objeto de áudio e metadados de posição de objeto de áudio correspondentes ao pelo menos um objeto de áudio, o aparelho compreendendo: um processador configurado para determinar uma plurali- dade de objetos de áudio virtuais com base nos metadados de tamanho de objeto de áudio e os metadados de posição do objeto de áudio correspondentes ao pelo menos um objeto de áudio, o processador configurado ainda para: para cada objeto de áudio virtual da pluralidade de objetos de áudio virtuais, determinar uma localização do objeto de áudio virtual correspondente, para cada objeto de áudio virtual da pluralidade de objetos de áudio virtual, determinar pelo menos um ganho do objeto de áudio virtual correspondente, em que cada ganho do objeto virtual correspondente é baseado em um ganho de metadados de áudio de objeto correspondente ao pelo menos um objeto de áudio, e renderizar o objeto de áudio para uma ou mais alimentações de alto-falante, em que o processador é configurado para rende- rizar o objeto de áudio com base nas localizações e ganhos correspondentes de pelo menos alguns da pluralidade de objetos de áudio virtuais.
3. Meio não transitório caracterizado pelo fato de que possui o método conforme definido na reivindicação 1 armazenado no mesmo.
BR122022005104-9A 2013-03-28 2014-03-10 Método para renderizar um áudio de entrada, aparelho para renderizar um áudio de entrada e meio não transitório BR122022005104B1 (pt)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
ES201330461 2013-03-28
ESP201330461 2013-03-28
US201361833581P 2013-06-11 2013-06-11
US61/833,581 2013-06-11
PCT/US2014/022793 WO2014159272A1 (en) 2013-03-28 2014-03-10 Rendering of audio objects with apparent size to arbitrary loudspeaker layouts

Publications (1)

Publication Number Publication Date
BR122022005104B1 true BR122022005104B1 (pt) 2022-09-13

Family

ID=51625134

Family Applications (4)

Application Number Title Priority Date Filing Date
BR112015018993-8A BR112015018993B1 (pt) 2013-03-28 2014-03-10 Método e aparelho
BR122022005121-9A BR122022005121B1 (pt) 2013-03-28 2014-03-10 Método, meio não transitório e aparelho
BR122022005104-9A BR122022005104B1 (pt) 2013-03-28 2014-03-10 Método para renderizar um áudio de entrada, aparelho para renderizar um áudio de entrada e meio não transitório
BR122017004541-5A BR122017004541B1 (pt) 2013-03-28 2014-03-10 Método de renderização de áudio de entrada, aparelho de renderização de áudio de entrada, meio não transitório e aparelho

Family Applications Before (2)

Application Number Title Priority Date Filing Date
BR112015018993-8A BR112015018993B1 (pt) 2013-03-28 2014-03-10 Método e aparelho
BR122022005121-9A BR122022005121B1 (pt) 2013-03-28 2014-03-10 Método, meio não transitório e aparelho

Family Applications After (1)

Application Number Title Priority Date Filing Date
BR122017004541-5A BR122017004541B1 (pt) 2013-03-28 2014-03-10 Método de renderização de áudio de entrada, aparelho de renderização de áudio de entrada, meio não transitório e aparelho

Country Status (18)

Country Link
US (6) US9674630B2 (pt)
EP (3) EP3668121A1 (pt)
JP (6) JP5897778B1 (pt)
KR (5) KR101619760B1 (pt)
CN (4) CN107426666B (pt)
AU (6) AU2014241011B2 (pt)
BR (4) BR112015018993B1 (pt)
CA (1) CA2898885C (pt)
ES (1) ES2650541T3 (pt)
HK (5) HK1249688A1 (pt)
IL (6) IL290671B2 (pt)
IN (1) IN2015MN01790A (pt)
MX (1) MX342792B (pt)
MY (1) MY172606A (pt)
RU (3) RU2630955C9 (pt)
SG (1) SG11201505429RA (pt)
UA (1) UA113344C2 (pt)
WO (1) WO2014159272A1 (pt)

Families Citing this family (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2613731C2 (ru) 2012-12-04 2017-03-21 Самсунг Электроникс Ко., Лтд. Устройство предоставления аудио и способ предоставления аудио
WO2015147435A1 (ko) * 2014-03-25 2015-10-01 인텔렉추얼디스커버리 주식회사 오디오 신호 처리 시스템 및 방법
CN106797525B (zh) * 2014-08-13 2019-05-28 三星电子株式会社 用于生成和回放音频信号的方法和设备
ES2686275T3 (es) * 2015-04-28 2018-10-17 L-Acoustics Uk Limited Un aparato para reproducir una señal de audio multicanal y un método para producir una señal de audio multicanal
WO2016210174A1 (en) * 2015-06-25 2016-12-29 Dolby Laboratories Licensing Corporation Audio panning transformation system and method
US9913065B2 (en) * 2015-07-06 2018-03-06 Bose Corporation Simulating acoustic output at a location corresponding to source position data
US9847081B2 (en) 2015-08-18 2017-12-19 Bose Corporation Audio systems for providing isolated listening zones
US9854376B2 (en) 2015-07-06 2017-12-26 Bose Corporation Simulating acoustic output at a location corresponding to source position data
WO2017085562A2 (en) * 2015-11-20 2017-05-26 Dolby International Ab Improved rendering of immersive audio content
EP3174316B1 (en) * 2015-11-27 2020-02-26 Nokia Technologies Oy Intelligent audio rendering
JP6798502B2 (ja) * 2015-12-11 2020-12-09 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
SG11201804892PA (en) 2016-01-19 2018-08-30 3D Space Sound Solutions Ltd Synthesis of signals for immersive audio playback
US9949052B2 (en) 2016-03-22 2018-04-17 Dolby Laboratories Licensing Corporation Adaptive panner of audio objects
CN117612539A (zh) 2016-05-30 2024-02-27 索尼公司 视频音频处理设备、视频音频处理方法和存储介质
CN109479178B (zh) 2016-07-20 2021-02-26 杜比实验室特许公司 基于呈现器意识感知差异的音频对象聚集
EP3293987B1 (en) * 2016-09-13 2020-10-21 Nokia Technologies Oy Audio processing
JP2019533404A (ja) * 2016-09-23 2019-11-14 ガウディオ・ラボ・インコーポレイテッド バイノーラルオーディオ信号処理方法及び装置
US10297162B2 (en) * 2016-12-28 2019-05-21 Honeywell International Inc. System and method to activate avionics functions remotely
CN110383856B (zh) 2017-01-27 2021-12-10 奥罗技术公司 用于平移音频对象的处理方法和系统
WO2018202642A1 (en) 2017-05-04 2018-11-08 Dolby International Ab Rendering audio objects having apparent size
CN110603821A (zh) 2017-05-04 2019-12-20 杜比国际公司 渲染具有表观大小的音频对象
US9820073B1 (en) 2017-05-10 2017-11-14 Tls Corp. Extracting a common signal from multiple audio signals
WO2019098022A1 (ja) * 2017-11-14 2019-05-23 ソニー株式会社 信号処理装置および方法、並びにプログラム
WO2019116890A1 (ja) * 2017-12-12 2019-06-20 ソニー株式会社 信号処理装置および方法、並びにプログラム
JP7146404B2 (ja) * 2018-01-31 2022-10-04 キヤノン株式会社 信号処理装置、信号処理方法、及びプログラム
CN111601935A (zh) 2018-03-30 2020-08-28 住友建机株式会社 挖土机
US11617050B2 (en) 2018-04-04 2023-03-28 Bose Corporation Systems and methods for sound source virtualization
EP3824463A4 (en) 2018-07-18 2022-04-20 Sphereo Sound Ltd. AUDIO PANORAMIC DETECTION AND SYNTHESIS OF THREE-DIMENSIONAL (3D) AUDIO CONTENT FROM ENVELOPING CHANNEL LIMITED SOUND
US11368806B2 (en) * 2018-08-30 2022-06-21 Sony Corporation Information processing apparatus and method, and program
US11503422B2 (en) * 2019-01-22 2022-11-15 Harman International Industries, Incorporated Mapping virtual sound sources to physical speakers in extended reality applications
US11545166B2 (en) * 2019-07-02 2023-01-03 Dolby International Ab Using metadata to aggregate signal processing operations
CN114391262B (zh) * 2019-07-30 2023-10-03 杜比实验室特许公司 跨具有不同回放能力的设备的动态处理
GB2587371A (en) * 2019-09-25 2021-03-31 Nokia Technologies Oy Presentation of premixed content in 6 degree of freedom scenes
US11483670B2 (en) * 2019-10-30 2022-10-25 Sonos, Inc. Systems and methods of providing spatial audio associated with a simulated environment
WO2021098957A1 (en) * 2019-11-20 2021-05-27 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio object renderer, methods for determining loudspeaker gains and computer program using panned object loudspeaker gains and spread object loudspeaker gains
WO2021118352A1 (en) * 2019-12-12 2021-06-17 Liquid Oxigen (Lox) B.V. Generating an audio signal associated with a virtual sound source
US20230019535A1 (en) * 2019-12-19 2023-01-19 Telefonaktiebolaget Lm Ericsson (Publ) Audio rendering of audio sources
KR20210142382A (ko) * 2020-05-18 2021-11-25 에스케이하이닉스 주식회사 그리드 게인 계산 회로, 이미지 센싱 장치 및 그 동작방법
CN112135226B (zh) * 2020-08-11 2022-06-10 广东声音科技有限公司 Y轴音频再生方法以及y轴音频再生系统
US11982738B2 (en) 2020-09-16 2024-05-14 Bose Corporation Methods and systems for determining position and orientation of a device using acoustic beacons
US11700497B2 (en) 2020-10-30 2023-07-11 Bose Corporation Systems and methods for providing augmented audio
US11696084B2 (en) 2020-10-30 2023-07-04 Bose Corporation Systems and methods for providing augmented audio
US11750745B2 (en) 2020-11-18 2023-09-05 Kelly Properties, Llc Processing and distribution of audio signals in a multi-party conferencing environment
GB2607885B (en) * 2021-06-11 2023-12-06 Sky Cp Ltd Audio configuration
CN113596673A (zh) * 2021-07-14 2021-11-02 宁波旗芯电子科技有限公司 Ar眼镜扬声器的定向发声方法、装置和发声设备
GB2613558A (en) * 2021-12-03 2023-06-14 Nokia Technologies Oy Adjustment of reverberator based on source directivity
CN114173256B (zh) * 2021-12-10 2024-04-19 中国电影科学技术研究所 一种还原声场空间及姿态追踪的方法、装置和设备
CN115103293B (zh) * 2022-06-16 2023-03-21 华南理工大学 一种面向目标的声重放方法及装置

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2343347B (en) * 1998-06-20 2002-12-31 Central Research Lab Ltd A method of synthesising an audio signal
AU756265B2 (en) * 1998-09-24 2003-01-09 Fourie, Inc. Apparatus and method for presenting sound and image
US8363865B1 (en) 2004-05-24 2013-01-29 Heather Bottum Multiple channel sound system using multi-speaker arrays
EP1691348A1 (en) * 2005-02-14 2006-08-16 Ecole Polytechnique Federale De Lausanne Parametric joint-coding of audio sources
EP1851656A4 (en) * 2005-02-22 2009-09-23 Verax Technologies Inc SYSTEM AND METHOD FOR FORMATTING MULTIMODE CONTENT OF SOUNDS AND METADATA
DE102005008366A1 (de) * 2005-02-23 2006-08-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Ansteuern einer Wellenfeldsynthese-Renderer-Einrichtung mit Audioobjekten
DE102006053919A1 (de) 2006-10-11 2008-04-17 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Erzeugen einer Anzahl von Lautsprechersignalen für ein Lautsprecher-Array, das einen Wiedergaberaum definiert
JP4973919B2 (ja) * 2006-10-23 2012-07-11 ソニー株式会社 出力制御システムおよび方法、出力制御装置および方法、並びにプログラム
RU2443075C2 (ru) * 2007-10-09 2012-02-20 Конинклейке Филипс Электроникс Н.В. Способ и устройство для генерации бинаурального аудиосигнала
EP2056627A1 (en) * 2007-10-30 2009-05-06 SonicEmotion AG Method and device for improved sound field rendering accuracy within a preferred listening area
RU2439717C1 (ru) * 2008-01-01 2012-01-10 ЭлДжи ЭЛЕКТРОНИКС ИНК. Способ и устройство для обработки звукового сигнала
US8315396B2 (en) * 2008-07-17 2012-11-20 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus and method for generating audio output signals using object based metadata
JP5326910B2 (ja) * 2009-01-20 2013-10-30 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US9552845B2 (en) 2009-10-09 2017-01-24 Dolby Laboratories Licensing Corporation Automatic generation of metadata for audio dominance effects
TWI443646B (zh) * 2010-02-18 2014-07-01 Dolby Lab Licensing Corp 音訊解碼器及使用有效降混之解碼方法
CN113490132B (zh) * 2010-03-23 2023-04-11 杜比实验室特许公司 音频再现方法和声音再现系统
JP5655378B2 (ja) * 2010-06-01 2015-01-21 ヤマハ株式会社 音像制御装置、およびプログラム
US20110317841A1 (en) * 2010-06-25 2011-12-29 Lloyd Trammell Method and device for optimizing audio quality
KR101747299B1 (ko) * 2010-09-10 2017-06-15 삼성전자주식회사 데이터 객체 디스플레이 방법 및 장치와 컴퓨터로 읽을 수 있는 저장 매체
CA3151342A1 (en) * 2011-07-01 2013-01-10 Dolby Laboratories Licensing Corporation System and tools for enhanced 3d audio authoring and rendering
TWI651005B (zh) * 2011-07-01 2019-02-11 杜比實驗室特許公司 用於適應性音頻信號的產生、譯碼與呈現之系統與方法
WO2013006322A1 (en) 2011-07-01 2013-01-10 Dolby Laboratories Licensing Corporation Sample rate scalable lossless audio coding
UA107304C2 (uk) * 2011-07-01 2014-12-10 Система та інструментальні засоби для удосконаленої авторської розробки та представлення тривимірних аудіоданих
RU2613731C2 (ru) * 2012-12-04 2017-03-21 Самсунг Электроникс Ко., Лтд. Устройство предоставления аудио и способ предоставления аудио
US9338420B2 (en) * 2013-02-15 2016-05-10 Qualcomm Incorporated Video analysis assisted generation of multi-channel audio data
RS1332U (en) 2013-04-24 2013-08-30 Tomislav Stanojević FULL SOUND ENVIRONMENT SYSTEM WITH FLOOR SPEAKERS

Also Published As

Publication number Publication date
BR122017004541A2 (pt) 2019-09-03
HK1249688A1 (zh) 2018-11-02
RU2017130902A3 (pt) 2020-12-08
IN2015MN01790A (pt) 2015-08-28
US9992600B2 (en) 2018-06-05
US20170238116A1 (en) 2017-08-17
IL290671B2 (en) 2024-05-01
ES2650541T3 (es) 2018-01-19
RU2015133695A (ru) 2017-02-20
JP6607904B2 (ja) 2019-11-20
AU2021261862A1 (en) 2021-12-02
MX342792B (es) 2016-10-12
RU2630955C9 (ru) 2017-09-29
JP2016511990A (ja) 2016-04-21
JP2016146642A (ja) 2016-08-12
US11564051B2 (en) 2023-01-24
AU2018202867A1 (en) 2018-05-17
JP6250084B2 (ja) 2017-12-20
AU2016200037B2 (en) 2018-02-01
EP3668121A1 (en) 2020-06-17
MY172606A (en) 2019-12-05
EP3282716B1 (en) 2019-11-20
AU2021261862B2 (en) 2023-11-09
IL239782A (en) 2016-06-30
JP2021114796A (ja) 2021-08-05
IL290671B1 (en) 2024-01-01
CA2898885C (en) 2016-05-10
IL287080B (en) 2022-04-01
IL309028A (en) 2024-02-01
KR20230144652A (ko) 2023-10-16
RU2764227C1 (ru) 2022-01-14
JP2023100966A (ja) 2023-07-19
AU2018202867B2 (en) 2019-10-24
KR101619760B1 (ko) 2016-05-11
CN107426666B (zh) 2019-06-18
HK1215339A1 (zh) 2016-08-19
KR20150103754A (ko) 2015-09-11
RU2630955C2 (ru) 2017-09-14
CN107396278A (zh) 2017-11-24
BR112015018993A2 (pt) 2017-07-18
IL245897B (en) 2019-05-30
US10652684B2 (en) 2020-05-12
MX2015010786A (es) 2015-11-26
US20210352426A1 (en) 2021-11-11
BR122017004541B1 (pt) 2022-09-06
BR122022005121B1 (pt) 2022-06-14
RU2017130902A (ru) 2019-02-05
IL245897A0 (en) 2016-07-31
AU2020200378A1 (en) 2020-02-13
IL290671A (en) 2022-04-01
EP3282716A1 (en) 2018-02-14
EP2926571B1 (en) 2017-10-18
CN107426666A (zh) 2017-12-01
RU2742195C2 (ru) 2021-02-03
CN107396278B (zh) 2019-04-12
KR102586356B1 (ko) 2023-10-06
US9674630B2 (en) 2017-06-06
BR112015018993B1 (pt) 2023-11-28
AU2024200627A1 (en) 2024-02-22
AU2014241011A1 (en) 2015-07-23
KR102160406B1 (ko) 2020-10-05
CN107465990A (zh) 2017-12-12
US20230269551A1 (en) 2023-08-24
CA2898885A1 (en) 2014-10-02
SG11201505429RA (en) 2015-08-28
EP2926571A1 (en) 2015-10-07
WO2014159272A1 (en) 2014-10-02
JP5897778B1 (ja) 2016-03-30
JP2020025310A (ja) 2020-02-13
UA113344C2 (xx) 2017-01-10
US20200336855A1 (en) 2020-10-22
KR20210149191A (ko) 2021-12-08
AU2014241011B2 (en) 2016-01-28
AU2016200037A1 (en) 2016-01-28
US11019447B2 (en) 2021-05-25
US20180167756A1 (en) 2018-06-14
AU2020200378B2 (en) 2021-08-05
HK1245557B (zh) 2020-05-08
CN107465990B (zh) 2020-02-07
US11979733B2 (en) 2024-05-07
HK1246552B (zh) 2020-07-03
IL266096B (en) 2021-12-01
JP6877510B2 (ja) 2021-05-26
KR20160046924A (ko) 2016-04-29
KR102332632B1 (ko) 2021-12-02
CN105075292A (zh) 2015-11-18
IL266096A (en) 2019-06-30
IL239782A0 (en) 2015-08-31
IL287080A (en) 2021-12-01
JP7280916B2 (ja) 2023-05-24
KR20200113004A (ko) 2020-10-05
HK1246553A1 (zh) 2018-09-07
US20160007133A1 (en) 2016-01-07
JP2018067931A (ja) 2018-04-26
CN105075292B (zh) 2017-07-25

Similar Documents

Publication Publication Date Title
AU2020200378B2 (en) Rendering of audio objects with apparent size to arbitrary loudspeaker layouts

Legal Events

Date Code Title Description
B09A Decision: intention to grant [chapter 9.1 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 10/03/2014, OBSERVADAS AS CONDICOES LEGAIS

B25G Requested change of headquarter approved

Owner name: DOLBY INTERNATIONAL AB (IE) ; DOLBY LABORATORIES LICENSING CORPORATION (US)