BR112015018993B1 - Método e aparelho - Google Patents

Método e aparelho Download PDF

Info

Publication number
BR112015018993B1
BR112015018993B1 BR112015018993-8A BR112015018993A BR112015018993B1 BR 112015018993 B1 BR112015018993 B1 BR 112015018993B1 BR 112015018993 A BR112015018993 A BR 112015018993A BR 112015018993 B1 BR112015018993 B1 BR 112015018993B1
Authority
BR
Brazil
Prior art keywords
virtual source
audio object
audio
playback
data
Prior art date
Application number
BR112015018993-8A
Other languages
English (en)
Other versions
BR112015018993A2 (pt
Inventor
Antonio Mateos Sole
Nicolas R. Tsingos
Original Assignee
Dolby International Ab
Dolby Laboratories Licensing Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dolby International Ab, Dolby Laboratories Licensing Corporation filed Critical Dolby International Ab
Priority to BR122022005121-9A priority Critical patent/BR122022005121B1/pt
Priority to BR122017004541-5A priority patent/BR122017004541B1/pt
Publication of BR112015018993A2 publication Critical patent/BR112015018993A2/pt
Publication of BR112015018993B1 publication Critical patent/BR112015018993B1/pt

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S5/00Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation 
    • H04S5/005Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation  of the pseudo five- or more-channel type, e.g. virtual surround
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/008Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/02Spatial or constructional arrangements of loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/305Electronic adaptation of stereophonic audio signals to reverberation of the listening space
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/01Multi-channel, i.e. more than two input channels, sound reproduction with two speakers wherein the multi-channel information is substantially preserved
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/13Aspects of volume control, not necessarily automatic, in stereophonic sound systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/15Aspects of sound capture and related signal processing for recording or reproduction

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Stereophonic System (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)

Abstract

TRANSFORMAÇÃO DE OBJETOS DE ÁUDIO COM TAMANHO APARENTE PARA LEIAUTES DE ALTO-FALANTE ARBITRÁRIOS. Múltiplas localizações de fonte virtual podem ser definidas para um volume dentro do qual objetos de áudio podem se mover. Um processo de ajuste para transformar dados de áudio pode envolver receber dados de localização de alto-falante de reprodução e pré-computar valores de ganho para cada uma das fontes virtuais de acordo com os dados de localização de alto-falante de reprodução e a localização de fonte virtual. Os valores de ganho podem ser armazenados e utilizados durante o "tempo de execução", durante o qual dados de reprodução de áudio são transformados para os alto-falantes do ambiente de reprodução. Durante o tempo de execução, para cada objeto de áudio, contribuições de localizações de fonte virtual dentro de uma área ou um volume definido pelos dados de posição de objeto de áudio e pelos dados de tamanho de objeto de áudio podem ser computadas. Um conjunto de valores de ganho para cada canal de saída do ambiente de reprodução pode ser computado com base, pelo menos em parte, nas contribuições computadas. Cada canal de saída pode corresponder a pelo menos um alto-falante de (...).

Description

REFERÊNCIA CRUZADA A PEDIDOS RELACIONADOS
[0001] Este pedido reivindica prioridade do Pedido de Patente Es panhol N°. P201330461, depositado em 28 de Março de 2013 e Pedi do de Patente Provisório dos Estados Unidos N°. 61/833.581, deposi tado em 11 de Junho de 2013, cada um dos quais é aqui incorporado por referência na sua totalidade.
CAMPO TÉCNICO
[0002] Esta divulgação se refere à criação e transformação de dados de reprodução de áudio. Em particular, esta divulgação se refere à cria ção e transformação de dados de reprodução de áudio para ambientes de reprodução, tal como sistemas de reprodução de som de cinema.
ANTECEDENTES
[0003] Desde a introdução do som com filme em 1927 tem havido uma evolução constante da tecnologia usada para capturar a intenção artística da trilha sonora cinematográfica e reproduzi-la em um ambi ente de cinema. Na década de 1930, o som sincronizado no disco deu lugar ao som de área variável no filme, que foi ainda melhorado na dé cada de 1940 com considerações acústicas teatrais e projeto melhora do de alto-falante, juntamente com a introdução precoce de gravação de múltiplas trilhas e replay orientável (usando tons de controle para mover sons). Na década de 1950 e 1960, a separação magnética de filme permitiu reprodução em múltiplos canais no teatro, introdução canais surround e até cinco canais de tela em teatros premium.
[0004] Na década de 1970 Dolby introduziu redução de ruído, tan to em pós-produção quanto no filme, juntamente com um meio eficaz em custo de codificar e distribuir mixes com 3 canais de tela e um ca nal surround mono. A qualidade de som de cinema foi ainda melhora da nos anos 1980 com programas de redução de ruído e de certifica- ção Dolby Spectral Recording (SR), tal como THX. Dolby trouxe o som digital para o cinema durante a década de 1990 com um formato de canal 5.1 que fornece canais de tela esquerdo, central e direito discre tos, matrizes surround esquerda e direita e um canal subwoofer para efeitos de baixa frequência. Dolby Surround 7.1, introduzido em 2010, aumentou o número de canais surround, dividindo os canais surround esquerdo e direito existentes em quatro "zonas".
[0005] Como o número de canais aumenta e o leiaute de alto- falante faz a transição de uma matriz planar bidimensional (2D) para uma matriz tridimensional (3D) incluindo elevação, as tarefas de criar e transformar sons estão se tornando cada vez mais complexas. Méto dos e dispositivos melhorados seriam desejáveis.
SUMÁRIO
[0006] Alguns aspectos do assunto em questão descrito nesta di vulgação podem ser implementados em ferramentas para transformar dados de reprodução de áudio que incluem objetos de áudio criados sem referência a qualquer ambiente de reprodução particular. Como aqui utilizado, o termo "objeto de áudio"pode se referir a um fluxo de sinais de áudio e metadados associados. Os metadados podem indicar pelo menos a posição e o tamanho aparente do objeto de áudio. No en tanto, os metadados também podem indicar transformar dados de res trição, dados tipo conteúdo (por exemplo, diálogo, efeitos, etc.), dados de ganho, dados de trajetória, etc. Alguns objetos de áudio podem ser estáticos, ao passo que outros podem ter metadados variando no tem po: tais objetos de áudio podem se mover, podem mudar de tamanho e/ou podem ter outras propriedades que mudam ao longo do tempo.
[0007] Quando os objetos de áudio são monitorados ou reproduzi dos em um ambiente de reprodução, os objetos de áudio podem ser transformados de acordo com pelo menos os metadados de posição e tamanho. O processo de transformação pode envolver computar um conjunto de valores de ganho de objeto de áudio para cada canal de um conjunto de canais de saída. Cada canal de saída pode corres ponder a um ou mais alto-falantes de reprodução do ambiente de re produção.
[0008] Algumas implementações aqui descritas envolvem um pro cesso de "ajuste" que pode ocorrer antes de transformar quaisquer objetos de áudio particulares. O processo de ajuste que também pode ser aqui denominado como um primeiro estágio ou Estágio 1, pode envolver definir múltiplas localizações de fonte virtual em um volume dentro do qual os objetos de áudio podem se mover. Como aqui utili zada, uma "localização de fonte virtual"é uma localização de uma fon te de ponto estático. De acordo com essas implementações, o proces so de ajuste pode envolver receber dados de localização de alto- falante de reprodução e pré-computar valores de ganho de fonte virtual para cada uma das fontes virtuais de acordo com os dados de locali zação de alto-falante de reprodução e a localização de fonte virtual. Como aqui utilizado, o termo "dados de localização de alto-falante"po de incluir dados de localização indicando as posições de alguns ou de todos os alto-falantes do ambiente de reprodução. Os dados de locali zação podem ser proporcionados como coordenadas absolutas das localizações de alto-falantes de reprodução, por exemplo, coordena das Cartesianas, coordenadas esféricas, etc. Em alternativa, ou adici onalmente, os dados de localização podem ser fornecidos como coor denadas (por exemplo, por exemplo, coordenadas Cartesianas ou co ordenadas angulares) em relação a outras localizações de ambiente de reprodução, tal como "pontos doces"acústicos do ambiente de re produção.
[0009] Em algumas implementações, os valores de ganho de fonte virtual podem ser armazenados e utilizados durante o "tempo de exe cução", durante o qual dados de reprodução de áudio são transforma- dos para os alto-falantes do ambiente de reprodução. Durante o tempo de execução, para cada objeto de áudio, contribuições de localizações de fonte virtual dentro de uma área ou um volume definido pelos dados de posição de objeto de áudio e pelos dados de tamanho de objeto de áudio podem ser computadas. O processo de computar contribuições de localizações de fonte virtual pode envolver computar uma média ponderada de múltiplos valores de ganho de fonte virtual pré- computados, determinados durante o processo de ajuste, para locali zações de fonte virtual que estão dentro de uma área ou de um volu me de objeto de áudio definido pelo tamanho e pela localização do ob-jeto de áudio. Um conjunto de valores de ganho de objeto de áudio para cada canal de saída do ambiente de reprodução pode ser compu tado com base, pelo menos em parte, nas contribuições de fonte virtu ais computadas. Cada canal de saída pode corresponder a pelo me nos um alto-falante de reprodução do ambiente de reprodução.
[00010] Por conseguinte, alguns métodos aqui descritos envolvem a recepção de dados de reprodução de áudio que incluem um ou mais objetos de áudio. Os objetos de áudio podem incluir sinais de áudio e metadados associados. Os metadados podem incluir pelo menos da dos de posição de objeto de áudio e dados de tamanho de objeto de áudio. Os métodos podem envolver computar contribuições de fontes virtuais dentro de uma área ou um volume de objeto de áudio definido pelos dados de posição de objeto de áudio e pelos dados de tamanho de objeto de áudio. Os métodos podem envolver computar um conjun-to de valores de ganho de objeto de áudio para cada um de uma plura lidade de canais de saída com base, pelo menos em parte, nas contri buições computadas. Cada canal de saída pode corresponder a pelo menos um alto-falante de reprodução de um ambiente de reprodução. Por exemplo, o ambiente de reprodução pode ser um ambiente de sis tema de som de cinema.
[00011] O processo de computar contribuições de fontes virtuais pode envolver computar uma média ponderada de valores de ganho de fonte virtual das fontes virtuais dentro da área ou do volume de ob jeto de áudio. Os pesos para a média ponderada podem depender da posição do objeto de áudio, do tamanho do objeto de áudio e/ou de cada localização de fonte virtual dentro da área ou do volume de obje to de áudio.
[00012] Os métodos também podem envolver receber dados do ambiente de reprodução incluindo dados de localização de alto-falante de reprodução. Os métodos podem também envolver definir uma plu ralidade de localizações de fontes virtuais de acordo com os dados de ambiente de reprodução e computar, para cada uma das localizações de fontes virtuais, um valor de ganho de fonte virtual para cada um da pluralidade de canais de saída. Em algumas implementações, cada uma das localizações de fonte virtual pode corresponder a uma locali zação dentro do ambiente de reprodução. No entanto, em algumas implementações, pelo menos algumas das localizações de fonte virtual podem corresponder a localizações fora do ambiente de reprodução.
[00013] Em algumas implementações, as localizações de fonte vir tual podem ser espaçadas uniformemente ao longo dos eixos x, y e z. No entanto, em algumas implementações, o espaçamento pode não ser o mesmo em todas as direções. Por exemplo, as localizações de fonte virtual podem ter um primeiro espaçamento uniforme ao longo dos eixos x e y e um segundo espaçamento uniforme ao longo de um eixo z. O processo de computar o conjunto de valores de ganho de objeto de áudio para cada um da pluralidade de canais de saída pode envolver computações independentes de contribuições de fontes virtu ais ao longo dos eixos x, y e z. Em implementações alternativas, as localizações de fonte virtual podem ser espaçadas de maneira não uni forme.
[00014] Em algumas implementações, o processo de computar o valor de ganho de objeto de áudio para cada um da pluralidade de ca nais de saída pode envolver determinar um valor de ganho (gl(xo,yo,zo;s)) para um objeto de áudio de tamanho (s) a ser transfor mado na localização xo,yo,zo. Por exemplo, o valor de ganho de objeto de áudio (gl(xo,yo,zo;s)) pode ser expresso como: em que (xvs, yvs, zvs) representa uma localização de fonte virtual, gl(xvs, yvs, zvs) representa um valor de ganho para o canal l para a localização de fonte virtual xvs, yvs, zvs e w(xvs, yvs, zvs; xo, yo, zo;s)re presenta uma ou mais funções de peso para gl(xvs, yvs, zvs)determina das, pelo menos em parte, com base na localização (xo, yo, zo) do obje to de áudio, no tamanho (s) do objeto de áudio e na localização de fon te virtual (xvs, yvs, zvs).
[00015] De acordo com algumas implementações, gl(xvs, yvs, zvs) = gl(xvs)gl(yvs)gl(zvs), em que gl(xvs), gl(yvs) e gl(zvs) representam funções de ganho independentes de x, y e z. Em algumas de tais implementa ções, as funções de peso pode fatorar como: em que wx(xvs; xo; s), wy(yvs; yo; s) e wz(zvs;zo; s)represen-tamfunções de peso independentes de xvS, yvs e zvs. De acordo com algumas de tais implementações, p pode ser uma função do tamanho do objeto áudio (s).
[00016] Alguns desses métodos podem envolver armazenar valores de ganho de fonte virtual computados em um sistema de memória. O processo de computar contribuições de fontes virtuais dentro da área ou do volume do objeto de áudio pode envolver recuperar, do sistema de memória, valores de ganho de fonte virtual computados correspon dentes a uma posição e um tamanho de objeto de áudio e interpolar entre os valores de ganho de fonte virtual computados. O processo de interpolação entre os valores de ganho de fonte virtual computados pode envolver: determinar uma pluralidade de localizações de fonte virtual vizinhas próximas da posição de objeto de áudio; determinar valores de ganho de fonte virtual computados para cada uma das loca lizações de fonte virtual vizinhas; determinar uma pluralidade de dis tâncias entre a posição de objeto de áudio e cada uma das localiza ções de fonte virtual vizinhas; e interpolar entre os valores de ganho de fonte virtual computados de acordo com a pluralidade de distâncias.
[00017] Em algumas implementações, os dados de ambiente de reprodução podem incluir dados de limite de ambiente de reprodução. O método pode envolver determinar que uma área ou um volume de objeto de áudio inclui uma área ou um volume externo fora de um limi te de ambiente de reprodução e aplicar um fator de desvanecimento com base, pelo menos em parte, na área ou no volume externo. Al gunsmétodos podem envolver determinar que um objeto de áudio po de estar dentro de uma distância de limiar de um limite de ambiente de reprodução e não fornecer nenhum sinal de alimentação de alto- falante para alto-falantes de reprodução num limite oposto do ambien te de reprodução. Em algumas implementações, uma área ou um vo lume de objeto de áudio podem ser um retângulo, um prisma retangu lar, um círculo, uma esfera, uma elipse e/ou um elipsoide.
[00018] Alguns métodos podem envolver decorrelacionar pelo me nos alguns dos dados de reprodução de áudio. Por exemplo, os méto dos podem envolver decorrelacionar dados de reprodução de áudio para objetos de áudio tendo um tamanho de objeto de áudio que ultra passa um valor de limiar.
[00019] Métodos alternativos são aqui descritos. Alguns desses mé todos envolvem receber dados de ambiente de reprodução incluindo dados de localização de alto-falante de reprodução e dados de limite de ambiente de reprodução, e receber dados de reprodução de áudio incluindo um ou mais metadados de objetos de áudio e metadados as sociados. Os metadados podem incluir dados de posição de objeto de áudio e dados de tamanho de objeto de áudio. Os métodos podem en volver determinar que uma área ou um volume de objeto de áudio, de finidos pelos dados de posição de objeto de áudio e dados de tamanho de objeto de áudio, incluem uma área ou um volume externo fora de um limite de ambiente de reprodução e determinar um fator de desva necimento com base, pelo menos em parte, na área ou no volume ex terno. Os métodos podem envolver computar um conjunto de valores de ganho para cada um da pluralidade de canais de saída com base, pelo menos em parte, nos metadados associados e no fator de desva-necimento. Cada canal de saída pode corresponder a pelo menos um alto-falante de reprodução do ambiente de reprodução. O fator de des vanecimento pode ser proporcional à área externa.
[00020] Os métodos também podem envolver determinar que um objeto de áudio pode estar dentro de uma distância de limiar de um limite de ambiente de reprodução e não fornecer nenhum sinal de ali mentação de alto-falante para alto-falantes de reprodução num limite oposto do ambiente de reprodução.
[00021] Os métodos também podem envolver computar contribui ções de fontes virtuais dentro da área ou do volume de objeto de áu dio. Os métodos podem envolver definir uma pluralidade de localiza ções de fontes virtuais de acordo com os dados de ambiente de repro dução e computar, para cada uma das localizações de fontes virtuais, um valor de ganho de fonte virtual para cada um da pluralidade de ca nais de saída. As localizações de fonte virtual podem ou não podem ser uniformemente espaçadas, dependendo da implementação parti cular.
[00022] Algumas implementações podem ser manifestadas em um ou mais meios não transitórios tendo software armazenado nos mes mos. O software pode incluir instruções para controlar um ou mais dis positivos para receber dados de reprodução de áudio incluindo um ou mais objetos de áudio. Os objetos de áudio podem incluir sinais de áu dio e metadados associados. Os metadados podem incluir pelo menos dados de posição de objeto de áudio e dados de tamanho de objeto de áudio. O software pode incluir instruções para computar, para um obje to de áudio dos um ou mais objetos de áudio, contribuições de fontes virtuais dentro de uma área ou de um volume definido pelos dados de posição de objeto de áudio e pelos dados de tamanho de objeto de áudio e computar um conjunto de valores de ganho de objeto de áudio para cada um de uma pluralidade de canais de saída com base, pelo menos em parte, nas contribuições computadas. Cada canal de saída pode corresponder a pelo menos um alto-falante de reprodução de um ambiente de reprodução.
[00023] Em algumas implementações, o processo de computar con tribuições de fontes virtuais pode envolver computar uma média pon derada de valores de ganho de fonte virtual das fontes virtuais dentro da área ou do volume de objeto de áudio. Os pesos para a média pon derada podem depender da posição do objeto de áudio, do tamanho do objeto de áudio e/ou de cada localização de fonte virtual dentro da área ou do volume de objeto de áudio.
[00024] O software pode incluir instruções para receber dados de ambiente de reprodução incluindo dados de localização de alto-falante de reprodução. O software pode incluir instruções para definir uma plu ralidade de localizações de fontes virtuais de acordo com os dados de ambiente de reprodução e computar, para cada uma das localizações de fontes virtuais, um valor de ganho de fonte virtual para cada um da pluralidade de canais de saída. Cada uma das localizações de fonte virtual pode corresponder a uma localização dentro do ambiente de reprodução. Em algumas implementações, pelo menos algumas das localizações de fonte virtual podem corresponder a localizações fora do ambiente de reprodução.
[00025] De acordo com algumas implementações, as localizações de fonte virtual podem ser espaçadas de modo uniforme. Em algumas implementações, as localizações de fonte virtual podem ter um primei roespaçamento uniforme ao longo dos eixos x e y e um segundo es paçamento uniforme ao longo de um eixo z. O processo de computar o conjunto de valores de ganho de objeto de áudio para cada um da plu ralidade de canais de saída pode envolver computações independen tes de contribuições de fontes virtuais ao longo dos eixos x, y e z.
[00026] Vários dispositivos e aparelhos são descritos aqui. Alguns desse aparelhos podem incluir um sistema de interface e um sistema de lógica. O sistema de interface pode incluir uma interface de rede. Em algumas implementações, o aparelho pode incluir um dispositivo de memória. O sistema de interface pode incluir uma interface entre o sistema de lógica e o dispositivo de memória.
[00027] O sistema de lógica pode ser adaptado para receber, do sistema de interface, dados de reprodução de áudio incluindo um ou mais objetos de áudio. Os objetos de áudio podem incluir sinais de áu dio e metadados associados. Os metadados podem incluir pelo menos dados de posição de objeto de áudio e dados de tamanho de objeto de áudio. O sistema de lógica pode ser adaptado para computar, para um objeto de áudio a partir dos um ou mais objetos de áudio, contribui ções de fontes virtuais dentro de uma área ou um volume de objeto de áudio definido pelos dados de posição de objeto de áudio e pelos da dos de tamanho de objeto de áudio. O sistema de lógica pode ser adaptado para computar um conjunto de valores de ganho de objeto de áudio para cada um de uma pluralidade de canais de saída com base, pelo menos em parte, nas contribuições computadas. Cada ca nal de saída pode corresponder a pelo menos um alto-falante de re produção de um ambiente de reprodução.
[00028] O processo de computar contribuições de fontes virtuais pode envolver computar uma média ponderada de valores de ganho de fonte virtual das fontes virtuais dentro da área ou do volume de ob jeto de áudio. Pesos para a média ponderada podem depender da po sição do objeto de áudio, do tamanho do objeto de áudio e de cada localização de fonte virtual dentro da área ou do volume de objeto de áudio. O sistema de lógica pode ser adaptado para receber, do siste ma de interface, dados de ambiente de reprodução incluindo dados de localização de alto-falante de reprodução.
[00029] O sistema de lógica pode ser adaptado para definir uma pluralidade de localizações de fontes virtuais de acordo com os dados de ambiente de reprodução e computar, para cada uma das localiza ções de fontes virtuais, um valor de ganho de fonte virtual para cada um da pluralidade de canais de saída. Cada uma das localizações de fonte virtual pode corresponder a uma localização dentro do ambiente de reprodução. No entanto, em algumas implementações, pelo menos algumas das localizações de fonte virtual podem corresponder a loca lizações fora do ambiente de reprodução. As localizações de fonte vir tual podem ou não podem ser uniformemente espaçadas, dependendo da implementação. Em algumas implementações, as localizações de fonte virtual podem ter um primeiro espaçamento uniforme ao longo dos eixos x e y e um segundo espaçamento uniforme ao longo de um eixo z. O processo de computar o conjunto de valores de ganho de objeto de áudio para cada um da pluralidade de canais de saída pode envolver computações independentes de contribuições de fontes virtu ais ao longo dos eixos x, y e z.
[00030] O aparelho também pode incluir uma interface de usuário. O sistema de lógica pode ser adaptado para receber entrada de usuá- rio, tal como dados de tamanho de objeto de áudio via a interface de usuário. Em alguma implementação, o sistema de lógica pode ser adaptado para escalonar os dados de tamanho de objeto de áudio de entrada.
[00031] Detalhes de uma ou mais implementações da matéria obje to descrita neste relatório descritivo são estabelecidos nos desenhos anexos e na descrição abaixo. Outras características, aspectos e van tagens se tornarão evidentes a partir da descrição, dos desenhos e das reivindicações. Notem que as dimensões relativas das figuras se guintes podem não ser desenhadas em escala.
BREVE DESCRIÇÃO DOS DESENHOS
[00032] A Figura 1 mostra um exemplo de um ambiente de repro dução tendo uma configuração Dolby Surround 5.1.
[00033] A Figura 2 mostra um exemplo de um ambiente de repro dução tendo uma configuração Dolby Surround 7.1.
[00034] A Figura 3 mostra um exemplo de um ambiente de repro dução tendo uma configuração de som Hamasaki 22.2 surround.
[00035] A Figura 4A mostra um exemplo de uma interface gráfica de usuário (GUI) que retrata zonas de alto-falante em elevações varia das em um ambiente de reprodução virtual.
[00036] A Figura 4B mostra um exemplo de outro ambiente de re produção.
[00037] A Figura 5A é um diagrama de fluxo que fornece uma visão geral de um método de processamento de áudio.
[00038] A Figura 5B é um diagrama de fluxo que fornece um exem plo de um processo de ajuste.
[00039] A Figura 5C é um diagrama de fluxo que fornece um exem plo de um processo de tempo de execução para computar valores de ganho para objetos de áudio recebidos de acordo com valores de ga nhopré-computados para localizações de fonte virtual.
[00040] A Figura 6A mostra um exemplo de localizações de fonte virtual relativas a um ambiente de reprodução.
[00041] A Figura 6B mostra um exemplo alternativo de localizações de fonte virtual relativas a um ambiente de reprodução.
[00042] As Figuras 6C-6F mostram exemplos de aplicação de téc-nicaspanorâmicas de campo próximo e de campo distante a objetos de áudio em diferentes localizações.
[00043] A Figura 6G ilustra um exemplo de um ambiente de repro dução tendo um alto-falante em cada canto de um quadrado tendo um comprimento de borda igual a 1.
[00044] A Figura 7 mostra um exemplo de contribuições de fontes virtuais dentro de uma área definida por dados de posição de objeto de áudio e dados de tamanho de objeto de áudio.
[00045] As Figuras 8A e 8B mostram um objeto de áudio em duas posições dentro de um ambiente de reprodução.
[00046] A Figura 9 é um diagrama de fluxo que delineia um método para determinar um fator de desvanecimento com base, pelo menos em parte, em quanto de uma área ou de um volume de um objeto de áudio se estende para fora de um limite de um ambiente de reprodução.
[00047] A Figura 10 é um diagrama de blocos que proporciona exemplos de componentes de um aparelho para criar e/ou transformar.
[00048] A Figura 11A é um diagrama de blocos que representa al guns componentes que podem ser usados para criação de conteúdo de áudio.
[00049] A Figura 11B é um diagrama de blocos que representa al guns componentes que podem ser usados para reprodução de áudio num ambiente de reprodução.
[00050] Números de referência e designações similares nos vários desenhos indicam elementos semelhantes.
DESCRIÇÃO DE MODALIDADES DE EXEMPLO
[00051] A descrição seguinte é dirigida a certas implementações para os propósitos de descrever alguns aspectos inovadores desta di vulgação, assim como exemplos de contextos nos quais estes aspec tos inovadores podem ser implementados. No entanto, os ensinamen tos aqui apresentados podem ser aplicados de várias maneiras dife rentes. Por exemplo, embora várias implementações tenham sido des critas em termos de ambientes de reprodução particulares, os ensina mentos deste documento são amplamente aplicáveis a outros ambien tes de reprodução conhecidos, assim como ambientes de reprodução que possam ser introduzidos no futuro. Mais ainda, as implementações descritas podem ser implementadas em várias ferramentas de criação e/ou transformação as quais podem ser implementadas numa varieda de de hardware, software, firmware, etc. Por conseguinte, os ensina mentos desta divulgação não se destinam a ser limitados às imple mentações mostradas nas figuras e/ou descritas neste documento, mas em vez disso têm uma ampla aplicabilidade.
[00052] A Figura 1 mostra um exemplo de um ambiente de repro dução tendo uma configuração Dolby Surround 5.1. Dolby Surround 5.1 foi desenvolvido na década de 1990, mas esta configuração ainda é amplamente implantada em ambientes de sistema de som de cine ma. Um projetor 105 pode ser configurado para projetar imagens de vídeo, por exemplo, para um filme, na tela 150. Dados de reprodução de áudio podem ser sincronizados com as imagens de vídeo e proces sados pelo processador de som 110. Os amplificadores de potência 115 podem fornecer sinais de alimentação de alto-falante para alto- falantes do ambiente de reprodução 100.
[00053] A configuração Dolby Surround 5.1 inclui matriz surround esquerda 120 e matriz surround direita 125, cada uma das quais inclui um grupo de alto-falantes que são orientados por conjugação por um único canal. A configuração Dolby Surround 5.1 também inclui canais separados para o canal de tela esquerdo 130, o canal de tela central 135 e o canal de tela direito 140. Um canal separado para o subwoofer 145 é fornecido para efeitos de baixa frequência (LFE).
[00054] Em 2010, a Dolby forneceu intensificações para som de ci nema digital introduzindo Dolby Surround 7.1. A Figura 2 mostra um exemplo de um ambiente de reprodução tendo uma configuração Dol by Surround 7.1. Um projetor digital 205 pode ser configurado para re ceber dados de vídeo digitais e para projetar imagens de vídeo na tela 150. Dados de reprodução de áudio podem ser processados pelo pro cessador de som 210. Os amplificadores de potência 215 podem for necer sinais de alimentação de alto-falante para alto-falantes do ambi ente de reprodução 200.
[00055] A configuração Dolby Surround 7.1 inclui a matriz surround esquerda 220 e a matriz surround direita 225, cada uma das quais po de ser acionada por um único canal. Como Dolby Surround 5.1, a con figuração Dolby Surround 7.1 inclui canais separados para o canal de tela esquerdo 230, o canal de tela central 235, o canal de tela direito 240 e o sobwoofer 245. No entanto, Dolby Surround 7.1 aumenta o número de canais surround dividindo os canais surround esquerdo e direito de Dolby Surround 5.1 em quatro zonas: além da matriz sur round esquerda 220 e da matriz surround direita 225, canais separa-dossão incluídos para os alto-falantes surround traseiros esquerdos 224 e os alto-falantes surround traseiros direitos 226. O aumento do número de zonas surround dentro do ambiente de reprodução 200 po de melhorar significativamente a localização do som.
[00056] Em um esforço para criar um ambiente mais imersivo, alguns ambientes de reprodução podem ser configurados com elevado número de alto-falantes, acionados por elevados números de canais. Mais ainda, alguns ambientes de reprodução podem incluir alto-falantes implantados em várias elevações, alguns dos quais podem estar acima de uma zona de assentamento do ambiente de reprodução.
[00057] A Figura 3 mostra um exemplo de um ambiente de repro dução tendo uma configuração de som Hamasaki 22.2 surround. Ha- masaki 22.2 foi desenvolvido no NHK Science & Technology Research Laboratories no Japão como o componente de som surround da Tele visão de Ultra-alta Definição. Hamasaki 22.2 fornece 24 canais de alto- falantes os quais podem ser utilizados para acionar alto-falantes dis postos em três camadas. A camada de alto-falante superior 310 do ambiente de reprodução 300 pode ser acionada por 9 canais. A cama da de alto-falante do meio 320 pode ser acionada por 10 canais. A camada de alto-falante inferior 330 pode ser acionada por 5 canais, dos quais dois são para os subwoofers 345a e 345b.
[00058] Por conseguinte, a tendência moderna é incluir não só mais alto-falantes e mais canais, mas também para incluir alto-falantes em diferentes alturas. À medida que o número de canais aumenta e o lei aute de alto-falante faz a transição de uma matriz 2D para uma matriz 3D, as tarefas de posicionar e transformar sons se torna cada vez mais difícil. Por conseguinte, o presente cessionário desenvolveu vá rias ferramentas, bem como interfaces de usuário relacionadas, as quais aumentam a funcionalidade e/ou reduzem a complexidade de criação para um sistema de som de áudio 3D. Algumas destas ferra mentassão descritas em detalhes com referência às Figuras 5A-19D do Pedido de Patente Provisório US 61/636.102, depositado em 20 de abril de 2012 e intitulado “System and Tools for Enhanced 3D Áudio Authoring and Rendering” (o “Pedido Authoring and Rendering”) que é aqui incorporado por referência.
[00059] A Figura 4A mostra um exemplo de uma interface gráfica de usuário (GUI) que retrata zonas de alto-falante em elevações varia das em um ambiente de reprodução virtual. A GUI 400 pode, por exemplo, ser exibida num dispositivo de exibição de acordo com ins- truções de um sistema de lógica de acordo com sinais recebidos de dispositivos de entrada de usuário, etc. Alguns de tais dispositivos são descritos abaixo com referência à Figura 10.
[00060] Como aqui utilizado com referência a ambientes de repro dução virtuais, tais como o ambiente de reprodução virtual 404, o ter mo "zona de alto-falante" geralmente se refere a uma construção lógi ca que pode ou não pode ter uma correspondência de um para um com um alto-falante de reprodução de um ambiente de reprodução re al. Por exemplo, uma "localização de zona de alto-falante" pode ou não pode corresponder a uma localização de alto-falante de reprodu ção particular de um ambiente de reprodução de cinema. Em vez dis so, o termo "localização de zona de alto-falante" pode se referir gene ricamente a uma zona de um ambiente de reprodução virtual. Em al-gumasimplementações, uma zona de alto-falante de um ambiente de reprodução virtual pode corresponder a um alto-falante virtual, por exemplo, via o uso de tecnologia de virtualização, tal como Dolby He adphone,™ (por vezes denominado Mobile Surround™), que cria um ambiente de som surround virtual em tempo real usando um conjunto de fones de ouvido estéreo de dois canais. Na GUI 400, há sete zonas de alto-falante 402a em uma primeira elevação e duas zonas de alto- falante 402b em uma segunda elevação, perfazendo um total de nove zonas de alto-falante no ambiente de reprodução virtual 404. Neste exemplo, as zonas de alto-falante 1-3 estão na área frontal 405 do ambiente de reprodução virtual 404. A área frontal 405 pode corres-ponder, por exemplo, a uma área de um ambiente de reprodução de cinema no qual uma tela 150 está localizada, a uma área de uma casa na qual uma tela de televisão está localizada, etc.
[00061] Aqui, a zona de alto-falante 4 corresponde geralmente a alto-falantes na área esquerda 410 e a zona 5 corresponde a alto- falantes na área direita 415 do ambiente de reprodução virtual 404. A zona de alto-falante 6 corresponde a uma área traseira esquerda 412 e a zona de alto-falante 7 corresponde a uma área traseira direita 414 do ambiente de reprodução virtual 404. A zona de alto-falante 8 cor responde a alto-falante em uma área superior 420a e a zona de alto- falante 9 corresponde a alto-falantes em uma área superior 420b que pode ser uma área de teto virtual, tal como uma área do teto virtual 520 mostrada nas Figuras 5D e 5E. Por conseguinte, e como descrito em mais detalhes no Pedido Authoring and Rendering, as localizações das zonas de alto-falante 1-9 que são mostradas na Figura 4A podem ou não podem corresponder às localizações de alto-falantes de repro-dução de um ambiente de reprodução real. Mais ainda, outras imple mentações podem incluir mais ou menos zonas de alto-falante e/ou elevações.
[00062] Em várias implementações descritas no Pedido Authoring and Rendering, uma interface de usuário, tal como GUI 400, pode ser usada como parte de uma ferramenta de criação e/ou uma ferramenta de transformação. Em algumas implementações, a ferramenta de cria ção e/ou a ferramenta de transformação pode ser implementada via sof tware armazenado em um ou mais meios não transitórios. A ferramenta de criação e/ou a ferramenta de transformação pode ser implementada (pelo menos em parte) por hardware, firmware, etc., tal como o sistema de lógica e outros dispositivos descritos abaixo com referência à Figura 10. Em algumas implementações de criação, uma ferramenta de cria ção associada pode ser usada para criar metadados para dados de áu dio associados. Os metadados podem, por exemplo, incluir dados indi cando a posição e/ou trajetória de um objeto de áudio num espaço tri dimensional, dados de restrição de zona de alto-falante, etc. Os meta dados podem ser criados com respeito às zonas de alto-falante 402 do ambiente de reprodução virtual 404 em vez de com respeito a um leiau te de alto-falante particular de um ambiente de reprodução real. A fer- ramenta de transformação pode receber dados de áudio e metadados associados e pode computar ganhos de áudio e sinais de alimentação de alto-falante para um ambiente de reprodução. Esses ganhos de áu dio e sinais de alimentação de alto-falante podem ser computados de acordo com um processo panorâmico de amplitude que pode criar uma percepção de que um som está vindo de uma posição P no ambiente de reprodução. Por exemplo, sinais de alimentação de alto-falante po dem ser fornecidos aos alto-falantes de reprodução 1 a N do ambiente de reprodução de acordo com a seguinte equação:
[00063] Na Equação 1, xi(t) representa o sinal de alimentação de alto-falante a ser aplicado ao alto-falante i, gi representa o fato de ga nho do canal correspondente, x(t) representa o sinal de áudio e tre presenta tempo. Os fatores de ganho podem ser determinados, por exemplo, de acordo com os métodos de panorâmicos de amplitude descritos na Seção 2, páginas 3-4 de V. Pulkki, Compensating Displa cement of Amplitude-Panned Virtual Sources(Áudio Engineering Soci ety (AES) International Conference on Virtual, Synthetic and Enter tainment Áudio), que é por meio deste incorporado por referência. Em algumas implementações, os ganhos podem ser dependentes de fre quência. Em algumas implementações, um retardo de tempo pode ser introduzido substituindo x(t) por x(t-?t).
[00064] Em algumas implementações de transformação, dados de reprodução de áudio criados com referência às zonas de alto-falante 402 podem ser mapeados para localizações de alto-falante de uma ampla faixa de ambientes de reprodução que podem estar em uma configuração Dolby Surround 5.1, uma configuração Dolby Surround 7.1, uma configuração Hamasaki 22,2 ou outra configuração. Por exemplo, com referência à Figura 2, uma ferramenta de transformação pode mapear dados de reprodução de áudio para zonas de alto-falante 4 e 5 para a matriz surround esquerda 220 e a matriz surround direita 225 de um ambiente de reprodução tendo uma configuração Dolby Surround 7.1. Dados de reprodução de áudio para zonas de alto- falante 1, 2 e 3 podem ser mapeados para o canal de tela esquerdo 230, o canal de tela direito 240 e o canal de tela central 235, respecti vamente. Dados de reprodução de áudio para zonas de alto-falante 6 e 7 podem ser mapeados para os alto-falantes surround traseiros es querdos 224 e os alto-falantes surround traseiros direitos 226.
[00065] A Figura 4B mostra um exemplo de outro ambiente de re produção. Em algumas implementações, uma ferramenta de renderi- zação pode mapear dados de reprodução de áudio para zonas de alto- falante 1, 2 e 3 para alto-falantes de tela correspondentes 455 do am biente de reprodução 450. A ferramenta de transformação pode ma pear dados de reprodução de áudio para zonas de alto-falante 4 e 5 para a matriz surround esquerda 460 e a matriz surround direita 465 e pode mapear os dados de reprodução de áudio para zonas de alto- falante 8 e 9 para os alto-falantes aéreos esquerdos 470A e alto- falantes aéreos direitos 470B. Dados de reprodução de áudio para zo nas de alto-falante 6 e 7 podem ser mapeados para os alto-falantes surround traseiros esquerdos 480a e os alto-falantes surround trasei ros direitos 480b.
[00066] Em algumas implementações de criação, uma ferramenta de criação pode ser usada para criar metadados para objetos de áu dio. Como observado acima, o termo "objeto de áudio"pode se referir a um fluxo de sinais de dados de áudio e metadados associados. Os metadados podem indicar a posição 3D do objeto de áudio, o tamanho aparente do objeto de áudio, restrições de transformação, bem como tipo de conteúdo (por exemplo, diálogo, efeitos), etc. Dependendo da implementação, os metadados podem incluir outros tipos de dados, tal como dados de ganho, dados de trajetória, etc. Alguns objetos de áu- dio podem ser estáticos, ao passo que outros podem se mover. Deta lhes do objeto de áudio podem ser criados ou transformados para os metadados associados que, entre outras coisas, podem indicar a posi ção do objeto de áudio num espaço tridimensional em um determinado ponto no tempo. Quando os objetos de áudio são monitorados ou re produzidos em um ambiente de reprodução, os objetos de áudio po dem ser transformados de acordo com seu metadados de posição e tamanho de acordo com o leiaute de alto-falante de reprodução do ambiente de reprodução.
[00067] A Figura 5A é um diagrama de fluxo que fornece uma visão geral de um método de processamento de áudio. Exemplos mais deta lhadossão descritos abaixo com referência às Figuras 5B et seq. Es tes métodos podem incluir mais ou menos blocos do que mostrados e aqui descritos e não são necessariamente realizados na ordem aqui mostrada. Estes métodos podem ser realizados, pelo menos em parte, por um aparelho, tal como aqueles mostrados nas Figuras 10-11B e descritos abaixo. Em algumas modalidades, estes métodos podem ser implementados, pelo menos em parte, por software armazenado em um ou mais meios não transitórios. O software pode incluir instruções para controlar um ou mais dispositivos para realizar os métodos aqui descritos.
[00068] No exemplo mostrado na Figura 5A, o método 500 começa com um processo de ajuste para determinar valores de ganho de fonte virtual para localizações de fonte virtual relativas a um ambiente de reprodução particular (bloco 505). A Figura 6A mostra um exemplo de localizações de fonte virtual relativas a um ambiente de reprodução. Por exemplo, o bloco 505 pode envolver a determinação de valores de ganho de fonte virtual das localizações de fonte virtual 605 relativas às localizações de alto-falante de reprodução 625 do ambiente de repro dução 600a. As localizações de fonte virtual 605 e as localizações de alto-falante de reprodução 625 são apenas exemplos. No exemplo mostrado na Figura 6A, as localizações de fonte virtual 605 são espa çadas uniformemente ao longo dos eixos x, y e z. No entanto, em im plementações alternativas, as localizações de fonte virtual 605 podem ser espaçadas de maneira diferente. Por exemplo, em algumas im plementações, as localizações de fonte virtual 605 podem ter um pri meiroespaçamento uniforme ao longo dos eixos x e y e um segundo espaçamento uniforme ao longo do eixo z. Em outras implementações, as localizações de fonte virtual 605 podem ser espaçadas de maneira não uniforme.
[00069] No exemplo mostrado na Figura 6A, o ambiente de repro dução 600a e o volume de fonte virtual 602a são coextensivos, de mo do que cada uma das localizações de fonte virtual 605 corresponda a uma localização dentro do ambiente de reprodução 600a. No entanto, em implementações alternativas, o ambiente de reprodução 600 e o volume de fonte virtual 602 podem não ser coextensivos. Por exemplo, pelo menos algumas das localizações de fonte virtual 605 podem cor responder a localizações fora do ambiente de reprodução 600.
[00070] A Figura 6B mostra um exemplo alternativo de localizações de fonte virtual relativas a um ambiente de reprodução. Neste exem plo, o volume de fonte virtual 602b se estende fora do ambiente de re produção 600b.
[00071] Voltando à Figura 5A, neste exemplo, o processo de ajuste do bloco 505 ocorre antes de transformar quaisquer objetos de áudio particulares. Em algumas implementações, os valores de ganho de fonte virtual determinados no bloco 505 podem ser armazenados num sistema de armazenamento. Os valores de ganho de fonte virtual ar mazenados podem ser utilizados durante um processo de "tempo de execução"de computação de valores de ganho de objeto de áudio pa ra objetos de áudio recebidos de acordo com pelo menos alguns dos valores de ganho de fonte virtual (bloco 510). Por exemplo, o bloco 510 pode envolver computar os valores de ganho de objeto de áudio com base, pelo menos em parte, em valores de ganho de fonte virtual correspondentes a localizações de fonte virtual que estão dentro de uma área ou um volume de objeto de áudio.
[00072] Em algumas implementações, o método 500 pode incluir o bloco opcional 515 que envolve decorrelacionar dados de áudio. O bloco 515 pode ser parte de um processo de tempo de execução. Em algumas de tais implementações, o bloco 515 pode envolver convolu- ção no domínio de frequência. Por exemplo, o bloco 515 pode envol ver aplicar um filtro de resposta de impulso finita ("FIR") a cada sinal de alimentação alto-falante.
[00073] Em algumas implementações, os processos do bloco 515 pode ou não podem ser efetuados, dependendo de um tamanho de objeto de áudio e/ou de uma intenção artística de criador. De acordo com algumas de tais implementações, uma ferramenta de criação po de ligar tamanho de objeto de áudio com decorrelação indicando (por exemplo, via um sinalizador de decorrelação incluído em metadados associados) que a decorrelação deve ser ligada quando o tamanho do objeto de áudio for maior ou igual a um valor de limiar de tamanho e que a decorrelação deve ser desligada se o tamanho de objeto de áu dio estiver abaixo do valor de limiar de tamanho. Em algumas imple mentações, a decorrelação pode ser controlada (por exemplo, aumen-tada,diminuída ou desabilitada) de acordo com a entrada de usuário a respeito do valor de limiar de tamanho e/ou outros valores de entrada.
[00074] A Figura 5B é um diagrama de fluxo que fornece um exem plo de um processo de ajuste. Por conseguinte, todos os blocos mos trados na Figura 5B são exemplos de processos que podem ser reali zados no bloco 505 da Figura 5A. Aqui, o processo de ajuste começa com o recebimento de dados de ambiente de reprodução (bloco 520). Os dados de ambiente de reprodução podem incluir dados de localiza ção de alto-falante de reprodução. Os dados de ambiente de reprodu ção também podem incluir dados representando limites de um ambien te de reprodução, tal como paredes, teto, etc. Se o ambiente de repro dução for um cinema, os dados de ambiente de reprodução também podem incluir uma indicação de uma localização de tela de cinema.
[00075] Os dados de ambiente de reprodução também podem inclu ir dados indicando uma correlação de canais de saída com alto- falantes de reprodução de um ambiente de reprodução. Por exemplo, o ambiente de reprodução pode ter uma configuração Dolby Surround 7.1, tal como aquela mostrada na Figura 2 e descrita acima. Por con seguinte, os dados de ambiente de reprodução também podem incluir dados indicando uma correlação entre um canal Lss e os alto-falantes surround esquerdos 220, entre um canal Lrs e os alto-falantes sur round traseiros esquerdos 224, etc.
[00076] Neste exemplo, o bloco 525 envolve a definição de locali zações de fonte virtual 605 de acordo com os dados de ambiente de reprodução. As localizações de fonte virtual 605 podem ser definidas dentro de um volume de fonte virtual. Em algumas implementações, o volume de fonte virtual pode corresponder a um volume dentro do qual objetos de áudio podem se mover. Como mostrado nas Figuras 6A e 6B, em algumas implementações o volume de fonte virtual 602 pode ser coextensivo com um volume do ambiente de reprodução 600, ao passo que em outras implementações pelo menos algumas das locali zações de fonte virtual 605 podem corresponder a localizações fora do ambiente de reprodução 600.
[00077] Mais ainda, as localizações de fonte virtual 605 podem ou não podem ser espaçadas de forma uniforme dentro do volume de fon te virtual 602, dependendo da implementação particular. Em algumas implementações, as localizações de fonte virtual 605 podem ser espa- çadas uniformemente em todas as direções. Por exemplo, as localiza ções de fonte virtual 605 podem formar uma grade retangular de Nx por Ny por Nzlocalizações de fonte virtual 605. Em algumas implemen tações, o valor de N pode estar na faixa de 5 a 100. O valor de N pode depender, pelo menos em parte, do número de alto-falantes de repro dução no ambiente de reprodução: pode ser desejável incluir duas ou mais localizações de fonte virtual 605 entre cada localização de alto- falante de reprodução.
[00078] Em algumas implementações, as localizações de fonte vir tual 605 podem ter um primeiro espaçamento uniforme ao longo dos eixos x e y e um segundo espaçamento uniforme ao longo de um eixo z. As localizações de fonte virtual 605 podem formar uma grade retan gular de Nx por Ny por Mzlocalizações de fonte virtual 605. Por exem plo, em algumas implementações, podem existir menos localizações de fonte virtual 605 ao longo do eixo z do que ao longo dos eixos x ou y. Em algumas de tais implementações, o valor de N pode estar na faixa de 10 a 100, ao passo que o valor de M pode estar na faixa de 5 a 10.
[00079] Neste exemplo, o bloco 530 envolve computar valores de ganho de fonte virtual para cada uma das localizações de fonte virtual 605. Em algumas implementações, o bloco 530 envolve computar, pa ra cada uma das localizações de fonte virtual 605, valores de ganho de fonte virtual para cada canal de uma pluralidade de canais de saída do ambiente de reprodução. Em algumas implementações, o bloco 530 pode envolver aplicar um algoritmo panorâmico de amplitude à base de vetor ("VBAP"), um algoritmo panorâmico aos pares ou um algorit mo semelhante para computar valores de ganho para fontes pontuais localizadas em cada uma das localizações de fonte virtual 605. Em outras implementações, o bloco 530 pode envolver aplicar um algorit-moseparável para calcular valores de ganho para fontes pontuais lo- calizadas em cada uma das localizações de fonte virtual 605. Como aqui utilizado, um algoritmo "separável" é aquele para o qual o ganho de um dado alto-falante pode ser expresso como um produto de dois ou mais fatores que podem ser computados separadamente para cada uma das coordenadas da localização de fonte virtual. Exemplos inclu em algoritmos implementados em vários panorâmicos de console de mixagem existentes incluindo, mas não se limitando ao software Pro Tools™ e panorâmicos implementados em consoles de filmes digitais fornecidos por AMS Neve. Alguns exemplos bidimensionais são forne cidos abaixo.
[00080] As Figuras 6C-6F mostram exemplos de aplicação de téc-nicaspanorâmicas de campo próximo e de campo distante a objetos de áudio em diferentes localizações. Com referência primeiro à Figura 6C, o objeto de áudio está substancialmente fora do ambiente de re produção virtual 400a. Portanto, um ou mais métodos panorâmicos de campo distante serão aplicados neste caso. Em algumas implementa ções, os métodos panorâmicos de campo distante podem ser basea dos em equações panorâmicas de amplitude à base de vetor (VBAP) que são conhecidas pelos versados na técnica. Por exemplo, os méto dospanorâmicos de campo distante podem ser baseados nas equa ções VBAP descritas na Seção 2.3, página 4 de V. Pulkki, Compensa ting Displacement of Amplitude-Panned Virtual Sources (AES Interna tional Conference on Virtual, Synthetic and Entertainment Áudio), que é por meio deste incorporado por referência. Em implementações al ternativas, outros métodos podem ser utilizados para panorâmico de objetos de áudio de campo distante e de campo próximo, por exemplo, métodos que envolvem a síntese de planos acústicos correspondentes ou onda esférica. D. de Vries, Wave Field Synthesis (AES Monograph 1999) que é aqui incorporado por referência descreve métodos rele vantes.
[00081] Com referência agora à Figura 6D, o objeto de áudio 610 está dentro do ambiente de reprodução virtual 400a. Portanto, um ou mais métodos panorâmicos de campo próximo serão aplicados neste caso. Alguns desses métodos panorâmicos de campo próximo usarão uma série de zonas de alto-falante envolvendo o objeto de áudio 610 no ambiente de reprodução virtual 400a.
[00082] A Figura 6G ilustra um exemplo de um ambiente de repro dução tendo um alto-falante em cada canto de um quadrado tendo um comprimento de borda igual a 1. Neste exemplo, a origem (0,0), do eixo x-y é coincidente com o alto-falante de tela esquerdo (L) 130. Por conseguinte, o alto-falante de tela direito (R) 140 tem coordenadas (1,0), o alto-falante surround esquerdo (Ls) 120 tem coordenadas (0,1) e o alto-falante surround direito (Rs) 125 tem coordenadas (1,1). A po sição de objeto de áudio 615 (x,y) é de x unidades para a direita do alto-falante L e de y unidades da tela 150. Neste exemplo, cada um dos quatro alto-falantes recebe um fator cos/sin proporcional à sua dis tância ao longo do eixo x e do eixo y. De acordo com algumas imple-mentações, os ganhos podem ser computados como a seguir:
[00083] O ganho geral é o produto: G_l(x,y) =G_l(x) G_l(y). Em ge ral, estas funções dependem todas as coordenadas de todos os alto- falantes. No entanto, G_l(x) não depende da posição y da fonte e G_l(y) não depende de sua posição x. Para ilustrar um cálculo simples, suponhamos que a posição de objeto de áudio 615 é (0,0), a localiza ção do alto-falante L. G_L (x) = cos (0) = 1. G_L (y) = cos (0) = 1. O ganho geral é o produto: G_L(x,y) =G_L(x) G_L(y) = 1. Cálculos seme lhantes levam a G_Ls = G_Rs = G_R = 0.
[00084] Pode ser desejável misturar entre diferentes modos de pa norâmico quando um objeto de áudio entra ou sai do ambiente de re produção virtual 400a. Por exemplo, uma mistura de ganhos computa dos de acordo com métodos panorâmicos de campo próximo e méto dos de panorâmico de campo distante pode ser aplicada quando o ob jeto de áudio 610 se move da localização de objeto de áudio 615 mos trada na Figura 6C para a localização de objeto de áudio 615 mostrada na Figura 6D ou vice-versa. Em algumas implementações, uma lei de panorâmico em pares (por exemplo, um seno de preservação de ener gia ou lei de potência) pode ser utilizada para misturar entre os ganhos computados de acordo com métodos de panorâmico de campo próxi mo e métodos de panorâmico de campo distante. Em implementações alternativas, a lei de panorâmico em pares pode ser de preservação de amplitude vez de preservação de energia, de modo que a soma seja igual a um, em vez de a soma dos quadrados ser igual a um. É tam bém possível misturar os sinais processados resultantes, por exemplo, para processar o sinal de áudio usando ambos os métodos de pano râmico independentemente e desvanecer cruzado os dois sinais de áudio resultantes.
[00085] Voltando agora à Figura 5B, independentemente do algo ritmo usado no bloco 530, os valores de ganho resultantes podem ser armazenados num sistema de memória (bloco 535), para utilização durante as operações de tempo de execução.
[00086] A Figura 5C é um diagrama de fluxo que fornece um exem plo de um processo de tempo de execução para computar valores de ganho para objetos de áudio recebidos de acordo com valores de ga nhopré-computados para localizações de fonte virtual. Todos os blo cos mostrados na Figura 5C são exemplos de processos que podem ser realizados no bloco 510 da Figura 5A.
[00087] Neste exemplo, o processo de tempo de execução começa com a recepção de dados de reprodução de áudio que incluem um ou mais objetos de áudio (bloco 540). Os objetos de áudio incluem sinais de áudio e metadados associados incluindo pelo menos dados de po sição de objeto de áudio e dados de tamanho de objeto de áudio neste exemplo. Com referência à Figura 6A, por exemplo, o objeto de áudio 610 é definido pelo menos em parte por uma posição de objeto de áu dio 615 e um volume de objeto de áudio 620a. Neste exemplo, os da dos de tamanho de objeto de áudio recebidos indicam que o volume de objeto de áudio 620a corresponde àquele de um prisma retangular. No exemplo, mostrado na Figura 6B, no entanto, os dados de tamanho de objeto de áudio recebidos indicam que o volume de objeto de áudio 620b corresponde àquele de uma esfera. Estes tamanhos e formas são apenas exemplos; em implementações alternativas, objetos de áudio podem ter uma variedade de outros tamanhos e/ou formas. Em alguns exemplos alternativos, a área ou o volume de um objeto de áu dio pode ser um retângulo, um círculo, uma elipse, um elipsoide ou um setor esférico.
[00088] Nesta implementação, o bloco 545 envolve computar con tribuições de fontes virtuais dentro de uma área ou um volume definido pelos dados de posição de objeto de áudio e pelos dados de tamanho de objeto de áudio. Nos exemplos mostrados nas Figuras 6A e 6B, o bloco 545 pode envolver computação de contribuições de fontes virtu ais nas localizações de fonte virtual 605 que estão dentro do volume de objeto de áudio 620a ou do volume de objeto de áudio 620b. Se os metadados do objeto de áudio mudam ao longo do tempo, o bloco 545 pode ser realizada novamente de acordo com os novos valores de me tadados. Por exemplo, se o tamanho de objeto de áudio e/ou a posi ção objeto de áudio mudarem, diferentes localizações de fonte virtual 605 podem cair dentro do volume de objeto de áudio 620 e/ou as loca lizações de fonte virtual 605 usadas em uma computação anterior po- dem estar a uma distância diferente da posição de objeto de áudio 615. No bloco 545, as contribuições de fonte virtual correspondentes seriam computadas de acordo com o novo tamanho e/ou posição do objeto de áudio.
[00089] Em alguns exemplos, o bloco 545 pode envolver recuperar, de um sistema de memória, valores de ganho de fonte virtual compu tados para localizações de fonte virtual correspondentes a uma posi ção e um tamanho de objeto de áudio e interpolar entre os valores de ganho de fonte virtual computados. O processo de interpolar entre os valores de ganho de fonte virtual computados pode envolver determi nar uma pluralidade de localizações de fonte virtual vizinhas próximas da posição de objeto de áudio; determinar valores de ganho de fonte virtual computados para cada uma das localizações de fonte virtual vizinhas; determinar uma pluralidade de distâncias entre a posição de objeto de áudio e cada uma das localizações de fonte virtual vizinhas; e interpolar entre os valores de ganho de fonte virtual computados de acordo com a pluralidade de distâncias.
[00090] O processo de computar contribuições de fontes virtuais pode envolver computar uma média ponderada de valores de ganho de fonte virtual computados para localizações de fonte virtual dentro de uma área ou de um volume definido pelo tamanho do objeto de áu dio. Pesos para a média ponderada podem depender, por exemplo, da posição do objeto de áudio, do tamanho do objeto de áudio e de cada localização de fonte virtual dentro da área ou do volume.
[00091] A Figura 7 mostra um exemplo de contribuições de fontes virtuais dentro de uma área definida por dados de posição de objeto de áudio e dados de tamanho de objeto de áudio. A Figura 7 representa uma seção transversal de um ambiente de áudio 200a tomada per pendicular ao eixo z. Por conseguinte, a Figura 7 é desenhada da perspectiva de um espectador olhando para baixo para o ambiente de áudio 200a ao longo do eixo z. Neste exemplo, o ambiente de áudio 200a é um ambiente de sistema de som de cinema tendo uma configu ração Dolby Surround 7.1, tais como aquela mostrada na Figura 2 e descrita acima. Por conseguinte, o ambiente de reprodução 200a inclui os alto-falantes surround esquerdos 220, os alto-falantes surround tra seiros esquerdos 224, os alto-falantes surround direitos 225, os alto- falantes surround traseiros direitos 226, o canal de tela esquerdo 230, o canal de tela central 235, o canal de tela direito 240 e o subwoofer 245.
[00092] O objeto de áudio 610 tem um tamanho indicado pelo vo lume de objeto de áudio 620b, uma área de seção transversal retangu lar da qual é mostrada na Figura 7. Dada a posição de objeto de áudio 615 no instante de tempo representado na Figura 7, 12 localizações de fonte virtual 605 são incluídas na área abrangida pelo volume de obje to de áudio 620b no plano x-y. Dependendo da extensão do volume de objeto de áudio 620b na direção z e do espaçamento das localizações de fonte virtual 605 ao longo do eixo z, localizações de fonte virtual adicionais 605s podem ou não podem ser englobadas dentro do volu me de objeto de áudio 620b.
[00093] A Figura 7 indica contribuições das localizações de fonte virtual 605 dentro da área ou do volume definido pelo tamanho do ob jeto de áudio 610. Neste exemplo, o diâmetro do círculo usado para representar cada uma das localizações de fonte virtual 605 correspon deà contribuição da localização de fonte virtual correspondente 605. As localizações de fonte virtual 605a são mais próximas da posição de objeto de áudio 615 são mostradas como as maiores, indicando a maior contribuição das fontes virtuais correspondentes. As segundas maiores contribuições são de fontes virtuais nas localizações de fonte virtual 605b que são as segundas mais próximas à posição de objeto de áudio 615. Contribuições menores são feitas pelas localizações de fonte virtual 605c que estão mais longe da posição de objeto de áudio 615, mas ainda dentro do volume de objeto de áudio 620b. As locali zações de fonte virtual 605d que estão fora do volume de objeto de áudio 620b são mostradas como sendo as menores, o que indica que neste exemplo as fontes virtuais correspondentes não fazem nenhuma contribuição.
[00094] Voltando à Figura 5C, neste exemplo o bloco 550 envolve computar um conjunto de valores de ganho de objeto de áudio para cada um de uma pluralidade de canais de saída com base, pelo me nos em parte, nas contribuições computadas. Cada canal de saída po de corresponder a pelo menos um alto-falante de reprodução do ambi ente de reprodução. O bloco 550 pode envolver normalizar os valores de ganho de objeto de áudio resultantes. Para a implementação mos trada na Figura 7, por exemplo, cada canal de saída pode correspon der a um único alto-falante ou um grupo de alto-falantes.
[00095] O processo de computar o valor de ganho de objeto de áu dio para cada um da pluralidade de canais de saída pode envolver de terminar um valor de ganho (gltamanho(xo,yo,zo;s)) para um objeto de áu dio de tamanho (s) a ser transformado na localização xo,yo,zo. Este va lor de ganho de objeto de áudio pode algumas vezer ser denominado neste documento como uma “contribuição de tamanho de objeto de áudio”. De acordo com algumas implementações o valor de ganho de objeto de áudio (gltamanho(xo,yo,zo;s)) pode ser expresso como:
[00096] Na Equação 2, (xvs, yvs, zvs) representa uma localização de fonte virtual, gl(xvs, yvs, zvs) representa um valor de ganho para canal l para a localização de fonte virtual xvs, yvs, zvs e w(xvs, yvs, zvs; xo, yo, zo;s) representa um peso para gl(xvs, yvs, zvs) que e determinado com base, pelo menos em parte, na localização (xo, yo, zo) do objeto de áu- dio, no tamanho (s) do objeto de áudio e na localização da fonte virtual (xvs, yvs, zvs).
[00097] Em alguns exemplos, o expoente p pode ter um valor entre 1 e 10. Em algumas implementações, p pode ser uma função do ta manho do objeto áudio s. Por exemplo, se s for relativamente maior, em algumas implementações p pode ser relativamente menor. e acor do com algumas tais implementações, p pode ser determinado como a seguir: em que smax corresponde ao valor máximo de um tamanho escalonado interno sinterno (descrito abaixo) e em que um tamanho de objeto de áudio s = 1 pode corresponder a um objeto de áudio tendo um tamanho (por exemplo, um diâmetro) igual a um comprimento de um dos limites do ambiente de reprodução (por exemplo, igual ao comprimento de uma parede do ambiente de reprodução).
[00098] Dependendo em parte do(s) algoritmo(s) usado(s) para computar os valores de ganho de fonte virtual, pode ser possível sim plificar a Equação 2 se as localizações de fonte virtual forem unifor mementedistribuídas ao longo de um eixo e se as funções de ponde ração e as funções de ganho forem separáveis, por exemplo, como descrito acima. Se estas condições forem atendidas, então, gl(xvs, yvs, zvs) pode ser expresso como glx(xvs)gly(yvs)glz(zvs), em que glx(xvs), glx(yvs) e glz(zvs) representam funções de ganho independentes de co ordenadasx, y e z para uma localização de fonte virtual.
[00099] Similarmente, w(xvs,yvs,zvs;xo,yo,zo;s) pode fatorar como wx(xvs;xo;s)wy(yvs;yo;s)wz(zvs;zo;s), em que wx(xvs; xo; s), wy(yvs; yo; s) e wz(zvs;zo; s) representam funções de peso independentes de coordenadas x, y e z para uma localização de fonte virtual. Um tal exemplo é mostrado na Figura 7. Neste exemplo, a função de peso 710, expressa como wx(xvs; xo; s), pode ser computada independentemente da função de peso 720, expressa como wy(yvs; xo; s). Em algumas implementações, as funções de peso 710 e 720 podem ser funções gaussianas, ao passo que a função de peso wz(zvs; zo; s) pode ser um produto de funções cosseno e gaussianas.
[000100] Se w(xvs,yvs,zvs;xo,yo,zo;s) pode ser fatorada como wx(xvs;xo;s)wy(yvs;yo;s)wz(zvs;zo;s), a Equação 2 simplifica para:
[000101] As funções f podem conter todas as informações necessárias relativas às fontes virtuais. Se as posições de objeto possíveis são discretizadas ao longo de cada eixo, pode-se expressar cada função f como uma matriz. Cada função f pode ser pré- computada durante o processo de ajuste do bloco 505 (ver Figura 5A) e armazenada num sistema de memória, por exemplo, como uma matriz ou como uma tabela de consulta. Em tempo de execução (bloco 510), as tabelas de consulta ou matrizes podem ser recuperadas do sistema de memória. O processo de tempo de execução pode envolver interpolação, dada uma posição de objeto de áudio e tamanho, entre os valores correspondentes mais próximos destas matrizes. Em algumas implementações, a interpolação pode ser linear.
[000102] Em algumas implementações, a contribuição de tamanho de objeto de áudio gltamanho pode ser combinada com o resultado "de ganho próximo de objeto de áudio"para a posição de objeto de áudio. Como aqui utilizado, o "ganho próximo de objeto de áudio" é um ganho computado que é baseado na posição de objeto de áudio 615. A com putação de ganho pode ser feita utilizando o mesmo algoritmo utilizado para computar cada um dos valores de ganho de fonte virtual. De acordo com algumas de tais implementações, um cálculo de desvane cimento cruzado pode ser realizado entre a contribuição de tamanho de objeto de áudio e o resultado de ganho próximo de objeto de áudio, por exemplo, em função de tamanho de objeto de áudio. Tais imple mentações podem fornecer panorâmico suave e crescimento suave de objetos de áudio e podem permitir uma transição suave entre os me nores e os maiores tamanhos de objeto de áudio. Numa tal implemen tação, e em que g~ size representa a versão normalizada de g size previamente computada. Em algumas dessas implementações, sxdesvanecimento =0.2. Entretanto, em implementações alternativas, sxdesvanecimento pode ter outros valores.
[000103] De acordo com algumas implementações, o valor de tama nho de objeto de áudio pode ser escalonado para cima na porção mai or de sua faixa de valores possíveis. Em algumas implementações de criação, por exemplo, um usuário pode ser exposto a valores de tamanho de objeto de áudio z - -- que são mapeados para o tamanho real utilizado pelo algoritmo para uma escala maior, por exemplo, a faixa [0,s ] , em que smax> 1. Este mapeamento pode assegurar que quando o tamanho for ajustado para o máximo pelo usuário, os ganhos se tornarão verdadeiramente independentes da posição do objeto. De acordo com algumas dessas implementações, esses mapeamentos podem ser feitos de acordo com uma função linear em pedaços que conecta pares de pontos (susuário, sinterno), em que susuáriorepresenta um tamanho de objeto de áudio selecionado pe lousuário e sinterno representa um tamanho de objeto de áudio corres pondente que é determinado pelo algoritmo. De acordo com algumas dessas implementações, o mapeamento pode ser feito de acordo com uma função linear em pedaços que conecta pares de pontos (0, 0), (0,2, 0,3), (0,5, 0,9), (0,75, 1,5) e (1, smax). Numa tal implementação, smax = 2,8.
[000104] As Figuras 8A e 8B mostram um objeto de áudio em duas posições dentro de um ambiente de reprodução. Nestes exemplos, o volume de objeto de áudio 620b é uma esfera tendo um raio de menos da metade do comprimento ou da largura do ambiente de reprodução 200a. O ambiente de reprodução 200a é configurado de acordo com Dolby 7.1. No instante de tempo representado na Figura 8A, a posição do objeto de áudio 615 é relativamente mais próxima do meio do am biente de reprodução 200a. No tempo representado na Figura 8B, a posição do objeto de áudio 615 se moveu para perto de um limite do ambiente de reprodução 200a. Neste exemplo, o limite é uma parede esquerda de um cinema e coincide com as localizações dos alto- falantes surround esquerdos 220.
[000105] Por razões estéticas, pode ser desejável modificar os cálcu los de ganho de objeto de áudio para objetos de áudio que se aproxi mam de um limite de um ambiente de reprodução. Nas Figuras 8A e 8B, por exemplo, nenhum sinal de alimentação de alto-falante é forne cido a alto-falantes em um limite oposto do ambiente de reprodução (aqui, os alto-falantes surround direitos 225) quando a posição do ob jeto de áudio 615 está dentro de uma distância de limiar do limite es querdo 805 do ambiente de reprodução. No exemplo mostrado na Fi gura 8B, nenhum sinal de alimentação de alto-falante é fornecido a alto-falantes correspondentes ao canal de tela esquerdo 230, ao canal de tela central 235, ao canal de tela direito 240 ou ao subwoofer 245 quando a posição de objeto de áudio 615 está dentro de uma distância de limiar (que pode ser uma distância de limiar diferente) do limite es querdo 805 do ambiente de reprodução, se a posição de objeto de áu dio 615 também for mais do que uma distância de limiar da tela.
[000106] No exemplo mostrado na Figura 8B, o volume de objeto de áudio 620b inclui uma área ou um volume fora do limite esquerdo 805. De acordo com algumas implementações, um fator de desvanecimento para cálculos de ganho pode ser baseado, pelo menos em parte, em quanto do limite esquerdo 805 está dentro do volume de objeto de áu dio 620b e/ou quanto da área ou do volume de um objeto de áudio se estende para fora de tal limite.
[000107] A Figura 9 é um diagrama de fluxo que delineia um método para determinar um fator de desvanecimento com base, pelo menos em parte, em quanto de uma área ou de um volume de um objeto de áudio se estende para fora de um limite de um ambiente de reprodu ção. No bloco 905, os dados de ambiente de reprodução são recebi dos. Neste exemplo, os dados de ambiente de reprodução incluem dados de localização de alto-falante de reprodução e dados de limite de ambiente de reprodução. O bloco 910 envolve receber dados de reprodução de áudio incluindo um ou mais objetos de áudio e metada dos associados. Os metadados incluem pelo menos dados de posição de objeto de áudio e dados de tamanho de objeto de áudio neste exemplo.
[000108] Nesta implementação, o bloco 915 envolve determinar que uma área ou um volume de objeto de áudio definido pelos dados de posição de objeto de áudio e dados de tamanho de objeto de áudio inclui uma área ou um volume externo fora de um limite de ambiente de reprodução. O bloco 915 também pode envolver determinar que proporção da área ou do volume de objeto de áudio está fora do limite do ambiente de reprodução.
[000109] No bloco 920, um fator de desvanecimento é determinado. Neste exemplo, o fator de desvanecimento pode ser baseado, pelo menos em parte, na área externa. Por exemplo, o fator de desvaneci mento pode ser proporcional à área externa.
[000110] No bloco 925, um conjunto de valores de ganho de objeto de áudio pode ser computado para cada um de uma pluralidade de canais de saída com base, pelo menos em parte, nos metadados as sociados (neste exemplo, os dados de posição de objeto de áudio e dados de tamanho de objeto de áudio) e no fator de desvanecimento. Cada canal de saída pode corresponder a pelo menos um alto-falante de reprodução do ambiente de reprodução.
[000111] Em algumas implementações, as computações de ganho de objeto de áudio podem envolver contribuições de computação de fontes virtuais dentro de uma área ou de um volume de objeto de áu dio. As fontes virtuais podem corresponder à pluralidade de localiza ções de fonte virtual que podem ser definidas com referência aos da dos de ambiente de reprodução. As localizações de fonte virtual po dem ou não podem ser uniformemente espaçadas. Para cada uma das localizações de fonte virtual, um valor de ganho de fonte virtual pode ser computado para cada um da pluralidade de canais de saída. Como descrito acima, em algumas implementações estes valores de ganho de fonte virtual podem ser computados e armazenados durante um processo de ajuste, então, recuperados para uso durante operações de tempo de execução.
[000112] Em algumas implementações, o fator de desvanecimento pode ser aplicado a todos os valores de ganho de fonte virtual corres pondentes a localizações de fonte virtual dentro de um ambiente de reprodução. Em algumas implementações, gltamanho pode ser modifica do como a seguir: em que dlimite representa a distância mínima entre uma localização de objeto de áudio e um limite do ambiente de reprodução e gllimite representa a contribuição de fontes virtuais ao longo do limite. Por exemplo, com referência à Figura 8B,gllimite pode representar a contribuição de fontes virtuais dentro do volume de objeto de áudio 620b e adjacente ao limite 805. Neste exemplo, como aquele da Figura 6A, não há fontes virtuais localizadas fora do ambiente de reprodução.
[000113] Em implementações alternativas, gltamanho pode ser modifi cado como a seguir: em que glexterna representa ganhos de objeto de áudio com base em fontes virtuais localizadas fora de um ambiente de reprodução, mas dentro de uma área ou de um volume de objeto de áudio. Por exemplo, com referência à Figura 8B,glexterna pode representar a contribuição de fontes virtuais dentro do volume de obje to de áudio 620b e fora do limite 805. Neste exemplo, como aquele da Figura 6B, não há fontes virtuais localizadas tanto dentro quanto fora do ambiente de reprodução.
[000114] A Figura 10 é um diagrama de blocos que proporciona exemplos de componentes de um aparelho para criar e/ou transformar. Neste exemplo, o dispositivo 1000 inclui um sistema de interface 1005. O sistema de interface 1005 pode incluir uma interface de rede, tal como uma interface de rede sem fios. Alternativamente, ou adicional mente, o sistema de interface 1005 pode incluir uma interface de bar- ramento serial universal (USB) ou outra tal interface.
[000115] O dispositivo 1000 inclui um sistema de lógica 1010. O sis tema de lógica 1010 pode incluir um processador, tal como um pro- cessador de chip único ou múltiplo de uso geral. O sistema de lógica 1010 pode incluir um processador de sinal digital (DSP), um circuito integrado específico de aplicação (ASIC), uma matriz de porta progra mávelno campo (FPGA) ou outro dispositivo lógico programável, porta discreta ou lógica de transistor, ou componentes de hardware discre tos ou combinações dos mesmos. O sistema de lógica 1010 pode ser configurado para controlar os outros componentes do dispositivo 1000. Embora nenhuma interface entre os componentes do dispositivo 1000 seja mostrada na Figura 10, o sistema de lógica 1010 pode ser confi gurado com interfaces para comunicação com os outros componentes. Os outros componentes podem ou não ser configurados para comuni cação um com o outro, conforme adequado.
[000116] O sistema de lógica 1010 pode ser configurado para execu tarcriação de áudio e/ou transformar funcionalidade incluindo, mas não se limitando aos tipos de criação de áudio e/ou transformação de funcionalidade aqui descritos. Em algumas de tais implementações, o sistema de lógica 1010 pode ser configurado para operar (pelo menos em parte) de acordo com o software armazenado em um ou mais mei osnão transitórios. Os meios não transitórios podem incluir memória associada com o sistema de lógica 1010, tal como memória de acesso aleatório (RAM) e/ou memória somente de leitura (ROM). Os meios não transitórios podem incluir memória do sistema de memória 1015. O sistema de memória 1015 pode incluir um ou mais tipos adequados de meios de armazenamento não transitórios, tal como memória flash, um disco rígido, etc.
[000117] O sistema de exibição 1030 pode incluir um ou mais tipos adequados de exibição, dependendo da manifestação do dispositivo 1000. Por exemplo, o sistema de exibição 1030 pode incluir um mos trador de cristal líquido, um mostrador de plasma, um mostrador bies- tável, etc.
[000118] O sistema de entrada de usuário 1035 pode incluir um ou mais dispositivos configurados para aceitar entrada de um usuário. Em algumas implementações, o sistema de entrada de usuário 1035 pode incluir uma tela de toque que se sobrepõe a um mostrador do sistema de exibição 1030. O sistema de entrada de usuário 1035 pode incluir um mouse, uma track ball, um sistema de detecção de gesto, um joys tick, uma ou mais GUIs e/ou menus apresentados no sistema de exibi ção 1030, botões, um teclado, chaves, etc. Em algumas implementa ções, o sistema de entrada de usuário 1035 pode incluir o microfone 1025: um usuário pode fornecer comandos de voz para o dispositivo 1000 via o microfone 1025. O sistema de lógica pode ser configurado para reconhecimento de fala e para controle de pelo menos algumas operações do dispositivo 1000 de acordo com tais comandos de voz.
[000119] O sistema de energia 1040 pode incluir um ou mais disposi tivos de armazenamento de energia adequados, tal como uma bateria de níquel-cádmio ou uma bateria de íons de lítio. O sistema de energia 1040 pode ser configurado para receber energia de uma tomada elé trica.
[000120] A Figura 11A é um diagrama de blocos que representa al guns componentes que podem ser usados para criação de conteúdo de áudio. O sistema 1100 pode, por exemplo, ser usado para criação de conteúdo de áudio em estúdios de mixagem e/ou estágios de du blagem. Neste exemplo, o sistema 1100 inclui uma ferramenta de cria ção de áudio e metadados 1105 e uma ferramenta de transformação 1110. Nesta implementação, a ferramenta de áudio e criação de meta dados 1105 e a ferramenta de renderização 1110 incluem áudio co nectar interfaces de 1107 e 1112, respectivamente, o que pode ser configurado para comunicação via AES / EBU, MADI, analógico, etc. A ferramenta de áudio e metadados autoria 1105 e a ferramenta de pro-cessamento 1110 incluem interfaces de rede 1109 e 1117, respecti- vamente, que podem ser configurados para enviar e receber metada dos por meio do TCP / IP ou qualquer outro protocolo apropriado. A interface 1120 é configurada para enviar dados de áudio para alto- falantes.
[000121] O sistema 1100 pode, por exemplo, incluir um sistema de criação existente, tal como um sistema Pro Tools™, executando uma ferramenta de criação de metadados (isto é, um panorâmico como descrito aqui) como um plug-in. O panorâmico também pode rodar em um sistema autônomo (por exemplo, um PC ou um console de mixa- gem) conectado à ferramenta de transformação 1110 ou pode rodar no mesmo dispositivo físico que a ferramenta de transformação 1110. No último caso, o panorâmico e transformador podem utilizar uma cone xão local, por exemplo, por meio de memória compartilhada. A GUI de panorâmico também pode ser fornecida em um dispositivo de tablet, um computador portátil, etc. A ferramenta de transformação 1110 pode compreender um sistema de transformação que inclui um processador de som que é configurado para executar métodos de transformação como os descritos nas Figuras 5A-C e Fig. 9. O sistema de transfor mação pode incluir, por exemplo, um computador pessoal, um compu-tadorportátil, etc., que inclui interfaces para entrada/saída de áudio e um sistema de lógica adequado.
[000122] A Figura 11B é um diagrama de blocos que representa al guns componentes que podem ser usados para reprodução de áudio num ambiente de reprodução (por exemplo, um cinema). O sistema 1150 inclui um servidor de cinema 1155 e um sistema de transforma ção 1160 neste exemplo. O servidor de cinema 1155 e o sistema de transformação 1160 incluem interfaces de rede 1157 e 1162, respecti vamente, que podem ser configuradas para enviar e receber objetos de áudio via TCP/IP ou qualquer outro protocolo apropriado. A interfa ce 1164 é configurada para enviar dados de áudio para alto-falantes.
[000123] Várias modificações às implementações descritas nesta divulgação podem ser prontamente evidentes para aqueles versados na técnica. Os princípios gerais aqui definidos podem ser aplicados a outras implementações sem se afastar do espírito ou do escopo desta divulgação. Assim, as reivindicações não se destinam a ser limitadas às implementações mostradas, mas serão de acordo com o escopo mais amplo consistente com a divulgação, os princípios e as caracte rísticas novas divulgadas neste documento.

Claims (24)

1. Método, caracterizado pelo fato de que compreende as etapas de: receber (540), por um sistema lógico (1010) de um aparelho (1000), dados de reprodução de áudio compreendendo um ou mais objetos de áudio, os objetos de áudio compreendendo sinais de áudio e metadados associados, os metadados incluindo pelo menos dados de posição de objeto de áudio e dados de tamanho de objeto de áudio; determinar, pelo sistema lógico (1010), para um objeto de áudio a partir de um ou mais objetos de áudio, uma pluralidade de fon tes virtuais em locais de fontes virtuais (605) que estão dentro de uma área ou volume de objetos de áudio definidos pelos dados de posição do objeto de áudio e pelos dados de tamanho do objeto de áudio, cada um dos locais de fontes virtuais (605) correspondentes a um local es tático em um ambiente de reprodução (200, 200a, 400a, 404, 450, 600, 600a, 600b); determinar, pelo sistema lógico (1010), um valor de ganho da fonte virtual correspondente a cada uma das fontes virtuais, tendo o valor de ganho da fonte virtual sido produzido a partir de um processo panorâmico com base no local da fonte virtual (605) e no local de um ou mais alto-falantes de reprodução do ambiente de reprodução (200, 200a, 400a, 404, 450, 600, 600a, 600b), em que determinar um valor de ganho da fonte virtual envolve recuperar um valor de ganho da fon te virtual previamente calculado de uma memória; e computar (550), por um sistema lógico (1010), um conjunto de valores de ganho de objeto de áudio para cada um de uma plurali dade de canais de saída com base, pelo menos em parte, nos valores de ganho de fonte virtual, em que cada canal de saída corresponde a pelo menos um alto-falante de reprodução do ambiente de reprodução (200, 200a, 400a, 404, 450, 600, 600a, 600b) e em que a computação do conjunto de valores de ganho de objeto de áudio envolve a interpo-laçãoentre os valores de ganho da fonte virtual com base em uma po sição do objeto de áudio e os locais da fonte virtual (605) que estão dentro da área ou volume do objeto de áudio, sendo a posição do ob jeto de áudio baseada nos dados recebidos da posição do objeto de áudio.
2. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que o processo de computar o conjunto de valores de ganho de objeto de áudio envolve computar uma média ponderada de valores de ganho de fonte virtual das fontes virtuais dentro da área ou do volume de objeto de áudio.
3. Método, de acordo com a reivindicação 2, caracterizado pelo fato de que os pesos para a média ponderada dependem da po sição do objeto de áudio, do tamanho do objeto de áudio e de cada local de fonte virtual (605) dentro da área ou do volume de objeto de áudio.
4. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que ainda compreende: receber dados do ambiente de reprodução (200, 200a, 400a, 404, 450, 600, 600a, 600b) incluindo dados de localização de alto-falante de reprodução.
5. Método, de acordo com a reivindicação 4, caracterizado pelo fato de que ainda compreende: definir uma pluralidade de locais de fonte virtual (605) de acordo com os dados de ambiente de reprodução (200, 200a, 400a, 404, 450, 600, 600a, 600b); e computar, para cada um dos locais de fonte virtual (605), um valor de ganho de fonte virtual para cada um da pluralidade de ca nais de saída.
6. Método, de acordo com a reivindicação 5, caracterizado pelo fato de que pelo menos alguns dos locais de fonte virtual (605) correspondem a localizações fora do ambiente de reprodução (200, 200a, 400a, 404, 450, 600, 600a, 600b).
7. Método, de acordo com a reivindicação 5, caracterizado pelo fato de que os locais de fonte virtual (605) são espaçados uni formemente ao longo dos eixos x, y e z.
8. Método, de acordo com a reivindicação 5, caracterizado pelo fato de que os locais de fonte virtual (605) têm um primeiro es paçamento uniforme ao longo dos eixos x e y e um segundo espaça mento uniforme ao longo de um eixo z.
9. Método, de acordo com a reivindicação 7, caracterizado pelo fato de que o processo de computar o conjunto de valores de ganho de objeto de áudio para cada um da pluralidade de canais de saída envolve computações independentes de valores de ganho de fonte virtual a partir de fontes virtuais ao longo dos eixos x, y e z.
10. Método, de acordo com a reivindicação 5, caracteriza do pelo fato de que os locais de fonte virtual (605) são espaçados de maneira não uniforme.
11. Método, de acordo com a reivindicação 4, caracteriza do pelo fato de que ainda compreende armazenar valores de ganho de fonte virtual computados em um sistema de memória (1015).
12. Método, de acordo com a reivindicação 1, caracteriza do pelo fato de que o processo de interpolação entre os valores de ganho de fonte virtual computados envolve: determinar uma pluralidade de locais de fonte virtual (605) vizinhos perto da posição de objeto de áudio; determinar valores de ganho de fonte virtual computados para cada um dos locais de fonte virtual (605); determinar uma pluralidade de distâncias entre a posição de objeto de áudio e cada um dos os locais de fonte virtual (605) vizi- nhos; e interpolar entre os valores de ganho de fonte virtual compu tados de acordo com a pluralidade de distâncias.
13. Método, de acordo com a reivindicação 1, caracteriza do pelo fato de que a área ou o volume de objeto de áudio é pelo menos um de um retângulo, um prisma retangular, um círculo, uma esfera, uma elipse ou um elipsoide.
14. Método, de acordo com a reivindicação 1, caracteriza do pelo fato de que o ambiente de reprodução (200, 200a, 400a, 404, 450, 600, 600a, 600b) compreende um ambiente de sistema de som de cinema.
15. Método, de acordo com a reivindicação 1, caracteriza do pelo fato de que ainda compreende decorrelacionar pelo menos alguns dos dados de reprodução de áudio.
16. Método, de acordo com a reivindicação 1, caracteriza do pelo fato de que ainda compreende decorrelacionar dados de re produção de áudio para objetos de áudio tendo um tamanho de objeto de áudio que ultrapassa um valor de limiar.
17. Método, de acordo com a reivindicação 1, caracteriza do pelo fato de que os dados de ambiente de reprodução (200, 200a, 400a, 404, 450, 600, 600a, 600b) incluem dados de limite de ambiente de reprodução (200, 200a, 400a, 404, 450, 600, 600a, 600b) que ainda compreende: determinar que a área ou o volume de objeto de áudio inclui uma área ou um volume fora de um limite de ambiente de reprodução (200, 200a, 400a, 404, 450, 600, 600a, 600b); e aplicar um fator de desvanecimento com base, pelo menos em parte, na área ou no volume externo.
18. Método, de acordo com a reivindicação 17, caracteri zado pelo fato de que ainda compreende: determinar que um objeto de áudio está dentro de uma dis tância de limiar de um limite de ambiente de reprodução (200, 200a, 400a, 404, 450, 600, 600a, 600b); e não fornecer sinais de alimentação de alto-falante para alto- falantes de reprodução em um limite oposto do ambiente de reprodu ção (200, 200a, 400a, 404, 450, 600, 600a, 600b).
19. Método, de acordo com a reivindicação 1, caracteriza do pelo fato de que ainda compreende: receber dados de ambiente de reprodução (200, 200a, 400a, 404, 450, 600, 600a, 600b) incluindo dados de localização de alto-falante de reprodução e dados de limite de ambiente de reprodu ção (200, 200a, 400a, 404, 450, 600, 600a, 600b); determinar que a área ou o volume de objeto de áudio inclui uma área ou um volume fora de um limite de ambiente de reprodução (200, 200a, 400a, 404, 450, 600, 600a, 600b); e determinar um fator de desvanecimento com base, pelo menos em parte, na área ou no volume externo, em que a computação do conjunto de valores de ganho pa ra cada um da pluralidade de canais de saída também é baseada nos metadados associados e no fator de desvanecimento.
20. Método, de acordo com a reivindicação 19, caracteri zado pelo fato de que o fator de desvanecimento é proporcional à área externa.
21. Método, de acordo com a reivindicação 19, caracteri zado pelo fato de que ainda compreende: determinar que um objeto de áudio está dentro de uma dis tância de limiar de um limite de ambiente de reprodução (200, 200a, 400a, 404, 450, 600, 600a, 600b); e não fornecer sinais de alimentação de alto-falante para alto- falantes de reprodução em um limite oposto do ambiente de reprodu- ção (200, 200a, 400a, 404, 450, 600, 600a, 600b).
22. Método, de acordo com a reivindicação 19, caracteri zado pelo fato de que ainda compreende: definir uma pluralidade de locais de fonte virtual (605) de acordo com os dados de ambiente de reprodução (200, 200a, 400a, 404, 450, 600, 600a, 600b); e computar, para cada um dos locais de fonte virtual (605), um ganho de fonte virtual para cada um da pluralidade de canais de saída.
23. Método, de acordo com a reivindicação 22, caracteri zado pelo fato de que os locais de fonte virtual (605) são espaçados de maneira uniforme.
24. Aparelho (1000), caracterizado pelo fato de que com preende: um sistema de interface (1005); e um sistema de lógica (1010) adaptado para: determinar, para um objeto de áudio a partir de um ou mais objetos de áudio, uma pluralidade de fontes virtuais em locais de fonte virtual (605) que estão dentro de uma área ou volume de objetos de áudio definidos pelos dados de posição do objeto de áudio e pelos da dos de tamanho do objeto de áudio, cada um dos locais de fonte virtu al (605) correspondentes a uma localização estática dentro de um am biente de reprodução (200, 200a, 400a, 404, 450, 600, 600a, 600b), determinar, um valor de ganho da fonte virtual correspon dente a cada uma das fontes virtuais, tendo o valor de ganho da fonte virtual sido produzido a partir de um processo panorâmico com base no local da fonte virtual (605) e na localização de um ou mais alto- falantes de reprodução do ambiente de reprodução (200, 200a, 400a, 404, 450, 600, 600a, 600b), em que determinar um o valor de ganho da fonte virtual envolve recuperar um valor de ganho da fonte virtual previamente calculado de uma memória (1015); e computar (550) um conjunto de valores de ganho de objeto de áudio para cada um de uma pluralidade de canais de saída com base, pelo menos em parte, nos valores de ganho de fonte virtual, em que cada canal de saída corresponde a pelo menos um alto-falante de reprodução de um ambiente de reprodução (200, 200a, 400a, 404, 450, 600, 600a, 600b) e em que a computação do conjunto de valores de ganho de objeto de áudio envolve a interpolação entre os valores de ganho da fonte virtual com base em uma posição do objeto de áu dio e os locais de fonte virtual (605) que estão dentro da área ou volu me do objeto de áudio, sendo a posição do objeto de áudio baseada nos dados recebidos da posição do objeto de áudio.
BR112015018993-8A 2013-03-28 2014-03-10 Método e aparelho BR112015018993B1 (pt)

Priority Applications (2)

Application Number Priority Date Filing Date Title
BR122022005121-9A BR122022005121B1 (pt) 2013-03-28 2014-03-10 Método, meio não transitório e aparelho
BR122017004541-5A BR122017004541B1 (pt) 2013-03-28 2014-03-10 Método de renderização de áudio de entrada, aparelho de renderização de áudio de entrada, meio não transitório e aparelho

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
ESP201330461 2013-03-28
ES201330461 2013-03-28
US201361833581P 2013-06-11 2013-06-11
US61/833,581 2013-06-11
PCT/US2014/022793 WO2014159272A1 (en) 2013-03-28 2014-03-10 Rendering of audio objects with apparent size to arbitrary loudspeaker layouts

Publications (2)

Publication Number Publication Date
BR112015018993A2 BR112015018993A2 (pt) 2017-07-18
BR112015018993B1 true BR112015018993B1 (pt) 2023-11-28

Family

ID=51625134

Family Applications (4)

Application Number Title Priority Date Filing Date
BR122017004541-5A BR122017004541B1 (pt) 2013-03-28 2014-03-10 Método de renderização de áudio de entrada, aparelho de renderização de áudio de entrada, meio não transitório e aparelho
BR112015018993-8A BR112015018993B1 (pt) 2013-03-28 2014-03-10 Método e aparelho
BR122022005121-9A BR122022005121B1 (pt) 2013-03-28 2014-03-10 Método, meio não transitório e aparelho
BR122022005104-9A BR122022005104B1 (pt) 2013-03-28 2014-03-10 Método para renderizar um áudio de entrada, aparelho para renderizar um áudio de entrada e meio não transitório

Family Applications Before (1)

Application Number Title Priority Date Filing Date
BR122017004541-5A BR122017004541B1 (pt) 2013-03-28 2014-03-10 Método de renderização de áudio de entrada, aparelho de renderização de áudio de entrada, meio não transitório e aparelho

Family Applications After (2)

Application Number Title Priority Date Filing Date
BR122022005121-9A BR122022005121B1 (pt) 2013-03-28 2014-03-10 Método, meio não transitório e aparelho
BR122022005104-9A BR122022005104B1 (pt) 2013-03-28 2014-03-10 Método para renderizar um áudio de entrada, aparelho para renderizar um áudio de entrada e meio não transitório

Country Status (18)

Country Link
US (6) US9674630B2 (pt)
EP (3) EP3282716B1 (pt)
JP (6) JP5897778B1 (pt)
KR (5) KR102586356B1 (pt)
CN (4) CN105075292B (pt)
AU (6) AU2014241011B2 (pt)
BR (4) BR122017004541B1 (pt)
CA (1) CA2898885C (pt)
ES (1) ES2650541T3 (pt)
HK (5) HK1215339A1 (pt)
IL (6) IL309028A (pt)
IN (1) IN2015MN01790A (pt)
MX (1) MX342792B (pt)
MY (1) MY172606A (pt)
RU (3) RU2630955C9 (pt)
SG (1) SG11201505429RA (pt)
UA (1) UA113344C2 (pt)
WO (1) WO2014159272A1 (pt)

Families Citing this family (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
MY172402A (en) 2012-12-04 2019-11-23 Samsung Electronics Co Ltd Audio providing apparatus and audio providing method
US20170086005A1 (en) * 2014-03-25 2017-03-23 Intellectual Discovery Co., Ltd. System and method for processing audio signal
CN106797525B (zh) * 2014-08-13 2019-05-28 三星电子株式会社 用于生成和回放音频信号的方法和设备
PT3089477T (pt) * 2015-04-28 2018-10-24 L Acoustics Uk Ltd Aparelho de reprodução de um sinal de áudio multicanal e método para a produção de um sinal de áudio multicanal
EP3314916B1 (en) 2015-06-25 2020-07-29 Dolby Laboratories Licensing Corporation Audio panning transformation system and method
US9847081B2 (en) 2015-08-18 2017-12-19 Bose Corporation Audio systems for providing isolated listening zones
US9854376B2 (en) * 2015-07-06 2017-12-26 Bose Corporation Simulating acoustic output at a location corresponding to source position data
US9913065B2 (en) 2015-07-06 2018-03-06 Bose Corporation Simulating acoustic output at a location corresponding to source position data
US11128978B2 (en) * 2015-11-20 2021-09-21 Dolby Laboratories Licensing Corporation Rendering of immersive audio content
EP3174316B1 (en) * 2015-11-27 2020-02-26 Nokia Technologies Oy Intelligent audio rendering
WO2017098772A1 (ja) * 2015-12-11 2017-06-15 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP6820613B2 (ja) 2016-01-19 2021-01-27 スフィアオ サウンド リミテッド 没入型オーディオ再生のための信号合成
US9949052B2 (en) * 2016-03-22 2018-04-17 Dolby Laboratories Licensing Corporation Adaptive panner of audio objects
RU2743732C2 (ru) 2016-05-30 2021-02-25 Сони Корпорейшн Способ и устройство для обработки видео- и аудиосигналов и программа
CN109479178B (zh) 2016-07-20 2021-02-26 杜比实验室特许公司 基于呈现器意识感知差异的音频对象聚集
EP3293987B1 (en) * 2016-09-13 2020-10-21 Nokia Technologies Oy Audio processing
JP2019533404A (ja) * 2016-09-23 2019-11-14 ガウディオ・ラボ・インコーポレイテッド バイノーラルオーディオ信号処理方法及び装置
US10297162B2 (en) * 2016-12-28 2019-05-21 Honeywell International Inc. System and method to activate avionics functions remotely
CN110383856B (zh) 2017-01-27 2021-12-10 奥罗技术公司 用于平移音频对象的处理方法和系统
WO2018202642A1 (en) 2017-05-04 2018-11-08 Dolby International Ab Rendering audio objects having apparent size
CN110603821A (zh) 2017-05-04 2019-12-20 杜比国际公司 渲染具有表观大小的音频对象
US9820073B1 (en) 2017-05-10 2017-11-14 Tls Corp. Extracting a common signal from multiple audio signals
CN113891233B (zh) * 2017-11-14 2024-04-09 索尼公司 信号处理设备和方法、及计算机可读存储介质
CN111434126B (zh) * 2017-12-12 2022-04-26 索尼公司 信号处理装置和方法以及程序
JP7146404B2 (ja) * 2018-01-31 2022-10-04 キヤノン株式会社 信号処理装置、信号処理方法、及びプログラム
CN111601935A (zh) 2018-03-30 2020-08-28 住友建机株式会社 挖土机
US11617050B2 (en) 2018-04-04 2023-03-28 Bose Corporation Systems and methods for sound source virtualization
EP3824463A4 (en) 2018-07-18 2022-04-20 Sphereo Sound Ltd. AUDIO PANORAMIC DETECTION AND SYNTHESIS OF THREE-DIMENSIONAL (3D) AUDIO CONTENT FROM ENVELOPING CHANNEL LIMITED SOUND
US11368806B2 (en) 2018-08-30 2022-06-21 Sony Corporation Information processing apparatus and method, and program
US11503422B2 (en) * 2019-01-22 2022-11-15 Harman International Industries, Incorporated Mapping virtual sound sources to physical speakers in extended reality applications
US11545166B2 (en) * 2019-07-02 2023-01-03 Dolby International Ab Using metadata to aggregate signal processing operations
CN117061951A (zh) * 2019-07-30 2023-11-14 杜比实验室特许公司 跨具有不同回放能力的设备的动态处理
GB2587371A (en) * 2019-09-25 2021-03-31 Nokia Technologies Oy Presentation of premixed content in 6 degree of freedom scenes
US11483670B2 (en) * 2019-10-30 2022-10-25 Sonos, Inc. Systems and methods of providing spatial audio associated with a simulated environment
WO2021098957A1 (en) * 2019-11-20 2021-05-27 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio object renderer, methods for determining loudspeaker gains and computer program using panned object loudspeaker gains and spread object loudspeaker gains
CN114946199A (zh) * 2019-12-12 2022-08-26 液态氧(Lox)有限责任公司 生成与虚拟声源相关联的音频信号
WO2021121698A1 (en) * 2019-12-19 2021-06-24 Telefonaktiebolaget Lm Ericsson (Publ) Audio rendering of audio sources
KR20210142382A (ko) * 2020-05-18 2021-11-25 에스케이하이닉스 주식회사 그리드 게인 계산 회로, 이미지 센싱 장치 및 그 동작방법
CN112135226B (zh) * 2020-08-11 2022-06-10 广东声音科技有限公司 Y轴音频再生方法以及y轴音频再生系统
US11982738B2 (en) 2020-09-16 2024-05-14 Bose Corporation Methods and systems for determining position and orientation of a device using acoustic beacons
US11696084B2 (en) 2020-10-30 2023-07-04 Bose Corporation Systems and methods for providing augmented audio
US11700497B2 (en) 2020-10-30 2023-07-11 Bose Corporation Systems and methods for providing augmented audio
US11750745B2 (en) 2020-11-18 2023-09-05 Kelly Properties, Llc Processing and distribution of audio signals in a multi-party conferencing environment
GB2607885B (en) * 2021-06-11 2023-12-06 Sky Cp Ltd Audio configuration
CN113596673A (zh) * 2021-07-14 2021-11-02 宁波旗芯电子科技有限公司 Ar眼镜扬声器的定向发声方法、装置和发声设备
GB2613558A (en) * 2021-12-03 2023-06-14 Nokia Technologies Oy Adjustment of reverberator based on source directivity
CN114173256B (zh) * 2021-12-10 2024-04-19 中国电影科学技术研究所 一种还原声场空间及姿态追踪的方法、装置和设备
CN115103293B (zh) * 2022-06-16 2023-03-21 华南理工大学 一种面向目标的声重放方法及装置

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2343347B (en) * 1998-06-20 2002-12-31 Central Research Lab Ltd A method of synthesising an audio signal
AU756265B2 (en) * 1998-09-24 2003-01-09 Fourie, Inc. Apparatus and method for presenting sound and image
US8363865B1 (en) 2004-05-24 2013-01-29 Heather Bottum Multiple channel sound system using multi-speaker arrays
EP1691348A1 (en) * 2005-02-14 2006-08-16 Ecole Polytechnique Federale De Lausanne Parametric joint-coding of audio sources
EP1851656A4 (en) * 2005-02-22 2009-09-23 Verax Technologies Inc SYSTEM AND METHOD FOR FORMATTING MULTIMODE CONTENT OF SOUNDS AND METADATA
DE102005008366A1 (de) 2005-02-23 2006-08-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Ansteuern einer Wellenfeldsynthese-Renderer-Einrichtung mit Audioobjekten
DE102006053919A1 (de) * 2006-10-11 2008-04-17 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Erzeugen einer Anzahl von Lautsprechersignalen für ein Lautsprecher-Array, das einen Wiedergaberaum definiert
JP4973919B2 (ja) * 2006-10-23 2012-07-11 ソニー株式会社 出力制御システムおよび方法、出力制御装置および方法、並びにプログラム
WO2009046909A1 (en) * 2007-10-09 2009-04-16 Koninklijke Philips Electronics N.V. Method and apparatus for generating a binaural audio signal
EP2056627A1 (en) * 2007-10-30 2009-05-06 SonicEmotion AG Method and device for improved sound field rendering accuracy within a preferred listening area
RU2437247C1 (ru) * 2008-01-01 2011-12-20 ЭлДжи ЭЛЕКТРОНИКС ИНК. Способ и устройство для обработки звукового сигнала
US8315396B2 (en) * 2008-07-17 2012-11-20 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus and method for generating audio output signals using object based metadata
JP5326910B2 (ja) * 2009-01-20 2013-10-30 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
WO2011044153A1 (en) 2009-10-09 2011-04-14 Dolby Laboratories Licensing Corporation Automatic generation of metadata for audio dominance effects
TWI557723B (zh) * 2010-02-18 2016-11-11 杜比實驗室特許公司 解碼方法及系統
WO2011119401A2 (en) * 2010-03-23 2011-09-29 Dolby Laboratories Licensing Corporation Techniques for localized perceptual audio
JP5655378B2 (ja) 2010-06-01 2015-01-21 ヤマハ株式会社 音像制御装置、およびプログラム
US20110317841A1 (en) * 2010-06-25 2011-12-29 Lloyd Trammell Method and device for optimizing audio quality
KR101747299B1 (ko) * 2010-09-10 2017-06-15 삼성전자주식회사 데이터 객체 디스플레이 방법 및 장치와 컴퓨터로 읽을 수 있는 저장 매체
UA107304C2 (uk) * 2011-07-01 2014-12-10 Система та інструментальні засоби для удосконаленої авторської розробки та представлення тривимірних аудіоданих
TW202339510A (zh) * 2011-07-01 2023-10-01 美商杜比實驗室特許公司 用於適應性音頻信號的產生、譯碼與呈現之系統與方法
EP2727108B1 (en) 2011-07-01 2015-09-09 Dolby Laboratories Licensing Corporation Sample rate scalable lossless audio coding
EP2727381B1 (en) * 2011-07-01 2022-01-26 Dolby Laboratories Licensing Corporation Apparatus and method for rendering audio objects
MY172402A (en) * 2012-12-04 2019-11-23 Samsung Electronics Co Ltd Audio providing apparatus and audio providing method
US9338420B2 (en) * 2013-02-15 2016-05-10 Qualcomm Incorporated Video analysis assisted generation of multi-channel audio data
RS1332U (en) 2013-04-24 2013-08-30 Tomislav Stanojević FULL SOUND ENVIRONMENT SYSTEM WITH FLOOR SPEAKERS

Also Published As

Publication number Publication date
UA113344C2 (xx) 2017-01-10
JP2016511990A (ja) 2016-04-21
RU2017130902A3 (pt) 2020-12-08
IL239782A0 (en) 2015-08-31
AU2014241011A1 (en) 2015-07-23
JP6250084B2 (ja) 2017-12-20
MX342792B (es) 2016-10-12
KR102160406B1 (ko) 2020-10-05
IL239782A (en) 2016-06-30
EP2926571B1 (en) 2017-10-18
IL245897A0 (en) 2016-07-31
KR102332632B1 (ko) 2021-12-02
JP6877510B2 (ja) 2021-05-26
KR20200113004A (ko) 2020-10-05
RU2742195C2 (ru) 2021-02-03
AU2016200037B2 (en) 2018-02-01
HK1215339A1 (zh) 2016-08-19
BR122017004541A2 (pt) 2019-09-03
EP3282716B1 (en) 2019-11-20
MY172606A (en) 2019-12-05
US20210352426A1 (en) 2021-11-11
AU2018202867B2 (en) 2019-10-24
AU2020200378B2 (en) 2021-08-05
HK1245557B (zh) 2020-05-08
JP2020025310A (ja) 2020-02-13
CN105075292B (zh) 2017-07-25
EP3282716A1 (en) 2018-02-14
HK1246552B (zh) 2020-07-03
IL245897B (en) 2019-05-30
AU2016200037A1 (en) 2016-01-28
RU2630955C9 (ru) 2017-09-29
KR101619760B1 (ko) 2016-05-11
JP2016146642A (ja) 2016-08-12
BR122022005121B1 (pt) 2022-06-14
CA2898885A1 (en) 2014-10-02
CN105075292A (zh) 2015-11-18
IL266096A (en) 2019-06-30
US9674630B2 (en) 2017-06-06
IL290671B1 (en) 2024-01-01
US11019447B2 (en) 2021-05-25
MX2015010786A (es) 2015-11-26
JP7280916B2 (ja) 2023-05-24
JP2018067931A (ja) 2018-04-26
US20160007133A1 (en) 2016-01-07
KR102586356B1 (ko) 2023-10-06
HK1249688A1 (zh) 2018-11-02
EP3668121A1 (en) 2020-06-17
JP2021114796A (ja) 2021-08-05
CN107426666A (zh) 2017-12-01
IL309028A (en) 2024-02-01
US20180167756A1 (en) 2018-06-14
US11564051B2 (en) 2023-01-24
US11979733B2 (en) 2024-05-07
KR20150103754A (ko) 2015-09-11
AU2020200378A1 (en) 2020-02-13
KR20160046924A (ko) 2016-04-29
CN107396278B (zh) 2019-04-12
RU2017130902A (ru) 2019-02-05
RU2764227C1 (ru) 2022-01-14
BR122017004541B1 (pt) 2022-09-06
BR112015018993A2 (pt) 2017-07-18
IN2015MN01790A (pt) 2015-08-28
JP6607904B2 (ja) 2019-11-20
CN107426666B (zh) 2019-06-18
KR20230144652A (ko) 2023-10-16
KR20210149191A (ko) 2021-12-08
AU2014241011B2 (en) 2016-01-28
US20230269551A1 (en) 2023-08-24
HK1246553A1 (zh) 2018-09-07
US20200336855A1 (en) 2020-10-22
JP5897778B1 (ja) 2016-03-30
EP2926571A1 (en) 2015-10-07
IL287080B (en) 2022-04-01
IL287080A (en) 2021-12-01
US10652684B2 (en) 2020-05-12
CN107396278A (zh) 2017-11-24
US9992600B2 (en) 2018-06-05
IL290671B2 (en) 2024-05-01
AU2021261862B2 (en) 2023-11-09
WO2014159272A1 (en) 2014-10-02
RU2630955C2 (ru) 2017-09-14
RU2015133695A (ru) 2017-02-20
CA2898885C (en) 2016-05-10
ES2650541T3 (es) 2018-01-19
BR122022005104B1 (pt) 2022-09-13
SG11201505429RA (en) 2015-08-28
US20170238116A1 (en) 2017-08-17
IL266096B (en) 2021-12-01
AU2024200627A1 (en) 2024-02-22
CN107465990A (zh) 2017-12-12
JP2023100966A (ja) 2023-07-19
IL290671A (en) 2022-04-01
CN107465990B (zh) 2020-02-07
AU2021261862A1 (en) 2021-12-02
AU2018202867A1 (en) 2018-05-17

Similar Documents

Publication Publication Date Title
BR112015018993B1 (pt) Método e aparelho

Legal Events

Date Code Title Description
B06F Objections, documents and/or translations needed after an examination request according [chapter 6.6 patent gazette]
B06U Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette]
B06A Patent application procedure suspended [chapter 6.1 patent gazette]
B09A Decision: intention to grant [chapter 9.1 patent gazette]
B09W Correction of the decision to grant [chapter 9.1.4 patent gazette]

Free format text: RETIFICACAO DO DESPACHO 9.1 PUBLICADO NA RPI 2679, DE 10/05/2022.

B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 10/03/2014, OBSERVADAS AS CONDICOES LEGAIS