BR112014013335B1 - Aparelho e método para posicionamento de microfone com base em uma densidade de potência espacial - Google Patents

Aparelho e método para posicionamento de microfone com base em uma densidade de potência espacial Download PDF

Info

Publication number
BR112014013335B1
BR112014013335B1 BR112014013335-2A BR112014013335A BR112014013335B1 BR 112014013335 B1 BR112014013335 B1 BR 112014013335B1 BR 112014013335 A BR112014013335 A BR 112014013335A BR 112014013335 B1 BR112014013335 B1 BR 112014013335B1
Authority
BR
Brazil
Prior art keywords
microphone
sound
spatial
placement
environment
Prior art date
Application number
BR112014013335-2A
Other languages
English (en)
Other versions
BR112014013335A2 (pt
Inventor
Giovanni Del Galdo
Thiergart Oliver
Küch Fabian
Habets Emanuel
Craciun Alexandra
Original Assignee
Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. filed Critical Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V.
Publication of BR112014013335A2 publication Critical patent/BR112014013335A2/pt
Publication of BR112014013335B1 publication Critical patent/BR112014013335B1/pt

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/10Speech classification or search using distance or distortion measures between unknown speech and reference templates
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/12Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/93Discriminating between voiced and unvoiced parts of speech signals
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11CSTATIC STORES
    • G11C2207/00Indexing scheme relating to arrangements for writing information into, or reading information out from, a digital store
    • G11C2207/16Solid state audio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/15Aspects of sound capture and related signal processing for recording or reproduction

Landscapes

  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Otolaryngology (AREA)
  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Abstract

aparelho e método para o posicionamento de microfones em base e uma densidade de energia espacial. um aparelho para o posicionamento de microfone é proposto. o aparelho compreende um determinador de distribuição de energia espacial (10) e um estimador de informações espaciais (20). o determinador de distribuição de energia espacial (10) é adaptado para determinar a densidade de energia espacial que indica valores de energia para uma 10 pluralidade de locais de um ambiente em base à informação de fonte de som que indica um ou mais valores de energia e um ou mais valores de posição de uma ou mais fontes de som localizadas no ambiente. o estimador de informações espaciais (20) é adaptado para estimar a informação espacial acústico em base à densidade de energia espacial.

Description

DESCRIÇÃO
[0001] A presente invenção refere-se ao processamento desinais de áudio e, especificamente, a um aparelho e método para posicionamento automático de microfones.
[0002] O processamento de sinais de áudio se torna cadavez mais importante. Especialmente, a gravação de som espacial é aplicada em uma pluralidade de aplicações. A gravação de som espacial visa capturar um campo de som com a ajuda de múltiplos microfones, de maneira que no lado da reprodução, um ouvinte perceba a imagem sonora como era no local de gravação.
[0003] Abordagens padrões para gravação de som espacialnormalmente envolvem microfones espaçados e onidirecionais (p.ex., estereofonia AB) , microfones direcionais coincidentes (p.ex., na estereofonia de intensidade) ou microfones mais sofisticados, como microfones em formato B, p.ex., em Ambisonics; vide, por exemplo,
[0004] [1] Michael A. Gerzon. Ambisonics in multichannelbroadcasting and video. J. Audio Eng. Soc, 33 (11) :859-871, 1985.
[0005] Um microfone espacial, por exemplo, microfonesdirecionais, conjuntos de microfones, etc., é capaz de gravar sons espaciais. O termo "microfone espacial"refere-se a qualquer aparelho para aquisição direcionalmente seletiva de som espacial (p.ex., microfones direcionais, conjuntos de microfones, etc.).
[0006] Para reprodução sonora, aproximações nãoparamétricas já existentes derivam sinais desejados de reprodução de áudio diretamente de sinais gravados de microfones. Uma principal desvantagem dessas aproximações é, que a imagem espacial gravada é sempre relativa ao microfone espacial utilizado.
[0007] Em muitas aplicações, não é possível ou viável posicionar um microfone espacial na posição desejada que, por exemplo, pode ser uma posição próxima a um ou mais fontes sonoras. Nesse caso, pode ser mais benéfico posicionar diversos microfones espaciais mais além das fontes sonoras ativas e ainda ser capaz de capturar a cena de som como desejado.
[0008] Algumas aplicações empregam dois ou mais microfones espaciais reais. Deve-se observar que o termo "microfone espacial real"refere-se ao tipo de microfone ou combinação de microfones desejados (p.ex., um microfone direcional, um par de microfones direcionais, conforme utilizado em microfones estéreos comuns, mas também um conjunto de microfones), que existem fisicamente.
[0009] Para cada microfone espacial real, a Direção de Chegada (DOA I Direction of Arrival)pode ser estimada no domínio frequência-tempo. Utilizando a informação colhida pelos microfones espaciais reais, junto ao conhecimento de sua posição relativa, pode ser possível computar os sinais de saída de um microfone espacial virtualmente posicionado em uma posição arbitrária (à vontade) no ambiente. O microfone espacial é referido como "microfone espacial virtual" na sequência.
[00010] Em tais aplicações, o posicionamento e orientação de um ou mais microfones virtuais precisam ser inseridos manualmente. Porém, seria apreciado se uma posição e/ou orientação ideal de um ou mais microfones virtuais fosse determinada automaticamente.
[00011]Seria vantajoso se urrí aparelho e método fossemdisponibilizados para determinar onde posicionar um microfone virtual, onde posicionar um microfone fisico ou determinar uma posição de escuta ideal. Além disso, seria vantajoso saber como posicionar um microfone em uma posição ideal. Os termos "posicionamento de microfone" e "informação de posicionamento" se referem a como determinar uma posição adequada de um microfone ou um ouvinte tal como determinar uma orientação adequada de um microfone ou um ouvinte.
[00012] O objeto da presente invenção é fornecer conceitos melhorados de posicionamento de microfone. O objeto da presente invenção é alcançado por um aparelho de acordo com a reivindicação 1, por um método de acordo com a reivindicação 17 e por um programa de computador de acordo com a reivindicação 18.
[00013] Um aparelho para determinar os posicionamentos ideais de escuta ou microfone é fornecido. O aparelho compreende um determinador espacial de distribuição de potência e um estimador de informação espacial. O determinador de distribuição de potência espacial é adaptado para determinar uma densidade de potência espacial, indicando valores de potência para uma pluralidade de localizações de um ambiente com base em informações de fontes sonoras indicando um ou mais valores de potência e um ou mais valores de posicionamento de uma ou mais fontes sonoras localizadas no ambiente. O estimador de informação espacial é adaptado para estimar as informações espaciais acústicas baseadas na densidade de potência espacial.
[00014] Na sequência, os termos "microfone virtual" irão se referir no geral a qualquer tipo de microfone. Especificamente, o termo "microfone virtual" se refere tanto a microfones virtuais espaciais ou não espaciais quanto a microfones espaciais existentes fisicamente ou não espaciais pelo qual a informação de posicionamento será determinada.
[00015] O estimador de informação espacial é adaptado para determinar um posicionamento do microfone virtual ideal ou uma orientação do microfone virtual ideal em um ambiente com base na densidade de potência espacial determinada pelo determinador de distribuição de potência espacial. A densidade de potência espacial é determinada pelo determinador de distribuição de potência espacial com base em valores de potência de fontes sonoras e informações correspondentes de posicionamento.
[00016] É fornecida uma maneira automática de determinar um posicionamento e/ou orientação ideal de um. ou mais microfones para descrever a cena sonora, por exemplo, um ou mais microfones virtuais.
[00017] Em algumas aplicações, o determinador de distribuição de potência espacial pode ser adaptado para fazer uso da informação opcional fornecida por uma métrica importante, a qual, por exemplo, representa uma medida de confiabilidade para a estimativa dos posicionamentos ESS. [00018]
[00019] Por exemplo, em algumas aplicações, a difusão Psi do som pode ser utilizada como uma métrica importante. O termo (1Psi) pode então ser simplesmente multiplicado pelos valores de fonte de potência durante o cálculo de distribuição de potência espacial, de maneira que o som difuso contribuirá menos do que o som direto na determinação da distribuição de potência espacial.
[00020] Uma vantagem importante dos conceitos propostos é que podem ser aplicados independentemente da condição do ambiente e não exigem qualquer informação prévia a respeito do número ou posicionamento dos transmissores e/ou fontes sonoras fisicas. Por isso, o sistema é autossuficiente e pode se adaptar a qualquer tipo de cenário utilizando apenas análises sonoras. De acordo com a técnica anterior, uma informação prévia deve estar disponivel para determinar um posicionamento e/ou orientação ideal de um ou mais microfones. Isso ou limita a aplicação, ou uma estimativa deve ser feita, que limite a precisão. Ao empregar as aplicações acima descritas, isso não se torna necessário. 0 posicionamento do microfone virtual (ou da pluralidade de microfones virtuais) é calculado ao realizar uma análise de cena semicega e então alterá- lo de acordo com os requisitos da aplicação desejada.
[00021] Ao contrário de outros métodos para estimar um posicionamento e/ou orientação ideal dos microfones virtuais, o método proposto não exige nenhuma informação da cena geométrica considerada. Por exemplo, não há necessidade de obter informações prévias sobre o número de fontes sonoras ativas (por exemplo, o número de participantes em uma conferência), nem de qualquer informação sobre o posicionamento relativo das fontes sonoras ativas (por exemplo, a organização dos participantes em uma sala de conferência). A informação sobre o som é derivada apenas das propriedades das fontes sonoras ativas, das quais se referem como "fontes sonoras efetivas"(ESS | effective sound sources), descrevendo a cena sonora. O modelo ESS é uma cena sonora espacial em que um ou mais ESS são acionados em um instante de tempo especifico ou em um intervalo de frequência-tempo especifico. A seguir, o termo "fonte fisica" é utilizado para descrever uma fonte real da cena sonora, por exemplo, um transmissor, enquanto que o termo fonte sonora efetiva (ESS), (também referido como "fonte sonora"), é utilizado para descrever um evento sonoro que seja ativo de uma única vez ou em um intervalo de frequência- tempo. Cada ESS é caracterizada por um posicionamento e por uma potência. Essa informação permite construir uma distribuição de potência espacial, por exemplo, uma densidade de potência espacial, que permite determinar o posicionamento ou orientação ideal do microfone virtual.
[00022] Os parâmetros da ESS podem, por exemplo, ser obtidos ao empregar os conceitos abaixo explicados para o aparelho para gerar um sinal de saida de áudio de um microfone virtual em um posicionamento virtual configurável. A estimativa de posicionamento dos eventos sonoros é explicada abaixo para o aparelho para gerar um sinal de saida de áudio de um microfone virtual, especialmente explicado com referência às Figuras 15 a 17. Os conceitos lá descritos podem ser empregados para determinar o posicionamento de uma fonte sonora efetiva. A compensação de propagação é explicada abaixo para o aparelho gerar um sinal de saida de áudio de um microfone virtual, especialmente explicado com referência às Figuras 17 a 20. Os conceitos lá descritos podem ser empregados para determinar a potência de uma fonte sonora efetiva.
[00023] De acordo com uma reivindicação, o estimador de informação espacial pode compreender um estimador central de cena sonora para estimar um posicionamento de um centro de uma cena sonora no ambiente. O estimador de informação espacial pode, além disso, compreender um. calculador de posicionamento de microfone para calcular o posicionamento de um microfone como a informação espacial acústica com base no posicionamento do centro da cena sonora.
[00024] Em outra aplicação, o calculador de posicionamento de microfone pode ser adaptado para calcular o posicionamento do microfone, caracterizado pelo microfone ser um microfone virtual.
[00025] Além disso, de acordo com outra aplicação, o estimador central de cena sonora pode ser adaptado para calcular um centro gravitacional da densidade de potência espacial para estimar o centro da cena sonora.
[00026] Em uma aplicação adicional, o estimador central de cena sonora pode ser configurado para determinar um perfil de atraso de potência com base na densidade de potência espacial e para determinar um atraso de raiz quadrada da média com base no perfil de atraso de potência para cada uma de uma pluralidade de localizações no ambiente. O estimador central de cena sonora pode ser configurado para determinar o posicionamento da localização da pluralidade de localizações como o centro de uma cena sonora, a qual possui o minimo de atraso de raiz quadrada da média dos atrasos de raiz quadrada da média da pluralidade de localizações.
[00027] Em outra aplicação, o estimador central de cena sonora pode ser adaptado para conduzir integração circular para estimar o centro da cena sonora, caracterizado pelo estimador central de cena sonora poder ser adaptado para conduzir a integração circular ao envolver a densidade de potência espacial com um circulo ao aplicar, por exemplo, a formula
Figure img0001
[00028] caracterizado por r (x, y) ser a densidade depotência espacial e em que C(r, ot (x, y) indica um circulo para determinar um valor de integração circular para cada uma das pluralidades de localizações do ambiente, quando o ambiente for um ambiente bidimensional.
[00029] Alternativamente, o estimador central de cenasonora pode ser adaptado para conduzir a integração circular ao envolver a densidade de potência espacial com uma esfera ao aplicar, por exemplo, a fórmulag (x, y, z) = r (x, y, z) * C(r,ó) (x, y, z)
[00030] caracterizado por r (x, y, z) ser a densidade depotência espacial e em que C(r, ,0) (x, y, z) indica uma esfera para determinar um valor de integração circular para cada uma das pluralidades de localizações do ambiente, quando o ambiente for um ambiente tridimensional,
[00031] Além disso, de acordo com uma aplicação, oestimador central de cena sonora pode ser adaptado para determinar um máximo dos valores de integração circular de cada uma das pluralidades de localizações do ambiente para estimar o centro de uma cena sonora.
[00032] Em uma aplicação adicional, o calculador deposicionamento de microfone pode ser adaptado para determinar a linha de largura mais ampla de uma pluralidade de linhas pelo centro da cena sonora no ambiente. Cada uma das pluralidades de linhas pelo centro da cena sonora pode ter uma largura de energia, caracterizada pela linha de largura mais ampla poder ser a linha da pluralidade de linhas pelo centro da cena sonora com a maior largura de energia.
[00033] De acordo com uma aplicação, a largura de energia de uma considerada linha da pluralidade de linhas pode indicar um comprimento maior de um segmento na considerada linha, de maneira que o primeiro ponto do segmento limitando o segmento, e de maneira que um segundo ponto diferente do segmento limitando o segmento, tenham ambos um valor de potência indicado pela densidade de potência espacial, que pode ser superior ou igual a um valor de potência predefinido. O calculador de posicionamento de microfone pode ser adaptado para determinar o posicionamento do microfone de maneira que uma segunda linha, que passa pelo centro da cena sonora e o posicionamento do microfone possa ser ortogonal à linha de largura mais ampla.
[00034] Em uma aplicação, o calculador de posicionamento do microfone pode ser configurado para aplicar uma decomposição de valor singular a uma matriz com uma pluralidade de colunas. As colunas da matriz podem indicar posicionamentos das localizações no ambiente relativas ao centro da cena sonora. Além disso, as colunas da matriz podem indicar apenas os posicionamentos das localizações com valores de potência indicados pela densidade de potência espacial que são maiores do que um limiar predefinido, ou as colunas da matriz podem indicar apenas os posicionamentos das localizações com valores de potência indicados pela densidade de potência espacial que são maiores ou iguais do que um valor de limiar predefinido.
[00035] De acordo com outra aplicação, o estimador de informação espacial pode compreender um determinador de orientação para determinar uma orientação do microfone com base na densidade de potência espacial. O determinador de orientação pode ser adaptado para determinar a orientação do microfone de maneira que o microfone seja orientado diante do centro da cena sonora. O determinador de orientação pode ser configurado para determinar um valor de integração f (<p) para cada uma de uma pluralidade de direções <p ao aplicar a fórmula
Figure img0002
[00036] caracterizado por rraax definir uma distânciamáxima do microfone, e em que o determinador de orientação é configurado para determinar a orientação do microfone com base nos valores de integração determinados f (<p) .
[00037] Em outra aplicação, o determinador dedistribuição de potência espacial pode ser adaptado para determinar a densidade de potência espacial para a pluralidade de localizações do ambiente por um intervalo de frequência-tempo (k, n) ao aplicar a formula
Figure img0003
[00038] quando o ambiente for um ambiente bidimensional,ou ao aplicar a formula
Figure img0004
[00039] quando o ambiente for um ambiente tridimensional,
[00040] caracterizado por k denotar o indice defrequência e n denotar o indice de tempo, em que x, y, z denotam coordenadas de uma da pluralidade de localizações, em que a pelo intervalo de frequência-tempo (k, n) , em que xεssx/ llssiz ZESSÍ denotam coordenadas na i-thfonte sonora, em que y, é um valor escalar que pode representar um indicador de quão confiável está a estimativa de posicionamento de cada fonte sonora efetiva e em que g é uma função dependente de x, y, z, xESSi, yEssi, ZESSA, k, n e yi-
[00041] Aplicações da presente invenção são explicadascom referência aos desenhos anexos, nos quais:
[00042] A Figura 1 ilustra um aparelho paraposicionamento de microfone de acordo com uma aplicação,
[00043] A Figura 2 descreve um aparelho paraposicionamento de microfone de acordo com outra aplicação.
[00044] A Figura 3 ilustra as entradas e saídas de umaparelho para posicionamento de microfone de acordo com uma aplicação,
[00045] As Figuras 4a-4c exibem uma pluralidade decenários demicrofone, aplicação para um aparelho para posicionamento de
[00046] A Figura 5 descreve um determinador dedistribuição de potência espacial 21 de acordo com uma aplicação,
[00047] A Figura 6a ilustra as funções delta paraconstruir a função g,
[00048] A Figura 6b descreve as funções de distribuiçãopara construir a função g,
[00049] A Figura 7 ilustra um estimador de informaçãoespacial de
[00050] acordoA com uma aplicação, Figura 8 exibe um estimador de informaçãoespacial de
[00051] acordoA com outra aplicação, Figura 9 ilustra um calculador de orientação/posicionamento de microfone 44 de acordo com outra aplicação descrevendo mais detalhes,
[00052] As Figura lOa-lOc descrevem a otimização com base na largura de energia projetada de acordo com uma aplicação,
[00053] A Figura 11 ilustra um estimador de informação espacial de acordo com outra aplicação, caracterizado pelo estimador de informação espacial compreender, além disso, um determinador de orientação,
[00054] A Figura 12 ilustra um aparelho para gerar um sinal de saida de áudio de acordo com uma aplicação,
[00055] A Figura 13 ilustra as entradas e saldas de um aparelho e um método para gerar um sinal de saida de áudio de acordo com uma aplicação,
[00056] A Figura 14 ilustra a estrutura básica de um aparelho para gerar um sinal de saida de áudio de acordo com uma aplicação que compreende um estimador de posicionamento de eventos sonoros e um módulo de cálculo de informações,
[00057] A Figura 15 exibe um cenário exemplar em que os microfones espaciais reais são descritos como Matrizes Lineares Uniformes de 3 microfones cada,
[00058] A Figura 16 descreve dois microfones espaciais em 3D para estimar a direção de chegada no espaço 3D,
[00059] A Figura 17 ilustra uma geometria onde uma fonte sonora do tipo pontiaguda isotrópica do atual intervalo de frequência-tempo (k, n) é localizado em um posicionamento p-rpi,s(k, n) ,
[00060] A Figura 18 descreve o módulo de cálculo de informações de acordo com uma aplicação,
[00061] A Figura 19 descreve o módulo de cálculo deinformações de acordo com outra aplicação,
[00062] A Figura 20 exibe dois microfones espaciais reais, um evento sonoro localizado e um posicionamento de um microfone espacial virtual,
[00063] A Figura 21 ilustra como obter a direção dechegada relativa a um microfone virtual de acordo com uma aplicação,
[00064] A Figura 22 descreve uma maneira possível dederivar a DOA do som a partir do ponto de vista do microfone virtual de acordo com uma aplicação,
[00065] A Figura 23 ilustra um bloco de cálculo deinformações compreendendo uma unidade de cálculo de dispersão de acordo com uma aplicação,
[00066] A Figura 24 descreve uma unidade de cálculo dedifusão de acordo com uma aplicação,
[00067] A Figura 25 ilustra um cenário, onde a estimativade posicionamento dos eventos sonoros não é possível,
[00068] A Figura 26 exibe dois microfones espaciaisreais, um evento sonoro localizado e um posicionamento de um microfone virtual, e
[00069] As Figuras 27a-27c ilustram cenários onde doisconjuntos de microfones recebem som direto, som refletido por uma parede e som difuso.
[00070] A Figura 1 ilustra um aparelho paraposicionamento de microfone de acordo com uma aplicação. O aparelho compreende um determinador de distribuição de potência espacial 10 e um estimador de informação espacial 20. O determinador de distribuição de potência espacial 10 é adaptado para determinar uma densidade de potência espacial spd indicando valores de potência para uma pluralidade de localizações de um ambiente com base em informações de fontes sonoras ssi indicando um ou mais valores de potência e um ou mais valores de posicionamento de uma ou mais fontes sonoras efetivas (EES) localizadas no ambiente. O estimador de informação espacial 20 é adaptado para estimar as informações espaciais acústicas aspi com base na densidade de potência espacial.
[00071] A Figura 2 ilustra um aparelho para posicionamento de microfone de acordo com outra aplicação. O aparelho compreende um determinador de distribuição de potência espacial 21 para determinar uma densidade de potência espacial (SPD I spatial power density) , também referida como distribuição de potência espacial, indicando valores de potência para uma pluralidade de localizações de um ambiente com base em informações de fontes sonoras efetivas indicando um ou mais valores de núcleo e valores de posicionamento de uma ou mais fontes sonoras efetivas alocadas no ambiente. O aparelho compreende, além disso, um estimador de informação espacial 22 para estimar um posicionamento e/ou orientação de um microfone virtual (VM I virtual microphone) com base na densidade de potência espacial.
[00072] A Figura 3 ilustra as entradas e saidas de um aparelho para posicionamento de microfone de acordo com uma aplicação. As entradas 91, 92, ... 9N no aparelho compreendem a potência, por exemplo, valores absolutos da pressão do campo sonoro quadrado e o posicionamento, por exemplo, coordenadas Cartesianas em 2D ou 3D. As fontes sonoras efetivas (ESS) estão descrevendo a cena sonora (campo sonoro).
[00073] As fontes sonoras efetivas podem, por exemplo, ser iguais às fontes sonoras instantâneas do tipo pontiagudas (IPL.S I instantaneous point-like sound) , assim como descrito abaixo para o aparelho gerar um sinal de saida de áudio de um microfone virtual a um posicionamento virtual configurável.
[00074] Na saida, o posicionamento e localização de um ou mais microfones virtuais é retornado. A seguir, o termo "fonte fisica" é utilizado para descrever uma fonte real da cena sonora, por exemplo, um transmissor, enquanto que o termo fonte sonora efetiva (ESS), (também referido como "fonte sonora"), é utilizado para descrever um evento sonoro que seja ativo de uma única vez ou intervalo de frequência-tempo, assim como também é utilizado para o IPLS descrito abaixo com respeito ao aparelho para gerar um sinal de saida de áudio de um microfone virtual em um posicionamento virtual configurável.
[00075] Além disso, deve-se notar que o termo "fonte sonora" cobre tanto as fontes fisicas quanto as fontes sonoras efetivas.
[00076] A entrada do aparelho de acordo com a aplicação das Figuras 2, 91, 92, 9N compreende informações sobre o posicionamento e potência correspondente da pluralidade de N fontes sonoras efetivas localizadas dentro de uma instância de tempo ou intervalo de frequência-tempo como descrito abaixo para o aparelho gerar um sinal de saida de áudio de um. microfone virtual em um posicionamento virtual configurável, e assim como também descrito em
[00077] [20] Giovanni Del Galdo, Oliver Thiergart, Tobias Weller, and E. A. P. Habets. Generating virtual microphone signals using geometrical information gathered by distributed arrays. In Third Joint Workshop on Hands-free Speech Communication and Microphone Arrays (HSCMA 'll), Edimburgo, Reino Unido, maio de 2011.
[00078] Por exemplo, essa informação pode sercompreendida na saida 106 na Figura 14 do módulo de cálculo de informações do aparelho para gerar um. sinal de saida de áudio de um microfone virtual em um posicionamento virtual configurável considerado abaixo, para 1, 2, ..., N intervalos de frequência diferentes quando uma transformada de Fourier de curta duração (STFT I short-time Fourier transform)for aplicada.
[00079] Em relação ao aparelho para posicionamento demicrofone, diferentes modos de operação podem se tornar ativos durante um intervalo de tempo especifico, cada um implicando diversos cenários para o posicionamento e orientação de um ou mais microfones virtuais. Um aparelho para posicionamento de microfones pode ser empregado para uma pluralidade de cenários de aplicação:
[00080] Em um primeiro de cenário de aplicações, Nmicrofones virtuais omnidirecionais podem ser posicionados dentro da cena sonora (consulte a Figura 4a) . Assim, nesse cenário de aplicação, diversos microfones virtuais estão cobrindo toda a cena sonora.
[00081] Em um segundo cenário de aplicação, um únicomicrofone virtual está posicionado no centro acústico da cena sonora. Por exemplo, microfones virtuais omnidirecionais, microfones virtuais cardioides, ou um microfone espacial virtual (como um microfone em formato B) são posicionados de maneira que todos os participantes sejam capturados de forma ideal (Figura 4b) .
[00082] Em um terceiro cenário de aplicação, um microfone espacial é posicionado 'do lado de fora' da cena sonora. Por exemplo, um microfone estéreo virtual é posicionado de maneira que uma imagem espacial ampla seja obtida, assim como ilustrado na Figura 4c.
[00083] Em um quarto cenário de aplicação, a orientação ideal do microfone virtual é estimada enquanto o microfone virtual é localizado em um posicionamento fixo (posicionamento predeterminado), por exemplo, o posicionamento e diretividade do microfone virtual pode ser predefinido e apenas a orientação é calculada automaticamente.
[00084] Deve-se notar que todas as aplicações acima podem incluir uma adaptabilidade temporal. Por exemplo, o ponto virtual da orientação/posicionamento do microfone segue um transmissor enquanto o transmissor se move no ambiente.
[00085] Nas Figuras 2 e 3, informações opcionais são fornecidas por uma métrica importante 13, que, por exemplo, representa uma medida de confiabilidade para a estimativa dos posicionamentos da ESS. Por exemplo, tal métrica pode ser derivada das variações dos estimadores de direção de chegada (ao usar duas ou mais matrizes de microfones, assim como explicado) como explicado abaixo para o aparelho gerar um sinal de saida de áudio de um microfone virtual em um posicionamento virtual configurável, ou a partir do parâmetro de difusão calculado como em
[00086] [21] Ville Pulkki. Spatial sound reproduction with, directional audio coding’. J. Audio Eng. Soc, 55 (6) : 503-516, junho de 2007.
[00087] A métrica pode ser expressa ou com respeito atodas as entradas 91, 9N, (por exemplo, um valor constante damétrica para todas as entradas pode ser utilizada) , ou pode ser definida de maneira diferente para cada entrada 91, 9N. Assaidas 15, 16 do aparelho da Figura 2 podem compreender oposicionamento e/ou orientação de um ou mais microfones virtuais. Dependendo da aplicação, saidas (posicionamentos e orientações) para uma pluralidade de microfones virtuais podem ser geradas, cada uma correspondendo a um microfone virtual especifico.
[00088] A Figura 5 ilustra um determinador dedistribuição de potência espacial 21 de acordo com uma aplicação. O determinador de distribuição de potência espacial compreende uma unidade principal de processamento de distribuição de potência espacial 31 e uma unidade pós-processamento de distribuição de potência espacial 32. O determinador de distribuição de potência espacial 21 é adaptado para determinar (ou calcular ao invés) uma densidade de potência espacial (SPD) modificada denotada a seguir por P (x, y, z, k, n) , que expressa a potência localizada em um ponto especifico, por exemplo, (x, y, z) no espaço para cada intervalo de frequência-tempo (k, n) . A SPD é gerada ao integrar os valores de potência nos posicionamentos das fontes sonoras efetivas 91, ..., 9N, que são inseridas no determinador dedistribuição de potência espacial 21.
[00089] O cálculo da SPD para um intervalo de frequência-tempo (k, n) pode ser feito de acordo com a fórmula
Figure img0005
[00090] caracterizado por (x, y, z) representarem as coordenadas do sistema e xESgi, yEssi, ZESSÍ serem as coordenadas da fonte sonora efetiva i. A métrica importante 103 Yi representa um indicador de quão confiável é a estimativa de posicionamento de cada fonte sonora efetiva. Por padrão, a métrica importante pode ser igual a 1. Deve-se notar aqui que a potênciaj e as coordenadas xESSi, yESSi e zESSi correspondem à entrada 9i na Figura 3. Além disso, deve-se notar que para simplicidade de notação, a extensão (k, n) não será escrita na sequência. Porém, as fórmulas a seguir ainda dependem do intervalo de frequência-tempo (k, n) especifico e considerado.
[00091] A SPD gerada pela unidade principal de processamento de distribuição de potência espacial 31 (por exemplo, na Figura 5) , pode posteriormente ser processada pela unidade principal de processamento de distribuição de potência espacial 32 (pós-processamento da SPD e módulo de integração temporal) e integrada no momento, por exemplo, ao empregar um filtro autoregressive. Para poder ser mais robusta contra cenas sonoras estranhas (por exemplo, causadas por estimativas de posicionamento incorretas), qualquer tipo de filtro pós- processamento pode ser aplicado na SPD. Tal filtro pós- processamento pode, por exemplo, ser um filtro passa baixo ou um filtro morfológico (de erosão ou dilatação).
[00092] Ao calcular o posicionamento e/ou orientação de um ou mais microfones virtuais, pode-se empregar um parâmetro opcional que dependa da SPD. Esse parâmetro pode ser referir a, por exemplo, regiões preferidas e/ou proibidas do ambiente onde se posiciona os microfones virtuais (VM), ou, pode se referir à SPD escolhendo os alcances específicos da SPD, que atendem a algumas regras predeterminadas.
[00093] Como pode ser visto em fórmula (1) , g é umafunção da métrica importante y (ou Yi ao invés) no espaço, que possui, por padrão, um valor igual a 1. Caso contrário, y pode ser utilizado para levar em conta diferentes contribuições. Por exemplo, se o2 é a variação da estimativa de posicionamento, 7 — A então, ou exemplo, y pode ser configurado a <7 ,
[00094] De maneira alternativa, a difusão padrão Wcalculada nos conjuntos de microfones pode ser empregada, resultando em y = 1 - T.
[00095] Por isso, y pode ser escolhido de maneira quediminua para estimativas não confiáveis e aumente para as mais confiáveis.
[00096] Uma pluralidade de possibilidades existe paraconstruir a função g. Dois exemplos especialmente úteis em prática são:
Figure img0006
[00097] Na primeira função, δ (x), δ (y) e δ(z) indicamfunções delta (consulte a Figura 6 ilustrando funções delta). Na segunda função, 8 ~ ~~ J é a média do vetor e ∑Yé amatriz da covariância da função de distribuição Gaussiana g (consulte a Figura 6b ilustrando funções de distribuição). A matriz da covariância é calculada utilizando-se a seguinte fórmula:
Figure img0007
[000981 a qual é dependente da escolha de y para ocenário onde • o1f tendo em mente que, por exemplo, para o caso
Figure img0008
[00099] Como pode ser visto em fórmula (3), a função gpode ser descrita por uma função de distribuição em volta dos posicionamentos das fontes sonoras efetivas dados pelas entradas 91 ... 9N, onde por exemplo, a métrica importante é o inverso da variação de uma distribuição Gaussiana. Se a estimativa de um posicionamento de fonte sonora possui uma alta confiabilidade, a distribuição de acordo será bastante estreita, enquanto que uma estimativa não confiável poderia corresponder a altas variantes e poderia, portanto, ter uma ampla distribuição, consulte por exemplo a Figura 6b ilustrando um exemplo 1D.
[000100] A Figura 7 ilustra um estimador de informaçãoespacial 22 de acordo com uma aplicação. O estimador de informação espacial compreende um estimador central de cena sonora 41 para estimar um posicionamento de um centro de uma cena sonora no ambiente. Além disso, o estimador de informação espacial compreende, um calculador de posicionamento de microfone 42 para calcular o posicionamento de um microfone como a informação espacial acústica com base no posicionamento do centro da cena sonora.
[000101] A Figura 8 ilustra um estimador de informaçãoespacial 22 de acordo com mais uma aplicação. O estimador de informação espacial compreende um calculador de posicionamento de microfone virtual 44 sendo adaptado para calcular um posicionamento de um microfone virtual e sendo posteriormente adaptado para determinar uma orientação de um microfone virtual. 0 calculador de posicionamento de microfone virtual 44 é também referido, portanto, como calculador de orientação/posicionamento de microfone 44.
[000102] O estimador de informação espacial 22 da Figura 8 usa como entradas as SPD 23 anteriormente gerada. Elas retornam como saidas do posicionamento 15 e orientação 16 de um ou mais microfones virtuais, dependendo do objetivo da aplicação. O primeiro bloco de processamento, o estimador central de cena sonora 41, fornece uma estimativa do centro sonoro central. A saida 43 do bloco 41, por exemplo, o posicionamento do centro sonoro central, é, então, fornecido como entrada para o segundo bloco de processamento, o calculador de orientação/posicionamento de microfone virtual 44. O calculador de orientação/posicionamento de microfone virtual 44 executa a estimativa real do posicionamento final 15 e orientação 16 de um ou mais microfones virtuais, dependendo do objetivo da aplicação.
[000103] O estimador central de cena sonora 41 fornece uma estimativa do centro sonoro central. A saida do estimador central de cena sonora 41 é, então, fornecida como entrada para o calculador de orientação/posicionamento de microfone 44. O calculador de orientação/posicionamento de microfone 44 executa a estimativa real do posicionamento final 15 e/ou orientação 16 de um ou mais microfones virtuais de acordo com o modo de operação que caracteriza o objetivo da aplicação.
[000104] Aplicações do estimador central de cena sonora foram então explicados com mais detalhes. Para poder obter o centro da cena sonora, diversos conceitos possiveis existem.
[000105] De acordo com um primeiro conceito de umaprimeira aplicação, o centro da cena sonora é obtido ao calcular o centro da gravidade da SPD r(x,y,z) . O valor de r (x,y,z) pode ser interpretado como a massa existente no ponto (x,y,z) no espaço.
[000106] De acordo com um segundo conceito de uma segundaaplicação, o posicionamento no espaço com uma dispersão minima de tempo do canal deve ser encontrado. Isso é alcançado ao considerar a propagação do atraso da raiz quadrada da média (RMS | root mean squared). A princípio, para cada ponto no espaço p = (xθ, yO), urn perfil de atraso de potência (PDP | power delay profile) AP(T)é calculado com base na SPD r (x, y, z), utilizando-se, por exemplo
Figure img0009
[000107] onde
Figure img0010
[000108] De Ap(i), o atraso da RMS é, então, calculadoutilizando-se a seguinte equação:
Figure img0011
[000109] onde representa a média de atraso de AP(T). O posicionamento para o qual a média de atraso mínima representará o centro da cena sonora.
[000110] De acordo com um terceiro conceito de uma terceira aplicação, a qual pode ser empregada como uma alternativa à estimativa sonora de cena central, uma "integração circular" é proposta. Por exemplo, no caso 2D, a SPD r(x, y) é convolvida com um círculo C(E/O), de acordo com a seguinte formula
Figure img0012
[000111]:caracterizado por r ser o raio do círculo e em que o define o centro do circulo. 0 raio r pode ou ser constante ou pode variar dependendo do valorde potência no ponto (x, y) . Por exemplo, uma alta potência no ponto (x, y) pode corresponder a um raio amplo, enquanto que uma baixa potência pode corresponder a um raio estreito. Dependências adicionais na potência podem também ser possíveis. Tal exemplo seria envolver o circulo com uma função Gaussiana bivariável antes de usá-lo para construir uma função g (x, y) . De acordo com tal aplicação, a matriz de covariância da função Gaussiana bivariável se torna dependente da potência no posicionamento (x,y), por exemplo, alta potência corresponde a baixa variação, enquanto que baixa potência corresponde a alta variação.
[000112] Uma vez que g (x, y) é calculado, o centro dacena sonora pode ser determinado de acordo com a fórmula a seguir:
Figure img0013
[000113] Em outras aplicações, o conceito é estendido a 3D ao empregar uma convolução 3D de r (x, y, z) com uma esfera, de maneira análoga.
[000114] A Figura 9 ilustra um calculador de orientação/posicionamento de microfone 44 de acordo com outra aplicação descrevendo mais detalhes. O centro da cena sonora 43 é dado como entrada para o calculador de orientação/posicionamento de microfone 44, junto com a SPD 23. No calculador de orientação/posicionamento de microfone 44, a informação sobre o centro da cena sonora 43 pode ser copiada, dependendo da operação exigida pelo objetivo da aplicação, para a saída e utilizada diretamente como posicionamento de um microfone virtual, por exemplo, quando o cenário de aplicação da Figura 4b é aplicável, com relação ao cenário com um microfone virtual posicionado no centro acústico da cena sonora. De maneira alternativa, a informação sobre o centro da cena sonora 43 pode ser utilizada como um parâmetro de modificação dentro do calculador de orientaçâo/posicionamento de microfone 44.
[000115] Conceitos diferentes podem ser aplicados paracalcular um posicionamento de microfone, por exemplo:
[000116] otimização com base na largura de energiaprojetada,
[000117] otimização com base na análise de componentes deprincípios.
[000118] Pode-se presumir, para fins ilustrativos, que oposicionamento do microfone é calculado de acordo com o cenário de aplicação da Figura 4c fazendo referência ao cenário de um microfone espacial dentro da cena lateral. Porém, as explicações são igualmente aplicáveis para quaisquer outros cenários de aplicação.
[000119] Os conceitos para estimar o posicionamento dosmicrofones virtuais de acordo com as aplicações, dos quais foram anteriormente enumerados, serão agora descritos com mais detalhes na sequência.
[000120] A otimização com base na largura de energiaprojetada define um conjunto de M linhas espaçadas igualmente que passam pelo centro da cena sonora. Para cada uma dessas linhas, em por exemplo, um cenário 2D, a SPD r(x,y) é projetada neles de maneira ortogonal e resumida.
[000121] As Figuras 10a a 10c ilustram a otimização combase na largura de energia projetada. Na Figura 10a, a função projetada de potência PprOj é calculada para cada uma das linhas fl, ■ • • íi, • • • fM. As larguras correspondentes da função são então calculadas, consulte a Figura 10b. Por exemplo, a largura pode ser definida como uma largura -3 dB, que é equivalente à distância pela qual os pontos mais à esquerda e mais à direita do segmento de distância corresponde a um nivel de potência predefinido, por exemplo, um nivel de potência maior que -3 dB. Posteriormente, a linha com largura mais ampla é identificada e o microfone virtual é posicionado na direção ortogonal a ele. A orientação do microfone virtual pode ser configurada de maneira que aponte ao centro da cena sonora, como explicado na próxima seção. Com essa aproximação, dois possiveis posicionamentos de microfone virtual (VM) são obtidos, visto que o VM pode ser posicionado ou na direção ortogonal positiva ou na negativa.
[000122] A distância pela qual o VM é posicionado pode sercalculada, por exemplo, com base nas considerações geométricas junto com o ângulo de abertura do microfone virtual. Isso é ilustrado pela Figura 10c. A distância pelo qual o VM é posicionado varia dependendo do modo de operação especifico ao objetivo da aplicação. Isso implica em construir um triângulo de maneira que a largura i da Figura 10c represente um lado do triângulo e o centro de gravidade, COG (center of gravity) , é o ponto médio da lateral. Ao tomar a linha ortogonal no COG e defini-la como o bissetor do ângulo de abertura αdo VM, a terceira vértice do triângulo é encontrada. A extensão do bissetor então dá a distância entre o posicionamento do VM e o centro da cena sonora.
[000123] De acordo com outra aplicação, o conceito de otimização descrito com base na energia projetada pode ser estendido a 3D. Nesse caso, os planos M2 igualmente espaçados (em direção de elevação e azimutal) são definidos ao invés das linhas M. A largura então corresponde ao diâmetro do circulo que compreende a maior parte da energia projetada. 0 posicionamento final é obtido ao posicionar o VM no normal à superfície plana do mais largo diâmetro do circulo. De acordo com uma aplicação, a distância do centro da cena sonora ao posicionamento do VM pode ser calculada novamente, de maneira similar ao caso 2D, que usa considerações geométricas e o ângulo de abertura especificado pelo modo de operação.
[000124] De acordo com outra aplicação, uma otimização com base em uma análise de componentes de princípios é empregada. A otimização com base em um processamento como as análises de componentes de princípios usa diretamente a informação disponível pela SPD. A princípio, a SPD r(x,y,z) é quantizada e um filtro seletor de limiar é aplicado no conjunto de dados quantizados. Por isso, todos os pontos que possuem níveis de energia inferiores a um limiar específico são descartados. Posteriormente, os pontos remanescentes hi = [hXfi, hy,i, h2ri]T são centralizados (por exemplo, os pontos de média centralizada representam as coordenadas da i-th fonte efetiva menos as coordenadas do centro da cena sonora), e são então reorganizados em uma matriz de dados H como a seguinte:
Figure img0014
[000125]onde N define o número de pontos após a definiçãodo limiar. Então, a decomposição em valor singular (SVD | singular value decomposition)é aplicada à H, de maneira que seja fatorada no produto a seguir:
Figure img0015
[000126] A primeira coluna de U representa o componente principal, que possui a mais alta variabilidade dos dados configurados. A segunda coluna de U é ortogonal à primeira e representa a direção na qual queremos posicionar o VM. A largura é dada implicitamente pelo primeiro valor singular na matriz ∑. Conhecendo a largura, assim como a direção, podemos calcular o posicionamento e orientação do VM assim como descrito no método de otimização com base na largura de energia projetada como descrito acima e explicado com referência às Figuras 10a a 10c.
[000127] Em outra aplicação, esses métodos são aplicados a um problema em 2D, que é reto, enquanto se é apenas necessário ignorar/remover o componente do eixo z das equações e considerações.
[000128] Para outras aplicações, assim como o cenário de aplicação da Figura 4a (uma pluralidade de microfones virtuais cobrindo toda a cena sonora), um conceito diferente pode ser empregado, tal como um esquema iterativo de otimização. Em uma primeira etapa, o posicionamento com o valor máximo da SPD é identificado. Por isso, a localização do primeiro VM do total de N microfones virtuais é designado. Após isso, toda energia ao redor desse posicionamento (por exemplo, até uma distância especifica) é removida da SPD. As etapas anteriores são repetidas até que todos os posicionamentos dos N microfones virtuais sejam encontrados. No caso onde N não for encontrado, a iteração é executada até o valor máximo da SPD se tornar menor que um limiar especifico.
[000129] A Figura 11 ilustra outra aplicação, em que um estimador de informação espacial 22 compreenda, além disso, um determinador de orientação 45. O determinador de orientação 45 é adaptado para determinar uma orientação (adequada) 16 do microfone com base na densidade de potência espacial 23.
[000130] A seguir, será descrita a estimativa de orientação. A otimização aborda com base na largura de energia projetada, assim como a análise de componentes principais calcula implicitamente a orientação do microfone virtual 15, visto que o microfone virtual supõe ser orientado na direção do centro da cena sonora.
[000131] Para alguns outros cenários de aplicação, porém,pode ser adequado calcular a orientação explicitamente, por exemplo, um cenário de aplicação, caracterizado pela orientação ideal do microfone virtual ser estimada, em que o microfone virtual é localizado em um posicionamento fixo. Nesse caso, a orientação deve ser determinada, de maneira que o microfone virtual capte a maioria da energia na cena sonora.
[000132] De acordo com uma aplicação, para determinar a orientação de um microfone virtual, a princípio, as direções possíveis Φsão feitas como amostra e a integração sobre a energia em cada uma dessas direções é executada. A seguinte função de V7 é obtida:
Figure img0016
[000133]onde rmax é definido como a distância máxima do VM e controla o padrão de captação do VM. Então, a orientaçãofinal do VM é calculada como:
Figure img0017
[000134] onde é uma função de ponderação com base nas características de entrada do VM.
[000135] Por exemplo, pode ser a função que define como a energia proveniente da direção é escalada dado uma direção de visualização especifica 0 e um padrão específico de captação do VM.
[000136] Na sequência, é explicado um aparelho para gerar um sinal de saída de áudio para simular uma gravação de um microfone virtual em um posicionamento virtual configurável em um ambiente. Um aparelho para posicionamento de microfone de acordo com uma das aplicações acima descritas pode ser empregado para determinar o posicionamento virtual para o aparelho gerar o sinal de saída de áudio.
[000137] A Figura 12 ilustra um aparelho para gerar um sinal de saída de áudio para simular uma gravação de um microfone virtual em um posicionamento virtual configurável posVmic em um ambiente. O aparelho compreende um estimador de posicionamento de eventos sonoros 110 e um módulo de cálculo de informações 120. O estimador de posicionamento de eventos sonoros 110 recebe uma primeira informação de direção dil de um primeiro microfone espacial real e uma segunda informação de direção di2 de um segundo microfone espacial real. O estimador de posicionamento de eventos sonoros 110 é adaptado para estimar um posicionamento de fonte sonora ssp indicando um posicionamento de uma fonte sonora no ambiente, a fonte sonora emitindo uma onda sonora, em que o estimador de posicionamento de eventos sonoros 110 seja adaptado para estimar o posicionamento da fonte sonora ssp com base em uma primeira informação de direção dil fornecida por um primeiro microfone espacial real sendo localizado em um primeiro posicionamento de microfone real poslmic no ambiente, e com base em uma segunda informação de direção di2 fornecida por um segundo microfone espacial real sendo localizado em um segundo posicionamento de microfone real no ambiente. 0 módulo de cálculo de informações 120 é adaptado para gerar o sinal de saida de áudio com base em um primeiro sinal gravado de entrada de áudio isl sendo gravado pelo primeiro microfone espacial real, com base no primeiro posicionamento de microfone real poslmic e com base no posicionamento virtual posVmic do microfone virtual. O módulo de cálculo de informações 120 compreende um compensador de propagação sendo adaptado para gerar um primeiro sinal de áudio modificado ao modificar o primeiro sinal gravado de entrada de áudio isl ao compensar um primeiro atraso ou deterioração de amplitude entre uma chegada da onda sonora emitida pela fonte sonora no primeiro microfone espacial real e uma chegada da onda sonora no microfone virtual ao ajustar um valor de amplitude, um valor de magnitude ou um valor de fase do primeiro sinal gravado de entrada de áudio isl, para obter o sinal de saida de áudio.
[000138] A Figura 13 ilustra as entradas e saidas de um aparelho e um método de acordo com uma aplicação. Informações de dois ou mais microfones espaciais reais 111, 112., 11N são alimentadas no aparelho/são processadas por esse método. Essa informação compreende os sinais de áudio captados pelos microfones espaciais reais assim como a informação de direção dos microfones espaciais reais, por exemplo, estimativas de direção de chegada (DOA) . Os sinais de áudio e a informação de direção, tal como as estimativas de direção de chegada podem ser expressos em um domínio de frequência-tempo. Se, por exemplo, uma reconstrução geométrica em 2D for desejada e um domínio STFT (transformada de Fourier de curta duração) tradicional for escolhido para a representação dos sinais, a DOA pode ser expressa como ângulos em azimute dependentes de k e n, designadamente os índices de frequência e tempo.
[000139] Nas aplicações, a localização do evento sonoro no espaço, tal como descrever o posicionamento do microfone virtual, pode ser conduzida com base nos posicionamentos e orientações dos microfones espaciais virtuais e reais em um sistema de coordenadas em comum. Essa informação pode ser representada pelas entradas 121 ... 12N e entrada 104 na Figura 13. A entrada 104 pode especificar adicionalmente a característica do microfone espacial virtual, por exemplo, seu posicionamento e padrão de captação, como será discutido na sequência. Se o microfone espacial virtual compreender diversos sensores virtuais, seus posicionamentos e correspondentes padrões diferentes de captação podem ser considerados.
[000140] A saída do aparelho ou um método correspondente pode ser, quando desejado, um ou mais sinais sonoros 105, que podem ter sido captados por um microfone espacial definido e posicionado assim como especificado pela 104. Além disso, o aparelho (ou o método ao invés) pode fornecer como informação de saída correspondente espacial lateral 106 que pode ser estimada ao empregar o microfone espacial virtual.
[000141]A Figura 14 ilustra um aparelho de acordo com uma aplicação, que compreende as duas unidades principais de processamento, um estimador de posicionamento de eventos sonoros 201 e um módulo de cálculo de informações 202. O estimador de posicionamento de eventos sonoros 201 pode executar a reconstrução geométrica da base das DOA's compreendidas nas entradas 111 ... UN e com base no conhecimento do posicionamento e orientação dos microfones espaciais reais, onde as DOA's foram calculadas. A saida do estimador de posicionamento de eventos sonoros 205 compreende as estimativas de posicionamento (tanto em 2D quando em 3D) das fontes sonoras quando os eventos sonoros ocorrerem para cada intervalo de frequência e tempo. O segundo bloco de processamento 202 é um módulo de cálculo de informações. De acordo com a aplicação da Figura 14, o segundo bloco de processamento 202 calcula um sinal de microfone virtual e informações laterais espaciais. Portanto, é também referido como sinal de microfone virtual e bloco de cálculo de informações laterais 202. O sinal de microfone virtual e o bloco de cálculo de informações laterais 202 utiliza os posicionamentos dos eventos sonoros 205 para processar os sinais de áudio compreendidos em 111...11N para a saida do sinal de áudio do microfone virtual 105. O bloco 202, se exigido, pode também calcular as informações laterais espaciais 106 correspondentes ao microfone espacial virtual. As aplicações abaixo ilustram possibilidades, de como os blocos 201 e 202 podem operar.
[000142] Na sequência, a estimativa de posicionamento de um estimador de posicionamento de eventos sonoros é descrita com mais detalhes, de acordo com uma aplicação.
[000143]Dependendo da dimensionalidade do problema (2D ou 3D) e do número de microfones espaciais, diversas soluções para a estimativa de posicionamento são possíveis.
[000144] Caso dois microfones espaciais em 2D existam (o caso mais simples possível) , é possível executar uma simples triangulação. A Figura 15 exibe um cenário exemplar em que os microfones espaciais reais são descritos como Matrizes Lineares Uniformes (ULA's I Uniform Linear Arrays) de 3 microfones cada. A DOA, expressa como os ângulos em azimute al (k, n) e a2 (k, n) , são calculados para o intervalo de frequência-tempo (k, n) . Isso é alcançado ao empregar um estimador de DOA apropriado, tal como o ESPRIT,
[000145] [13] R. Roy, A. Paulraj, e T. Kailath, "Direction-of-arrival estimation by subspace rotation methods - ESPRIT,"na Conferência Internacional sobre Acústica, Fala, e Processamento de Sinais (ICASSP) da IEEE , Stanford, CA, EUA, abril de 1986,
[000146] ou (raiz) MUSIC, consulte
[000147] [14] R. Schmidt, "Multiple emitter location and signal parameter estimation,"Transações em Antenas e Proporgação da IEEE, vol. 34, n° 3, pp. 276 a 280, 1986
[000148] para os sinais de pressão transformados em domínio de frequência-tempo.
[000149] Na Figura 15, dois microfones espaciais reais, aqui, duas matrizes de microfones espaciais reais, 410, 420, são ilustrados. As duas DOA's al(k, n) e a2(k, n) estimadas são representadas por duas linhas, uma primeira linha 430 representando a DOA al(k, n) e uma segunda linha 440 representando a DOA a2(k, n). A triangulação é possível através de considerações geométricas simples conhecendo o posicionamento e orientação de cada conjunto.
[000150] A triangulação falha quando as duas linhas 430 e 440 são exatamente paralelas. Nas aplicações reais, porém, isso é muito improvável. Porém, nem todos os resultados de triangulações correspondem a um posicionamento fisico ou viável para o evento sonoro no espaço considerado. Por exemplo, o posicionamento estimado do evento sonoro pode estar longe demais ou até mesmo fora do espaço suposto, indicando que provavelmente as DOA's não correspondem a nenhum evento sonoro que possa ser fisicamente interpretado com o modelo utilizado. Tais resultados podem ser causados por ruidos do sensor ou reverberação muito forte do ambiente. Portanto, de acordo com uma aplicação, tais resultados indesejados são assinalados de maneira que o módulo de cálculo de informações 202 possa tratá-los apropriadamente.
[000151] A Figura 16 descreve um cenário, onde o posicionamento de um evento sonoro é estimado no espaço 3D. Microfones espaciais apropriados são empregados, por exemplo, em matrizes de microfones 3D ou planares. Na Figura 16, um primeiro microfone espacial 510, por exemplo, uma primeira matriz de microfones 3D, e um segundo microfone espacial 520, por exemplo, uma primeira matriz de microfones 3D, são ilustrados. A DOA no espaço 3D pode, por exemplo, ser expressa como azimute e em elevação. Vetores de unidade 530 e 540 podem ser empregados para expressar as DOA's. Duas linhas 550 e 560 são projetadas de acordo com as DOA's. Em 3D, mesmo com estimativas bem confiáveis, as duas linhas projetadas de acordo com as DOA's 550 e 560 podem não se cruzar. Porém, a triangulação ainda pode ser executada, por exemplo, ao escolher o ponto médio do menor segmento conectando as duas linhas.
[000152] De maneira similar ao caso 2D, a triangulação pode falhar ou pode render resultados inviáveis para combinações especificas de direções, que podem então também serem sinalizadas, por exemplo, ao módulo de cálculo de informações 202 da Figura 14.
[000153] Caso existam mais de dois microfones espaciais, diversas soluções são possiveis. Por exemplo, a triangulação acima explicada, pode ser executada para todos os pares dos microfones espaciais reais (caso N = 3, 1 com 2, 1 com 3, e 2 com 3) . Os posicionamentos resultantes podem então ter sua média calculada (por x e y, e, caso considere-se 3D, z).
[000154] De maneira alternativa, conceitos mais complexos podem ser utilizados. Por exemplo, aproximações probabilisticas podem ser aplicadas assim como descrito em
[000155] [15] J. Michael Steele, "Optimal Triangulation of Random Samples in the Plane", The Annals of Probability, vol. 10, n° 3 (agosto de 1982), pp. 548 a 553.
[000156] De acordo com uma aplicação, o campo sonoro pode ser analisado no dominio de frequência-tempo, por exemplo, obtido através de uma transformada de Fourier de curta duração (STFT), na qual k e n denotam o indice de frequência k e o indice de tempo n, respectivamente. A pressão complexa PT(k, n) em um posicionamento arbitrário pv para k e n específicos é modelada como uma única onda esférica emitida por uma fonte pontiaguda isotrópica de banda estreita, por exemplo, ao empregar a fórmula: (Zc, rí) = PIPLS (fc, n) • 7 (fc, PIPLS (FC, rí)\ prí), (
[000157] onde PIPLS (k, n) é o sinal emitido pela IPLS em seu posicionamento Pipis(k, n) . 0 fator complexo PiPLS, PV) expressa a propagação de PiPLs(k, n) para pv, por exemplo, introduz as modificações de magnitude e fase apropriadas. Aqui, a suposição pode ser aplicada de maneira que em cada intervalo de frequência- tempo apenas uma IPLS seja ativa. Não obstante, diversas IPLS de banda estreita localizadas em posicionamentos diferentes podem também ser acionadas em um único instante.
[000158] Cada IPLS modela ou o som direto ou uma reflexão distinta do ambiente. Seu posicionamento Pism/k, n) pode corresponder idealmente a uma fonte sonora real localizada dentro do ambiente, ou uma fonte sonora espelhada localizada do lado de fora, respectivamente. Portanto, o posicionamento PiPis(k, n) pode também indicar o posicionamento de um evento sonoro.
[000159] Por favor, observe que o termo "fontes sonoras reais" denota as fontes sonoras reais fisicamente existentes no ambiente de gravação, tal como transmissores ou instrumentos musicais. Pelo contrário, com "fontes sonoras" ou "eventos sonoros" ou "IPLS" nos referimos a fontes sonoras efetivas, que são acionadas em instantes específicos ou em intervalos específicos de frequência-tempo, caracterizado pelas fontes sonoras poderem, por exemplo, representar fontes sonoras reais ou fontes de imagens espelhadas.
[000160] As Figuras 27a e 27b ilustram matrizes de microfones localizando fontes sonoras. As fontes sonoras localizadas podem ter diferentes interpretações fisicas dependendo de sua natureza. Quando as matrizes de microfones recebem som direto, podem ter a capacidade de localizar o posicionamento de uma fonte sonora verdadeira (por exemplo, transmissores). Quando as matrizes de microfone recebem reflexões, elas podem localizar o posicionamento de uma fonte de imagem espelhada. Fontes de imagens espelhadas também são fontes sonoras.
[000161] A Figura 27a ilustra um cenário, onde duas matrizes de microfones 151 e 152 recebem o som diretamente de uma fonte sonora real (uma fonte sonora existente) 153.
[000162] A Figura 27b ilustra um cenário, onde duas matrizes de microfones 161 e 162 recebem o som refletido, caracterizado pelo som ter sido refletido por uma parede. Devido à reflexão, as matrizes de microfone 161 e 162 localizam o posicionamento de onde o som aparenta se originar, em um posicionamento de uma fonte de imagem espelhada 165, que é diferente do posicionamento do falante 163.
[000163] Tanto a fonte sonora real 153 da Figura 27a, quanto a fonte de imagem espelhada 165 são fontes sonoras.
[000164] A Figura 27 c ilustra um cenário, onde duas matrizes de microfone 171 e 172 recebem o som difuso e não são capazes de localizar uma fonte sonora.
[000165] Enquanto esse modelo de onda única é preciso apenas para ambientes levemente reverberantes, dado que os sinais da fonte preenchem a condição de ortogonalidade disjunta em W (WDO I W-disjoint orthogonality') , por exemplo, a sobreposição de frequência-tempo é suficientemente baixa. Isso é normalmente real para sinais de fala, consulte, por exemplo,
[000166] [12] S, Rickard and Z. Yilmaz, "On the approximate W-disj oint orthogonality of speech",em Acústica, Fala e Processamento de Sinais, 2002. ICASSP 2002. Conferência Internacional da IEEE, abril de 2002, vol. 1.
[000167] Porém, o modelo também fornece uma boa estimativa para outros ambientes e é, portanto, aplicável também para esses ambientes,
[000168] Na sequência, é explicada a estimativa do posicionamento Pipisík, n) de acordo com uma aplicação. O posicionamento PipLg(k, n) de uma IPLS ativa em um intervalo especifico de frequência-tempo, e assim a estimativa de um evento sonoro em um intervalo de frequência-tempo, são estimados através da triangulação na base da direção de chegada (DOA) do som medido em pelo menos dois pontos de observação diferentes.
[000169] A Figura 17 ilustra uma geometria, onde a IPLS do atual intervalo de frequência-tempo (k, n) é localizado em um posicionamento desconhecido piPLs(k, n) . Para poder determinar a informação da DOA requerida, dois microfones espaciais reais, aqui, duas matrizes de microfones, são empregados tendo uma geometria, posicionamento e orientação conhecidos, os quais são posicionados nas posições 610 e 620, respectivamente. Os vetores pi e p2 apontam aos posicionamentos 610 e 620, respectivamente. As orientações das matrizes são definidas pelos vetores de unidade Ci e c2. A DOA do som é determinada nos posicionamentos 610 e 620 para cada (k, n) utilizando um algoritmo de estimativa de DOA, por exemplo, assim como fornecido pela análise DirAC (consulte [2] e [3]) . Por isso, um primeiro vetor de unidade de ponto de vista e]pov(k, n) e um segundo vetor de unidade de ponto de vista eP0V(k, n) com respeito a um ponto de vista das matrizes de microfone (ambos não exibidos na Figura 17) podem ser exibidos como saida da análise DirAC. Por exemplo, ao operar em 2D, o primeiro vetor de unidade de ponto de vista resulta em:
Figure img0018
[000170] Aqui, ç>i(k, n) representa a azimute da DOAestimada na primeira matriz de microfones, assim como descrito na Figura 17. Os vetores de unidade ex(k, n) e e2(k, n) da DOA correspondente, com respeito ao sistema mundial de coordenadas na origem, podem ser calculados ao se aplicar a fórmula:
Figure img0019
[000171] onde R são m atrizes de transformação decoordenadas, [000172] por exempl
Figure img0020
[000172] -quando o,Cl.íCCl, y C]<a;operar e !m 2D e C1 — [c-l..íC5 1T CJ.,^] , (4)Paraexecutar a triangulação, os vetores de direção dx (k, n) e d2(k, n) podem ser calculados como
Figure img0021
ri),
[000173] onde di(k, n) = | |dT(k, n) I I e d2(k, n) -• I |d2(k,n) I I são as distâncias desconhecidas entre a IPLS e as duas matrizes de microfones. A seguinte equação
Figure img0022
[000174] pode ser solucionada por di (k, n) . Finalmente, oposicionamento PIPIS (k, n) daPIPLS(&, n 1PLS é fornecido por
Figure img0023
[000175] Em outra aplicação, a equação (6) pode sersolucionada para d2(k, n) ® PlPLS (k, n) é analogamente calculadaempregando d2(k , n) .
[000176]A equação (6) sempre fornece uma solução aooperar em 2D, a não ser que ei(k, n) e e2(k, n) sejam paralelos. Porém, ao usar mais de duas matrizes de microfones ou ao operar em 3D, uma solução não pode ser obtida quando os vetores de direção d não se cruzam. De acordo com uma aplicação, nesse caso, o ponto que é mais próximo a todos os vetores de direção d será calculado e o resultado pode ser utilizado como o posicionamento da IPLS.
[000177] Em uma aplicação, todos os pontos de observaçãoPi, p2, ... devem ser localizados de maneira que o som emitido pela IPLS caia no mesmo bloco temporal n. Essa exigência pode simplesmente ser atendida quando a distância Δ entre quaisquer um dos dois pontos de observação for menor do que
Figure img0024
[000178] onde nFFT é o comprimento da janela STFT, 0 < R <1 especifica a sobreposição entre periodos sucessivos e fs é a frequência de amostragem. Por exemplo, para uma STFT de 1024 pontos a 48 kHz com 50 % de sobreposição (R = 0,5), o espaçamento máximo entre as matrizes para atender as exigências acima é Δ = 3,65 m.
[000179] Na sequência, é descrito com mais detalhes ummódulo de cálculo de informações 202, por exemplo, um sinal de microfone virtual e um módulo de cálculo de informações laterais, de acordo com uma aplicação.
[000180] A Figura 18 ilustra uma visão geral esquemática de um módulo de cálculo de informações 202 de acordo com uma aplicação. A unidade de cálculo de informações compreende um compensador de propagação 500, um combinador 510 e uma unidade espectral de pesagem 520. O módulo de cálculo de informações 202 estimadas por um estimador de posicionamento de eventos sonoros, um ou mais sinais de entrada de áudio são gravados por um ou mais microfones espaciais reais, posicionamentos posRealMic de um ou mais dos microfones espaciais reais, e o posicionamento virtual posVmic do microfone virtual. Ele emite um sinal de saida de áudio os representando um sinal de áudio do microfone virtual.
[000181] A Figura 19 ilustra um módulo de cálculo de informações de acordo com outra aplicação. O módulo de cálculo de informações da Figura 19 compreende um compensador de propagação 500, um combinador 510 e uma unidade espectral de pesagem 520. O compensador de propagação 500 compreende um módulo de computação de parâmetros de propagação 501 e um módulo de compensação de propagação 504. O combinador 510 compreende um módulo de computação de fatores de combinação 502 e um módulo de combinação 505. A unidade de pesagem espectral 520 compreende uma unidade de cálculo de pesos espectral 503, um módulo de aplicação de pesagem espectral 506 e um módulo de cálculo de informação lateral espacial 507.
[000182] Para calcular o sinal de áudio do microfone virtual, a informação geométrica, por exemplo o posicionamento e orientação dos microfones espaciais reais 121 ... 12N, o posicionamento, orientação e características do microfone espacial virtual 104, e as estimativas de posicionamento dos eventos sonoros 205 são conectados no módulo de cálculo de informações 202, especificamente, no módulo de cálculo de parâmetros de propagação 501 do compensador de propagação 500, no módulo de cálculo dos fatores de combinação 502 do combinador 510 e na unidade espectral de cálculo de pesos 503 da unidade espectral de pesagem 520. O módulo de cálculo de parâmetros de propagação 501, o módulo de cálculo de fatores de combinação 502 e a unidade de cálculo de pesos espectral 503 calculam os parâmetros utilizados na modificação dos sinais de áudio 111 . . . 11N no módulo de compensação de propagação 504, o módulo de combinação 505 e o módulo de aplicação de pesagem espectral 506.
[000183] No módulo de cálculo de informações 202, os sinais de áudio 111 ... 11N podem a principio serem modificados para compensar para os efeitos dados pelos diferentes comprimentos de propagação entre os posicionamentos de eventos sonoros e os microfones espaciais reais. Os sinais podem então ser combinados para melhorar, por exemplo, a relação sinal-ruido (SNR | signal- to~.noise ratio) . Finalmente, o sinal resultante pode então ser ponderado espectralmente para levar o padrão de captação direcional do microfone virtual em conta, assim como qualquer função de distância de ganho dependente. Essas três etapas serão discutidas com mais detalhes abaixo.
[000184] A compensação de propagação é agora explicada com mais detalhes. Na porção superior da Figura 20, dois microfones espaciais reais (uma primeira matriz de microfones 910 e uma segunda matriz de microfones 920), o posicionamento de um evento sonoro localizado 930 para o intervalo de frequência-tempo (k, n), e o posicionamento do microfone espacial virtual 940 são ilustrados.
[000185] A porção inferior da Figura 20 descreve um eixo temporal. Supõe-se que um evento sonoro é emitido no momento t0 e então se propaga aos microfones espaciais virtuais e reais. Os atrasos de tempo de chegada, tal como as amplitudes, se alteram com. a distância, de maneira que quão maior for o comprimento da propagação, mais fraca é a amplitude e mais longo é o atraso de tempo de chegada.
[000186] Os sinais nas duas matrizes reais são comparáveis apenas se o atraso relativo Dtl2 entre eles for pequeno. De outro modo, um dos dois sinais necessita ser temporariamente réalinhado para compensar o atraso relativo Dtl2, e possivelmente, ser escalado para compensar para as deteriorações diferentes.
[000187] Compensar o atraso entre a chegada ao microfone virtual e a chegada às matrizes de microfones reais (em um dos microfones espaciais reais) altera o atraso independentemente da localização do evento sonoro, tornando-o supérfluo para a maioria das aplicações.
[000188] Voltando à Figura 19, o módulo de cálculo de parâmetros de propagação 501 é adaptado para calcular os atrasos a serem corrigidos para cada microfone espacial real e para cada evento sonoro. Caso seja desejado, ele também calcula os fatores de ganho a serem considerados para compensar para as diferentes deteriorações de amplitude.
[000189] O módulo de compensação de propagação 504 é configurado para utilizar essa informação para modificar adequadamente os sinais de áudio. Caso os sinais forem alterados por uma pequena quantidade de tempo (comparado com a janela de tempo do banco de filtros), então uma rotação de fase simples basta. Se os atrasos forem maiores, mais implementações complicadas são necessárias.
[000190] A emissão do módulo de compensação de propagação 504 são os sinais de áudio modificados expressados no dominio de frequência-tempo original.
[000191] Na sequência, uma estimativa especifica da compensação de propagação para um microfone virtual de acordo com uma aplicação será descrita com referência à Figura 17 que ilustra o posicionamento 610 de um primeiro microfone espacial real e o posicionamento 620 de um segundo microfone espacial real.
[000192] Na aplicação que é agora explicada, supõe-se que pelo menos um primeiro sinal gravado de entrada de áudio, por exemplo, um sinal de pressão de pelo menos um dos microfones espaciais reais (por exemplo, as matrizes de microfone) é disponibilizado, por exemplo, o sinal de pressão de um primeiro microfone espacial real. Iremos nos referir ao microfone considerado como microfone de referência, a seu posicionamento como posicionamento de referência pref e a seu sinal de pressão como sinal de pressão de referência PreE(k, n) . Porém, a compensação de propagação pode não apenas ser conduzida com respeito a apenas um sinal de pressão, mas também com respeito aos sinais de pressão de uma pluralidade ou de todos os microfones espaciais reais.
[000193] O relacionamento entre o sinal de pressão PrPLs(k, n) emitido pela IPLS e um sinal de pressão de referência PFef(k, n) de um microfone de referência localizado em pref pode ser expresso pela fórmula (9) :
Figure img0025
[000194] No geral, o fator complexo y(k, pa, Pb) expressa a rotação da fase e deterioração da amplitude introduzido pela propagação de uma onda esférica de sua origem em pa para pb. Porém, os testes práticos indicaram que considerar apenas a deterioração de amplitude em y leva a impressões plausíveis do sinal de microfone virtual com significantemente menos artefatos quando em comparação a considerar também a rotação de fase.
[000195] A energia sonora que pode ser medida em um pontoespecífico no espaço depende fortemente da distância r na fonte sonora, na Figura 6 do posicionamento p1PLS da fonte sonora. Em muitas situações, essa dependência pode ser modelada com precisão suficiente utilizando princípios físicos bem conhecidos, por exemplo, a deterioração 1/r da pressão sonora no campo distante de uma fonte de ponto. Quando a distância de um microfone de referência, por exemplo, o primeiro microfone real da fonte sonora é conhecida, e também quando a distância do microfone virtual da fonte sonora é conhecida, então, a energia sonora no posicionamento do microfone virtual pode ser estimada a partir do sinal e a energia do microfone de referência, por exemplo, o primeiro microfone espacial real. Isso significa que o sinal desaída do microfone virtual pode ser obtido ao aplicar ganhosadequados ao sinal de pressão de referência.
[000196] Supondo que o primeiro microfone espacial real éo microfone de referência, então pref = Pi- Na Figura 17, omicrofone virtual é localizado em pv. Visto que a geometria na Figura 17 é conhecida em detalhes, a distância di(k, n) = I |di(k, n) I I entre o microfone de referência (na Figura 17: o primeiro microfone espacial real) e a IPLS pode ser determinada facilmente, tal como a distância s(k, n) = | |s(k, n) I | entre o microfone virtual e a IPLS, designadamente
Figure img0026
[000197] A pressão sonora Pv(k, n) no posicionamento do microfone virtual é calculado ao combinar as fórmulas (1) e (9),levando a
Figure img0027
[000198] Assim como mencionado acima, em algumasaplicações, os fatores y podem apenas considerar a deterioração da amplitude devido à propagação. Supondo por exemplo que a pressão sonora diminui com 1/r, então
Figure img0028
[000199]Quando o modelo na fórmula (1) se mantém, porexemplo, quando apenas o som direto estiver presente, então a fórmula (12) pode reconstruir precisamente a informação de magnitude. Porém, nos casos de campos sonoros de pura difusão, por exemplo, quando as suposições do modelo não são atendidas, o método presente rende uma desreverberação implícita do sinal ao mover o microfone virtual para longe dos posicionamentos das matrizes do sensor. Na verdade, assim como discutido acima, em campos sonoros difusos, esperamos que a maioria das IPLS seja localizada próximo às duas matrizes de sensores. Assim, ao mover o microfone virtual para longe desses posicionamentos, aumentaremos provavelmente a distância s = | |s| | na Figura 17. Portanto, a magnitude da pressão de referência é diminuída ao aplicar uma pesagem de acordo com a fórmula (11). De maneira correspondente, ao mover o microfone virtual para próximo de uma fonte sonora real, os intervalos correspondentes de frequência-tempo ao som direto serão amplificados de maneira que o sinal de áudio geral será percebido com menor difusão. Ao ajustar a regra na fórmula (12) , pode-se controlar a amplificação do som direto e difundir a supressão do som à vontade.
[000200] Ao conduzir a compensação de propagação no sinal gravado de entrada de áudio (por exemplo, o sinal de pressão) do primeiro microfone espacial real, é obtido um primeiro sinal modificado de áudio.
[000201] Nas aplicações, um segundo sinal modificado de áudio pode ser obtido ao conduzir compensação de propagação em um segundo sinal de entrada de áudio gravado (segundo sinal de pressão) do segundo microfone espacial real.
[000202] Em outras aplicações, outros sinais de áudio podem ser obtidos ao conduzir compensação de propagação em mais sinais de entrada de áudio gravados (mais sinal de pressão) dos outros microfones espaciais reais.
[000203] Agora, será explicada com mais detalhes a combinação em blocos 502 e 505 da Figura 19 de acordo com uma aplicação. Supõe-se que dois ou mais sinais de áudio de uma pluralidade de microfones espaciais reais diferentes tenham sido modificados para compensar pelos caminhos de propagação diferentes para obter dois ou mais sinais modificados de áudio. Assim que os sinais de áudio dos microfones espaciais reais diferentes tenham sido modificados para compensar pelos caminhos de propagação diferentes, eles podem ser•combinados para melhorar a qualidade do áudio. Ao fazer isso, por exemplo, a SNR pode ser aumentada ou a reverberação pode ser reduzida.
[000204] Soluções possíveis para a combinação compreendem:
[000205] - A média ponderada, por exemplo, considerando a SNR, ou a distância ao microfone virtual, ou a difusão que foi estimada pelos microfones espaciais reais. Soluções tradicionais por exemplo, Combinação de Relação Máxima (MRC I Maximum Ratio Combining)ou Combinação de Ganhos Equivalentes (EQC | Equal Gain Combining)podem ser empregadas, ou
[000206] - A combinação linear de alguns ou de todos os sinais modificados de áudio para obter um sinal de combinação. Os sinais modificados de áudio podem ser ponderados na combinação linear para obter o sinal de combinação, ou
[000207] - Seleção, por exemplo, apenas um sinal é utilizado, por exemplo, dependendo da SNR ou da distância ou difusão.
[000208] A tarefa do módulo 502 é, caso seja aplicável, calcular os parâmetros para a combinação, que é executada no módulo 505.
[000209] Agora, a ponderação espectral, de acordo com as aplicações, é descrita com mais detalhes. Para isso, é feito referência aos blocos 503 e 506 da Figura 19. Nessa etapa final, o sinal de áudio resultante da combinação ou da compensação de propagação dos sinais de áudio de entrada é ponderado no dominio de frequência-tempo de acordo com as características espaciais do microfone espacial virtual, assim como especificado pela entrada 104 e/ou de acordo com a geometria reconstruída (fornecido em 205) .
[000210] Para cada intervalo de frequência-tempo a reconstrução geométrica nos permite obter facilmente a DOA relativa ao microfone virtual, assim como exibido na Figura 21. Além disso, a distância entre o microfone virtual e o posicionamento do evento sonoro também pode ser prontamente calculada.
[000211] O peso para o intervalo de frequência-tempo é, então, calculado considerando o tipo de microfone virtual desejado.
[000212] No caso de microfones direcionais, os pesos espectrais podem ser calculados de acordo com um padrão de captação predefinido. Por exemplo, de acordo com uma aplicação, um microfone cardioide pode ter um padrão de captação definido pela função g(theta), g(theta) - 0,5 + 0,5 cos(theta),
[000213] onde theta é o ângulo entre a direção visual do microfone espacial virtual e a DOA do som do ponto de vista do microfone virtual.
[000214] Outra possibilidade são as funções artísticas (não fisicas) de deterioração. Em algumas aplicações, pode-se desejar suprimir os eventos sonoros afastados do microfone virtual com um fator maior do que uma propagação caracterizando campo livre. Para esse propósito, algumas aplicações introduzem uma função de ponderação adicional que dependem da distância entre o microfone virtual e o evento sonoro. Em uma aplicação, apenas os eventos sonoros dentro de uma distância especifica (por exemplo, em metros) do microfone virtual devem, ser captados.
[000215] Com respeito à diretividade do microfone virtual, padrões arbitrários de diretividade podem ser aplicados para o microfone virtual. Ao fazer isso, pode-se, por exemplo, separar uma fonte de uma cena sonora complexa.
[000216] Visto que a DOA do som pode ser computada nó posicionamento pv do microfone virtual, designadamente
Figure img0029
[000217] onde c7 é um vetor de unidade descrevendo a orientação do microfone virtual, diretividades arbitrárias para o microfone virtual podem ser realizadas. Por exemplo, supondo que P„(k,n) indique o sinal de combinação ou o sinal modificado de áudio compensado em propagação, então a fórmula:
Figure img0030
[000218] calcula a saída de um microfone virtual com diretividade cardioide. Os padrões direcionais, que podem, em potencial, ser gerados dessa maneira, dependem da precisão da estimativa de posicionamento.
[000219] Nas aplicações, um ou mais microfones não espaciais reais, por exemplo, um microfone omnidirecional ou um microfone direcional como uma cardioide, são posicionados na cena sonora, além dos microfones espaciais reais para melhorar ainda mais a qualidade sonora dos sinais de microfone virtual 105 na Figura 8. Esses microfones não são utilizados para colher qualquer informação geométrica, mas ao invés disso, apenas fornecem um sinal de áudio mais limpo. Esses microfones podem ser posicionados mais próximo às fontes sonoras do que os microfones espaciais. Nesse caso, de acordo com uma aplicação, os sinais de áudio dos microfones reais e não espaciais e seus posicionamentos são simplesmente conectados no módulo de compensação de propagação 504 da Figura 19 para processar, ao invés dos sinais de áudio dos microfones espaciais reais. A compensação de propagação é, então, conduzida para um ou mais sinais de áudio gravados dos microfones não espaciais com respeito ao posicionamento de um ou mais microfones não espaciais. Por isso, uma aplicação é realizada utilizando microfones não espaciais adicionais.
[000220] Em outra aplicação, o cálculo da informação lateral espacial do microfone virtual é realizado. Para calcular a informação lateral espacial 106 do microfone, o módulo de cálculo de informações 202 da Figura 19 compreende um módulo espacial de cálculo de informações laterais 507, que é adaptado para receber como entrada os posicionamentos 205 das fontes sonoras e o posicionamento, orientação, e características 104 do microfone virtual. Em certas aplicações, de acordo com a informação lateral 106 que precisa ser calculada, o sinal de áudio do microfone virtual 105 pode também ser levado em conta como entrada para o módulo de cálculo de informação lateral espacial 507.
[000221] A saida do módulo espacial de cálculo de informações laterais 507 é a informação lateral do microfone virtual 106. Essa informação lateral pode ser, por exemplo, uma DOA ou a difusão do som para cada intervalo de frequência-tempo (k, n) do ponto de vista do microfone virtual. Outra possível informação lateral poderia, por exemplo, ser o vetor de intensidade sonora ativo Ia(k, n) que poderia ser medido no posicionamento do microfone virtual. Agora será descrito como esses parâmetros podem ser derivados.
[000222] De acordo com uma aplicação, a estimativa de DOA para o microfone espacial virtual é realizada. O módulo de cálculo de informações 120 é adaptado para estimar a direção de chegada ao microfone virtual como informação lateral espacial, com base em um vetor de posicionamento do microfone virtual e com base em um vetor de posicionamento do evento sonoro, assim como ilustrado pela Figura 22.
[000223]A Figura 22 descreve uma maneira possível de derivar a DOA do som a partir do ponto de vista do microfone virtual. 0 posicionamento do evento sonoro, fornecido pelo bloco 205 na Figura 19, pode ser descrito para cada intervalo de frequência-tempo(k, n) com. um vetor de posicionamento r(k, n) , o vetor de posicionamento do evento sonoro. De maneira similar, o posicionamento do microfone virtual, fornecido como entrada 104 na Figura 19, pode ser descrito como um vetor de posicionamento s(k,n), o vetor de posicionamento do microfone virtual. A direção visual do microfone virtual pode ser descrita por um vetor v(k, n) . A DOA relativa ao microfone virtual é fornecida por a(k,n). Ela representa o ângulo entre v e o caminho de propagação sonora h(k,n). h(k, n) pode ser calculado ao se empregar a fórmula: h(k, n) = s(k,n) - r(k, n) .
[000224] A DOA desejada a(k, n) pode agora ser calculada para cada (k, n) , por exemplo, via a definição do produto escalar de h(k, n) e v(k,n), designadamente a(k, n) = arcos (h(k, n) • v(k,n) / ( | |h(k, n) I | I |v(k,n) I I ) .
[000225] Em outra aplicação, o módulo de cálculo de informações 120 pode ser adaptado para estimar a intensidade sonora ativa no microfone virtual como informação lateral espacial, com base em um vetor de posicionamento do microfone virtual e com base em um vetor de posicionamento do evento sonoro assim como ilustrado pela Figura 22.
[000226] A partir da DOA a(k, n) acima definida, podemos derivar a intensidade sonora ativa Ia(k, n) no posicionamento do microfone virtual. Para isso, supõe-se que o sinal de áudio 105 do microfone virtual na Figura 19 corresponde à saida de um microfone um microfone omnidirecional. Além disso, a direção visual v na Figura 22 é supostamente paralela ao eixo x do sistema de coordenadas. Visto que o vetor de intensidade sonora ativo Ia(k, n) desejado descreve o fluxo liquido da energia pelo posicionamento do microfone virtual, podemos calcular Ia(k, n) de acordo com a fórmula: Ia(k, n) = - (1/2 rho) |Pv(k, n) |2 * [ cos a(k, n) , sin a(k, n) ]T,
[000227] onde []T denota um vetor transposto, rho é a densidade de ar, e Pv (k, n) é a pressão sonora medida pelo microfone espacial virtual, por exemplo, a saída 105 do bloco 506 na Figura 19.
[000228] Se o vetor de intensidade ativa for calculado expresso no sistema geral de coordenadas mas ainda no posicionamento do microfone virtual, a fórmula a seguir pode ser aplicada: Ia(k, n) = (1/2 rho) | Pv (k, n)|2h(k, n) / | | h(k, n) ||.
[000229] A difusão sonora expressa o quão difuso é o campo sonoro em dado intervalo de frequência-tempo (consulte, por exemplo, [2] ) . A difusão é expressa por um valor em que 0 Φ - 1. Uma difusão de 1 indica que a energia do campo sonoro total de um campo sonoro é completamente difuso. Essa informação é importante, por exemplo, na reprodução sonora espacial. Tradicionalmente, a difusão é calculada no ponto específico em espaço no qual uma matriz de microfones é posicionada.
[000230] De acordo com uma aplicação, a difusão pode ser calculada como um parâmetro adicional à informação lateral gerada para o Microfone Virtual (VM), que pode ser posicionado à vontade em um posicionamento arbitrário na cena sonora. Por isso, um aparelho que também calcula a difusão além do sinal de áudio em um posicionamento virtual de um microfone virtual, pode ser visto como uma parte dianteira de DirAC virtual, já que é possível produzir um fluxo DirAC, designadamente um sinal de áudio, direção de chegada, e difusão, para um ponto arbitrário na cena sonora. 0 fluxo DirAC pode ser posteriormente processado, armazenado, transmitido, e reproduzido em uma configuração com diversos autofalantes arbitrária. Nesse caso, o ouvinte experiência a cena sonora como se ele ou ela estivesse no posicionamento especificado pelo microfone virtual e estivesse olhando na direção determinada por sua orientação.
[000231] A Figura 23 ilustra um bloco de cálculo de informações de acordo com uma aplicação compreendendo uma unidade de cálculo de difusão 801 para calcular a difusão no microfone virtual. O bloco de cálculo de informações 202 é adaptado para receber entradas de 111 a 11N, que além das entradas da Figura 14, incluem também difusão nos microfones espaciais reais. Permita que tμ(SMi) aΦ1SMN)denotem esses valores. Essas entradas adicionais são conectadas ao módulo de cálculo de informação 202. A saída 103 da unidade de cálculo de difusão 801 é o parâmetro de difusão calculado no posicionamento do microfone virtual.
[000232] Uma unidade de cálculo de difusão 801 de uma aplicação é ilustrada na Figura 24 descrevendo mais detalhes. De acordo com uma aplicação a energia do som direto e difuso em cada um dos microfones espaciais N é estimada. Então, utilizando a informação dos posicionamentos da IPLS, e a informação sobre o posicionamento dos microfones espaciais e virtuais, estima N obtido. Finalmente, as estimativas podem ser combinadas para melhorar a precisão da estimativa e o parâmetro de difusão no microfone virtual pode ser prontamente calculado ■TArtAnoo-i rs -x. c(SMI) T?(SM?/) C(SM1) r;(SM.V)
[000233] Permita que Ejir para Ejir e Ejiff ■ para E^iff denote as estimativas das energias do som direto e difuso para os microfones espaciais W calculadas pela unidade de análise de energia 810. Caso P± seja o sinal de pressão complexa e i|g seja a difusão o microfone espacial i-th, então as energias podem, por exemplo, ser calculadas de acordo com a fórmula:
Figure img0031
[000234] A energia do som difuso deve ser igual em todosos posicionamentos, portanto, uma estimativa da energia sonora difusa no microfone virtual pode ser calculada aosimplesmente calcular a media E^iff para E^iff , por exemplo, em uma unidade de combinação de difusão 820, por exemplo, de acordo com a fórmula:
Figure img0032
[000235] Uma combinação mais efetiva das estimativas E^1^para Ejiff poderia ser executada ao considerar a variaçao dos estimadores, por exemplo, ao considerar a SNR.
[000236] A energia do som direto depende da distância àfonte devido a propagaçao. Portanto, E[jir para E^ pode ser modificado para levar isso em conta. Isso pode ser executado, por exemplo, por uma unidade de ajuste de propagação de sons diretos 830. Por exemplo, supõe-se que a energia das deteriorações de campo sonoro direto com 1 sobre o quadrado da distância, então a espacial i-th pode ser calculado de acordo com a fórmula:
Figure img0033
[000237] De maneira similar à unidade de combinação de difusão 820, as estimativas da energia de som direto obtido em microfones espaciais diferentes podem ser combinadas, por exemplo, por uma unidade de combinação de som direto 840. O resultado é E^rM\ por exemplo, a estimativa para a energia de som direto no microfone virtual. A difusão no microfone virtual i|r(VM1 pode ser calculada, por exemplo, por uma subcalculadora de difusão 850, por exemplo, de acordo com a fórmula;
Figure img0034
[000238] Assim como mencionado acima, em alguns casos, a estimativa de posicionamento de eventos sonoros executados por um estimador de posicionamento de eventos sonoros falha, por exemplo, no caso de uma direção incorreta de estimativa de chegada. A Figura 25 ilustra tal cenário. Nesses casos, independentemente dos parâmetros de difusão estimados no microfone espacial diferente e como recebidos como entradas 111 a 11N, a difusão para o microfone virtual 103 pode ser configurada em 1 (por exemplo, totalmente difuso), visto que nenhuma reprodução coerente espacialmente é possivel.
[000239] Além disso, a confiabilidade das estimativas da DOA aos N microfones espaciais deve ser considerada. Isso pode ser expresso, por exemplo, em termos da variação do estimador ou SNR da DOA. Tal informação pode ser levada em conta pela subcalculadora de difusão 850, de maneira que a difusão do VM 103 possa ser aumentada artificialmente no caso em que as estimativas da DOA não são confiáveis. Na verdade, como uma consequência, a estimativa de posicionamento 205 também não será confiável.
[000240] A Figura 26 ilustra um aparelho 991 para gerar um sinal de saida virtual de acordo com uma aplicação. O aparelho 991 para gerar um sinal de saida virtual compreende um aparelho 992 para posicionamento de microfones de acordo com uma das aplicações acima descritas da qual compreende uma calculadora de posicionamento de microfones 993. Além disso, o aparelho para gerar um sinal de saida virtual compreende um aparelho 994 para gerar um sinal de saida de áudio de acordo com uma das aplicações acima descritas. O sinal de saida gerado pelo aparelho 994 para gerar um sinal de saida de áudio é o sinal de saida virtual vos. A calculadora de posicionamento de microfone 992 do aparelho para posicionamento de microfones 991 é configurada para calcular o posicionamento de um microfone como um posicionamento calculado de microfones cmp. O aparelho 994 para gerar um sinal de saida de áudio é configurado para simular uma gravação de um microfone virtual no posicionamento calculado de microfones calculado pelo aparelho 992 para posicionamento de microfones. Por isso, o aparelho 992 para posicionamento de microfones calcula o posicionamento virtual do microfone virtual para o aparelho 994 gerar um sinal de saida de áudio.
[000241] Embora alguns aspectos tenham sido descritos no contexto de um aparelho, é claro que estes aspectos ainda representam uma descrição do método correspondente, onde um bloco ou dispositivo corresponde a uma etapa do método ou uma característica de uma etapa do método. Analogamente, aspectos descritos no contexto de uma etapa do método ainda representam uma descrição de uma unidade correspondente ou item ou característica de um aparelho correspondente.
[000242] O sinal decomposto inventivo pode ser armazenado em um meio de armazenamento digital ou pode ser transmitido em um meio de transmissão como um meio de transmissão sem fio ou um meio de transmissão cabeado como a Internet.
[000243] Dependendo de certas exigências de implementação, aplicações da invenção podem ser implementadas em hardware ou em software. A implementação pode ser realizada utilizando um meio de armazenamento digital, por exemplo, um disquete, um DVD, um Blu- Ray, um CD, uma memória ROM, PROM, EPROM, EEPROM ou uma memória FLASH, com sinais de controle eletronicamente legíveis armazenados nele, que cooperam (ou são capazes de cooperar) com um sistema de computador programável de modo que o respectivo método seja realizado. Portanto, o meio de armazenamento digital pode ser um computador legível.
[000244] Algumas aplicações de acordo com a invenção compreendem um transportador de dados não transitório com sinais de controle legíveis eletronicamente que são capazes de cooperar com um sistema de computador programável, de modo que um dos métodos descrito neste documento seja realizado.
[000245] Geralmente, aplicações da presente invenção podem ser implementadas como um produto de programa de computador com um código de programa, o código de programa sendo eficiente para realizar um dos métodos quando o produto de programa de computador é executado em um computador. O código de programa pode, por exemplo, ser armazenado em um transportador de máquina legível.
[000246]Outras aplicações compreendem o programa de computador para realizar um dos métodos descritos neste documento, armazenado em um transportador de máquina legivel.
[000247] Em outras palavras, uma aplicação do método inventivo é, portanto, um programa de computador com um código de programa para realizar um dos métodos descritos neste documento, quando o programa de computador é executado em um computador.
[000248] Outra aplicação dos métodos inventivos é, portanto, um transportador de dados (ou um meio de armazenamento digital, ou um meio legivel de computador) compreendendo, gravado ali, o programa de computador para realizar um dos métodos descritos neste documento.
[000249] Outra aplicação do método inventivo é, portanto, um fluxo de dados ou uma sequência de sinais que representam o programa de computador para realizar um dos métodos descritos neste documento. O fluxo de dados ou a sequência dos sinais pode, por exemplo, ser configurado para ser transferido através de uma conexão de comunicação de dados, por exemplo, através da Internet.
[000250] Outra aplicação compreende um meio de processamento, por exemplo, um computador ou um dispositivo lógico programável configurado ou adaptado para realizar um dos métodos descrito neste documento.
[000251] Outra aplicação compreende um computador tendo instalado nele o programa de computador para realizar um dos métodos descritos neste documento.
[000252] Em algumas aplicações, um dispositivo lógico programável (por exemplo, um arranjo de porta de campo programável) pode ser utilizado para realizar algumas ou todas as funcionalidades dos métodos descritos neste documento. Em algumas aplicações, um arranjo de porta de campo programável pode cooperar com um microprocessador para realizar um dos métodos descritos neste documento. Geralmente, os métodos são preferivelmente realizados em qualquer aparelho de hardware.
[000253] As aplicações descritas acima são meramente ilustrativas para os princípios da presente invenção. É entendido que as modificações e variações das disposições e os detalhes descritos neste documento serão evidentes a outros especialistas na técnica. È a intenção, portanto, serem limitados apenas pelo escopo das reivindicações de patente iminentes e não pelos detalhes específicos apresentados em forma de descrição e explicação das aplicações neste documento.
REFERÊNCIAS:
[000254] [1] Michael A. Gerzon. Ambisonics in multichannel broadcasting and video. J. Audio Eng. Soc, 33(11): 859-871, 1985.
[000255] [2] V. Pulkki, "Directional audio coding in spatial sound reproduction and stereo upmixing," in Proceedings of the AES 28th International Conference, pp. 251-258, Piteâ, Sweden, June 30 - July 2, 2006.
[000256] [3] V. Pulkki, "Spatial sound reproduction with directional audio coding," J. Audio Eng. Soc., vol. 55, no. 6, pp. 503-516, June 2007.
[000257] [4] C. Faller: "Microphone Front-Ends for Spatial Audio Coders", in Proceedings of the AES 125th International Convention, San Francisco, Oct. 2008.
[000258] [5] M. Kallinger, H. Ochsenfeld, G. Del Galdo, F. Kiich, D. Mahne, R. Schultz-Amiing. and 0. Thiergart, "A spatial filtering approach for directional audio coding," in Audio Engineering Society Convention 126, Munich, Germany, May 2009.
[000259] [6] R. Schultz-Amling, F. Küch, 0. Thiergart, and M. Kallinger, "Acoustical zooming based on a parametric sound field representation," in Audio Engineering Society Convention 128, London UK, May 2010.
[000260] [7] J. Herre, C. Falch, D. Mahne, G. Del Galdo, M. Kallinger, and 0. Thiergart, "Interactive teleconferencing combining spatial audio object coding and DirAC technology," in Audio Engineering Society Convention 128, London UK, May 2010.
[000261] [8] E.G.Williams, Fourier Acoustics: Sound Radiation and Nearfield Acoustical Holography, Academic Press, 1999.
[000262] [9] A. Kuntz and R. Rabenstein, "Limitations in the extrapolation of wave fields from circular measurements," in 15th European Signal Processing Conference (EUSIPCO 2007), 2007.
[000263] [10] A. Walther and C. Faller, "Linear simulation of spaced microphone arrays using b-format recordings," in Audio Engiineering Society Convention 128, London UK, May 2010.
[000264] [11] US61/287,596: An Apparatus and a Method for Converting a First Parametric Spatial Audio Signal into a Second Parametric Spatial Audio Signal.
[000265] [12] S. Rickard and Z. Yilmaz, "On the approximate W-disjoint orthogonality of speech," in Acoustics, Speech and Signal Processing, 2002. ICASSP 2002. IEEE International Conference on, April 2002, vol. 1.
[000266] [13] R. Roy, A. Paulraj, and T. Kailath, "Direction-of-arrival estimation by subspace rotation methods - ESPRIT," in IEEE International Conference on Acoustics, Speech, and Signal Processing (ICASSP), Stanford, CA, USA, April 1986.
[000267] [14] R. Schmidt, "Multiple emitter location and signal parameter estimation," IEEE Transactions on Antennas and Propagation, vol. 34, no. 3, pp. 276-280, 1986.
[000268] [15] J. Michael Steele, "Optimal Triangulation of Random Samples in the Plane", The Annals of Probability, Vol. 10, No.3 (Aug., 1982), pp. 548-553.
[000269] [16] F. J. Fahy, Sound Intensity, Essex: Elsevier Science Publishers Ltd., 1989.
[000270] [17] R. Schultz-Amling, F. Küch, M. Kallinger, G. Del Galdo, T. Ahonen and V. Pulkki, "Planar microphone array processing for the analysis and reproduction of spatial audio using directional audio coding," in Audio Engineering Society Convention 124, Amsterdam, The Netherlands, May 2008.
[000271] [18] M. Kallinger, F. Küch.., R. Schultz-Amling, G. Del Galdo, T. Ahonen and V. Pulkki, "Enhanced direction estimation using microphone arrays for directional audio coding;" in HandsFree Speech Communication and Microphone Arrays, 2008. HSCMA 2008, May 2008, pp. 45-48.
[000272] [19] R. K. Furness, "Ambisonics - An overview," in AES 8th International Conference, April 1990, pp. 181-189 .
[000273] [20] Giovanni Del Galdo, Oliver Thiergart, TobiasWeller, and E. A. P. Habets. Generating virtual microphone signals using geometrical information gathered by distributed arrays. In Third Joint Workshop on Hands-free Speech Communication and Microphone Arrays (HSCMA 'll), Edinburgh, United Kingdom, May 2011. [21] Ville Pulkki. Spatial sound reproduction with directional audio coding. J. Audio Eng. Soc, 55 (6) :503-516, June 2007 .

Claims (10)

1. Um aparelho para posicionamento de microfones, compreendendo: um determinador de densidade de potência espacial (10; 21) para determinar uma densidade de potência espacial, indicando valores de potência para uma pluralidade de localizações de um ambiente com base em informações de fontes sonoras, indicando um ou mais valores de potência e um ou mais valores de posicionamento de uma ou mais fontes sonoras localizadas no ambiente, e um estimador de informação espacial (20; 22) para estimar as informações espaciais acústicas baseadas na densidade de potência espacial, caracterizado pelo estimador de informação espacial (20; 22) compreender um estimador sonoro de cena central (41) para estimar um posicionamento de um centro de uma cena de som no ambiente, e em que o estimador de informação espacial (20; 22) compreende, além disso, um calculador de posicionamento de microfone (42; 44) para determinar o posicionamento de um microfone como a informação espacial acústica baseada no posicionamento do centro da cena de som. sendo o estimador de informação espacial (20; 22) compreendido de um determinador de orientação (45) para determinar uma orientação do microfone e o determinador de orientação (45) ser adaptado para determinar a orientação do microfone baseado na densidade de potência espacial. e o determinador de densidade de potência espacial (10; 21) ser adaptado para determinar a densidade de potência espacial ao aplicar a formula
Figure img0035
para calcular os valores de potência r(x,y,k,n) para a pluralidade de localizações no ambiente para um intervalo de frequência-tempo (k, n), em que k denota o índice de frequência e n denota o índice de tempo, em que N denota um número das fontes sonoras, em que x, y, denotam coordenadas de uma da pluralidade de localizações, em que a potência i(k,n) denota o valor de potência a uma fonte sonora i-th eficiente pelo intervalo de frequência- tempo (k, n), em que xESSi, yESSi denota as coordenadas da fonte sonora i-th, em que yié um valor escalar e em que g é uma função dependendo de x, y, xESSi, yESSi, k, n e yi, quando o ambiente for um ambiente bidimensional, ou em que o determinador de densidade de potênciaespacial (10; 21) é adaptado para determinar a densidade de potencia especial ao aplicar a formula
Figure img0036
para calcular os valores de potência r(x,y,z,k,n)para a pluralidade de localizações no ambiente para um intervalo de frequência-tempo (k, n), em que k denota o índice de frequência e n denota o índice de tempo, em que N denota um número das fontes sonoras, em que x, y, z denotam coordenadas de uma da pluralidade de localizações, em que a potência i(k,n) denota o valor de potência a uma fonte sonora i-th pelo intervalo de frequência- tempo (k, n), em que xESSi, yESSi, zESSidenota as coordenadas da fonte sonora i-th, em que Yi é um valor escalar e em que g é uma função dependendo de x, y, z, xESSi, yESSi, zESSi, k, n e Yi, quando o ambiente for um ambiente tridimensional.
2. Um aparelho de acordo com a reivindicação 1, caracterizado pelo determinador de orientação (45) ser adaptado para determinar a orientação do microfone de maneira que o microfone seja orientado na direção do centro da cena de som.
3. Um aparelho de acordo com as reivindicações 1 ou 2 , caracterizado pelo calculador de posicionamento de microfone (42; 44) ser adaptado para calcular o posicionamento do microfone e em que o microfone é um microfone espacial virtual.
4. Um aparelho de acordo com quaisquer das reivindicações anteriores, caracterizado pelo estimador sonoro de cena central (41) ser adaptado para calcular um centro gravitacional da densidade de potência espacial para estimar o centro da cena de som.
5. Um aparelho de acordo com a reivindicação 1 ou 4, caracterizado pelo estimador sonoro de cena central (41) ser configurado para determinar um perfil de retardo de potência baseado na densidade de potência espacial e para determinar um retardo de raiz quadrada da média baseada no perfil de retardo de potência para cada uma de uma pluralidade de localizações no ambiente e em que o estimador sonoro de cena central (41) é configurado para determinar a localização da pluralidade de localizações como o centro de uma cena de som, da qual possui o mínimo de retardo de raiz quadrada da média dos retardos de raiz quadrada da média da pluralidade de localizações.
6. Um aparelho de acordo com uma das reivindicações anteriores, caracterizado pelo calculador de posicionamento de microfone (42; 44) ser adaptado para determinar a linha de largura mais ampla de uma pluralidade de linhas pelo centro da cena de som no ambiente, em que cada uma das pluralidades de linha pelo centro da cena de som é associada com uma largura de energia, e em que a linha de largura mais ampla seja definida como a linha da pluralidade de linhas pelo centro da cena de som tendo a maior largura de energia, em que o calculador de posicionamento de microfone (42; 44) é adaptado para determinar o posicionamento do microfone de maneira que uma segunda linha, que passa pelo centro da cena de som e o posicionamento do microfone seja ortogonal à linha de largura mais ampla.
7. Um aparelho de acordo com a reivindicação 6, caracterizado pela largura de energia de uma linha considerada da pluralidade de linhas indicar uma largura maior de um segmento na considerada linha, de maneira que o primeiro ponto do segmento limitando o segmento, e de maneira que um segundo ponto diferente do segmento limitando o segmento, tenham ambos um valor de potência indicado pela densidade de potência espacial, que seja superior ou igual a um valor de potência predefinido.
8. Um aparelho de acordo com uma das reivindicações de 1 a 7, caracterizado pelo calculador de posicionamento de microfone (42; 44) ser configurado para aplicar uma decomposição em valores singulares a uma matriz tendo uma pluralidade de colunas, em que as colunas da matriz indicam posicionamentos das localizações no ambiente relativas ao centro da cena de som e em que as colunas da matriz indiquem apenas os posicionamentos das localizações tendo valores de potência indicados pela densidade de potência espacial que sejam maiores que um limiar predefinido, ou as colunas da matriz indiquem apenas os posicionamentos das localizações tendo valores de potência indicados pela densidade de potência espacial que seja maior ou igual a um limiar predefinido.
9. Um aparelho (991) para gerar um sinal de saída virtual, caracterizado por compreender: um aparelho para posicionamento de microfones (992) de acordo com uma das reivindicações de 1 a 7, caracterizado pelo calculador de posicionamento de microfone (993) do aparelho para posicionamento de microfone ser configurado para calcular o posicionamento de um microfone como um posicionamento de microfone calculado e um aparelho (994) para gerar um sinal de saída de áudio como o sinal de saída virtual para simular uma gravação de um microfone virtual na posição calculada do microfone, em que o aparelho para gerar um sinal de saída de áudio compreenda: um estimador de posicionamento de eventos sonoros (110) para estimar um posicionamento de fonte sonora, indicando um posicionamento de uma fonte sonora no ambiente, a fonte sonora emitindo uma onda sonora, em que o estimador de posicionamento de eventos sonoros (110) é adaptado para estimar o posicionamento da fonte sonora com base em uma primeira informação de direção fornecida por um primeiro microfone espacial real sendo localizado em um primeiro posicionamento de microfone real no ambiente, e com base em uma segunda informação de direção fornecida por um segundo microfone espacial real sendo localizado em um segundo posicionamento de microfone real no ambiente; e um módulo de cálculo de informações (120) para gerar o sinal de saída de áudio com base em um primeiro sinal gravado de entrada de áudio sendo gravado pelo primeiro microfone espacial real, com base no primeiro posicionamento de microfone real e baseado no posicionamento calculado do microfone.
10. Um método para posicionamento de microfones, compreendendo: determinar uma densidade de potência espacial indicando valores de potência para uma pluralidade de localizações de um ambiente com base em informações de fontes sonoras indicando um ou mais valores de potência e um ou mais valores de posicionamento de uma ou mais fontes sonoras localizadas no ambiente, e estimando informação espacial acústica baseada na densidade de potência espacial, determinando uma orientação do microfone, caracterizado pela estimativa de informação espacial acústica com base na densidade de potência espacial ser conduzida por estimar um posicionamento de um centro de uma cena de som no ambiente, e por calcular um posicionamento de um microfone como a informação espacial acústica baseada no posicionamento do centro da cena de som. e o estimador de informação espacial (20; 22) compreender um determinador de orientação (45) para determinar uma orientação do microfone, caracterizado pelo determinador de orientação (45) ser adaptado para determinar a orientação do microfone baseado na densidade de potência espacial. e o determinador de densidade de potência espacial (10; 21) ser adaptado para determinar a densidade de potência espacial ao aplicar a formula
Figure img0037
fí para calcular os valores de potência r(x,y,k,n) para a pluralidade de localizações no ambiente para um intervalo de frequência-tempo (k, n), em que k denota o índice de frequência e n denota o índice de tempo, em que N denota um número das fontes sonoras, em que x, y, denotam coordenadas de uma da pluralidade de localizações, em que a potência i(k,n) denota o valor de potência a uma fonte sonora i-th eficiente pelo intervalo de frequência- tempo (k, n), em que xESSi, yESSi denota as coordenadas da fonte sonora i-th, em que yié um valor escalar e em que g é uma função dependendo de x, y, xESSi, yESSi, k, n e yi, quando o ambiente for um ambiente bidimensional, ou em que o determinador de densidade de potência espacial (10; 21) é adaptado para determinar a densidade de potência espacial ao aplicar a formula
Figure img0038
para calcular os valores de potência r(x,y,z,k,n) para a pluralidade de localizações no ambiente para um intervalo de frequência-tempo (k, n), em que k denota o índice de frequência e n denota o índice de tempo, em que N denota um número das fontes sonoras, em que x, y, z denotam coordenadas de uma da pluralidade de localizações, em que a potência i(k,n) denota o valor de potência a uma fonte sonora i-th pelo intervalo de frequência- tempo (k, n), em que xESSi, yESSi, zESSidenota as coordenadas da fonte sonora i-th, em que Yi é um valor escalar e em que g é uma função dependendo de x, y, z, xESSi, yESSi, zESSi, k, n e Yi, quando o ambiente for um ambiente tridimensional.
BR112014013335-2A 2011-12-02 2012-11-29 Aparelho e método para posicionamento de microfone com base em uma densidade de potência espacial BR112014013335B1 (pt)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
EP11191828.0A EP2600637A1 (en) 2011-12-02 2011-12-02 Apparatus and method for microphone positioning based on a spatial power density
US13/445,560 US10284947B2 (en) 2011-12-02 2012-04-12 Apparatus and method for microphone positioning based on a spatial power density
US13/445,560 2012-04-12
PCT/EP2012/073906 WO2013079568A1 (en) 2011-12-02 2012-11-29 Apparatus and method for microphone positioning based on a spatial power density

Publications (2)

Publication Number Publication Date
BR112014013335A2 BR112014013335A2 (pt) 2021-01-26
BR112014013335B1 true BR112014013335B1 (pt) 2021-11-23

Family

ID=45218364

Family Applications (1)

Application Number Title Priority Date Filing Date
BR112014013335-2A BR112014013335B1 (pt) 2011-12-02 2012-11-29 Aparelho e método para posicionamento de microfone com base em uma densidade de potência espacial

Country Status (21)

Country Link
US (1) US10284947B2 (pt)
EP (2) EP2600637A1 (pt)
JP (1) JP5814476B2 (pt)
KR (1) KR101591220B1 (pt)
CN (1) CN104094613B (pt)
AR (1) AR089052A1 (pt)
AU (1) AU2012343907B2 (pt)
BR (1) BR112014013335B1 (pt)
CA (1) CA2857611C (pt)
ES (1) ES2573802T3 (pt)
HK (1) HK1202746A1 (pt)
IN (1) IN2014KN01144A (pt)
MX (1) MX338524B (pt)
MY (1) MY167624A (pt)
PL (1) PL2786593T3 (pt)
PT (1) PT2786593E (pt)
RU (1) RU2589469C2 (pt)
SG (1) SG11201402782VA (pt)
TW (1) TWI558228B (pt)
WO (1) WO2013079568A1 (pt)
ZA (1) ZA201404822B (pt)

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014020921A1 (ja) * 2012-07-31 2014-02-06 独立行政法人科学技術振興機構 物体配置推定装置
GB2521649B (en) * 2013-12-27 2018-12-12 Nokia Technologies Oy Method, apparatus, computer program code and storage medium for processing audio signals
US9042563B1 (en) * 2014-04-11 2015-05-26 John Beaty System and method to localize sound and provide real-time world coordinates with communication
CN104123950B (zh) * 2014-07-17 2015-11-25 努比亚技术有限公司 一种录音方法及装置
US9774974B2 (en) * 2014-09-24 2017-09-26 Electronics And Telecommunications Research Institute Audio metadata providing apparatus and method, and multichannel audio data playback apparatus and method to support dynamic format conversion
CN104794894B (zh) * 2015-01-29 2018-02-27 青岛智能产业技术研究院 一种汽车鸣笛噪声监视装置、系统及方法
US9794721B2 (en) * 2015-01-30 2017-10-17 Dts, Inc. System and method for capturing, encoding, distributing, and decoding immersive audio
EP3070876A1 (en) 2015-03-17 2016-09-21 Telefonica Digital España, S.L.U. Method and system for improving teleconference services
EP3079074A1 (fr) * 2015-04-10 2016-10-12 B<>Com Procédé de traitement de données pour l'estimation de paramètres de mixage de signaux audio, procédé de mixage, dispositifs, et programmes d'ordinateurs associés
CN104811886B (zh) * 2015-04-10 2018-04-17 西安电子科技大学 基于相位差测量的麦克风阵列测向方法
CN104898091B (zh) * 2015-05-29 2017-07-25 复旦大学 基于迭代优化算法的麦克风阵列自校准声源定位系统
US9530426B1 (en) * 2015-06-24 2016-12-27 Microsoft Technology Licensing, Llc Filtering sounds for conferencing applications
US10063987B2 (en) 2016-05-31 2018-08-28 Nureva Inc. Method, apparatus, and computer-readable media for focussing sound signals in a shared 3D space
GB201615538D0 (en) * 2016-09-13 2016-10-26 Nokia Technologies Oy A method , apparatus and computer program for processing audio signals
US9986357B2 (en) 2016-09-28 2018-05-29 Nokia Technologies Oy Fitting background ambiance to sound objects
IT201700040732A1 (it) * 2017-04-12 2018-10-12 Inst Rundfunktechnik Gmbh Verfahren und vorrichtung zum mischen von n informationssignalen
JP2019021966A (ja) * 2017-07-11 2019-02-07 オリンパス株式会社 収音装置および収音方法
SG11202000330XA (en) 2017-07-14 2020-02-27 Fraunhofer Ges Forschung Concept for generating an enhanced sound field description or a modified sound field description using a multi-point sound field description
EP3652737A1 (en) 2017-07-14 2020-05-20 Fraunhofer Gesellschaft zur Förderung der Angewand Concept for generating an enhanced sound-field description or a modified sound field description using a depth-extended dirac technique or other techniques
SG11202000285QA (en) 2017-07-14 2020-02-27 Fraunhofer Ges Forschung Concept for generating an enhanced sound-field description or a modified sound field description using a multi-layer description
PL422711A1 (pl) * 2017-08-31 2019-03-11 Adrian Połaniecki Sposób i urządzenie do detekcji, lokalizowania i identyfikacji pojazdów wytwarzających sygnały akustyczne, a także optyczne, zwłaszcza pojazdów uprzywilejowanych emitujących sygnały akustyczne i/lub świetlne
WO2019149337A1 (en) 2018-01-30 2019-08-08 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatuses for converting an object position of an audio object, audio stream provider, audio content production system, audio playback apparatus, methods and computer programs
GB2572368A (en) * 2018-03-27 2019-10-02 Nokia Technologies Oy Spatial audio capture
WO2019222856A1 (en) * 2018-05-24 2019-11-28 Nureva Inc. Method, apparatus and computer-readable media to manage semi-constant (persistent) sound sources in microphone pickup/focus zones
JP7001566B2 (ja) * 2018-09-04 2022-02-04 本田技研工業株式会社 音響処理装置、音響処理方法、およびプログラム
US11994605B2 (en) 2019-04-24 2024-05-28 Panasonic Intellectual Property Corporation Of America Direction of arrival estimation device, system, and direction of arrival estimation method
CN110223715B (zh) * 2019-05-07 2021-05-25 华南理工大学 一种基于声音事件检测的独居老人家中活动估计方法
CN116978387A (zh) * 2019-07-02 2023-10-31 杜比国际公司 用于离散指向性数据的表示、编码和解码的方法、设备和系统
CN110364161A (zh) * 2019-08-22 2019-10-22 北京小米智能科技有限公司 响应语音信号的方法、电子设备、介质及系统
US11276388B2 (en) * 2020-03-31 2022-03-15 Nuvoton Technology Corporation Beamforming system based on delay distribution model using high frequency phase difference
CN113949967A (zh) * 2020-07-16 2022-01-18 华为技术有限公司 一种会议语音增强的方法、装置和系统
US11483649B2 (en) * 2020-08-21 2022-10-25 Waymo Llc External microphone arrays for sound source localization
GB2602148A (en) * 2020-12-21 2022-06-22 Nokia Technologies Oy Audio rendering with spatial metadata interpolation and source position information
JPWO2022162878A1 (pt) * 2021-01-29 2022-08-04
WO2022260646A1 (en) * 2021-06-07 2022-12-15 Hewlett-Packard Development Company, L.P. Microphone directional beamforming adjustments
CN117268796B (zh) * 2023-11-16 2024-01-26 天津大学 车辆故障声学事件检测方法

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3467758A (en) * 1964-03-12 1969-09-16 Baldwin Co D H Multiple speaker sound output system for reducing intermodulation distortion
JP2687613B2 (ja) * 1989-08-25 1997-12-08 ソニー株式会社 マイクロホン装置
FR2682251B1 (fr) 1991-10-02 1997-04-25 Prescom Sarl Procede et systeme de prise de son, et appareil de prise et de restitution de son.
JP3522954B2 (ja) 1996-03-15 2004-04-26 株式会社東芝 マイクロホンアレイ入力型音声認識装置及び方法
JP3344647B2 (ja) * 1998-02-18 2002-11-11 富士通株式会社 マイクロホンアレイ装置
DE60203379T2 (de) * 2001-01-30 2006-01-26 Thomson Licensing S.A., Boulogne Signalverarbeitungstechnik zur geometrischen quellentrennung
US7146315B2 (en) * 2002-08-30 2006-12-05 Siemens Corporate Research, Inc. Multichannel voice detection in adverse environments
EP1606970A1 (en) * 2003-03-21 2005-12-21 Technische Universiteit Delft Circular microphone array for multi channel audio recording
US7362792B2 (en) * 2004-01-12 2008-04-22 Telefonaktiebolaget Lm Ericsson (Publ) Method of and apparatus for computation of unbiased power delay profile
US7522736B2 (en) * 2004-05-07 2009-04-21 Fuji Xerox Co., Ltd. Systems and methods for microphone localization
GB2414369B (en) * 2004-05-21 2007-08-01 Hewlett Packard Development Co Processing audio data
JP4675381B2 (ja) * 2005-07-26 2011-04-20 本田技研工業株式会社 音源特性推定装置
EP1971183A1 (en) 2005-11-15 2008-09-17 Yamaha Corporation Teleconference device and sound emission/collection device
US7565288B2 (en) 2005-12-22 2009-07-21 Microsoft Corporation Spatial noise suppression for a microphone array
CN101779476B (zh) 2007-06-13 2015-02-25 爱利富卡姆公司 全向性双麦克风阵列
KR101415026B1 (ko) * 2007-11-19 2014-07-04 삼성전자주식회사 마이크로폰 어레이를 이용한 다채널 사운드 획득 방법 및장치
EP2063419B1 (en) 2007-11-21 2012-04-18 Nuance Communications, Inc. Speaker localization
JP5686358B2 (ja) 2008-03-07 2015-03-18 学校法人日本大学 音源距離計測装置及びそれを用いた音響情報分離装置
JP5206151B2 (ja) 2008-06-25 2013-06-12 沖電気工業株式会社 音声入力ロボット、遠隔会議支援システム、遠隔会議支援方法
US8923529B2 (en) * 2008-08-29 2014-12-30 Biamp Systems Corporation Microphone array system and method for sound acquisition
CN102308597B (zh) * 2009-02-03 2014-09-17 方头技术有限公司 会议传声系统
GB2476747B (en) * 2009-02-04 2011-12-21 Richard Furse Sound system
EP2249334A1 (en) 2009-05-08 2010-11-10 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio format transcoder
US8124864B2 (en) 2009-12-04 2012-02-28 Roland Corporation User interface apparatus for displaying vocal or instrumental unit signals in an input musical tone signal
JP5639362B2 (ja) 2010-01-29 2014-12-10 ローランド株式会社 ユーザインターフェイス装置
EP2375779A3 (en) 2010-03-31 2012-01-18 Fraunhofer-Gesellschaft zur Förderung der Angewandten Forschung e.V. Apparatus and method for measuring a plurality of loudspeakers and microphone array
KR20120059827A (ko) * 2010-12-01 2012-06-11 삼성전자주식회사 다중 음원 위치추적장치 및 그 위치추적방법
RU2570359C2 (ru) * 2010-12-03 2015-12-10 Фраунхофер-Гезелльшафт Цур Фердерунг Дер Ангевандтен Форшунг Е.Ф. Прием звука посредством выделения геометрической информации из оценок направления его поступления
EP2469741A1 (en) * 2010-12-21 2012-06-27 Thomson Licensing Method and apparatus for encoding and decoding successive frames of an ambisonics representation of a 2- or 3-dimensional sound field
US9374652B2 (en) 2012-03-23 2016-06-21 Dolby Laboratories Licensing Corporation Conferencing device self test
US10229697B2 (en) * 2013-03-12 2019-03-12 Google Technology Holdings LLC Apparatus and method for beamforming to obtain voice and noise signals

Also Published As

Publication number Publication date
WO2013079568A1 (en) 2013-06-06
KR101591220B1 (ko) 2016-02-03
EP2786593A1 (en) 2014-10-08
ZA201404822B (en) 2015-12-23
US10284947B2 (en) 2019-05-07
CA2857611C (en) 2017-04-25
TW201330648A (zh) 2013-07-16
BR112014013335A2 (pt) 2021-01-26
EP2786593B1 (en) 2016-04-27
RU2589469C2 (ru) 2016-07-10
JP5814476B2 (ja) 2015-11-17
MX2014006499A (es) 2014-08-18
RU2014126819A (ru) 2016-02-10
ES2573802T3 (es) 2016-06-10
CN104094613B (zh) 2017-06-09
CA2857611A1 (en) 2013-06-06
PL2786593T3 (pl) 2016-10-31
MY167624A (en) 2018-09-20
EP2600637A1 (en) 2013-06-05
KR20140099536A (ko) 2014-08-12
AU2012343907A1 (en) 2014-07-17
JP2015502716A (ja) 2015-01-22
PT2786593E (pt) 2016-06-24
CN104094613A (zh) 2014-10-08
AR089052A1 (es) 2014-07-23
AU2012343907B2 (en) 2015-12-10
SG11201402782VA (en) 2014-06-27
MX338524B (es) 2016-04-20
TWI558228B (zh) 2016-11-11
HK1202746A1 (zh) 2015-10-02
US20130142342A1 (en) 2013-06-06
IN2014KN01144A (pt) 2015-10-16

Similar Documents

Publication Publication Date Title
BR112014013335B1 (pt) Aparelho e método para posicionamento de microfone com base em uma densidade de potência espacial
EP2647222B1 (en) Sound acquisition via the extraction of geometrical information from direction of arrival estimates
BR112013013673B1 (pt) Aparelho e método para aquisição de som espacialmente seletivo por triangulação acústica
RU2552129C2 (ru) Устройство и способ для разрешения неоднозначности из оценки направления прихода
BR112013013678B1 (pt) Aparelho e método para codificação de áudio espacial com base em geometria

Legal Events

Date Code Title Description
B06U Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette]
B06F Objections, documents and/or translations needed after an examination request according [chapter 6.6 patent gazette]
B07A Application suspended after technical examination (opinion) [chapter 7.1 patent gazette]
B09A Decision: intention to grant [chapter 9.1 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 29/11/2012, OBSERVADAS AS CONDICOES LEGAIS.