BRPI0817982B1 - aparelho e método para codificar um sinal de áudio multicanal - Google Patents

aparelho e método para codificar um sinal de áudio multicanal Download PDF

Info

Publication number
BRPI0817982B1
BRPI0817982B1 BRPI0817982A BRPI0817982A BRPI0817982B1 BR PI0817982 B1 BRPI0817982 B1 BR PI0817982B1 BR PI0817982 A BRPI0817982 A BR PI0817982A BR PI0817982 A BRPI0817982 A BR PI0817982A BR PI0817982 B1 BRPI0817982 B1 BR PI0817982B1
Authority
BR
Brazil
Prior art keywords
audio signal
signal
difference
mono
time
Prior art date
Application number
BRPI0817982A
Other languages
English (en)
Inventor
Alaistair Gibbs Jonathan
Original Assignee
Google Technology Holdings LLC
Motorola Inc
Motorola Mobility Inc
Motorola Mobility Llc
Motorola Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google Technology Holdings LLC, Motorola Inc, Motorola Mobility Inc, Motorola Mobility Llc, Motorola Solutions Inc filed Critical Google Technology Holdings LLC
Publication of BRPI0817982A2 publication Critical patent/BRPI0817982A2/pt
Publication of BRPI0817982B1 publication Critical patent/BRPI0817982B1/pt

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/12Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R27/00Public address systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/032Quantisation or dequantisation of spectral components
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/06Determination or coding of the spectral characteristics, e.g. of the short-term prediction coefficients
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/087Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters using mixed excitation models, e.g. MELP, MBE, split band LPC or HVXC
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/24Variable rate codecs, e.g. for generating different qualities using a scalable representation such as hierarchical encoding or layered encoding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/06Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being correlation coefficients
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/12Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being prediction coefficients
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/18Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/21Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being power information
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/24Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M3/00Conversion of analogue values to or from differential modulation
    • H03M3/30Delta-sigma modulation
    • H03M3/458Analogue/digital converters using delta-sigma modulation as an intermediate step
    • H03M3/466Multiplexed conversion systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/01Multi-channel, i.e. more than two input channels, sound reproduction with two speakers wherein the multi-channel information is substantially preserved
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/03Application of parametric coding in stereophonic audio systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Stereophonic System (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

afarelho e método para codificar um sinal de áudio multicanal um aparelho de codificação compreende um processador de quadro (105) que recebe um sinal de áudio multicanal que compreende pelo menos um primeiro sinal de áudio de um primeiro microfone (101) e um segundo sinal de áudio de um segundo microfone ( 103) . um processador itd ( 107) então determina uma diferença entre tempo entre o primeiro sinal de áudio e o segundo sinal de áudio e um conjunto de retardes (109, 111) gera um sinal de áudio multicanal compensado do sinal de áudio mul ticanal ao retardar pelo menos um do primeiro e do segundo sinais de áudio em resposta ao sinal de diferença entre tempos. um combinador (113) então gera um sinal mono ao combinar canais do sinal de áudio multicanal compensado e o codificador do sinal mono (115) codifica o sinal mono. a diferença entre tempos poderá ser especificamente determinada por um algoritmo com base em determinar correlações cruzadas entre o primeiro e o segundo sinais de áudio.

Description

APARELHO E MÉTODO PARA CODIFICAR UM SINAL DE ÁUDIO MULTICANAL
CAMPO DA INVENÇÃO
A invenção relaciona-se a um aparelho e método para codificar um sinal de áudio multicanal e, em particular, mas não exclusivamente, para misturar para baixo um sinal de fala estéreo para um sinal mono para codificar com um codificador mono, como o codificador de Código Preditivo por Excitação Linear (Code Excited Linear Prediction).
HISTÓRICO DA INVENÇÃO
A codificação eficiente de sinais de áudio é crítica para um número crescente de aplicações e de sistemas. Por exemplo, a comunicação móvel utiliza codificadores de fala eficientes para reduzir a quantidade de dados que precisa ser transmitida sobre a interface de ar.
Por exemplo, a União International de Telecomunicação (ITU) está normalizando um codificador conhecido como o Codificador de Taxa de Bit Variável Embutida (EV-VBR: Embedded Variable Bit Rate Codec) que pode codificar um sinal de fala em alta qualidade com velocidades de dados que variam de 8 a 64 kbps. Este codificador, bem como muitos outros codificadores de fala eficientes, utiliza as técnicas de Código Preditivo por Excitação Linear (CELP: Code Excited Linear Prediction) para alcançar a alta proporção de compressão do processo de codificação nas mais baixas velocidades de bit da operação.
Em algumas aplicações, mais de um sinal de áudio poderá ser capturado e, em particular, um sinal estéreo poderá ser gravado em sistemas de áudio utilizando dois microfones. Por exemplo, a gravação estéreo poderá ser
2/24 tipicamente utilizada em conferências de áudio e de vídeo bem como aplicações de difusão.
Em muitos sistemas de codificação multicanal e, em particular, em muitos sistemas de codificação de fala multicanal, a codificação de nível baixo tem por base a codificação de um único canal. Nesses sistemas, o sinal multicanal poderá ser convertido para um sinal mono para as camadas mais baixas do codificador codificar. A geração deste sinal mono é referida como mistura para baixo (downmixing) . Essa mistura poderá ser associada a parâmetros que descrevem aspectos do sinal estéreo em relação ao sinal mono. Especificamente, a mistura para baixo poderá gerar informação de diferença de tempo inter-canal (ITD) que caracteriza a diferença de tempo entre os canais esquerdo e direito. Por exemplo, se os dois microfones estiverem localizados a uma distância um do outro. O sinal de um alto-falante localizado mais próximo de um microfone do que do outro atingirá este último microfone com um retardo em relação ao primeiro. Este ITD poderá ser determinado e poderá, no decodificador, ser utilizado para recriar o sinal estéreo do sinal mono. O ITD poderá melhorar significativamente a qualidade da perspectiva estéreo recriada, pois ITD foi verificado como sendo a influência perceptual dominante na localização do estéreo para freqüências abaixo de aproximadamente 1kHz. Assim, é crítico que o ITD também seja estimado.
Convencionalmente, o sinal mono é gerado pela soma juntas dos sinais estéreo. O sinal mono é então codificado e transmitido para o decodificador junto com o ITD.
Por exemplo, o Instituto Europeu de Padrões de
3/24
Telecomunicação, em sua Especificação Técnica ETSI TS126290 Extended Adaptive Multi-Rate - Wideband (AMR-WB+) Codec; Transcoding Functions definiu a mistura para baixo do sinal estéreo em que o sinal mono é simplesmente determinado como a média dos canais esquerdo e direito conforme segue.
Xml (n) =0,5 (XLL (n) +XRL (N) ) em que XML(n) representa a n esima amostra do sinal mono, XLL(n) representa a nésima amostra do sinal do canal esquerdo e XRL(n) representa a n esima amostra do sinal do canal direito.
Outro exemplo de uma mistura para pbaixo é fornecido em H. Purnhagen, Low Complexity Parametric Stereo Coding in MPEG-4, Proceedings 7th International Conference on Digital Audio Effects (DAFx'04), Nápoles, Italia, 5 a 8 de outubro de 2004, pp 163-168. Neste documento, um método de mistura para baixo é descrito que obtém um sinal mono de saída como a soma ponderada dos canais de entrada em base na freqüência banda-a-banda utilizando informação obtida a respeito da diferença da intensidade inter-canal (IID). Especificamente:
M [k, i] =giL [k, i] +grR [k, i] em que M[k,i] representa a ieSima amostra do késimo escaninho de freqüência do sinal mono, L[k,i] representa a iesiraa amostra do kesirao escaninho de freqüência do sinal do canal esquerdo, e R[k,i] representa a iesima amostra do kesimo escaninho de freqüência do sinal do canal direito, gi é o peso do canal esquerdo, e gr é o peso do canal direito.
Uma característica dessas abordagens é que elas resultam ou em sinais mono tendo um tempo de reverberação
4/24 alto ou então têm alta complexidade e/ou retardo. Por exemplo, o método AMR-WB+ da mistura para baixo fornece uma saída cujo tempo de reverberação é aproximadamente aquele da sala mais o tempo de vôo entre os dois microfones. A mistura para baixo fornecida em Purnhagen é de alta complexidade e impõe um retardo devido à análise de freqüência e reconstrução.
No entanto, muitos codificadores mono fornecem os melhores resultados para sinais com tempos de reverberação baixos. Por exemplo, codificadores CELP de baixa velocidade de bit, e outros codificadores que empregam excitação com base no pulso para representar sinais de fala e de áudio, realizam melhor quando apresentados com sinais dotados de tempos de reverberação curtos. Assim, o desempenho do codificador e a qualidade do sinal codificado resultante tendem a ser sub-ótimos.
Assim, um sistema melhorado seria vantajoso e, em particular, um sistema que permita flexibilidade aumentada, implementação facilitada, qualidade de codificação melhorada, eficiência de codificação melhorada, retardo reduzido e/ou desempenho melhorado seria vantajoso.
SUMÁRIO DA INVENÇÃO
Assim, a invenção procura preferivelmente mitigar, aliviar ou eliminar um ou mais das desvantagens mencionadas acima individualmente ou em qualquer combinação.
De acordo com um aspecto da invenção, é fornecido um aparelho para codificar um sinal de áudio multicanal, o aparelho compreendendo: um receptor para receber o sinal de áudio multicanal que compreende pelo menos um primeiro sinal de áudio de um primeiro microfone e um segundo sinal
5/24 de áudio de um segundo microfone; uma unidade de diferença de tempo para determinar uma diferença entre tempos entre o primeiro sinal de áudio e o segundo sinal de áudio; uma unidade de retardo para gerar um sinal de áudio multicanal compensado para o sinal de áudio multicanal ao retardar pelo menos um do primeiro sinal de áudio e do segundo sinal de áudio em resposta ao sinal de diferença entre tempos; uma unidade mono para gerar um sinal mono ao combinar canais do sinal de áudio multicanal compensado; e um codificador do sinal mono para codificar o sinal mono.
A invenção poderá fornecer codificação melhorada de um sinal de áudio multicanal. Em particular, uma qualidade melhorada para uma velocidade de dados dada poderá ser alcançada em muitas versões. A invenção poderá fornecer codificação mono melhorada de um sinal misturado para baixo mono de um sinal estéreo ao reduzir tempos de reverberação do sinal misturado para baixo mono. A unidade de retardo poderá retardar quer o primeiro sinal de áudio ou o segundo sinal de áudio dependendo de qual microfone estiver mais próximo da (principal) fonte de áudio. A diferença entre tempos poderá ser uma indicação de uma diferença no tempo entre componentes de áudio correspondentes do primeiro e do segundo sinais de áudio originados da mesma fonte de áudio. A unidade para gerar o sinal mono poderá ser disposta para somar os dois canais do sinal de áudio multicanal combinado que correspondem ao primeiro e ao segundo sinais de áudio. Em algumas versões, a somatória poderá ser uma somatória ponderada.
De acordo com um recurso opcional da invenção, a unidade de diferença de tempo está disposta para determinar
6/24 correlações cruzadas entre o primeiro sinal de áudio e o segundo sinal de áudio para uma pluralidade de recuos de tempo, e determinar a diferença entre tempos em resposta às correlações cruzadas.
O recurso poderá permitir uma determinação melhorada da diferença entre tempos. O recurso poderá melhorar a qualidade do sinal de áudio codificado e/ou poderá facilitar a implementação e/ou reduzir a complexidade. Em particular, o recurso poderá permitir a percepção de estéreo melhorada de um sinal estéreo renderizado do sinal mono e a diferente entre tempos. As correlações cruzadas poderão indicar a probabilidade da diferença entre tempos ser igual ao recuo de tempo das correlações cruzadas individuais.
De acordo com outro aspecto da invenção, é fornecido um método de codificar um sinal de áudio multicanal, o método compreendendo: receber o sinal de áudio multicanal que compreende pelo menos um primeiro sinal de áudio de um primeiro microfone e um segundo sinal de áudio de um segundo microfone; determinar uma diferença entre tempos entre o primeiro sinal de áudio e o segundo sinal de áudio; gerar um sinal de áudio multicanal compensado do sinal de áudio multicanal ao retardar pelo menos um do primeiro sinal de áudio e o segundo sinal de áudio em resposta ao sinal de diferença entre tempos; gerar um sinal mono ao combinar canais do sinal de áudio multicanal compensado; e codificar o sinal mono em um codificador de sinal mono.
Esses e outros aspectos, recursos e vantagens da invenção serão aparente e elucidados com referência às versões descritas doravante.
7/24
BREVE DESCRIÇÃO DOS DESENHOS
Versões da invenção serão descritas, apenas por meio de exemplo, com referência aos desenhos, em que:
A Figura 1 ilustra um exemplo de um aparelho para codificar um sinal de áudio multicanal de acordo com algumas versões da invenção.
A Figura 2 ilustra um exemplo de uma unidade de processamento para estimar uma diferença entre tempos de acordo com algumas versões da invenção.
A Figura 3 ilustra um exemplo de um processador de branqueamento de acordo com algumas versões da invenção.
A Figura 4 ilustra um exemplo de atualização de estado para uma máquina de estado de treliça de acordo com algumas versões da invenção. E
A Figura 5 ilustra um exemplo de um método para codificar um sinal de áudio multicanal de acordo com algumas versões da invenção.
DESCRIÇÃO DETALHADA DE ALGUMAS VERSÕES DA INVENÇÃO
A descrição seguinte enfoca versões da invenção aplicáveis à codificação de um sinal de áudio multicanal utilizando um codificador mono e, em particular, à codificação de um sinal de fala estéreo utilizando um codificador CELP mono.
A Figura 1 ilustra um aparelho para codificar um sinal de áudio multicanal de acordo com algumas versões da invenção. No exemplo específico, um sinal de fala estéreo é misturado para baixo para um sinal mono e codificado utilizando um codificador mono.
O aparelho compreende dois microfones 101, 103 que capturam sinais de áudio do ambiente de áudio em que os
8/24 dois microfones estão localizados. No exemplo, os dois microfones são utilizados para gravar sinais de fala em uma sala e estão localizados com uma distância interna de até 3 metros. Na aplicação específica, os microfones 101, 103 poderão, por exemplo, estar gravando sinais de fala de uma pluralidade de pessoas na sala e a utilização de dois microfones poderá fornecer melhor cobertura de áudio da sala.
Os microfones 101, 103 são acoplados a um processador de quadro 105 que recebe o primeiro e o segundo sinais do primeiro e segundo microfones 101, 103 respectivamente. O processador de quadro divide os sinais em quadros seqüenciais. No exemplo específico, a freqüência de amostra é de 16 kamostras/seg e a duração de um quadro é de 20 mseg resultando em cada quadro compreendendo 320 amostras. Deve ser observado que o processamento de quadro não precisa resultar em um atraso adicional à via de fala pois este quadro poderá ser o mesmo quadro que aquele utilizado para a codificação da fala ou o processamento do quadro poderá ser, por exemplo, executado em amostras de fala antigas.
O processador de quadro 105 é acoplado a um processador ITD 107 que está disposto para determinar uma diferença entre tempos entre o primeiro sinal de áudio e o segundo sinal de áudio. A diferença entre tempos é uma indicação do retardo do sinal em um canal em relação ao sinal no outro. No exemplo, a diferença entre tempos poderá ser positiva ou negativa dependendo de qual dos canais é retardado em relação ao outro. O retardo tipicamente ocorrerá devido a diferença nos retardos entre a fonte de fala dominante (isto é, aquele que estiver falando
9/24 atualmente) e os microfones 101, 103.
O processador ITD 107 é ainda acoplado a dois retardos 109, 111. O primeiro retardo 109 está disposto para introduzir um retardo no primeiro canal de áudio e o segundo retardo 111 está disposto para introduzir um retardo no segundo canal de áudio. A quantidade de retardo que é introduzida depende da diferença entre tempos estimada. Ademais, no exemplo específico apenas um dos retardos é utilizado em qualquer tempo dado. Assim, dependendo do sinal da diferença entre tempos estimada, o retardo é introduzido quer para o primeiro ou para o segundo sinal de áudio. A quantidade de retardo é especificamente fixada para ser tão próxima da diferença entre tempos estimada quanto possível. Como conseqüência, os sinais de áudio na saída dos retardos 109, 111 estão intimamente alinhados no tempo e especificamente terão uma diferença entre tempos que será tipicamente próxima do zero.
Os retardos 109, 111 são acoplados a um combinador 113 que gera um sinal mono ao combinar os canais do sinal de áudio multicanal compensado e especificamente ao combinar os dois sinais de saída dos retardos 109, 111. No exemplo, o combinador 113 é uma simples unidade somadora que soma juntos os dois sinais. Ademais, os sinais são escalonados por um fator de 0,5 para manter a amplitude do sinal mono similar à amplitude dos sinais individuais antes da combinação.
Assim, a saída do combinador 113 é um sinal mono que é uma mistura para baixo dos dois sinais capturados. Ademais, devido ao retardo e à redução da diferença entre tempos, o
10/24 sinal mono gerado tem reverberação significativamente reduzida.
O combinador 113 é acoplado a um codificador mono 115 que efetua a codificação mono do sinal mono para gerar dados codificados. No exemplo específico, o codificador mono é um codificador de Código Preditivo por Excitação Linear (CELP: Code Excited Linear Prediction de acordo com o Codificador de Taxa de Bit Variável Embutida (EV-VBR: Embedded Variable Bit Rate Codec) a ser normatizado pela União Internacional Telecomunicação (ITU).
Os codificadores CELP são conhecidos por fornecer codificação extremamente eficiente e especificamente por fornecer boa qualidade de fala mesmo para baixas taxas de velocidade. No entanto, os codificadores CELP tendem a não desempenhar tão bem para sinais com altos tempos de reverberação e, portanto, não têm sido adequados para a codificação de misturas para baixo mono convencionalmente geradas. No entanto, devido à compensação de retardo e a reverberação reduzida resultante, codificadores mono CELP poderão ser utilizados no aparelho da Figura 1 para fornecer uma codificação muito eficiente de um sinal misturado para baixo mono de fala. Será apreciado que essas vantagens são particularmente apropriadas para os codificadores mono CELP mas não são a eles limitada e poderão aplicar a muitos outros codificadores.
O codificador mono 115 é acoplado a um multiplexador de saída 117 que é ademais acoplado ao processador ITD 107. No exemplo, o multiplexador de saída 117 multiplexa os dados de codificação do codificador mono 115 e dados que representam a diferença entre tempos do processador ITD 107
11/24 em um único fluxo de bits de saída. A inclusão da diferença entre tempos no fluxo de bits poderá auxiliar o decodificador ao recriar um sinal de estéreo de um sinal mono decodificado dos dados de codificação.
Assim, o sistema descrito fornece desempenho melhorado e poderá, em particular, fornecer uma qualidade de áudio melhorada para uma velocidade de dados dada. Em particular, a utilização melhorada de um codificador mono como o codificador CELP poderá resultar em uma qualidade significativamente melhorada. Ademais, a funcionalidade descrita é simples de implementar e tem requisitos de recursos relativamente baixos.
No que segue, a estimativa da diferença entre tempos efetuada pelo processador ITD 107 será descrita com referência à Figura 2.
O algoritmo utilizado pelo processador ITD 107 determina uma estimativa da diferença entre tempos ao combinar observações sucessivas das correlações cruzadas entre o primeiro e o segundo sinais de áudio para diferentes recuos de tempo possíveis entre os canais. As correlações são efetuadas em um domínio residual LPC dizimado para fornecer correlações mais bem definidas, facilitar a implementação e reduzir as exigências de computação. No exemplo, as correlações cruzadas são processadas para derivar uma probabilidade associada a cada retardo potencial entre -12 ms e +12 ms (+/- ~4 metros) e as probabilidades são então acumuladas utilizando um algoritmo assemelhado ao Viterbi. O resultado é uma estimativa da diferença entre tempos com histerese embutida.
12/24
O processador ITD 107 compreende um processador de dizimação 201 que recebe os quadros das amostras para os dois canais do processador de quadro 105. O processador de dizimação 201 primeiro efetua uma filtragem de passagem baixa seguida de uma dizimação. No exemplo específico, o filtro de passagem baixa, que tem uma largura de banda ao redor de 2 kHz e um fator de dizimação de quatro, é utilizado para um sinal de 16 kamostras/seg resultando em uma freqüência de amostra dizimada de 4 kamostras/seg. O efeito da filtragem e da dizimação é parcialmente de reduzir o número de amostras processadas, assim reduzindo a exigência computacional. No entanto, além disso, a abordagem permite que a estimação da diferença entre tempos seja focalizada em freqüências mais baixas em que o significado perceptivo da diferença entre tempos é mais significativa. Assim, a filtragem e a dizimação não apenas reduz o ônus computacional mas também fornece o efeito sinergético de assegurar que a estimativa da diferença
entre tempos é relevante para as freqüências mais
sensíveis.
0 processador de dizimação 201 é acoplado a um
processador de branqueamento 203 que está disposto para
aplicar um algoritmo de branqueamento espectral no primeiro e no segundo sinais de áudio antes da correlação. O branqueamento espectral leva os sinais no domínio de tempo dos dois sinais a mais proximamente se assemelhar a um conjunto de impulsos, no caso de fala tonal ou de voz, assim permitindo que a correlação subseqüente resulte em valores de correlação cruzada mais bem definidos e especificamente resultar em picos de correlação mais
13/24 estreitos (a resposta de freqüência de um impulso corresponde a um espectro plano ou branco e inversamente a representação no domínio do tempo de um espectro branco é um impulso).
No exemplo específico, o branqueamento espectral compreende calcular coeficientes preditivos lineares para o primeiro e o segundo sinais de áudio e filtrar o primeiro e o segundo sinais de áudio em respost5a aos coeficientes preditivos lineares.
Elementos do processador de branqueamento 203 estão mostrados na Figura 3. Especificamente, os sinais do processador de dizimação 201 são alimentados para os processadores LPC 301, 303 que determinam Linear Predictive Coefficients (LPCs - Coeficientes Preditivos Lineares) para filtros preditivos lineares para os dois sinais. Será apreciado que diferentes algoritmos para determinar LPCs serão conhecidos da pessoa habilitada e que qualquer algoritmo adequado poderá ser utilizado sem detrair da invenção.
No exemplo, os dois sinais de áudio são alimentados a dois filtros 305, 307, que são acoplados aos processadores LPC 301, 303. Os dois filtros são determinados tal que eles são os filtros inversos dos filtros preditivos lineares determinados pelos processadores LPC 301, 303. Especificamente, os processadores LPC 301, 303 determinam os coeficientes para os filtros inversos dos filtros preditivos lineares e os coeficientes dos dois filtros são fixados para esses valores.
A saída dos dois filtros inversos 305, 307 assemelhamse a conjuntos de trens de impulso no caso da fala de voz e
14/24 com isso permitem que uma correlação cruzada significativamente mais precisa seja efetuada do que seria possível no domínio da fala.
O processador de branqueamento 203 é acoplado a um correlacionador 205 que está disposto para determinar correlações cruzadas entre os sinais de saída dos dois filtros 305, 307 para uma pluralidade de recuos de tempo.
Especificamente, o correlacionador pode determinar os valores:
c
N em que t é o recuo de tempo, x e y são amostras dos dois sinais e N representa as amostras no quadro específico.
A correlação é efetuada para um conjunto de recuos de tempo possíveis. No exemplo específico, a correlação é efetuada para um total de 97 recuos de tempo correspondentes a um recuo de tempo máximo de +/- 12 mseg. No entanto, será apreciado que outros conjuntos de recuos de tempo poderão ser utilizados em outras versões.
Assim, o correlacionador gera 97 valores de correlação cruzada com cada correlação cruzada correspondente a um recuo de tempo específico entre os dois canais e assim a uma diferença de tempo possível. O valor da correlação cruzada corresponde a uma indicação de quanto os dois sinais casam para o recuo de tempo específico. Assim, para um valor de correlação cruzada alto, os sinais casam de perto e há, de acordo, uma alta probabilidade de que o recuo de tempo seja uma estimativa de diferença entre tempos precisa. Inversamente, para um valor de correlação cruzada baixo, os sinais não casam de perto e há, assim, uma baixa probabilidade de que o recuo de tempo seja uma
15/24 estimativa de diferença entre tempos precisa. Assim, para cada quadro o correlacionador 205 gera 97 valores de correlação cruzada com cada valor sendo uma indicação da probabilidade de que o recuo de tempo correspondente seja a diferença entre tempos correta.
No exemplo, o correlacionador 205 está disposto para efetuar múltiplas aberturas no primeiro e no segundo sinais de áudio antes da correlação cruzada. Especificamente, cada bloco de amostras de quadro dos dois sinais é multiplamente aberto com uma janela de 2 0 ms que compreende uma seção central retangular de 14 ms e duas parcelas Hann de 2 ms a cada extremidade. Estas múltiplas aberturas poderão melhorar a precisão e reduzir o impacto de efeitos de fronteira na borda da janela de correlação.
Outrossim, no exemplo, a correlação cruzada é normalizada. A normalização é especificamente para assegurar que o valor de correlação cruzada máximo que pode ser alcançado (isto é, quando os dois sinais forem idênticos) tem valor da unidade. A normalização fornece valores de correlação cruzada que são relativamente independentes dos níveis de sinal dos sinais de entrada e os recuos de tempo de correlação testados, assim fornecendo uma indicação de probabilidade mais precisa. Em particular, ele permite comparação melhorada e processamento para uma seqüência de quadros.
Em uma versão simples, a saída do correlacionador 205 poderá ser avaliada diretamente e a diferença entre tempos para o quadro atual poderá ser fixada ao valor que tem a probabilidade mais alta conforme indicado pelo valor de correlação cruzada. No entanto, esse método tendería a
16/24 fornecer uma saída menos confiável pois o sinal de fala flutua de vocalizado, para não vocalizado para silêncio e no exemplo descrito, o correlacionador é alimentado a um processador de estado 207 que processa valores de correlação para uma pluralidade de estados para fornecer uma estimativa da diferença entre tempos mais precisa.
No exemplo, os valores de correlação são utilizados como etapas de atualização para um acumulador métrico de algoritmo de Viterbi implementado no processador de estado 207 .
Assim, o processador de estado 207 implementa especificamente um acumulador métrico que tem um número de estados correspondentes aos recuos de tempo. Cada estado, assim, representa um recuo de tempo e tem um valor métrico acumulado associado.
Assim, uma máquina de estado de treliça com base em Viterbi na forma de um acumulador métrico armazena um valor métrico para cada um dos recuos de tempo para os quais um valor de correlação foi calculado (isto é, 97 estados/recuos de tempo no exemplo específico). Cada estado/recuo de tempo é especificamente associado a uma métrica de probabilidade que é indicativo da probabilidade de que a diferença entre tempos corresponde ao recuo de tempo daquele estado.
A métrica de probabilidade para todos os recuos de tempo são recalculadas em cada quadro para levar em conta os valores de correlação que foram determinados para o quadro atual. Especificamente, métricas de via são calculadas para os estados/recuos de tempo dependendo das correlações cruzadas. No exemplo específico, as correlações
17/24 cruzadas são convertidas dentro do domínio logarítmico ao aplicar a fórmula log (0,5 + pi) em que pi é o iésimo valor de correlação (que é entre 0 e 1 devido ao processo . de normalização e corresponde a uma probabilidade de que a diferença entre tempos corresponde ao recuo de tempo associado.
No exemplo, a contribuição para uma métrica de probabilidade dada é determinada da métrica de probabilidade anterior daquele recuo de tempo e o valor de correlação para o recuo calculado para o quadro atual. Além disso, uma contribuição é feita dos valores de correlação associados a recuos de tempo vizinhos correspondentes a situação em que a diferença entre tempos muda de um valor para outro (isto é, tal que o estado mais provável muda de ser aquele de um recuo de tempo para ser aquele de outro recuo de tempo).
A métrica de via para as vias dos estados vizinhos correspondente a valores de diferença entre tempos adjacentes são ponderadas substancialmente mais baixas do que a métrica de via para a via do mesmo estado. Especificamente, experimentos demonstraram que desempenho particular vantajoso tem sido encontrado para os valores de correlação vizinhos serem ponderados pelo menos cinco vezes mais altos do que as correlações cruzadas para o mesmo estado. No exemplo específico, a métrica de via de estado adjacente são ponderadas por um fator de 0,009 e a mesma métrica de via de estado é ponderada por um fator de 0,982.
A Figura 4 ilustra um exemplo de uma atualização métrica para o quadro t para a máquina de estado de treliça. No exemplo específico, a métrica de probabilidade
18/24 de estado para o estado Sn no tempo t é calculada da métrica de via das vias do subconjunto dos estados anteriores que compreende o estado sn no tempo t-1 e os estados adjacentes sn_i no tempo t-1. Especificamente, a métrica de probabilidade de estado sn é dada por:
= C' + P'n + Pn-\ + P'n+x (COPIAR FÓRMULA)
Em que ρ’η é a métrica de via ponderada calculada do estado x para o estado n no quadro t.
No exemplo, as métricas de probabilidade são modificadas em cada quadro ao subtrair a métrica de probabilidade de estado mais baixa de todas as métricas de probabilidade de estado. Isso mitiga os problemas de transbordamento de continuamente aumentar as métricas de probabilidade de estado.
No exemplo, contribuições para uma métrica de recuo de tempo dado são apenas incluídas para o subconjunto de recuos que compreende o próprio recuo e os recuos adjacentes. No entanto, será apreciado que em outras versões outros subconjuntos de recuos de tempo poderão ser considerados.
No exemplo, as métricas de estado para a máquina de estado de treliça são atualizadas em cada quadro. Entretanto, em contraste com os algoritmos Viterbi convencionais, o processador de estado 207 não seleciona uma via preferida para cada estado mas calcula a métrica de probabilidade de estado para um estado dado como a contribuição combinada de todas as vias que entram aquele estado. Outrossim, o processador de estado 207 não efetua um tracejamento de volta através da treliça para determinar vias sobreviventes. Em vez disso, no exemplo, a estimativa
19/24 de diferença entre tempos atual pode ser simplesmente selecionada como o recuo de tempo correspondente ao estado tendo atualmente a métrica de probabilidade de estado mais alta. Assim, nenhum retardo é incorrido na máquina de estado. Ademais, à medida que a métrica de estado de probabilidade depende de valores anteriores (e de outros estados) uma histerese é inerentemente atingida.
Especificamente, o processador de estado 207 é acoplado a um processador ITD 209 que determina a diferença entre tempos para o recuo de tempo associado a um estado tendo a métrica de probabilidade de estado mais alta. Especificamente, ele poderá fixar diretamente a diferença entre tempos como sendo igual ao recuo de tempo do estado tendo a métrica de probabilidade de estado mais alta.
O processador ITD 2 09 é acoplado a um processador de retardo 211 que determina o retardo a ser aplicado aos retardos 109, 111. Primeiramente, o processador de retardo 211 compensa a diferença entre tempos pelo fator de dizimação aplicado no processador de dizimação 201. Em uma versão simples, a diferença entre tempos estimada poderá ser dada como o número de amostras dizimadas *por exemplo, a 4 kHz correspondente a uma resolução de 250 ps) e isso poderá ser convertido para um número de amostras nãodizimadas ao multiplicá-lo pelo fator de dizimação (por exemplo, para amostras de 16 kHz ao multiplicá-las por um fator de 4).
No exemplo, o processador de retardo 211 fixa os valores para ambos os retardos 109, 111. Especificamente, dependendo do sinal da diferença entre tempos, um dos retardos e fixado para zero e o outro retardo é fixado para
20/24 o número calculado de amostras não-dizimadas.
A abordagem descrita para calcular a diferença entre tempos fornece qualidade melhorada do sinal codificado e, em particular, fornece reverberação reduzida do sinal mono antes da codificação, assim melhorando a operação e o desempenho do codificador mono CELP 115.
Testes específicos foram realizados em que três sinais de teste estéreo foram gravados em uma sala de conferência com um par de microfones em diferentes configurações. Na primeira configuração, os microfones foram colocados aim de distância e dois falantes masculinos sentados em eixo além de cada um dos dois microfones e uma conversação de teste foi gravada. Na segunda configuração, os dois microfones foram colocados 3 m distantes um do outro e os falantes masculinos estavam novamente em eixo além de cada um dos dois microfones. Na configuração final, os microfones estavam distanciados 2 m um do outro e os dois falantes estavam de lado do eixo dos microfones mas em lados opostos ao eixo que defronta cada um dos dois microfones. Em todos esses cenários o algoritmo acompanhou os re tardos bem e quando o sinal mono resultante foi codificado com o algoritmo de linha base para o codec ITU-T EV-VBR, um ganho de aproximadamente 0,3 dB em SEGSNR e WSEGSNR foi observado em cada cenário.
Em algumas versões, a transição de um retardo para outro é simplesmente atingida pela mudança do número de amostras em que o sinal apropriado é retardado pelos retardos 109, 111. No entanto, em algumas versões, funcionalidade poderá ser incluída para efetuar uma transição suave de um retardo para outro.
21/24
Especificamente, o aparelho poderá estar disposto para mudar de um primeiro retardo para um segundo retardo ao gerar um primeiro sinal que é retardado pelo retardo anterior à transição e o segundo sinal que é retardado pelo retardo seguido à transição. O primeiro e o segundo sinais são então combinados para gerar um sinal combinado que inclui uma contribuição tanto do sinal anterior à transição como o sinal que segue a transição. A contribuição dos dois sinais é gradativamente modificada tal que inicialmente a contribuição é predominantemente ou exclusivamente do primeiro sinal e ao final da transição a contribuição é predominantemente ou exclusivamente do segundo sinal.
Assim, o aparelho poderá, durante uma transição de retardo, sintetizar dois sinais correspondentes ao retardo inicial e o retardo final. Os dois sinais poderão ser combinados por uma somatória ponderada como:
s=a. Si+b. s2 em que Si e s2 representam o primeiro e o segundo sinais e a e b são ponderações que são modificadas durante o intervalo de transição (que especificamente poderá ser igual a um único quadro). Especificamente, inicialmente os valores poderão ser fixados para a=l e b=0 e os valores finais poderão ser fixados para a=0 e b=l. A transição entre esses valores poderá ser efetuada de acordo com qualquer função adequada e poderá especificamente manter a relação a+b=l durante a transição.
Assim, em tais versões uma transição suave entre retardos diferentes é atingida ao sintetizar sinais para ambos os retardos e gradativamente mudar de um para o outro no domínio do tempo.
22/24
No exemplo específico, uma janela sobrepostaadicionada meia-Hann de 20 ms é aplicada para assegurar que a transição de um retardo para o seguinte é tão imperceptível quanto possível.
A Figura 5 ilustra um método de codificar um sinal de áudio multicanal de acordo com algumas versões da invenção.
O método tem início da etapa 501 em que o sinal de áudio multicanal que compreende pelo menos um primeiro sinal de áudio de um primeiro microfone e um segundo sinal de áudio de um segundo microfone é recebido.
A etapa 501 é seguida pela etapa 503 em que uma diferença entre tempos entre o primeiro sinal de áudio e o segundo sinal de áudio é determinada.
A etapa 503 é seguida pela etapa 505 em que um sinal de áudio multicanal compensado é gerado do sinal de áudio multicanal ao retardar pelo menos um do primeiro e do segundo sinais estéreo em resposta ao sinal de diferença entre tempos.
A etapa 505 é seguida pela etapa 507 em que um sinal mono é gerado ao combinar canais do sinal de áudio multicanal compensado.
A etapa 507 é seguida pela etapa 509 em que o sinal mono é codificado por um codificador de sinal mono.
Será apreciado que a descrição acima por clareza descreveu versões da invenção com referência a diferentes unidades funcionais e processadores. No entanto, será aparente que qualquer distribuição adequada da funcionalidade entre unidades funcionais diferentes ou processadores poderá ser utilizada sem detrair da invenção. Por exemplo, a funcionalidade ilustrada para ser efetuada
23/24 por processadores separados ou controladoras poderá ser efetuado pelo mesmo processador ou controladoras. Assim, referências a unidades funcionais específicas são apenas para serem vistas como referências a meio adequado para fornecer a funcionalidade descrita e não indicativo de uma estrutura ou organização lógica ou física rígida.
A invenção pode ser implementada em qualquer forma adequada incluindo hardware, software, firmware ou qualquer combinação destas. A invenção poderá opcionalmente ser implementada pelo menos parcialmente como software de computador processando em um ou mais processadores de dados e/o processadores de sinal digital. Os elementos e componentes de uma versão da invenção poderão ser física, funcional e logicamente implementados de qualquer maneira adequada. Em verdade, a funcionalidade poderá ser implementada em uma única unidade, em uma pluralidade de unidades ou como parte de outras unidades funcionais. Como tal, a invenção poderá ser implementada em uma única unidade ou poderá ser física e funcionalmente distribuída entre unidades e processadores diferentes.
Embora a presente invenção tenha sido descrita em conexão com algumas versões, não se pretende que seja limitada à forma específica aqui explicitada. Em vez disso, o escopo da presente invenção é limitado apenas pelas reivindicações acompanhantes. Adicionalmente, embora um recurso poderá parecer ser descrito em conexão com versões particulares, alguém habilitado na tecnologia reconhecería que vários recursos das versões descritas poderão ser combinados de acordo com a invenção. Nas reivindicações, o termo compreender não exclui a presença de outros elementos
24/24 ou etapas.
Ademais, embora individualmente listado, uma pluralidade de unidades, meios, elementos ou etapas de métodos poderão ser implementados, por exemplo, em uma única unidade ou processador. Adicionalmente, embora recursos individuais poderão ser incluídos em diferentes reivindicações, estas poderão possivelmente ser combinadas com vantagem e a inclusão em diferentes reivindicações não implica que uma combinação de recursos não seja viável e/ou vantajosa. Outrossim a inclusão de um recurso em uma categoria de reivindicações não implica uma limitação a esta categoria mas em vez disso indica que o recurso é igualmente aplicável a outras categorias de reivindicações conforme apropriado. Ademais, a ordem dos recursos nas reivindicações não implica qualquer ordem específica em que os recursos precisam ser trabalhados e, em particular, a ordem das etapas individuais em uma reivindicação de método não implica que as etapas precisem ser efetuadas nesta ordem. Em vez disso, as etapas poderão ser efetuadas em qualquer ordem adequada.

Claims (4)

  1. REIVINDICAÇÕES
    1. Aparelho para codificar um sinal de áudio multicanal, o aparelho comprendendo:
    um receptor para receber o sinal de áudio multicanal que compreende pelo menos um primeiro sinal de áudio de um primeiro microfone e um segundo sinal de áudio de um segundo microfone;
    uma unidade de diferença de tempo para determinar a diferença entre tempos entre o primeiro sinal de áudio e o segundo sinal de áudio;
    uma unidade de retardo para gerar um sinal de áudio multicanal compensado do sinal de áudio multicanal ao retardar pelo menos um do primeiro sinal de áudio e o segundo sinal de áudio em resposta ao sinal de diferença entre tempos;
    uma unidade mono para gerar um sinal mono ao combinar canais do sinal de áudio multicanal compensado; e um codificador de sinal mono para codificar o sinal mono; o aparelho caracterizado pelo fato da unidade de diferença de tempo estar disposta para determinar correlações cruzadas entre o primeiro sinal de áudio e o segundo sinal de áudio para uma pluralidade de recuos de tempo, e determinar a diferença entre tempos em resposta às correlações cruzadas; e uma unidade de diferença de tempo comprendendo:
    uma máquina de estado de treliça tendo uma pluralidade de estados, cada uma da pluralidade de estados correspondendo a um recuo de tempo da pluralidade de recuos de tempo;
    uma unidade de via para determinar métrica de via para
    Petição 870190118717, de 16/11/2019, pág. 13/21
  2. 2/4 estados da máquina de estado de treliça em resposta às correlações cruzadas; e uma unidade computacional para determinar métrica de estado para os estados em resposta a métrica de via associada a vias de estados anteriores para os estados atuais; e uma unidade para determinar a diferença entre tempos em resposta a métrica de estado.
    2. Aparelho, de acordo com a reivindicação 1, caracterizado pelo fato da unidade de diferença de tempo
    estar disposta para filtrar por passagem baixa o primeiro sinal de áudio e o segundo sinal de áudio antes da correlação cruzada. 3 . Aparelho, de acordo com a reivindicação 1,
    caracterizado pelo fato da unidade de diferença de tempo estar disposta para dizimar o primeiro sinal de áudio e o segundo sinal de áudio antes da correlação cruzada.
    4. Aparelho, de acordo com a reivindicação 1, caracterizado pelo fato da unidade de retardo estar disposta para compensar a diferença entre tempos para um fator de dizimação da dizimação para determinar um retardo para pelo menos um do primeiro sinal de áudio e o segundo sinal de áudio.
    5. Aparelho, de acordo com a reivindicação 1, caracterizado pelo fato da unidade de diferença de tempo estar disposta para aplicar um branqueamento espectral no primeiro sinal de áudio e no segundo sinal de áudio antes da correlação.
    6. Aparelho, de acordo com a reivindicação 1, caracterizado pelo fato da unidade de diferença de tempo
    Petição 870190118717, de 16/11/2019, pág. 14/21
  3. 3/4 estar disposta para efetuar aberturas múltiplas do primeiro sinal de áudio e do segundo sinal de áudio antes da correlação cruzada.
    7. Aparelho, de acordo com a reivindicação 1, caracterizado pelo fato da unidade de retardo estar disposta para mudar de um primeiro retardo para um segundo retardo ao gerar um primeiro sinal de áudio multicanal compensado em resposta ao primeiro retardo e um segundo sinal de áudio multicanal compensado em resposta ao segundo retardo e combinar o primeiro sinal de áudio multicanal compensado e o segundo sinal de áudio multicanal compensado para gerar o sinal de áudio multicanal compensado.
    8. Método de codificar um sinal de áudio multicanal, o método comprendendo:
    receber o sinal de áudio multicanal que compreende pelo menos um primeiro sinal de áudio de um primeiro microfone e um segundo sinal de áudio de um segundo microfone;
    determinar uma diferença entre tempos entre o primeiro sinal de áudio e o segundo sinal de áudio;
    gerar um sinal de áudio multicanal compensado do sinal de áudio multicanal ao retardar pelo menos um de o primeiro sinal de áudio e o segundo sinal de áudio em resposta ao sinal de diferente entre tempos;
    gerar um sinal mono ao combinar canais do sinal de áudio multicanal compensado; e codificar o sinal mono em um codificador de sinal mono;
    e o método sendo caracterizado pelo fato de compreender ainda a etapa de determinar uma diferença entre tempos
    Petição 870190118717, de 16/11/2019, pág. 15/21
  4. 4/4 compreendendo determinar correlações cruzadas entre o primeiro sinal de áudio e o segundo sinal de áudio para uma pluralidade de recuos de tempo, e determinar a diferença entre tempos em resposta às correlações cruzadas por 5 efetuar as etapas de:
    proporcionar uma máquina de estado de treliça tendo uma pluralidade de estados, cada uma da pluralidade de estados correspondendo a um recuo de tempo da pluralidade de recuos de tempo;
    10 determinar métrica de via para estados da máquina de estado de treliça em resposta às correlações cruzadas;
    determinar métrica de estado para os estados em resposta a métrica de via associada a vias de estados anteriores para os estados atuais; e
    15 determinar a diferença entre tempos em resposta a métrica de estado.
BRPI0817982A 2007-09-25 2008-09-09 aparelho e método para codificar um sinal de áudio multicanal BRPI0817982B1 (pt)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
GB0718682.8A GB2453117B (en) 2007-09-25 2007-09-25 Apparatus and method for encoding a multi channel audio signal
PCT/US2008/075703 WO2009042386A1 (en) 2007-09-25 2008-09-09 Apparatus and method for encoding a multi channel audio signal

Publications (2)

Publication Number Publication Date
BRPI0817982A2 BRPI0817982A2 (pt) 2015-04-07
BRPI0817982B1 true BRPI0817982B1 (pt) 2020-05-05

Family

ID=38670458

Family Applications (1)

Application Number Title Priority Date Filing Date
BRPI0817982A BRPI0817982B1 (pt) 2007-09-25 2008-09-09 aparelho e método para codificar um sinal de áudio multicanal

Country Status (13)

Country Link
US (3) US8577045B2 (pt)
EP (1) EP2206110B1 (pt)
JP (1) JP5277508B2 (pt)
KR (1) KR101120913B1 (pt)
CN (1) CN101809655B (pt)
BR (1) BRPI0817982B1 (pt)
CA (1) CA2698600C (pt)
GB (1) GB2453117B (pt)
MX (1) MX2010002846A (pt)
MY (1) MY169423A (pt)
RU (1) RU2450369C2 (pt)
WO (1) WO2009042386A1 (pt)
ZA (1) ZA201001672B (pt)

Families Citing this family (100)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8483853B1 (en) 2006-09-12 2013-07-09 Sonos, Inc. Controlling and manipulating groupings in a multi-zone media system
US9202509B2 (en) 2006-09-12 2015-12-01 Sonos, Inc. Controlling and grouping in a multi-zone media system
US8788080B1 (en) 2006-09-12 2014-07-22 Sonos, Inc. Multi-channel pairing in a media system
US8515767B2 (en) * 2007-11-04 2013-08-20 Qualcomm Incorporated Technique for encoding/decoding of codebook indices for quantized MDCT spectrum in scalable speech and audio codecs
US20100290629A1 (en) * 2007-12-21 2010-11-18 Panasonic Corporation Stereo signal converter, stereo signal inverter, and method therefor
MX2011008605A (es) * 2009-02-27 2011-09-09 Panasonic Corp Dispositivo de determinacion de tono y metodo de determinacion de tono.
CN102157152B (zh) * 2010-02-12 2014-04-30 华为技术有限公司 立体声编码的方法、装置
US8463414B2 (en) 2010-08-09 2013-06-11 Motorola Mobility Llc Method and apparatus for estimating a parameter for low bit rate stereo transmission
US8923997B2 (en) 2010-10-13 2014-12-30 Sonos, Inc Method and apparatus for adjusting a speaker system
US11429343B2 (en) 2011-01-25 2022-08-30 Sonos, Inc. Stereo playback configuration and control
US11265652B2 (en) 2011-01-25 2022-03-01 Sonos, Inc. Playback device pairing
CN103339670B (zh) 2011-02-03 2015-09-09 瑞典爱立信有限公司 确定多通道音频信号的通道间时间差
US8938312B2 (en) 2011-04-18 2015-01-20 Sonos, Inc. Smart line-in processing
US9042556B2 (en) 2011-07-19 2015-05-26 Sonos, Inc Shaping sound responsive to speaker orientation
WO2013029225A1 (en) * 2011-08-29 2013-03-07 Huawei Technologies Co., Ltd. Parametric multichannel encoder and decoder
WO2013088208A1 (en) * 2011-12-15 2013-06-20 Nokia Corporation An audio scene alignment apparatus
US8811630B2 (en) 2011-12-21 2014-08-19 Sonos, Inc. Systems, methods, and apparatus to filter audio
US9084058B2 (en) 2011-12-29 2015-07-14 Sonos, Inc. Sound field calibration using listener localization
US9729115B2 (en) 2012-04-27 2017-08-08 Sonos, Inc. Intelligently increasing the sound level of player
US9524098B2 (en) 2012-05-08 2016-12-20 Sonos, Inc. Methods and systems for subwoofer calibration
USD721352S1 (en) 2012-06-19 2015-01-20 Sonos, Inc. Playback device
US9690271B2 (en) 2012-06-28 2017-06-27 Sonos, Inc. Speaker calibration
US9219460B2 (en) 2014-03-17 2015-12-22 Sonos, Inc. Audio settings based on environment
US9706323B2 (en) 2014-09-09 2017-07-11 Sonos, Inc. Playback device calibration
US9690539B2 (en) 2012-06-28 2017-06-27 Sonos, Inc. Speaker calibration user interface
US9106192B2 (en) 2012-06-28 2015-08-11 Sonos, Inc. System and method for device playback calibration
US9668049B2 (en) 2012-06-28 2017-05-30 Sonos, Inc. Playback device calibration user interfaces
US8930005B2 (en) 2012-08-07 2015-01-06 Sonos, Inc. Acoustic signatures in a playback system
US8965033B2 (en) 2012-08-31 2015-02-24 Sonos, Inc. Acoustic optimization
US9129600B2 (en) * 2012-09-26 2015-09-08 Google Technology Holdings LLC Method and apparatus for encoding an audio signal
US9008330B2 (en) 2012-09-28 2015-04-14 Sonos, Inc. Crossover frequency adjustments for audio speakers
US8976959B2 (en) * 2012-11-21 2015-03-10 Clinkle Corporation Echo delay encoding
EP2743922A1 (en) 2012-12-12 2014-06-18 Thomson Licensing Method and apparatus for compressing and decompressing a higher order ambisonics representation for a sound field
USD721061S1 (en) 2013-02-25 2015-01-13 Sonos, Inc. Playback device
PT3008726T (pt) 2013-06-10 2017-11-24 Fraunhofer Ges Forschung Aparelho e método de codificação, processamento e descodificação de envelope de sinal de áudio por modelação da representação de soma cumulativa empregando codificação e quantização de distribuição
CN104681029B (zh) * 2013-11-29 2018-06-05 华为技术有限公司 立体声相位参数的编码方法及装置
US9226073B2 (en) 2014-02-06 2015-12-29 Sonos, Inc. Audio output balancing during synchronized playback
US9226087B2 (en) 2014-02-06 2015-12-29 Sonos, Inc. Audio output balancing during synchronized playback
CN103856869A (zh) * 2014-03-12 2014-06-11 深圳市中兴移动通信有限公司 音效处理方法和摄像装置
US9264839B2 (en) 2014-03-17 2016-02-16 Sonos, Inc. Playback device configuration based on proximity detection
US9367283B2 (en) 2014-07-22 2016-06-14 Sonos, Inc. Audio settings
USD883956S1 (en) 2014-08-13 2020-05-12 Sonos, Inc. Playback device
US9910634B2 (en) 2014-09-09 2018-03-06 Sonos, Inc. Microphone calibration
US9891881B2 (en) 2014-09-09 2018-02-13 Sonos, Inc. Audio processing algorithm database
US9952825B2 (en) 2014-09-09 2018-04-24 Sonos, Inc. Audio processing algorithms
US10127006B2 (en) 2014-09-09 2018-11-13 Sonos, Inc. Facilitating calibration of an audio playback device
US9973851B2 (en) 2014-12-01 2018-05-15 Sonos, Inc. Multi-channel playback of audio content
CN106033672B (zh) 2015-03-09 2021-04-09 华为技术有限公司 确定声道间时间差参数的方法和装置
WO2016172593A1 (en) 2015-04-24 2016-10-27 Sonos, Inc. Playback device calibration user interfaces
US10664224B2 (en) 2015-04-24 2020-05-26 Sonos, Inc. Speaker calibration user interface
US20170085972A1 (en) 2015-09-17 2017-03-23 Sonos, Inc. Media Player and Media Player Design
USD886765S1 (en) 2017-03-13 2020-06-09 Sonos, Inc. Media playback device
USD920278S1 (en) 2017-03-13 2021-05-25 Sonos, Inc. Media playback device with lights
USD906278S1 (en) 2015-04-25 2020-12-29 Sonos, Inc. Media player device
USD768602S1 (en) 2015-04-25 2016-10-11 Sonos, Inc. Playback device
US10248376B2 (en) 2015-06-11 2019-04-02 Sonos, Inc. Multiple groupings in a playback system
US9460727B1 (en) * 2015-07-01 2016-10-04 Gopro, Inc. Audio encoder for wind and microphone noise reduction in a microphone array system
US9613628B2 (en) 2015-07-01 2017-04-04 Gopro, Inc. Audio decoder for wind and microphone noise reduction in a microphone array system
US9729118B2 (en) 2015-07-24 2017-08-08 Sonos, Inc. Loudness matching
US9877134B2 (en) * 2015-07-28 2018-01-23 Harman International Industries, Incorporated Techniques for optimizing the fidelity of a remote recording
US9538305B2 (en) 2015-07-28 2017-01-03 Sonos, Inc. Calibration error conditions
US9712912B2 (en) 2015-08-21 2017-07-18 Sonos, Inc. Manipulation of playback device response using an acoustic filter
US9736610B2 (en) 2015-08-21 2017-08-15 Sonos, Inc. Manipulation of playback device response using signal processing
US9693165B2 (en) 2015-09-17 2017-06-27 Sonos, Inc. Validation of audio calibration using multi-dimensional motion check
CN108028985B (zh) 2015-09-17 2020-03-13 搜诺思公司 用于计算设备的方法
CA2997334A1 (en) 2015-09-25 2017-03-30 Voiceage Corporation Method and system for encoding left and right channels of a stereo sound signal selecting between two and four sub-frames models depending on the bit budget
US10152977B2 (en) * 2015-11-20 2018-12-11 Qualcomm Incorporated Encoding of multiple audio signals
US10115403B2 (en) * 2015-12-18 2018-10-30 Qualcomm Incorporated Encoding of multiple audio signals
US10074373B2 (en) * 2015-12-21 2018-09-11 Qualcomm Incorporated Channel adjustment for inter-frame temporal shift variations
US9743207B1 (en) 2016-01-18 2017-08-22 Sonos, Inc. Calibration using multiple recording devices
PL3405949T3 (pl) 2016-01-22 2020-07-27 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Urządzenie i sposób szacowania międzykanałowej różnicy czasowej
US10003899B2 (en) 2016-01-25 2018-06-19 Sonos, Inc. Calibration with particular locations
US11106423B2 (en) 2016-01-25 2021-08-31 Sonos, Inc. Evaluating calibration of a playback device
US9886234B2 (en) 2016-01-28 2018-02-06 Sonos, Inc. Systems and methods of distributing audio to one or more playback devices
US9978381B2 (en) * 2016-02-12 2018-05-22 Qualcomm Incorporated Encoding of multiple audio signals
US9860662B2 (en) 2016-04-01 2018-01-02 Sonos, Inc. Updating playback device configuration information based on calibration data
US9864574B2 (en) 2016-04-01 2018-01-09 Sonos, Inc. Playback device calibration based on representation spectral characteristics
US9763018B1 (en) 2016-04-12 2017-09-12 Sonos, Inc. Calibration of audio playback devices
CN105897738B (zh) * 2016-05-20 2017-02-22 电子科技大学 一种用于多信道环境的实时流编码方法
US9794710B1 (en) 2016-07-15 2017-10-17 Sonos, Inc. Spatial audio correction
US9860670B1 (en) 2016-07-15 2018-01-02 Sonos, Inc. Spectral correction using spatial calibration
US10372406B2 (en) 2016-07-22 2019-08-06 Sonos, Inc. Calibration interface
US10459684B2 (en) 2016-08-05 2019-10-29 Sonos, Inc. Calibration of a playback device based on an estimated frequency response
GB201615538D0 (en) 2016-09-13 2016-10-26 Nokia Technologies Oy A method , apparatus and computer program for processing audio signals
USD851057S1 (en) 2016-09-30 2019-06-11 Sonos, Inc. Speaker grill with graduated hole sizing over a transition area for a media device
US10412473B2 (en) 2016-09-30 2019-09-10 Sonos, Inc. Speaker grill with graduated hole sizing over a transition area for a media device
USD827671S1 (en) 2016-09-30 2018-09-04 Sonos, Inc. Media playback device
US10712997B2 (en) 2016-10-17 2020-07-14 Sonos, Inc. Room association based on name
CN106647103B (zh) * 2017-03-09 2019-12-06 电子科技大学 一种用于孤子自频移全光模数转换的编码装置及方法
CN108877815B (zh) 2017-05-16 2021-02-23 华为技术有限公司 一种立体声信号处理方法及装置
CN109215667B (zh) 2017-06-29 2020-12-22 华为技术有限公司 时延估计方法及装置
CN109427338B (zh) * 2017-08-23 2021-03-30 华为技术有限公司 立体声信号的编码方法和编码装置
US10891960B2 (en) 2017-09-11 2021-01-12 Qualcomm Incorproated Temporal offset estimation
US10872611B2 (en) * 2017-09-12 2020-12-22 Qualcomm Incorporated Selecting channel adjustment method for inter-frame temporal shift variations
US11741114B2 (en) * 2017-12-19 2023-08-29 ExxonMobil Technology and Engineering Company Data analysis platform
RU2762302C1 (ru) * 2018-04-05 2021-12-17 Фраунхофер-Гезелльшафт Цур Фердерунг Дер Ангевандтен Форшунг Е.Ф. Устройство, способ или компьютерная программа для оценки разности во времени между каналами
US11206484B2 (en) 2018-08-28 2021-12-21 Sonos, Inc. Passive speaker authentication
US10299061B1 (en) 2018-08-28 2019-05-21 Sonos, Inc. Playback device calibration
US10734965B1 (en) 2019-08-12 2020-08-04 Sonos, Inc. Audio calibration of a portable playback device
US11670317B2 (en) 2021-02-23 2023-06-06 Kyndryl, Inc. Dynamic audio quality enhancement

Family Cites Families (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4544919A (en) * 1982-01-03 1985-10-01 Motorola, Inc. Method and means of determining coefficients for linear predictive coding
JPS58152542A (ja) * 1982-03-05 1983-09-10 株式会社東芝 X線診断装置
US5434948A (en) * 1989-06-15 1995-07-18 British Telecommunications Public Limited Company Polyphonic coding
DE4320990B4 (de) * 1993-06-05 2004-04-29 Robert Bosch Gmbh Verfahren zur Redundanzreduktion
JP2762957B2 (ja) 1995-05-22 1998-06-11 日本電気株式会社 災害用電話システム、及び交換機、電話機
US5844947A (en) * 1995-12-28 1998-12-01 Lucent Technologies Inc. Viterbi decoder with reduced metric computation
KR100189906B1 (ko) * 1996-04-17 1999-06-01 윤종용 비터비 복호화방법 및 그 회로
US6236731B1 (en) * 1997-04-16 2001-05-22 Dspfactory Ltd. Filterbank structure and method for filtering and separating an information signal into different bands, particularly for audio signal in hearing aids
US6253172B1 (en) * 1997-10-16 2001-06-26 Texas Instruments Incorporated Spectral transformation of acoustic signals
US6452985B1 (en) * 1998-03-18 2002-09-17 Sony Corporation Viterbi decoding apparatus and Viterbi decoding method
JP2000004495A (ja) * 1998-06-16 2000-01-07 Oki Electric Ind Co Ltd 複数マイク自由配置による複数話者位置推定方法
JP2000044995A (ja) 1998-07-29 2000-02-15 Toppan Printing Co Ltd インキローラー洗浄剤
US6973184B1 (en) * 2000-07-11 2005-12-06 Cisco Technology, Inc. System and method for stereo conferencing over low-bandwidth links
US7583805B2 (en) * 2004-02-12 2009-09-01 Agere Systems Inc. Late reverberation-based synthesis of auditory scenes
SE0202159D0 (sv) * 2001-07-10 2002-07-09 Coding Technologies Sweden Ab Efficientand scalable parametric stereo coding for low bitrate applications
AU2003216682A1 (en) * 2002-04-22 2003-11-03 Koninklijke Philips Electronics N.V. Signal synthesizing
ES2323294T3 (es) 2002-04-22 2009-07-10 Koninklijke Philips Electronics N.V. Dispositivo de decodificacion con una unidad de decorrelacion.
WO2004008806A1 (en) * 2002-07-16 2004-01-22 Koninklijke Philips Electronics N.V. Audio coding
KR101049751B1 (ko) * 2003-02-11 2011-07-19 코닌클리케 필립스 일렉트로닉스 엔.브이. 오디오 코딩
US6988064B2 (en) * 2003-03-31 2006-01-17 Motorola, Inc. System and method for combined frequency-domain and time-domain pitch extraction for speech signals
RU2005135648A (ru) * 2003-04-17 2006-03-20 Конинклейке Филипс Электроникс Н.В. (Nl) Генерация аудиосигналов
US8311809B2 (en) * 2003-04-17 2012-11-13 Koninklijke Philips Electronics N.V. Converting decoded sub-band signal into a stereo signal
JP2007507726A (ja) * 2003-09-29 2007-03-29 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ オーディオ信号の符号化
US7313720B1 (en) * 2004-02-12 2007-12-25 Network Appliance, Inc. Technique for increasing the number of persistent consistency point images in a file system
CN1922654A (zh) * 2004-02-17 2007-02-28 皇家飞利浦电子股份有限公司 音频分发系统、音频编码器、音频解码器及其操作方法
ATE405925T1 (de) 2004-09-23 2008-09-15 Harman Becker Automotive Sys Mehrkanalige adaptive sprachsignalverarbeitung mit rauschunterdrückung
US7653155B1 (en) * 2004-11-04 2010-01-26 Sandia Corporation Using convolutional decoding to improve time delay and phase estimation in digital communications
DE602005017660D1 (de) * 2004-12-28 2009-12-24 Panasonic Corp Audiokodierungsvorrichtung und audiokodierungsmethode
WO2006075377A1 (ja) * 2005-01-13 2006-07-20 Fujitsu Limited 受音装置
EP1691348A1 (en) 2005-02-14 2006-08-16 Ecole Polytechnique Federale De Lausanne Parametric joint-coding of audio sources
US7573912B2 (en) * 2005-02-22 2009-08-11 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschunng E.V. Near-transparent or transparent multi-channel encoder/decoder scheme
US7583808B2 (en) * 2005-03-28 2009-09-01 Mitsubishi Electric Research Laboratories, Inc. Locating and tracking acoustic sources with microphone arrays
JP4948401B2 (ja) * 2005-05-31 2012-06-06 パナソニック株式会社 スケーラブル符号化装置およびスケーラブル符号化方法
US20070092086A1 (en) * 2005-10-24 2007-04-26 Pang Hee S Removing time delays in signal paths
US8112286B2 (en) * 2005-10-31 2012-02-07 Panasonic Corporation Stereo encoding device, and stereo signal predicting method
CN1809105B (zh) * 2006-01-13 2010-05-12 北京中星微电子有限公司 适用于小型移动通信设备的双麦克语音增强方法及系统
PL1999999T3 (pl) * 2006-03-24 2012-07-31 Dolby Int Ab Generowanie downmixów przestrzennych na podstawie parametrycznych reprezentacji sygnałów wielokanałowych
US7599441B2 (en) * 2006-06-20 2009-10-06 Newport Media, Inc. Low complexity soft-input Viterbi decoding for digital communication systems

Also Published As

Publication number Publication date
CA2698600A1 (en) 2009-04-02
ZA201001672B (en) 2016-02-24
BRPI0817982A2 (pt) 2015-04-07
CA2698600C (en) 2015-01-20
KR101120913B1 (ko) 2012-02-27
RU2450369C2 (ru) 2012-05-10
RU2010116295A (ru) 2011-11-10
US8577045B2 (en) 2013-11-05
US20130282384A1 (en) 2013-10-24
GB2453117A (en) 2009-04-01
EP2206110A4 (en) 2015-12-09
MX2010002846A (es) 2010-04-01
EP2206110B1 (en) 2017-01-11
KR20100057666A (ko) 2010-05-31
US20110085671A1 (en) 2011-04-14
WO2009042386A1 (en) 2009-04-02
CN101809655B (zh) 2012-07-25
EP2206110A1 (en) 2010-07-14
JP2010541007A (ja) 2010-12-24
GB0718682D0 (en) 2007-10-31
US20170116997A1 (en) 2017-04-27
WO2009042386A4 (en) 2009-06-25
US9570080B2 (en) 2017-02-14
MY169423A (en) 2019-04-03
JP5277508B2 (ja) 2013-08-28
GB2453117B (en) 2012-05-23
CN101809655A (zh) 2010-08-18

Similar Documents

Publication Publication Date Title
BRPI0817982B1 (pt) aparelho e método para codificar um sinal de áudio multicanal
JP7161564B2 (ja) チャネル間時間差を推定する装置及び方法
RU2305870C2 (ru) Оптимизированное по точности кодирование с переменной длиной кадра
TWI490853B (zh) 多聲道音訊處理技術
RU2497204C2 (ru) Устройство параметрического стереофонического повышающего микширования, параметрический стереофонический декодер, устройство параметрического стереофонического понижающего микширования, параметрический стереофонический кодер
US10089990B2 (en) Audio object separation from mixture signal using object-specific time/frequency resolutions
TWI508058B (zh) 多聲道音訊處理技術
CA2887228C (en) Encoder, decoder and methods for backward compatible multi-resolution spatial-audio-object-coding
BRPI0516392B1 (pt) conformação de som difuso para esquemas bcc e similares
BRPI0511362B1 (pt) sintetizador multicanais e método para a geração de um sinal de saída multicanais
JP5421367B2 (ja) 多重チャンネルオーディオデータの再構成
BR112019009952A2 (pt) aparelho e método para decompor um sinal de áudio e programa de computador
Zheng et al. Encoding navigable speech sources: A psychoacoustic-based analysis-by-synthesis approach
KR20220034102A (ko) 오디오 스트림에 있어서의 메타데이터를 코딩하고 가요성 객체간 및 객체내 비트레이트 적응화를 위한 방법 및 시스템
BR112019009944A2 (pt) aparelho e método para decompor um sinal de áudio e programa de computador
Hotho et al. Multichannel coding of applause signals
Koo et al. Variable subband analysis for high quality spatial audio object coding
JP2007104601A (ja) マルチチャンネル符号化における頭部伝達関数をサポートするための装置

Legal Events

Date Code Title Description
B25D Requested change of name of applicant approved

Owner name: MOTOROLA SOLUTIONS, INC (US)

B25A Requested transfer of rights approved

Owner name: MOTOROLA MOBILITY INC (US)

B25E Requested change of name of applicant rejected

Owner name: MOTOROLA MOBILITY INC (US)

Free format text: INDEFERIDO O PEDIDO DE ALTERACAO DE NOME CONTIDO NA PETICAO 20130041160 DE 15/05/2013, DEVIDO A AUSENCIA DE GUIA DE RECOLHIMENTO RELATIVA AO SERVICO.

B25G Requested change of headquarter approved

Owner name: MOTOROLA MOBILITY INC (US)

B25D Requested change of name of applicant approved

Owner name: MOTOROLA MOBILITY LLC (US)

B25A Requested transfer of rights approved

Owner name: GOOGLE TECHNOLOGY HOLDINGS LLC (US)

B06F Objections, documents and/or translations needed after an examination request according [chapter 6.6 patent gazette]
B06U Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette]
B15K Others concerning applications: alteration of classification

Free format text: A CLASSIFICACAO ANTERIOR ERA: G10L 19/00

Ipc: G10L 19/12 (2000.01), G10L 19/06 (2000.01), G10L 1

B09A Decision: intention to grant [chapter 9.1 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 10 (DEZ) ANOS CONTADOS A PARTIR DE 05/05/2020, OBSERVADAS AS CONDICOES LEGAIS.