BR122020015614B1 - Método e dispositivo para interpolar parâmetros de filtro de predição linear em um quadro de processamento de sinal sonoro atual seguindo um quadro de processamento de sinal sonoro anterior - Google Patents

Método e dispositivo para interpolar parâmetros de filtro de predição linear em um quadro de processamento de sinal sonoro atual seguindo um quadro de processamento de sinal sonoro anterior Download PDF

Info

Publication number
BR122020015614B1
BR122020015614B1 BR122020015614-7A BR122020015614A BR122020015614B1 BR 122020015614 B1 BR122020015614 B1 BR 122020015614B1 BR 122020015614 A BR122020015614 A BR 122020015614A BR 122020015614 B1 BR122020015614 B1 BR 122020015614B1
Authority
BR
Brazil
Prior art keywords
filter parameters
filter
frame
rate
parameters
Prior art date
Application number
BR122020015614-7A
Other languages
English (en)
Inventor
Redwan Salami
Vaclav Eksler
Original Assignee
Voiceage Evs Llc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=54322542&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=BR122020015614(B1) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Voiceage Evs Llc filed Critical Voiceage Evs Llc
Publication of BR122020015614B1 publication Critical patent/BR122020015614B1/pt

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/12Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/06Determination or coding of the spectral characteristics, e.g. of the short-term prediction coefficients
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/167Audio streaming, i.e. formatting and decoding of an encoded audio signal representation into a data stream for transmission or storage purposes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/173Transcoding, i.e. converting between two coded representations avoiding cascaded coding-decoding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/24Variable rate codecs, e.g. for generating different qualities using a scalable representation such as hierarchical encoding or layered encoding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/26Pre-filtering or post-filtering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/06Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being correlation coefficients
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/06Determination or coding of the spectral characteristics, e.g. of the short-term prediction coefficients
    • G10L19/07Line spectrum pair [LSP] vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L2019/0001Codebooks
    • G10L2019/0002Codebook adaptations
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L2019/0001Codebooks
    • G10L2019/0004Design or structure of the codebook
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L2019/0001Codebooks
    • G10L2019/0016Codebook for LPC parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/038Speech enhancement, e.g. noise reduction or echo cancellation using band spreading techniques

Abstract

A presente invenção refere-se a métodos, um codificador e um decodificador que estão configurados para a transição entre os quadros com diferentes taxas de amostragem interna. Os parâmetros do filtro de predição linear (LP) são convertidos a partir de uma taxa de amostragem S1 para uma taxa de amostragem S2. Um espectro de potência de um filtro de síntese de LP é computada, na taxa de amostragem S1, utilizando os parâmetros do filtro de LP. O espectro de potência do filtro de síntese de LP é modificado para convertê-lo a partir da taxa de amostragem S1 para a taxa de amostragem S2. O espectro de potência modificado do filtro de síntese de LP sofre uma transformada inversa para determinar autocorrelações do filtro de síntese de LP na taxa de amostragem S2. As autocorrelações são usadas para computar os parâmetros de filtro de LP na taxa de amostragem S2.

Description

CAMPO TÉCNICO
[0001] A presente invenção refere-se ao campo da codificação de som. Mais especificamente, a presente invenção refere-se a métodos, a um codificador e a um decodificador para a codificação e decodificação de predição linear de sinais sonoros na transição entre os quadros com diferentes taxas de amostragem.
FUNDAMENTO
[0002] A demanda por técnicas eficientes de codificação de áudio/voz em banda larga digital com um bom compromisso subjetivo da taxa de bit/qualidade está a aumentar para inúmeras aplicações, tais como teleconferência de áudio/vídeo, multimídia e aplicações sem fio, bem como Internet e aplicações de rede de pacote. Até recentemente, larguras de banda de telefone na gama de 200 a 3400 Hz foram principalmente usados em aplicações de codificação de voz. No entanto, há uma procura crescente para aplicações de voz em banda larga de modo a aumentar a inteligibilidade e a naturalidade dos sinais de voz. Uma largura de banda na gama 50 a 7000 Hz foi considerada suficiente para entregar uma qualidade de voz face a face. Para sinais de áudio, esta gama dá uma qualidade de áudio aceitável, mas ainda é inferior à qualidade de CD (Disco Compacto) que opera na gama 20 a 20000 Hz.
[0003] Um codificador de voz converte um sinal de voz em um fluxo de bits digital que é transmitido através de um canal de comunicação (ou armazenado em um meio de armazenamento). O sinal de voz é digitalizado (amostrado e quantificado com normalmente 16 bits por amostra) e o codificador de voz tem a função de representar estas amostras digitais com um número menor de bits enquanto mantém-se uma boa qualidade de voz subjetiva. O decodificador ou sintetizador de voz opera sobre o fluxo de bits transmitido ou armazenado e o converte de volta para um sinal sonoro.
[0004] Uma das melhores técnicas disponíveis capaz de alcançar um bom compromisso da taxa de qualidade/bit é a assim chamada técnica CELP (Predição Linear com Excitação por Código). De acordo com esta técnica, o sinal de voz amostrado é processado em blocos sucessivos de L amostras normalmente chamadas de quadros onde L é algum número predeterminado (correspondente a 10 a 30 ms de voz). Na CELP, um filtro de síntese de LP (Predição Linear) é computado e transmitido a cada quadro. O quadro de L amostras é ainda dividido em blocos menores denominados subquadros de N amostras, onde L= kN e k é o número de subquadros em um quadro (N corresponde normalmente a 4 a 10 ms de voz). Um sinal de excitação é determinado em cada subquadro, o qual geralmente é composto por dois componentes: um a partir da excitação anterior (também chamado de livro de código adaptativo ou de contribuição por tom) e o outro a partir de um livro de código inovador (também chamado de livro de código fixo). Este sinal de excitação é transmitido e utilizado no decodificador conforme a entrada do filtro de síntese de LP de modo a obter a voz sintetizada.
[0005] Para sintetizar a voz de acordo com a técnica CELP, cada bloco de N amostras é sintetizado pela filtragem de um vetor de código apropriado do livro de código inovador através de filtros variáveis no tempo, que modelam as características espectrais do sinal de voz. Estes filtros compreendem um filtro de síntese de tom (normalmente implementado como um livro de código adaptativo que contém o sinal de excitação anterior) e um filtro de síntese de LP. Na extremidade do codificador, a síntese emitida é computada para todos, ou um subconjunto, dos vetores de código a partir do livro de código inovador (livro de código de busca). O vetor de código inovador retido é o que produz a saída de síntese mais próxima do sinal de voz original de acordo com uma medida de distorção ponderada de forma perceptual. Esta ponderação perceptual é executada utilizando um assim chamado filtro de ponderação perceptual, que é normalmente derivado do filtro de síntese de LP.
[0006] Em codificadores baseados em LP tais como CELP, um filtro de LP é computado em seguida quantizado e transmitido uma vez por quadro. No entanto, a fim de assegurar uma evolução suave do filtro de síntese de LP, os parâmetros de filtro são interpolados em cada subquadro, com base nos parâmetros LP do quadro anterior. Os parâmetros do filtro de LP não são adequados para a quantização devido a problemas de estabilidade do filtro. Uma outra representação LP mais eficiente para a quantização e a interpolação é normalmente utilizada. Uma representação do parâmetro LP comumente usada é o domínio da frequência por espectro de linha (LSF).
[0007] Em codificação de banda larga o sinal sonoro é amostrado em 16000 amostras por segundo e a largura de banda codificada estendida até 7 kHz. No entanto, na codificação de banda larga com baixa taxa de bit (abaixo de 16 kbit/s) é geralmente mais eficiente subamostrar o sinal de entrada para uma taxa ligeiramente inferior, e aplicar o modelo CELP a uma largura de banda inferior, em seguida, usar a extensão de largura de banda no decodificador para gerar o sinal de até 7 kHz. Isto é devido ao fato de que torna os modelos CELP de frequências mais baixas com alta energia melhores do que os de frequência mais elevada. Por isso, é mais eficiente concentrar o modelo em largura de banda inferior em baixas taxas de bits. O padrão AMR-WB (Referência [1]) é um exemplo de tal codificação, onde o sinal de entrada é subamostrado para 12800 amostras por segundo, e a CELP codifica o sinal de até 6,4 KHz. No decodificador a extensão de largura de banda é usada para gerar um sinal de 6,4 a 7 kHz. No entanto, em taxas de bits mais elevadas do que 16 kbits/s é mais eficiente utilizar a CELP para codificar o sinal de até 7 kHz, uma vez que há bits suficientes para representar toda a largura de banda.
[0008] A maioria dos codificadores recentes são codificadores de múltiplas taxas que cobrem uma ampla gama de taxas de bits para permitir a flexibilidade em diferentes cenários de aplicação. Novamente a AMR-WB é um exemplo tal, onde o codificador opera em taxas de bits de 6,6 a 23,85 kbit/s. Em codificadores de múltiplas taxas o codec deve ser capaz de comutar entre diferentes taxas de bits em uma base de quadro sem introduzir artefatos de comutação. Em AMR- WB isso é facilmente alcançado uma vez que todas as taxas utilizam CELP com taxa de amostragem interna de 12,8 kHz. No entanto, em um codificador atual que utiliza amostragem de 12,8 kHz em taxas de bits abaixo de 16 kbit/s e amostragem de 16 kHz em taxas de bits superiores a 16 kbits/s, as questões relacionadas à comutação da taxa de bits entre os quadros usando taxas de amostragem diferentes precisam ser abordadas. Os principais problemas estão na transição de filtro de LP, e na memória do filtro de síntese e do livro de código adaptativo.
[0009] Por conseguinte, continua a existir uma necessidade de métodos eficientes para a comutação de codecs baseados em LP entre duas taxas de bits com diferentes taxas de amostragem interna.
SUMÁRIO
[00010] De acordo com a presente revelação, é provido um método implementado em um codificador de sinal sonoro para a conversão de parâmetros de filtro de predição linear (LP) a partir de uma taxa de amostragem de sinal sonoro S1 para uma taxa de amostragem do sinal sonoro S2. Um espectro de potência de um filtro de síntese de LP é computado, na taxa de amostragem S1, utilizando os parâmetros do filtro de LP. O espectro de potência do filtro de síntese de LP é modificado para convertê-lo da taxa de amostragem S1 para a taxa de amostragem S2. O espectro de potência modificado do filtro de síntese de LP sofre transformada inversa para determinar autocorrelações do filtro de síntese de LP na taxa de amostragem S2. As autocorrelações são usadas para computar os parâmetros de filtro de LP na taxa de amostragem S2.
[00011] De acordo com a presente invenção, é também provido um método implementado em um decodificador de sinal sonoro para a conversão de parâmetros de filtro de predição linear (LP) recebidos a partir de uma taxa de amostragem de sinal sonoro S1 a uma taxa de amostragem de sinal sonoro S2. Um espectro de potência de um filtro de síntese de LP é computado, na taxa de amostragem S1, utilizando os parâmetros de filtro de LP recebidos. O espectro de potência do filtro de síntese de LP é modificado para convertê-lo a partir da taxa de amostragem S1 para a taxa de amostragem S2. O espectro de potência modificado do filtro de síntese de LP sofre a transformada inversa para determinar autocorrelações do filtro de síntese de LP na taxa de amostragem S2. As autocorrelações são usadas para computar os parâmetros de filtro de LP na taxa de amostragem S2.
[00012] De acordo com a presente invenção, também é provido um dispositivo para ser utilizado em um codificador de sinal sonoro para a conversão de parâmetros de filtro de predição linear (LP) a partir de uma taxa de amostragem de sinal sonoro S1 para uma taxa de amostragem do sinal sonoro S2. O dispositivo compreende um processador configurado para: • computar, na taxa de amostragem S1, um espectro de potência de um filtro de síntese de LP usando os parâmetros do filtro de LP recebidos, • modificar o espectro de potência do filtro de síntese de LP para convertê- lo da taxa de amostragem S1 para a taxa de amostragem S2, • executar a transformada inversa do espectro de potência modificado do filtro de síntese de LP para determinar autocorrelações do filtro de síntese de LP na taxa de amostragem S2, e • utilizar as autocorrelações para computar os parâmetros do filtro de LP na taxa de amostragem S2.
[00013] A presente invenção refere-se ainda a um dispositivo para o uso em um decodificador de sinal sonoro para a conversão de parâmetros do filtro de predição linear (LP) recebidos a partir de uma taxa de amostragem de sinal sonoro S1 para uma taxa de amostragem do sinal sonoro S2. O dispositivo compreende um processador configurado para: • computar, na taxa de amostragem S1, um espectro de potência de um filtro de síntese de LP usando os parâmetros do filtro de LP recebidos, • modificar o espectro de potência do filtro de síntese de LP para convertê-lo da taxa de amostragem S1 para a taxa de amostragem S2, • executar a transformada inversa do espectro de potência modificado do filtro de síntese de LP para determinar autocorrelações do filtro de síntese de LP na taxa de amostragem S2, e • utilizar as autocorrelações para computar os parâmetros do filtro de LP na taxa de amostragem S2.
[00014] O que precede e outros objetos, vantagens e características da presente invenção serão mais evidentes após a leitura da seguinte invenção não restritiva de uma modalidade ilustrativa da mesma, dada por meio de exemplo apenas com referência aos desenhos anexos.
BREVE DESCRIÇÃO DOS DESENHOS
[00015] Nos desenhos anexos: A figura 1 é um diagrama em blocos esquemático de um sistema de comunicação de som que descreve um exemplo de uso de codificação e decodificação de som; a figura 2 é um diagrama em blocos esquemático que ilustra a estrutura de um codificador e de um decodificador baseado em CELP, que faz parte do sistema de comunicação de som da figura 1; a figura 3 ilustra um exemplo de enquadramento e interpolação dos parâmetros LP; a figura 4 é um diagrama em blocos que ilustra uma modalidade para a conversão dos parâmetros de filtro de LP entre duas taxas de amostragems diferentes; e a figura 5 é um diagrama em blocos simplificado de um exemplo de configuração de componentes de hardware que formam o codificador e/ou decodificador das figuras 1 e 2.
DESCRIÇÃO DETALHADA
[00016] A modalidade ilustrativa não limitativa da presente invenção refere-se a um método e a um dispositivo para a comutação eficiente, em um codec baseado em LP, entre os quadros utilizando diferentes taxas de amostragem interna. O método e o dispositivo de comutação podem ser utilizados com quaisquer sinais sonoros, incluindo sinais de voz e de áudio. A comutação entre as taxas de amostragem interna de 16 kHz e de 12,8 kHz é dada a título de exemplo, no entanto, o método e o dispositivo de comutação podem também ser aplicados a outras taxas de amostragem.
[00017] A figura 1 é um diagrama em blocos esquemático de um sistema de comunicação de som que descreve um exemplo de uso de codificação e decodificação de som. Um sistema de comunicação de som 100 suporta a transmissão e a reprodução de um sinal sonoro através de um canal de comunicação 101. O canal de comunicação 101 pode compreender, por exemplo, um fio, um enlace ótico ou por fibra. Alternativamente, o canal de comunicação 101 pode compreender, pelo menos, em parte, um enlace de radiofrequência. O enlace de rádio frequência, muitas vezes suporta múltiplas comunicações de fala simultânea que exigem recursos de largura de banda compartilhados, como pode ser encontrado com a telefonia celular. Embora não mostrado, o canal de comunicação 101 pode ser substituído por um dispositivo de armazenamento em uma única modalidade do dispositivo do sistema de comunicações 101 que regista e armazena o sinal sonoro codificado para a reprodução posterior.
[00018] Ainda com referência à figura 1, por exemplo, um microfone 102 produz um sinal sonoro analógico original 103 que é fornecido a um conversor analógico para-digital (A/D) 104 para convertê-lo em um sinal sonoro digital original 105. O sinal sonoro digital original 105 pode também ser gravado e fornecido a partir de um dispositivo de armazenamento (não mostrado). Um codificador de som 106 codifica o sinal sonoro digital original 105 produzindo, assim, um conjunto de parâmetros de codificação 107 que é codificado em um formato binário e entregue a um codificador de canal opcional 108. O codificador de canal 108 opcional, quando presente, adiciona redundância para a representação binária dos parâmetros de codificação antes de transmiti-los ao longo do canal de comunicação 101. No lado do receptor, um decodificador de canal opcional 109 utiliza a informação acima mencionada redundante em um fluxo de bits digitais 111 para detectar e corrigir erros de canais que podem ter ocorrido durante a transmissão pelo canal de comunicação 101, produzindo parâmetros de codificação recebidos 112. Um decodificador de som 110 converte os parâmetros de codificação recebidos 112 para criar um sinal sonoro digital 113. O sinal sonoro digital sintetizado 113 reconstruído no decodificador de som 110 é convertido para um sinal sonoro analógico sintetizado 114 em um conversor digital para analógico (D/A) 115 e reproduzido em uma unidade de alto-falante 116. Em alternativa, o sinal sonoro digital sintetizado 113 pode também ser fornecido para e registrado em um dispositivo de armazenamento (não mostrado).
[00019] A figura 2 é um diagrama em blocos esquemático que ilustra a estrutura de um codificador e decodificador baseado em CELP, que faz parte do sistema de comunicação de som da figura 1. Conforme ilustrado na figura 2, um codec de som compreende duas partes principais: o codificador de som 106 e o decodificador de som 110 ambos introduzidos na descrição anterior da figura 1. O codificador 106 é fornecido com o sinal sonoro digital original 105, determina os parâmetros de codificação 107, descritos aqui a seguir, que representam o sinal sonoro analógico original 103. Estes parâmetros 107 são codificados no fluxo de bits digital 111 que é transmitido utilizando um canal de comunicação, por exemplo, o canal de comunicação 101 da figura 1, para o decodificador 110. O decodificador de som 110 reconstrói o sinal sonoro digital sintetizado 113 para ser tão semelhante quanto possível ao sinal sonoro digital original 105.
[00020] Presentemente, as técnicas de codificação de faia mais generalizadas são baseadas na predição linear (LP), em particular CELP. Na codificação baseada em LP, o sinal sonoro digital sintetizado 113 é produzido pela filtragem de uma excitação 214 através de um filtro de síntese de LP 216 que tem uma função de transferência 1/A(z). Em CELP, a excitação 214 é tipicamente composta por duas partes: uma primeira fase, contribuição do livro de código adaptativo 222 selecionada a partir de um livro de código adaptativo 218 e amplificada por um ganho do livro de código adaptativo gp 226 e uma segunda fase, contribuição do livro de código fixo 224 selecionada a partir de um livro de código fixo 220 e amplificado por um ganho do livro de código fixo gc 228. De um modo geral, a contribuição do livro de código adaptativo 222 modela a parte periódica da excitação e a contribuição do livro de código fixo 214 é adicionada para modelar a evolução do sinal sonoro.
[00021] O sinal sonoro é processado por quadros de tipicamente 20 ms e os parâmetros do filtro de LP são transmitidos uma vez por quadro. Em CELP, o quadro é ainda dividido em vários subquadros para codificar a excitação. O comprimento do subquadro é tipicamente de 5 ms.
[00022] A CELP utiliza um princípio chamado de análise por síntese, onde as possíveis saídas do decodificador são experimentadas (sintetizadas) já durante o processo de codificação pelo codificador 106 e, em seguida, são comparadas com o sinal sonoro digital original 105. O codificador 106 inclui, portanto, elementos semelhantes àqueles do decodificador 110. Estes elementos incluem uma contribuição do livro de código adaptativo 250 selecionada a partir de um livro de código adaptativo 242 que fornece um sinal de excitação anterior v(n) convoluído com a resposta ao impulso de um filtro de síntese ponderado H(z) (vide 238) (cascata do filtro de síntese de LP 1/A(z) e o filtro de ponderação perceptual W(z)), o resultado y1(n), do que é amplificado por um ganho do livro de código adaptativo gp 240. Também incluída está a contribuição de um livro de código fixo 252 selecionada a partir de um livro de código fixo 244 que fornece um vetor de código inovador ck(n) convoluído com a resposta ao impulso do filtro de síntese ponderada H(z) (vide 246), o resultado y2(n), do qual é amplificado por um ganho do livro de código fixo gc 248.
[00023] O codificador 106 compreende também um filtro de ponderação perceptual W(z) 233 e um provedor 234 de resposta de entrada zero da cascata (H(z)) do filtro de síntese de LP 1/A(z) e o filtro de ponderação perceptual W(z). Os subtratores 236, 254 e 256, respectivamente, subtraem a resposta de entrada zero, a contribuição do livro de código adaptativo 250 e a contribuição do livro de código fixo 252 a partir do sinal sonoro digital original 105 filtrado pelo filtro de ponderação perceptual 233 para prover um erro quadrático médio 232 entre o sinal sonoro digital original 105 e o sinal sonoro digital sintetizado 113.
[00024] A pesquisa do livro de código minimiza o erro quadrático médio 232 entre o sinal sonoro digital original 105 e o sinal sonoro digital sintetizado 113 em um domínio ponderado de forma perceptual, em que o índice de tempo discreto n = 0, 1, ..., N-1, e N é o comprimento do subquadro. O filtro de ponderação perceptual W(z) explora o efeito de mascaramento de frequência e tipicamente é derivado a partir de um filtro de LP A(z).
[00025] Um exemplo do filtro de ponderação perceptual W(z) para os sinais WB (banda larga, largura de banda de 50 a 7000 Hz) pode ser encontrado na Referência [1].
[00026] Uma vez que a memória do filtro de síntese de LP 1/A(z) e o filtro de ponderação W(z) é independente dos vetores de código pesquisados, esta memória pode ser subtraída do sinal sonoro digital original 105 antes da pesquisa do livro de código fixo. A filtragem dos vetores de código candidatos pode, então, ser feita por meio de uma convolução com a resposta ao impulso da cascata dos filtros 1/A(z) e W(z), representada por H(z) na figura 2.
[00027] O fluxo de bits digital 111 transmitido a partir do codificador 106 para o decodificador 110 contém tipicamente os seguintes parâmetros 107: parâmetros quantizados do filtro de LP A(z), índices do livro de código adaptativo 242 e do livro de código fixo 244, e os ganhos gp 240 e gc 248 do livro de código adaptativo 242 e do livro de código fixo 244. Convertendo os parâmetros do filtro de LP quando comutando em limites de quadro com diferentes taxas de amostragem
[00028] Na codificação baseada em LP o filtro de LP A(z) é determinado uma vez por quadro, e, em seguida, interpolado para cada subquadro. A figura 3 ilustra um exemplo de enquadramento e de interpolação de parâmetros de LP. Neste exemplo, um quadro atual é dividido em quatro subquadros SF1, SF2, SF3 e SF4, e a janela de análise de LP é centrada no último subquadro SF4. Assim, os parâmetros de LP que resultam da análise de LP no presente quadro, F1, são utilizados como está no último subquadro, isto é, SF4 = F1. Para os três primeiros subquadros SF1, SF2 e SF3, os parâmetros de LP são obtidos por interpolação dos parâmetros no quadro atual, F1, e um quadro anterior, F0. Isto é: SF1 = 0,75 F0 + 0,25 F1; SF2 = 0,5 F0 + 0,5 F1; SF3 = 0,25 F0 + 0,75 F1 SF4 = F1.
[00029] Outros exemplos de interpolação podem ser alternativamente usados dependendo do formato da janela de análise de LP, comprimento e posição. Em outra modalidade, os comutadores codificadores entre as taxas de amostragem interna 12,8 kHz e 16 kHz, onde 4 subquadros por quadro são usados a 12,8 kHz e 5 subquadros por quadro são usados a 16 kHz, e em que os parâmetros de LP também são quantizados no meio do presente quadro (Fm). Nesta outra modalidade, a interpolação de parâmetros de LP para um quadro de 12,8 kHz é dada por: SF1 = 0,5 F0 + 0,5 Fm; SF2 = Fm; SF3 = 0,5 Fm + 0,5 F1; SF4 = F1.
[00030] Para uma amostragem de 16 kHz, a interpolação é dada por: SF1 = 0,55 F0 + 0,45 Fm; SF2 = 0,15 F0 + 0,85 Fm; SF3 = 0,75 Fm + 0,25 F1; SF4 = 0,35 Fm + 0,65 F1; SF5 = F1.
[00031] A análise de LP resulta em computar os parâmetros do filtro de síntese de LP usando:
Figure img0001
onde ai, i = 1,...,M , são parâmetros de filtro de LP e M é a ordem do filtro.
[00032] Os parâmetros de filtro de LP são transformados para outro domínio para fins de quantização e de interpolação. Outras representações de parâmetros de LP comumente usadas são coeficientes de reflexão, razões log- área, pares de espectro de imitância (usado em AMR-WB; Referência [1]), e pares de espectro de linha, que são também chamadas frequências de espectro de linha (LSF). Nesta modalidade ilustrativa, a representação de frequência do espectro de linha é usada. Um exemplo de um método que pode ser utilizado para converter os parâmetros de LP para parâmetros de LSF e vice-versa pode ser encontrado na Referência [2]. O exemplo de interpolação no parágrafo anterior é aplicado aos parâmetros de LSF, que podem estar no domínio da frequência no intervalo entre 0 e Fs/2 (em que Fs é a frequência de amostragem), ou no domínio da frequência dimensionada entre 0 e π, ou no domínio do cosseno (cosseno de frequência dimensionado).
[00033] Como descrito acima, diferentes taxas de amostragem internas podem ser utilizadas em diferentes taxas de bits para melhorar a qualidade de codificação baseada em LP de múltiplas taxas. Nesta modalidade ilustrativa, um codificador de banda larga CELP de múltiplas taxas é usado onde uma taxa de amostragem interna de 12,8 kHz é usada em taxas de bits mais baixas e uma taxa de amostragem interna de 16 kHz a taxas de bits mais elevadas. A uma taxa de amostragem de 12,8 kHz, o LSF cobre a largura de banda de 0 a 6,4 kHz, enquanto que a uma taxa de amostragem de 16 kHz, eles cobrem a gama de 0 a 8 kHz. Quando comuta-se a taxa de bits entre dois quadros nos quais a taxa de amostragem interna é diferente, algumas questões são abordadas para garantir a comutação contínua. Essas questões incluem a interpolação de parâmetros de filtro de LP e as memórias do filtro de síntese e do livro de código adaptativo, que estão em diferentes taxas de amostragem.
[00034] A presente descrição apresenta um método para a interpolação de parâmetros de LP eficiente entre dois quadros com diferentes taxas de amostragem interna. A título de exemplo, a comutação entre as taxas de amostragem de 12,8 kHz e de 16 kHz é considerada. As técnicas descritas, no entanto, não se limitam a estas taxas de amostragem em particular e podem aplicar-se a outras taxas de amostragem interna.
[00035] Supondo que o codificador está comutando de um quadro F1 com taxa de amostragem interna S1 para um quadro F2 com taxa de amostragem interna S2. Os parâmetros de LP no primeiro quadro estão indicados LSF1S1 e os parâmetros de LP no segundo quadro são denotados LSF2S2. Para atualizar os parâmetros de LP em cada subquadro do quadro F2, os parâmetros de LP LSF1 e LSF2 são interpolados. A fim de realizar a interpolação, os filtros têm que ser definidos com a mesma taxa de amostragem. Isso requer a realização da análise de LP do quadro F1 com taxa de amostragem S2. Para evitar a transmissão do filtro de LP duas vezes nas duas taxas de amostragem no quadro F1, a análise de LP na taxa de amostragem S2 pode ser realizada no sinal de síntese anterior, que está disponível em ambos o codificador e o decodificador. Esta abordagem envolve a reamostragem do sinal de síntese anterior da taxa S1 para a taxa S2, e a realização da análise de LP completa, esta operação sendo repetida no decodificador, que normalmente é computacionalmente exigente.
[00036] O método e os dispositivos alternativos são aqui descritos para a conversão de parâmetros de filtro de síntese de LP LSF1 da taxa de amostragem S1 para a taxa de amostragem S2 sem a necessidade de reamostrar a síntese anterior e realizar a análise de LP completa. O método, usado na codificação e/ou na decodificação, compreende computar o espectro de potência do filtro de síntese de LP de taxa S1; modificar o espectro de potência para convertê-lo da taxa S1 para a taxa S2; converter o espectro de potência modificado de volta para o domínio do tempo para obter a autocorrelação do filtro na taxa S2; e, finalmente, usar a autocorrelação para computar os parâmetros do filtro de LP na taxa S2.
[00037] Em pelo menos algumas modalidades, a modificação do espectro de potência para convertê-lo da taxa S1 para a taxa S2 compreende as seguintes operações:
[00038] Se S1 for maior do que S2, modificar o espectro de potência compreende truncar o espectro de potência de K amostras para baixo para K(S2/S1) amostras, isto é, remover K(S1-S2)/S1 amostras.
[00039] Por outro lado, se S1 for menor do que S2, então modificar o espectro de potência compreende estender as K amostras do espectro de potência até para K(S2/S1) amostras, isto é, adicionar K(S2-S1)/S1 amostras .
[00040] A computação do filtro de LP a uma taxa S2 a partir das autocorrelações pode ser feito usando o algoritmo de Levinson-Durbin (vide referência [1]). Uma vez que o filtro de LP é convertido para a taxa S2, os parâmetros do filtro de LP são transformados para o domínio de interpolação, que é um domínio de LSF nesta modalidade ilustrativa.
[00041] O procedimento descrito acima está resumido na figura 4, que é um diagrama em blocos que ilustra uma modalidade para a conversão dos parâmetros de filtro de LP entre duas frequências de amostragem diferentes.
[00042] A sequência 300 de operações mostra que um método simples para a computação do espectro de potência do filtro de síntese de LP 1/A(z) é o de avaliar a resposta de frequências do filtro de frequências K de 0 a 2π.
[00043] A resposta de frequência do filtro de síntese é dada por
Figure img0002
e o espectro de potência do filtro de síntese é calculado como uma energia da resposta de frequência do filtro de síntese, dada por
Figure img0003
[00044] Inicialmente, o filtro de LP é a uma taxa igual a S1 (operação 310). Um espectro de potência das K amostras (isto é, discreto) do filtro de síntese de LP é computado (operação 320), por amostragem, da gama de frequências de 0 a 2π. Isto é
Figure img0004
[00045] Note que é possível reduzir a complexidade operacional computando-se P(k) apenas para k = 0, ..., K/2, uma vez que o espectro de potência de π a 2π é um espelho daquele de 0 a π.
[00046] Um teste (operação 330) determina qual dos seguintes casos se aplica. Em um primeiro caso, a taxa de amostragem S1 é maior do que a taxa de amostragem S2, e o espectro de potência para o quadro F1 é truncado (operação 340) de tal modo que o novo número de amostras é K(S2/S1) .
[00047] Em mais detalhes, quando S1 for maior do que S2, o comprimento do espectro de potência truncado será de K2 = K(S2/S1) amostras. Uma vez que o espectro de potência é truncado, ele é computado a partir de k = 0, ..., K2/2. Uma vez que o espectro de potência é simétrico em torno de K2/2, em seguida, assume-se que P(K2/2+k) = P(K2/2-k), de k = 1, ..., K2 /2-1
[00048] A transformada de Fourier de autocorrelações de um sinal dá ao espectro de potência do referido sinal. Assim, a aplicação da Transformada Inversa de Fourier para os resultados de espectro de potência truncado nas autocorrelações da resposta ao impulso do filtro de síntese na taxa de amostragem S2.
[00049] A Transformada de Fourier discreta inversa (IDFT), do espectro de potência truncado é dada por
Figure img0005
[00050] Uma vez que a ordem do filtro é M, em seguida, a IDFT pode ser computada para i = 0, ..., M. Além disso, uma vez que o espectro de potência é real e simétrico, em seguida, a IDFT do espectro de potência, também é real e simétrica. Levando em conta a simetria do espectro de potência, e que apenas as correlações M+1 são necessárias, a transformada inversa do espectro de potência pode ser dada como
Figure img0006
[00051] Depois das autocorrelações serem computadas na taxa de amostragem S2, o algoritmo de Levinson-Durbin (vide Referência [1]) pode ser usado para computar os parâmetros do filtro de LP na taxa de amostragem S2. Em seguida, os parâmetros do filtro de LP são transformados para o domínio LSF para a interpolação com os LSFs do quadro F2, a fim de obter os parâmetros de LP em cada subquadro.
[00052] No exemplo ilustrativo, onde o codificador codifica um sinal de banda larga e comuta de um quadro com uma taxa de amostragem interna S1 = 16 kHz para um quadro com taxa de amostragem interna S2 = 12,8 kHz, assumindo K= 100, o comprimento do espectro de potência truncado é K2 = 100(12800/16000) = 80 amostras. O espectro de potência é computado para 41 amostras usando a equação (4), e, em seguida, as autocorrelações são computadas usando a Equação (7) com K2 =80.
[00053] Em um segundo caso, quando o teste (operação 330) determina que S1 é menor do que S2, o comprimento do espectro de potência estendida é K2 = K (S2/S1) amostras (operação 350). Após computar o espectro de potência a partir de k = 0, ..., K/2, o espectro de potência é estendido para K2/2. Uma vez que não há nenhum conteúdo espectral original entre K/2 e K2/2, estender o espectro de potência pode ser feito pela inserção de um número de amostras até K2/2 usando valores muito baixos de amostras. Uma abordagem simples é repetir a amostra em K/2 até K2/2. Uma vez que o espectro de potência é simétrico em torno de K2/2, em seguida, assume-se que P(K2 / 2 + k) = P(K2/2 - fc), de k = 1, ..., K2/ 2-1
[00054] Em qualquer um dos casos, a DFT inversa é, então, computada como na equação (6) para se obter as autocorrelações com taxa de amostragem S2 (operação 360) e o algoritmo de Levinson-Durbin (vide referência [1]) é usado para computar os parâmetros do filtro de LP com taxa de amostragem S2 (operação 370). Em seguida, os parâmetros do filtro são transformados para o domínio LSF para a interpolação com os LSFs do quadro F2, a fim de obter os parâmetros de LP em cada subquadro.
[00055] Mais uma vez, toma-se o exemplo ilustrativo, onde o codificador está a comutar a partir de um quadro com uma taxa de amostragem interna S1 = 12,8 kHz para um quadro com taxa de amostragem interna S2 = 16 kHz, e supõe que K = 80. O comprimento do espectro de potência estendido é de K2 = 80(16000/12800) = 100 amostras. O espectro de potência é computado para 51 amostras usando a equação (4), e, em seguida, as autocorrelações são computadas usando a equação (7) com K2 =100.
[00056] Note-se que os outros métodos podem ser usados para computar o espectro de potência do filtro de síntese de LP ou da DFT inversa do espectro de potência, sem nos afastarmos do espírito da presente invenção.
[00057] Note-se que nesta modalidade ilustrativa a conversão dos parâmetros do filtro de LP entre as diferentes taxas de amostragem interna é aplicada com os parâmetros de LP quantizados, a fim de determinar os parâmetros do filtro de síntese interpolados em cada subquadro, e esta é repetida no decodificador. Note-se que o filtro de ponderação utiliza parâmetros de filtro de LP não quantizados, mas foi verificado suficiente para interpolar entre os parâmetros de filtro não quantizados em um novo quadro F2 e os parâmetros de LP quantizados convertidos por amostragem do quadro anterior F1, a fim de determinar os parâmetros do filtro de ponderação em cada subquadro. Isto evita a necessidade de aplicar a conversão de amostragem do filtro de LP sobre os parâmetros do filtro de LP não quantizados, também. Outras considerações quando comutando em limites de quadro com diferentes taxas de amostragem
[00058] Outra questão a ser considerada quando se alterna entre quadros com diferentes taxas de amostragem interna é o conteúdo do livro de código adaptativo, que normalmente contém o sinal de excitação anterior. Se o novo quadro tiver uma taxa de amostragem interna S2 e o quadro anterior tiver uma taxa de amostragem interna S1, em seguida, o conteúdo do livro de código adaptativo é reamostrado a partir da taxa S1 para a taxa S2, e isso é realizado em ambos o codificador e o decodificador.
[00059] De modo a reduzir a complexidade, na invenção, o novo quadro F2 é forçado a usar um modo de codificação transiente que é independente do histórico de excitação anterior e, portanto, não utiliza o histórico do livro de código adaptativo. Um exemplo do modo de codificação transiente pode ser encontrado no pedido de patente PCT WO 2008/049221 A1 "Method and device for coding transition frames in speech signals", a invenção das quais é incorporada por referência aqui.
[00060] Outra consideração quando comutando em limites de quadro com diferentes taxas de amostragem é a memória dos quantizadores preditivos. Como exemplo, os quantizadores dos parâmetros de LP geralmente usam a quantização de predição, que pode não funcionar corretamente quando os parâmetros estão em diferentes taxas de amostragem. A fim de reduzir artefatos de comutação, o quantificador do parâmetro de LP pode ser forçado a um modo de codificação não preditivo quando se alterna entre diferentes taxas de amostragem.
[00061] Uma consideração adicional é a memória do filtro de síntese, que pode ser reamostrado quando da comutação entre os quadros com diferentes taxas de amostragem.
[00062] Finalmente, a complexidade adicional que surge a partir da conversão dos parâmetros do filtro de LP quando se comuta entre os quadros com diferentes taxas de amostragem interna pode ser compensada através da modificação de partes do processamento de codificação ou decodificação. Por exemplo, a fim de não aumentar a complexidade do codificador, a pesquisa do livro de código fixo pode ser modificada através da redução do número de iterações do primeiro subquadro do quadro (vide referência [1] para um exemplo de pesquisa do livro de código fixo).
[00063] Além disso, a fim de não aumentar a complexidade do decodificador, certo pós-processamento pode ser ignorado. Por exemplo, nesta modalidade ilustrativa, uma técnica de pós-processamento tal como descrito na patente US 7,529,660 "Method and device for frequency - selective pitch enhancement of synthesized speech", a invenção a qual é incorporada aqui por referência, pode ser usada. Esta pós-filtragem é ignorada no primeiro quadro depois de comutar para uma taxa de amostragem interna diferente (pular esta pós-filtragem também supera a necessidade de síntese anterior utilizada no pós- filtro).
[00064] Além disso, outros parâmetros que dependem da taxa de amostragem podem ser adaptados em conformidade. Por exemplo, o atraso de tonalidade anterior utilizada para classificador do decodificador e apagamento de ocultação do quadro pode ser escalado pelo fator S2/S1.
[00065] A figura 5 é um diagrama em blocos simplificado de um exemplo de configuração de componentes de hardware que formam o codificador e / ou o decodificador das figuras 1 e 2. Um dispositivo 400 pode ser implementado como uma parte de um terminal móvel, tal como uma parte de um leitor de media portátil, uma estação base, equipamento de Internet ou em qualquer outro dispositivo semelhante, e pode incorporar o codificador 106, o decodificador 110, ou ambos o codificador 106 e o decodificador 110. O dispositivo 400 inclui um processador 406 e uma memória 408. O processador 406 pode compreender um ou mais processadores distintos para a execução de instruções de código para executar as operações da figura 4. O processador 406 pode incluir vários elementos do codificador 106 e do decodificador 110 das figuras 1 e 2. O processador 406 pode executar ainda tarefas de um terminal móvel, de um leitor de mídia portátil, estação base, equipamento de Internet e similares. A memória 408 está operativamente ligada ao processador 406. A memória 408, que pode ser uma memória não transitória, armazena as instruções de código executáveis pelo processador 406.
[00066] Uma entrada de áudio 402 está presente no dispositivo 400, quando usado como um codificador 106. A entrada de áudio 402 pode incluir, por exemplo, um microfone ou uma interface ligada a um microfone. A entrada de áudio 402 pode incluir o microfone 102 e o conversor A/D 104 e produzir o sinal sonoro analógico original 103 e/ou o sinal sonoro digital original 105. Em alternativa, a entrada de áudio 402 pode receber o sinal sonoro digital original 105. Da mesma forma, uma saída codificada 404 está presente quando o dispositivo 400 é usado como um codificador 106 e é configurada para transmitir os parâmetros de codificação 107 ou o fluxo de bits digitais 111 que contém os parâmetros 107, incluindo os parâmetros do filtro de LP, para um decodificador remoto através de um enlace de comunicação, por exemplo, através do canal de comunicação 101, ou para outra memória (não mostrada) para armazenamento. Exemplos de implementação não limitantes de saída codificada 404 compreendem uma interface de rádio de um terminal móvel, uma interface física, como, por exemplo uma porta de barramento serial universal (USB) de um leitor de mídia portátil, e similares.
[00067] Uma entrada codificada 403 e uma saída de áudio 405 estão ambas presentes no dispositivo 400, quando usado como um decodificador 110. A entrada codificada 403 pode ser construída de modo a receber os parâmetros de codificação 107 ou o fluxo de bits digitais 111 que contém os parâmetros 107, incluindo os parâmetros do filtro de LP de uma saída codificada 404 de um codificador 106. Quando o dispositivo 400 inclui ambos o codificador 106 e o decodificador 110, a saída codificada 404 e a entrada codificada 403 podem formar um módulo de comunicação comum. A saída de áudio 405 pode incluir o conversor D/A 115 e a unidade de alto-falante 116. Em alternativa, a saída de áudio 405 pode incluir uma interface ligada a um leitor de áudio, a um alto- falante, a um dispositivo de gravação, e semelhantes.
[00068] A entrada de áudio 402 ou a entrada codificada 403 pode também receber sinais a partir de um dispositivo de armazenamento (não mostrado). Do mesmo modo, a saída codificada 404 e a saída de áudio 405 pode fornecer o sinal de saída para um dispositivo de armazenamento (não mostrado) para a gravação.
[00069] A entrada de áudio 402, a entrada codificada 403, a saída codificada 404 e a saída de áudio 405 estão todas operacionalmente ligadas ao processador 406.
[00070] Os versados na técnica compreenderão que a descrição dos métodos, do codificador e do decodificador para a codificação e decodificação de predição linear de sinais sonoros são apenas ilustrativas e não se destinam a ser de qualquer forma limitantes. Outras modalidades irão prontamente sugerir a tais pessoas versadas na técnica o benefício da presente invenção. Além disso, os métodos revelados, o codificador e o decodificador podem ser personalizados para oferecer soluções valiosas para as necessidades e para os problemas existentes de comutação de codecs baseados em predição linear entre duas taxas de bits com diferentes taxas de amostragem.
[00071] Por razões de clareza, nem todas as características de rotina das implementações de métodos, o codificador e o decodificador são mostradas e descritas. Será, naturalmente, apreciado que no desenvolvimento de qualquer implementação real dos métodos, codificador e decodificador, numerosas decisões de implementação específica podem precisar ser feitas, a fim de atingir as metas específicas do desenvolvedor, tal como o cumprimento com a aplicação, sistema, restrições de rede e ligadas às empresas, e que essas metas específicas irão variar de uma aplicação para outra e de um desenvolvedor para outro. Além disso, será notado que um esforço de desenvolvimento pode ser complexo e demorado, mas, apesar disso, seria uma tarefa rotineira de engenharia para os versados na técnica da codificação de som possuindo o benefício da presente invenção.
[00072] De acordo com a presente invenção, os componentes, as operações do processo, e/ou estruturas de dados aqui descritas podem ser implementadas utilizando diversos tipos de sistemas operacionais, plataformas de computação, dispositivos de rede, programas de computador, e/ou máquinas de uso geral. Além disso, os versados na técnica reconhecerão que também podem ser utilizados dispositivos de um propósito de natureza menos geral, tais como dispositivos ligados por cabos, arranjos de portas programáveis em campo (FPGAs), circuitos integrados de aplicação específica (ASICs), ou similares. No caso de um método que compreende uma série de operações ser implementado por um computador ou por uma máquina e aquelas operações podem ser armazenadas como uma série de instruções legíveis pela máquina, que podem ser armazenadas em um meio tangível.
[00073] Sistemas e módulos descritos neste documento podem incluir software, firmware, hardware, ou qualquer combinação(ções) de software, firmware ou hardware apropriada para os fins aqui descritos.
[00074] Embora a presente invenção tenha sido descrita acima por meio de modalidades ilustrativas não restritivas da mesma, estas modalidades podem ser modificadas à vontade, dentro do âmbito das reivindicações anexas sem sair do espírito e da natureza da presente invenção.
REFERÊNCIAS
[00075] As seguintes referências são aqui incorporadas por referência. [1] Especificação Técnica 3GPP 26.190, "Adaptive Multi-Rate Wideband (AMR WB) speech codec; transcoding functions", julho de 2005; http://www.3gpp.org. [2] Recomendação ITU-T G.729 "Coding of speech at 8 kbit/s using conjugate-structure algebraic-code-excited linear prediction (CS-ACELP) (CS- ACELP)", 01/2007.

Claims (6)

1. Método para interpolar parâmetros de filtro de predição linear (LP) em um quadro de processamento de sinal sonoro atual seguindo um quadro de processamento de sinal sonoro anterior, o quadro anterior usando uma taxa de amostragem interna S1 e o quadro atual usando uma taxa de amostragem interna S2 e definindo um número de subquadros, o método de interpolação, caracterizado pelo fato de que compreende: fornecer parâmetros de filtro de LP do quadro anterior com a taxa de amostragem interna S1; fornecer parâmetros de filtro de LP do quadro atual com a taxa de amostragem interna S2; converter os parâmetros de filtro de LP do quadro anterior da taxa de amostragem interna S1 para a taxa de amostragem interna S2; transformar os parâmetros de filtro de LP em um domínio de quantização e interpolação; e calcular os parâmetros de filtro de LP de pelo menos um dos subquadros do quadro atual usando uma soma ponderada dos parâmetros de filtro de LP do quadro atual na taxa de amostragem interna S2 e os parâmetros de filtro de LP do quadro anterior na taxa de amostragem interna S2.
2. Método de interpolação dos parâmetros de filtro de LP, de acordo com a reivindicação 1, caracterizado pelo fato de que os parâmetros de filtro de LP são parâmetros de filtro de LP quantizados.
3. Método de interpolação de parâmetros de filtro de LP, de acordo com a reivindicação 1 ou 2, caracterizado pelo fato de que o domínio de quantização e interpolação é um domínio da frequência por espectro de linha.
4. Dispositivo para interpolar parâmetros de filtro de predição linear (LP) em um quadro de processamento de sinal sonoro atual seguindo um quadro de processamento de sinal sonoro anterior, o quadro anterior usando uma taxa de amostragem interna S1 e o quadro atual usando uma taxa de amostragem interna S2 e definindo um número de subquadros, o dispositivo de interpolação caracterizado pelo fato de que compreende: pelo menos um processador; e uma memória acoplada ao processador armazenando instruções não- transitórias que, quando executadas, fazem o processador: fornecer parâmetros de filtro de LP do quadro anterior com a taxa de amostragem interna S1; fornecer parâmetros de filtro de LP a partir do quadro atual à taxa de amostragem interna S2; converter os parâmetros de filtro de LP do quadro anterior da taxa de amostragem interna S1 para a taxa de amostragem interna S2; transformar os parâmetros de filtro de LP em um domínio de quantização e interpolação; e calcular os parâmetros de filtro de LP de pelo menos um dos subquadros do quadro atual usando uma soma ponderada dos parâmetros de filtro de LP do quadro atual na taxa de amostragem interna S2 e os parâmetros de filtro de LP do quadro anterior na taxa de amostragem interna S2.
5. Dispositivo para interpolar os parâmetros de filtro de LP de acordo com a reivindicação 4, caracterizado pelo fato de que os parâmetros de filtro de LP são parâmetros de filtro de LP quantificados.
6. Dispositivo de interpolação de parâmetros de filtro de LP, de acordo com a reivindicação 4 ou 5, caracterizado pelo fato de que o domínio de quantização e interpolação é um domínio de frequências de espectro de linha.
BR122020015614-7A 2014-04-17 2014-07-25 Método e dispositivo para interpolar parâmetros de filtro de predição linear em um quadro de processamento de sinal sonoro atual seguindo um quadro de processamento de sinal sonoro anterior BR122020015614B1 (pt)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201461980865P 2014-04-17 2014-04-17
US61/980,865 2014-04-17
PCT/CA2014/050706 WO2015157843A1 (en) 2014-04-17 2014-07-25 Methods, encoder and decoder for linear predictive encoding and decoding of sound signals upon transition between frames having different sampling rates
BR112016022466-3A BR112016022466B1 (pt) 2014-04-17 2014-07-25 método para codificar um sinal sonoro, método para decodificar um sinal sonoro, dispositivo para codificar um sinal sonoro e dispositivo para decodificar um sinal sonoro

Publications (1)

Publication Number Publication Date
BR122020015614B1 true BR122020015614B1 (pt) 2022-06-07

Family

ID=54322542

Family Applications (2)

Application Number Title Priority Date Filing Date
BR122020015614-7A BR122020015614B1 (pt) 2014-04-17 2014-07-25 Método e dispositivo para interpolar parâmetros de filtro de predição linear em um quadro de processamento de sinal sonoro atual seguindo um quadro de processamento de sinal sonoro anterior
BR112016022466-3A BR112016022466B1 (pt) 2014-04-17 2014-07-25 método para codificar um sinal sonoro, método para decodificar um sinal sonoro, dispositivo para codificar um sinal sonoro e dispositivo para decodificar um sinal sonoro

Family Applications After (1)

Application Number Title Priority Date Filing Date
BR112016022466-3A BR112016022466B1 (pt) 2014-04-17 2014-07-25 método para codificar um sinal sonoro, método para decodificar um sinal sonoro, dispositivo para codificar um sinal sonoro e dispositivo para decodificar um sinal sonoro

Country Status (19)

Country Link
US (6) US9852741B2 (pt)
EP (4) EP3511935B1 (pt)
JP (2) JP6486962B2 (pt)
KR (1) KR102222838B1 (pt)
CN (2) CN106165013B (pt)
AU (1) AU2014391078B2 (pt)
BR (2) BR122020015614B1 (pt)
CA (2) CA2940657C (pt)
DK (2) DK3511935T3 (pt)
ES (2) ES2827278T3 (pt)
HR (1) HRP20201709T1 (pt)
HU (1) HUE052605T2 (pt)
LT (1) LT3511935T (pt)
MX (1) MX362490B (pt)
MY (1) MY178026A (pt)
RU (1) RU2677453C2 (pt)
SI (1) SI3511935T1 (pt)
WO (1) WO2015157843A1 (pt)
ZA (1) ZA201606016B (pt)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
HUE052605T2 (hu) * 2014-04-17 2021-05-28 Voiceage Evs Llc Módszer, eszköz és számítógéppel olvasható tartós memória különbözõ mintavételi frekvenciájú keretek közti átmenetet követõ hangjelek lineáris predikatív kódolásához és dekódolásához
PT3136384T (pt) 2014-04-25 2019-04-22 Ntt Docomo Inc Dispositivo de conversão do coeficiente de previsão linear e método de conversão do coeficiente de previsão linear
EP3859734B1 (en) 2014-05-01 2022-01-26 Nippon Telegraph And Telephone Corporation Sound signal decoding device, sound signal decoding method, program and recording medium
EP2988300A1 (en) * 2014-08-18 2016-02-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Switching of sampling rates at audio processing devices
CN107358956B (zh) * 2017-07-03 2020-12-29 中科深波科技(杭州)有限公司 一种语音控制方法及其控制模组
EP3483886A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Selecting pitch lag
EP3483879A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Analysis/synthesis windowing function for modulated lapped transformation
EP3483882A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Controlling bandwidth in encoders and/or decoders
EP3483884A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Signal filtering
WO2019091576A1 (en) 2017-11-10 2019-05-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoders, audio decoders, methods and computer programs adapting an encoding and decoding of least significant bits
EP3483878A1 (en) * 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio decoder supporting a set of different loss concealment tools
CN114420100B (zh) * 2022-03-30 2022-06-21 中国科学院自动化研究所 语音检测方法及装置、电子设备及存储介质

Family Cites Families (83)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4058676A (en) * 1975-07-07 1977-11-15 International Communication Sciences Speech analysis and synthesis system
JPS5936279B2 (ja) * 1982-11-22 1984-09-03 博也 藤崎 音声分析処理方式
US4980916A (en) 1989-10-26 1990-12-25 General Electric Company Method for improving speech quality in code excited linear predictive speech coding
US5241692A (en) * 1991-02-19 1993-08-31 Motorola, Inc. Interference reduction system for a speech recognition device
CN1113332C (zh) * 1993-05-05 2003-07-02 皇家菲利浦电子有限公司 包括至少一个编码器的传输系统
US5673364A (en) * 1993-12-01 1997-09-30 The Dsp Group Ltd. System and method for compression and decompression of audio signals
US5684920A (en) * 1994-03-17 1997-11-04 Nippon Telegraph And Telephone Acoustic signal transform coding method and decoding method having a high efficiency envelope flattening method therein
US5651090A (en) * 1994-05-06 1997-07-22 Nippon Telegraph And Telephone Corporation Coding method and coder for coding input signals of plural channels using vector quantization, and decoding method and decoder therefor
US5574747A (en) * 1995-01-04 1996-11-12 Interdigital Technology Corporation Spread spectrum adaptive power control system and method
US5864797A (en) 1995-05-30 1999-01-26 Sanyo Electric Co., Ltd. Pitch-synchronous speech coding by applying multiple analysis to select and align a plurality of types of code vectors
JP4132109B2 (ja) * 1995-10-26 2008-08-13 ソニー株式会社 音声信号の再生方法及び装置、並びに音声復号化方法及び装置、並びに音声合成方法及び装置
US5867814A (en) * 1995-11-17 1999-02-02 National Semiconductor Corporation Speech coder that utilizes correlation maximization to achieve fast excitation coding, and associated coding method
JP2778567B2 (ja) 1995-12-23 1998-07-23 日本電気株式会社 信号符号化装置及び方法
EP0821848B1 (en) 1996-02-15 2005-03-16 Koninklijke Philips Electronics N.V. Reduced complexity signal transmission system
DE19616103A1 (de) * 1996-04-23 1997-10-30 Philips Patentverwaltung Verfahren zum Ableiten charakteristischer Werte aus einem Sprachsignal
US6134518A (en) 1997-03-04 2000-10-17 International Business Machines Corporation Digital audio signal coding using a CELP coder and a transform coder
WO1999010719A1 (en) 1997-08-29 1999-03-04 The Regents Of The University Of California Method and apparatus for hybrid coding of speech at 4kbps
DE19747132C2 (de) * 1997-10-24 2002-11-28 Fraunhofer Ges Forschung Verfahren und Vorrichtungen zum Codieren von Audiosignalen sowie Verfahren und Vorrichtungen zum Decodieren eines Bitstroms
US6311154B1 (en) 1998-12-30 2001-10-30 Nokia Mobile Phones Limited Adaptive windows for analysis-by-synthesis CELP-type speech coding
JP2000206998A (ja) 1999-01-13 2000-07-28 Sony Corp 受信装置及び方法、通信装置及び方法
WO2000057401A1 (en) 1999-03-24 2000-09-28 Glenayre Electronics, Inc. Computation and quantization of voiced excitation pulse shapes in linear predictive coding of speech
US6691082B1 (en) * 1999-08-03 2004-02-10 Lucent Technologies Inc Method and system for sub-band hybrid coding
SE9903223L (sv) * 1999-09-09 2001-05-08 Ericsson Telefon Ab L M Förfarande och anordning i telekommunikationssystem
US6636829B1 (en) 1999-09-22 2003-10-21 Mindspeed Technologies, Inc. Speech communication system and method for handling lost frames
CA2290037A1 (en) * 1999-11-18 2001-05-18 Voiceage Corporation Gain-smoothing amplifier device and method in codecs for wideband speech and audio signals
US6732070B1 (en) * 2000-02-16 2004-05-04 Nokia Mobile Phones, Ltd. Wideband speech codec using a higher sampling rate in analysis and synthesis filtering than in excitation searching
FI119576B (fi) * 2000-03-07 2008-12-31 Nokia Corp Puheenkäsittelylaite ja menetelmä puheen käsittelemiseksi, sekä digitaalinen radiopuhelin
US6757654B1 (en) 2000-05-11 2004-06-29 Telefonaktiebolaget Lm Ericsson Forward error correction in speech coding
SE0004838D0 (sv) * 2000-12-22 2000-12-22 Ericsson Telefon Ab L M Method and communication apparatus in a communication system
US7155387B2 (en) * 2001-01-08 2006-12-26 Art - Advanced Recognition Technologies Ltd. Noise spectrum subtraction method and system
JP2002251029A (ja) * 2001-02-23 2002-09-06 Ricoh Co Ltd 感光体及びそれを用いた画像形成装置
US6941263B2 (en) 2001-06-29 2005-09-06 Microsoft Corporation Frequency domain postfiltering for quality enhancement of coded speech
US6895375B2 (en) * 2001-10-04 2005-05-17 At&T Corp. System for bandwidth extension of Narrow-band speech
EP1464047A4 (en) * 2002-01-08 2005-12-07 Dilithium Networks Pty Ltd TRANSCODE SCHEME BETWEEN CELP-BASED LANGUAGE CODES
US6829579B2 (en) * 2002-01-08 2004-12-07 Dilithium Networks, Inc. Transcoding method and system between CELP-based speech codes
JP3960932B2 (ja) 2002-03-08 2007-08-15 日本電信電話株式会社 ディジタル信号符号化方法、復号化方法、符号化装置、復号化装置及びディジタル信号符号化プログラム、復号化プログラム
CA2388439A1 (en) * 2002-05-31 2003-11-30 Voiceage Corporation A method and device for efficient frame erasure concealment in linear predictive based speech codecs
CA2388352A1 (en) 2002-05-31 2003-11-30 Voiceage Corporation A method and device for frequency-selective pitch enhancement of synthesized speed
CA2388358A1 (en) 2002-05-31 2003-11-30 Voiceage Corporation A method and device for multi-rate lattice vector quantization
US7346013B2 (en) * 2002-07-18 2008-03-18 Coherent Logix, Incorporated Frequency domain equalization of communication signals
US6650258B1 (en) * 2002-08-06 2003-11-18 Analog Devices, Inc. Sample rate converter with rational numerator or denominator
US7337110B2 (en) 2002-08-26 2008-02-26 Motorola, Inc. Structured VSELP codebook for low complexity search
FR2849727B1 (fr) 2003-01-08 2005-03-18 France Telecom Procede de codage et de decodage audio a debit variable
WO2004090870A1 (ja) * 2003-04-04 2004-10-21 Kabushiki Kaisha Toshiba 広帯域音声を符号化または復号化するための方法及び装置
JP2004320088A (ja) * 2003-04-10 2004-11-11 Doshisha スペクトル拡散変調信号発生方法
JP4679049B2 (ja) * 2003-09-30 2011-04-27 パナソニック株式会社 スケーラブル復号化装置
CN1677492A (zh) * 2004-04-01 2005-10-05 北京宫羽数字技术有限责任公司 一种增强音频编解码装置及方法
GB0408856D0 (en) 2004-04-21 2004-05-26 Nokia Corp Signal encoding
CN101023472B (zh) 2004-09-06 2010-06-23 松下电器产业株式会社 可扩展编码装置和可扩展编码方法
US20060235685A1 (en) * 2005-04-15 2006-10-19 Nokia Corporation Framework for voice conversion
US7707034B2 (en) * 2005-05-31 2010-04-27 Microsoft Corporation Audio codec post-filter
US7177804B2 (en) * 2005-05-31 2007-02-13 Microsoft Corporation Sub-band voice codec with multi-stage codebooks and redundant coding
WO2006129166A1 (en) * 2005-05-31 2006-12-07 Nokia Corporation Method and apparatus for generating pilot sequences to reduce peak-to-average power ratio
WO2006134992A1 (ja) * 2005-06-17 2006-12-21 Matsushita Electric Industrial Co., Ltd. ポストフィルタ、復号化装置及びポストフィルタ処理方法
KR20070119910A (ko) 2006-06-16 2007-12-21 삼성전자주식회사 액정표시장치
US8589151B2 (en) * 2006-06-21 2013-11-19 Harris Corporation Vocoder and associated method that transcodes between mixed excitation linear prediction (MELP) vocoders with different speech frame rates
US8401843B2 (en) * 2006-10-24 2013-03-19 Voiceage Corporation Method and device for coding transition frames in speech signals
US20080120098A1 (en) * 2006-11-21 2008-05-22 Nokia Corporation Complexity Adjustment for a Signal Encoder
CN101842833B (zh) 2007-09-11 2012-07-18 沃伊斯亚吉公司 语音和音频编码中快速代数码本搜索的方法和设备
US8527265B2 (en) 2007-10-22 2013-09-03 Qualcomm Incorporated Low-complexity encoding/decoding of quantized MDCT spectrum in scalable speech and audio codecs
CN101971251B (zh) 2008-03-14 2012-08-08 杜比实验室特许公司 像言语的信号和不像言语的信号的多模式编解码方法及装置
CN101320566B (zh) * 2008-06-30 2010-10-20 中国人民解放军第四军医大学 基于多带谱减法的非空气传导语音增强方法
EP2144231A1 (en) * 2008-07-11 2010-01-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Low bitrate audio encoding/decoding scheme with common preprocessing
KR101261677B1 (ko) * 2008-07-14 2013-05-06 광운대학교 산학협력단 음성/음악 통합 신호의 부호화/복호화 장치
US8463603B2 (en) * 2008-09-06 2013-06-11 Huawei Technologies Co., Ltd. Spectral envelope coding of energy attack signal
CN101853240B (zh) * 2009-03-31 2012-07-04 华为技术有限公司 一种信号周期的估计方法和装置
RU2547238C2 (ru) 2010-04-14 2015-04-10 Войсэйдж Корпорейшн Гибкая и масштабируемая комбинированная обновляющая кодовая книга для использования в кодере и декодере celp
JP5607424B2 (ja) * 2010-05-24 2014-10-15 古野電気株式会社 パルス圧縮装置、レーダ装置、パルス圧縮方法、およびパルス圧縮プログラム
BR122021003887B1 (pt) * 2010-08-12 2021-08-24 Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E. V. Reamostrar sinais de saída de codecs de áudio com base em qmf
US8924200B2 (en) * 2010-10-15 2014-12-30 Motorola Mobility Llc Audio signal bandwidth extension in CELP-based speech coder
KR101747917B1 (ko) * 2010-10-18 2017-06-15 삼성전자주식회사 선형 예측 계수를 양자화하기 위한 저복잡도를 가지는 가중치 함수 결정 장치 및 방법
CN102783034B (zh) 2011-02-01 2014-12-17 华为技术有限公司 用于提供信号处理系数的方法和设备
CA2827335C (en) 2011-02-14 2016-08-30 Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E.V. Audio codec using noise synthesis during inactive phases
MY165853A (en) * 2011-02-14 2018-05-18 Fraunhofer Ges Forschung Linear prediction based coding scheme using spectral domain noise shaping
PL2777041T3 (pl) * 2011-11-10 2016-09-30 Sposób i urządzenie do wykrywania częstotliwości próbkowania audio
US9043201B2 (en) * 2012-01-03 2015-05-26 Google Technology Holdings LLC Method and apparatus for processing audio frames to transition between different codecs
JP6122961B2 (ja) * 2012-10-05 2017-04-26 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン 自己相関ドメインにおけるacelpを用いたスピーチ信号の符号化装置
JP6345385B2 (ja) 2012-11-01 2018-06-20 株式会社三共 スロットマシン
US9842598B2 (en) * 2013-02-21 2017-12-12 Qualcomm Incorporated Systems and methods for mitigating potential frame instability
CN103235288A (zh) * 2013-04-17 2013-08-07 中国科学院空间科学与应用研究中心 基于频域的超低旁瓣混沌雷达信号生成及数字实现方法
HUE052605T2 (hu) * 2014-04-17 2021-05-28 Voiceage Evs Llc Módszer, eszköz és számítógéppel olvasható tartós memória különbözõ mintavételi frekvenciájú keretek közti átmenetet követõ hangjelek lineáris predikatív kódolásához és dekódolásához
PT3136384T (pt) 2014-04-25 2019-04-22 Ntt Docomo Inc Dispositivo de conversão do coeficiente de previsão linear e método de conversão do coeficiente de previsão linear
EP2988300A1 (en) * 2014-08-18 2016-02-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Switching of sampling rates at audio processing devices

Also Published As

Publication number Publication date
BR112016022466B1 (pt) 2020-12-08
US20180075856A1 (en) 2018-03-15
CN113223540A (zh) 2021-08-06
ZA201606016B (en) 2018-04-25
SI3511935T1 (sl) 2021-04-30
EP3132443B1 (en) 2018-12-26
ES2827278T3 (es) 2021-05-20
US20150302861A1 (en) 2015-10-22
RU2016144150A3 (pt) 2018-05-18
EP3132443A1 (en) 2017-02-22
DK3751566T3 (da) 2024-04-02
US9852741B2 (en) 2017-12-26
US20200035253A1 (en) 2020-01-30
EP3132443A4 (en) 2017-11-08
JP2017514174A (ja) 2017-06-01
US20210375296A1 (en) 2021-12-02
CA2940657C (en) 2021-12-21
BR112016022466A2 (pt) 2017-08-15
RU2016144150A (ru) 2018-05-18
CN106165013A (zh) 2016-11-23
HUE052605T2 (hu) 2021-05-28
US20230326472A1 (en) 2023-10-12
JP6692948B2 (ja) 2020-05-13
ES2717131T3 (es) 2019-06-19
AU2014391078B2 (en) 2020-03-26
EP3511935B1 (en) 2020-10-07
LT3511935T (lt) 2021-01-11
US20180137871A1 (en) 2018-05-17
EP4336500A3 (en) 2024-04-03
KR102222838B1 (ko) 2021-03-04
HRP20201709T1 (hr) 2021-01-22
EP3751566B1 (en) 2024-02-28
DK3511935T3 (da) 2020-11-02
EP4336500A2 (en) 2024-03-13
MX362490B (es) 2019-01-18
JP6486962B2 (ja) 2019-03-20
US11721349B2 (en) 2023-08-08
US10431233B2 (en) 2019-10-01
JP2019091077A (ja) 2019-06-13
CN106165013B (zh) 2021-05-04
AU2014391078A1 (en) 2016-11-03
US11282530B2 (en) 2022-03-22
EP3511935A1 (en) 2019-07-17
CA2940657A1 (en) 2015-10-22
US10468045B2 (en) 2019-11-05
CN113223540B (zh) 2024-01-09
WO2015157843A1 (en) 2015-10-22
KR20160144978A (ko) 2016-12-19
CA3134652A1 (en) 2015-10-22
EP3751566A1 (en) 2020-12-16
MX2016012950A (es) 2016-12-07
MY178026A (en) 2020-09-29
RU2677453C2 (ru) 2019-01-16

Similar Documents

Publication Publication Date Title
US11721349B2 (en) Methods, encoder and decoder for linear predictive encoding and decoding of sound signals upon transition between frames having different sampling rates
JP4390803B2 (ja) 可変ビットレート広帯域通話符号化におけるゲイン量子化方法および装置
JP2019215545A (ja) 冗長フレーム情報を通信するシステムおよび方法
BRPI0715516A2 (pt) sistemas, mÉtodos e equipamentos para limitar fator de ganho
JP2003044097A (ja) 音声信号および音楽信号を符号化する方法
WO2013078974A1 (zh) 非激活音信号参数估计方法及舒适噪声产生方法及系统
RU2667973C2 (ru) Способы и системы переключения технологий кодирования в устройстве

Legal Events

Date Code Title Description
B07A Application suspended after technical examination (opinion) [chapter 7.1 patent gazette]
B09B Patent application refused [chapter 9.2 patent gazette]
B12B Appeal against refusal [chapter 12.2 patent gazette]
B350 Update of information on the portal [chapter 15.35 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 25/07/2014, OBSERVADAS AS CONDICOES LEGAIS