ES2827278T3 - Método, dispositivo y memoria no transitoria legible por ordenador para codificación y decodificación predictiva linealde señales sonoras en la transición entre tramas que tienen diferentes tasas de muestreo - Google Patents

Método, dispositivo y memoria no transitoria legible por ordenador para codificación y decodificación predictiva linealde señales sonoras en la transición entre tramas que tienen diferentes tasas de muestreo Download PDF

Info

Publication number
ES2827278T3
ES2827278T3 ES18215702T ES18215702T ES2827278T3 ES 2827278 T3 ES2827278 T3 ES 2827278T3 ES 18215702 T ES18215702 T ES 18215702T ES 18215702 T ES18215702 T ES 18215702T ES 2827278 T3 ES2827278 T3 ES 2827278T3
Authority
ES
Spain
Prior art keywords
filter
power spectrum
synthesis filter
sampling rate
internal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES18215702T
Other languages
English (en)
Inventor
Redwan Salami
Vaclav Eksler
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
VoiceAge Corp
Original Assignee
VoiceAge Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=54322542&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=ES2827278(T3) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by VoiceAge Corp filed Critical VoiceAge Corp
Application granted granted Critical
Publication of ES2827278T3 publication Critical patent/ES2827278T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/12Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/06Determination or coding of the spectral characteristics, e.g. of the short-term prediction coefficients
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/167Audio streaming, i.e. formatting and decoding of an encoded audio signal representation into a data stream for transmission or storage purposes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/173Transcoding, i.e. converting between two coded representations avoiding cascaded coding-decoding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/24Variable rate codecs, e.g. for generating different qualities using a scalable representation such as hierarchical encoding or layered encoding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/26Pre-filtering or post-filtering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/06Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being correlation coefficients
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/06Determination or coding of the spectral characteristics, e.g. of the short-term prediction coefficients
    • G10L19/07Line spectrum pair [LSP] vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L2019/0001Codebooks
    • G10L2019/0002Codebook adaptations
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L2019/0001Codebooks
    • G10L2019/0004Design or structure of the codebook
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L2019/0001Codebooks
    • G10L2019/0016Codebook for LPC parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/038Speech enhancement, e.g. noise reduction or echo cancellation using band spreading techniques

Abstract

Un método implementado en un codificador de señal de sonido basado en CELP o un decodificador de señal de sonido basado en CELP para convertir, cuando el codificador o el decodificador conmuta desde una primera trama con una tasa de muestreo interno S1 hasta una segunda trama con una tasa de muestreo interno S2, parámetros de filtro predictivo lineales, LP, de la primera trama desde la tasa de muestreo interno S1 a la tasa de muestreo interno S2, el método se caracteriza por: calcular, a la tasa de muestreo interno S1, un espectro de potencia de un filtro de síntesis LP utilizando los parámetros del filtro LP; modificar el espectro de potencia del filtro de síntesis LP para convertirlo de la tasa de muestreo interno S1 a la tasa de muestreo interno S2; transformar de manera inversa del espectro de potencia modificado del filtro de síntesis LP para determinar las autocorrelaciones del filtro de síntesis LP a la tasa de muestreo interno S2; y utilizar las autocorrelaciones para calcular los parámetros del filtro LP a la tasa de muestreo interno S2.

Description

DESCRIPCIÓN
Método, dispositivo y memoria no transitoria legible por ordenador para codificación y decodificación predictiva lineal de señales sonoras en la transición entre tramas que tienen diferentes tasas de muestreo
Campo técnico
La presente divulgación se refiere al campo de codificación de sonido. Más específicamente, la presente divulgación se refiere a métodos, un codificador y un decodificador para la codificación y decodificación predictiva lineal de señales de sonido durante la transición entre tramas que tienen diferentes velocidades de muestreo.
Antecedentes
La demanda de técnicas de codificación de voz/audio de banda ancha digital eficiente con un buen intercambio de tasa de bits/calidad subjetiva está aumentando para numerosas aplicaciones tales como teleconferencias de audio/vídeo, multimedia y aplicaciones inalámbricas, así como aplicaciones de red de paquetes e Internet. Hasta hace poco, los anchos de banda telefónicos en el rango de 200-3400 Hz se usaban principalmente en aplicaciones de codificación de voz. Sin embargo, existe una demanda creciente de aplicaciones de voz de banda ancha con el fin de aumentar la inteligibilidad y naturalidad de las señales de voz. Se consideró que un ancho de banda en el rango de 50-7000 Hz era suficiente para ofrecer una calidad de voz cara a cara. Para las señales de audio, este rango proporciona una calidad de audio aceptable, pero aún es menor que la calidad de CD (disco compacto) que opera en el rango de 20-20000 Hz.
Un codificador de voz convierte una señal de voz en una corriente digital de bits que se transmite por un canal de comunicación (o se almacena en un medio de almacenamiento). La señal de voz se digitaliza (muestreada y cuantificada normalmente con 16 bits por muestra) y el codificador de voz tiene la función de representar estas muestras digitales con un número menor de bits manteniendo una buena calidad de voz subjetiva. El decodificador o sintetizador de voz funciona con el flujo de bits transmitido o almacenado y lo convierte de nuevo en una señal de sonido.
Una de las mejores técnicas disponibles capaces de desarrollar un buen intercambio de tasa de bits/calidad es la llamada técnica CELP (Predicción Lineal con Excitación por Código). De acuerdo con esta técnica, la señal de voz muestreada se procesa en bloques sucesivos de L muestras normalmente llamadas tramas donde L es un número predeterminado (correspondiente a 10-30 ms de voz). En CELP, un filtro de síntesis LP (Predicción Lineal) se calcula y se transmite en cada trama. La trama de muestra L se divide además en bloques más pequeños denominados subtramas de N muestras, donde L = kN y k es el número de subtramas en una trama (N normalmente corresponde a 4-10 ms de voz). Se determina una señal de excitación en cada subtrama, que generalmente comprende dos componentes: uno de la excitación anterior (también llamado contribución de tono o libro de códigos adaptativo) y el otro de un libro de códigos innovador (también llamado libro de códigos fijo). Esta señal de excitación se transmite y se utiliza en el decodificador como entrada del filtro de síntesis LP para obtener la voz sintetizada.
Para sintetizar la voz de acuerdo con la técnica CELP, cada bloque de N muestras se sintetiza filtrando un vector de código apropiado del libro de códigos innovador a través de filtros variables en el tiempo que modelan las características espectrales de la señal de voz. Estos filtros comprenden un filtro de síntesis de tono (generalmente implementado como un libro de códigos adaptativo que contiene la señal de excitación anterior) y un filtro de síntesis LP. En el extremo del codificador, la salida de síntesis se calcula para todos, o un subconjunto, de los vectores de código del libro de códigos innovador (búsqueda de libro de códigos). El vector de código innovador retenido es el que produce la salida de síntesis más cercana a la señal de voz original de acuerdo con una medida de distorsión ponderada perceptualmente. Esta ponderación perceptiva se realiza utilizando un llamado filtro de ponderación perceptual, que normalmente se deriva del filtro de síntesis LP.
En los codificadores basados en LP tales como CELP, un filtro de LP se calcula entonces cuantificados y transmitidos una vez por trama. Sin embargo, para asegurar una evolución suave del filtro de síntesis LP, los parámetros del filtro se interpolan en cada subtrama, basándose en los parámetros LP de la trama anterior. Los parámetros del filtro LP no son adecuados para la cuantificación debido a problemas de estabilidad del filtro. Se suele utilizar otra representación LP más eficaz para la cuantificación e interpolación. Una representación de parámetro LP comúnmente utilizada es el dominio de frecuencia espectral de línea (LSF).
En codificación de banda ancha la señal de sonido es muestreada a 16000 muestras por segundo y el ancho de banda codificada extendida hasta 7 kHz. Sin embargo, en codificación de banda ancha de baja tasa de bits (por debajo de 16 kbit/s), generalmente es más eficiente muestrear la señal de entrada a una tasa ligeramente más baja y aplicar el modelo CELP a un ancho de banda menor, luego usar la extensión de ancho de banda en el decodificador para generar la señal hasta 7 kHz. Esto se debe al hecho de que CELP modela las frecuencias más bajas con alta energía mejor que las frecuencias más altas. Por lo tanto, es más eficiente enfocar el modelo en el ancho de banda más bajo a tasas de bits bajas. El estándar AMR-WB (Referencia [1]) es un ejemplo de codificación de este tipo, donde la señal de entrada se muestrea a 12800 muestras por segundo, y el CELP codifica la señal hasta 6.4 kHz. En el decodificador, la extensión del ancho de banda se utiliza para generar una señal de 6.4 a 7 kHz. Sin embargo, a tasas de bits superiores a 16 kbit/s, es más eficaz utilizar CELP para codificar la señal hasta 7 kHz, ya que hay suficientes bits para representar todo el ancho de banda.
Los codificadores más recientes son codificadores de múltiples velocidades que cubren una amplia gama de tasas de bits para permitir la flexibilidad en diferentes escenarios de aplicación. Una vez más, AMR-WB es un ejemplo de este tipo, donde el codificador funciona a tasas de bits de 6.6 a 23.85 kbit/s. En los codificadores de múltiples tasas, el códec debería poder cambiar entre diferentes tasas de bits en una trama sin introducir artefactos de conmutación. En AMR-WB, esto se logra fácilmente ya que todas las tasas utilizan CELP a una tasa de muestreo interno de 12.8 kHz. Sin embargo, en un codificador reciente que usa muestreo de 12.8 kHz a tasas de bits por debajo de 16 kbit/s y muestreo de 16 kHz a tasas de bits superiores a 16 kbit/s, es necesario abordar los problemas relacionados con el cambio de la tasa de bits entre tramas que utilizan diferentes tasas de muestreo. Los problemas principales están en la transición del filtro LP y en la memoria del filtro de síntesis y el libro de códigos adaptativo. Las técnicas para convertir los parámetros del filtro LP de una primera tasa de muestreo a una segunda tasa de muestreo también se conocen por las solicitudes de patente US2008/0077401 A1 y JP2000206998A.
Por lo tanto, subsiste la necesidad de métodos eficientes para la conmutación códecs basados en LP entre dos tasas de bits con diferentes tasas de muestreo internos.
Resumen
La invención proporciona un método de acuerdo con la reivindicación 1, un dispositivo de acuerdo con la reivindicación 13, una memoria no transitoria legible por ordenador que almacena instrucciones de código de acuerdo con la reivindicación 20.
Los anteriores y otros objetos, ventajas y características de la presente divulgación se harán más evidentes tras la lectura de la siguiente descripción no restrictiva de una realización ilustrativa de la misma, dada a modo de ejemplo solamente con referencia a los dibujos adjuntos.
Breve descripción de los dibujos
En los dibujos adjuntos:
La Figura 1 es un diagrama de bloques esquemático de un sistema de comunicación de sonido que representa un ejemplo de uso de codificación y decodificación de sonido;
La Figura 2 es un diagrama de bloques esquemático que ilustra la estructura de un codificador y decodificador basado en CELP, parte del sistema de comunicación de sonido de la Figura 1;
La Figura 3 ilustra un ejemplo de encuadre e interpolación de parámetros LP;
La Figura 4 es un diagrama de bloques que ilustra una realización para convertir los parámetros del filtro LP entre dos tasas de muestreo diferentes; y
La Figura 5 es un diagrama de bloques simplificado de una configuración de ejemplo de componentes de hardware que forman el codificador y/o decodificador de las Figuras 1 y 2.
Descripción detallada
La realización ilustrativa no limitativa de la presente divulgación se refiere a un método y un dispositivo para la conmutación eficiente, en un códec basado en LP, entre tramas utilizando diferentes tasas de muestreo internos. El método y el dispositivo de conmutación se pueden utilizar con cualquier señal de sonido, incluidas las señales de voz y audio. La conmutación entre tasas de muestreo internos de 16 kHz y 12.8 kHz se da a modo de ejemplo, sin embargo, el método y el dispositivo de conmutación también se pueden aplicar a otras tasas de muestreo.
La Figura 1 es un diagrama de bloques esquemático de un sistema de comunicación de sonido que muestra un ejemplo de uso de codificación y decodificación de sonido. Un sistema 100 de comunicación de sonido soporta la transmisión y reproducción de una señal de sonido a través de un canal 101 de comunicación. El canal 101 de comunicación puede comprender, por ejemplo, un enlace por cable, óptico o de fibra. Alternativamente, el canal 101 de comunicación puede comprender al menos en parte un enlace de radiofrecuencia. El enlace de radiofrecuencia a menudo admite comunicaciones de voz múltiples y simultáneas que requieren recursos de ancho de banda compartido, como los que se pueden encontrar con la telefonía celular. Aunque no se muestra, el canal 101 de comunicación puede ser reemplazado por un dispositivo de almacenamiento en una realización de un solo dispositivo del sistema 101 de comunicación que graba y almacena la señal de sonido codificada para su posterior reproducción.
Todavía en referencia a la Figura 1, por ejemplo, un micrófono 102 produce una señal 103 de sonido analógica original que se suministra a un convertidor 104 analógico a digital (A/D) para convertirlo en una señal 105 de sonido digital original. La señal 105 de sonido digital original también se puede grabar y suministrar desde un dispositivo de almacenamiento (no mostrado). Un codificador 106 de sonido codifica la señal 105 de sonido digital original produciendo así un conjunto de parámetros 107 de codificación que se codifican en una forma binaria y se envían a un codificador 108 de canal opcional. El codificador 108 de canal opcional, cuando está presente, agrega redundancia a la representación binaria de los parámetros de codificación antes de transmitirlos por el canal 101 de comunicación. En el lado del receptor, un decodificador 109 de canal opcional utiliza la información redundante mencionada anteriormente en un flujo 111 de bits digital para detectar y corregir errores de canal que pueden haber ocurrido durante la transmisión por el canal 101 de comunicación, que produce los parámetros 112 de codificación recibidos. Un decodificador 110 de sonido convierte los parámetros 112 de codificación recibidos para crear una señal 113 de sonido digital sintetizada. La señal 113 de sonido digital sintetizada reconstruida en el decodificador 110 de sonido se convierte en una señal 114 de sonido analógica sintetizada en un convertidor 115 de digital a analógico (D/A) y se reproduce en una unidad 116 de altavoz. Alternativamente, la señal 113 de sonido digital sintetizada también se puede suministrar y grabar en un dispositivo de almacenamiento (no mostrado).
La Figura 2 es un diagrama de bloques esquemático que ilustra la estructura de un codificador y decodificador basado en CELP, parte del sistema de comunicación de sonido de la Figura 1. Como se ilustra en la Figura 2, un códec de sonido comprende dos partes básicas: el codificador 106 de sonido y el decodificador 110 de sonido, ambos presentados en la descripción anterior de la Figura 1. El codificador 106 se suministra con la señal 105 de sonido digital original, determina los parámetros 107 de codificación, descritos a continuación, que representan la señal 103 de sonido analógica original. Estos parámetros 107 se codifican en el flujo 111 de bits digital que se transmite usando un canal de comunicación, por ejemplo, el canal 101 de comunicación de la Figura 1, al decodificador 110. El decodificador 110 de sonido reconstruye la señal 113 de sonido digital sintetizada para que sea lo más similar posible a la señal 105 original de sonido digital.
Actualmente, las técnicas de codificación de voz el discurso más generalizadas están basadas en Predicción Lineal (LP), en particular CELP. En la codificación basada en LP, la señal 113 de sonido digital sintetizada se produce filtrando una excitación 214 a través de un filtro 216 de síntesis LP que tiene una función de transferencia 1/A(z). En CELP, la excitación 214 se compone típicamente de dos partes: una contribución 222 de libro de códigos adaptativo de primera etapa seleccionada de un libro de códigos 218 adaptativo y amplificada por una ganancia 226 de libro de códigos adaptativo gpy una contribución 224 de libro de códigos fijo de segunda etapa seleccionada a partir de un libro de códigos 220 fijo y amplificada por un libro de códigos 228 fijo de ganancia gP. En términos generales, la contribución 222 del libro de códigos adaptativo modelos de la parte periódica de la excitación y la contribución 214 del libro de códigos fijo se agrega para modelar la evolución de la señal de sonido.
La señal de sonido es procesada por tramas de típicamente 20 ms y los parámetros del filtro LP se transmiten una vez por trama. En CELP, la trama se divide en varias subtramas para codificar la excitación. La longitud de la subtrama es típicamente de 5 ms.
El CELP utiliza un principio llamado Análisis por Síntesis donde las posibles salidas del decodificador ya se prueban (sintetizan) durante el proceso de codificación en el codificador 106 y luego se comparan con la señal 105 de sonido digital original. El codificador 106 por lo tanto incluye elementos similares a los del decodificador 110. Estos elementos incluyen una contribución 250 de libro de códigos adaptativo seleccionada de un libro 242 de códigos adaptativo que suministra una señal de excitación anterior v(n) convolucionada con la respuesta de un filtro de síntesis ponderado H(z) (ver 238) (cascada del filtro de síntesis LP 1/A(z) y el filtro de ponderación perceptual W(z)), cuyo resultado y-i(n) se amplifica mediante una ganancia 240 de libro de códigos adaptativo gp. También se incluye una contribución 252 fija del libro de códigos seleccionado de un libro de códigos 244 fijo que proporciona un vector de código innovador ck(n) convolucionado con la respuesta de impulso del filtro de síntesis ponderado H(z) (ver 246), cuyo resultado y2(n) se amplifica por una ganancia 248 de libro de códigos gP.
El codificador 106 también comprende un filtro de ponderación perceptual W(z) 233 y un proveedor 234 de una respuesta de entrada cero de la cascada (H(z)) del filtro de síntesis LP 1/A(z) y el filtro de ponderación perceptual W(z). Los sustractores 236, 254 y 256 restan respectivamente la respuesta de entrada cero, la contribución 250 del libro de códigos adaptable y la contribución del libro de códigos fijo 252 de la señal 105 de sonido digital original filtrada por el filtro 233 de ponderación perceptual para proporcionar un error 232 cuadrático medio entre la señal 105 de sonido digital original y la señal 113 de sonido digital sintetizada.
La búsqueda de libro de códigos minimiza el error 232 cuadrático medio entre la señal 105 original de sonido digital y la señal 113 de sonido digital sintetizada en un dominio ponderado perceptualmente, donde el índice de tiempo discreto n = 0, 1, ..., N-1 y N es la longitud de la subtrama. El filtro de ponderación perceptual W(z) aprovecha el efecto de enmascaramiento de frecuencia y normalmente se deriva de un filtro LP A(z).
Un ejemplo de filtro de ponderación perceptual W(z) para señales WB (banda ancha, el ancho de banda de 50 a 7000 Hz) se pueden encontrar en la referencia [1].
Puesto que la memoria del filtro de síntesis LP 1 /A(z)y el filtro de ponderación W(z) es independiente de los vectores de código buscados, esta memoria puede ser restada de la señal 105 de sonido digital original antes de la búsqueda de libro de códigos fijo. El filtrado de los vectores de código candidatos se puede realizar mediante una convolución con la respuesta al impulso de la cascada de los filtros 1/A(z) yW(z), representada por H(z) en la Figura 2.
La corriente 111 de bit digital transmitida desde el codificador 106 al decodificador 110 contiene típicamente los siguientes parámetros 107: parámetros cuantificados del filtro LP A(z), los índices de libro de códigos 242 adaptativos y del libro de códigos 244 fijo, y las ganancias gp240 y gc 248 del libro de códigos 242 adaptativo y del libro de códigos 244 fijo.
Conversión de parámetros de filtro LP al conmutar en límites de trama con diferentes tasas de muestreo
En la codificación basada en LP se determina el filtro LP A(z) una vez por trama, y luego se interpola para cada subtrama. La Figura 3 ilustra un ejemplo de entramado e interpolación de parámetros LP. En este ejemplo, una trama actual se divide en cuatro subtramas SF1, SF2, SF3 y SF4, y la ventana de análisis LP se centra en la última subtrama SF4. Por tanto, los parámetros LP resultantes del análisis LP en la presente trama, F1, se utilizan tal cual, en la última subtrama, es decir SF4 = F1. Para las tres primeras subtramas SF1, SF2 y SF3, los parámetros LP se obtienen interpolando los parámetros en la trama actual, F1, y una trama anterior, F0. Es decir:
SF1 = 0.75 F0 0.25 F1;
SF2 = 0.5 F0 0.5 F1;
SF3 = 0.25 F0 0.75 F1;
SF4 = F1.
Otros ejemplos de interpolación pueden, alternativamente, ser utilizados en función de la forma, longitud y posición de la ventana de análisis de LP. En otra realización, el codificador conmuta entre tasas de muestreo interno de 12.8 kHz y 16 kHz, donde se utilizan 4 subtramas por trama a 12.8 kHz y 5 subtramas por trama a 16 kHz, y donde los parámetros LP también se cuantifican en el medio de la trama actual (Fm). En esta otra realización, la interpolación de parámetros LP para una trama de 12.8 kHz viene dada por:
SF1 = 0.5 F0 0.5 Fm;
SF2 = Fm;
SF3 = 0.5 Fm 0.5 F1;
SF4 = F1.
Para un muestreo de 16 kHz, la interpolación viene dada por:
SF1 = 0.55 F0 0.45 Fm;
SF2 = 0.15 F0 0.85 Fm;
SF3 = 0.75 Fm 0.25 F1;
SF4 = 0.35 Fm 0.65 F1;
SF5 = F1.
El análisis LP da como resultado el cálculo de los parámetros del filtro de síntesis LP usando:
A ( z ) Í Y ^ 1a i z ~ l l a 1z ~1+ a2z ~ 2 H \-aMz ~ M ' '
donde ai, i = 1, ..., M, son parámetros de filtro LP y M es el orden de filtro.
Los parámetros del filtro LP se transforman a otro dominio para los propósitos de cuantificación e interpolación. Otras representaciones de parámetros LP comúnmente utilizadas son coeficientes de reflexión, relaciones de área logarítmica, pares de espectros de inmitancia (usados en AMR-WB; Referencia [1]) y pares de espectros de línea, que también se denominan frecuencias de espectro de línea (LSF). En esta realización ilustrativa, se usa la representación de frecuencia de espectro de línea. En la Referencia [2] se puede encontrar un ejemplo de un método que se puede utilizar para convertirlos parámetros LP en parámetros LSF y viceversa. El ejemplo de interpolación del párrafo anterior se aplica a los parámetros LSF, que pueden estar en el dominio de la frecuencia en el rango entre 0 y Fs/2 (donde Fs es la frecuencia de muestreo), o en el dominio de la frecuencia escalada entre 0 y i , o en el dominio del coseno (coseno de frecuencia escalada).
Como se describió anteriormente, las diferentes tasas de muestreo internos se pueden usar en diferentes tasas de bits para mejorar la calidad en codificación basada en LP de múltiples tasas. En esta realización ilustrativa, se usa un codificador de banda ancha CELP de múltiples tasas donde se usa una tasa de muestreo interno de 12.8 kHz a tasas de bits más bajas y una tasa de muestreo interno de 16 kHz a tasas de bits más altas. A una tasa de muestreo de 12.8 kHz, los LSF cubren el ancho de banda de 0 a 6.4 kHz, mientras que a una tasa de muestreo de 16 kHz cubren el rango de 0 a 8 kHz. Al conmutar la tasa de bits entre dos tramas donde la tasa de muestreo interno es diferente, se abordan algunos problemas para asegurar una conmutación perfecta. Estos problemas incluyen la interpolación de los parámetros del filtro LP y las memorias del filtro de síntesis y el libro de códigos adaptativo, que se encuentran en diferentes tasas de muestreo.
La actual divulgación presenta un método para la interpolación eficiente de parámetros LP entre dos tramas en diferentes tasas de muestreo interno. A modo de ejemplo, se considera la conmutación entre tramas de muestreo de 12.8 kHz y 16 kHz. Sin embargo, las técnicas divulgadas no se limitan a estas tasas de muestreo particulares y pueden aplicarse a otras tasas de muestreo internos.
Asúmase que el codificador está conmutando desde una trama F1 con tasa de muestreo interno S1 hasta una trama F2 con tasa de muestreo interno S2. Los parámetros LP en la primera trama se denominan LSF1s1 y los parámetros LP en la segunda trama se indican LSF2s2. Para actualizar los parámetros LP en cada subtrama de la trama F2, se interpolan los parámetros LP LSF1 y LSF2. Para realizar la interpolación, los filtros deben configurarse a la misma tasa de muestreo. Esto requiere realizar un análisis LP de la trama F1 a la tasa de muestreo S2. Para evitar transmitir el filtro LP dos veces a las dos tasas de muestreo en la trama F1, el análisis LP a la tasa de muestreo S2 se puede realizar en la señal de síntesis anterior que está disponible tanto en el codificador como en el decodificador. Este enfoque implica volver a muestrear la señal de síntesis anterior de la tasa S1 a la tasa S2 y realizar un análisis LP completo, repitiéndose esta operación en el decodificador, que suele ser computacionalmente exigente.
En este documento se divulgan métodos y dispositivos alternativos para convertir los parámetros del filtro de síntesis LP LSF1 de la tasa de muestreo S1 a la tasa de muestreo S2 sin la necesidad de volver a muestrear la síntesis anterior y realizar un análisis LP completo. El método, usado para codificar y/o decodificar, comprende calcular el espectro de potencia del filtro de síntesis LP a la tasa S1; modificar el espectro de potencia para convertirlo de la tasa S1 a la tasa S2; convertir el espectro de potencia modificado de nuevo al dominio del tiempo para obtener la autocorrelación del filtro a la tasa S2; y finalmente utilizar la autocorrelación para calcular los parámetros del filtro LP a la tasa S2.
En al menos algunas realizaciones, la modificación del espectro de potencia para convertirlo de tasa de S1 a tasa S2 comprende las siguientes operaciones:
Si S1 es mayor que S2, la modificación del espectro de potencia comprende truncar el espectro de potencia de muestra K por debajo de las muestras K(S2/S1), es decir, eliminar las muestras de K(S1-S2)/S1.
Por otro lado, si S1 es menor que S2, entonces, la modificación del espectro de potencia comprende extender el espectro de potencia de muestra K por encima de las muestras K(S2/S1), es decir, agregar las muestras K(S2-S1)/S1.
Calcular del filtro LP a la tasa S2 a partir de las autocorrelaciones se puede realizar usando el algoritmo de Levinson-Durbin (ver Referencia [1]). Una vez que el filtro LP se convierte a la tasa S2, los parámetros del filtro LP se transforman en el dominio de interpolación, que es un dominio LSF en esta realización ilustrativa.
El procedimiento descrito anteriormente se resume en la Figura 4, que es un diagrama de bloques que ilustra una realización para la conversión de los parámetros de filtro LP entre dos tramas de muestreo diferentes.
La secuencia 300 de operaciones muestra que un método simple para el cálculo del espectro de potencia del filtro de síntesis LP 1/A(z) es evaluar la respuesta de frecuencia del filtro a K frecuencias de 0 a 2 i.
La respuesta de frecuencia del filtro de síntesis viene dada por
Figure imgf000006_0001
y el espectro de potencia del filtro de síntesis se calcula como una energía de la respuesta de frecuencia del filtro de síntesis, dado por
Figure imgf000006_0002
Inicialmente, el filtro LP es a una tasa igual a S1 (operación 310). Se calcula un espectro de potencia de muestra K (es decir, discreto) del filtro de síntesis LP (operación 320) al muestrear el rango de frecuencia de 0 a 2n. Es decir
P(fc) = k = 0.....K - 1(4)
( l Z j l i a iC o s ( ^ ) ) ( l ¡'¡t1ai sen(2^ ) )
Obsérvese que es posible reducir la complejidad operativa mediante el cálculo de P(k) sólo para k = 0, ..., K/2 ya que el espectro de potencia de n a 2n es un espejo de aquel de 0 a n.
Una prueba (operación 330) determina cuál de los siguientes casos se aplica. En un primer caso, la tasa de muestreo S1 es mayor que la tasa de muestreo S2, y el espectro de potencia para la trama F1 se trunca (operación 340) de manera que el nuevo número de muestras es K(S2/S1).
En más detalle, cuando S1 es mayor que S2, la longitud del espectro de potencia truncado es las muestras K2 = K(S2/S1). Dado que el espectro de potencia se trunca, se calcula a partir de k = 0, ..., K2/2. Dado que el espectro de potencia es simétrico alrededor de K2/2, entonces se supone que
P(K2/2+k) = P(K/2-k), a partir de k =1, ..., K/2-1
La transformada de Fourier de las autocorrelaciones de una señal da el espectro de potencia de esa señal. Por tanto, la aplicación de la transformada de Fourier inversa al espectro de potencia truncado da como resultado las autocorrelaciones de la respuesta al impulso del filtro de síntesis a la tasa de muestreo S2.
La transformada de Fourier Discreta Inversa (IDFT) del espectro de potencia truncada está dada por
R(i) = f k E 2 ^ P W e ' 2" ^ (5)
Dado que el orden de filtro es M, entonces la IDFT se puede calcular solamente para i = 0, ..., M. Además, dado que el espectro de potencia es real y simétrico, el IDFT del espectro de potencia también es real y simétrico. Dada la simetría del espectro de potencia, y que solo se necesitan correlaciones M 1, la transformada inversa del espectro de potencia se puede dar como
Figure imgf000007_0001
Eso es
Figure imgf000007_0002
ra i = 1,3,..,,M-1
R(i) = -L (p(o) — p(K2/2 ) 2 E ^ f ” 1 P(K2/2 — k) cos(2ník/K2)) para i = 2 ,4 ,.,M
Después se calculan las autocorrelaciones a una tasa de muestreo S2, se puede utilizar el algoritmo Levinson-Durbin (ver Referencia [1]) para calcular los parámetros del filtro LP a la tasa de muestreo S2. Entonces, los parámetros del filtro LP se transforman en el dominio LSF para la interpolación con las LSF de la trama F2 con el fin de obtener parámetros LP en cada subtrama.
En el ejemplo ilustrativo en el que el codificador codifica una señal de banda ancha y se conmuta desde una trama con una tasa de muestreo interno S1 = 16 kHz hasta una trama con tasa de muestreo interno S2 = 12.8 kHz, suponiendo que K = 100, la longitud del espectro de potencia truncado es K2 = 100 (12800/16000) = 80 muestras. El espectro de potencia se calcula para 41 muestras usando la Ecuación (4), y luego las autocorrelaciones se calculan usando la Ecuación (7) con K2 = 80.
En un segundo caso, cuando la prueba (operación 330) determina que S1 es menor que S2, la longitud del espectro de potencia extendida es K2 = K(S2 /S1) muestras (operación 350). Después de calcular el espectro de potencia de k = 0, ..., K/2, el espectro de potencia se extiende a K2/2. Puesto que no hay contenido espectral original entre K/2 y K2/2, extendiendo el espectro de potencia se puede hacer mediante la inserción de un número de muestras hasta K2/2 usando valores muy bajos de muestra. Un enfoque simple es repetir la muestra a K/2 hasta K2/2. Dado que el espectro de potencia es simétrico alrededor de K2/2, entonces se asume que
P(K2/+k) = P(K2/2-k), a partir de k = 1, ..., K2/2-1
En cualquiera de los casos, la inversa DFT se calcula entonces como en la ecuación (6) para obtener las autocorrelaciones en tasa de muestreo S2 (operación 360) y el algoritmo de Levinson-Durbin (ver Referencia [1]) se utiliza para calcular los parámetros del filtro LP a la tasa de muestreo S2 (operación 370). Luego, los parámetros de filtro se transforman al dominio LSF para la interpolación con las LSF de la trama F2 con el fin de obtener parámetros LP en cada subtrama.
De nuevo, tomemos el ejemplo ilustrativo donde el codificador está conmutando de una trama con una tasa de muestreo interno S1 = 12.8 kHz a una trama con una tasa de muestreo interno S2 = 16 kHz, y supongamos que K = 80. La longitud del espectro de potencia extendido es K2 = 80 (16000/12800) = 100 muestras. El espectro de potencia se calcula para 51 muestras usando la Ecuación (4), y luego las autocorrelaciones se calculan usando la Ecuación (7) con K2 = 100.
Obsérvese que otros métodos pueden ser utilizados para calcular el espectro de potencia del filtro de síntesis LP o el DFT inverso del espectro de potencia sin apartarse del espíritu de la presente divulgación.
Obsérvese que en esta realización ilustrativa la conversión de los parámetros de filtro LP entre diferentes tasas de muestreo interno se aplica a los parámetros LP cuantificados, con el fin de determinar los parámetros del filtro de síntesis interpolados en cada subtrama, y esto se repite en el decodificador. Se observa que el filtro de ponderación utiliza parámetros de filtro LP no cuantificados, pero se encontró suficiente para interpolar entre los parámetros del filtro no cuantificados en la nueva trama F2 y los parámetros LP cuantificados convertidos por muestreo de la trama anterior F1 para determinar los parámetros del filtro de ponderación. en cada subtrama. Esto evita la necesidad de aplicar la conversión de muestreo del filtro LP también en los parámetros del filtro LP no cuantificados.
Otras consideraciones al conmutar en los límites de la trama con diferentes tasas de muestreo
Otra cuestión a considerar cuando se cambia entre tramas con diferentes tramas de muestreo interno es el contenido del libro de códigos adaptativos, que generalmente contiene la señal de excitación anterior. Si la nueva trama tiene una tasa de muestreo interno S2 y la trama anterior tiene una tasa de muestreo interno S1, entonces el contenido del libro de códigos adaptativo se vuelve a muestrear desde la frecuencia S1 a la frecuencia S2, y esto se realiza tanto en el codificador como en el decodificador.
Con el fin de reducir la complejidad, en esta divulgación, la nueva trama F2 se ve obligada a utilizar un modo de codificación transitoria que es independiente de la historia pasada de excitación y por lo tanto no utiliza la historia del libro de códigos adaptativos. Un ejemplo de codificación en modo transitorio se puede encontrar en la solicitud de patente PCT WO 2008/049221 A1 “Método y dispositivo para codificar tramas de transición en señales de voz”.
Otra consideración cuando se conmuta en los límites de trama con diferentes tasas de muestreo es la memoria de los cuantificadores de predicción. Por ejemplo, los cuantificadores de parámetros LP suelen utilizar la cuantificación predictiva, que puede no funcionar correctamente cuando los parámetros se encuentran en diferentes tasas de muestreo. Para reducir los artefactos de conmutación, el cuantificador de parámetros LP puede forzarse a un modo de codificación no predictivo cuando se conmuta entre diferentes tasas de muestreo.
Una consideración adicional es la memoria del filtro de síntesis, que se puede volver a muestrear cuando se cambia entre tramas con diferentes tasas de muestreo.
Finalmente, la complejidad adicional que surge de la conversión de parámetros de filtro LP cuando se conmuta entre tramas con diferentes tasas de muestreo interno puede compensarse mediante la modificación de partes de la codificación o la decodificación de procesamiento. Por ejemplo, para no aumentar la complejidad del codificador, la búsqueda de libro de códigos fijo puede modificarse reduciendo el número de iteraciones en la primera subtrama de la trama (ver Referencia [1] para un ejemplo de búsqueda de libro de códigos fijo).
Además, con el fin de no aumentar la complejidad del decodificador, se pueden saltar cierto procesamiento posterior. Por ejemplo, en esta realización ilustrativa, se puede utilizar una técnica de procesamiento posterior como se describe en la patente de EE.UU. 7.529.660 “Método y dispositivo para la mejora del tono selectivo en frecuencia de la voz sintetizada”. Este filtrado posterior se omite en la primera trama después de conmutar a una tasa de muestreo interno diferente (omitir este filtrado posterior también supera la necesidad de la síntesis anterior utilizada en el filtro posterior).
Además, otros parámetros que dependen de la tasa de muestreo pueden ser escalados en consecuencia. Por ejemplo, el retardo de tono pasado utilizado para el clasificador de decodificador y la ocultación del borrado de trama puede escalarse por el factor S2/S1.
La Figura 5 es un diagrama de bloques simplificado de una configuración de ejemplo de componentes de hardware que forman el codificador y/o decodificador de las Figuras 1 y 2. Un dispositivo 400 puede implementarse como parte de un terminal móvil, como parte de un reproductor multimedia portátil, una estación base, equipo de Internet o en cualquier dispositivo similar, y puede incorporar el codificador 106, el decodificador 110, o tanto el codificador 106 como el decodificador 110. El dispositivo 400 incluye un procesador 406 y una memoria 408. El procesador 406 puede comprender uno o más procesadores distintos para ejecutar instrucciones de código para realizar las operaciones de la Figura 4. El procesador 406 puede incorporar varios elementos del codificador 106 y del decodificador 110 de las Figuras 1 y 2. El procesador 406 puede ejecutar además tareas de un terminal móvil, un reproductor multimedia portátil, una estación base, un equipo de Internet y similares. La memoria 408 está operativamente conectada al procesador 406. La memoria 408, que puede ser una memoria no transitoria, almacena las instrucciones de código ejecutables por el procesador 406.
Una entrada 402 de audio está presente en el dispositivo 400 cuando se utiliza como un codificador 106. La entrada 402 de audio puede incluir, por ejemplo, un micrófono o un conectable interfaz a un micrófono. La entrada 402 de audio puede incluir el micrófono 102 y el convertidor 104 A/D y producir la señal 103 de sonido analógica original y/o la señal 105 de sonido digital original. Alternativamente, la entrada 402 de audio puede recibir la señal 105 de sonido digital original. Asimismo, una salida 404 codificada está presente cuando el dispositivo 400 se usa como un codificador 106 y está configurado para reenviar los parámetros 107 de codificación o el flujo 111 de bits digital que contiene los parámetros 107, que incluyen los parámetros del filtro LP, a un decodificador remoto a través de un enlace de comunicación, por ejemplo, a través del canal 101 de comunicación, o hacia una memoria adicional (no mostrada) para almacenamiento. Los ejemplos de implementación no limitantes de la salida 404 codificada comprenden una interfaz de radio de un terminal móvil, una interfaz física tal como, por ejemplo, un puerto de bus serie universal (USB) de un reproductor multimedia portátil, y similares.
Una entrada 403 codificada y una salida 405 de audio están ambos presentes en el dispositivo 400 cuando se utiliza como un decodificador 110. La entrada 403 codificada puede estar diseñada para recibir los parámetros 107 de codificación o el flujo de bits digital de 111 que contiene los parámetros 107, que incluyen los parámetros de filtro LP de una salida 404 codificada de un codificador 106. Cuando el dispositivo 400 incluye tanto el codificador 106 como el decodificador 110, la salida 404 codificada y la entrada 403 codificada pueden formar un módulo de comunicación común. La salida 405 de audio puede comprender el convertidor 115 D/Ay la unidad 116 de altavoz. Alternativamente, la salida 405 de audio puede comprender una interfaz conectable a un reproductor de audio, a un altavoz, a un dispositivo de grabación y similares.
La entrada 402 de audio o la entrada 403 codificada también puede recibir señales desde un dispositivo de almacenamiento (no mostrado). De la misma manera, la salida 404 codificada y la salida 405 de audio pueden suministrar la señal de salida a un dispositivo de almacenamiento (no mostrado) para grabación.
La entrada 402 de audio, la entrada 403 codificada, la salida 404 codificada y la salida 405 de audio están todos conectados operativamente al procesador 406.
Aquellos de experiencia ordinaria en la técnica se darán cuenta que la descripción de los métodos, el codificador y el decodificador para la codificación predictiva lineal y decodificación de señales de sonido son sólo ilustrativos y no pretenden ser de ninguna manera limitantes. Otras realizaciones se les sugerirán fácilmente a aquellas personas con conocimientos ordinarios en la técnica que se beneficien de la presente divulgación. Además, los métodos, el codificador y el decodificador descritos pueden personalizarse para ofrecer soluciones valiosas a las necesidades y problemas existentes de conmutar códecs basados en predicciones lineales entre dos tasas de bits con diferentes tasas de muestreo.
En aras de la claridad, no todas las características rutinarias de las implementaciones de los métodos, el codificador y el decodificador se muestran y describen. Por supuesto, se apreciará que, en el desarrollo de cualquier implementación real de los métodos, codificador y decodificador, es posible que sea necesario tomar numerosas decisiones específicas de implementación para lograrlos objetivos específicos del desarrollador, como el cumplimiento de las restricciones relacionadas con aplicación, sistema, red y negocio, y que estos objetivos específicos variarán de una implementación a otra y de un desarrollador a otro. Además, se apreciará que un esfuerzo de desarrollo puede ser complejo y llevar mucho tiempo, pero sin embargo sería una tarea rutinaria de ingeniería para los expertos en el campo de la codificación de sonido que se benefician de la presente divulgación.
De acuerdo con la presente divulgación, los componentes, las operaciones de proceso, y/o estructuras de datos descritas en el presente documento pueden implementarse utilizando diversos tipos de sistemas operativos, plataformas informáticas, dispositivos de red, programas de ordenador de cálculo, y/o máquinas de propósito general. Además, los expertos en la técnica reconocerán que también se pueden utilizar dispositivos de naturaleza menos general, como dispositivos cableados, matrices de puertas programables en campo (FPGA), circuitos integrados específicos de aplicación (ASIC) o similares. Cuando un método que comprende una serie de operaciones es implementado por un ordenador o una máquina y esas operaciones pueden almacenarse como una serie de instrucciones legibles por la máquina, pueden almacenarse en un medio tangible.
Los sistemas y módulos descritos en este documento pueden comprender software, firmware, hardware o cualquier combinación de software, firmware o hardware adecuado para los fines descritos en este documento.
Aunque la presente divulgación se ha descrito anteriormente a modo de ejemplo no limitativo, formas de realización ilustrativas de la misma, estas realizaciones pueden ser modificados a voluntad dentro del alcance de las reivindicaciones adjuntas.
Referencias
[1] 3GPP Technical Specification 26.190, “Adaptive Multi-Rate-Wideband (AMR-WB) speech codec; Transcoding functions,” July 2005; http://www.3gpp.org.
[2] ITU-T Recommendation G.729 “Coding of speech at 8 kbit/s using conjugate-structure algebraic-code-excited linear prediction (CS-ACELP)”, 01/2007.

Claims (20)

REIVINDICACIONES
1. Un método implementado en un codificador de señal de sonido basado en CELP o un decodificador de señal de sonido basado en CELP para convertir, cuando el codificador o el decodificador conmuta desde una primera trama con una tasa de muestreo interno S1 hasta una segunda trama con una tasa de muestreo interno S2, parámetros de filtro predictivo lineales, LP, de la primera trama desde la tasa de muestreo interno S1 a la tasa de muestreo interno S2, el método se caracteriza por:
calcular, a la tasa de muestreo interno S1, un espectro de potencia de un filtro de síntesis LP utilizando los parámetros del filtro LP;
modificar el espectro de potencia del filtro de síntesis LP para convertirlo de la tasa de muestreo interno S1 a la tasa de muestreo interno S2;
transformar de manera inversa del espectro de potencia modificado del filtro de síntesis LP para determinar las autocorrelaciones del filtro de síntesis LP a la tasa de muestreo interno S2; y
utilizar las autocorrelaciones para calcular los parámetros del filtro LP a la tasa de muestreo interno S2.
2. Un método como se menciona en la reivindicación 1, en el que modificar el espectro de potencia del filtro de síntesis LP para convertirlo de la tasa de muestreo interno S1 a la tasa de muestreo interno S2 comprende:
si S1 es menor que S2, ampliar el espectro de potencia del Filtro de síntesis LP basado en una relación entre S1 y S2; si S1 es mayor que S2, truncar el espectro de potencia del filtro de síntesis LP basado en la relación entre S1 y S2.
3. Un método como se menciona en la reivindicación 1 o 2, que comprende, cuando se implementa en un codificador de señal de sonido basado en CELP, calcular los parámetros del filtro LP en cada subtrama de una trama actual al interpolar los parámetros del filtro LP de la trama actual en la tasa de muestreo interno S2 con parámetros de filtro LP de una trama anterior convertida de la tasa de muestreo interno S1 a la tasa de muestreo interno S2.
4. Un método como se menciona en la reivindicación 3, que comprende, cuando se implementa en un codificador de señal de sonido basado en CELP, forzar la trama actual a un modo de codificación que no usa un historial de un libro de códigos adaptativo.
5. Un método como se menciona en una cualquiera de las reivindicaciones 3 y 4, que comprende, cuando se implementa en un codificador de señal de sonido basado en CELP, forzar a un cuantificador de parámetros LP a utilizar un método de cuantificación no predictivo en la trama actual.
6. Un método como se menciona en una cualquiera de las reivindicaciones 1 a 5, en el que el espectro de potencia del filtro de síntesis LP es un espectro de potencia discreto.
7. Un método como se menciona en una cualquiera de las reivindicaciones 1 a 6, que comprende:
calcular el espectro de potencia del filtro de síntesis LP en K muestras;
extender el espectro de potencia del filtro de síntesis LP a muestras K*S2/S1 cuando la tasa de muestreo interno S1 es menor que la tasa de muestreo interno S2; y
truncar el espectro de potencia del filtro de síntesis LP en muestras K*S2/S1 cuando la tasa de muestreo interno S1 es mayor que la tasa de muestreo interno S2.
8. Un método como se menciona en una cualquiera de las reivindicaciones 1 a 7, que comprende calcular el espectro de potencia del filtro de síntesis LP como una energía de una respuesta de frecuencia del filtro de síntesis LP.
9. Un método como se menciona en una cualquiera de las reivindicaciones 1 a 8, que comprende la transformación inversa del espectro de potencia modificado del filtro de síntesis LP mediante el uso de una Transformada de Fourier discreta inversa.
10. Un método como se menciona en una cualquiera de las reivindicaciones 1 a 9, que comprende buscar en un libro de códigos fijo usando un número reducido de iteraciones.
11. Un método como se menciona en una cualquiera de las reivindicaciones 1 a 10, que comprende, cuando se implementa en un decodificador de señal de sonido basado en CELP, calcular los parámetros del filtro LP en cada subtrama de una nueva trama al interpolar los parámetros del filtro LP de una trama actual en la tasa de muestreo interno S2 con parámetros de filtro LP de una trama pasada convertida de la tasa de muestreo interno S1 a la tasa de muestreo interno S2.
12. Método como se menciona en una cualquiera de las reivindicaciones 1 a 11, en el que, cuando el método se implementa en un decodificador de señal de sonido basado en CELP, se omite un filtrado posterior para reducir la complejidad de la decodificación.
13. Un dispositivo para su uso en un codificador de señal de sonido basado en CELP o un decodificador de señal de sonido basado en CELP para convertir, cuando el codificador o el decodificador conmuta de una primera trama con una tasa de muestreo interno S1 a una segunda trama con una tasa de muestreo interno S2, parámetros de filtro, LP, predictivos lineales de la primera trama de la tasa S1 de muestreo interno a la tasa de muestreo interno S2, el dispositivo se caracteriza por el hecho de que comprende:
un procesador configurado para:
calcular, a la tasa de muestreo interno S1, un espectro de potencia de un filtro de síntesis LP utilizando los parámetros del filtro LP, modificar el espectro de potencia del filtro de síntesis LP para convertirlo de la tasa de muestreo interno S1 a la tasa de muestreo interno S2,
transformar inversamente el espectro de potencia modificado del filtro de síntesis LP para determinar las autocorrelaciones del filtro de síntesis LP a la tasa de muestreo interno S2, y
utilizar las autocorrelaciones para calcular los parámetros del filtro LP a la tasa de muestreo interno S2.
14. Un dispositivo como se menciona en la reivindicación 13, en el que el procesador está configurado para: extender el espectro de potencia del filtro de síntesis LP en base a una relación entre S1 y S2 si S1 es menor que S2; y
truncar el espectro de potencia del filtro de síntesis LP basándose en la relación entre S1 y S2 si S1 es mayor que S2.
15. Un dispositivo como se menciona en una cualquiera de las reivindicaciones 13 y 14, en el que el procesador está configurado para calcular los parámetros de filtro LP en cada subtrama de una trama actual al interpolar los parámetros de filtro LP de la trama actual a la tasa de muestreo interno S2 con parámetros de filtro LP de una trama pasada convertidos de la tasa de muestreo interno S1 a la tasa de muestreo interno S2.
16. Un dispositivo como se menciona en una cualquiera de las reivindicaciones 13 a 15, en el que el procesador está configurado para:
calcular el espectro de potencia del filtro de síntesis LP en K muestras;
extender el espectro de potencia del filtro de síntesis LP a muestras K*S2/S1 cuando la tasa de muestreo interno S1 es menor que la tasa de muestreo interno S2; y
truncar el espectro de potencia del filtro de síntesis LP en muestras K*S2/S1 cuando la tasa de muestreo interno S1 es mayor que la tasa de muestreo interno S2.
17. Un dispositivo como se menciona en una cualquiera de las reivindicaciones 13 a 16, en el que el procesador está configurado para calcular el espectro de potencia del filtro de síntesis LP como una energía de una respuesta de frecuencia del filtro de síntesis LP.
18. Un dispositivo como se menciona en una cualquiera de las reivindicaciones 13 a 17, en el que el procesador está configurado para transformar de forma inversa el espectro de potencia modificado del filtro de síntesis LP utilizando una Transformada de Fourier discreta inversa.
19. Un dispositivo como se menciona en una cualquiera de las reivindicaciones 13 a 18, que comprende además una memoria no transitoria que almacena instrucciones de código ejecutables por el procesador para realizar las operaciones de cálculo, modificación, transformación inversa y uso.
20. Una memoria no transitoria legible por ordenador que almacena instrucciones de código que, cuando se ejecutan en un procesador, hacen que el procesador realice un método como se indica en cualquiera de las reivindicaciones 1 a 12.
ES18215702T 2014-04-17 2014-07-25 Método, dispositivo y memoria no transitoria legible por ordenador para codificación y decodificación predictiva linealde señales sonoras en la transición entre tramas que tienen diferentes tasas de muestreo Active ES2827278T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US201461980865P 2014-04-17 2014-04-17

Publications (1)

Publication Number Publication Date
ES2827278T3 true ES2827278T3 (es) 2021-05-20

Family

ID=54322542

Family Applications (2)

Application Number Title Priority Date Filing Date
ES14889618T Active ES2717131T3 (es) 2014-04-17 2014-07-25 Métodos, codificador y decodificador para codificación y decodificación predictiva lineal de señales de sonido tras transición entre tramas que tienen diferentes tasas de muestreo
ES18215702T Active ES2827278T3 (es) 2014-04-17 2014-07-25 Método, dispositivo y memoria no transitoria legible por ordenador para codificación y decodificación predictiva linealde señales sonoras en la transición entre tramas que tienen diferentes tasas de muestreo

Family Applications Before (1)

Application Number Title Priority Date Filing Date
ES14889618T Active ES2717131T3 (es) 2014-04-17 2014-07-25 Métodos, codificador y decodificador para codificación y decodificación predictiva lineal de señales de sonido tras transición entre tramas que tienen diferentes tasas de muestreo

Country Status (20)

Country Link
US (6) US9852741B2 (es)
EP (4) EP4336500A3 (es)
JP (2) JP6486962B2 (es)
KR (1) KR102222838B1 (es)
CN (2) CN113223540B (es)
AU (1) AU2014391078B2 (es)
BR (2) BR122020015614B1 (es)
CA (2) CA2940657C (es)
DK (2) DK3751566T3 (es)
ES (2) ES2717131T3 (es)
FI (1) FI3751566T3 (es)
HR (1) HRP20201709T1 (es)
HU (1) HUE052605T2 (es)
LT (1) LT3511935T (es)
MX (1) MX362490B (es)
MY (1) MY178026A (es)
RU (1) RU2677453C2 (es)
SI (1) SI3511935T1 (es)
WO (1) WO2015157843A1 (es)
ZA (1) ZA201606016B (es)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6486962B2 (ja) 2014-04-17 2019-03-20 ヴォイスエイジ・コーポレーション 異なるサンプリングレートを有するフレーム間の移行による音声信号の線形予測符号化および復号のための方法、符号器および復号器
EP4343763A2 (en) 2014-04-25 2024-03-27 Ntt Docomo, Inc. Linear prediction coefficient conversion device and linear prediction coefficient conversion method
KR101855945B1 (ko) * 2014-05-01 2018-05-10 니폰 덴신 덴와 가부시끼가이샤 부호화 장치, 복호 장치 및 그 방법, 프로그램, 기록 매체
EP2988300A1 (en) * 2014-08-18 2016-02-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Switching of sampling rates at audio processing devices
CN107358956B (zh) * 2017-07-03 2020-12-29 中科深波科技(杭州)有限公司 一种语音控制方法及其控制模组
EP3483886A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Selecting pitch lag
EP3483884A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Signal filtering
EP3483879A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Analysis/synthesis windowing function for modulated lapped transformation
EP3483882A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Controlling bandwidth in encoders and/or decoders
EP3483878A1 (en) * 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio decoder supporting a set of different loss concealment tools
WO2019091576A1 (en) 2017-11-10 2019-05-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoders, audio decoders, methods and computer programs adapting an encoding and decoding of least significant bits
CN114420100B (zh) * 2022-03-30 2022-06-21 中国科学院自动化研究所 语音检测方法及装置、电子设备及存储介质

Family Cites Families (83)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4058676A (en) * 1975-07-07 1977-11-15 International Communication Sciences Speech analysis and synthesis system
JPS5936279B2 (ja) * 1982-11-22 1984-09-03 博也 藤崎 音声分析処理方式
US4980916A (en) 1989-10-26 1990-12-25 General Electric Company Method for improving speech quality in code excited linear predictive speech coding
US5241692A (en) * 1991-02-19 1993-08-31 Motorola, Inc. Interference reduction system for a speech recognition device
WO1994025961A1 (en) * 1993-05-05 1994-11-10 Philips Electronics N.V. Transmission system comprising at least a coder
US5673364A (en) * 1993-12-01 1997-09-30 The Dsp Group Ltd. System and method for compression and decompression of audio signals
US5684920A (en) * 1994-03-17 1997-11-04 Nippon Telegraph And Telephone Acoustic signal transform coding method and decoding method having a high efficiency envelope flattening method therein
US5651090A (en) * 1994-05-06 1997-07-22 Nippon Telegraph And Telephone Corporation Coding method and coder for coding input signals of plural channels using vector quantization, and decoding method and decoder therefor
US5574747A (en) * 1995-01-04 1996-11-12 Interdigital Technology Corporation Spread spectrum adaptive power control system and method
US5864797A (en) 1995-05-30 1999-01-26 Sanyo Electric Co., Ltd. Pitch-synchronous speech coding by applying multiple analysis to select and align a plurality of types of code vectors
JP4132109B2 (ja) * 1995-10-26 2008-08-13 ソニー株式会社 音声信号の再生方法及び装置、並びに音声復号化方法及び装置、並びに音声合成方法及び装置
US5867814A (en) * 1995-11-17 1999-02-02 National Semiconductor Corporation Speech coder that utilizes correlation maximization to achieve fast excitation coding, and associated coding method
JP2778567B2 (ja) 1995-12-23 1998-07-23 日本電気株式会社 信号符号化装置及び方法
EP0821848B1 (en) 1996-02-15 2005-03-16 Koninklijke Philips Electronics N.V. Reduced complexity signal transmission system
DE19616103A1 (de) * 1996-04-23 1997-10-30 Philips Patentverwaltung Verfahren zum Ableiten charakteristischer Werte aus einem Sprachsignal
US6134518A (en) 1997-03-04 2000-10-17 International Business Machines Corporation Digital audio signal coding using a CELP coder and a transform coder
US6233550B1 (en) 1997-08-29 2001-05-15 The Regents Of The University Of California Method and apparatus for hybrid coding of speech at 4kbps
DE19747132C2 (de) * 1997-10-24 2002-11-28 Fraunhofer Ges Forschung Verfahren und Vorrichtungen zum Codieren von Audiosignalen sowie Verfahren und Vorrichtungen zum Decodieren eines Bitstroms
US6311154B1 (en) 1998-12-30 2001-10-30 Nokia Mobile Phones Limited Adaptive windows for analysis-by-synthesis CELP-type speech coding
JP2000206998A (ja) 1999-01-13 2000-07-28 Sony Corp 受信装置及び方法、通信装置及び方法
AU3411000A (en) 1999-03-24 2000-10-09 Glenayre Electronics, Inc Computation and quantization of voiced excitation pulse shapes in linear predictive coding of speech
US6691082B1 (en) * 1999-08-03 2004-02-10 Lucent Technologies Inc Method and system for sub-band hybrid coding
SE9903223L (sv) * 1999-09-09 2001-05-08 Ericsson Telefon Ab L M Förfarande och anordning i telekommunikationssystem
US6636829B1 (en) 1999-09-22 2003-10-21 Mindspeed Technologies, Inc. Speech communication system and method for handling lost frames
CA2290037A1 (en) * 1999-11-18 2001-05-18 Voiceage Corporation Gain-smoothing amplifier device and method in codecs for wideband speech and audio signals
US6732070B1 (en) * 2000-02-16 2004-05-04 Nokia Mobile Phones, Ltd. Wideband speech codec using a higher sampling rate in analysis and synthesis filtering than in excitation searching
FI119576B (fi) * 2000-03-07 2008-12-31 Nokia Corp Puheenkäsittelylaite ja menetelmä puheen käsittelemiseksi, sekä digitaalinen radiopuhelin
US6757654B1 (en) 2000-05-11 2004-06-29 Telefonaktiebolaget Lm Ericsson Forward error correction in speech coding
SE0004838D0 (sv) * 2000-12-22 2000-12-22 Ericsson Telefon Ab L M Method and communication apparatus in a communication system
US7155387B2 (en) * 2001-01-08 2006-12-26 Art - Advanced Recognition Technologies Ltd. Noise spectrum subtraction method and system
JP2002251029A (ja) * 2001-02-23 2002-09-06 Ricoh Co Ltd 感光体及びそれを用いた画像形成装置
US6941263B2 (en) 2001-06-29 2005-09-06 Microsoft Corporation Frequency domain postfiltering for quality enhancement of coded speech
US6895375B2 (en) * 2001-10-04 2005-05-17 At&T Corp. System for bandwidth extension of Narrow-band speech
JP2005515486A (ja) * 2002-01-08 2005-05-26 ディリチウム ネットワークス ピーティーワイ リミテッド Celpによる音声符号間のトランスコーディング・スキーム
US6829579B2 (en) * 2002-01-08 2004-12-07 Dilithium Networks, Inc. Transcoding method and system between CELP-based speech codes
JP3960932B2 (ja) 2002-03-08 2007-08-15 日本電信電話株式会社 ディジタル信号符号化方法、復号化方法、符号化装置、復号化装置及びディジタル信号符号化プログラム、復号化プログラム
CA2388352A1 (en) 2002-05-31 2003-11-30 Voiceage Corporation A method and device for frequency-selective pitch enhancement of synthesized speed
CA2388439A1 (en) * 2002-05-31 2003-11-30 Voiceage Corporation A method and device for efficient frame erasure concealment in linear predictive based speech codecs
CA2388358A1 (en) 2002-05-31 2003-11-30 Voiceage Corporation A method and device for multi-rate lattice vector quantization
US7346013B2 (en) * 2002-07-18 2008-03-18 Coherent Logix, Incorporated Frequency domain equalization of communication signals
US6650258B1 (en) * 2002-08-06 2003-11-18 Analog Devices, Inc. Sample rate converter with rational numerator or denominator
US7337110B2 (en) 2002-08-26 2008-02-26 Motorola, Inc. Structured VSELP codebook for low complexity search
FR2849727B1 (fr) 2003-01-08 2005-03-18 France Telecom Procede de codage et de decodage audio a debit variable
WO2004090870A1 (ja) * 2003-04-04 2004-10-21 Kabushiki Kaisha Toshiba 広帯域音声を符号化または復号化するための方法及び装置
JP2004320088A (ja) * 2003-04-10 2004-11-11 Doshisha スペクトル拡散変調信号発生方法
JP4679049B2 (ja) * 2003-09-30 2011-04-27 パナソニック株式会社 スケーラブル復号化装置
CN1677492A (zh) * 2004-04-01 2005-10-05 北京宫羽数字技术有限责任公司 一种增强音频编解码装置及方法
GB0408856D0 (en) 2004-04-21 2004-05-26 Nokia Corp Signal encoding
CN101023472B (zh) 2004-09-06 2010-06-23 松下电器产业株式会社 可扩展编码装置和可扩展编码方法
US20060235685A1 (en) * 2005-04-15 2006-10-19 Nokia Corporation Framework for voice conversion
US7177804B2 (en) * 2005-05-31 2007-02-13 Microsoft Corporation Sub-band voice codec with multi-stage codebooks and redundant coding
WO2006129166A1 (en) * 2005-05-31 2006-12-07 Nokia Corporation Method and apparatus for generating pilot sequences to reduce peak-to-average power ratio
US7707034B2 (en) 2005-05-31 2010-04-27 Microsoft Corporation Audio codec post-filter
JP4954069B2 (ja) * 2005-06-17 2012-06-13 パナソニック株式会社 ポストフィルタ、復号化装置及びポストフィルタ処理方法
KR20070119910A (ko) 2006-06-16 2007-12-21 삼성전자주식회사 액정표시장치
US8589151B2 (en) * 2006-06-21 2013-11-19 Harris Corporation Vocoder and associated method that transcodes between mixed excitation linear prediction (MELP) vocoders with different speech frame rates
WO2008049221A1 (en) 2006-10-24 2008-05-02 Voiceage Corporation Method and device for coding transition frames in speech signals
US20080120098A1 (en) * 2006-11-21 2008-05-22 Nokia Corporation Complexity Adjustment for a Signal Encoder
WO2009033288A1 (en) 2007-09-11 2009-03-19 Voiceage Corporation Method and device for fast algebraic codebook search in speech and audio coding
US8527265B2 (en) 2007-10-22 2013-09-03 Qualcomm Incorporated Low-complexity encoding/decoding of quantized MDCT spectrum in scalable speech and audio codecs
EP2269188B1 (en) 2008-03-14 2014-06-11 Dolby Laboratories Licensing Corporation Multimode coding of speech-like and non-speech-like signals
CN101320566B (zh) * 2008-06-30 2010-10-20 中国人民解放军第四军医大学 基于多带谱减法的非空气传导语音增强方法
EP2144231A1 (en) * 2008-07-11 2010-01-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Low bitrate audio encoding/decoding scheme with common preprocessing
KR101261677B1 (ko) * 2008-07-14 2013-05-06 광운대학교 산학협력단 음성/음악 통합 신호의 부호화/복호화 장치
US8463603B2 (en) * 2008-09-06 2013-06-11 Huawei Technologies Co., Ltd. Spectral envelope coding of energy attack signal
CN101853240B (zh) * 2009-03-31 2012-07-04 华为技术有限公司 一种信号周期的估计方法和装置
EP2559028B1 (en) 2010-04-14 2015-09-16 VoiceAge Corporation Flexible and scalable combined innovation codebook for use in celp coder and decoder
JP5607424B2 (ja) * 2010-05-24 2014-10-15 古野電気株式会社 パルス圧縮装置、レーダ装置、パルス圧縮方法、およびパルス圧縮プログラム
SG187743A1 (en) * 2010-08-12 2013-03-28 Fraunhofer Ges Forschung Resampling output signals of qmf based audio codecs
US8924200B2 (en) * 2010-10-15 2014-12-30 Motorola Mobility Llc Audio signal bandwidth extension in CELP-based speech coder
KR101747917B1 (ko) * 2010-10-18 2017-06-15 삼성전자주식회사 선형 예측 계수를 양자화하기 위한 저복잡도를 가지는 가중치 함수 결정 장치 및 방법
CN102783034B (zh) 2011-02-01 2014-12-17 华为技术有限公司 用于提供信号处理系数的方法和设备
BR112013020592B1 (pt) * 2011-02-14 2021-06-22 Fraunhofer-Gellschaft Zur Fôrderung Der Angewandten Forschung E. V. Codec de áudio utilizando síntese de ruído durante fases inativas
AR085224A1 (es) 2011-02-14 2013-09-18 Fraunhofer Ges Forschung Codec de audio utilizando sintesis de ruido durante fases inactivas
EP2777041B1 (en) * 2011-11-10 2016-05-04 Nokia Technologies Oy A method and apparatus for detecting audio sampling rate
US9043201B2 (en) * 2012-01-03 2015-05-26 Google Technology Holdings LLC Method and apparatus for processing audio frames to transition between different codecs
BR112015007137B1 (pt) * 2012-10-05 2021-07-13 Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E.V. Aparelho para codificar um sinal de fala que emprega acelp no domínio de autocorrelação
JP6345385B2 (ja) 2012-11-01 2018-06-20 株式会社三共 スロットマシン
US9842598B2 (en) * 2013-02-21 2017-12-12 Qualcomm Incorporated Systems and methods for mitigating potential frame instability
CN103235288A (zh) * 2013-04-17 2013-08-07 中国科学院空间科学与应用研究中心 基于频域的超低旁瓣混沌雷达信号生成及数字实现方法
JP6486962B2 (ja) * 2014-04-17 2019-03-20 ヴォイスエイジ・コーポレーション 異なるサンプリングレートを有するフレーム間の移行による音声信号の線形予測符号化および復号のための方法、符号器および復号器
EP4343763A2 (en) * 2014-04-25 2024-03-27 Ntt Docomo, Inc. Linear prediction coefficient conversion device and linear prediction coefficient conversion method
EP2988300A1 (en) * 2014-08-18 2016-02-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Switching of sampling rates at audio processing devices

Also Published As

Publication number Publication date
SI3511935T1 (sl) 2021-04-30
LT3511935T (lt) 2021-01-11
US10468045B2 (en) 2019-11-05
EP4336500A3 (en) 2024-04-03
EP3511935B1 (en) 2020-10-07
AU2014391078B2 (en) 2020-03-26
CA2940657C (en) 2021-12-21
JP6692948B2 (ja) 2020-05-13
BR112016022466B1 (pt) 2020-12-08
ZA201606016B (en) 2018-04-25
EP3751566B1 (en) 2024-02-28
EP3132443B1 (en) 2018-12-26
CA3134652A1 (en) 2015-10-22
WO2015157843A1 (en) 2015-10-22
RU2677453C2 (ru) 2019-01-16
DK3751566T3 (da) 2024-04-02
EP4336500A2 (en) 2024-03-13
BR122020015614B1 (pt) 2022-06-07
HUE052605T2 (hu) 2021-05-28
US10431233B2 (en) 2019-10-01
EP3751566A1 (en) 2020-12-16
US20210375296A1 (en) 2021-12-02
US11282530B2 (en) 2022-03-22
JP6486962B2 (ja) 2019-03-20
US20200035253A1 (en) 2020-01-30
EP3511935A1 (en) 2019-07-17
US20150302861A1 (en) 2015-10-22
US9852741B2 (en) 2017-12-26
HRP20201709T1 (hr) 2021-01-22
BR112016022466A2 (pt) 2017-08-15
CN106165013A (zh) 2016-11-23
JP2019091077A (ja) 2019-06-13
RU2016144150A (ru) 2018-05-18
EP3132443A4 (en) 2017-11-08
RU2016144150A3 (es) 2018-05-18
CN113223540B (zh) 2024-01-09
EP3132443A1 (en) 2017-02-22
CN113223540A (zh) 2021-08-06
MX2016012950A (es) 2016-12-07
MX362490B (es) 2019-01-18
ES2717131T3 (es) 2019-06-19
KR102222838B1 (ko) 2021-03-04
US20180137871A1 (en) 2018-05-17
AU2014391078A1 (en) 2016-11-03
KR20160144978A (ko) 2016-12-19
CN106165013B (zh) 2021-05-04
CA2940657A1 (en) 2015-10-22
JP2017514174A (ja) 2017-06-01
DK3511935T3 (da) 2020-11-02
MY178026A (en) 2020-09-29
US20180075856A1 (en) 2018-03-15
FI3751566T3 (fi) 2024-04-23
US20230326472A1 (en) 2023-10-12
US11721349B2 (en) 2023-08-08

Similar Documents

Publication Publication Date Title
ES2827278T3 (es) Método, dispositivo y memoria no transitoria legible por ordenador para codificación y decodificación predictiva linealde señales sonoras en la transición entre tramas que tienen diferentes tasas de muestreo
JP5161069B2 (ja) 広帯域音声符号化のためのシステム、方法、及び装置
ES2350494T3 (es) Procedimiento y aparatos para codificar y decodificar una parte de banda alta de una señal de habla.
TWI597721B (zh) 使用多個子頻帶之高頻帶信號寫碼
RU2667973C2 (ru) Способы и системы переключения технологий кодирования в устройстве