ES2756023T3 - Método y dispositivo para decodificar un flujo de bits de voz y audio - Google Patents

Método y dispositivo para decodificar un flujo de bits de voz y audio Download PDF

Info

Publication number
ES2756023T3
ES2756023T3 ES14876788T ES14876788T ES2756023T3 ES 2756023 T3 ES2756023 T3 ES 2756023T3 ES 14876788 T ES14876788 T ES 14876788T ES 14876788 T ES14876788 T ES 14876788T ES 2756023 T3 ES2756023 T3 ES 2756023T3
Authority
ES
Spain
Prior art keywords
frame
current frame
current
decoded
spectral
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES14876788T
Other languages
English (en)
Inventor
Zexin Liu
Xingtao Zhang
Lei Miao
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huawei Technologies Co Ltd
Original Assignee
Huawei Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huawei Technologies Co Ltd filed Critical Huawei Technologies Co Ltd
Application granted granted Critical
Publication of ES2756023T3 publication Critical patent/ES2756023T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/005Correction of errors induced by the transmission channel, if related to the coding algorithm
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/167Audio streaming, i.e. formatting and decoding of an encoded audio signal representation into a data stream for transmission or storage purposes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/06Determination or coding of the spectral characteristics, e.g. of the short-term prediction coefficients
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/93Discriminating between voiced and unvoiced parts of speech signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L2019/0001Codebooks
    • G10L2019/0002Codebook adaptations
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/93Discriminating between voiced and unvoiced parts of speech signals
    • G10L2025/932Decision in previous or following frames

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Mathematical Physics (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

Un método para decodificar un flujo de bits de voz/audio que comprende: determinar (101) si la trama actual es una trama decodificada de manera normal o es una trama decodificada de manera redundante, en donde la trama decodificada de manera normal es una trama cuya información se puede obtener de manera directa decodificando el flujo de bits de la trama actual, y la trama decodificada de manera redundante es una trama a ser reconstruida según la información del flujo de bits redundante de la trama actual obtenida a partir del flujo de bits de otra trama; cuando la trama actual es una trama decodificada de manera normal, decodificar el flujo de bits de la trama actual para obtener el parámetro decodificado de la trama actual, y cuando la trama actual es una trama decodificada de manera redundante, obtener el parámetro decodificado de la trama actual según la información del flujo de bits redundante de la trama actual en el flujo de bits de otra trama; cuando la trama actual es una trama decodificada de manera redundante, o cuando la trama actual es una trama decodificada de manera normal y la trama anterior adyacente a la trama actual es una trama decodificada de manera redundante, realizar las siguientes etapas: realizar (103, 205) el post-procesamiento sobre el parámetro decodificado de la trama actual para obtener un parámetro decodificado post-procesado de la trama actual; y usar (104, 206) el parámetro decodificado post-procesado de la trama actual para reconstruir una señal de voz/audio.

Description

DESCRIPCIÓN
Método y dispositivo para decodificar un flujo de bits de voz y audio
Campo técnico
La presente invención se relaciona con las tecnologías de decodificación de audio, y específicamente, con un método y un aparato para decodificar un flujo de bits de voz/audio.
Antecedentes
En un servicio de comunicaciones móviles, debido a la pérdida de paquetes y a la variación del retardo en la red, es inevitable que se produzca una pérdida de tramas, lo que resulta en que algunas señales de voz/audio no se pueden reconstruir usando un parámetro decodificado y sólo se pueden reconstruir usando una tecnología de ocultación de borrado de trama (FEC). Sin embargo, en un caso de una tasa de pérdida de paquetes alta, si sólo se usa la tecnología FEC en un lado decodificador, la señal de voz/audio que se emite es de una calidad relativamente pobre y no puede alcanzar las necesidades de la comunicación de alta calidad.
Para resolver mejor el problema de degradación de la calidad provocado por una pérdida de tramas de voz/audio, se genera un algoritmo de codificación de redundancia. En un lado codificador, además de que se usa una tasa de bits concreta para codificar la información sobre la trama actual, se usa una menor tasa de bits para codificar la información sobre otra trama distinta de la trama actual, y se usa un flujo de bits a una tasa de bits inferior como información de flujo de bits redundante y se transmite a un lado decodificador junto con el flujo de bits de la información sobre la trama actual. En el lado decodificador, cuando se pierde la trama actual, si una memoria intermedia de inestabilidad o un flujo de bits recibido almacena la información del flujo de bits redundante, se mejora la calidad de la señal de voz/audio que se reconstruye. La trama actual se reconstruye en base a la tecnología FEC solo cuando no existe información del flujo de bits redundante de la trama actual.
El documento EP2017829 A2 describe una técnica de corrección de errores hacia delante (FEC) mejorada para codificar datos de voz, donde un módulo codificador codifica de manera primaria una señal de voz de entrada que usa un modelo de síntesis primario para producir datos codificados primarios, y codifica de manera redundante la señal de voz de entrada usando un modelo de síntesis redundante para producir datos codificados redundantes. Un módulo decodificador decodifica de manera primaria los paquetes usando el modelo de síntesis primaria, y decodifica de manera redundante los paquetes usando el modelo de síntesis redundante. La técnica proporciona interacción entre el modelo de síntesis primario y el modelo de síntesis redundante durante y después de la decodificación para mejorar la calidad de la señal de voz de salida sintetizada. El documento US20100115370 A1 describe un método de ocultación de errores de trama en datos de audio codificados que comprenden la recepción de datos de audio codificados en una pluralidad de tramas, y el uso de uno o más valores de parámetros guardados de una o más tramas anteriores para reconstruir una trama con errores de trama.
Se puede entender a partir de lo anterior que, en el algoritmo de codificación de redundancia existente, la información del flujo de bits redundante es obtenida por medio de codificación mediante el uso de una tasa de bits inferior, y, por lo tanto, se puede provocar inestabilidad de señal, lo que resulta en que la calidad de la señal de voz/audio que se emite no es alta.
Compendio
Todas las ocurrencias futuras de la palabra “realización” o “realizaciones”, si se refieren a combinaciones de características diferentes de aquellas definidas por las reivindicaciones independientes, se refieren a ejemplos que fueron originalmente archivados pero que no representan las realizaciones de la invención reivindicada actualmente: estos ejemplos se muestran sólo por propósitos ilustrativos.
Las realizaciones de la presente invención proporcionan un método y un aparato de decodificación de redundancia para un flujo de bits de voz/audio, que puede mejorar la calidad de una señal de voz/audio que se emite. Según un primer aspecto, se proporciona un método para decodificar un flujo de bits de voz/audio según la reivindicación 1, con maneras de implementación según las reivindicaciones 2-14.
Según un segundo aspecto, se proporciona un decodificador para decodificar un flujo de bits de voz/audio según la reivindicación 15.
Después de obtener un parámetro decodificado de una trama actual por medio de análisis, un lado decodificador puede realizar el post-procesamiento del parámetro decodificado de la trama actual y usar el parámetro decodificado post-procesado de la trama actual para reconstruir una señal de voz/audio, para que se pueda obtener una calidad estable cuando una señal decodificada haga la transición entre una trama decodificada de manera redundante y una trama decodificada de manera normal, mejorando la calidad de una señal de voz/audio que se emite.
Breve descripción de los dibujos
Para describir las soluciones técnicas en las realizaciones de la presente invención de manera más clara, a continuación, se introducen brevemente los dibujos adjuntos requeridos para describir las realizaciones. Evidentemente, los dibujos adjuntos en la siguiente descripción muestran simplemente algunas realizaciones de la presente invención, y una persona de experiencia ordinaria en la técnica puede aún derivar otros dibujos a partir de estos dibujos adjuntos sin grandes esfuerzos creativos.
La FIG. 1 es un diagrama de flujo esquemático de un método para decodificar un flujo de bits de voz/audio según una realización de la presente invención;
La FIG. 2 es un diagrama de flujo de un método para decodificar un flujo de bits de voz/audio según otra realización de la presente invención;
La FIG. 3 es un diagrama estructural esquemático de un decodificador para decodificar un flujo de bits de voz/audio según una realización de la presente invención; y
La FIG. 4 es un diagrama estructural esquemático de un decodificador para decodificar un flujo de bits de voz/audio según una realización de la presente invención.
Descripción de las realizaciones
Para hacer a una persona experta en la técnica entender mejor las soluciones técnicas de la presente invención, a continuación, se describe de manera clara y completa las soluciones técnicas en las realizaciones de la presente invención con referencia a los dibujos adjuntos en las realizaciones de la presente invención. Evidentemente, las realizaciones descritas son simplemente algunas, pero no todas las realizaciones de la presente invención. Todas las otras realizaciones obtenidas por una persona de experiencia ordinaria en las técnicas basadas en las realizaciones de la presente invención caerán sin esfuerzos creativos dentro del alcance de protección de la presente invención.
A continuación, se proporcionan las descripciones respectivas en detalle.
En la especificación, las reivindicaciones, y los dibujos adjuntos de la presente invención, los términos “primero” y “segundo” están destinados a distinguir entre objetos similares, pero no necesariamente a indicar un orden o secuencia específica. Se debería entender que los datos denominados de tal manera son intercambiables en las circunstancias apropiadas para que las realizaciones de la presente invención descritas en la presente memoria puedan, por ejemplo, ser implementadas en órdenes distintos que el orden ilustrado o descrito en la presente memoria. Además, los términos “incluye”, “contiene” y cualesquiera otras variantes implican cubrir una inclusión no exclusiva, por ejemplo, un proceso, un método, un sistema, un producto, o un dispositivo que incluye una lista de etapas o unidades no está necesariamente limitado a esas etapas o unidades, sino que pueden incluir otras etapas o unidades no listados de manera expresa o inherente a tal proceso, método, sistema, producto, o dispositivo.
Se introduce primero un método para decodificar un flujo de bits de voz/audio proporcionado en esta realización de la presente invención. El método para decodificar un flujo de bits de voz/audio proporcionado en esta realización de la presente invención es ejecutado por un decodificador. El decodificador puede ser cualquier aparato que necesite emitir voz, por ejemplo, un teléfono móvil, un ordenador portátil, una tableta, o un ordenador personal.
La FIG. 1 describe un procedimiento de un método para decodificar un flujo de bits de voz/audio según una realización de la presente invención. Esta realización incluye:
101: Determinar si una trama actual es una trama decodificada de manera normal o una trama decodificada de manera redundante.
Una trama decodificada de manera normal implica que la información sobre la trama actual se puede obtener directamente a partir de un flujo de bits de la trama actual por medio de la decodificación. Una trama decodificada de manera redundante implica que la información sobre una trama actual no se puede obtener de manera directa a partir de un flujo de bits de la trama actual por medio de decodificación, pero se puede obtener información del flujo de bits redundante de la trama actual a partir del flujo de bits de otra trama.
En una realización de la presente invención, cuando la trama actual es una trama decodificada de manera normal, el método proporcionado en esta realización de la presente invención es ejecutado sólo cuando una trama anterior a la trama actual es una trama decodificada de manera redundante. La trama anterior a la trama actual y la trama actual son dos tramas inmediatamente vecinas. En otra realización de la presente invención, cuando la trama actual es una trama decodificada de manera normal, el método proporcionado en esta realización de la presente invención es ejecutado sólo cuando existe una trama decodificada de manera redundante entre una cantidad concreta de tramas antes de la trama actual. La cantidad concreta se puede fijar como se necesite, por ejemplo, se puede fijar a 2, 3, 4, o 10.
102: Si la trama actual es una trama decodificada de manera normal o una trama decodificada de manera redundante, obtener un parámetro decodificado de la trama actual por medio de análisis.
El parámetro decodificado de la trama actual puede incluir al menos un parámetro par espectral, una ganancia de libro de códigos adaptativo (marca_ganancia), un libro de códigos algebraicos, y una envolvente de extensión de ancho de banda, donde el parámetro par espectral puede ser al menos uno de entre un parámetro de par espectral lineal (LSP) y un parámetro de par espectral de inmitancia (ISP). Se puede entender que, en esta realización de la presente invención, se puede realizar un post-procesamiento en sólo algún parámetro de los parámetros decodificados o se puede realizar el post procesamiento en todos los parámetros decodificados. Específicamente, se puede seleccionar cuántos parámetros se seleccionan y qué parámetros se seleccionan para el post-procesamiento según los escenarios y entornos de aplicación, que no se limitan en esta realización de la presente invención.
Cuando la trama actual es una trama decodificada de manera normal, la información acerca de la trama actual se puede obtener de manera directa a partir de un flujo de bits de la trama actual por medio de la decodificación, para obtener el parámetro decodificado de la trama actual. Cuando la trama actual es una trama decodificada de manera redundante, el parámetro decodificado de la trama actual se puede obtener según la información del flujo de bits redundante de la trama actual en un flujo de bits de otra trama por medio de análisis.
103: Realizar el post-procesamiento sobre el parámetro decodificado de la trama actual para obtener el parámetro decodificado post-procesado de la trama actual.
Para los diferentes parámetros decodificados, se puede realizar un post-procesamiento diferente. Por ejemplo, el post-procesamiento realizado en el parámetro de par espectral puede estar usando un parámetro de par espectral de la trama actual y un parámetro de par espectral de la trama anterior a la trama actual para realizar la ponderación adaptativa para obtener el parámetro de par espectral post-procesado de la trama actual. El post-procesamiento realizado sobre la ganancia de libro de códigos adaptativo puede estar realizando el ajuste, por ejemplo, la atenuación, sobre la ganancia de libro de códigos adaptativo.
Esta realización de la presente invención no impone limitación sobre el post-procesamiento específico. De manera específica, se puede establecer qué tipo de post-procesamiento se realiza según sea necesario o según los entornos y escenarios de aplicación.
104. Usar el parámetro decodificado post-procesado de la trama actual para reconstruir una señal de voz/audio. Se puede entender a partir de lo anterior que, en esta realización, después de obtener un parámetro decodificado de la trama actual por medio de análisis, el lado decodificador puede realizar el post-procesamiento del parámetro decodificado de la trama actual y usar el parámetro decodificado post-procesado de la trama actual para reconstruir una señal de voz/audio, de manera tal que se pueda obtener una calidad estable cuando la señal decodificada realice la transición entre una trama decodificada de manera redundante y una trama decodificada de manera normal, mejorando la calidad de la señal de voz/audio que se emite.
En una realización de la presente invención, el parámetro decodificado de la trama actual incluye un parámetro de par espectral de la trama actual y la realización del post-procesamiento del parámetro decodificado de la trama actual puede incluir: usar el parámetro de par espectral de la trama actual y un parámetro de par espectral de una trama anterior a la trama actual para obtener el parámetro de par espectral post-procesado de la trama actual. De manera específica, la ponderación adaptativa se realiza sobre el parámetro de par espectral de la trama actual y el parámetro de par espectral de la trama anterior a la trama actual para obtener el parámetro de par espectral post­ procesado de la trama actual. De manera específica, en una realización de la presente invención, se puede usar la siguiente fórmula para obtener mediante el cálculo del parámetro de par espectral post-procesado de la trama actual:
lsp[k] = a*lsp_antigua[k] 8*lsp_nueva[k] 0 < k < M,
donde lsp[k] es el parámetro de par espectral post-procesado de la trama actual, lsp_antiguo[k] es el parámetro de par espectral de la trama anterior, lsp_nuevo[k] es el parámetro de par espectral de la trama actual, M es un orden de los parámetros de par espectrales, a es un peso del parámetro de par espectral de la trama anterior, y 8 es un peso del parámetro de par espectral de la trama actual, donde a > 0, 8 > 0y a 8 = 1.
En otra realización de la presente invención, la siguiente fórmula se puede utilizar para obtener a través del cálculo el parámetro de par espectral post-procesado de la trama actual:
lsp[k] = a*lsp_antiguo[k] p*lsp_med[k] 8*lsp_nuevo[k] 0 < k < M,
donde lsp[k] es el parámetro de par espectral post-procesado de la trama actual, lsp_antiguo[k] es el parámetro de par espectral de la trama anterior, lsp_med[k] es el valor medio del parámetro de par espectral de la trama actual, lsp_nuevo[k] es el parámetro de par espectral de la trama actual, M es un orden de los parámetros de par espectrales, a es un peso del parámetro de par espectral de la trama anterior, p es un peso del valor medio del parámetro de par espectral de la trama actual, y 8 es un peso del parámetro de par espectral de la trama actual, donde a > 0, p > 0, 8 > 0y a p 8 = 1.
Los valores de a, p, y 5 en la fórmula anterior pueden variar según los diferentes entornos y escenarios de aplicación. Por ejemplo, cuando la clase de la señal de la trama actual es sorda, la trama anterior a la trama actual es una trama decodificada de manera redundante, y si la clase de señal de la trama anterior a la trama actual no es sorda, el valor de a es 0 o es menor que un umbral preestablecido (a_UMBRAL), donde el valor aJJMBRAL puede acercarse a 0. Cuando la trama actual es una trama decodificada de manera redundante y una clase de señal de la trama actual no es sorda, si una clase de señal de una siguiente trama a la trama actual es sorda, o un factor de inclinación espectral de la trama anterior a la trama actual es menor que un umbral de factor de inclinación espectral preestablecido, o una clase de señal de una siguiente trama a la trama actual es sorda y un factor de inclinación espectral de la trama anterior a la trama actual es menor que un umbral de factor de inclinación espectral preestablecido, el valor de p es 0 o es menor que un umbral preestablecido (p _JMBRAL), donde el valor de p j JMBRAL puede acercarse a 0. Cuando la trama actual es una trama decodificada de manera redundante y una clase de señal de la trama actual no es sorda, si una clase de señal de una siguiente trama a la trama actual es sorda, o un factor de inclinación espectral de la trama anterior a la trama actual es menor que un umbral de factor de inclinación espectral preestablecido, o una clase de señal de una siguiente trama a la trama actual es sorda y un factor de inclinación espectral de la trama anterior a la trama actual es menor que un umbral de factor de inclinación espectral preestablecido, el valor de 5 es 0 o es menor que un umbral preestablecido (5_JMBRAL), donde el valor de 5_JMBrAL puede acercarse a 0.
El factor de inclinación espectral puede ser positivo o negativo, y un menor factor de inclinación espectral de una trama indica una clase de señal, que está más inclinada a ser sorda, de la trama.
La clase de señal de la trama actual puede ser sorda, sonora, genérica, de transición, inactiva, o similar.
Por lo tanto, para un valor del umbral de factor de inclinación espectral, se pueden establecer los diferentes valores según los diferentes entornos y escenarios de aplicación, por ejemplo, se puede establecer a 0,16, 0,15, 0,165, 0,1, 0,161, o 0,159.
En otra realización de la presente invención, el parámetro decodificado de la trama actual puede incluir una ganancia de libro de códigos adaptativo de la trama actual. Cuando la trama actual es una trama decodificada de manera redundante, si la siguiente trama de la trama actual es una trama sorda, o la siguiente trama de la siguiente trama a la trama actual es una trama sorda y el libro de códigos algebraico de la subtrama actual de la trama actual es una primera cantidad de veces el libro de códigos algebraico de una subtrama anterior a la subtrama actual o un libro de códigos algebraico de la trama anterior a la trama actual, la realización del post-procesamiento sobre el parámetro decodificado de la trama actual puede incluir: atenuar la ganancia de libro de códigos adaptativo de la subtrama actual de la trama actual. Cuando la trama actual o la trama anterior a la trama actual es una trama decodificada de manera redundante, si la clase de señal de la trama actual es genérica y la clase de señal de la siguiente trama a la trama actual es sonora o la clase de señal de la trama anterior a la trama actual es genérica y la clase de señal de la trama actual es sonora, y el libro de códigos algebraico de una subtrama en la trama actual es diferente del libro de códigos algebraico de una subtrama anterior a la subtrama en una segunda cantidad de veces o el libro de códigos algebraico de una subtrama en la trama actual es diferente del libro de códigos algebraico de la trama anterior a la trama actual en una segunda cantidad de veces, la realización del post-procesamiento sobre el parámetro decodificado de la trama actual puede incluir: ajustar una ganancia de libro de códigos adaptativo de la subtrama actual de la trama actual según al menos uno de entre una relación de un libro de códigos de la subtrama actual de la trama actual con un libro de códigos de una subtrama vecina a la subtrama actual de la trama actual, la relación de la ganancia de libro de códigos adaptativo de la subtrama actual de la trama actual con la ganancia de libro de códigos adaptativo de la subtrama vecina a la subtrama actual de la trama actual, y la relación del libro de códigos algebraico de la subtrama actual de la trama actual con el libro de códigos algebraico de la trama anterior a la trama actual.
Los valores de la primera cantidad y de la segunda cantidad se pueden establecer según los entornos y escenarios específicos de aplicación. Los valores pueden ser enteros o pueden ser no enteros, donde los valores de la primera cantidad y de la segunda cantidad puede ser los mismos o pueden ser diferentes. Por ejemplo, el valor de la primera cantidad puede ser 2, 2,5, 3, 3,4, o 4 y el valor de la segunda cantidad puede ser 2, 2,6, 3, 3,5, o 4.
Para el factor de atenuación usado cuando la ganancia de libro de códigos adaptativo de la subtrama actual de la trama actual es atenuada, los diferentes valores se pueden establecer según los diferentes entornos y escenarios de aplicación.
En otra realización de la presente invención, el parámetro decodificado de la trama actual incluye un libro de códigos algebraico de la trama actual. Cuando la trama actual es una trama decodificada de manera redundante, si la clase de señal de la siguiente trama a la trama actual es sorda, el factor de inclinación espectral de la trama anterior a la trama actual es menor que el umbral de factor de inclinación espectral preestablecido, y el libro de códigos algebraico de al menos una subtrama de la trama actual es 0, la realización del post-procesamiento sobre el parámetro decodificado de la trama actual incluye: usar ruido aleatorio o un libro de códigos algebraico distinto de cero de la subtrama anterior de la trama actual de la trama actual como un libro de códigos algebraico de una trama todo 0 de la trama actual. Para el umbral de factor de inclinación espectral, los diferentes valores se pueden establecer según los diferentes entornos o escenarios de aplicación, por ejemplo, se puede establecer a 0,16, 0,15, 0,165, 0,1, 0,161, o 0,159.
En otra realización de la presente invención, el parámetro decodificado de la trama actual incluye una envolvente de extensión de ancho de banda de la trama actual. Cuando la trama actual es una trama decodificada de manera redundante, la trama actual no es una trama sorda, y la siguiente trama a la trama actual es una trama sorda, si el factor de inclinación espectral de la trama anterior a la trama actual es menor que el umbral de factor de inclinación espectral preestablecido, la realización del post-procesamiento sobre el parámetro decodificado de la trama actual puede incluir: realizar la corrección sobre la envolvente de extensión de ancho de banda de la trama actual según a al menos una de entre una envolvente de extensión de ancho de banda de la trama anterior a la trama actual y el factor de inclinación espectral. Un factor de corrección usado cuando se realiza la corrección sobre la envolvente de extensión de ancho de banda de la trama actual es inversamente proporcional al factor de inclinación espectral de la trama anterior a la trama actual y es directamente proporcional a la relación de la envolvente de extensión de ancho de banda de la trama anterior a la trama actual con la envolvente de extensión de ancho de banda de la trama actual. Para el umbral de factor de inclinación espectral, se pueden establecer diferentes valores según los diferentes entornos y escenarios de aplicación, por ejemplo, se puede establecer a 0,16, 0,15, 0,165, 0,1, 0,161, o 0,159.
En otra realización de la presente invención, el parámetro decodificado de la trama actual incluye una envolvente de extensión de ancho de banda de la trama actual. Si la trama actual es una trama decodificada de manera redundante, la trama anterior a la trama actual es una trama decodificada de manera normal, la clase de señal de la trama actual es la misma que la clase de señal de la trama anterior a la trama actual o la trama actual es un modo de predicción de la recodificación de redundancia, la realización del post-procesamiento sobre el parámetro decodificado de la trama actual incluye; usar una envolvente de extensión de ancho de banda de la trama anterior a la trama actual para realizar el ajuste sobre la envolvente de extensión de ancho de banda de la trama actual. El modo de predicción de la decodificación de redundancia indica que, cuando se codifica la información del flujo de bits redundante, se usan más bits para codificar la parte de ganancia de libro de códigos adaptativo y se usan menos bits para codificar una parte de libro de códigos algebraico o la parte de libro de códigos algebraico incluso puede no ser codificada.
Se puede entender a partir de lo anterior que, en una realización de la presente invención, en la transición entre la trama sorda y una trama no sorda (cuando la trama actual es una trama sorda y la trama decodificada de manera redundante, la trama anterior o la siguiente trama a la trama actual es una trama no sorda y una trama decodificada de manera normal, o la trama actual es una trama no sorda y una trama decodificada de manera normal y la trama anterior o la trama siguiente a la trama actual es una trama no sorda y una trama decodificada de manera redundante), el post-procesamiento puede ser realizado sobre el parámetro decodificado de la trama actual, para eliminar un fenómeno de clic en la transición entre-tramas entre la trama sorda y la trama no sorda, mejorando la calidad de la señal de voz/audio que se emite. En otra realización de la presente invención, en la transición entre una trama genérica y una trama sonora (cuando la trama actual es una trama genérica y una trama decodificada de manera redundante, la trama anterior o la siguiente trama a la trama actual es una trama sonora y una trama decodificada de manera normal, o la trama actual es una trama de sonora y una trama decodificada de manera normal y la trama anterior o la trama siguiente a la trama actual es una trama genérica y una trama decodificada de manera redundante), el post-procesamiento se puede realizar en el parámetro decodificado de la trama actual, para rectificar el fenómeno de inestabilidad de energía en la transición entre la trama genérica y la trama sonora, mejorando la calidad de la señal de voz/audio que se emite. En otra realización de la presente invención, cuando la trama actual es una trama decodificada de manera redundante, la trama actual no es una trama sorda, y la siguiente trama a la trama actual es una trama sorda, el ajuste puede ser realizado sobre la envolvente de extensión de ancho de banda de la trama actual, para rectificar el fenómeno de inestabilidad de energía en la extensión de ancho de banda en el dominio del tiempo, mejorando la calidad de la señal de voz/audio que se emite.
La FIG. 2 describe un procedimiento de un método para decodificar un flujo de bits de voz/audio según otra realización de la presente invención. Esta realización incluye:
201: Determinar si la trama actual es una trama decodificada de manera normal; si es así, realizar la etapa 204, y en otro caso, realizar la etapa 202.
Específicamente, si la trama actual es una trama decodificada de manera normal se puede determinar en base al algoritmo de gestión de memoria intermedia de inestabilidad (JBM).
202: Determinar si la información del flujo de bits redundante de la trama actual existe; si es así, realizar la etapa 204, y en otro caso, realizar la etapa 203.
Si la información del flujo de bits redundante de la trama actual existe, la trama actual es una trama decodificada de manera redundante. Específicamente, si la información del flujo de bits redundante de la trama actual existe puede ser determinado a partir de la memoria intermedia de inestabilidad o de un flujo de bits recibido.
203: Reconstruir una señal de voz/audio de la trama actual en base a una tecnología FEC y finalizar el procedimiento.
204: Obtener un parámetro decodificado de la trama actual por medio de análisis.
Cuando la trama actual es una trama decodificada de manera normal, la información sobre la trama actual se puede obtener de manera directa a partir de un flujo de bits de la trama actual por medio de decodificación, para obtener el parámetro decodificado de la trama actual. Cuando la trama actual es una trama decodificada de manera redundante, el parámetro decodificado de la trama actual puede ser obtenido según la información del flujo de bits redundante de la trama actual por medio de análisis.
205: Realizar el post-procesamiento sobre el parámetro decodificado de la trama actual para obtener un parámetro decodificado post-procesado de la trama actual.
206: Usar el parámetro decodificado post-procesado de la trama actual para reconstruir una señal de voz/audio. Las etapas 204 a 206 pueden ser realizadas mediante referencia a las etapas 102 a 104, y los detalles no se describen en la presente memoria de nuevo.
Se puede entender a partir de lo anterior que, en esta realización, después de obtener un parámetro decodificado de una trama actual por medio de análisis, un lado decodificador puede realizar un post-procesamiento sobre el parámetro decodificado de la trama actual y usar un parámetro decodificado post-procesado de la trama actual para reconstruir una señal de voz/audio, de manera que se puede obtener una calidad estable cuando una señal decodificada realiza la transición entre una trama decodificada de manera redundante y una trama decodificada de manera normal, mejorando la calidad de una señal de voz/audio que se emite.
En esta realización de la presente invención, el parámetro decodificado de la trama actual obtenido mediante análisis por un decodificador puede incluir al menos uno de entre un parámetro de par espectral de la trama actual, una ganancia de libro de códigos adaptativo de la trama actual, un libro de códigos algebraico de la trama actual, y una envolvente de extensión de ancho de banda de la trama actual. Se puede entender que, incluso si el decodificador obtiene al menos dos de los parámetros decodificados por medio de análisis, el decodificador puede aún realizar un post-procesamiento sobre sólo uno de los al menos dos parámetros decodificados. Por lo tanto, se puede establecer sobre cuántos parámetros decodificados y qué parámetros decodificados el decodificador realizar de manera específica el post-procesamiento según los entornos y escenarios de aplicación.
A continuación, se describe un decodificador para decodificar un flujo de bits de voz/audio según una realización de la presente invención. El decodificador puede ser específicamente cualquier aparato que necesite emitir voz, por ejemplo, un teléfono móvil, un ordenador portátil, una tableta, o un ordenador personal-La FIG. 3 describe una estructura de un decodificador para decodificar un flujo de bits de voz/audio según una realización de la presente invención. El decodificador incluye: una unidad 301 de determinación, una unidad 302 de análisis, una unidad 303 de post-procesamiento, y una unidad 304 de reconstrucción.
La unidad 301 de determinación se configura para determinar si la trama actual es una trama decodificada de manera normal.
Una trama decodificada de manera normal quiere decir que la información sobre una trama actual se puede obtener de manera directa a partir de un flujo de bits de la trama actual por medio de decodificación. Una trama decodificada de manera redundante quiere decir que la información sobre la trama actual no se puede obtener de manera directa a partir del flujo de bits de la trama actual por medio de decodificación, sino que la información del flujo de bits redundante de la trama actual se puede obtener a partir de un flujo de bits de otra trama.
En una realización de la presente invención, cuando la trama actual es una trama decodificada de manera normal, el método proporcionado en esta realización de la presente invención es ejecutado sólo cuando la trama anterior a la trama actual es una trama decodificada de manera redundante. La trama anterior a la trama actual y la trama actual son dos tramas inmediatamente vecinas. En otra realización de la presente invención, cuando la trama actual es una trama decodificada de manera normal, el método proporcionado en esta realización de la presente invención es ejecutado sólo cuando existe una trama decodificada de manera redundante entre una cantidad concreta de tramas antes de la trama actual. La cantidad concreta se puede establecer según sea necesario, por ejemplo, se puede establecer a 2, 3, 4, o 10.
La unidad 302 de análisis se configura para: cuando la unidad 301 de determinación determine que la trama actual es una trama decodificada de manera normal o una trama decodificada de manera redundante, obtener un parámetro decodificado de la trama actual por medio de análisis.
El parámetro decodificado de la trama actual puede incluir al menos uno de entre un parámetro de par espectral, una ganancia de libro de códigos adaptativo (marca_ganancia), un libro de códigos algebraico, y una envolvente de extensión de ancho de banda, donde el parámetro de par espectral puede ser al menos uno de entre un parámetro LSP y un parámetro ISP. Se puede entender que, en esta realización de la presente invención, se puede realizar un post-procesamiento sobre sólo cualquier parámetro de los parámetros decodificados o se puede realizar el post­ procesamiento sobre todos los parámetros decodificados. Específicamente, se puede seleccionar cuántos parámetros se seleccionan y qué parámetros se seleccionan para el post-procesamiento según los escenarios y entornos de aplicación, que no se limitan en esta realización de la presente invención.
Cuando la trama actual es una trama decodificada de manera normal, la información sobre la trama actual se puede obtener de manera directa a partir de un flujo de bits de la trama actual por medio de decodificación, para obtener el parámetro decodificado de la trama actual. Cuando la trama actual es una trama decodificada de manera redundante, el parámetro decodificado de la trama actual se puede obtener según la información del flujo de bits redundante de la trama actual en un flujo de bits de otra trama por medio de análisis.
La unidad 303 de post-procesamiento se configura para realizar el post-procesamiento sobre el parámetro decodificado de la trama actual obtenida mediante la unidad 302 de análisis para obtener un parámetro decodificado post-procesado de la trama actual.
Para diferentes parámetros decodificados, se puede realizar diferentes post-procesamientos. Por ejemplo, el post­ procesamiento realizado sobre un parámetro de par espectral puede estar usando un parámetro de par espectral de la trama actual y un parámetro de par espectral de una trama anterior a la trama actual para realizar la ponderación adaptativa para obtener el parámetro de par espectral post-procesado de la trama actual. El post-procesamiento realizado sobre una ganancia de libro de códigos adaptativo puede ser realizando el ajuste, por ejemplo, la atenuación, sobre la ganancia de libro de códigos adaptativo.
Esta realización de la presente invención no impone limitación sobre el post-procesamiento específico. Específicamente, se puede establecer qué tipo de post-procesamiento se realiza según sea necesario o según los entornos y escenarios de aplicación.
La unidad 304 de reconstrucción se configura para usar el parámetro decodificado post-procesado de la trama actual obtenida mediante la unidad 303 de post-procesamiento para reconstruir una señal de voz/audio.
Se puede entender de lo anterior que, en esta realización, después de obtener un parámetro decodificado de una trama actual por medio de análisis, un lado decodificador puede realizar el post-procesamiento sobre el parámetro decodificado de la trama actual y el uso de un parámetro decodificado post-procesado de la trama actual para reconstruir una señal de voz/audio, para que se pueda obtener una calidad estable cuando una señal decodificada haga la transición entre una trama decodificada de manera redundante y una trama decodificada de manera normal, mejorando la calidad de la señal de voz/audio que se emite.
En otra realización de la presente invención, el parámetro decodificado incluye el parámetro de par espectral y la unidad 303 de post-procesamiento se puede configurar de manera específica para: cuando el parámetro decodificado de la trama actual incluya el parámetro de par espectral de la trama actual, use el parámetro de par espectral de la trama actual y un parámetro de par espectral de una trama anterior a la trama actual para obtener el parámetro de par espectral post-procesado de la trama actual. De manera específica, la ponderación adaptativa se realiza en el parámetro de par espectral de la trama actual y el parámetro de par espectral de la trama anterior a la trama actual para obtener el parámetro de par espectral post-procesado de la trama actual. De manera específica, en una realización de la presente invención, la unidad 303 de post-procesamiento puede usar la siguiente fórmula para obtener a través del cálculo del parámetro de par espectral post-procesado de la trama actual:
lsp[k] = a*lsp_antiguo[k] 8*lsp_nuevo[k] 0 < k < M,
donde lsp[k] es el parámetro de par espectral post-procesado de la trama actual, lsp_antiguo[k] es el parámetro de par espectral de la trama anterior, lsp_nuevo[k] es el parámetro de par espectral de la trama actual, M es un orden de los parámetros de par espectrales, a es un peso del parámetro de par espectral de la trama anterior, y 8 es un peso del parámetro de par espectral de la trama actual, donde a >0 y 8 > 0.
En una realización de la presente invención, la unidad 303 de post-procesamiento puede usar la siguiente fórmula para obtener a través del cálculo el parámetro de par espectral post-procesado de la trama actual:
lsp[k] = a* st - >lsp_antiguo[k] p*lsp_med[k] 8*lsp_nuevo[k] 0 < k < M,
donde lsp[k] es el parámetro de par espectral post-procesado de la trama actual, lsp_antiguo[k] es el parámetro de par espectral de la trama anterior, lsp_med[k] es el valor medio del parámetro de par espectral de la trama actual, lsp_nuevo[k] es el parámetro de par espectral de la trama actual, M es un orden de los parámetros de par espectrales, a es un peso del parámetro de par espectral de la trama anterior, p es un peso del valor medio del parámetro de par espectral de la trama actual, y 8 es un peso del parámetro de par espectral de la trama actual, donde a > 0, p > 0 y 8 > 0.
Los valores de a, p, y 8 en la fórmula anterior pueden variar según los diferentes entornos y escenarios de aplicación. Por ejemplo, cuando la clase de señal de la trama actual es sorda, la trama anterior a la trama actual es una trama decodificada de manera redundante, y si la clase de señal de la trama anterior a la trama actual no es sorda, el valor de a es 0 o es menor que un umbral preestablecido (a_UMBRAL), donde el valor aJJMBRAL puede acercarse a 0. Cuando la trama actual es una trama decodificada de manera redundante y una clase de señal de la trama actual no es sorda, si una clase de señal de una siguiente trama a la trama actual es sorda, o un factor de inclinación espectral de la trama anterior a la trama actual es menor que un umbral de factor de inclinación espectral preestablecido, o una clase de señal de una siguiente trama de la trama actual es sorda y un factor de inclinación espectral de la trama anterior a la trama actual es menor que un umbral de factor de inclinación espectral preestablecido, el valor de p es 0 o es menor que un umbral preestablecido (p _UMBRAL), donde el valor de p _UMBRAL puede acercarse a 0. Cuando la trama actual es una trama decodificada de manera redundante y una clase de señal de la trama actual no es sorda, si una clase de señal de una siguiente trama a la trama actual es sorda, o un factor de inclinación espectral de la trama anterior a la trama actual es menor que un umbral de factor de inclinación espectral preestablecido, o una clase de señal de una siguiente trama a la trama actual es sorda y un factor de inclinación espectral de la trama anterior a la trama actual es menor que un umbral de factor de inclinación espectral preestablecido, el valor de 8 es 0 o es menor que un umbral preestablecido (5_UMBRAL), donde el valor de 8_UMBRAL puede acercarse a 0.
El factor de inclinación espectral puede ser positivo o negativo, y un menor factor de inclinación espectral de una trama indica una clase de señal, que está más inclinada a ser sorda, de la trama.
La clase de señal de la trama actual puede ser sorda, sonora, genérica, de transición, inactiva, o similar.
Por lo tanto, para un valor del umbral de factor de inclinación espectral, se pueden establecer los diferentes valores según los diferentes entornos y escenarios de aplicación, por ejemplo, se puede establecer a 0,16, 0,15, 0,165, 0,1, 0,161, o 0,159.
En otra realización de la presente invención, la unidad 303 de post-procesamiento se configura específicamente para: cuando el parámetro decodificado de la trama actual incluye una ganancia de libro de códigos adaptativo de la trama actual y la trama actual es una trama decodificada de manera redundante, si la siguiente trama a la trama actual es una trama sorda, o la siguiente trama a la siguiente trama de la trama actual es una trama sorda y el libro de códigos algebraico de la subtrama actual de la trama actual es una primera cantidad de veces el libro de códigos algebraico de una subtrama anterior a la subtrama actual o el libro de códigos de la trama anterior a la trama actual, atenuar la ganancia de libro de códigos adaptativo de la subtrama actual de la trama actual.
Para un factor de atenuación usado cuando la ganancia de libro de códigos adaptativo de la subtrama actual de la trama actual se atenúa, se pueden establecer diferentes valores según los diferentes entornos y escenarios de aplicación.
El valor de la primera cantidad se puede establecer según los entornos y escenarios de aplicación específicos. El valor puede ser un entero o puede ser un no entero. Por ejemplo, el valor de la primera cantidad puede ser 2, 2,5, 3, 3,4, o 4.
En otra realización de la presente invención, la unidad 303 de post procesamiento se configura específicamente para: cuando el parámetro decodificado de la trama actual incluya una ganancia de libro de códigos adaptativo de la trama actual, la trama actual o la trama anterior a la trama actual es una trama decodificada de manera redundante, la clase de señal de la trama actual es genérica y la clase de señal de la siguiente trama a la trama actual es sonora o la clase de señal de la trama anterior a la trama actual es genérica y la clase de señal de la trama actual es sonora, y el libro de códigos algebraico de una subtrama en la trama actual es diferente del libro de códigos algebraico de una subtrama anterior a la subtrama por una segunda cantidad de veces o un libro de códigos algebraico de una subtrama en la trama actual es diferente del libro de códigos algebraico de la trama anterior de la trama actual por una segunda cantidad de veces, ajustar la ganancia de libro de códigos adaptativo de una subtrama actual de la trama actual según al menos uno de entre una relación de un libro de códigos algebraico de la subtrama actual de la trama actual con un libro de códigos algebraico de una subtrama vecina de la subtrama actual de la trama actual, una relación de una ganancia de libro de códigos adaptativo de la subtrama actual de la trama actual con una ganancia de libro de códigos adaptativos de la subtrama vecina a la subtrama actual de la trama actual, y una relación del libro de códigos algebraico de la subtrama actual de la trama actual con el libro de códigos algebraico de la trama anterior a la trama actual.
El valor de la segunda cantidad se puede establecer según los entornos y escenarios de aplicación específicos. El valor puede ser un entero o puede ser un no entero. Por ejemplo, el valor de la segunda cantidad puede ser 2, 2,6, 3, 3,5, o 4.
En otra realización de la presente invención, la unidad 303 de post-procesamiento se configura de manera específica para: cuando el parámetro decodificado de la trama actual incluye un libro de códigos algebraico de la trama actual, la trama actual es una trama decodificada de manera redundante, la clase de señal de la trama siguiente a la trama actual es sorda, el factor de inclinación espectral de la trama anterior a la trama actual es menor que el umbral de factor de inclinación espectral preestablecido, y el libro de códigos algebraico de al menos una subtrama de la trama actual es 0, usar ruido aleatorio o el libro de códigos algebraico distinto de cero de la subtrama anterior a la subtrama actual de la trama actual como el libro de códigos algebraico de todas las subtramas 0 de la trama actual. Para el umbral de factor de inclinación espectral, se pueden establecer diferentes valores según diferentes entornos o escenarios de aplicación, por ejemplo, se puede establecer a 0,16, 0,15, 0,165, 0,1, 0,161, o 0,159.
En otra realización de la presente invención, la unidad 303 de post-procesamiento se configura de manera específica para: cuando la trama actual es una trama decodificada de manera redundante, el parámetro decodificado incluye una envolvente de extensión de ancho de banda, la trama actual no es una trama sorda y la siguiente trama a la trama actual es una trama sorda, y el factor de inclinación espectral de la trama anterior a la trama actual es menor que el umbral del factor de inclinación espectral preestablecido, realizar la corrección sobre la extensión de ancho de banda de la trama actual según al menos uno de entre la envolvente de extensión de ancho de banda de la trama anterior a la trama actual y el factor de inclinación espectral de la trama anterior a la trama actual. Un factor de corrección usado cuando se realiza la corrección sobre la envolvente de extensión de ancho de banda de la trama actual es inversamente proporcional al factor de inclinación espectral de la trama anterior a la trama actual y es directamente proporcional a la relación de la envolvente de extensión de ancho de banda de la trama anterior a la trama actual con la envolvente de extensión de ancho de banda de la trama actual. Para el umbral de inclinación espectral, se pueden establecer diferentes valores según los diferentes entornos y escenarios de aplicación., por ejemplo, se puede establecer a 0,16, 0,15, 0,165, 0,1, 0,161, o 0,159.
En otra realización de la presente invención, la unidad 303 de post-procesamiento se configura de manera específica para: cuando la trama actual es una trama decodificada de manera redundante, el parámetro decodificado incluye una envolvente de extensión de ancho de banda, la trama anterior a la trama es una trama decodificada de manera normal, y la clase de señal de la trama actual es la misma que la clase de señal de la trama anterior a la trama actual o la trama actual es un modo de predicción de la decodificación de redundancia, usar una envolvente de extensión de ancho de banda de la trama anterior a la trama actual para realizar el ajuste sobre la envolvente de extensión de ancho de banda de la trama actual.
Se puede entender de lo anterior que, en una realización de la presente invención, en la transición entre una trama sorda y una trama no sorda (cuando la trama actual es una trama sorda y una trama decodificada de manera redundante, la trama anterior o la trama siguiente a la trama actual es una trama no sorda y una trama decodificada de manera normal, o la trama actual es una trama no sorda y una trama decodificada de manera normal y la trama anterior o a trama siguiente a la trama actual es una trama sorda y una trama decodificada de manera normal). Se puede realizar el post-procesamiento sobre el parámetro decodificado de la trama actual, para eliminar el fenómeno de clic en la transición entre-tramas entre la trama sorda y la trama no sorda, mejorando la calidad de la señal de voz/audio que se emite. En otra realización de la presente, en la transición entre una trama genérica y una trama sonora (cuando la trama actual es una trama genérica y una trama decodificada de manera redundante, la trama anterior o la trama siguiente a la trama actual es una trama sonora y una trama decodificada de manera normal, o la trama actual es una trama sonora y una trama decodificada de manera normal y la trama anterior o la trama siguiente a la trama actual es una trama genérica y una trama decodificada de manera redundante), se puede realizar el post-'procesamiento sobre el parámetro decodificado de la trama actual, para rectificar el fenómeno de inestabilidad de energía en la transición entre la trama genérica y la trama sonora, mejorando la calidad de la señal de voz/audio que se emite. En otra realización de la presente invención, cuando la trama actual es una trama decodificada de manera redundante, la trama actual no es una trama sorda, y la trama siguiente a la trama actual es una trama sorda, se puede realizar el ajuste sobre una envolvente de extensión de ancho de banda de la trama actual, para rectificar el fenómeno de inestabilidad de energía en la extensión de ancho de bando en el dominio del tiempo, mejorando la calidad de la señal de voz/audio que se emite.
La FIG. 4 describe una estructura de un decodificador para decodificar un flujo de bits de voz/audio según otra realización de la presente invención. El decodificador incluye: al menos un bus 401, al menos un procesador 402 conectado al bus 401, y al menos una memoria 403 conectada al bus 401. El procesador 402 invoca el código almacenado en la memoria 403 usando el bus 401, para determinar si la trama actual es una trama decodificada de manera normal o una trama decodificada de manera redundante; si la trama actual es una trama decodificada de manera normal o una trama decodificada de manera redundante, obtener un parámetro decodificado de la trama actual por medio de análisis; realizar el post-procesamiento sobre el parámetro decodificado de la trama actual para obtener un parámetro decodificado post-procesado de la trama actual; y usar el parámetro decodificado post­ procesado de la trama actual para reconstruir la señal de voz/audio.
Se puede entender de lo anterior que, en esta realización, después de obtener un parámetro decodificado de una trama actual por medio de análisis, el lado decodificador puede realizar el post-procesamiento sobre el parámetro decodificado de la trama actual y usar un parámetro decodificado post-procesado de la trama actual para reconstruir una señal de voz/audio, para que se pueda obtener una calidad estable cuando la señal decodificada realice la transición entre una trama decodificada de manera redundante y una trama decodificada de manera normal, mejorando la calidad de la señal de voz/audio que se emite.
En una realización de la presente invención, el parámetro decodificado de la trama actual incluye el parámetro de par espectral de la trama actual y el procesador 402 invoca el código almacenado en la memoria 403 mediante el uso del bus 401 para usar el parámetro de par espectral de la trama actual y el parámetro de par espectral de la trama anterior a la trama actual para obtener el parámetro de par espectral post-procesado de la trama actual. De manera específica, la ponderación específica se realiza sobre el parámetro de par espectral de la trama actual y el parámetro de par espectral de la trama anterior a la trama actual para obtener el parámetro de par espectral post­ procesado de la trama actual. De manera específica, en una realización de la presente invención, la siguiente fórmula se puede usar para obtener a través del cálculo el parámetro de par espectral post-procesado de la trama actual:
lsp[k] = a*lsp_antiguo[k] 8*lsp_nuevo[k] 0 < k < M,
donde lsp[k] es el parámetro de par espectral post-procesado de la trama actual, lsp_nuevo[k] es el parámetro de par espectral de la trama anterior, M es un orden de los parámetros de par espectrales, a es un peso del parámetro de par espectral de la trama anterior, y 8 es un peso del parámetro de par espectral de la trama actual, donde a > 0 y 8 > 0.
En otra realización de la presente invención, la siguiente fórmula se puede utilizar para obtener a través del cálculo el parámetro de par espectral post-procesado de la trama actual:
lsp[k] = a*lsp_antiguo[k] p*lsp_med[k] 8*lsp_nuevo[k] 0 < k < M,
donde lsp[k] es el parámetro de par espectral post-procesado de la trama actual, lsp_antiguo[k] es el parámetro de par espectral de la trama anterior, lsp_med[k] es el valor medio del parámetro de par espectral de la trama actual, lsp_nuevo[k] es el parámetro de par espectral de la trama actual, M es un orden de los parámetros de par espectrales, a es un peso del parámetro de par espectral de la trama anterior, p es un peso del valor medio del parámetro de par espectral de la trama actual, y 8 es un peso del parámetro de par espectral de la trama actual, donde a > 0, p > 0 y 8 > 0.
Los valores de a, p, y 8 en la fórmula anterior pueden variar según los diferentes entornos y escenarios de aplicación. Por ejemplo, cuando la clase de la señal de la trama actual es sorda, la trama anterior a la trama actual es una trama decodificada de manera redundante, y la clase de señal de la trama anterior a la trama actual no es sorda, el valor de a es 0 o es menor que un umbral preestablecido (a_UMBRAL), donde el valor aJJMBRAL puede acercarse a 0. Cuando la trama actual es una trama decodificada de manera redundante y una clase de señal de la trama actual no es sorda, si una clase de señal de una siguiente trama a la trama actual es sorda, o un factor de inclinación espectral de la trama anterior a la trama actual es menor que un umbral de factor de inclinación espectral preestablecido, o una clase de señal de una siguiente trama a la trama actual es sorda y un factor de inclinación espectral de la trama anterior a la trama actual es menor que un umbral de factor de inclinación espectral preestablecido, el valor de p es 0 o es menor que un umbral preestablecido (p _JMBRAL), donde el valor de p j JMBRAL puede acercarse a 0. Cuando la trama actual es una trama decodificada de manera redundante y una clase de señal de la trama actual no es sorda, si una clase de señal de una siguiente trama a la trama actual es sorda, o un factor de inclinación espectral de la trama anterior a la trama actual es menor que un umbral de factor de inclinación espectral preestablecido, o una clase de señal de una siguiente trama a la trama actual es sorda y un factor de inclinación espectral de la trama anterior a la trama actual es menor que un umbral de factor de inclinación espectral preestablecido, el valor de 8 es 0 o es menor que un umbral preestablecido (8_JMBRAL), donde el valor de 8_JMBRAL puede acercarse a 0.
El factor de inclinación espectral puede ser positivo o negativo, y un menor factor de inclinación espectral de una trama indica una clase de señal, que está más inclinada a ser sorda, de la trama.
La clase de señal de la trama actual puede ser sorda, sonora, genérica, de transición, inactiva, o similar.
Por lo tanto, para un valor del umbral de factor de inclinación espectral, se pueden establecer los diferentes valores según los diferentes entornos y escenarios de aplicación, por ejemplo, se puede establecer a 0,16, 0,15, 0,165, 0,1, 0,161, o 0,159.
En otra realización de la presente invención, el parámetro decodificado de la trama actual puede incluir una ganancia de libro de códigos adaptativo de la trama actual. Cuando la trama actual es una trama decodificada de manera redundante, si la siguiente trama a la trama actual es una trama sorda, o la siguiente trama a la siguiente trama a la trama actual es una trama sorda y el libro de códigos algebraico de la subtrama actual de la trama actual es una primera cantidad de veces el libro de códigos de la subtrama anterior a la subtrama actual o el libro de códigos de la trama anterior a la trama actual, el procesador 402 invoca el código almacenado en la memoria 403 mediante el uso del bus 401 para atenuar la ganancia de libro de códigos adaptativo de la subtrama actual de la trama actual. Cuando la trama actual o la trama anterior a la trama actual es una trama decodificada de manera redundante, si la clase de señal de la trama actual es genérica y la clase de señal de la siguiente trama de la trama actual es sonora o la clase de señal dela trama anterior a la trama actual es genérica y la clase de señal de la trama actual es sonora y el libro de códigos algebraico de una subtrama en la trama actual es diferente del libro de códigos algebraico de la subtrama anterior de la subtrama por una segunda cantidad de veces o el libro de códigos algebraico de la subtrama en la trama actual es diferente del libro de códigos de la trama anterior a la trama actual por una segunda cantidad de veces, la realización del post-procesamiento sobre el parámetro decodificado de la trama actual puede incluir: ajustar una ganancia de libro de códigos adaptativo de una subtrama actual de la trama actual según al menos uno de entre una relación de un libro de códigos algebraico de la subtrama actual de la trama actual con un libro de códigos algebraico de una subtrama vecina de la subtrama actual de la trama actual, una relación de la ganancia de libro de códigos adaptativo de la subtrama actual de la trama actual, y una relación del libro de códigos adaptativo de la subtrama actual de la trama actual con el libro de códigos adaptativo de la trama anterior a la trama actual.
Los valores de la primera cantidad y la segunda cantidad se pueden establecer según los entornos y escenarios específicos de aplicación. Los valores pueden ser enteros o pueden no ser enteros, donde los valores de la primera cantidad y de la segunda cantidad pueden ser los mismos o pueden ser diferentes. Por ejemplo, el valor de la primera cantidad puede ser 2, 2,5, 3, 3,4, o 4 y el valor de la segunda cantidad puede ser 2, 2,6, 3, 3,5, o 4.
Para un factor de atenuación usado cuando la ganancia de libro de códigos adaptativo de la subtrama actual de la trama actual se atenúa, se pueden establecer diferentes valores según los diferentes entornos y escenarios de aplicación.
En otra realización de la presente invención, el parámetro decodificado de la trama actual incluye un libro de códigos algebraico de la trama actual. Cuando la trama actual es una trama decodificada de manera redundante, si la clase de señal de la siguiente trama a la trama actual es sorda, el factor de inclinación espectral de la trama anterior de la trama actual es menor que el umbral del factor de inclinación espectral preestablecido, y el libro de códigos algebraico de al menos una subtrama de la trama actual es 0, el procesador 402 invoca el código almacenado en la memoria 403 mediante el uso del bus 401 para usar ruido aleatorio o el libro de códigos algebraico distinto de cero de la subtrama anterior a la subtrama actual de la trama actual como un libro de códigos algebraico de una subtrama todo 0 de la trama actual. Para el umbral del factor de inclinación espectral, se pueden establecer diferentes valores según los diferentes entornos y escenarios de aplicación, por ejemplo, se puede establecer a 0,16, 0,15, 0,165, 0,1, 0,161, o 0,159.
En otra realización de la presente invención, el parámetro decodificado de la trama actual incluye una envolvente de extensión de ancho de banda de la trama actual. Cuando la trama actual es una trama decodificada de manera redundante, la trama actual no es una trama sorda, y la siguiente trama a la trama actual es una trama sorda, si el factor de inclinación espectral de la trama anterior a la trama actual es menor que el umbral de factor de inclinación espectral preestablecido, el procesador 402 invoca el código almacenado en la memoria 403 mediante el uso del bus 401 para realizar la corrección sobre la envolvente de extensión de ancho de banda de la trama actual según al menos uno de entre la envolvente de extensión de ancho de banda de la trama anterior a la trama actual y el factor de inclinación espectral de la trama anterior a la trama actual. Un factor de corrección usado cuando se realiza la corrección sobre la envolvente de extensión de ancho de banda de la trama actual es inversamente proporcional al factor de inclinación espectral de la trama anterior a la trama actual y es directamente proporcional a la relación de la envolvente de extensión de ancho de banda de la trama anterior a la trama actual con la envolvente de extensión de ancho de banda de la trama actual. Para el umbral de factor de inclinación espectral, se pueden establecer los diferentes valores según los diferentes entornos o escenarios de aplicación, por ejemplo, se pueden establecer a 0,16, 0,15, 0,165, 0,1, 0,161, o 0,159.
En otra realización de la presente invención, el parámetro decodificado de la trama actual incluye una envolvente de extensión de ancho de banda de la trama actual. Si la trama actual es una trama decodificada de manera redundante, la trama anterior a la trama actual es una trama decodificada de manera normal, la clase de señal de la trama actual es la misma que la clase de señal de la trama anterior a la trama actual o la trama actual es un modo de predicción de decodificación de redundancia, el procesador 402 invoca el código almacenado en la memoria 403 mediante el uso del bus 401 para usar una envolvente de extensión de ancho de banda de la trama anterior a la trama actual para realizar el ajuste sobre la envolvente de extensión de ancho de banda de la trama actual. Se puede entender a partir de lo anterior que, en una realización de la presente invención, en la transición entre una trama sorda y una trama no sorda (cuando la trama actual es una trama sorda y una trama decodificada de manera redundante, la trama anterior o la siguiente trama de la trama actual es una trama no sorda y una trama decodificada de manera normal, o la trama actual es una trama no sorda y una trama decodificada de manera normal y la trama anterior o la siguiente trama de la trama actual es una trama sorda y una trama decodificada de manera redundante), se puede realizar el post-procesamiento sobre el parámetro decodificado de la trama actual, para eliminar el fenómeno de clic en la transición entre-tramas entre la trama soda y la trama no sorda, mejorando la calidad de la señal de voz/audio que se emite. En otra realización de la presente invención, en la transición entre una trama genérica y una trama sonora (cuando la trama actual es una trama genérica y una trama decodificada de manera redundante, la trama anterior o la siguiente trama de la trama actual es una trama sonora y una trama decodificada de manera normal, o la trama actual es una trama sonora y una trama decodificada de manera normal y la trama anterior o a siguiente trama de la trama actual es una trama genérica y una trama decodificada de manera redundante), se puede realizar el post-procesamiento sobre el parámetro decodificado de la trama actual, para rectificar el fenómeno de inestabilidad de energía en la transición entre la trama genérica y la trama sonora, mejorando la calidad de la señal de voz/audio que se emite. En otra realización de la presente invención, cuando la trama actual es una trama decodificada de manera redundante, la trama actual no es una trama sorda, y la trama siguiente a la trama actual es una trama sorda, se puede realizar el ajuste sobre la envolvente de extensión de ancho de banda, mejorando la calidad de la señal de voz/audio que se emite.
Una realización de la presente invención proporciona además un medio de almacenamiento informático. El medio de almacenamiento informático puede almacenar un programa y el programa realiza algunas o todas las etapas del método para decodificar un flujo de bits de voz/audio que se describen en las realizaciones del método anterior.
Se debería entender que, para una breve descripción, las realizaciones del método anterior se representan como series de acciones. Sin embargo, una persona experta en la técnica debería apreciar que la presente invención no se limita al orden descrito de las acciones, ya que, según la presente invención, algunas etapas se pueden realizar en otros órdenes o de manera simultánea. Además, una persona experta en la técnica debería entender que todas las realizaciones descritas en esta especificación son realizaciones ejemplares, y las acciones y módulos involucrados no son necesariamente obligatorio para la presente invención.
En las realizaciones anteriores, la descripción de cada realización tiene un respectivo foco. Para una parte que no se describa en detalle en una realización, se puede hacer referencia a las descripciones relacionadas en otras realizaciones.
En las diversas realizaciones proporcionadas en la presente solicitud, se debería entender que el aparato descrito se puede implementar de otras maneras. Por ejemplo, las realizaciones del aparato descrito son simplemente ejemplares. Por ejemplo, la división unitaria es simplemente una función lógica de división y pueden existir otras divisiones en la implementación real. Por ejemplo, una pluralidad de unidades o componentes se pueden combinar o integrar en otro sistema, o algunas características se pueden ignorar o no realizar. Además, los acoplamientos mutuos presentados o discutidos o los acoplamientos directos o las conexiones de comunicación pueden ser implementadas mediante el uso de algunas interfaces. Los acoplamientos indirectos o las conexiones de comunicación entre los aparatos y las unidades se pueden implementar de manera electrónica o de otra forma. Las unidades descritas como partes separadas pueden estar o no físicamente separadas, y las partes presentadas como unidades pueden ser o no unidades físicas, se pueden ubicar en una posición, o pueden estar distribuidas en una pluralidad de unidades de red. Alguna o todas las unidades pueden ser seleccionadas según las necesidades reales para conseguir los objetivos de las soluciones de las realizaciones.
Además, las unidades funcionales en las realizaciones de la presente invención se pueden integrar en una unidad de procesamiento, o cada una de las unidades puede existir físicamente sola, o dos o más unidades pueden estar integradas en una unidad. La unidad integrada se puede implementar en forma de hardware, o se puede implementar en forma de una unidad funcional software.
Cuando la unidad integrada anterior se implementa en forma de una unidad funcional de software y se vende o usa como un producto independiente, la unidad integrada se puede almacenar en un medio de almacenamiento legible por ordenador. En base a dicho conocimiento, las soluciones técnicas de la presente invención esencialmente, o la parte que contribuye a la técnica anterior, o todas o algunas de las soluciones técnicas se pueden implementar en forma de un producto de software. El producto de software informático se almacena en un medio de almacenamiento e incluye varias instrucciones para dar instrucciones al dispositivo informático (que puede ser un ordenador personal, un servidor, un dispositivo de red, o un procesador conectado a una memoria) para realizar todas o algunas de las etapas de los métodos descritos en las realizaciones anteriores de la presente invención. El medio de almacenamiento anterior incluye: cualquier medio que pueda almacenar código de programa, tal como una unidad flash USB, una memoria de sólo lectura (ROM), una memoria de acceso aleatorio (RAM), un disco duro portátil, o un disco óptico.
Las realizaciones anteriores están orientadas simplemente a describir las soluciones técnicas de la presente invención, pero no se limitan a la presente invención. Aunque la presente invención se describe en detalle con referencia a las realizaciones anteriores, las personas de experiencia ordinaria en la técnica deberían entender que aún pueden realizar modificaciones a las soluciones técnicas descritas en las realizaciones anteriores o hacer los reemplazos equivalentes a algunas características técnicas de las mismas, sin salir del alcance de las soluciones técnicas de las realizaciones de la presente invención.

Claims (17)

REIVINDICACIONES
1. Un método para decodificar un flujo de bits de voz/audio que comprende:
determinar (101) si la trama actual es una trama decodificada de manera normal o es una trama decodificada de manera redundante, en donde la trama decodificada de manera normal es una trama cuya información se puede obtener de manera directa decodificando el flujo de bits de la trama actual, y la trama decodificada de manera redundante es una trama a ser reconstruida según la información del flujo de bits redundante de la trama actual obtenida a partir del flujo de bits de otra trama;
cuando la trama actual es una trama decodificada de manera normal, decodificar el flujo de bits de la trama actual para obtener el parámetro decodificado de la trama actual, y cuando la trama actual es una trama decodificada de manera redundante, obtener el parámetro decodificado de la trama actual según la información del flujo de bits redundante de la trama actual en el flujo de bits de otra trama;
cuando la trama actual es una trama decodificada de manera redundante, o cuando la trama actual es una trama decodificada de manera normal y la trama anterior adyacente a la trama actual es una trama decodificada de manera redundante, realizar las siguientes etapas:
realizar (103, 205) el post-procesamiento sobre el parámetro decodificado de la trama actual para obtener un parámetro decodificado post-procesado de la trama actual; y
usar (104, 206) el parámetro decodificado post-procesado de la trama actual para reconstruir una señal de voz/audio.
2. El método según la reivindicación 1, en donde el parámetro decodificado de la trama actual comprende un parámetro de par espectral de la trama actual y la realización del post-procesamiento sobre el parámetro decodificado de la trama actual comprende:
usar el parámetro de par espectral de la trama actual y un parámetro de par espectral de la trama anterior a la trama actual para obtener un parámetro de par espectral post-procesado de la trama actual.
3. El método según la reivindicación 2, en donde el parámetro de par espectral post-procesado de la trama actual se obtiene a través del cálculo mediante el uso específico de la siguiente fórmula:
lsp[k] = a*lsp_antiguo[k] 8*lsp_nuevo[k] 0 < k < M,
en donde lsp[k] es el parámetro de par espectral post-procesado de la trama actual, lsp_antiguo[k] es el parámetro de par espectral de la trama anterior, lsp_nuevo[k] es el parámetro de par espectral de la trama actual, M es un orden de los parámetros de par espectrales, a es un peso del parámetro de par espectral de la trama anterior, y 8 es un peso del parámetro de par espectral de la trama actual, donde a > 0, 8 >0 y a 8 = 1.
4. El método según la reivindicación 2, en donde el parámetro de par espectral post-procesado de la trama actual se obtiene a través del cálculo mediante el uso específico de la siguiente fórmula:
lsp[k] = a*lsp_antiguo[k] p*lsp_med[k] 8*lsp_nuevo[k] 0 < k < M,
en donde lsp[k] es el parámetro de par espectral post-procesado de la trama actual, lsp_antiguo[k] es el parámetro de par espectral de la trama anterior, lsp_med[k] es un valor medio del parámetro de par espectral de la trama actual, lsp_nuevo[k] es el parámetro de par espectral de la trama actual, M es un orden de los parámetros de par espectrales, a es un peso del parámetro de par espectral de la trama anterior, p es un peso del valor medio del parámetro de par espectral de la trama actual, y 8 es un peso del parámetro de par espectral de la trama actual, donde a > 0, p > 0, 8 > 0 y a p 8 = 1.
5. El método según la reivindicación 4, en donde cuando la trama actual es una trama decodificada de manera redundante y una clase de señal de la trama actual no es sorda, si una clase de señal de una siguiente trama a la trama actual es sorda, o un factor de inclinación espectral de la trama anterior a la trama actual es menor que un umbral de factor de inclinación espectral preestablecido, o una clase de señal de una siguiente trama a la trama actual es sorda y un factor de inclinación espectral de la trama anterior a la siguiente trama es menor que un factor de inclinación espectral preestablecido, un valor de p es 0 o es menor que un umbral preestablecido.
6. El método según una cualquiera de las reivindicaciones 3 a 5, en donde cuando la clase de señal de la trama actual es sorda, la trama anterior a la trama actual es una trama decodificada de manera redundante, y una clase de señal de la trama anterior a la trama actual no es sorda, un valor de a es 0 o es menor que un umbral preestablecido.
7. El método según una cualquiera de las reivindicaciones 3 a 6, en donde cuando la trama actual es una trama decodificada de manera redundante y la clase de señal de la trama actual no es sorda, si la clase e señal de la trama siguiente a la trama actual es sorda, o el factor de inclinación espectral de la trama anterior a la trama actual es menor que el umbral de factor de inclinación espectral preestablecido, o la clase de señal de la siguiente trama a la trama actual es sorda y el factor de inclinación espectral de la trama anterior a la trama actual es menor que el umbral de factor de inclinación espectral preestablecido, el valor de 8 es 0 o es menor que un umbral preestablecido.
8. El método según la reivindicación 5 o 7, en donde el factor de inclinación espectral puede ser positivo o negativo, y un factor de inclinación espectral menor indica una clase de señal, que está más inclinada a ser sorda, de una trama correspondiente al factor de inclinación espectral.
9. El método según una cualquiera de las reivindicaciones 1 a 8, en donde el parámetro decodificado de la trama actual comprende una ganancia de libro de códigos adaptativo de la trama actual; y
cuando la trama actual es una trama decodificada de manera redundante, si la siguiente trama a la trama actual es una trama sorda, o una siguiente trama a la siguiente trama de la trama actual es una trama sorda y un libro de códigos algebraico de una subtrama actual a la trama actual es una primera cantidad de veces un libro de códigos algebraico de una subtrama anterior a la subtrama actual o un libro de códigos algebraico de la trama anterior a la trama actual, la realización del post-procesamiento sobre el parámetro decodificado de la trama actual comprende: atenuar la ganancia de un libro de códigos adaptativo de la subtrama actual de la trama actual.
10. El método según una cualquiera de las reivindicaciones 1 a 8, en donde el parámetro decodificado de la trama actual comprende una ganancia de libro de códigos adaptativo de la trama actual; y
cuando la trama actual o la trama anterior a la trama actual es una trama decodificada de manera redundante, si la clase de señal de la trama actual es genérica y la clase de señal de la siguiente trama a la trama actual es sonora o la clase de señal de la trama anterior a la trama actual es genérica y la clase de señal de la trama actual es sonora, y un libro de códigos algebraico de una subtrama en la trama actual es diferente de un libro de códigos algebraico de una subtrama anterior a la una subtrama por una segunda cantidad de veces o un libro de códigos de una subtrama en la trama actual es diferente de un libro de códigos de la trama anterior a la trama actual por una segunda cantidad de veces, la realización de un post-procesamiento sobre el parámetro decodificado de la trama actual comprende:
ajustar una ganancia de libro de códigos adaptativo de una subtrama actual de la trama actual según al menos uno de entre una relación de un libro de códigos algebraico de la subtrama actual de la trama actual con un libro de códigos algebraico de una subtrama vecina a la subtrama actual de la trama actual, una relación de una ganancia de libro de códigos adaptativo de la subtrama actual de la trama actual con una ganancia de libro de códigos adaptativo de la subtrama vecina a la subtrama actual de la trama actual, y una relación del libro de códigos algebraico de la subtrama actual de la trama actual con el libro de códigos algebraico de la trama anterior a la trama actual.
11. El método según una cualquiera de las reivindicaciones 1 a 10, en donde el parámetro decodificado de la trama actual comprende un libro de códigos algebraico de la trama actual; y
cuando la trama actual es una trama decodificada de manera redundante, si la clase de señal de la siguiente trama a la trama actual es sorda, el factor de inclinación espectral de la trama anterior a la trama actual es menor que el factor de inclinación espectral preestablecido, y un libro de códigos de al menos una subtrama de la trama actual es 0, la realización del post-procesamiento sobre el parámetro decodificado de la trama actual comprende:
usar ruido aleatorio o un libro de códigos algebraico distinto de cero de la subtrama anterior a la subtrama actual de la trama actual como un libro de códigos algebraico de una subtrama todo 0 de la trama actual.
12. El método según una cualquiera de las reivindicaciones 1 a 11, en donde la trama actual es una trama decodificada de manera redundante y el parámetro decodificado comprende una envolvente de extensión de ancho de banda; y
cuando la trama actual no es una trama sorda y la siguiente trama a la trama actual es una trama sorda, si el factor de inclinación espectral de la trama anterior a la trama actual es menor que el umbral de factor de inclinación espectral preestablecido, la realización del post-procesamiento en el parámetro decodificado de la trama actual comprende:
realizar la corrección sobre la envolvente de extensión de ancho de banda de la trama actual según al menos uno de entre una envolvente de extensión de ancho de banda de la trama anterior a la trama actual y el factor de inclinación espectral de la trama anterior a la trama actual.
13. El método según la reivindicación 12, en donde un factor de corrección usado cuando se realiza la corrección sobre la envolvente de extensión de ancho de banda de la trama actual es inversamente proporcional al factor de inclinación espectral de la trama anterior a la trama actual y es directamente proporcional a la relación de la envolvente de extensión de ancho de banda de la trama anterior a la trama actual con la envolvente de extensión de ancho de banda de la trama actual.
14. El método según una cualquiera de las reivindicaciones 1 a 11, en donde la trama actual es una trama decodificada de manera redundante y el parámetro decodificado comprende una envolvente de extensión de ancho de banda; y
cuando la trama anterior a la trama actual es una trama decodificada de manera normal, si la clase de señal de la trama actual es la misma que la clase de señal de la trama anterior o la trama actual es un modo de predicción de la decodificación de redundancia, la realización del post-procesamiento sobre el parámetro decodificado de la trama actual comprende:
usar una envolvente de extensión de ancho de banda de la trama anterior a la trama actual para realizar el ajuste sobre la envolvente de extensión de ancho de banda de la trama actual.
15. Un decodificador (400) para decodificar un flujo de bits de voz/audio, que comprende:
un procesador (402) y una memoria (403), en donde
el procesador (402) se configura para ejecutar instrucciones en la memoria, para realizar el método de una cualquiera de las reivindicaciones 1 a 14.
16. Un producto de programa informático, caracterizado por comprender instrucciones, que, al ser ejecutadas por un dispositivo informático, provocan que el dispositivo informático realice los métodos de una cualquiera de las reivindicaciones 1 a 14.
17. El producto de programa informático según la reivindicación 16, en donde el producto de programa informático se almacena en un medio legible por ordenador.
ES14876788T 2013-12-31 2014-07-04 Método y dispositivo para decodificar un flujo de bits de voz y audio Active ES2756023T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201310751997.XA CN104751849B (zh) 2013-12-31 2013-12-31 语音频码流的解码方法及装置
PCT/CN2014/081635 WO2015100999A1 (zh) 2013-12-31 2014-07-04 语音频码流的解码方法及装置

Publications (1)

Publication Number Publication Date
ES2756023T3 true ES2756023T3 (es) 2020-04-24

Family

ID=53493122

Family Applications (1)

Application Number Title Priority Date Filing Date
ES14876788T Active ES2756023T3 (es) 2013-12-31 2014-07-04 Método y dispositivo para decodificar un flujo de bits de voz y audio

Country Status (7)

Country Link
US (2) US9734836B2 (es)
EP (2) EP3624115B1 (es)
JP (1) JP6475250B2 (es)
KR (2) KR101833409B1 (es)
CN (1) CN104751849B (es)
ES (1) ES2756023T3 (es)
WO (1) WO2015100999A1 (es)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
PT2951819T (pt) * 2013-01-29 2017-06-06 Fraunhofer Ges Forschung Aparelho, método e meio computacional para sintetizar um sinal de áudio
CN104751849B (zh) * 2013-12-31 2017-04-19 华为技术有限公司 语音频码流的解码方法及装置
CN104934035B (zh) * 2014-03-21 2017-09-26 华为技术有限公司 语音频码流的解码方法及装置
CN106816158B (zh) * 2015-11-30 2020-08-07 华为技术有限公司 一种语音质量评估方法、装置及设备
CN111164682A (zh) 2017-10-24 2020-05-15 三星电子株式会社 使用机器学习的音频重建方法和设备

Family Cites Families (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4731846A (en) * 1983-04-13 1988-03-15 Texas Instruments Incorporated Voice messaging system with pitch tracking based on adaptively filtered LPC residual signal
US5717824A (en) * 1992-08-07 1998-02-10 Pacific Communication Sciences, Inc. Adaptive speech coder having code excited linear predictor with multiple codebook searches
US5615298A (en) * 1994-03-14 1997-03-25 Lucent Technologies Inc. Excitation signal synthesis during frame erasure or packet loss
US5699478A (en) * 1995-03-10 1997-12-16 Lucent Technologies Inc. Frame erasure compensation technique
US5907822A (en) * 1997-04-04 1999-05-25 Lincom Corporation Loss tolerant speech decoder for telecommunications
US6385576B2 (en) * 1997-12-24 2002-05-07 Kabushiki Kaisha Toshiba Speech encoding/decoding method using reduced subframe pulse positions having density related to pitch
US6973425B1 (en) * 1999-04-19 2005-12-06 At&T Corp. Method and apparatus for performing packet loss or Frame Erasure Concealment
US6952668B1 (en) * 1999-04-19 2005-10-04 At&T Corp. Method and apparatus for performing packet loss or frame erasure concealment
DE60016532T2 (de) 1999-04-19 2005-10-13 At & T Corp. Verfahren zur verschleierung von rahmenausfall
US6597961B1 (en) * 1999-04-27 2003-07-22 Realnetworks, Inc. System and method for concealing errors in an audio transmission
US6757654B1 (en) * 2000-05-11 2004-06-29 Telefonaktiebolaget Lm Ericsson Forward error correction in speech coding
EP1199709A1 (en) * 2000-10-20 2002-04-24 Telefonaktiebolaget Lm Ericsson Error Concealment in relation to decoding of encoded acoustic signals
US7031926B2 (en) * 2000-10-23 2006-04-18 Nokia Corporation Spectral parameter substitution for the frame error concealment in a speech decoder
US7069208B2 (en) 2001-01-24 2006-06-27 Nokia, Corp. System and method for concealment of data loss in digital audio transmission
JP3582589B2 (ja) * 2001-03-07 2004-10-27 日本電気株式会社 音声符号化装置及び音声復号化装置
US7590525B2 (en) * 2001-08-17 2009-09-15 Broadcom Corporation Frame erasure concealment for predictive speech coding based on extrapolation of speech waveform
US7047187B2 (en) * 2002-02-27 2006-05-16 Matsushita Electric Industrial Co., Ltd. Method and apparatus for audio error concealment using data hiding
US20040002856A1 (en) 2002-03-08 2004-01-01 Udaya Bhaskar Multi-rate frequency domain interpolative speech CODEC system
CA2388439A1 (en) 2002-05-31 2003-11-30 Voiceage Corporation A method and device for efficient frame erasure concealment in linear predictive based speech codecs
US20040083110A1 (en) 2002-10-23 2004-04-29 Nokia Corporation Packet loss recovery based on music signal classification and mixing
JP4438280B2 (ja) * 2002-10-31 2010-03-24 日本電気株式会社 トランスコーダ及び符号変換方法
US7486719B2 (en) 2002-10-31 2009-02-03 Nec Corporation Transcoder and code conversion method
US6985856B2 (en) 2002-12-31 2006-01-10 Nokia Corporation Method and device for compressed-domain packet loss concealment
CA2457988A1 (en) 2004-02-18 2005-08-18 Voiceage Corporation Methods and devices for audio compression based on acelp/tcx coding and multi-rate lattice vector quantization
US20060088093A1 (en) * 2004-10-26 2006-04-27 Nokia Corporation Packet loss compensation
US7519535B2 (en) * 2005-01-31 2009-04-14 Qualcomm Incorporated Frame erasure concealment in voice communications
US7177804B2 (en) 2005-05-31 2007-02-13 Microsoft Corporation Sub-band voice codec with multi-stage codebooks and redundant coding
CN100561576C (zh) * 2005-10-25 2009-11-18 芯晟(北京)科技有限公司 一种基于量化信号域的立体声及多声道编解码方法与系统
US8255207B2 (en) * 2005-12-28 2012-08-28 Voiceage Corporation Method and device for efficient frame erasure concealment in speech codecs
US8798172B2 (en) * 2006-05-16 2014-08-05 Samsung Electronics Co., Ltd. Method and apparatus to conceal error in decoded audio signal
US20090248404A1 (en) 2006-07-12 2009-10-01 Panasonic Corporation Lost frame compensating method, audio encoding apparatus and audio decoding apparatus
JPWO2008007696A1 (ja) 2006-07-13 2009-12-10 三菱瓦斯化学株式会社 フルオロアミンの製造方法
EP2538406B1 (en) 2006-11-10 2015-03-11 Panasonic Intellectual Property Corporation of America Method and apparatus for decoding parameters of a CELP encoded speech signal
KR20080075050A (ko) * 2007-02-10 2008-08-14 삼성전자주식회사 오류 프레임의 파라미터 갱신 방법 및 장치
JP5596341B2 (ja) * 2007-03-02 2014-09-24 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 音声符号化装置および音声符号化方法
CN101256774B (zh) 2007-03-02 2011-04-13 北京工业大学 用于嵌入式语音编码的帧擦除隐藏方法及系统
US20100195490A1 (en) 2007-07-09 2010-08-05 Tatsuya Nakazawa Audio packet receiver, audio packet receiving method and program
CN100524462C (zh) 2007-09-15 2009-08-05 华为技术有限公司 对高带信号进行帧错误隐藏的方法及装置
US8527265B2 (en) 2007-10-22 2013-09-03 Qualcomm Incorporated Low-complexity encoding/decoding of quantized MDCT spectrum in scalable speech and audio codecs
US8515767B2 (en) 2007-11-04 2013-08-20 Qualcomm Incorporated Technique for encoding/decoding of codebook indices for quantized MDCT spectrum in scalable speech and audio codecs
CN101261836B (zh) * 2008-04-25 2011-03-30 清华大学 基于过渡帧判决及处理的激励信号自然度提高方法
CN102057424B (zh) * 2008-06-13 2015-06-17 诺基亚公司 用于经编码的音频数据的错误隐藏的方法和装置
PL3002750T3 (pl) 2008-07-11 2018-06-29 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Koder i dekoder audio do kodowania i dekodowania próbek audio
MX2011000375A (es) 2008-07-11 2011-05-19 Fraunhofer Ges Forschung Codificador y decodificador de audio para codificar y decodificar tramas de una señal de audio muestreada.
ES2558229T3 (es) 2008-07-11 2016-02-02 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Codificador y decodificador de audio para codificar tramas de señales de audio muestreadas
EP2144230A1 (en) 2008-07-11 2010-01-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Low bitrate audio encoding/decoding scheme having cascaded switches
US8428938B2 (en) 2009-06-04 2013-04-23 Qualcomm Incorporated Systems and methods for reconstructing an erased speech frame
CN101777963B (zh) * 2009-12-29 2013-12-11 电子科技大学 一种基于反馈模式的帧级别编码与译码方法
CN101894558A (zh) 2010-08-04 2010-11-24 华为技术有限公司 丢帧恢复方法、设备以及语音增强方法、设备和系统
US9026434B2 (en) 2011-04-11 2015-05-05 Samsung Electronic Co., Ltd. Frame erasure concealment for a multi rate speech and audio codec
CN103688306B (zh) * 2011-05-16 2017-05-17 谷歌公司 对被编码为连续帧序列的音频信号进行解码的方法和装置
CN102726034B (zh) * 2011-07-25 2014-01-08 华为技术有限公司 一种参数域回声控制装置和方法
CN102438152B (zh) * 2011-12-29 2013-06-19 中国科学技术大学 可伸缩视频编码容错传输方法、编码器、装置和系统
US9275644B2 (en) * 2012-01-20 2016-03-01 Qualcomm Incorporated Devices for redundant frame coding and decoding
CN103366749B (zh) * 2012-03-28 2016-01-27 北京天籁传音数字技术有限公司 一种声音编解码装置及其方法
CN102760440A (zh) 2012-05-02 2012-10-31 中兴通讯股份有限公司 语音信号的发送、接收装置及方法
CN104751849B (zh) 2013-12-31 2017-04-19 华为技术有限公司 语音频码流的解码方法及装置
CN104934035B (zh) * 2014-03-21 2017-09-26 华为技术有限公司 语音频码流的解码方法及装置

Also Published As

Publication number Publication date
US10121484B2 (en) 2018-11-06
EP3624115B1 (en) 2024-09-11
KR101833409B1 (ko) 2018-02-28
JP6475250B2 (ja) 2019-02-27
EP3076390A1 (en) 2016-10-05
US20170301361A1 (en) 2017-10-19
US20160343382A1 (en) 2016-11-24
KR20160096191A (ko) 2016-08-12
EP3076390A4 (en) 2016-12-21
EP3076390B1 (en) 2019-09-11
JP2017504832A (ja) 2017-02-09
KR101941619B1 (ko) 2019-01-23
EP3624115A1 (en) 2020-03-18
US9734836B2 (en) 2017-08-15
CN104751849A (zh) 2015-07-01
KR20180023044A (ko) 2018-03-06
WO2015100999A1 (zh) 2015-07-09
CN104751849B (zh) 2017-04-19

Similar Documents

Publication Publication Date Title
ES2805849T3 (es) Sistemas y procedimientos de comunicación de información de trama redundante
ES2756023T3 (es) Método y dispositivo para decodificar un flujo de bits de voz y audio
ES2401171T3 (es) Procedimiento, aparato y producto de programa de ordenador para reconstruir una trama de voz borrada
ES2837924T3 (es) Corrección selectiva adelantada de errores para códecs de audio espaciales
ES2924351T3 (es) Codificador, decodificador y método para codificar y decodificar contenido de audio que utiliza parámetros para potenciar una ocultación
ES2653949T3 (es) Sistemas, procedimientos, aparatos y medios legibles por ordenador para el control del umbral de criticidad
US10504525B2 (en) Adaptive forward error correction redundant payload generation
TW201207839A (en) Concealing lost packets in a Sub-Band Coding decoder
ES2746217T3 (es) Método de decodificación y dispositivo de decodificación
JP6542345B2 (ja) 会話/音声ビットストリーム復号化方法および装置
ES2882485T3 (es) Procedimiento y aparato de codificación de audio
US20110026581A1 (en) Scalable Coding with Partial Eror Protection
US7978100B2 (en) Encoding and decoding methods using generalized concatenated codes (GCC)
ES2732440T3 (es) Dispositivo de procesamiento de señales de habla, método de procesamiento de señales de habla y programa de procesamiento de señales de habla
CN101086844A (zh) 抗信道恶劣丢包伴随误码的语音编码传输方法
CN101004915B (zh) 2.4kb/s SELP 低速率声码器抗信道误码保护方法
CN101009097B (zh) 1.2kb/s SELP低速率声码器抗信道误码保护方法
JP2017005285A (ja) 復号装置
Napoleon et al. Enhanced recovery technique for improving voice quality degraded by packet loss in data networks