ES2610363T3 - Dispositivo de decodificación del habla, procedimiento de decodificación del habla y programa de decodificación del habla - Google Patents

Dispositivo de decodificación del habla, procedimiento de decodificación del habla y programa de decodificación del habla Download PDF

Info

Publication number
ES2610363T3
ES2610363T3 ES12171603.9T ES12171603T ES2610363T3 ES 2610363 T3 ES2610363 T3 ES 2610363T3 ES 12171603 T ES12171603 T ES 12171603T ES 2610363 T3 ES2610363 T3 ES 2610363T3
Authority
ES
Spain
Prior art keywords
unit
envelope
speech
high frequency
bit stream
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES12171603.9T
Other languages
English (en)
Inventor
Kosuke Tsujino
Kei Kikuiri
Nobuhiko Naka
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Application granted granted Critical
Publication of ES2610363T3 publication Critical patent/ES2610363T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/03Spectral prediction for preventing pre-echo; Temporary noise shaping [TNS], e.g. in MPEG2 or MPEG4
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/0204Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using subband decomposition
    • G10L19/0208Subband vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/0212Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using orthogonal transformation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/06Determination or coding of the spectral characteristics, e.g. of the short-term prediction coefficients
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/167Audio streaming, i.e. formatting and decoding of an encoded audio signal representation into a data stream for transmission or storage purposes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/24Variable rate codecs, e.g. for generating different qualities using a scalable representation such as hierarchical encoding or layered encoding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/26Pre-filtering or post-filtering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/038Speech enhancement, e.g. noise reduction or echo cancellation using band spreading techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/04Time compression or expansion

Abstract

Un dispositivo de decodificación del habla, adaptado para decodificar una señal de habla codificada, comprendiendo el dispositivo de decodificación del habla: medio de separación de flujos de bits, adaptado para separar un flujo de bits que incluye la señal de habla codificada en un flujo de bits codificados e información suplementaria de envolvente temporal, recibiéndose el flujo de bits desde el exterior del dispositivo de decodificación del habla; medio de decodificación central, adaptado para decodificar el flujo de bits codificados, separado por el medio de separación de flujos de bits, para obtener un componente de baja frecuencia; transformación de frecuencia, adaptada para transformar el componente de baja frecuencia, obtenido por el medio de decodificación central, en un dominio de frecuencia; medio de generación de alta frecuencia, adaptado para generar un componente de alta frecuencia, copiando el componente de baja frecuencia, transformado en el dominio de frecuencia por el medio de transformación de frecuencia, de una banda de baja frecuencia a una banda de alta frecuencia; medio de ajuste de alta frecuencia, adaptado para ajustar el componente de alta frecuencia, generado por el medio de generación de alta frecuencia, para generar un componente de alta frecuencia ajustado; medio de análisis de envolvente temporal de baja frecuencia, adaptado para analizar el componente de baja frecuencia, transformado en el dominio de frecuencia por el medio de transformación de frecuencia, para obtener información de la envolvente temporal; medio de conversión de información suplementaria, adaptado para convertir la información suplementaria de envolvente temporal en un parámetro para ajustar la información de la envolvente temporal; medio de ajuste de envolvente temporal, adaptado para ajustar la información de envolvente temporal obtenida por el medio de análisis de envolvente temporal de baja frecuencia, para generar información de la envolvente temporal ajustada, usando el medio de ajuste de envolvente temporal el parámetro en dicho ajuste de la información de envolvente temporal; y medio de formación de la envolvente temporal, adaptado para formar una envolvente temporal del componente de alta frecuencia ajustado, multiplicando el componente de alta frecuencia ajustado por la información de envolvente temporal ajustada.

Description

imagen1
imagen2
imagen3
imagen4
imagen5
imagen6
imagen7
imagen8
imagen9
5
15
25
35
45
55
(Modificación 1 del primer ejemplo)
La figura 5 es un diagrama que ilustra una modificación (dispositivo de codificación del habla 11a) del dispositivo de codificación del habla de acuerdo al primer ejemplo. El dispositivo de codificación del habla 11a incluye físicamente una CPU, una ROM, una RAM, un dispositivo de comunicación y similares, que no se ilustran, y la CPU controla de forma integral el dispositivo de codificación del habla 11a, cargando y ejecutando un programa informático predeterminado almacenado en una memoria integrada del dispositivo de codificación del habla 11a, tal como la ROM en la RAM. El dispositivo de comunicación del dispositivo de codificación del habla 11a recibe una señal de habla que va a ser codificada desde el exterior del dispositivo de codificación del habla 11a, y emite un flujo de bits multiplexados codificados al exterior del dispositivo de codificación del habla 11a.
El dispositivo de codificación del habla 11a, tal como se ilustra en la figura 5, incluye funcionalmente una unidad de transformación inversa de alta frecuencia 1h, una unidad de cálculo de potencia a corto plazo 1i (medio de cálculo de información suplementaria de envolvente temporal), una unidad de cálculo de parámetros de intensidad de filtro 1f1 (medio de cálculo de información suplementaria de envolvente temporal) y una unidad de multiplexado de flujos de bits 1g1 (medio de multiplexado de flujos de bits), en lugar de la unidad de análisis de predicción lineal 1e, la unidad de cálculo de parámetros de intensidad de filtro 1f y la unidad de multiplexado de flujos de bits 1g del dispositivo de codificación del habla 11. La unidad de multiplexado de flujos de bits 1g1 tiene la misma función que la de 1G. Desde la unidad de transformación de frecuencia 1a hasta la unidad de codificación de SBR 1d, la unidad de transformación inversa de alta frecuencia 1h, la unidad de cálculo de potencia a corto plazo 1i, la unidad de cálculo de parámetros de intensidad de filtro 1f1 y la unidad de multiplexado de flujos de bits 1g1 del dispositivo de codificación del habla 11a ilustrado en la figura 5 son funciones realizadas cuando la CPU del dispositivo de codificación del habla 11a ejecuta el programa informático almacenado en la memoria integrada del dispositivo de codificación del habla 11a. Diferentes tipos de datos necesarios para ejecutar el programa informático y diferentes tipos de datos generados al ejecutar el programa informático se almacenan, todos, en la memoria integrada, tal como la ROM y la RAM del dispositivo de codificación del habla 11a.
La unidad de transformación inversa de alta frecuencia 1h sustituye los coeficientes de la señal en el dominio de QMF, obtenidos de la unidad de transformación de frecuencia 1a, con “0”, que corresponde a los componentes de baja frecuencia codificados por la unidad central de codificación de códecs 1c, y procesa los coeficientes utilizando el banco de filtros de síntesis de QMF para obtener una señal del dominio del tiempo que incluye solamente los componentes de alta frecuencia. La unidad de cálculo de potencia a corto plazo 1i divide los componentes de alta frecuencia en el dominio de tiempo, obtenidos de la unidad de transformación inversa de alta frecuencia 1h, en segmentos cortos, calcula la intensidad y calcula p(r). Como procedimiento alternativo, la potencia a corto plazo puede calcularse también de acuerdo a la siguiente expresión (12) utilizando la señal en el dominio de QMF.
imagen10
La unidad de cálculo de parámetros de intensidad de filtro 1f1 detecta la parte cambiada de p(r), y determina un valor de K(r), para que K(r) sea incrementado con el cambio grande. El valor de K(r), por ejemplo, también puede calcularse por el mismo procedimiento que para calcular T(r) por parte de la unidad de detección de cambio de señal 2e del dispositivo de decodificación del habla 21. El cambio de señal también puede detectarse utilizando otros procedimientos más sofisticados. La unidad de cálculo de parámetros de intensidad de filtro 1f1 puede también obtener potencia a corto plazo de cada uno de los componentes de baja frecuencia y los componentes de alta frecuencia, obtener los cambios de señal Tr(r) y Th(r) de cada uno de los componentes de baja frecuencia y de los componentes de alta frecuencia, utilizando el mismo procedimiento que para calcular T(r) por parte de la unidad de detección de cambio de señal 2e del dispositivo de decodificación del habla 21, y determinar el valor de K(r) utilizándolos. En este caso, por ejemplo, K(r) puede obtenerse de acuerdo a la siguiente expresión (13), en donde ε es una constante, tal como 3,0.
imagen11
(Modificación 2 del primer ejemplo)
Un dispositivo de codificación del habla (que no se ilustra) de una modificación 2 del primer ejemplo incluye físicamente una CPU, una ROM, una RAM, un dispositivo de comunicación y similares, que no se ilustran, y la CPU controla de forma integral el dispositivo de codificación del habla de la modificación 2, cargando y ejecutando un programa informático predeterminado almacenado en una memoria integrada del dispositivo de codificación del habla de la modificación 2, tal como la ROM en la RAM. El dispositivo de comunicación del dispositivo de codificación del habla de la modificación 2 recibe una señal de habla que va a ser codificada desde el exterior del dispositivo de codificación del habla, y emite un flujo de bits multiplexados codificados al exterior del dispositivo de
11 5
15
25
35
45
55
codificación del habla.
El dispositivo de codificación del habla de la modificación 2 incluye funcionalmente una unidad de codificación diferencial de coeficientes de predicción lineal (medio de cálculo de información suplementaria de envolvente temporal), y una unidad de multiplexado de flujos de bits (medio de multiplexado de flujos de bits) que recibe una salida desde la unidad de codificación diferencial de coeficientes de predicción lineal, que no está ilustrada, en lugar de la unidad de cálculo de parámetros de intensidad de filtro 1f y la unidad de multiplexado de flujos de bits 1g del dispositivo de codificación del habla 11. Desde la unidad de transformación de frecuencia 1a hasta la unidad de análisis de predicción lineal 1e, la unidad de codificación diferencial de coeficientes de predicción lineal y la unidad de multiplexado de flujos de bits del dispositivo de codificación del habla de la modificación 2, son funciones realizadas cuando la CPU del dispositivo de codificación del habla de la modificación 2 ejecuta el programa informático almacenado en la memoria integrada del dispositivo de codificación del habla de la modificación 2. Diferentes tipos de datos necesarios para ejecutar el programa informático y diferentes tipos de datos generados al ejecutar el programa informático se almacenan, todos, en la memoria integrada, tal como la ROM y la RAM del dispositivo de codificación del habla de la modificación 2.
La unidad de decodificación diferencial de coeficientes de predicción lineal calcula valores diferenciales aD (n, r) del coeficiente de predicción lineal de acuerdo a la expresión (14) siguiente, utilizando aH (n, r) de la señal de entrada y aL (n, r) de la señal de entrada.
imagen12
A continuación, la unidad de codificación diferencial de coeficientes de predicción lineal cuantiza los aD (n, r), y los transmite a la unidad de multiplexado de flujos de bits (estructura correspondiente a la unidad de multiplexado de flujos de bits 1g). La unidad de multiplexado de flujos de bits multiplexa los aD (n, r) en el flujo de bits en lugar de K(r), y emite el flujo de bits multiplexado al exterior del dispositivo de codificación del habla, a través del dispositivo de comunicación integrado.
Un dispositivo de decodificación del habla (que no se ilustra) de la modificación 2 del primer ejemplo incluye físicamente una CPU, una ROM, una RAM, un dispositivo de comunicación y similares, que no se ilustran, y la CPU controla de forma integral el dispositivo de decodificación del habla de la modificación 2, cargando y ejecutando un programa informático predeterminado, almacenado en una memoria integrada del dispositivo de decodificación del habla de la modificación 2, como la ROM en la RAM. El dispositivo de comunicación del dispositivo de decodificación del habla de la modificación 2 recibe el flujo de bits multiplexados codificados, emitido desde el dispositivo de codificación del habla 11, el dispositivo de codificación del habla 11a de acuerdo a la modificación 1 o el dispositivo de codificación del habla de acuerdo a la modificación 2, y emite una señal de habla decodificada al exterior del dispositivo de decodificación del habla.
El dispositivo de decodificación del habla de la modificación 2 incluye funcionalmente una unidad de decodificación diferencial de coeficientes de predicción lineal, que no se ilustra, en lugar de la unidad de ajuste de intensidad de filtro 2f del dispositivo de decodificación del habla 21. Desde la unidad de separación de flujos de bits 2a hasta la unidad de detección de cambio de señal 2e, la unidad de decodificación diferencial de coeficientes de predicción lineal, y desde la unidad de generación de alta frecuencia 2g hasta la unidad de transformación inversa de frecuencia 2n, del dispositivo de decodificación del habla de la modificación 2, son funciones realizadas cuando la CPU del dispositivo de decodificación del habla de la modificación 2 ejecuta el programa informático almacenado en la memoria integrada del dispositivo de decodificación del habla de la modificación 2. Diferentes tipos de datos necesarios para ejecutar el programa informático y diferentes tipos de datos generados al ejecutar el programa informático están almacenados, todos, en la memoria integrada, tal como la ROM y la RAM del dispositivo de decodificación del habla de la modificación 2.
La unidad de decodificación diferencial de coeficientes de predicción lineal obtiene los aadj (n, r) decodificados de forma diferencial, de acuerdo a la siguiente expresión (15), utilizando los aL (n, r) obtenidos desde la unidad de análisis de predicción lineal de baja frecuencia 2d y los aD (n, r) recibidos desde la unidad de separación de flujos de bits 2a.
imagen13
La unidad de decodificación diferencial de coeficientes de predicción lineal transmite los aadj (n, r) decodificados diferencialmente de esta forma a la unidad de filtro de predicción lineal 2k. Un aD (n, r) puede ser un valor diferencial en el dominio de coeficientes de predicción, tal como se ilustra en la expresión (14). Pero, después de convertir los coeficientes de predicción a la otra forma de expresión, tal como LSP (Par de Espectro Lineal), ISP (Par de Espectro de Impedancia/Admitancia), LSF (Frecuencia de Espectro Lineal), ISF (Frecuencia de Espectro de Impedancia/Admitancia) y el coeficiente PARCOR (Correlación Parcial), un aD (n, r) puede ser un valor que muestra
12 5
15
25
35
45
55
65
una diferencia de los mismos. En este caso, la decodificación diferencial también tiene la misma forma de expresión.
(Segundo ejemplo)
La figura 6 es un diagrama que ilustra un dispositivo de codificación del habla 12 de acuerdo a un segundo ejemplo. El dispositivo de codificación del habla 12 incluye físicamente una CPU, una ROM, una RAM, un dispositivo de comunicación y similares, que no se ilustran, y la CPU controla de forma integral el dispositivo de codificación del habla 12, cargando y ejecutando un programa informático predeterminado (como, por ejemplo, un programa informático para realizar procesos, ilustrado en el diagrama de flujo de la figura 7), almacenado en una memoria integrada del dispositivo de codificación del habla 12, como la ROM en la RAM. El dispositivo de comunicación del dispositivo de codificación del habla 12 recibe una señal de habla que va a ser codificada desde el exterior del dispositivo de codificación del habla 12, y emite un flujo de bits multiplexados codificados al exterior del dispositivo de codificación del habla 12.
El dispositivo de codificación del habla 12 incluye funcionalmente una unidad de diezmado de coeficientes de predicción lineal 1j (medio de diezmado de coeficientes de predicción), una unidad de cuantización de coeficientes de predicción lineal 1k (medio de cuantización de coeficientes de predicción) y una unidad de multiplexado de flujos de bits 1g2 (medio de multiplexado de flujos de bits), en lugar de la unidad de cálculo de parámetros de intensidad de filtro 1f y la unidad de multiplexado de flujos de bits 1g del dispositivo de codificación del habla 11. Desde la unidad de transformación de frecuencia 1a hasta la unidad de análisis de predicción lineal 1e (medio de análisis de predicción lineal), la unidad de diezmado de coeficientes de predicción lineal 1j, la unidad de cuantización de coeficientes de predicción lineal 1k y la unidad de multiplexado de flujos de bits 1g2 del dispositivo de codificación del habla 12, ilustradas en la figura 6, son funciones realizadas cuando la CPU del dispositivo de codificación del habla 12 ejecuta el programa informático almacenado en la memoria integrada en el dispositivo de codificación del habla 12. La CPU del dispositivo de codificación del habla 12 ejecuta procesos secuencialmente (procesos desde la etapa Sa1 hasta la etapa Sa5, y procesos desde la etapa Sc1 hasta la etapa Sc3), ilustrados en el diagrama de flujo de la figura 7, ejecutando el programa informático (o utilizando desde la unidad de transformación de frecuencia 1a hasta la unidad de análisis de predicción lineal 1e, la unidad de diezmado de coeficientes de predicción lineal 1j, la unidad de cuantización de coeficientes de predicción lineal 1k y la unidad de multiplexado de flujos de bits 1g2 del dispositivo de codificación del habla 12 ilustrado en la figura 6). Diferentes tipos de datos necesarios para ejecutar el programa informático y diferentes tipos de datos generados al ejecutar el programa informático se almacenan, todos, en la memoria integrada, como la ROM y la RAM del dispositivo de codificación del habla 12.
La unidad de diezmado del coeficiente de predicción lineal 1j diezma los aH (n, r) obtenidos desde la unidad de análisis de predicción lineal 1e en la dirección temporal, y transmite un valor de aH (n, r) para una parte de la ranura de tiempo ri y un valor del ri correspondiente, a la unidad de cuantización de coeficientes de predicción lineal 1k (proceso en la etapa Sc1). Se observa que 0≤i<Nts, y Nts es el número de ranuras de tiempo en una trama para la cual se transmite aH (n, r). El diezmado de los coeficientes de predicción lineal puede ser realizado en un intervalo de tiempo predeterminado, o puede realizarse en un intervalo de tiempo no uniforme, en base a las características de aH (n, r). Por ejemplo, es posible un procedimiento que compare GH(r) de aH (n, r) en una trama con una cierta longitud, y haga que aH (n, r), al cual GH(r) supera en un cierto valor, sea un objeto de cuantización. Si el intervalo de diezmado de los coeficientes de predicción lineal es un intervalo predeterminado, en lugar de utilizar las características de aH (n, r), aH (n, r) no tiene que ser calculado para la ranura de tiempo en la cual no se realiza la transmisión.
La unidad de cuantización de coeficientes de predicción lineal 1k cuantiza los coeficientes de predicción lineal de alta frecuencia diezmados aH (n, ri), recibidos desde la unidad de diezmado de coeficientes de predicción lineal 1j, y los índices ri de las ranuras de tiempo correspondientes, y los transmite a la unidad de multiplexado de flujos de bits 1g2 (proceso en la etapa Sc2). Como estructura alternativa, en lugar de cuantizar los aH (n, ri), pueden cuantizarse valores diferenciales aD (n, ri) de los coeficientes de predicción lineal, como el dispositivo de codificación del habla de acuerdo a la modificación 2 del primer ejemplo.
La unidad de multiplexado de flujos de bits 1g2 multiplexa el flujo de bits codificados, calculado por la unidad central de codificación de códecs 1c, la información suplementaria de SBR calculada por la unidad de codificación de SBR 1d y los índices {ri} de las ranuras de tiempo correspondientes a los aH (n, ri) que se cuantizan y reciben desde la unidad de cuantización de coeficientes de predicción lineal 1k, en un flujo de bits y emite el flujo de bits multiplexado a través del dispositivo de comunicación del dispositivo de codificación del habla 12 (proceso en la etapa Sc3).
La figura 8 es un diagrama que ilustra un dispositivo de decodificación del habla 22 de acuerdo al segundo ejemplo. El dispositivo de decodificación del habla 22 incluye físicamente una CPU, una ROM, una RAM, un dispositivo de comunicación y similares, que no se ilustran, y la CPU controla de forma integral el dispositivo de decodificación del habla 22, cargando y ejecutando un programa informático predeterminado (como, por ejemplo, un programa informático para realizar procesos ilustrados en el diagrama de flujo de la figura 9), almacenado en una memoria integrada del dispositivo de decodificación del habla 22, tal como la ROM en la RAM. El dispositivo de comunicación del dispositivo de decodificación del habla 22 recibe el flujo de bits multiplexados codificados, emitido desde el dispositivo de codificación del habla 12, y emite una señal de habla decodificada al exterior del dispositivo de
13 5
15
25
35
45
55
codificación del habla 12.
El dispositivo de decodificación del habla 22 incluye funcionalmente una unidad de separación de flujos de bits 2a1 (medio de separación de flujos de bits), una unidad de interpolación/extrapolación de coeficientes de predicción lineal 2p (medio de interpolación/extrapolación de coeficientes de predicción lineal) y una unidad de filtro de predicción lineal 2k1 (medio de formación de la envolvente temporal), en lugar de la unidad de separación de flujos de bits 2a, la unidad de análisis de predicción lineal de baja frecuencia 2d, la unidad de detección de cambio de señal 2e, la unidad de ajuste de intensidad de filtro 2f y la unidad de filtro de predicción lineal 2k del dispositivo de decodificación del habla 21. La unidad de separación de flujos de bits 2a1, la unidad de decodificación central de códecs 2b, la unidad de transformación de frecuencia 2c, desde la unidad de generación de alta frecuencia 2g hasta la unidad de ajuste de alta frecuencia 2j, la unidad de filtro de predicción lineal 2k1, la unidad de adición de coeficientes 2m, la unidad de transformación inversa de frecuencia 2n y la unidad de interpolación/extrapolación de coeficientes de predicción lineal 2p del dispositivo de decodificación del habla 22, ilustrado en la figura 8, son funciones realizadas cuando la CPU del dispositivo de codificación del habla 12 ejecuta el programa informático almacenado en la memoria integrada del dispositivo de codificación del habla 12. La CPU del dispositivo de decodificación del habla 22 ejecuta secuencialmente los procesos (procesos desde la etapa Sb1 hasta la etapa Sd2, etapa Sd1, desde la etapa Sb5 hasta la etapa Sb8, etapa Sd2, y desde la etapa Sb10 hasta la etapa Sb11) ilustrados en el diagrama de flujo de la figura 9, ejecutando el programa informático (o utilizando la unidad de separación de flujos de bits 2a1, la unidad de decodificación central de códecs 2b, la unidad de transformación de frecuencia 2c, desde la unidad de generación de alta frecuencia 2g hasta la unidad de ajuste de alta frecuencia 2j, la unidad de filtro de predicción lineal 2k1, la unidad de adición de coeficientes 2m, la unidad de transformación inversa de frecuencia 2n, y la unidad de interpolación/extrapolación de coeficientes de predicción lineal 2p, ilustradas en la figura 8). Diferentes tipos de datos necesarios para ejecutar el programa informático y diferentes tipos de datos generados al ejecutar el programa informático se almacenan, todos, en la memoria integrada, como la ROM y la RAM del dispositivo de decodificación del habla 22.
El dispositivo de decodificación del habla 22 incluye la unidad de separación de flujos de bits 2a1, la unidad de interpolación/extrapolación de coeficientes de predicción lineal 2p y la unidad de filtro de predicción lineal 2k1, en lugar de la unidad de separación de flujos de bits 2a, la unidad de análisis de predicción lineal de baja frecuencia 2d, la unidad de detección de cambio de señal 2e, la unidad de ajuste de intensidad de filtro 2f y la unidad de filtro de predicción lineal 2k del dispositivo de decodificación del habla 22.
La unidad de separación de flujos de bits 2a1 separa el flujo de bits multiplexado, suministrado a través del dispositivo de comunicación del dispositivo de decodificación del habla 22, en los índices ri de las ranuras de tiempo correspondientes a los aH (n, ri) que se cuantizan, la información suplementaria de SBR y el flujo de bits codificados.
La unidad de interpolación/extrapolación de coeficientes de predicción lineal 2p recibe los índices ri de las ranuras de tiempo correspondientes a los aH (n, ri) que se cuantizan desde la unidad de separación de flujos de bits 2a1, y obtiene los aH (n, r) correspondientes a las ranuras de tiempo cuyos coeficientes de predicción lineal no se transmiten, por interpolación o extrapolación (procesos en la etapa Sd1). La unidad de interpolación/extrapolación de coeficientes de predicción lineal 2p puede extrapolar los coeficientes de predicción lineal, por ejemplo, de acuerdo a la siguiente expresión (16).
imagen14
donde ri0 es el valor más próximo a r en las ranuras de tiempo {ri} cuyos coeficientes de predicción lineal se transmiten.  es una constante que cumple 0<<1.
La unidad de interpolación/extrapolación de coeficientes de predicción lineal 2p puede interpolar los coeficientes de predicción lineal, por ejemplo de acuerdo a la siguiente expresión (17), donde se cumple ri0<r<ri0+1.
imagen15
La unidad de interpolación/extrapolación de coeficientes de predicción lineal 2p puede convertir los coeficientes de predicción lineal en otras formas de expresión, tales como LSP (Par de Espectro Lineal), ISP (Par de Espectro de Impedancia/Admitancia), LSF (Frecuencia de Espectro Lineal), ISF (Frecuencia de Espectro de Impedancia/Admitancia) y coeficientes PARCOR (Correlación Parcial), interpolarlos o extrapolarlos, y convertir los valores obtenidos en coeficientes de predicción lineal para ser utilizados. Los aH (n, r) interpolados o extrapolados se
14
imagen16
5
10
15
20
25
30
35
40
45
50
55
envolvente temporal 1m y recibe límites de tiempo de envolvente de SBR {bi} desde la unidad de codificación de SBR 1d. Debe observarse que 0≤i≤Ne, y Ne es el número de envolventes de SBR en la trama codificada. La unidad de cálculo de parámetros de forma de envolvente 1n obtiene un parámetro de forma de envolvente s(i) (0≤i<Ne) de cada una de las envolventes de SBR en la trama codificada de acuerdo a la siguiente expresión (20) (proceso en la etapa Se2). El parámetro de forma de envolvente s(i) corresponde a la información suplementaria de envolvente temporal, y es similar en el tercer ejemplo.
imagen17
Debe observarse que:
imagen18
donde s(i) en la expresión anterior es un parámetro que indica la magnitud de la variación de e(r) en la envolvente de la i-ésima SBR que cumple bi≤r<bi+1, y e(r) tiene un número mayor a medida que se incrementa la variación de la envolvente temporal. Las expresiones (20) y (21) descritas anteriormente son ejemplos del procedimiento para calcular s(i) y, por ejemplo, s(i) puede obtenerse también utilizando, por ejemplo, la SMF (Medida de Uniformidad Espectral) de e(r), una razón entre el valor máximo y el valor mínimo, y similares. A continuación, se cuantiza s(i) y se transmite a la unidad de multiplexado de flujos de bits 1g3.
La unidad de multiplexado de flujos de bits 1g3 multiplexa el flujo de bits codificados, calculado por la unidad central de codificación de códecs 1c, la información suplementaria de SBR calculada por la unidad de codificación de SBR 1d y s(i) en un flujo de bits, y emite el flujo de bits multiplexado a través del dispositivo de comunicación del dispositivo de codificación del habla 13 (proceso en la etapa Se3).
La figura 12 es un diagrama que ilustra un dispositivo de decodificación del habla 23 de acuerdo al tercer ejemplo. El dispositivo de decodificación del habla 23 incluye físicamente una CPU, una ROM, una RAM, un dispositivo de comunicación y similares, que no se ilustran, y la CPU controla de forma integral el dispositivo de decodificación del habla 23, cargando y ejecutando un programa informático predeterminado (tal como, por ejemplo, un programa informático para realizar procesos ilustrados en el diagrama de flujo de la figura 13) almacenado en una memoria integrada del dispositivo de decodificación del habla 23, tal como la ROM en la RAM. El dispositivo de comunicación del dispositivo de decodificación del habla 23 recibe el flujo de bits multiplexados codificados, emitido desde el dispositivo de codificación del habla 13, y produce una señal de habla decodificada al exterior del dispositivo de decodificación del habla 13.
El dispositivo de decodificación del habla 23 incluye funcionalmente una unidad de separación de flujos de bits 2a2 (medio de separación de flujos de bits), una unidad de cálculo de envolvente temporal de baja frecuencia 2r (medio de análisis de envolvente temporal de baja frecuencia), una unidad de ajuste de forma de envolvente 2s (medio de ajuste de envolvente temporal), una unidad de cálculo de envolvente temporal de alta frecuencia 2t, una unidad de allanamiento de envolvente temporal 2u y una unidad de formación de envolvente temporal 2v (medio de formación de la envolvente temporal), en lugar de la unidad de separación de flujos de bits 2a, la unidad de análisis de predicción lineal de baja frecuencia 2d, la unidad de detección de cambio de señal 2e, la unidad de ajuste de intensidad de filtro 2f, la unidad de análisis de predicción lineal de alta frecuencia 2h, la unidad de filtro inverso de predicción lineal 2i y la unidad de filtro de predicción lineal 2k del dispositivo de decodificación del habla 21. Tal como se menciona en el párrafo [0113], el dispositivo de decodificación del habla 24 de acuerdo a la realización de la presente invención incluye funcionalmente la estructura del dispositivo de decodificación del habla 23. La unidad de cálculo de envolvente temporal de baja frecuencia 2r es una realización del medio de análisis de envolvente temporal de baja frecuencia de la presente invención. La unidad de ajuste de forma de envolvente 2s es una realización del medio de ajuste de envolvente temporal de la presente invención. La unidad de formación de la envolvente temporal 2v es una realización del medio de formación de la envolvente temporal de la presente invención. La unidad de separación de flujos de bits 2a2, desde la unidad de decodificación central de códecs 2b hasta la unidad de transformación de frecuencia 2c, la unidad de generación de alta frecuencia 2g, la unidad de ajuste de alta frecuencia 2j, la unidad de adición de coeficientes 2m, la unidad de transformación inversa de frecuencia 2n, y desde la unidad de cálculo de envolvente temporal de baja frecuencia 2r hasta la unidad de formación de la envolvente temporal 2v del dispositivo de decodificación del habla 23, ilustrado en la figura 12, son
16
imagen19
5
10
15
20
25
30
35
40
45
50
55
imagen20
La unidad de allanamiento de envolvente temporal 2u allana la envolvente temporal de los qexp (k, r) obtenidos desde la unidad de generación de alta frecuencia 2g de acuerdo a la siguiente expresión (27), y transmite la señal obtenida qflat (k, r) en el dominio de QMF a la unidad de ajuste de alta frecuencia 2j (proceso en la etapa Sf4).
imagen21
El allanamiento de la envolvente temporal por parte de la unidad de allanamiento de envolvente temporal 2u también puede omitirse. En lugar de calcular la envolvente temporal de los componentes de alta frecuencia de la salida desde la unidad de generación de alta frecuencia 2g y allanar la envolvente temporal de los mismos, puede calcularse la envolvente temporal de los componentes de alta frecuencia de una salida desde la unidad de ajuste de alta frecuencia 2j, y la envolvente temporal de la misma puede ser allanada. La envolvente temporal utilizada en la unidad de allanamiento de envolvente temporal 2u puede ser también eadj(r), obtenida desde la unidad de ajuste de forma de envolvente 2s, en lugar de la eexp(r) obtenida desde la unidad de cálculo de envolvente temporal de alta frecuencia 2t.
La unidad de formación de la envolvente temporal 2v forma los qadj (k, r) obtenidos desde la unidad de ajuste de alta frecuencia 2j utilizando los eadj(r) obtenidos desde la unidad de formación de la envolvente temporal 2v, y obtiene una señal qenvadj (k, r) en el dominio de QMF en el cual se forma la envolvente temporal (proceso en la etapa Sf5). Tal como se ha mencionado anteriormente, la unidad de formación de envolvente temporal 2v es una realización del medio de formación de envolvente temporal de la presente invención. La formación se realiza de acuerdo a la siguiente expresión (28). La qenvadj (k, r) se transmite a la unidad de adición de coeficientes 2m como una señal en el dominio de QMF correspondiente a los componentes de alta frecuencia.
imagen22
(Realización)
La figura 14 es un diagrama que ilustra un dispositivo de decodificación del habla 24 de acuerdo a una realización de la presente invención. El dispositivo de decodificación del habla 24 incluye físicamente una CPU, una ROM, una RAM, un dispositivo de comunicación y similares, que no se ilustran, y la CPU controla de forma integral el dispositivo de decodificación del habla 24, cargando y ejecutando un programa informático predeterminado almacenado en una memoria integrada del dispositivo de decodificación del habla 24, tal como, por ejemplo, la ROM en la RAM. El dispositivo de comunicación del dispositivo de decodificación del habla 24 recibe la salida del flujo de bits multiplexados codificados desde el dispositivo de codificación del habla 11 o desde el dispositivo de codificación del habla 13, y emite una señal de habla decodificada al exterior del dispositivo de decodificación del habla 24.
El dispositivo de decodificación del habla 24 según la realización de la presente invención incluye funcionalmente la estructura del dispositivo de decodificación del habla 21 según el primer ejemplo (la unidad de decodificación central de códecs 2b, la unidad de transformación de frecuencia 2c, la unidad de análisis de predicción lineal de baja frecuencia 2d, la unidad de detección de cambio de señal 2e, la unidad de ajuste de intensidad de filtro 2f, la unidad de generación de alta frecuencia 2g, la unidad de análisis de predicción lineal de alta frecuencia 2h, la unidad de filtro inverso de predicción lineal 2i, la unidad de ajuste de alta frecuencia 2j, la unidad de filtro de predicción lineal 2k, la unidad de adición de coeficientes 2m y la unidad de transformación inversa de frecuencia 2n) y la estructura del dispositivo de decodificación del habla 23 según el tercer ejemplo (la unidad de cálculo de envolvente temporal de baja frecuencia 2r, la unidad de ajuste de forma de envolvente 2s y la unidad de formación de envolvente temporal 2v). El dispositivo de decodificación del habla 24 también incluye una unidad de separación de flujos de bits 2a3 (medio de separación de flujos de bits) y una unidad de conversión de información suplementaria 2w. La unidad de conversión de información suplementaria 2w es una realización del medio de conversión de información suplementaria de la presente invención. El orden de la unidad de filtro de predicción lineal 2k y de la unidad de formación de envolvente temporal 2v puede ser opuesto al ilustrado en la figura 14. El dispositivo de decodificación del habla 24 recibe, preferiblemente, el flujo de bits codificados por el dispositivo de codificación del habla 11 o el dispositivo de codificación del habla 13. La estructura del dispositivo de decodificación del habla 24 ilustrado en la figura 14 es una función realizada cuando la CPU del dispositivo de decodificación del habla 24 ejecuta el programa informático almacenado en la memoria integrada del dispositivo de decodificación del habla 24. Diferentes tipos de
18
datos necesarios para ejecutar el programa informático y diferentes tipos de datos generados al ejecutar el programa informático se almacenan, todos, en la memoria integrada, tal como la ROM y la RAM del dispositivo de decodificación del habla 24.
5 La unidad de separación de flujos de bits 2a3 separa el flujo de bits, multiplexado a través del dispositivo de comunicación del dispositivo de decodificación del habla 24, en la información suplementaria de la envolvente temporal, la información suplementaria de SBR y el flujo de bits codificados. La información suplementaria de la envolvente temporal también puede ser el K(r) descrito en el primer ejemplo o el s(i) descrito en el tercer ejemplo. La información suplementaria de la envolvente temporal también puede ser otro parámetro X(r) que no es ni K(r) ni s(i).
10 La unidad de conversión de información suplementaria 2w convierte la información suplementaria de envolvente temporal suministrada para obtener K(r) y s(i). Si la información suplementaria de la envolvente temporal es K(r), la unidad de conversión de información suplementaria 2w convierte K(r) en s(i). La unidad de conversión de información suplementaria 2w puede también obtener, por ejemplo, un valor medio de K(r) en una sección de
15 bi≤r<bi+1
imagen23
y convertir el valor medio representado en la expresión (29) en s(i), utilizando una tabla predeterminada. Si la
20 información suplementaria de la envolvente temporal es s(i), la unidad de conversión de información suplementaria 2w convierte s(i) en K(r). La unidad de conversión de información suplementaria 2w puede también realizar la conversión convirtiendo s(i) en K(r), por ejemplo, utilizando una tabla predeterminada. Debe observarse que i y r se asocian entre sí a fin de cumplir la relación de bi≤r<bi+1.
25 Si la información suplementaria de la envolvente temporal es un parámetro X(r) que no es ni s(i) ni K(r), la unidad de conversión de información suplementaria 2w convierte X(r) en K(r) y s(i). Es preferible que la unidad de conversión de información suplementaria 2w convierta X(r) en K(r) y s(i), por ejemplo, utilizando una tabla predeterminada. También es preferible que la unidad de conversión de información suplementaria 2w transmita X(r) como valor representativo, cada envolvente de SBR. Las tablas para convertir X(r) en K(r) y s(i) pueden ser distintas entre sí.
30 (Modificación 3 del primer ejemplo)
En el dispositivo de decodificación del habla 21 del primer ejemplo, la unidad de filtro de predicción lineal 2k del dispositivo de decodificación del habla 21 puede incluir un proceso de control de ganancia automático. El proceso de
35 control de ganancia automático es un proceso para ajustar la potencia de la señal en el dominio de QMF que se emite desde la unidad de filtro de predicción lineal 2k a la potencia de la señal en el dominio de QMF que se proporciona. En general, una señal qsyn,pow (n, r) en el dominio QMF, cuya ganancia se ha controlado, se realiza mediante la siguiente expresión:
imagen24
Aquí, P0(r) y P1(r) se expresan mediante las siguientes expresiones (31) y (32).
imagen25
Al llevar a cabo el proceso de control de ganancia automático, la potencia de los componentes de alta frecuencia de la señal emitida desde la unidad de filtro de predicción lineal 2k se ajusta a un valor equivalente al de antes del 50 filtrado de predicción lineal. Como resultado, el efecto de ajustar la intensidad de la señal de alta frecuencia,
19 5
10
15
20
25
30
35
40
45
realizado por la unidad de ajuste de alta frecuencia 2j, puede mantenerse para la señal de salida de la unidad de filtro de predicción lineal 2k en el cual se forma la envolvente temporal de los componentes de alta frecuencia generados en base a la SBR. El proceso de control de ganancia automático también puede realizarse de forma individual en un espectro de frecuencia específico de la señal en el dominio de QMF. El proceso realizado en el espectro de frecuencia individual puede realizarse limitando n en la expresión (30), la expresión (31) y la expresión
(32) dentro de un espectro de frecuencia específico. Por ejemplo, el espectro de frecuencia i-ésima puede expresarse como Fi≤n<Fi+1 (en este caso, i es un índice que indica el número de un espectro de frecuencia específico de la señal en el dominio de QMF). Fi indica el límite del espectro de frecuencia, y es preferible que Fi sea una tabla de límites de frecuencia de un factor de escala de envolvente definido en la SBR en la “MPEG4 AAC”. La tabla de límites de frecuencia está definida por la unidad de generación de alta frecuencia 2g en base a la definición de SBR en la “MPEG4 AAC”. Al realizar el proceso de control de ganancia automático, la intensidad de la señal de salida de la unidad de filtro de predicción lineal 2k en un espectro de frecuencias específico de los componentes de alta frecuencia se ajusta a un valor equivalente al de antes del filtrado de predicción lineal. Como resultado, el efecto para ajustar la intensidad de la señal de alta frecuencia, realizado por la unidad de ajuste de alta frecuencia 2j en la señal de salida desde la unidad de filtro de predicción lineal 2k en la cual se forma la envolvente temporal de los componentes de alta frecuencia generados en base a la SBR, se mantiene por unidad de espectro de frecuencia. Los cambios realizados en la presente modificación 3 del primer ejemplo pueden también hacerse para la unidad de filtro de predicción lineal 2k de la realización.
([Modificación 1 del tercer ejemplo)
La unidad de cálculo de parámetros de forma de envolvente 1n en el dispositivo de codificación del habla 13 del tercer ejemplo puede también realizarse mediante el proceso siguiente. La unidad de cálculo de parámetros de forma de envolvente 1n obtiene un parámetro de forma de envolvente s(i) (0≤i<Ne) de acuerdo a la siguiente expresión (33) para cada envolvente de SBR en la trama codificada.
imagen26
es un valor medio de e(r) en la envolvente de SBR, y el procedimiento de cálculo está basado en la expresión (21). Debe observarse que la envolvente de SBR indica el segmento de tiempo que cumple bi≤r<bi+1. Los {bi} son los límites de tiempo de las envolventes de SBR, incluidos en la información suplementaria de SBR como información, y son los límites del segmento de tiempo para el cual se da el factor de escala de envolvente de SBR que representa la energía de señal media en un segmento de tiempo determinado y un espectro de frecuencia determinado. min (·) representa el valor mínimo dentro de la gama de bi≤r<bi+1. Por consiguiente, en este caso, el parámetro de forma de envolvente s(i) es un parámetro para indicar una razón entre el valor mínimo y el valor medio de la información de la envolvente temporal ajustada en la envolvente de SBR. La unidad de ajuste de forma de envolvente 2s en el dispositivo de decodificación del habla 23 del tercer ejemplo también puede realizarse por medio del proceso siguiente. La unidad de ajuste de forma de envolvente 2s ajusta e(r) utilizando s(i) para obtener la información de la envolvente temporal ajustada eadj(r). El procedimiento de ajuste se basa en las siguientes expresión (35) o expresión (36).
imagen27
20
imagen28
imagen29
imagen30
imagen31
imagen32
imagen33
imagen34
imagen35
imagen36
imagen37
imagen38
imagen39
imagen40
imagen41
imagen42
imagen43
imagen44
imagen45
imagen46
imagen47
imagen48

Claims (1)

  1. imagen1
    imagen2
    imagen3
    imagen4
ES12171603.9T 2009-04-03 2010-04-02 Dispositivo de decodificación del habla, procedimiento de decodificación del habla y programa de decodificación del habla Active ES2610363T3 (es)

Applications Claiming Priority (8)

Application Number Priority Date Filing Date Title
JP2009091396 2009-04-03
JP2009091396 2009-04-03
JP2009146831 2009-06-19
JP2009146831 2009-06-19
JP2009162238 2009-07-08
JP2009162238 2009-07-08
JP2010004419A JP4932917B2 (ja) 2009-04-03 2010-01-12 音声復号装置、音声復号方法、及び音声復号プログラム
JP2010004419 2010-01-12

Publications (1)

Publication Number Publication Date
ES2610363T3 true ES2610363T3 (es) 2017-04-27

Family

ID=42828407

Family Applications (5)

Application Number Title Priority Date Filing Date
ES12171612.0T Active ES2587853T3 (es) 2009-04-03 2010-04-02 Dispositivo de decodificación de habla, método de decodificación de habla y programa de decodificación de habla
ES10758890.7T Active ES2453165T3 (es) 2009-04-03 2010-04-02 Dispositivo de codificación de habla, dispositivo de descodificación de habla, método de codificación de habla, método de descodificaión de habla, programa de codificación de habla y programa de descodificación de habla
ES12171613T Active ES2428316T3 (es) 2009-04-03 2010-04-02 Dispositivo de descodificación de habla, método de descodificación de habla y programa de descodificación de habla
ES12171597.3T Active ES2586766T3 (es) 2009-04-03 2010-04-02 Dispositivo de decodificación de habla, método de decodificación de habla y programa de decodificación de habla
ES12171603.9T Active ES2610363T3 (es) 2009-04-03 2010-04-02 Dispositivo de decodificación del habla, procedimiento de decodificación del habla y programa de decodificación del habla

Family Applications Before (4)

Application Number Title Priority Date Filing Date
ES12171612.0T Active ES2587853T3 (es) 2009-04-03 2010-04-02 Dispositivo de decodificación de habla, método de decodificación de habla y programa de decodificación de habla
ES10758890.7T Active ES2453165T3 (es) 2009-04-03 2010-04-02 Dispositivo de codificación de habla, dispositivo de descodificación de habla, método de codificación de habla, método de descodificaión de habla, programa de codificación de habla y programa de descodificación de habla
ES12171613T Active ES2428316T3 (es) 2009-04-03 2010-04-02 Dispositivo de descodificación de habla, método de descodificación de habla y programa de descodificación de habla
ES12171597.3T Active ES2586766T3 (es) 2009-04-03 2010-04-02 Dispositivo de decodificación de habla, método de decodificación de habla y programa de decodificación de habla

Country Status (21)

Country Link
US (5) US8655649B2 (es)
EP (5) EP2503547B1 (es)
JP (1) JP4932917B2 (es)
KR (7) KR101530295B1 (es)
CN (6) CN102737640B (es)
AU (1) AU2010232219B8 (es)
BR (1) BRPI1015049B1 (es)
CA (4) CA2757440C (es)
CY (1) CY1114412T1 (es)
DK (2) DK2509072T3 (es)
ES (5) ES2587853T3 (es)
HR (1) HRP20130841T1 (es)
MX (1) MX2011010349A (es)
PH (4) PH12012501118B1 (es)
PL (2) PL2503548T3 (es)
PT (3) PT2503548E (es)
RU (6) RU2498421C2 (es)
SG (2) SG10201401582VA (es)
SI (1) SI2503548T1 (es)
TW (6) TWI478150B (es)
WO (1) WO2010114123A1 (es)

Families Citing this family (62)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4932917B2 (ja) 2009-04-03 2012-05-16 株式会社エヌ・ティ・ティ・ドコモ 音声復号装置、音声復号方法、及び音声復号プログラム
WO2011048798A1 (ja) * 2009-10-20 2011-04-28 パナソニック株式会社 符号化装置、復号化装置およびこれらの方法
KR101430118B1 (ko) * 2010-04-13 2014-08-18 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. 오디오 또는 비디오 인코더, 오디오 또는 비디오 디코더 그리고 가변적인 예상 방향을 이용하여 멀티-채널 오디오 또는 비디오 신호들을 프로세싱하기 위한 관련 방법들
MX2013007489A (es) * 2010-12-29 2013-11-20 Samsung Electronics Co Ltd Aparato y metodo para codificacion/decodificacion para extension de ancho de banda de alta frecuencia.
CA3147525A1 (en) * 2011-02-18 2012-08-23 Ntt Docomo, Inc. Speech decoder, speech encoder, speech decoding method, speech encoding method, speech decoding program, and speech encoding program
CN103918029B (zh) * 2011-11-11 2016-01-20 杜比国际公司 使用过采样谱带复制的上采样
JP5997592B2 (ja) * 2012-04-27 2016-09-28 株式会社Nttドコモ 音声復号装置
JP6200034B2 (ja) * 2012-04-27 2017-09-20 株式会社Nttドコモ 音声復号装置
CN102737647A (zh) * 2012-07-23 2012-10-17 武汉大学 双声道音频音质增强编解码方法及装置
EP2704142B1 (en) * 2012-08-27 2015-09-02 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for reproducing an audio signal, apparatus and method for generating a coded audio signal, computer program and coded audio signal
CN103730125B (zh) * 2012-10-12 2016-12-21 华为技术有限公司 一种回声抵消方法和设备
CN103928031B (zh) 2013-01-15 2016-03-30 华为技术有限公司 编码方法、解码方法、编码装置和解码装置
PL2939235T3 (pl) 2013-01-29 2017-04-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Adaptacyjna względem tonalności kwantyzacja o niskiej złożoności sygnału audio
MX346945B (es) * 2013-01-29 2017-04-06 Fraunhofer Ges Forschung Aparato y metodo para generar una señal de refuerzo de frecuencia mediante una operacion de limitacion de energia.
US9711156B2 (en) * 2013-02-08 2017-07-18 Qualcomm Incorporated Systems and methods of performing filtering for gain determination
KR102148407B1 (ko) * 2013-02-27 2020-08-27 한국전자통신연구원 소스 필터를 이용한 주파수 스펙트럼 처리 장치 및 방법
TWI477789B (zh) * 2013-04-03 2015-03-21 Tatung Co 資訊擷取裝置及其發送頻率調整方法
CN108806704B (zh) 2013-04-19 2023-06-06 韩国电子通信研究院 多信道音频信号处理装置及方法
JP6305694B2 (ja) * 2013-05-31 2018-04-04 クラリオン株式会社 信号処理装置及び信号処理方法
FR3008533A1 (fr) 2013-07-12 2015-01-16 Orange Facteur d'echelle optimise pour l'extension de bande de frequence dans un decodeur de signaux audiofrequences
CN110070877B (zh) * 2013-07-18 2022-11-11 日本电信电话株式会社 线性预测分析装置、线性预测分析方法以及记录介质
EP2830059A1 (en) 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Noise filling energy adjustment
US9319819B2 (en) * 2013-07-25 2016-04-19 Etri Binaural rendering method and apparatus for decoding multi channel audio
WO2015017223A1 (en) * 2013-07-29 2015-02-05 Dolby Laboratories Licensing Corporation System and method for reducing temporal artifacts for transient signals in a decorrelator circuit
CN105761723B (zh) 2013-09-26 2019-01-15 华为技术有限公司 一种高频激励信号预测方法及装置
CN104517610B (zh) 2013-09-26 2018-03-06 华为技术有限公司 频带扩展的方法及装置
AU2014336356B2 (en) 2013-10-18 2017-04-06 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Concept for encoding an audio signal and decoding an audio signal using speech related spectral shaping information
EP3779982A1 (en) 2013-10-18 2021-02-17 Fraunhofer Gesellschaft zur Förderung der angewandten Forschung E.V. Concept of encoding an audio signal and decoding an audio signal using deterministic and noise like information
CN105706166B (zh) * 2013-10-31 2020-07-14 弗劳恩霍夫应用研究促进协会 对比特流进行解码的音频解码器设备和方法
KR20160087827A (ko) * 2013-11-22 2016-07-22 퀄컴 인코포레이티드 고대역 코딩에서의 선택적 위상 보상
JP6319753B2 (ja) 2013-12-02 2018-05-09 華為技術有限公司Huawei Technologies Co.,Ltd. 符号化方法および装置
US10163447B2 (en) * 2013-12-16 2018-12-25 Qualcomm Incorporated High-band signal modeling
RU2662693C2 (ru) * 2014-02-28 2018-07-26 Фраунхофер-Гезелльшафт Цур Фердерунг Дер Ангевандтен Форшунг Е.Ф. Устройство декодирования, устройство кодирования, способ декодирования и способ кодирования
JP6035270B2 (ja) * 2014-03-24 2016-11-30 株式会社Nttドコモ 音声復号装置、音声符号化装置、音声復号方法、音声符号化方法、音声復号プログラム、および音声符号化プログラム
RU2673691C1 (ru) 2014-04-25 2018-11-29 Нтт Докомо, Инк. Устройство преобразования коэффициентов линейного предсказания и способ преобразования коэффициентов линейного предсказания
CN110491401B (zh) * 2014-05-01 2022-10-21 日本电信电话株式会社 周期性综合包络序列生成装置、方法、记录介质
WO2016024853A1 (ko) * 2014-08-15 2016-02-18 삼성전자 주식회사 음질 향상 방법 및 장치, 음성 복호화방법 및 장치와 이를 채용한 멀티미디어 기기
US9659564B2 (en) * 2014-10-24 2017-05-23 Sestek Ses Ve Iletisim Bilgisayar Teknolojileri Sanayi Ticaret Anonim Sirketi Speaker verification based on acoustic behavioral characteristics of the speaker
US9455732B2 (en) * 2014-12-19 2016-09-27 Stmicroelectronics S.R.L. Method and device for analog-to-digital conversion of signals, corresponding apparatus
WO2016142002A1 (en) 2015-03-09 2016-09-15 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Audio encoder, audio decoder, method for encoding an audio signal and method for decoding an encoded audio signal
CA2982017A1 (en) * 2015-04-10 2016-10-13 Thomson Licensing Method and device for encoding multiple audio signals, and method and device for decoding a mixture of multiple audio signals with improved separation
PT3443557T (pt) * 2016-04-12 2020-08-27 Fraunhofer Ges Forschung Codificador de áudio para codificar um sinal de áudio, método para codificar um sinal de áudio e programa de computador sob consideração de uma região espectral de pico detetada numa banda de frequência superior
WO2017196382A1 (en) * 2016-05-11 2017-11-16 Nuance Communications, Inc. Enhanced de-esser for in-car communication systems
DE102017204181A1 (de) 2017-03-14 2018-09-20 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Sender zum Emittieren von Signalen und Empfänger zum Empfangen von Signalen
EP3382701A1 (en) 2017-03-31 2018-10-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for post-processing an audio signal using prediction based shaping
EP3382700A1 (en) 2017-03-31 2018-10-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for post-processing an audio signal using a transient location detection
EP3483884A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Signal filtering
WO2019091573A1 (en) 2017-11-10 2019-05-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for encoding and decoding an audio signal using downsampling or interpolation of scale parameters
EP3483879A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Analysis/synthesis windowing function for modulated lapped transformation
EP3483883A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio coding and decoding with selective postfiltering
EP3483882A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Controlling bandwidth in encoders and/or decoders
EP3483880A1 (en) * 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Temporal noise shaping
EP3483886A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Selecting pitch lag
WO2019091576A1 (en) 2017-11-10 2019-05-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoders, audio decoders, methods and computer programs adapting an encoding and decoding of least significant bits
EP3483878A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio decoder supporting a set of different loss concealment tools
US11275556B2 (en) * 2018-02-27 2022-03-15 Zetane Systems Inc. Method, computer-readable medium, and processing unit for programming using transforms on heterogeneous data
US10810455B2 (en) 2018-03-05 2020-10-20 Nvidia Corp. Spatio-temporal image metric for rendered animations
CN109243485B (zh) * 2018-09-13 2021-08-13 广州酷狗计算机科技有限公司 恢复高频信号的方法和装置
KR102603621B1 (ko) * 2019-01-08 2023-11-16 엘지전자 주식회사 신호 처리 장치 및 이를 구비하는 영상표시장치
CN113192523A (zh) * 2020-01-13 2021-07-30 华为技术有限公司 一种音频编解码方法和音频编解码设备
JP6872056B2 (ja) * 2020-04-09 2021-05-19 株式会社Nttドコモ 音声復号装置および音声復号方法
CN113190508B (zh) * 2021-04-26 2023-05-05 重庆市规划和自然资源信息中心 一种面向管理的自然语言识别方法

Family Cites Families (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SE512719C2 (sv) 1997-06-10 2000-05-02 Lars Gustaf Liljeryd En metod och anordning för reduktion av dataflöde baserad på harmonisk bandbreddsexpansion
RU2256293C2 (ru) * 1997-06-10 2005-07-10 Коудинг Технолоджиз Аб Усовершенствование исходного кодирования с использованием дублирования спектральной полосы
DE19747132C2 (de) 1997-10-24 2002-11-28 Fraunhofer Ges Forschung Verfahren und Vorrichtungen zum Codieren von Audiosignalen sowie Verfahren und Vorrichtungen zum Decodieren eines Bitstroms
US6978236B1 (en) * 1999-10-01 2005-12-20 Coding Technologies Ab Efficient spectral envelope coding using variable time/frequency resolution and time/frequency switching
SE0001926D0 (sv) * 2000-05-23 2000-05-23 Lars Liljeryd Improved spectral translation/folding in the subband domain
SE0004187D0 (sv) * 2000-11-15 2000-11-15 Coding Technologies Sweden Ab Enhancing the performance of coding systems that use high frequency reconstruction methods
US8782254B2 (en) * 2001-06-28 2014-07-15 Oracle America, Inc. Differentiated quality of service context assignment and propagation
EP1444688B1 (en) * 2001-11-14 2006-08-16 Matsushita Electric Industrial Co., Ltd. Encoding device and decoding device
US7469206B2 (en) * 2001-11-29 2008-12-23 Coding Technologies Ab Methods for improving high frequency reconstruction
US20030187663A1 (en) * 2002-03-28 2003-10-02 Truman Michael Mead Broadband frequency translation for high frequency regeneration
US7555434B2 (en) * 2002-07-19 2009-06-30 Nec Corporation Audio decoding device, decoding method, and program
JP3646939B1 (ja) * 2002-09-19 2005-05-11 松下電器産業株式会社 オーディオ復号装置およびオーディオ復号方法
US7519538B2 (en) * 2003-10-30 2009-04-14 Koninklijke Philips Electronics N.V. Audio signal encoding or decoding
US7668711B2 (en) * 2004-04-23 2010-02-23 Panasonic Corporation Coding equipment
TWI393120B (zh) * 2004-08-25 2013-04-11 Dolby Lab Licensing Corp 用於音訊信號編碼及解碼之方法和系統、音訊信號編碼器、音訊信號解碼器、攜帶有位元流之電腦可讀取媒體、及儲存於電腦可讀取媒體上的電腦程式
US7720230B2 (en) 2004-10-20 2010-05-18 Agere Systems, Inc. Individual channel shaping for BCC schemes and the like
US7045799B1 (en) 2004-11-19 2006-05-16 Varian Semiconductor Equipment Associates, Inc. Weakening focusing effect of acceleration-deceleration column of ion implanter
TWI319565B (en) * 2005-04-01 2010-01-11 Qualcomm Inc Methods, and apparatus for generating highband excitation signal
WO2006108543A1 (en) * 2005-04-15 2006-10-19 Coding Technologies Ab Temporal envelope shaping of decorrelated signal
US9043214B2 (en) * 2005-04-22 2015-05-26 Qualcomm Incorporated Systems, methods, and apparatus for gain factor attenuation
JP4339820B2 (ja) * 2005-05-30 2009-10-07 太陽誘電株式会社 光情報記録装置および方法および信号処理回路
US20070006716A1 (en) * 2005-07-07 2007-01-11 Ryan Salmond On-board electric guitar tuner
DE102005032724B4 (de) * 2005-07-13 2009-10-08 Siemens Ag Verfahren und Vorrichtung zur künstlichen Erweiterung der Bandbreite von Sprachsignalen
JP4921365B2 (ja) 2005-07-15 2012-04-25 パナソニック株式会社 信号処理装置
US7953605B2 (en) * 2005-10-07 2011-05-31 Deepen Sinha Method and apparatus for audio encoding and decoding using wideband psychoacoustic modeling and bandwidth extension
JP5457171B2 (ja) * 2006-03-20 2014-04-02 オランジュ オーディオデコーダ内で信号を後処理する方法
KR100791846B1 (ko) * 2006-06-21 2008-01-07 주식회사 대우일렉트로닉스 오디오 복호기
US9454974B2 (en) * 2006-07-31 2016-09-27 Qualcomm Incorporated Systems, methods, and apparatus for gain factor limiting
CN101140759B (zh) * 2006-09-08 2010-05-12 华为技术有限公司 语音或音频信号的带宽扩展方法及系统
DE102006049154B4 (de) * 2006-10-18 2009-07-09 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Kodierung eines Informationssignals
JP4918841B2 (ja) 2006-10-23 2012-04-18 富士通株式会社 符号化システム
WO2009029037A1 (en) * 2007-08-27 2009-03-05 Telefonaktiebolaget Lm Ericsson (Publ) Adaptive transition frequency between noise fill and bandwidth extension
WO2009059632A1 (en) * 2007-11-06 2009-05-14 Nokia Corporation An encoder
KR101413967B1 (ko) 2008-01-29 2014-07-01 삼성전자주식회사 오디오 신호의 부호화 방법 및 복호화 방법, 및 그에 대한 기록 매체, 오디오 신호의 부호화 장치 및 복호화 장치
KR101413968B1 (ko) * 2008-01-29 2014-07-01 삼성전자주식회사 오디오 신호의 부호화, 복호화 방법 및 장치
US20090201983A1 (en) * 2008-02-07 2009-08-13 Motorola, Inc. Method and apparatus for estimating high-band energy in a bandwidth extension system
KR101475724B1 (ko) * 2008-06-09 2014-12-30 삼성전자주식회사 오디오 신호 품질 향상 장치 및 방법
KR20100007018A (ko) * 2008-07-11 2010-01-22 에스앤티대우(주) 피스톤밸브 어셈블리 및 이를 포함하는 연속 감쇠력 가변형댐퍼
US8352279B2 (en) * 2008-09-06 2013-01-08 Huawei Technologies Co., Ltd. Efficient temporal envelope coding approach by prediction between low band signal and high band signal
US8532998B2 (en) * 2008-09-06 2013-09-10 Huawei Technologies Co., Ltd. Selective bandwidth extension for encoding/decoding audio/speech signal
US8463599B2 (en) * 2009-02-04 2013-06-11 Motorola Mobility Llc Bandwidth extension method and apparatus for a modified discrete cosine transform audio coder
JP4932917B2 (ja) 2009-04-03 2012-05-16 株式会社エヌ・ティ・ティ・ドコモ 音声復号装置、音声復号方法、及び音声復号プログラム
US9047875B2 (en) * 2010-07-19 2015-06-02 Futurewei Technologies, Inc. Spectrum flatness control for bandwidth extension

Also Published As

Publication number Publication date
TWI476763B (zh) 2015-03-11
US9064500B2 (en) 2015-06-23
CA2844441C (en) 2016-03-15
CA2844635A1 (en) 2010-10-07
TW201126515A (en) 2011-08-01
SG10201401582VA (en) 2014-08-28
TW201243833A (en) 2012-11-01
PL2503546T4 (pl) 2017-01-31
RU2011144573A (ru) 2013-05-10
EP2503548A1 (en) 2012-09-26
RU2012130461A (ru) 2014-02-10
CN102737640A (zh) 2012-10-17
CN102737640B (zh) 2014-08-27
TW201243831A (en) 2012-11-01
KR101702412B1 (ko) 2017-02-03
US20130138432A1 (en) 2013-05-30
SG174975A1 (en) 2011-11-28
EP2503547A1 (en) 2012-09-26
CN102779522A (zh) 2012-11-14
EP2416316A1 (en) 2012-02-08
TWI379288B (es) 2012-12-11
RU2595915C2 (ru) 2016-08-27
CA2844438C (en) 2016-03-15
CN102779520A (zh) 2012-11-14
EP2509072B1 (en) 2016-10-19
MX2011010349A (es) 2011-11-29
TW201243830A (en) 2012-11-01
PH12012501116A1 (en) 2015-08-03
CY1114412T1 (el) 2016-08-31
TW201243832A (en) 2012-11-01
KR101702415B1 (ko) 2017-02-03
CA2844441A1 (en) 2010-10-07
ES2428316T3 (es) 2013-11-07
EP2503547B1 (en) 2016-05-11
US9779744B2 (en) 2017-10-03
KR101172325B1 (ko) 2012-08-14
PT2509072T (pt) 2016-12-13
EP2416316B1 (en) 2014-01-08
PL2503548T3 (pl) 2013-11-29
AU2010232219B2 (en) 2012-11-22
ES2453165T9 (es) 2014-05-06
KR20160137668A (ko) 2016-11-30
EP2503548B1 (en) 2013-06-19
PH12012501116B1 (en) 2015-08-03
EP2416316A4 (en) 2012-09-12
KR101172326B1 (ko) 2012-08-14
EP2503546A1 (en) 2012-09-26
RU2498420C1 (ru) 2013-11-10
ES2453165T3 (es) 2014-04-04
PT2503548E (pt) 2013-09-20
US20140163972A1 (en) 2014-06-12
DK2503548T3 (da) 2013-09-30
RU2595914C2 (ru) 2016-08-27
AU2010232219B8 (en) 2012-12-06
EP2503546B1 (en) 2016-05-11
CN102379004A (zh) 2012-03-14
PH12012501119B1 (en) 2015-05-18
RU2012130472A (ru) 2013-09-10
CN102779523B (zh) 2015-04-01
PH12012501118A1 (en) 2015-05-11
CN102779521A (zh) 2012-11-14
KR20120079182A (ko) 2012-07-11
RU2012130462A (ru) 2013-09-10
PH12012501117B1 (en) 2015-05-11
RU2498422C1 (ru) 2013-11-10
CA2757440C (en) 2016-07-05
PH12012501119A1 (en) 2015-05-18
PH12012501118B1 (en) 2015-05-11
AU2010232219A1 (en) 2011-11-03
EP2509072A1 (en) 2012-10-10
TWI479479B (zh) 2015-04-01
JP2011034046A (ja) 2011-02-17
HRP20130841T1 (hr) 2013-10-25
US10366696B2 (en) 2019-07-30
KR101530295B1 (ko) 2015-06-19
ES2586766T3 (es) 2016-10-18
US9460734B2 (en) 2016-10-04
TWI478150B (zh) 2015-03-21
PH12012501117A1 (en) 2015-05-11
CN102779522B (zh) 2015-06-03
KR20120080258A (ko) 2012-07-16
BRPI1015049B1 (pt) 2020-12-08
CA2844438A1 (en) 2010-10-07
RU2498421C2 (ru) 2013-11-10
PT2416316E (pt) 2014-02-24
CN102379004B (zh) 2012-12-12
TWI479480B (zh) 2015-04-01
CA2757440A1 (en) 2010-10-07
KR101530294B1 (ko) 2015-06-19
US20160365098A1 (en) 2016-12-15
ES2587853T3 (es) 2016-10-27
KR20110134442A (ko) 2011-12-14
PL2503546T3 (pl) 2016-11-30
TWI384461B (zh) 2013-02-01
TW201246194A (en) 2012-11-16
US20120010879A1 (en) 2012-01-12
KR20120082475A (ko) 2012-07-23
RU2595951C2 (ru) 2016-08-27
RU2012130466A (ru) 2014-01-27
KR101530296B1 (ko) 2015-06-19
JP4932917B2 (ja) 2012-05-16
US20160358615A1 (en) 2016-12-08
CN102779521B (zh) 2015-01-28
CN102779520B (zh) 2015-01-28
SI2503548T1 (sl) 2013-10-30
US8655649B2 (en) 2014-02-18
CN102779523A (zh) 2012-11-14
RU2012130470A (ru) 2014-01-27
KR20120080257A (ko) 2012-07-16
DK2509072T3 (en) 2016-12-12
KR20120082476A (ko) 2012-07-23
WO2010114123A1 (ja) 2010-10-07
CA2844635C (en) 2016-03-29

Similar Documents

Publication Publication Date Title
ES2610363T3 (es) Dispositivo de decodificación del habla, procedimiento de decodificación del habla y programa de decodificación del habla
JP2011034046A5 (ja) 音声復号装置、音声復号方法、及び音声復号プログラム
TW201131555A (en) Frequency band enlarging apparatus and method, encoding apparatus and method, decoding apparatus and method, and program
JP5588547B2 (ja) 音声復号装置、音声復号方法、及び音声復号プログラム
JPWO2012046447A1 (ja) 符号化装置、復号装置、符号化方法及び復号方法
WO2011045926A1 (ja) 符号化装置、復号装置およびこれらの方法
KR20130028718A (ko) 오디오 신호 처리 방법 및 장치
KR101352608B1 (ko) 음성 신호의 대역폭 확장 방법 및 그 장치
KR102148407B1 (ko) 소스 필터를 이용한 주파수 스펙트럼 처리 장치 및 방법
AU2012204119B2 (en) Speech encoding device, speech decoding device, speech encoding method, speech decoding method, speech encoding program, and speech decoding program
BR122012021668A2 (pt) Dispositivo de codificação de voz, dispositivo de decodificação de voz, método de codificação de voz, método de decodificação de voz, programa de codificação de voz e programa de decodificação de voz
JP2008090178A (ja) 信号処理方法、信号処理装置及びプログラム