ES2659068T3 - Procedimiento y aparato de codificación de audio - Google Patents
Procedimiento y aparato de codificación de audio Download PDFInfo
- Publication number
- ES2659068T3 ES2659068T3 ES15811087.4T ES15811087T ES2659068T3 ES 2659068 T3 ES2659068 T3 ES 2659068T3 ES 15811087 T ES15811087 T ES 15811087T ES 2659068 T3 ES2659068 T3 ES 2659068T3
- Authority
- ES
- Spain
- Prior art keywords
- audio frame
- lsf
- modification
- linear prediction
- prediction parameter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 26
- 238000012986 modification Methods 0.000 claims abstract description 169
- 230000004048 modification Effects 0.000 claims abstract description 169
- 230000003595 spectral effect Effects 0.000 claims abstract description 28
- 238000001228 spectrum Methods 0.000 claims description 126
- 230000007704 transition Effects 0.000 claims description 39
- 230000001052 transient effect Effects 0.000 claims description 18
- 238000005516 engineering process Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 7
- 238000011002 quantification Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 3
- 230000005236 sound signal Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 230000005284 excitation Effects 0.000 description 1
- 238000011022 operating instruction Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/08—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
- G10L19/12—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
- G10L19/022—Blocking, i.e. grouping of samples in time; Choice of analysis windows; Overlap factoring
- G10L19/025—Detection of transients or attacks for time/frequency resolution switching
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/06—Determination or coding of the spectral characteristics, e.g. of the short-term prediction coefficients
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/12—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being prediction coefficients
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
Un procedimiento de codificación de audio, que comprende: para cada trama de audio, cuando se determina que una característica de señal de la trama de audio y una característica de señal de una trama de audio anterior de la trama de audio cumplen con una condición de modificación preestablecida, determinar un primer peso de modificación según diferencias de frecuencias espectrales de línea, LSF, de la trama de audio y diferencias de LSF de la trama de audio anterior; o cuando se determina que la característica de señal de la trama de audio y la característica de señal de la trama de audio anterior no cumplen con la condición de modificación preestablecida, determinar un segundo peso de modificación, utilizándose la condición de modificación preestablecida para determinar que la característica de señal de la trama de audio es similar a la característica de señal de la trama de audio anterior; modificar un parámetro de predicción lineal de la trama de audio según el primer peso de modificación determinado o el segundo peso de modificación determinado; y codificar la trama de audio según el parámetro de predicción lineal modificado de la trama de audio.
Description
5
10
15
20
25
30
35
40
45
50
55
60
65
DESCRIPCION
Procedimiento y aparato de codificación de audio Campo técnico
La presente invención se refiere al campo de las comunicaciones, y en particular, a un procedimiento y un aparato de codificación de audio.
Antecedentes
Con el desarrollo constante de las tecnologías, los usuarios tienen una necesidad cada vez mayor de calidad de audio de un dispositivo electrónico. Un procedimiento principal para mejorar la calidad de audio es mejorar un ancho de banda de audio. Si el dispositivo electrónico codifica el audio en un modo de codificación convencional para aumentar el ancho de banda del audio, aumenta enormemente la tasa de transmisión de bits de la información del audio codificada. Por tanto, cuando la información del audio codificada se transmite entre dos dispositivos electrónicos, se ocupa un ancho de banda de transmisión de red relativamente amplio. Por tanto, un aspecto que debe solucionarse es codificar audio que tenga un ancho de banda mayor al tiempo que la tasa de transmisión de bits de la información del audio codificada permanece invariable o la tasa de transmisión de bits cambia ligeramente. Para ello, una solución propuesta es utilizar una tecnología de extensión de ancho de banda. La tecnología de extensión de ancho de banda se divide en una tecnología de extensión de ancho de banda de dominio de tiempo y una tecnología de extensión de ancho de banda de dominio de frecuencia. La presente invención se refiere a la tecnología de extensión de ancho de banda de dominio de tiempo.
En la tecnología de extensión de ancho de banda de dominio de tiempo, se calcula un parámetro de predicción lineal, tal como un coeficiente de codificación de predicción lineal (LPC, Linear Predictive Coding), un coeficiente de pares espectrales lineales (LSP, Linear Spectral Pairs), un coeficiente de pares espectrales de inmitancia (ISP, Immittance Spectral Pairs) o un coeficiente de frecuencias espectrales de línea (LSF, Linear Spectral Frequency), de cada trama de audio en audio generalmente utilizando un algoritmo de predicción lineal. Cuando se realiza una transmisión de codificación en el audio, el audio se codifica según el parámetro de predicción lineal de cada trama de audio en el audio. Sin embargo, en caso de que el requisito de precisión de errores de códec sea relativamente alto, este modo de codificación provoca discontinuidad de un espectro entre tramas de audio. La publicación “Interframe Differential Coding of Line Spectrum Frequencies” de Erzin et Al., IEEE TRANSACTIONS oN SPEECH AND AUDIO PROCESSING, IEEE, vol. 3, n.° 2, 1 de abril de 1994, páginas 350-352, propone codificar en el tiempo de manera diferencial los LSF con el fin de conseguir tasas de transmisión de bits inferiores en comparación con la codificación entre tramas solamente.
Sumario
Las formas de realización de la presente invención proporcionan un procedimiento y un aparato de codificación de audio. Puede codificarse audio con un ancho de banda mayor al tiempo que la tasa de transmisión de bits permanece invariable o la tasa de transmisión de bits cambia ligeramente, y el espectro entre tramas de audio es más regular.
Según un primer aspecto, una forma de realización de la presente invención proporciona un procedimiento de codificación de audio según la reivindicación 1 independiente.
Según un segundo aspecto, una forma de realización de la presente invención proporciona un aparato de codificación de audio según la reivindicación 10.
Breve descripción de los dibujos
Para describir las soluciones técnicas en las formas de realización de la presente invención con mayor claridad, a continuación se introducirán brevemente los dibujos adjuntos necesarios para describir las formas de realización. Aparentemente, los dibujos adjuntos en la siguiente descripción muestran meramente algunas formas de realización de la presente invención, y un experto en la técnica todavía podrá derivar otros dibujos a partir de estos dibujos adjuntos sin grandes esfuerzos creativos.
La figura 1 es un diagrama de flujo esquemático de un procedimiento de codificación de audio según una forma de realización de la presente invención;
la figura 1A es un diagrama de una comparación entre un espectro real y diferencias de LSF;
la figura 2 es un ejemplo de un escenario de aplicación de un procedimiento de codificación de audio según una forma de realización de la presente invención;
5
10
15
20
25
30
35
40
45
50
55
60
65
la figura 3 es un diagrama estructural esquemático de un aparato de codificación de audio según una forma de realización de la presente invención; y
la figura 4 es un diagrama estructural esquemático de un dispositivo electrónico según una forma de realización de la presente invención.
Descripción de formas de realización
A continuación se describirán con claridad las soluciones técnicas en las formas de realización de la presente invención con referencia a los dibujos adjuntos en las formas de realización de la presente invención. Aparentemente, las formas de realización descritas son meramente una parte de en lugar de todas las formas de realización de la presente invención. Todas las demás formas de realización obtenidas por un experto en la técnica basándose en las formas de realización de la presente invención sin grandes esfuerzos creativos entrarán dentro del alcance de protección de la presente invención.
Con referencia a la figura 1, que es un diagrama de flujo de un procedimiento de decodificación de audio según una forma de realización de la presente invención, el procedimiento incluye:
Etapa 101: Para cada trama de audio en audio, cuando se determina que una característica de señal de la trama de audio y una característica de señal de una trama de audio anterior de la trama de audio cumplen con una condición de modificación preestablecida, un dispositivo electrónico determina un primer peso de modificación según diferencias de frecuencias espectrales de línea LSF de la trama de audio y diferencias de LSF de la trama de audio anterior; o cuando se determina que una característica de señal de la trama de audio y una característica de señal de una trama de audio anterior de la trama de audio no cumplen con una condición de modificación preestablecida, un dispositivo electrónico determina un segundo peso de modificación, utilizándose la condición de modificación preestablecida para determinar que la característica de señal de la trama de audio es similar a la característica de señal de la trama de audio anterior de la trama de audio.
Etapa 102: El dispositivo electrónico modifica un parámetro de predicción lineal de la trama de audio según el primer peso de modificación determinado o el segundo peso de modificación determinado.
El parámetro de predicción lineal puede incluir: un LPC, un LSP, un ISP, un LSF, o similar.
Etapa 103: El dispositivo electrónico codifica la trama de audio según un parámetro de predicción lineal modificado de la trama de audio.
En esta forma de realización, para cada trama de audio en audio, cuando se determina que una característica de señal de la trama de audio y una característica de señal de una trama de audio anterior de la trama de audio cumplen con una condición de modificación preestablecida, un dispositivo electrónico determina un primer peso de modificación según diferencias de frecuencias espectrales de línea LSF de la trama de audio y diferencias de LSF de la trama de audio anterior; o cuando se determina que una característica de señal de la trama de audio y una característica de señal de una trama de audio anterior de la trama de audio no cumplen con una condición de modificación preestablecida, un dispositivo electrónico determina un segundo peso de modificación; el dispositivo electrónico modifica un parámetro de predicción lineal de la trama de audio según el primer peso de modificación determinado o el segundo peso de modificación determinado; y codifica la trama de audio según un parámetro de predicción lineal modificado de la trama de audio. De este modo, se determinan diferentes pesos de modificación según si la característica de señal de la trama de audio es similar a la característica de señal de la trama de audio anterior de la trama de audio, y se modifica el parámetro de predicción lineal de la trama de audio, de modo que un espectro entre tramas de audio es más regular. Además, se determinan diferentes pesos de modificación según si la característica de señal de la trama de audio es similar a la característica de señal de la trama de audio anterior de la trama de audio y un segundo peso de modificación que se determina cuando las características de señal no son similares puede estar lo más cerca posible de 1, de modo que se mantiene lo más posible una propiedad de espectro original de la trama de audio cuando la característica de señal de la trama de audio no es similar a la característica de señal de la trama de audio anterior de la trama de audio, y por tanto la calidad de audio del audio obtenida tras la decodificación de la información del audio codificada es mejor.
La implementación específica de cómo el dispositivo electrónico determina si la característica de señal de la trama de audio y la característica de señal de la trama de audio anterior de la trama de audio cumplen con la condición de modificación preestablecida en la etapa 101 se relaciona con la implementación específica de la condición de modificación. A continuación se proporcionará una descripción utilizando un ejemplo:
En un posible modo de implementación, la condición de modificación puede incluir: si la trama de audio no es una trama de transición,
la determinación, por parte de un dispositivo electrónico, de que una característica de señal de la trama de audio y una característica de señal de una trama de audio anterior de la trama de audio cumplen con una condición de
5
10
15
20
25
30
35
40
45
50
55
60
65
modificación preestablecida puede incluir: determinar que la trama de audio no es una trama de transición, incluyendo la trama de transición una trama de transición de no fricativo a fricativo o una trama de transición de fricativo a no fricativo; y
la determinación, por parte de un dispositivo electrónico, de que una característica de señal de la trama de audio y una característica de señal de una trama de audio anterior de la trama de audio no cumplen con una condición de modificación preestablecida puede incluir: determinar que la trama de audio es una trama de transición.
En un posible modo de implementación, la determinación de si la trama de audio es una trama de transición de fricativo a no fricativo puede implementarse determinando si una frecuencia de inclinación de espectro de la trama de audio anterior es mayor que un primer umbral de frecuencia de inclinación de espectro, y si un tipo de codificación de la trama de audio es transitorio. Específicamente, la determinación de que la trama de audio es una trama de transición de fricativo a no fricativo puede incluir: determinar que la frecuencia de inclinación de espectro de la trama de audio anterior es mayor que el primer umbral de frecuencia de inclinación de espectro y que el tipo de codificación de la trama de audio es transitorio; y la determinación de que la trama de audio no es una trama de transición de fricativo a no fricativo puede incluir: determinar que la frecuencia de inclinación de espectro de la trama de audio anterior no es mayor que el primer umbral de frecuencia de inclinación de espectro y/o que el tipo de codificación de la trama de audio no es transitorio.
En otro posible modo de implementación, la determinación de si la trama de audio es una trama de transición de fricativo a no fricativo puede implementarse determinando si una frecuencia de inclinación de espectro de la trama de audio anterior es mayor que un primer umbral de frecuencia y determinando si una frecuencia de inclinación de espectro de la trama de audio es menor que un segundo umbral de frecuencia. Específicamente, la determinación de que la trama de audio es una trama de transición de fricativo a no fricativo puede incluir: determinar que la frecuencia de inclinación de espectro de la trama de audio anterior es mayor que el primer umbral de frecuencia de inclinación de espectro y que la frecuencia de inclinación de espectro de la trama de audio es menor que el segundo umbral de frecuencia de inclinación de espectro; y la determinación de que la trama de audio no es una trama de transición de fricativo a no fricativo puede incluir: determinar que la frecuencia de inclinación de espectro de la trama de audio anterior no es mayor que el primer umbral de frecuencia de inclinación de espectro y/o que la frecuencia de inclinación de espectro de la trama de audio no es menor que el segundo umbral de frecuencia de inclinación de espectro. Los valores específicos del primer umbral de frecuencia de inclinación de espectro y el segundo umbral de frecuencia de inclinación de espectro no están limitados en esta forma de realización de la presente invención, y una relación entre los valores del primer umbral de frecuencia de inclinación de espectro y el segundo umbral de frecuencia de inclinación de espectro no está limitada. Opcionalmente, en una forma de realización de la presente invención, el valor del primer umbral de frecuencia de inclinación de espectro puede ser 5,0; y en otra forma de realización de la presente invención, el valor del segundo umbral de frecuencia de inclinación de espectro puede ser 1,0.
En un posible modo de implementación, la determinación de si la trama de audio es una trama de transición de no fricativo a fricativo puede implementarse determinando si una frecuencia de inclinación de espectro de la trama de audio anterior es menor que un tercer umbral de frecuencia, determinando si un tipo de codificación de la trama de audio anterior es uno de cuatro tipos: de voz (Voiced), genérico (Generic), transitorio (Transition) y audio (Audio), y determinando si una frecuencia de inclinación de espectro de la trama de audio es mayor que un cuarto umbral de frecuencia. Específicamente, la determinación de que la trama de audio es una trama de transición de no fricativo a fricativo puede incluir: determinar que la frecuencia de inclinación de espectro de la trama de audio anterior es menor que el tercer umbral de frecuencia de inclinación de espectro, que el tipo de codificación de la trama de audio anterior es uno de los cuatro tipos: de voz, genérico, transitorio y audio y que la inclinación de espectro de la trama de audio es mayor que el cuarto umbral de inclinación de espectro; y la determinación de que la trama de audio no es una trama de transición de no fricativo a fricativo puede incluir: determinar que la frecuencia de inclinación de espectro de la trama de audio anterior no es menor que el tercer umbral de frecuencia de inclinación de espectro, y/o que el tipo de codificación de la trama de audio anterior no es uno de los cuatro tipos: de voz, genérico, transitorio y audio, y/o que la frecuencia de inclinación de espectro de la trama de audio no es mayor que el cuarto umbral de frecuencia de inclinación de espectro. Los valores específicos del tercer umbral de frecuencia de inclinación de espectro y el cuarto umbral de frecuencia de inclinación de espectro no están limitados en esta forma de realización de la presente invención, y una relación entre los valores del tercer umbral de frecuencia de inclinación de espectro y el cuarto umbral de frecuencia de inclinación de espectro no está limitada. En una forma de realización de la presente invención, el valor del tercer umbral de frecuencia de inclinación de espectro puede ser 3,0; y en otra forma de realización de la presente invención, el valor del cuarto umbral de frecuencia de inclinación de espectro puede ser 5,0.
En la etapa 101, la determinación, por parte de un dispositivo electrónico, de un primer peso de modificación según diferencias de LSF de la trama de audio y diferencias de LSF de la trama de audio anterior puede incluir:
determinar, por parte del dispositivo electrónico, el primer peso de modificación según las diferencias de LSF de la trama de audio y las diferencias de LSF de la trama de audio anterior utilizando la fórmula siguiente:
5
10
15
20
25
30
35
40
45
50
55
60
iff\}\<lsf_old_dff\i\ iff \i] > lsf_old_dff [/] f5mula
1
en la que w[i] es el primer peso de modificación; lsf_new_diff[i] son las diferencias de LSF de la trama de audio, lsf_new_diff[i]=lsf_new[i]-lsf_new[i-1], lsf_new[i] es el parámetro de LSF de orden i de la trama de audio, lsf_new[i-1] es el parámetro de LSF de orden (i-1) de la trama de audio; lsf_old_diff[i] son las diferencias de LSF de la trama de audio anterior de la trama de audio, lsf_old_diff[i]=lsf_old[i]-lsf_old[i-1], lsf_old[i] es el parámetro de LSF de orden i de la trama de audio anterior de la trama de audio, lsf_old[i-1] es el parámetro de LSF de orden (i-1) de la trama de audio anterior de la trama de audio, i es un orden del parámetro de LSF y un orden de las diferencias de LSF, un valor de i oscila entre 0 y M-1 y M es un orden del parámetro de predicción lineal.
Un principio de la fórmula anterior es el siguiente:
Hágase referencia a la figura 1A, que es un diagrama de una comparación entre un espectro real y diferencias de LSF. Como puede observarse por la figura, las diferencias de LSF lsf_new_diff[i] en la trama de audio reflejan una tendencia de la energía del espectro de la trama de audio. lsf_new_diff[i] menores indican una energía del espectro mayor de un punto de frecuencia correspondiente.
w[i]=lsf_new_diff[i]/lsf_old_diff[i] menores indican una mayor diferencia de la energía del espectro entre una trama anterior y una trama actual en un punto de frecuencia correspondiente a lsf_new[i], y esa energía del espectro de la trama de audio es mucho mayor que la energía del espectro de un punto de frecuencia correspondiente a la trama de audio anterior.
w[i]=lsf_old_diff[i]/lsf_new_diff[i] menores indican una menor diferencia de la energía del espectro entre la trama anterior y la trama actual en el punto de frecuencia correspondiente a lsf_new[i], y que la energía del espectro de la trama de audio es mucho menor que la energía del espectro del punto de frecuencia correspondiente a la trama de audio anterior.
Por tanto, para que un espectro entre la trama anterior y la trama actual sea regular, puede utilizarse w[i] como peso de la trama de audio lsf_new[i] y puede utilizarse 1-w[i] como peso del punto de frecuencia correspondiente a la trama de audio anterior. En la fórmula 2 se muestran los detalles.
En la etapa 101, la determinación, por parte de un dispositivo electrónico, de un segundo peso de modificación puede incluir:
determinar, por parte del dispositivo electrónico, el segundo peso de modificación como valor de peso de modificación preestablecido, siendo el valor de peso de modificación preestablecido mayor que 0, y siendo menor que o igual a 1.
Preferiblemente, el valor de peso de modificación preestablecido es un valor próximo a 1.
En la etapa 102, la modificación, por parte del dispositivo electrónico, de un parámetro de predicción lineal de la trama de audio según el primer peso de modificación determinado puede incluir:
modificar el parámetro de predicción lineal de la trama de audio según el primer peso de modificación utilizando la fórmula siguiente:
ílsf_new_dff \i\/lsf_old_dff [/], lsf_new_d \lsf_o ld_dff \i ]/lsf_ new_ -dff E4 lsfnew_d
L[i]=(l-w[i])*L_old[i]+w[i]*L_new[i], fórmula 2
en la que w[i] es el primer peso de modificación, L[i] es el parámetro de predicción lineal modificado de la trama de audio, L_new[i] es el parámetro de predicción lineal de la trama de audio, L_old[i] es un parámetro de predicción lineal de la trama de audio anterior de la trama de audio, i es un orden del parámetro de predicción lineal, el valor de i oscila entre 0 y M-1 y M es el orden del parámetro de predicción lineal.
En la etapa 102, la modificación, por parte del dispositivo electrónico, de un parámetro de predicción lineal de la trama de audio según el segundo peso de modificación determinado puede incluir:
modificar el parámetro de predicción lineal de la trama de audio según el segundo peso de modificación utilizando la fórmula siguiente:
L[i]=(l-y)*L_old[i]+y*L_new[i], fórmula 3
5
10
15
20
25
30
35
40
45
50
55
60
en la que y es el segundo peso de modificación, L[i] es el parámetro de predicción lineal modificado de la trama de audio, L_new[i] es el parámetro de predicción lineal de la trama de audio, L_old[i] es el parámetro de predicción lineal de la trama de audio anterior de la trama de audio, i es el orden del parámetro de predicción lineal, el valor de i oscila entre 0 y M-1 y M es el orden del parámetro de predicción lineal.
En la etapa 103, para saber cómo el dispositivo electrónico codifica específicamente la trama de audio según el parámetro de predicción lineal modificado de la trama de audio, hágase referencia a la tecnología de extensión de ancho de banda de dominio de tiempo relacionada, y en la presente invención no se describen los detalles.
El procedimiento de codificación de audio en esta forma de realización de la presente invención puede aplicarse al procedimiento de extensión de ancho de banda de dominio de tiempo mostrado en la figura 2. En el procedimiento de extensión de ancho de banda de dominio de tiempo:
se divide una señal de audio original en una señal de banda baja y una señal de banda alta;
para la señal de banda baja, se realiza en secuencia un procesamiento tal como codificación de señal de banda baja, preprocesamiento de señal de excitación de banda baja, síntesis de LP y cuantificación y cálculo de la envolvente de dominio de tiempo;
para la señal de banda alta, se realiza en secuencia un procesamiento tal como preprocesamiento de señal de banda alta, análisis de LP y cuantificación de LPC; y
se realiza MUX en la señal de audio según un resultado de la codificación de señal de banda baja, un resultado de la cuantificación de LPC y un resultado de la cuantificación y cálculo de la envolvente de dominio de tiempo.
La cuantificación de LPC corresponde a la etapa 101 y la etapa 102 en esta forma de realización de la presente invención y la MUX realizada en la señal de audio corresponde a la etapa 103 en esta forma de realización de la presente invención.
Hágase referencia a la figura 3, que es un diagrama estructural esquemático de un aparato de codificación de audio según una forma de realización de la presente invención. El aparato puede disponerse en un dispositivo electrónico. El aparato 300 puede incluir una unidad de determinación 310, una unidad de modificación 320 y una unidad de codificación 330.
La unidad de determinación 310 está configurada para: para cada trama de audio en audio, cuando se determina que una característica de señal de la trama de audio y una característica de señal de una trama de audio anterior de la trama de audio cumplen con una condición de modificación preestablecida, determinar un primer peso de modificación según diferencias de frecuencias espectrales de línea LSF de la trama de audio y diferencias de LSF de la trama de audio anterior; o cuando se determina que una característica de señal de la trama de audio y una característica de señal de una trama de audio anterior de la trama de audio no cumplen con una condición de modificación preestablecida, determinar un segundo peso de modificación, utilizándose la condición de modificación preestablecida para determinar que la característica de señal de la trama de audio es similar a la característica de señal de la trama de audio anterior de la trama de audio.
La unidad de modificación 320 está configurada para modificar un parámetro de predicción lineal de la trama de audio según el primer peso de modificación o el segundo peso de modificación determinado por la unidad de determinación 310.
La unidad de codificación 330 está configurada para codificar la trama de audio según un parámetro de predicción lineal modificado de la trama de audio, obteniéndose el parámetro de predicción lineal modificado tras la modificación por la unidad de modificación 320.
Opcionalmente, la unidad de determinación 310 puede estar configurada específicamente para: determinar el primer peso de modificación según las diferencias de LSF de la trama de audio y las diferencias de LSF de la trama de audio anterior utilizando la fórmula siguiente:
r .-i Jlsf_new_diff [/] / lsf_old_dijf [/], lsf_new_dijf [/] < lsf_old_diff [/]
\lsf_old_diff [/]/lsf_new_dijf [/],lsf_new_diff [/] > lsf_old_dijf [/]
en la que w[i] es el primer peso de modificación, lsf_new_diff[i] son las diferencias de LSF de la trama de audio, lsf_old_diff[i] son las diferencias de LSF de la trama de audio anterior de la trama de audio, i es un orden de las diferencias de LSF, un valor de i oscila entre 0 y M-1 y M es un orden del parámetro de predicción lineal.
5
10
15
20
25
30
35
40
45
50
55
60
65
Opcionalmente, la unidad de determinación 310 puede estar configurada específicamente para: determinar el segundo peso de modificación como valor de peso de modificación preestablecido, siendo el valor de peso de modificación preestablecido mayor que 0, y siendo menor que o igual a 1.
Opcionalmente, la unidad de modificación 320 puede estar configurada específicamente para: modificar el parámetro de predicción lineal de la trama de audio según el primer peso de modificación utilizando la fórmula siguiente:
L[i]=(l-w[i])*L_old[i]+w[i]*L_new[i],
en la que w[i] es el primer peso de modificación, L[i] es el parámetro de predicción lineal modificado de la trama de audio, L_new[i] es el parámetro de predicción lineal de la trama de audio, L_old[i] es un parámetro de predicción lineal de la trama de audio anterior de la trama de audio, i es un orden del parámetro de predicción lineal, el valor de i oscila entre 0 y M-1 y M es el orden del parámetro de predicción lineal.
Opcionalmente, la unidad de modificación 320 puede estar configurada específicamente para: modificar el parámetro de predicción lineal de la trama de audio según el segundo peso de modificación utilizando la fórmula siguiente:
L[i]=(l-y)*L_old[i]+y*L_new[i],
en la que y es el segundo peso de modificación, L[i] es el parámetro de predicción lineal modificado de la trama de audio, L_new[i] es el parámetro de predicción lineal de la trama de audio, L_old[i] es el parámetro de predicción lineal de la trama de audio anterior de la trama de audio, i es el orden del parámetro de predicción lineal, el valor de i oscila entre 0 y M-1 y M es el orden del parámetro de predicción lineal.
Opcionalmente, la unidad de determinación 310 puede estar configurada específicamente para: para cada trama de audio en el audio, cuando se determina que la trama de audio no es una trama de transición, determinar el primer peso de modificación según las diferencias de frecuencias espectrales de línea LSF de la trama de audio y las diferencias de LSF de la trama de audio anterior; o cuando se determina que la trama de audio es una trama de transición, determinar el segundo peso de modificación, incluyendo la trama de transición una trama de transición de no fricativo a fricativo, o una trama de transición de fricativo a no fricativo.
Opcionalmente, la unidad de determinación 310 puede estar configurada específicamente para: para cada trama de audio en el audio, cuando se determina que una frecuencia de inclinación de espectro de la trama de audio anterior no es mayor que un primer umbral de frecuencia de inclinación de espectro y/o que un tipo de codificación de la trama de audio no es transitorio, determinar el primer peso de modificación según las diferencias de frecuencias espectrales de línea LSF de la trama de audio y las diferencias de LSF de la trama de audio anterior; y cuando se determina que la frecuencia de inclinación de espectro de la trama de audio anterior es mayor que el primer umbral de frecuencia de inclinación de espectro y que el tipo de codificación de la trama de audio es transitorio, determinar el segundo peso de modificación.
Opcionalmente, la unidad de determinación 310 puede estar configurada específicamente para: para cada trama de audio en el audio, cuando se determina que una frecuencia de inclinación de espectro de la trama de audio anterior no es mayor que un primer umbral de frecuencia de inclinación de espectro y/o que una frecuencia de inclinación de espectro de la trama de audio no es menor que un segundo umbral de frecuencia de inclinación de espectro, determinar el primer peso de modificación según las diferencias de frecuencias espectrales de línea LSF de la trama de audio y las diferencias de LSF de la trama de audio anterior; y cuando se determina que la frecuencia de inclinación de espectro de la trama de audio anterior es mayor que el primer umbral de frecuencia de inclinación de espectro y que la frecuencia de inclinación de espectro de la trama de audio es menor que el segundo umbral de frecuencia de inclinación de espectro, determinar el segundo peso de modificación.
Opcionalmente, la unidad de determinación 310 puede estar configurada específicamente para: para cada trama de audio en el audio, cuando se determina que una frecuencia de inclinación de espectro de la trama de audio anterior no es menor que un tercer umbral de frecuencia de inclinación de espectro, y/o que un tipo de codificación de la trama de audio anterior no es uno de cuatro tipos: de voz, genérico, transitorio y audio, y/o que una inclinación de espectro de la trama de audio no es mayor que un cuarto umbral de inclinación de espectro, determinar el primer peso de modificación según las diferencias de frecuencias espectrales de línea LSF de la trama de audio y las diferencias de LSF de la trama de audio anterior; y cuando se determina que la frecuencia de inclinación de espectro de la trama de audio anterior es menor que el tercer umbral de frecuencia de inclinación de espectro, el tipo de codificación de la trama de audio anterior es uno de los cuatro tipos: de voz, genérico, transitorio y audio, y que la frecuencia de inclinación de espectro de la trama de audio es mayor que el cuarto umbral de frecuencia de inclinación de espectro, determinar el segundo peso de modificación.
En esta forma de realización, para cada trama de audio en audio, cuando se determina que una característica de señal de la trama de audio y una característica de señal de una trama de audio anterior de la trama de audio cumplen con una condición de modificación preestablecida, un dispositivo electrónico determina un primer peso de
5
10
15
20
25
30
35
40
45
50
55
60
modificación según diferencias de frecuencias espectrales de línea LSF de la trama de audio y diferencias de LSF de la trama de audio anterior; o cuando se determina que una característica de señal de la trama de audio y una característica de señal de una trama de audio anterior de la trama de audio no cumplen con una condición de modificación preestablecida, el dispositivo electrónico determina un segundo peso de modificación; el dispositivo electrónico modifica un parámetro de predicción lineal de la trama de audio según el primer peso de modificación determinado o el segundo peso de modificación determinado; y codifica la trama de audio según un parámetro de predicción lineal modificado de la trama de audio. De este modo, se determinan diferentes pesos de modificación según si la característica de señal de la trama de audio y la característica de señal de la trama de audio anterior de la trama de audio cumplen con la condición de modificación preestablecida, y se modifica el parámetro de predicción lineal de la trama de audio, de modo que un espectro entre tramas de audio es más regular. Además, el dispositivo electrónico codifica la trama de audio según el parámetro de predicción lineal modificado de la trama de audio, y por tanto, puede garantizarse que se codifica audio con un ancho de banda mayor al tiempo que la tasa de transmisión de bits permanece invariable o la tasa de transmisión de bits cambia ligeramente.
Hágase referencia a la figura 4, que es un diagrama estructural de un primer nodo según una forma de realización de la presente invención. El primer nodo 400 incluye: un procesador 410, una memoria 420, un transceptor 430 y un bus 440.
El procesador 410, la memoria 420 y el transceptor 430 están conectados entre sí utilizando el bus 440, y el bus 440 puede ser un bus ISA, un bus PCI, un bus EISA, o similar. El bus puede clasificarse en un bus de dirección, un bus de datos, un bus de control, y similar. Para facilitar la representación, el bus en la figura 4 se representa utilizando sólo una línea en negrita, aunque no indica que sólo haya un bus o sólo un tipo de bus.
La memoria 420 está configurada para almacenar un programa. Específicamente, el programa puede incluir código de programa, y el código de programa incluye una instrucción de funcionamiento de ordenador. La memoria 420 puede incluir una memoria RAM de alta velocidad, y puede incluir además una memoria no volátil (memoria no volátil), tal como al menos una memoria de disco magnético.
El transceptor 430 está configurado para conectar otros dispositivos, y comunicarse con otros dispositivos.
El procesador 410 ejecuta el código de programa y está configurado para: para cada trama de audio en audio, cuando se determina que una característica de señal de la trama de audio y una característica de señal de una trama de audio anterior de la trama de audio cumplen con una condición de modificación preestablecida, determinar un primer peso de modificación según diferencias de frecuencias espectrales de línea LSF de la trama de audio y diferencias de LSF de la trama de audio anterior; o cuando se determina que una característica de señal de la trama de audio y una característica de señal de una trama de audio anterior de la trama de audio no cumplen con una condición de modificación preestablecida, determinar un segundo peso de modificación, utilizándose la condición de modificación preestablecida para determinar que la característica de señal de la trama de audio es similar a la característica de señal de la trama de audio anterior de la trama de audio; modificar un parámetro de predicción lineal de la trama de audio según el primer peso de modificación determinado o el segundo peso de modificación determinado; y codificar la trama de audio según un parámetro de predicción lineal modificado de la trama de audio.
Opcionalmente, el procesador 410 puede estar configurado específicamente para: determinar el primer peso de modificación según las diferencias de LSF de la trama de audio y las diferencias de LSF de la trama de audio anterior utilizando la fórmula siguiente:
1 Jlsf_new_diff [/] / lsf_old_diff [/],lsf_new_diff [/] < lsf_old_diff [/] \lsf_old_dijf [i] / lsf_new_diff \i],lsf_new_diff [i] > lsf_old_diff [í]
en la que w[i] es el primer peso de modificación, lsf_new_diff[i] son las diferencias de LSF de la trama de audio, lsf_old_diff[i] son las diferencias de LSF de la trama de audio anterior de la trama de audio, i es un orden de las diferencias de LSF, un valor de i oscila entre 0 y M-1 y M es un orden del parámetro de predicción lineal.
Opcionalmente, el procesador 410 puede estar configurado específicamente para: determinar el segundo peso de modificación as 1; o
determinar el segundo peso de modificación como valor de peso de modificación preestablecido, siendo el valor de peso de modificación preestablecido mayor que 0, y siendo menor que o igual a 1.
Opcionalmente, el procesador 410 puede estar configurado específicamente para: modificar el parámetro de predicción lineal de la trama de audio según el primer peso de modificación utilizando la fórmula siguiente:
L[i]=(l-w[i])*L_old[i]+w[i]*L_new[i],
5
10
15
20
25
30
35
40
45
50
55
60
65
en la que w[i] es el primer peso de modificación, L[i] es el parámetro de predicción lineal modificado de la trama de audio, L_new[i] es el parámetro de predicción lineal de la trama de audio, L_old[i] es un parámetro de predicción lineal de la trama de audio anterior de la trama de audio, i es un orden del parámetro de predicción lineal, el valor de i oscila entre 0 y M-1 y M es el orden del parámetro de predicción lineal.
Opcionalmente, el procesador 410 puede estar configurado específicamente para: modificar el parámetro de predicción lineal de la trama de audio según el segundo peso de modificación utilizando la fórmula siguiente:
L[i]=(l-y)*L_old[i]+y*L_new[i],
en la que y es el segundo peso de modificación, L[i] es el parámetro de predicción lineal modificado de la trama de audio, L_new[i] es el parámetro de predicción lineal de la trama de audio, L_old[i] es el parámetro de predicción lineal de la trama de audio anterior de la trama de audio, i es el orden del parámetro de predicción lineal, el valor de i oscila entre 0 y M-1 y M es el orden del parámetro de predicción lineal.
Opcionalmente, el procesador 410 puede estar configurado específicamente para: para cada trama de audio en el audio, cuando se determina que la trama de audio no es una trama de transición, determinar el primer peso de modificación según las diferencias de frecuencias espectrales de línea LSF de la trama de audio y las diferencias de LSF de la trama de audio anterior; o cuando se determina que la trama de audio es una trama de transición, determinar el segundo peso de modificación, incluyendo la trama de transición una trama de transición de no fricativo a fricativo, o una trama de transición de fricativo a no fricativo.
Opcionalmente, el procesador 410 puede estar configurado específicamente para:
para cada trama de audio en el audio, cuando se determina que una frecuencia de inclinación de espectro de la trama de audio anterior no es mayor que un primer umbral de frecuencia de inclinación de espectro y/o que un tipo de codificación de la trama de audio no es transitorio, determinar el primer peso de modificación según las diferencias de frecuencias espectrales de línea LSF de la trama de audio y las diferencias de LSF de la trama de audio anterior; y cuando se determina que la frecuencia de inclinación de espectro de la trama de audio anterior es mayor que el primer umbral de frecuencia de inclinación de espectro y que el tipo de codificación de la trama de audio es transitorio, determinar el segundo peso de modificación; o
para cada trama de audio en el audio, cuando se determina que una frecuencia de inclinación de espectro de la trama de audio anterior no es mayor que un primer umbral de frecuencia de inclinación de espectro y/o que una frecuencia de inclinación de espectro de la trama de audio no es menor que un segundo umbral de frecuencia de inclinación de espectro, determinar el primer peso de modificación según las diferencias de frecuencias espectrales de línea LSF de la trama de audio y las diferencias de LSF de la trama de audio anterior; y cuando se determina que la frecuencia de inclinación de espectro de la trama de audio anterior es mayor que el primer umbral de frecuencia de inclinación de espectro y la frecuencia de inclinación de espectro de la trama de audio es menor que el segundo umbral de frecuencia de inclinación de espectro, determinar el segundo peso de modificación.
Opcionalmente, el procesador 410 puede estar configurado específicamente para:
para cada trama de audio en el audio, cuando se determina que una frecuencia de inclinación de espectro de la trama de audio anterior no es menor que un tercer umbral de frecuencia de inclinación de espectro, y/o que un tipo de codificación de la trama de audio anterior no es uno de cuatro tipos: de voz, genérico, transitorio y audio, y/o que una inclinación de espectro de la trama de audio no es mayor que un cuarto umbral de inclinación de espectro, determinar el primer peso de modificación según las diferencias de frecuencias espectrales de línea LSF de la trama de audio y las diferencias de LSF de la trama de audio anterior; y cuando se determina que la frecuencia de inclinación de espectro de la trama de audio anterior es menor que el tercer umbral de frecuencia de inclinación de espectro, el tipo de codificación de la trama de audio anterior es uno de los cuatro tipos: de voz, genérico, transitorio y audio, y que la frecuencia de inclinación de espectro de la trama de audio es mayor que el cuarto umbral de frecuencia de inclinación de espectro, determinar el segundo peso de modificación.
En esta forma de realización, para cada trama de audio en audio, cuando se determina que una característica de señal de la trama de audio y una característica de señal de una trama de audio anterior de la trama de audio cumplen con una condición de modificación preestablecida, un dispositivo electrónico determina un primer peso de modificación según diferencias de frecuencias espectrales de línea LSF de la trama de audio y diferencias de LSF de la trama de audio anterior; o cuando se determina que una característica de señal de la trama de audio y una característica de señal de una trama de audio anterior de la trama de audio no cumplen con una condición de modificación preestablecida, el dispositivo electrónico determina un segundo peso de modificación; el dispositivo electrónico modifica un parámetro de predicción lineal de la trama de audio según el primer peso de modificación determinado o el segundo peso de modificación determinado; y codifica la trama de audio según un parámetro de predicción lineal modificado de la trama de audio. De este modo, se determinan diferentes pesos de modificación según si la característica de señal de la trama de audio y la característica de señal de la trama de audio anterior de
5
10
15
20
25
la trama de audio cumplen con la condición de modificación preestablecida, y se modifica el parámetro de predicción lineal de la trama de audio, de modo que un espectro entre tramas de audio es más regular. Además, el dispositivo electrónico codifica la trama de audio según el parámetro de predicción lineal modificado de la trama de audio, y por tanto, puede garantizarse que se codifica audio con un ancho de banda mayor al tiempo que la tasa de transmisión de bits permanece invariable o la tasa de transmisión de bits cambia ligeramente.
Un experto en la técnica podrá entender con claridad que las tecnologías en las formas de realización de la presente invención pueden implementarse mediante software además de una plataforma de hardware general necesaria. Basándose en este entendimiento, las soluciones técnicas de la presente invención esencialmente o la parte que contribuye a la técnica anterior pueden implementarse en forma de producto de software. El producto de software se almacena en un medio de almacenamiento, tal como una ROM/RAM, un disco duro, o un disco óptico, e incluye diversas instrucciones para hacer que un dispositivo informático (que puede ser un ordenador personal, un servidor, o un dispositivo de red) realice los procedimientos descritos en las formas de realización o algunas partes de las formas de realización de la presente invención.
En esta memoria descriptiva, las formas de realización se describen de manera progresiva. Pueden hacerse referencia entre sí para una misma parte o parte similar de las formas de realización. Cada forma de realización se centra en una diferencia con respecto a otras formas de realización. Especialmente, la forma de realización del sistema es básicamente similar a las formas de realización del procedimiento, y por tanto se describe brevemente. Para una parte relevante, puede hacerse referencia a la descripción en la parte de las formas de realización del procedimiento.
Las descripciones anteriores son maneras de implementar la presente invención, aunque no pretenden limitar el alcance de protección de la presente invención que está definido por las reivindicaciones adjuntas.
Claims (18)
- 51015202530354045505560REIVINDICACIONES1. Un procedimiento de codificación de audio, que comprende:para cada trama de audio, cuando se determina que una característica de señal de la trama de audio y una característica de señal de una trama de audio anterior de la trama de audio cumplen con una condición de modificación preestablecida, determinar un primer peso de modificación según diferencias de frecuencias espectrales de línea, LSF, de la trama de audio y diferencias de LSF de la trama de audio anterior; o cuando se determina que la característica de señal de la trama de audio y la característica de señal de la trama de audio anterior no cumplen con la condición de modificación preestablecida, determinar un segundo peso de modificación, utilizándose la condición de modificación preestablecida para determinar que la característica de señal de la trama de audio es similar a la característica de señal de la trama de audio anterior;modificar un parámetro de predicción lineal de la trama de audio según el primer peso de modificación determinado o el segundo peso de modificación determinado; ycodificar la trama de audio según el parámetro de predicción lineal modificado de la trama de audio.
- 2. El procedimiento según la reivindicación 1, en el que la determinación de un primer peso de modificaciónsegún diferencias de frecuencias espectrales de línea, LSF, de la trama de audio y diferencias de LSF de la trama de audio anterior comprende:determinar el primer peso de modificación según las diferencias de LSF de la trama de audio y las diferencias de LSF de la trama de audio anterior utilizando la fórmula siguiente:r-i ílsf_new_dff\i]/lsf_old_dff\i\ lsf_new_d U.í [/'] < lsj_o ld_dff [i]\lsf_o ld_dff [/ \lsf_ new_ lsf_new_d iff [/] > lsf_o ld_dff [i]en la que w[i] es el primer peso de modificación, lsf_new_diff[i] son las diferencias de LSF de la trama de audio, lsf_old_diff[i] son las diferencias de LSF de la trama de audio anterior, i es un orden de las diferencias de LSF, un valor de i oscila entre 0 y M-1 y M es un orden del parámetro de predicción lineal.
- 3. El procedimiento según la reivindicación 1 o 2, en el que la determinación de un segundo peso de modificación comprende:determinar el segundo peso de modificación como valor de peso de modificación preestablecido, siendo el valor de peso de modificación preestablecido mayor que 0, y siendo menor que o igual a 1.
- 4. El procedimiento según una cualquiera de las reivindicaciones 1 a 3, en el que la modificación de un parámetro de predicción lineal de la trama de audio según el primer peso de modificación determinado comprende:modificar el parámetro de predicción lineal de la trama de audio según el primer peso de modificación utilizando la fórmula siguiente:L[i]=(l-w[i])*L_old[i]+w[i]*L_new[i],en la que w[i] es el primer peso de modificación, L[i] es el parámetro de predicción lineal modificado de la trama de audio, L_new[i] es el parámetro de predicción lineal de la trama de audio, L_old[i] es un parámetro de predicción lineal de la trama de audio anterior, i es un orden del parámetro de predicción lineal, el valor de i oscila entre 0 y M-1 y M es el orden del parámetro de predicción lineal.
- 5. El procedimiento según una cualquiera de las reivindicaciones 1 a 4, en el que la modificación de un parámetro de predicción lineal de la trama de audio según el segundo peso de modificación determinado comprende:modificar el parámetro de predicción lineal de la trama de audio según el segundo peso de modificación utilizando la fórmula siguiente:L[i]=( 1 -y) *L_old[i]+y*L_new[i],en la que y es el segundo peso de modificación, L[i] es el parámetro de predicción lineal modificado de la trama de audio, L_new[i] es el parámetro de predicción lineal de la trama de audio, L_old[i] es el parámetro de predicción51015202530354045505560lineal de la trama de audio anterior, i es el orden del parámetro de predicción lineal, el valor de i oscila entre 0 y M-1 y M es el orden del parámetro de predicción lineal.
- 6. El procedimiento según una cualquiera de las reivindicaciones 1 a 5, en el que la determinación de que una característica de señal de la trama de audio y una característica de señal de la trama de audio anterior cumplen con una condición de modificación preestablecida comprende: determinar que la trama de audio no es una trama de transición, comprendiendo la trama de transición una trama de transición de no fricativo a fricativo o una trama de transición de fricativo a no fricativo; yla determinación de que una característica de señal de la trama de audio y una característica de señal de la trama de audio anterior no cumplen con una condición de modificación preestablecida comprende: determinar que la trama de audio es una trama de transición.
- 7. El procedimiento según la reivindicación 6, en el que la determinación de que la trama de audio es una trama de transición de fricativo a no fricativo comprende: determinar que una frecuencia de inclinación de espectro de la trama de audio anterior es mayor que un primer umbral de frecuencia de inclinación de espectro, y que un tipo de codificación de la trama de audio es transitorio.
- 8. El procedimiento según la reivindicación 6, en el que la determinación de que la trama de audio es una trama de transición de fricativo a no fricativo comprende: determinar que una frecuencia de inclinación de espectro de la trama de audio anterior es mayor que un primer umbral de frecuencia de inclinación de espectro, y una frecuencia de inclinación de espectro de la trama de audio es menor que un segundo umbral de frecuencia de inclinación de espectro.
- 9. El procedimiento según la reivindicación 6, en el que la determinación de que la trama de audio es una trama de transición de no fricativo a fricativo comprende: determinar que una frecuencia de inclinación de espectro de la trama de audio anterior es menor que un tercer umbral de frecuencia de inclinación de espectro, que un tipo de codificación de la trama de audio anterior es uno de cuatro tipos: de voz, genérico, transitorio y audio, y que una frecuencia de inclinación de espectro de la trama de audio es mayor que un cuarto umbral de frecuencia de inclinación de espectro.
- 10. Un aparato de codificación de audio, que comprende una unidad de determinación, una unidad de modificación y una unidad de codificación, en el quela unidad de determinación está configurada para: para cada trama de audio, cuando se determina que una característica de señal de la trama de audio y una característica de señal de una trama de audio anterior de la trama de audio cumplen con una condición de modificación preestablecida, determinar un primer peso de modificación según diferencias de frecuencias espectrales de línea, LSF, de la trama de audio y diferencias de LSF de la trama de audio anterior; o cuando se determina que la característica de señal de la trama de audio y la característica de señal de la trama de audio anterior no cumplen con la condición de modificación preestablecida, determinar un segundo peso de modificación, utilizándose la condición de modificación preestablecida para determinar que la característica de señal de la trama de audio es similar a la característica de señal de la trama de audio anterior;la unidad de modificación está configurada para modificar un parámetro de predicción lineal de la trama de audio según el primer peso de modificación o el segundo peso de modificación determinado por la unidad de determinación; yla unidad de codificación está configurada para codificar la trama de audio según el parámetro de predicción lineal modificado de la trama de audio, obteniéndose el parámetro de predicción lineal modificado tras la modificación por la unidad de modificación.
- 11. El aparato según la reivindicación 10, en el que la unidad de determinación está configurada específicamente para: determinar el primer peso de modificación según las diferencias de LSF de la trama de audio y las diferencias de LSF de la trama de audio anterior utilizando la fórmula siguiente:r-i ílsf_new_dff\i]/lsf_old_dff\i\ lsf_new_d U.í [/'] < lsj_o ld_dff [i]\lsf_o ld_dff [/ \lsf_ new_ lsf_new_d iff [/] > lsf_o ld_dff [i]en la que w[i] es el primer peso de modificación, lsf_new_diff[i] son las diferencias de LSF de la trama de audio, lsf_old_diff[i] son las diferencias de LSF de la trama de audio anterior, i es un orden de las diferencias de LSF, un valor de i oscila entre 0 y M-1 y M es un orden del parámetro de predicción lineal.5101520253035404550556065
- 12. El aparato según la reivindicación 10 u 11, en el que la unidad de determinación está configurada específicamente para: determinar el segundo peso de modificación como valor de peso de modificación preestablecido, siendo el valor de peso de modificación preestablecido mayor que 0, y siendo menor que o igual a 1.
- 13. El aparato según la reivindicación 10 u 11, en el que la unidad de modificación está configurada específicamente para: modificar el parámetro de predicción lineal de la trama de audio según el primer peso de modificación utilizando la fórmula siguiente:
imagen1 en la que w[i] es el primer peso de modificación, L[i] es el parámetro de predicción lineal modificado de la trama de audio, L_new[i] es el parámetro de predicción lineal de la trama de audio, L_old[i] es un parámetro de predicción lineal de la trama de audio anterior, i es un orden del parámetro de predicción lineal, el valor de i oscila entre 0 y M-1 y M es el orden del parámetro de predicción lineal. - 14. El aparato según una cualquiera de las reivindicaciones 10 a 13, en el que la unidad de modificación está configurada específicamente para: modificar el parámetro de predicción lineal de la trama de audio según el segundo peso de modificación utilizando la fórmula siguiente:
imagen2 en la que y es el segundo peso de modificación, L[i] es el parámetro de predicción lineal modificado de la trama de audio, L_new[i] es el parámetro de predicción lineal de la trama de audio, L_old[i] es el parámetro de predicción lineal de la trama de audio anterior, i es el orden del parámetro de predicción lineal, el valor de i oscila entre 0 y M-1 y M es el orden del parámetro de predicción lineal. - 15. El aparato según una cualquiera de las reivindicaciones 10 a 14, en el que la unidad de determinación está configurada específicamente para: para cada trama de audio, cuando se determina que la trama de audio no es una trama de transición, determinar el primer peso de modificación según las diferencias de frecuencias espectrales de línea LSF de la trama de audio y las diferencias de LSF de la trama de audio anterior; y cuando se determina que la trama de audio es una trama de transición, determinar el segundo peso de modificación, comprendiendo la trama de transición una trama de transición de no fricativo a fricativo, o una trama de transición de fricativo a no fricativo.
- 16. El aparato según la reivindicación 15, en el que la unidad de determinación está configurada específicamente para:para cada trama de audio, cuando se determina que una frecuencia de inclinación de espectro de la trama de audio anterior no es mayor que un primer umbral de frecuencia de inclinación de espectro y/o que un tipo de codificación de la trama de audio no es transitorio, determinar el primer peso de modificación según las diferencias de frecuencias espectrales de línea, LSF, de la trama de audio y las diferencias de LSF de la trama de audio anterior; y cuando se determina que la frecuencia de inclinación de espectro de la trama de audio anterior es mayor que el primer umbral de frecuencia de inclinación de espectro y que el tipo de codificación de la trama de audio es transitorio, determinar el segundo peso de modificación.
- 17. El aparato según la reivindicación 15, en el que la unidad de determinación está configuradaespecíficamente para:para cada trama de audio, cuando se determina que una frecuencia de inclinación de espectro de la trama de audio anterior no es mayor que un primer umbral de frecuencia de inclinación de espectro y/o que una frecuencia de inclinación de espectro de la trama de audio no es menor que un segundo umbral de frecuencia de inclinación de espectro, determinar el primer peso de modificación según las diferencias de frecuencias espectrales de línea, LSF, de la trama de audio y las diferencias de LSF de la trama de audio anterior; y cuando se determina que la frecuencia de inclinación de espectro de la trama de audio anterior es mayor que el primer umbral de frecuencia de inclinación de espectro y la frecuencia de inclinación de espectro de la trama de audio es menor que el segundo umbral de frecuencia de inclinación de espectro, determinar el segundo peso de modificación.
- 18. El aparato según la reivindicación 15, en el que la unidad de determinación está configuradaespecíficamente para:para cada trama de audio, cuando se determina que una frecuencia de inclinación de espectro de la trama de audio anterior no es menor que un tercer umbral de frecuencia de inclinación de espectro, y/o que un tipo de codificaciónde la trama de audio anterior no es uno de cuatro tipos: de voz, genérico, transitorio y audio, y/o que una inclinaciónde espectro de la trama de audio no es mayor que un cuarto umbral de inclinación de espectro, determinar el primer peso de modificación según las diferencias de frecuencias espectrales de línea, LSF, de la trama de audio y las diferencias de LSF de la trama de audio anterior; y cuando se determina que la frecuencia de inclinación de espectrode la trama de audio anterior es menor que el tercer umbral de frecuencia de inclinación de espectro, el tipo de codificación de la trama de audio anterior es uno de los cuatro tipos: de voz, genérico, transitorio y audio, y que la frecuencia de inclinación de espectro de la trama de audio es mayor que el cuarto umbral de frecuencia de inclinación de espectro, determinar el segundo peso de modificación.5
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410299590 | 2014-06-27 | ||
CN201410299590 | 2014-06-27 | ||
CN201410426046.XA CN105225670B (zh) | 2014-06-27 | 2014-08-26 | 一种音频编码方法和装置 |
CN201410426046 | 2014-08-26 | ||
PCT/CN2015/074850 WO2015196837A1 (zh) | 2014-06-27 | 2015-03-23 | 一种音频编码方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2659068T3 true ES2659068T3 (es) | 2018-03-13 |
Family
ID=54936716
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES15811087.4T Active ES2659068T3 (es) | 2014-06-27 | 2015-03-23 | Procedimiento y aparato de codificación de audio |
ES17196524T Active ES2882485T3 (es) | 2014-06-27 | 2015-03-23 | Procedimiento y aparato de codificación de audio |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES17196524T Active ES2882485T3 (es) | 2014-06-27 | 2015-03-23 | Procedimiento y aparato de codificación de audio |
Country Status (9)
Country | Link |
---|---|
US (4) | US9812143B2 (es) |
EP (3) | EP3937169A3 (es) |
JP (1) | JP6414635B2 (es) |
KR (3) | KR101990538B1 (es) |
CN (2) | CN106486129B (es) |
ES (2) | ES2659068T3 (es) |
HU (1) | HUE054555T2 (es) |
PL (1) | PL3340242T3 (es) |
WO (1) | WO2015196837A1 (es) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014118156A1 (en) * | 2013-01-29 | 2014-08-07 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus and method for synthesizing an audio signal, decoder, encoder, system and computer program |
CN106486129B (zh) * | 2014-06-27 | 2019-10-25 | 华为技术有限公司 | 一种音频编码方法和装置 |
CN114898761A (zh) | 2017-08-10 | 2022-08-12 | 华为技术有限公司 | 立体声信号编解码方法及装置 |
US11417345B2 (en) * | 2018-01-17 | 2022-08-16 | Nippon Telegraph And Telephone Corporation | Encoding apparatus, decoding apparatus, fricative sound judgment apparatus, and methods and programs therefor |
JP6962386B2 (ja) * | 2018-01-17 | 2021-11-05 | 日本電信電話株式会社 | 復号装置、符号化装置、これらの方法及びプログラム |
JP7130878B2 (ja) * | 2019-01-13 | 2022-09-05 | 華為技術有限公司 | 高分解能オーディオコーディング |
CN110390939B (zh) * | 2019-07-15 | 2021-08-20 | 珠海市杰理科技股份有限公司 | 音频压缩方法和装置 |
Family Cites Families (43)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TW224191B (es) | 1992-01-28 | 1994-05-21 | Qualcomm Inc | |
JP3270922B2 (ja) * | 1996-09-09 | 2002-04-02 | 富士通株式会社 | 符号化,復号化方法及び符号化,復号化装置 |
WO1999010719A1 (en) * | 1997-08-29 | 1999-03-04 | The Regents Of The University Of California | Method and apparatus for hybrid coding of speech at 4kbps |
US6199040B1 (en) * | 1998-07-27 | 2001-03-06 | Motorola, Inc. | System and method for communicating a perceptually encoded speech spectrum signal |
US6493665B1 (en) * | 1998-08-24 | 2002-12-10 | Conexant Systems, Inc. | Speech classification and parameter weighting used in codebook search |
US6385573B1 (en) * | 1998-08-24 | 2002-05-07 | Conexant Systems, Inc. | Adaptive tilt compensation for synthesized speech residual |
US6330533B2 (en) | 1998-08-24 | 2001-12-11 | Conexant Systems, Inc. | Speech encoder adaptively applying pitch preprocessing with warping of target signal |
US7072832B1 (en) * | 1998-08-24 | 2006-07-04 | Mindspeed Technologies, Inc. | System for speech encoding having an adaptive encoding arrangement |
US6104992A (en) * | 1998-08-24 | 2000-08-15 | Conexant Systems, Inc. | Adaptive gain reduction to produce fixed codebook target signal |
US6188980B1 (en) * | 1998-08-24 | 2001-02-13 | Conexant Systems, Inc. | Synchronized encoder-decoder frame concealment using speech coding parameters including line spectral frequencies and filter coefficients |
US6449590B1 (en) * | 1998-08-24 | 2002-09-10 | Conexant Systems, Inc. | Speech encoder using warping in long term preprocessing |
WO2000060575A1 (en) * | 1999-04-05 | 2000-10-12 | Hughes Electronics Corporation | A voicing measure as an estimate of signal periodicity for a frequency domain interpolative speech codec system |
US6782360B1 (en) * | 1999-09-22 | 2004-08-24 | Mindspeed Technologies, Inc. | Gain quantization for a CELP speech coder |
US6636829B1 (en) * | 1999-09-22 | 2003-10-21 | Mindspeed Technologies, Inc. | Speech communication system and method for handling lost frames |
US6931373B1 (en) * | 2001-02-13 | 2005-08-16 | Hughes Electronics Corporation | Prototype waveform phase modeling for a frequency domain interpolative speech codec system |
US20030028386A1 (en) * | 2001-04-02 | 2003-02-06 | Zinser Richard L. | Compressed domain universal transcoder |
US20040002856A1 (en) * | 2002-03-08 | 2004-01-01 | Udaya Bhaskar | Multi-rate frequency domain interpolative speech CODEC system |
CN1420487A (zh) * | 2002-12-19 | 2003-05-28 | 北京工业大学 | 1kb/s线谱频率参数的一步插值预测矢量量化方法 |
US7720683B1 (en) * | 2003-06-13 | 2010-05-18 | Sensory, Inc. | Method and apparatus of specifying and performing speech recognition operations |
CN1677491A (zh) * | 2004-04-01 | 2005-10-05 | 北京宫羽数字技术有限责任公司 | 一种增强音频编解码装置及方法 |
KR20070009644A (ko) * | 2004-04-27 | 2007-01-18 | 마츠시타 덴끼 산교 가부시키가이샤 | 스케일러블 부호화 장치, 스케일러블 복호화 장치 및 그방법 |
US8938390B2 (en) * | 2007-01-23 | 2015-01-20 | Lena Foundation | System and method for expressive language and developmental disorder assessment |
JP5129117B2 (ja) * | 2005-04-01 | 2013-01-23 | クゥアルコム・インコーポレイテッド | 音声信号の高帯域部分を符号化及び復号する方法及び装置 |
WO2006116025A1 (en) * | 2005-04-22 | 2006-11-02 | Qualcomm Incorporated | Systems, methods, and apparatus for gain factor smoothing |
US8510105B2 (en) * | 2005-10-21 | 2013-08-13 | Nokia Corporation | Compression and decompression of data vectors |
JP4816115B2 (ja) * | 2006-02-08 | 2011-11-16 | カシオ計算機株式会社 | 音声符号化装置及び音声符号化方法 |
CN1815552B (zh) * | 2006-02-28 | 2010-05-12 | 安徽中科大讯飞信息科技有限公司 | 基于线谱频率及其阶间差分参数的频谱建模与语音增强方法 |
US8532984B2 (en) | 2006-07-31 | 2013-09-10 | Qualcomm Incorporated | Systems, methods, and apparatus for wideband encoding and decoding of active frames |
US8135047B2 (en) * | 2006-07-31 | 2012-03-13 | Qualcomm Incorporated | Systems and methods for including an identifier with a packet associated with a speech signal |
JP5061111B2 (ja) * | 2006-09-15 | 2012-10-31 | パナソニック株式会社 | 音声符号化装置および音声符号化方法 |
KR100862662B1 (ko) | 2006-11-28 | 2008-10-10 | 삼성전자주식회사 | 프레임 오류 은닉 방법 및 장치, 이를 이용한 오디오 신호복호화 방법 및 장치 |
WO2008091947A2 (en) * | 2007-01-23 | 2008-07-31 | Infoture, Inc. | System and method for detection and analysis of speech |
US8457953B2 (en) | 2007-03-05 | 2013-06-04 | Telefonaktiebolaget Lm Ericsson (Publ) | Method and arrangement for smoothing of stationary background noise |
US8126707B2 (en) * | 2007-04-05 | 2012-02-28 | Texas Instruments Incorporated | Method and system for speech compression |
CN101114450B (zh) * | 2007-07-20 | 2011-07-27 | 华中科技大学 | 一种语音编码选择性加密方法 |
JP5010743B2 (ja) * | 2008-07-11 | 2012-08-29 | フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン | スペクトル傾斜で制御されたフレーミングを使用して帯域拡張データを計算するための装置及び方法 |
GB2466670B (en) * | 2009-01-06 | 2012-11-14 | Skype | Speech encoding |
CN102436820B (zh) * | 2010-09-29 | 2013-08-28 | 华为技术有限公司 | 高频带信号编码方法及装置、高频带信号解码方法及装置 |
KR101747917B1 (ko) * | 2010-10-18 | 2017-06-15 | 삼성전자주식회사 | 선형 예측 계수를 양자화하기 위한 저복잡도를 가지는 가중치 함수 결정 장치 및 방법 |
CN105244034B (zh) | 2011-04-21 | 2019-08-13 | 三星电子株式会社 | 针对语音信号或音频信号的量化方法以及解码方法和设备 |
CN102664003B (zh) * | 2012-04-24 | 2013-12-04 | 南京邮电大学 | 基于谐波加噪声模型的残差激励信号合成及语音转换方法 |
US9842598B2 (en) * | 2013-02-21 | 2017-12-12 | Qualcomm Incorporated | Systems and methods for mitigating potential frame instability |
CN106486129B (zh) * | 2014-06-27 | 2019-10-25 | 华为技术有限公司 | 一种音频编码方法和装置 |
-
2014
- 2014-08-26 CN CN201610984423.0A patent/CN106486129B/zh active Active
- 2014-08-26 CN CN201410426046.XA patent/CN105225670B/zh active Active
-
2015
- 2015-03-23 EP EP21161646.1A patent/EP3937169A3/en active Pending
- 2015-03-23 JP JP2017519760A patent/JP6414635B2/ja active Active
- 2015-03-23 KR KR1020187022368A patent/KR101990538B1/ko active IP Right Grant
- 2015-03-23 EP EP15811087.4A patent/EP3136383B1/en active Active
- 2015-03-23 KR KR1020197016886A patent/KR102130363B1/ko active IP Right Grant
- 2015-03-23 PL PL17196524T patent/PL3340242T3/pl unknown
- 2015-03-23 HU HUE17196524A patent/HUE054555T2/hu unknown
- 2015-03-23 ES ES15811087.4T patent/ES2659068T3/es active Active
- 2015-03-23 KR KR1020167034277A patent/KR101888030B1/ko active IP Right Grant
- 2015-03-23 WO PCT/CN2015/074850 patent/WO2015196837A1/zh active Application Filing
- 2015-03-23 ES ES17196524T patent/ES2882485T3/es active Active
- 2015-03-23 EP EP17196524.7A patent/EP3340242B1/en active Active
-
2016
- 2016-11-28 US US15/362,443 patent/US9812143B2/en active Active
-
2017
- 2017-09-08 US US15/699,694 patent/US10460741B2/en active Active
-
2019
- 2019-09-30 US US16/588,064 patent/US11133016B2/en active Active
-
2021
- 2021-08-27 US US17/458,879 patent/US20210390968A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
US10460741B2 (en) | 2019-10-29 |
JP6414635B2 (ja) | 2018-10-31 |
US20170076732A1 (en) | 2017-03-16 |
US11133016B2 (en) | 2021-09-28 |
KR20190071834A (ko) | 2019-06-24 |
EP3136383A4 (en) | 2017-03-08 |
EP3937169A3 (en) | 2022-04-13 |
JP2017524164A (ja) | 2017-08-24 |
KR102130363B1 (ko) | 2020-07-06 |
KR101990538B1 (ko) | 2019-06-18 |
ES2882485T3 (es) | 2021-12-02 |
WO2015196837A1 (zh) | 2015-12-30 |
PL3340242T3 (pl) | 2021-12-06 |
KR20180089576A (ko) | 2018-08-08 |
EP3937169A2 (en) | 2022-01-12 |
CN105225670B (zh) | 2016-12-28 |
US9812143B2 (en) | 2017-11-07 |
CN106486129A (zh) | 2017-03-08 |
US20210390968A1 (en) | 2021-12-16 |
CN106486129B (zh) | 2019-10-25 |
HUE054555T2 (hu) | 2021-09-28 |
EP3340242B1 (en) | 2021-05-12 |
EP3136383A1 (en) | 2017-03-01 |
KR101888030B1 (ko) | 2018-08-13 |
EP3340242A1 (en) | 2018-06-27 |
US20200027468A1 (en) | 2020-01-23 |
CN105225670A (zh) | 2016-01-06 |
EP3136383B1 (en) | 2017-12-27 |
US20170372716A1 (en) | 2017-12-28 |
KR20170003969A (ko) | 2017-01-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2659068T3 (es) | Procedimiento y aparato de codificación de audio | |
ES2460893T3 (es) | Sistemas, procedimientos y aparato para limitar el factor de ganancia | |
US8532984B2 (en) | Systems, methods, and apparatus for wideband encoding and decoding of active frames | |
ES2539174T3 (es) | Aparato y método para ocultamiento de error en voz unificada con bajo retardo y codificación de audio (USAC) | |
ES2391292T3 (es) | Sistemas, procedimientos y aparato para la generación de una señal de excitación de banda alta | |
US8428938B2 (en) | Systems and methods for reconstructing an erased speech frame | |
ES2665776T3 (es) | Método y dispositivo para codificar una señal de alta frecuencia relativa a la expansión de ancho de banda en la codificación vocal y de audio | |
ES2947874T3 (es) | Determinación de una función de ponderación de baja complejidad para la cuantificación de coeficientes de codificación lineal predictiva (LPC) | |
JP2019215545A (ja) | 冗長フレーム情報を通信するシステムおよび方法 | |
US20110082693A1 (en) | Systems, methods, and apparatus for frame erasure recovery | |
ES2827278T3 (es) | Método, dispositivo y memoria no transitoria legible por ordenador para codificación y decodificación predictiva linealde señales sonoras en la transición entre tramas que tienen diferentes tasas de muestreo | |
ES2707888T3 (es) | Sistemas y procedimientos para mitigar la inestabilidad potencial de tramas | |
BR122021000241B1 (pt) | Aparelho de quantização de coeficientes de codificação preditiva linear | |
US9524720B2 (en) | Systems and methods of blind bandwidth extension | |
ES2952973T3 (es) | Dispositivo de determinación de la función de ponderación y procedimiento para cuantificar el coeficiente de codificación de predicción lineal | |
ES2657802T3 (es) | Decodificación de audio basada en una representación eficiente de coeficientes autoregresivos | |
ES2716152T3 (es) | Método y aparato para predecir una señal de excitación de alta frecuencia | |
ES2895495T3 (es) | Método y codificador para el procesamiento de envolventes temporales de señal de audio | |
ES2755152T3 (es) | Método y dispositivo de procesamiento de señal | |
BR112016027113B1 (pt) | Método e aparelho para processar quadro perdido | |
KR20160005069A (ko) | 손실 프레임을 처리하는 방법, 및 디코더 |