ES2905911T3 - Codificación de audio con modelado de ruido temporal - Google Patents

Codificación de audio con modelado de ruido temporal Download PDF

Info

Publication number
ES2905911T3
ES2905911T3 ES18796675T ES18796675T ES2905911T3 ES 2905911 T3 ES2905911 T3 ES 2905911T3 ES 18796675 T ES18796675 T ES 18796675T ES 18796675 T ES18796675 T ES 18796675T ES 2905911 T3 ES2905911 T3 ES 2905911T3
Authority
ES
Spain
Prior art keywords
filter
filtering
tns
impulse response
energy
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES18796675T
Other languages
English (en)
Inventor
Emmanuel Ravelli
Manfred Lutzky
Markus Schnell
Alexander Tschekalinskij
Goran Markovic
Stefan Geyersberger
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Original Assignee
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV filed Critical Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Application granted granted Critical
Publication of ES2905911T3 publication Critical patent/ES2905911T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/03Spectral prediction for preventing pre-echo; Temporary noise shaping [TNS], e.g. in MPEG2 or MPEG4
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L21/0224Processing in the time domain
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0316Speech enhancement, e.g. noise reduction or echo cancellation by changing the amplitude
    • G10L21/0364Speech enhancement, e.g. noise reduction or echo cancellation by changing the amplitude for improving intelligibility

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Picture Signal Circuits (AREA)
  • Error Detection And Correction (AREA)
  • Noise Elimination (AREA)

Abstract

Aparato codificador (10, 50, 110) que comprende: una herramienta de modelado de ruido temporal, TNS, (11) para ejecutar el filtrado de predicción lineal, LP, (S33, S35, S36) en una señal de audio (13) que incluye una pluralidad de tramas; y un controlador (12) configurado para controlar la herramienta de TNS (11) de manera que la herramienta de TNS (11) ejecute el filtrado de LP con: un primer filtro (14a) cuya respuesta al impulso tiene una energía más elevada (S36); y un segundo filtro (15a) cuya respuesta al impulso tiene una energía más baja (S35) que la respuesta al impulso del primer filtro (14a), en el que el segundo filtro (15a) no es un filtro de identidad, en el que el controlador (12) está configurado para elegir (S34) entre filtrar (S36) con el primer filtro (14a) y filtrar (S35) con el segundo filtro (15a) sobre la base de una métrica de trama (17), caracterizado porque el controlador (12) está configurado además para: modificar el primer filtro (14a) a fin de obtener el segundo filtro (15a) en donde la energía de respuesta al impulso del filtro se ha reducido.

Description

DESCRIPCIÓN
Codificación de audio con modelado de ruido temporal
1. Campo técnico
Los ejemplos en el presente documento se relacionan con aparatos codificador y decodificador, en particular para la ejecución del modelado de ruido temporal (TNS).
2. Técnica anterior
Los siguientes documentos de la técnica anterior son parte de la técnica anterior:
[1] Herre, Jürgen y James D. Johnston. “Enhancing the performance of perceptual audio coders by using temporal noise shaping (TNS).” Audio Engineering Society Convention 101. Audio Engineering Society, 1996.
[2] Herre, Jurgen y James D. Johnston. “Continuously signal-adaptive filterbank for high-quality perceptual audio coding.” Applications of Signal Processing to Audio and Acoustics, 1997. 1997 IEEE ASSP Workshop on. IEEE, 1997.
[3] Herre, Jürgen. “Temporal noise shaping, quantization and coding methods in perceptual audio coding: A tutorial introduction.” Audio Engineering Society Conference: 17a Conferencia Internacional: High-Quality Audio Coding. Audio Engineering Society, 1999.
[4] Herre, Juergen Heinrich. “Perceptual noise shaping in the time domain via LPC prediction in the frequency domain.” Patente de Estados Unidos No. 5.781.888. 14 de julio de 1998.
[5] Herre, Juergen Heinrich. “Enhanced joint stereo coding method using temporal envelope shaping.” Patente de Estados Unidos No. 5.812.971. 22 de septiembre de 1998.
[6] 3GPP TS 26.403; General audio codec audio processing functions; Enhanced aacPlus general audio codec; Encoder specification; Advanced Audio Coding (AAC) part.
[7] ISO/IEC 14496-3:2001; Information technology - Coding of audio-visual objects - Parte 3: Audio.
[8] 3GPP TS 26.445; Codec for Enhanced Voice Services (EVS); Detailed algorithmic description.
El modelado de ruido temporal (TNS) es una herramienta para codificadores de audio basados en transformadas que se desarrolló en la década del 90 (documentos de conferencia [1 -3] y patentes [4-5]). Desde entonces, se ha integrado en normas de codificación de audio importantes tales como m Pe G-2 AAC, MPEG-4 AAC, 3GPP E-AAC-Plus, MPEG-D USAC, 3GPP EVS, MPEG-H 3D Audio.
Se puede describir brevemente el TNS de la siguiente manera. Del lado del codificador y antes de la cuantización, se filtra una señal en el dominio de la frecuencia (FD) usando predicción lineal, LP, para aplanar la señal en el dominio del tiempo. Del lado del decodificador y después de la cuantización inversa, se vuelve a filtrar la señal en el dominio de la frecuencia usando el filtro de predicción inversa, para modelar el ruido de cuantización en el dominio del tiempo de tal manera que quede enmascarado por la señal.
El TNS es eficaz para reducir la denominada distorsión preeco en las señales que contienen ataques agudos tales como, por ejemplo, castañuelas. También es útil que las señales contengan series pseudoestacionarias de señales tipo impulso tales como, por ejemplo, la voz.
El TNS se utiliza en general en un codificador de audio que opera con una tasa de bits relativamente elevada. Cuando se utiliza en un codificador de audio que opera con baja tasa de bits, en ocasiones el TNS puede introducir alteraciones, degradando la calidad del codificador de audio. Estas alteraciones son de tipo clic o de ruido y aparecen en la mayoría de los casos con señales de voz o señales de música tonal.
Los ejemplos incluidos en el presente documento permiten suprimir o reducir las desventajas del TNS manteniendo sus ventajas.
Varios ejemplos expuestos a continuación permiten obtener un TNS mejorado para la codificación de audio con baja tasa de bits.
El documento US 2007/0033056 A1 da a conocer un aparato para el procesamiento de una señal multicanal que incluye medios para determinar una similitud entre un primero de dos canales y un segundo de los dos canales. Adicionalmente, se proporcionan medios para ejecutar un filtrado de predicción de los coeficientes espectrales, que se forman para ejecutar un filtrado de predicción con solamente un único filtro de predicción para ambos canales en caso de alta similitud entre el primer y el segundo canal y para ejecutar un filtrado de predicción con dos filtros de predicción independientes en caso de una disimilitud entre el primer y el segundo canal. Con esto, se evitan una introducción de alteraciones estéreo y una deterioración de la ganancia de codificación en técnicas de codificación estéreo. Se da a conocer un filtro de TNS. Se hace una selección entre los filtros respectivos y un filtro común. Una estrategia de TNS se da a conocer por el documento de Fuchs Guillaume et al., “Low delay LPC and MDCT-based audio coding in the EVS codec”, Conferencia Internacional IEEE sobre Acústica, Habla y Procesamiento de Señales (ICASSP) de 2015, IEEE, 19 de abril de 2015, páginas 5723 a 5727. El TNS se usa únicamente si la ganancia de predicción o la suma de los coeficientes de reflexión de TNS cuadrados son suficientemente altas.
Otra estrategia de TNS se describe por Niamut et al., “RD Optimal Temporal Noise Shaping for Transform Audio Coding”, Procedimiento de la Conferencia Internacional IEEE sobre Acústica, Habla y Procesamiento de Señales, ICASSP 2006 S. Toulouse, Francia, 14 a 19 de mayo de 2006, IEEE, 1 de enero de 2006, páginas V-189 a V-192. Se dan a conocer un primer filtro de TNS y un segundo filtro de TNS.
3. Sumario de la invención
La invención se define en las reivindicaciones independientes.
Según la invención, se proporciona un aparato codificador que comprende:
una herramienta de modelado de ruido temporal, TNS, para ejecutar el filtrado de predicción lineal, LP, en una señal de información que incluye una pluralidad de tramas; y
un controlador configurado para controlar la herramienta de TNS de manera tal que la herramienta de TNS ejecute el filtrado de LP con:
un primer filtro cuya respuesta al impulso tiene una energía más elevada; y
un segundo filtro cuya respuesta al impulso tiene una energía más baja, en el que el segundo filtro no es un filtro de identidad,
en el que el controlador está configurado para elegir entre el filtrado con el primer filtro y el filtrado con el segundo filtro sobre la base de una métrica de trama.
Se ha señalado que es posible eliminar las alteraciones en tramas problemáticas al mismo tiempo que se afectan las demás tramas de manera ínfima.
En lugar de simplemente encender/apagar las operaciones de TNS, es posible mantener las ventajas de la herramienta de TNS al mismo tiempo que se reducen a la vez sus desventajas. Por lo tanto, de esa manera se obtiene un control inteligente basado en realimentación en tiempo real simplemente reduciendo el filtrado donde sea necesario en lugar de evitarlo.
Según la invención, el controlador está configurado además para:
modificar el primer filtro a fin de obtener el segundo filtro en el que se reduce la energía de respuesta al impulso del filtro.
En consecuencia, se puede crear el segundo filtro con energía de respuesta al impulso reducida cuando resulte necesario.
Según los ejemplos, el controlador está configurado además para:
aplicar por lo menos un factor de ajuste al primer filtro para obtener el segundo filtro.
Mediante la modificación inteligente del primer filtro, se puede crear un estado de filtrado que no se puede obtener simplemente ejecutando las operaciones de encendido/apagado del TNS. Se obtiene por lo menos un estado intermedio entre filtrado completo y falta total de filtrado. Este estado intermedio, invocado en caso de ser necesario, permite reducir las desventajas de que el TNS mantenga sus características positivas.
Según los ejemplos, el controlador está configurado además para:
definir el por lo menos un factor de ajuste sobre la base de por lo menos la métrica de trama.
Según los ejemplos, el controlador está configurado además para:
definir el por lo menos un factor de ajuste sobre la base de un umbral para la determinación del filtrado de TNS que se utiliza para seleccionar entre ejecutar el filtrado de TNS y no ejecutar el filtrado de TNS.
Según los ejemplos, el controlador está configurado además para:
definir el por lo menos un factor de ajuste empleando una función lineal de la métrica de trama, siendo la función lineal tal que un aumento de la métrica de trama corresponde a un aumento del factor de ajuste y/o de la energía de respuesta al impulso del filtro.
Por lo tanto, es posible definir, para métricas diferentes, factores de ajuste diferentes para obtener los parámetros de filtro que son los más apropiados para cada trama.
Según los ejemplos, el controlador está configurado además para definir el factor de ajuste de la siguiente manera thresh2 — frameMetrics
1 — (1 — ymin)
rmn' --- :-----—----:
thresh2 — th-r-e-s- :
h---- , si frameMetrics < thresh2
Y = j v
.1 , de lo contrario
en el que thresh es el umbral para la determinación de filtrado de TNS, thresh2 es el umbral de determinación de tipo de filtrado, frameMetrics es una métrica de trama y Ymin es un valor fijo.
Las alteraciones causadas por el TNS aparecen en tramas en que la ganancia de predicción está en un intervalo determinado, que se define en el presente documento como grupo de valores más elevados que el umbral para la determinación de filtrado de TNS thresh pero más bajos que el umbral de determinación de filtrado thresh2. En algunos casos en los cuales la métrica es la ganancia de predicción, thresh=1,5 y thresh2=2, las alteraciones causadas por el TNS tienden a aparecer entre 1,5 y 2. Por lo tanto, varios ejemplos permiten superar estas desventajas mediante la reducción del filtrado en el caso de 1,5 < predGain < 2.
Según los ejemplos, el controlador está configurado además para modificar los parámetros del primer filtro para obtener los parámetros del segundo filtro mediante la aplicación de:
aw(fc) = y fca(fc),fc
Figure imgf000004_0001
donde a(k) son parámetros del primer filtro, y es el factor de ajuste de tal manera que 0 < y < 1, aw(k) sean los parámetros del segundo filtro y K esté en el orden del primer filtro.
Esta es una técnica sencilla pero válida para obtener los parámetros del segundo filtro a fin de reducir la energía de respuesta al impulso con respecto a la energía de respuesta al impulso del primer filtro.
Según los ejemplos, el controlador está configurado además para obtener la métrica de trama a partir de por lo menos uno de una ganancia de predicción, una energía de la señal de información y/o un error de predicción.
Estas métricas permiten discriminar de manera sencilla y segura las tramas que deben ser filtradas por el segundo filtro de las tramas que deben ser filtradas por el primer filtro.
Según los ejemplos, la métrica de trama comprende una ganancia de predicción que se calcula según
energy
predGain
pred£rror
donde energy es un término asociado a una energía de la señal de información y predError es un término asociado a un error de predicción.
Según los ejemplos, el controlador está configurado de la siguiente manera:
por lo menos en el caso de una reducción de una ganancia de predicción y/o una reducción de una energía de la señal de información, se reduce la energía de respuesta al impulso del segundo filtro y/o por lo menos en el caso de un aumento del error de predicción, se reduce la energía de respuesta al impulso del segundo filtro.
Según los ejemplos, el controlador está configurado para:
comparar la métrica de trama con un umbral de determinación de tipo de filtrado (por ejemplo, thresh2), a fin de ejecutar un filtrado con el primer filtro cuando la métrica de trama es más baja que el umbral de determinación de tipo de filtrado.
En consecuencia, es fácil establecer automáticamente si se debe filtrar la señal usando el primer filtro o usando el segundo filtro.
Según los ejemplos, el controlador está configurado para:
elegir entre ejecutar un filtrado y no ejecutar el filtrado sobre la base de la métrica de trama.
En consecuencia, también es posible evitar por completo el filtrado de TNS cuando este no resulta apropiado.
En los ejemplos, se puede utilizar la misma métrica dos veces (llevando a cabo comparaciones con dos umbrales diferentes): tanto para decidir entre el primer filtro y el segundo filtro, como para decidir si filtrar o no filtrar.
Según los ejemplos, el controlador está configurado para:
comparar la métrica de trama con un umbral para la determinación del filtrado de TNS, a fin de elegir evitar el filtrado de TNS cuando la métrica de trama es más baja que el umbral para la determinación de filtrado de TNS.
Según los ejemplos, el aparato puede comprender además:
un dispositivo para escribir flujos de bits para preparar un flujo de bits con coeficientes de reflexión, o una versión cuantizada de los mismos, obtenida mediante el t Ns .
Estos datos pueden ser almacenados y/o transmitidos, por ejemplo, a un decodificador.
Según la invención, se proporciona un sistema que comprende un lado del codificador y un lado del decodificador, en el que el lado del codificador comprende un aparato codificador como el citado anteriormente y/o en adelante.
Según los ejemplos, se proporciona un método para ejecutar el filtrado de modelado de ruido temporal, TNS, en una señal de información que incluye una pluralidad de tramas, comprendiendo el método:
- para cada trama, elegir entre el filtrado con un primer filtro cuya respuesta al impulso tiene una energía menor y el filtrado con un segundo filtro cuya respuesta al impulso tiene una energía más elevada sobre la base de la métrica de trama, en el que el segundo filtro no es un filtro de identidad;
- filtrar la trama usando el filtrado con la elección entre el primer filtro y el segundo filtro;
- modificar el primer filtro a fin de obtener el segundo filtro en el que se reduce la energía de respuesta al impulso del filtro.
Según los ejemplos, se proporciona un dispositivo de almacenamiento no transitorio que almacena instrucciones que, al ser ejecutadas por un procesador, hacen que el procesador lleve a cabo por lo menos algunos de los pasos de los métodos anteriores y/o siguientes y/o implemente un sistema como el anterior o siguiente y/o un aparato como el anterior y/o siguiente.
4. Descripción de los dibujos
La figura 1 muestra un aparato codificador según un ejemplo.
La figura 2 muestra un aparato decodificador según un ejemplo.
La figura 3 muestra un método según un ejemplo.
La figura 3A muestra una técnica según un ejemplo.
La figura 4 muestra métodos según los ejemplos.
La figura 5 muestra un aparato codificador según un ejemplo.
La figura 6 muestra un aparato decodificador según un ejemplo.
Las figuras 7 y 8 muestran un aparato codificador según los ejemplos.
Las figuras 8(1) a 8(3) muestran evoluciones de señales según los ejemplos.
5. Ejemplos
La figura 1 muestra un aparato codificador 10. El aparato codificador 10 sirve para procesar (y transmitir y/o almacenar) señales de información, que son señales de audio. Una señal de información se puede dividir en una sucesión temporal de tramas. Cada trama puede estar representada, por ejemplo, en el dominio de la frecuencia, FD. La representación en FD puede ser una sucesión de bins, cada una a una frecuencia específica. La representación en FD puede ser un espectro de frecuencia.
El aparato codificador 10 puede comprender, entre otras cosas, una herramienta de modelado de ruido temporal, TNS, 11 para ejecutar el filtrado de TNS en una señal de información en FD 13 (Xs(n)). El aparato codificador 10 puede comprender, entre otras cosas, un controlador de TNS 12. El controlador de TNS 12 puede estar configurado para controlar la herramienta de TNS 11 de manera que la herramienta de TNS 11 ejecute el filtrado (por ejemplo, en algunas tramas) empleando por lo menos un filtrado de predicción lineal (LP) con mayor energía de respuesta al impulso y (por ejemplo, en otras tramas) utilizando por lo menos un filtrado de LP con mayor energía de respuesta al impulso. El controlador de TNS 12 está configurado para ejecutar una selección entre filtrado de LP con mayor energía de respuesta al impulso y filtrado de LP con menor energía de respuesta al impulso sobre la base de una métrica asociada a la trama (métrica de trama). La energía de la respuesta al impulso del primer filtro es mayor que la energía de respuesta al impulso del segundo filtro.
La señal de información en FD 13 (Xs(n)) se puede obtener, por ejemplo, de una herramienta de transformada de coseno discreta modificada, MDCT, (o transformada de seno discreta modificada MDST, por ejemplo) que ha transformado una representación de una trama de un dominio del tiempo, TD, al dominio de la frecuencia, FD.
La herramienta de TNS 11 puede procesar señales, por ejemplo, utilizando un grupo de parámetros de filtro de predicción lineal (LP) 14 (a(k)), que pueden ser parámetros de un primer filtro 14a. La herramienta de TNS 11 puede comprender además parámetros 14' (aw(k)) que pueden ser los parámetros de un segundo filtro 15a (el segundo filtro 15a puede tener una respuesta al impulso con energía más baja en comparación con la respuesta al impulso del primer filtro 14a). Se puede entender que los parámetros 14' son una versión ponderada de los parámetros 14 y se puede entender que el segundo filtro 15a deriva del primer filtro 14a. Los parámetros pueden comprender, entre otras cosas, uno o más de los siguientes parámetros (o la versión cuantizada de los mismos): coeficientes de codificación LP, LPC, coeficientes de reflexión, Rc , coeficientes rci(k) o versiones cuantizadas de los mismos rcq(k), coeficientes de reflexión de arcoseno, ASRC, relaciones logarítmicas de área, LAR, pares de líneas espectrales, LSP, y/o frecuencias de líneas espectrales, LS, u otros tipos de parámetros de este tipo. En los ejemplos, es posible utilizar cualquier representación de coeficientes de filtro.
La salida de la herramienta de TNS 11 puede ser una versión filtrada 15 (Xf(n)) de la señal de información en FD 13 (Xs(n)).
Otra salida de la herramienta de TNS 11 puede consistir en un grupo de parámetros de salida 16, tales como coeficientes de reflexión rci(k) (o versiones cuantizadas de los mismos rcq(k)).
Con posterioridad a los componentes 11 y 12, un codificador de flujos de bits puede codificar las salidas 15 y 16 para formar un flujo de bits que puede ser transmitido (por ejemplo, por vía inalámbrica, por ejemplo, utilizando un protocolo tal como Bluetooth) y/o almacenado (por ejemplo, en una unidad de almacenamiento de memoria masiva).
El filtrado de TNS produce coeficientes de reflexión que, en general, son diferentes de cero. El filtrado de TNS produce una salida que, en general, es diferente de la entrada.
La figura 2 muestra un aparato decodificador 20 que puede hacer uso de la salida (o una versión procesada de la misma) de la herramienta de TNS 11. El aparato decodificador 20 puede comprender, entre otras cosas, un decodificador de TNS 21 y un controlador del decodificador de TNS 22. Los componentes 21 y 22 pueden cooperar para obtener una salida de síntesis 23 (Xs (n)). En el decodificador de TNS 21 se puede ingresar, por ejemplo, una representación decodificada 25 (o una versión procesada de la misma) (X (n)) de la señal de información obtenida por el aparato decodificador 20. El decodificador de TNS 21 puede obtener en la entrada (como entrada 26) coeficientes de reflexión rci(k) (o versiones cuantizadas de los mismos rcq(k)). Los coeficientes de reflexión rci(k) o rcq(k) pueden ser la versión decodificada de los coeficientes de reflexión rci(k) o rcq(k) provistos a la salida 16 por el aparato codificador 10.
Como se ilustra en la figura 1, el controlador de TNS 12 puede controlar la herramienta de TNS 11 sobre la base, entre otras cosas, de una métrica de trama 17 (por ejemplo, ganancia de predicción o predGain). Por ejemplo, el controlador de TNS 12 puede ejecutar el filtrado mediante la elección entre por lo menos un filtrado de LP con mayor energía de respuesta al impulso y/o un filtrado de LP con menor energía de respuesta al impulso, y/o entre filtrar y no filtrar. Aparte del filtrado de LP con mayor energía de respuesta al impulso y el filtrado de LP con menor energía de respuesta al impulso, por lo menos un filtrado de LP con energía intermedia de respuesta al impulso es posible según los ejemplos.
El número de referencia 17' de la figura 1 se refiere a datos de información, comandos y/o control que son enviados a la herramienta de TNS 14 desde el controlador de TNS 12. Por ejemplo, se puede enviar a la herramienta de TNS 14 una decisión basada en la métrica 17 (por ejemplo, “usar el primer filtro” o “usar el segundo filtro”). También se pueden enviar las configuraciones de los filtros a la herramienta de TNS 14. Por ejemplo, use puede enviar un factor de ajuste (Y) al filtro de TNS a fin de modificar el primer filtro 14a para obtener el segundo filtro 15a.
La métrica 17 puede ser, por ejemplo, una métrica asociada a la energía de la señal presente en la trama (por ejemplo, la métrica puede ser tal que la métrica sea mayor, cuanto más elevada sea la energía). La métrica puede ser, por ejemplo, una métrica asociada a un error de predicción (por ejemplo, la métrica puede ser tal que, cuanto mayor sea el error de predicción, menor sea la métrica). La métrica puede ser, por ejemplo, un valor asociado a la relación entre el error de predicción y la energía de la señal (por ejemplo, la métrica puede ser tal que, cuanto mayor sea la relación entre la energía y el error de predicción, mayor sea la métrica). La métrica puede consistir, por ejemplo, en una ganancia de predicción correspondiente a una trama en curso o un valor asociado o proporcional a la ganancia de predicción correspondiente a la trama en curso (como, por ejemplo, cuanto mayor sea la ganancia de predicción, mayor sea la métrica). La métrica de trama (17) puede estar asociada a la forma plana de la envolvente temporal de la señal.
Se ha notado que las alteraciones debidas al TNS solo tienen lugar (o por lo menos de manera prevalente) cuando la ganancia de predicción es baja. Por lo tanto, cuando la ganancia de predicción es elevada, no surgen los problemas causados por el TNS (o tienen menos tendencia a aparecer) y es posible ejecutar el TNS completo (por ejemplo, LP con mayor energía de respuesta al impulso). Cuando la ganancia de predicción es muy baja, es preferible no realizar el TNS en absoluto (sin filtrado). Cuando la ganancia de predicción es mediana, es preferible reducir los efectos del TNS empleando un filtrado de predicción lineal con menor energía de respuesta al impulso (por ejemplo, mediante la ponderación de los coeficientes de LP u otros parámetros de filtro y/o coeficientes de reflexión y/o usando un filtro cuya respuesta al impulso tiene una energía más baja). El filtrado de LP con mayor energía de respuesta al impulso y el filtrado de LP con menor energía de respuesta al impulso son diferentes entre sí por el hecho de que el filtrado de LP con mayor energía de respuesta al impulso se define de manera que cause una energía de respuesta al impulso mayor que el filtrado de LP con menor energía de respuesta al impulso. Un filtro se caracteriza, en general, por la energía de respuesta al impulso y, por lo tanto, es posible identificarlo por su energía de respuesta al impulso. El filtrado de LP con mayor energía de respuesta al impulso conlleva el uso de un filtro cuya respuesta al impulso tiene una energía más elevada que el filtro utilizado en el filtrado de LP con menor energía de respuesta al impulso.
Por ende, con los presentes ejemplos, las operaciones de TNS se pueden computar mediante lo siguiente:
- ejecutando el filtrado de LP con alta energía de respuesta al impulso cuando la métrica (por ejemplo, la ganancia de predicción) es elevada (por ejemplo, superior a un umbral de determinación de tipo de filtrado);
- ejecutando el filtrado de LP de baja energía de respuesta al impulso cuando la métrica (por ejemplo, ganancia de predicción) es intermedia (por ejemplo, entre un umbral para la determinación del filtrado de TNS y el umbral de determinación de tipo de filtrado); y
- no ejecutando el filtrado de TNS cuando la métrica (por ejemplo, ganancia de predicción) es baja (por ejemplo, inferior al umbral para la determinación de filtrado de TNS).
Se puede obtener el filtrado de LP con alta energía de respuesta al impulso, por ejemplo, usando un primer filtro con alta energía de respuesta al impulso. El filtrado de LP con baja energía de respuesta al impulso se puede obtener, por ejemplo, usando un segundo filtro con menor energía de respuesta al impulso. El primero y segundo filtros pueden ser filtros invariantes en el tiempo (LTI) lineales.
En los ejemplos, se puede describir el primer filtro empleando los parámetros de filtro a(k) (14). En los ejemplos, el segundo filtro puede ser una versión modificada del primer filtro (por ejemplo, según se obtiene por el controlador de TNS 12). El segundo filtro (filtro de menor energía de respuesta al impulso) se puede obtener reduciendo la escala de los parámetros de filtro del primer filtro (por ejemplo, utilizando un parámetro y o Yk de tal manera que 0 < y < 1, donde k es un número natural tal que k "<" K donde K está en el orden del primer filtro).
Por lo tanto, en los ejemplos, cuando se obtienen los parámetros de filtro, y sobre la base de la métrica, se determina que es necesario el filtrado con menor energía de respuesta al impulso, se pueden modificar los parámetros de filtro del primer filtro (por ejemplo, reducir su escala) para obtener los parámetros de filtro del segundo filtro, que se han de utilizar para la selección del filtro con menor energía de respuesta al impulso.
La figura 3 muestra un método 30 que se puede implementar en el aparato codificador 10.
En el paso S31 se obtiene una métrica de trama (por ejemplo, la ganancia de predicción 17).
En el paso S32 se verifica si la métrica de trama 17 es superior a un umbral para la determinación del filtrado de TNS o al primer umbral (que puede ser de 1,5, en algunos ejemplos). Un ejemplo de métrica puede consistir en una ganancia de predicción.
Si en S32 se comprueba que la métrica de trama 17 es más baja que el primer umbral (thresh), no se realiza ninguna operación de filtrado en S33 (sería posible decir que se utiliza un filtro identificador, siendo el filtro identificador un filtro en el cual la salida es igual a la entrada). Por ejemplo, X f(n)= Xs(n) (la salida 15 de la herramienta de TNS 11 es igual a la entrada 13), y/o los coeficientes de reflexión rci(k) (y/o sus versiones cuantizadas rc0(k)) también se establecen en 0. Por lo tanto, las operaciones (y la salida) del aparato decodificador 20 no se ven afectadas por la herramienta de TNS 11. Por ende, en S33, puede no utilizarse el primer filtro ni el segundo filtro.
Si en S32 se verifica que la métrica de trama 17 es mayor que el umbral para la determinación de filtrado de TNS o el primer umbral (thresh), se puede ejecutar una segunda verificación en el paso S34 comparando la métrica de trama con un umbral de determinación de tipo de filtrado o el segundo umbral (thresh2, que puede ser mayor que el primer umbral, y ser, por ejemplo, 2).
Si en S34 se verifica que la métrica de trama 17 es más baja que el umbral de determinación de tipo de filtrado o que el segundo umbral (thresh2), se ejecuta el filtrado de LP con energía de respuesta al impulso más baja en S35 (por ejemplo, se utiliza un segundo filtro con menor energía de respuesta al impulso, no siendo el segundo filtro un filtro identificador).
Si en S34 se verifica que la métrica de trama 17 es mayor que el umbral de determinación de tipo de filtrado o que el segundo umbral (thresh2), se ejecuta el filtrado de LP con mayor energía de respuesta al impulso en S36 (por ejemplo, se utiliza un primer filtro cuya energía de respuesta es más elevada que la del filtro de menor energía).
El método 30 se puede reiterar para la trama subsiguiente.
En los ejemplos, el filtrado de LP con menor energía de respuesta al impulso (S35) puede diferir del filtrado de LP con mayor energía de respuesta al impulso (S36) en que los parámetros de filtro 14 (a(k)) pueden ser ponderados, por ejemplo, con diferentes valores (por ejemplo, el filtrado de LP con mayor energía de respuesta al impulso se puede basar en ponderaciones unitarias y el filtrado de LP con menor energía de respuesta al impulso se puede basar en ponderaciones inferiores a 1). En los ejemplos, el filtrado de LP con menor energía de respuesta al impulso puede diferir del filtrado de LP con mayor energía de respuesta al impulso en que los coeficientes de reflexión 16 obtenidos mediante la ejecución del filtrado de LP con menor energía de respuesta al impulso pueden causar una mayor reducción de la energía de respuesta al impulso que la reducción originada por los coeficientes de reflexión obtenidos mediante la ejecución del filtrado de LP con mayor energía de respuesta al impulso.
Por ende, al ejecutar el filtrado con mayor energía de respuesta al impulso en el paso S36, se utiliza el primer filtro sobre la base de los parámetros de filtro 14 (a(k)) (que por lo tanto son parámetros del primer filtro). El ejecutar el filtrado de menor energía de respuesta al impulso en el paso S35, se utiliza el segundo filtro. El segundo filtro se puede obtener modificando los parámetros del primer filtro (por ejemplo, ponderando con una ponderación inferior a 1).
El orden de los pasos S31-S32-S34 puede ser diferente en otros ejemplos: por ejemplo, S34 puede preceder a S32. Uno de los pasos S32 y/o S34 puede ser opcional en algunos ejemplos.
En los ejemplos, por lo menos uno del primer y/o segundo umbral puede ser fijo (por ejemplo, almacenado en un elemento de memoria).
En los ejemplos, se puede obtener el filtrado con menor energía de respuesta al impulso reduciendo la respuesta al impulso del filtro ajustando los parámetros de filtro de LP (por ejemplo, coeficientes de LPC u otros parámetros de filtrado) y/o los coeficientes de reflexión, o un valor intermedio empleado para obtener los coeficientes de reflexión. Por ejemplo, se pueden aplicar coeficientes inferiores a 1 (ponderaciones) a los parámetros de filtro de LP (por ejemplo, coeficientes de LPC u otros parámetros de filtrado) y/o los coeficientes de reflexión, o un valor intermedio utilizado para obtener los coeficientes de reflexión.
En los ejemplos, el ajuste (y/o la reducción de la energía de respuesta al impulso) puede ser (o basarse en términos de):
threshl — frameMetrics
Y = 1 — (1 — Ymin)------ ;-------------- ; eMetrics < thresh.2 v rminJ thresh.2 — th - r - e -- ----- ,si fram s - ; h
1 , de lo contrario
donde thresh2 es el umbral de determinación de tipo de filtrado (y puede ser de, por ejemplo, 2), thresh es el umbral para la determinación de filtrado de TNS (y puede ser de 1,5), Ymin es una constante (por ejemplo, un valor entre 0,7 y 0,95, tal como entre 0,8 y 0,9, por ejemplo 0,85). Los valores y se pueden utilizar para el escalado de los coeficientes de LPC (u otros parámetros de filtrado) y/o los coeficientes de reflexión. frameMetrics es la métrica de trama.
En un ejemplo, la fórmula puede ser
threshl — predGain
Figure imgf000009_0001
' SÍ predGaÍn < íhr£Sh2
, de lo contrario
donde thresh2 es el umbral de determinación de tipo de filtrado (y puede ser de, por ejemplo, 2), thresh es el umbral para la determinación de filtrado de TNS (y puede ser de 1,5), Ymin es una constante (por ejemplo, un valor entre 0,7 y 0,95, tal como entre 0,8 y 0,9, por ejemplo 0,85). Los valores y se pueden utilizar para el escalado de los coeficientes de LPC (u otros parámetros de filtrado) y/o los coeficientes de reflexión. predGain puede ser, por ejemplo, la ganancia de predicción.
De la fórmula se puede inferir que una frameMetrics (o predGain) menor que thresh2 pero aproximada a esta (por ejemplo,1,999) hará que la reducción de la energía de respuesta al impulso sea tenue (por ejemplo, y=1). Por lo tanto, el filtrado de LP con menor energía de respuesta al impulso puede ser uno de una pluralidad de filtrados de LP diferentes con menor energía de respuesta al impulso, cada uno de los cuales se caracteriza por un parámetro de ajuste diferente y, por ejemplo, según el valor de la métrica de trama.
En los ejemplos de filtrado de LP con menor energía de respuesta al impulso, diferentes valores de la métrica pueden causar ajustes diferentes. Por ejemplo, una ganancia de predicción más elevada puede estar asociada a un valor mayor de y, y una reducción más baja de la energía de respuesta al impulso con respecto al primer filtro. y puede ser vista como una función lineal dependiente de predGain. Un incremento de predGain causará un incremento de y, lo que a su vez disminuye la reducción de la energía de respuesta al impulso. Si predGain se reduce, y también se reduce, y también se reduce de manera acorde la energía de respuesta al impulso.
Por lo tanto, las tramas subsiguientes de la misma señal se pueden filtrar de manera diferente:
- algunas tramas se pueden filtrar usando el primer filtro (filtrado con mayor energía de respuesta al impulso), en el cual se mantienen los parámetros de filtro (14);
- algunas otras tramas se pueden filtrar usando el segundo filtro (filtrado con menor energía de respuesta al impulso), en el cual el primer filtro se ha modificado para obtener un segundo filtro con menor energía de respuesta al impulso (donde los parámetros de filtro 14 se han modificado, por ejemplo) para reducir la energía de respuesta al impulso con respecto al primer filtro;
- algunas otras tramas se pueden filtrar asimismo usando el segundo filtro (filtrado con menor energía de respuesta al impulso), aunque con diferente ajuste (como consecuencia de los valores diferentes de la métrica de trama).
Por lo tanto, por cada trama, un determinado primer filtro puede estar definido (por ejemplo, sobre la base de los parámetros de filtro), en tanto que un segundo filtro se puede desarrollar modificando los parámetros de filtro del primer filtro.
La figura 3A muestra un ejemplo del controlador 12 y el bloque de TNS 11 cooperando para ejecutar las operaciones de filtrado de TNS.
Se puede obtener una métrica de trama (por ejemplo, ganancia de predicción) 17 y compararla con un umbral para la determinación del filtrado de TNS 18A (por ejemplo, en un comparador 10a). Si la métrica de trama 17 es mayor que el umbral para la determinación de filtrado de TNS 18a (thresh), está permitido (por ejemplo, mediante el selector 11a) comparar la métrica de trama 17 con un umbral de determinación de tipo de filtrado 18b (por ejemplo, en un comparador 12a). Si la métrica de trama 17 es mayor que el umbral de determinación de tipo de filtrado 18b, luego se activa un primer filtro 14a cuya respuesta al impulso tiene mayor energía (por ejemplo, y = 1). Si la métrica de trama 17 es más baja que el umbral de determinación de tipo de filtrado 18b, luego se activa un segundo filtro 15a cuya respuesta al impulso tiene menor energía (por ejemplo, y < 1) (el elemento 12b indica una negación del valor binario emitido por el comparador 12a). El primer filtro 14a cuya respuesta al impulso tiene mayor energía puede ejecutar el filtrado S36 con mayor energía de respuesta al impulso, y si el segundo filtro 15a cuya respuesta al impulso tiene menor energía puede ejecutar el filtrado S35 con menor energía de respuesta al impulso.
Las figuras 3B y 3C muestran métodos 36 y 35 para utilizar el primero y segundo filtros 14a y 15a, respectivamente (por ejemplo, en el caso de los pasos S36 y S35, respectivamente).
El método 36 puede comprender un paso S36a de obtención de los parámetros de filtro 14. El método 36 puede comprender un paso S36b de ejecución del filtrado (por ejemplo, S36) usando los parámetros del primer filtro 14a. El paso S35b se puede llevar a cabo solo tras la determinación (por ejemplo, en el paso S34) de que la métrica de trama es superior al umbral de determinación de tipo de filtrado (por ejemplo, en el paso S35).
El método 35 puede comprender un paso S35a de obtención de los parámetros de filtro 14 del primer filtro 14a. El método 35 puede comprender un paso S35b de definición del factor de ajuste y (por ejemplo, mediante el uso de por lo menos uno de los umbrales thresh y thresh2 y la métrica de trama). El método 35 puede comprender un paso 35c de modificación del primer filtro 14a para obtener un segundo filtro 15a con menor energía de respuesta al impulso con respecto al primer filtro 14a. En particular, el primer filtro 14a se puede modificar aplicando el factor de ajuste y (por ejemplo, obtenido en S35b) a los parámetros 14 del primer filtro 14a, para obtener los parámetros del segundo filtro. El método 35 puede comprender un paso S35d en el cual se ejecuta el filtrado con el segundo filtro (por ejemplo, at S35 del método 30). Los pasos S35a, S35b y S35c se pueden ejecutar tras la determinación (por ejemplo, en el paso S34) de que la métrica de trama es inferior al umbral de determinación de tipo de filtrado (por ejemplo, en el paso S35).
La figura 4 muestra un método 40' (lado del codificador) y un método 40” (lado del decodificador) que puede formar un único método 40. Los métodos 40' y 40” pueden tener cierto contacto por el hecho de que un decodificador que opera según el método 40' puede transmitir un flujo de bits (por ejemplo, por vía inalámbrica, por ejemplo, usando Bluetooth) a un decodificador que opera según el método 40”.
A continuación se describen los pasos del método 40 (indicados como secuencia a)-b)-c)-d)-1)-2)-3)-e-f) y por la secuencia S41'-S49').
a) Paso S41': Se puede procesar la autocorrelación del espectro de MDCT (o MDST) (valor FD), por ejemplo,
nStop — k
r(k) = ^ c(n)c(n k), k = 0,...,K
n=nstart
donde K es el orden de filtrado de LP (por ejemplo, K=8). En este caso, c(n) puede ser el valor en FD ingresado en la herramienta de TNS 11. Por ejemplo, c(n) se puede referir a un bin (valor binario) asociado a una frecuencia con el índice n.
b) Paso S42': La autocorrelación puede ser enventanada con retardo:
r(k) = r(k)w(k), k = 0,...,K
Un ejemplo de función de enventanado con retardo puede ser, por ejemplo:
w(k) = exp -(2nak)2 k = 0.....K
donde a es un parámetro de ventana (por ejemplo, a=0,011).
c) Paso S43': Se pueden estimar los coeficientes de filtro de LP empleando, por ejemplo, un procedimiento de recursión de Levinson-Durbin tal como:
e(0) = r(0)
(0) = 1
en caso de k = 1 a K hacer
Figure imgf000010_0001
ak(k) = rc(k)
ak(0) = 1
en caso de n = 1 a k - 1 hacer
ak(n) = ak-1(n) rc(k)ak-1(k — n)
e(k) = (1 — rc(k)2)e(k — 1)
donde a(k) = aK (k), k = 0, ..., K son los coeficientes de LPC estimados (u otros parámetros de filtrado), rc(k), k = 1, ..., K son los correspondientes coeficientes de reflexión y e = e(K) es el error de predicción.
d) Paso S44': La decisión (paso S44' o S32) de encender/ apagar el filtrado de TNS en la trama en curso se puede basar, por ejemplo, en una métrica de trama, tal como la ganancia de predicción:
Si predGain > thresh, luego encender filtrado de TNS donde la ganancia de predicción se computa mediante
r ( 0)
predGain = ------Y thresh es un umbral (por ejemplo, thresh = 1,5).
1) Paso S45': Se puede obtener el factor de ponderación y (por ejemplo, en el paso S45') mediante
thresh2 — predGain
Y = 1 -(1 - Ym in ) thresh2 —thresh , si predGain < th.resh2
1 , de lo contrario
donde thresh2 es un segundo umbral (por ejemplo, thresh2 = 2) y Ymin es el factor de ponderación mínimo (por ejemplo, Ymin = 0,85). El thresh2 puede ser, por ejemplo, el umbral de determinación de tipo de filtrado.
Cuando y = 1, se utiliza el primer filtro 14a. Cuando 0 < y < 1, se utiliza el segundo filtro 15a (por ejemplo, en el paso S35b).
2) Paso S46': Se pueden ponderar los coeficientes de LPC (u otros parámetros de filtrado) (por ejemplo, en el paso S46') usando el factor y.
aw(k) = yka(k),k = 0, ...,K
Yk es una exponenciación (por ejemplo, y2 = Y * Y).
3) Paso S47': Se pueden convertir los coeficientes de LPC ponderados (u otros parámetros de filtrado) a coeficientes de reflexión usando, por ejemplo, el siguiente procedimiento (paso S47'):
aK(k) = aw(k),k = 0, ...,K
en caso de k = K a 1 hacer
rc(k) = ak(k)
e = (1 — rc(k)2)
en caso de n = 1 a k - 1 hacer
ak(n) — rc(k)ak(k — n)
ak 1(n) = ---------------------------------e
e) Paso S48': Si TNS está encendido (como resultado de la determinación realizada en S32, por ejemplo), se pueden cuantizar los coeficientes de reflexión (paso S48') utilizando, por ejemplo, la cuantización uniforme en escala en el dominio del coseno:
arcsen(rc(k))
rc¡(k) = round
Á
rcq (k) = sen(Árct (k))
Donde Á es el ancho de la celda (por ejemplo, Á = n ) y round(.) es la función de redondeo al número entero más próximo. rci(k) son los índices de salida del cuantizador que luego son codificados utilizando, por ejemplo, codificación aritmética. rcq(k) son los coeficientes de reflexión cuantizados.
f) Paso S49': Si TNS está encendido, se filtra el espectro de MDCT (o MDST) (paso S49') usando los coeficientes de reflexión cuantizados y una estructura de filtro en celosía (“ lattice”)
Figure imgf000011_0001
en caso de n = nstart a nstop hacer
(n) = s°(n) = c(n)
en caso de k = 1 a K hacer
tk (ri) = tk -1 (ri) rcq (k)sk -1 (ri — 1)
sk (ri) = rcq (k)tk -1 (ri) sk -1 (n — 1)
Cf (n) = tK (n)
Se puede transmitir un flujo de bits al decodificador. El flujo de bits también puede comprender, junto con una representación en FD de la señal de información (por ejemplo, una señal de audio), datos de control, tales como los coeficientes de reflexión obtenidos mediante la ejecución de las operaciones de TNS anteriormente descritas (análisis de TNS).
El método 40” (lado del decodificador) puede comprender los pasos g) (S41”) y h) (S42”) en los cuales, en caso de estar encendido el TNS, se decodifican los coeficientes de reflexión cuantizados y se filtra de manera inversa el espectro de MDCT (o MDST). Se puede emplear el siguiente procedimiento:
S (ristart — 1) = ^ (ristart — 1) = ^ = S (ristart — 1) = 0
en caso de n = nstart a «stop hacer
tK(n) = c(n)
en caso de k = 1 a K hacer
tk-1(n) = tk(n) — rcq(k)sk-1(n — 1)
sk(n) = rcq(k)tk-1(n) sk-1(n — 1)
Cf(ri) = s°(n) = t°(n)
En la figura 5 se muestra un ejemplo de aparato codificador 50 (que puede incorporar el aparato codificador 10 y/o ejecutar por lo menos algunas de las operaciones de los métodos 30 y 40').
El aparato codificador 50 puede comprender una pluralidad de herramientas para codificar una señal de entrada (que puede ser, por ejemplo, una señal de audio). Por ejemplo, una herramienta de MDCT 51 puede transformar una representación en t D de una señal de información a una representación en FD. Una herramienta de modelado de ruido espectral, SNS 52 puede ejecutar el análisis de modelado de ruido (por ejemplo, análisis de modelado de ruido espectral, SNS), por ejemplo, y recuperar los coeficientes de LPC u otros parámetros de filtrado (por ejemplo, a(k), 14). La herramienta de TNS 11 puede ser como las anteriores y puede ser controlada por el controlador 12. La herramienta de TNS 11 puede ejecutar una operación de filtrado (por ejemplo, según el método 30 o 40') y producir como salida tanto una versión filtrada de la señal de información como una versión de los coeficientes de reflexión. Una herramienta cuantizadora 53 puede ejecutar la cuantización de los datos emitidos por la herramienta de TNS 11. Un codificador aritmético 54 puede proporcionar, por ejemplo, codificación entrópica. También se puede emplear una herramienta de nivel de ruido 55' para estimar el nivel de ruido de la señal. Un dispos itivo para escribir flujos de bits 55 puede generar un flujo de bits asociado a la señal de entrada que se puede transmitir (por ejemplo, en forma inalámbrica, por ejemplo, usando Bluetooth) y/o almacenar.
También se puede emplear un detector de ancho de banda 58' (que puede detectar el ancho de banda de la señal de entrada). Puede proporcionar la información sobre el espectro activo de la señal. Esta información se puede utilizar también, en algunos ejemplos, para controlar las herramientas de codificación.
El aparato codificador 50 puede comprender además una herramienta de posfiltrado a largo plazo 57 a la que se puede proveer una representación en TD de la señal de entrada, por ejemplo, después de eso la representación en TD es submuestreada por una herramienta de submuestreo 56.
En la figura 6 se muestra un ejemplo de aparato decodificador 60 (que puede incorporar el aparato decodificador 20 y/o ejecutar por lo menos algunas de las operaciones del método 40”).
El aparato decodificador 60 puede comprender un lector 61 que puede leer un flujo de bits (por ejemplo, el preparado por el aparato 50). El aparato decodificador 60 puede comprender un decodificador residual aritmético 61a que puede ejecutar, por ejemplo, la decodificación entrópica, decodificación residual y/o decodificación aritmética con una representación digital en el FD (espectro restaurado), por ejemplo, la emitida por el decodificador. El aparato decodificador 60 puede comprender una herramienta de llenado de ruido 62 y una herramienta de ganancia global 63, por ejemplo. El aparato decodificador 60 puede comprender un decodificador de TNS 21 y un controlador del decodificador de TNS 22. El aparato 60 puede comprender una herramienta decodificadora de SNS 65, por ejemplo. El aparato decodificador 60 puede comprender una herramienta de MDCT (o MDST) inversa 65' para transformar una representación digital de la señal de información del FD al TD. La herramienta de LTPF 66 puede realizar un posfiltrado de largo plazo en el TD. Se puede obtener información de ancho de banda 68 del detector de ancho de banda 58', por ejemplo, como se aplica a alguna de las herramientas (por ejemplo, 62 y 21).
Se presentan aquí ejemplos de las operaciones del aparato anterior.
El modelado de ruido temporal (TNS) puede ser utilizado por la herramienta 11 para controlar el modelado temporal del ruido de cuantización dentro de cada ventana de la transformada.
En los ejemplos, si el TNS está activo en la trama en curso, se pueden aplicar hasta dos filtros por espectro de MDCT (o espectro de MDST u otro espectro u otra representación en el FD). Es posible aplicar una pluralidad de filtros y/o ejecutar el filtrado de TNS en un rango de frecuencia específico. En algunos ejemplos, esto es solo opcional.
El número de filtros por cada configuración y la frecuencia de inicio y terminación de cada filtro están dados en la siguiente tabla:
Figure imgf000013_0001
La información tal como las frecuencias de inicio y terminación puede ser señalizada, por ejemplo, desde el detector de ancho de banda 58'.
Donde NB es banda estrecha, WB es banda ancha, SSWB es banda semi-superancha, SWB es banda superancha y FB es banda ancha total.
A continuación se describen los pasos de codificación TNS. En primer lugar, un análisis puede calcular una serie de coeficientes de reflexión correspondientes a cada filtro de TNS. Seguidamente, se pueden cuantizar estos coeficientes de reflexión. Por último, se puede filtrar el espectro de MDCT (o espectro de MDST o cualquier otro espectro u otra representación en FD) utilizando los coeficientes de reflexión cuantizados.
El análisis de TNS completo descrito a continuación se repite por cada filtro de TNS f , con f =0..num_tns_filters-1 (num_tns_filters se proporciona en la tabla anterior).
Se puede calcular una función de autocorrelación normalizada (por ejemplo, en el paso S41') de la siguiente manera, por cada k = 0..8
2
Jo(fc) si ^ ^ (s ) = 0
r(fe) = - s=0
2 yísub_stop(f,s)-1-k
J^n=sub_start(/,s)Xs(n)Xs(n fe)
de lo contrario
is=0 e(s)
donde
si k = 0
Figure imgf000014_0001
de lo contrario
y
sub_stop(f,s)-1
e(s) ^ Xs(n)2 en caso de s = 0..2
n=sub_start(f,s)
donde sub_start(/,s) y sub_stop(/,s) se proporcionan en la tabla anterior.
La función de autocorrelación normalizada puede ser enventanada con retardo (por ejemplo, en S42') usando, por ejemplo:
r(k) = r(k)ex p -(0.02 nk)2 en caso de k = 0..8
Se puede emplear la recursión de Levinson-Durbin descrita anteriormente (por ejemplo, en el paso S43') para obtener coeficientes de LPC u otros parámetros de filtrado a(k),k = 0..8 y/o un error de predicción e.
La decisión de encender/apagar el filtro de TNS f en la trama en curso se basa en la ganancia de predicción:
Si predGain > thresh, luego se enciende el filtro de TNS f.
Donde, por ejemplo, thresh = 1,5 y la ganancia de predicción se obtiene, por ejemplo, de la siguiente manera:
r(0)
predGain =
e
Los pasos adicionales descritos a continuación se llevan a cabo solo si el filtro de TNS f está encendido (por ejemplo, si el paso S32 tiene un resultado “SÍ”).
Se computa un factor de ponderación y mediante
thresh2 — predGain
Y = 1 - (1 -Ymin) thresh2 — thresh Si PredGain < thresil2
1 , de lo contrario
Donde thresh2 = 2, Ymn = 0,85 y
tns_lpc_weighting = 1 si nbits < 480
de lo contrario
Se pueden ponderar los coeficientes de LPC u otros parámetros de filtrado (por ejemplo, en el paso S46') usando el factor y
aw(k) = Yka(k) en caso de k = 0..8
Los coeficientes de LPC ponderados u otros parámetros de filtrado se pueden convertir (por ejemplo, en el paso S47') a coeficientes de reflexión usando, por ejemplo, el siguiente algoritmo:
aK(k) = aw(k),k = 0, ...,K
en caso de k = K a 1 hacer
rc(k) = ak(k)
e = (1 — rc(k)2)
en caso de n = 1 a k - 1 hacer
, . ak(n) — rc(k)ak(k — n)
ak 1(n) = --------------------------------
donde rc(k, f ) = rc(k) son los coeficientes de reflexión finales estimados respecto del filtro de TNS f.
Si el filtro de TNS f está apagado (por ejemplo, un resultado “NO” en la verificación del paso S32), luego los coeficientes de reflexión se pueden ajustar simplemente a 0: rc(k, f) = 0, k = 0..8.
Se describe ahora el proceso de cuantización, por ejemplo, el ejecutado en el paso S48'.
Por cada filtro de TNS f , se pueden cuantizar los coeficientes de reflexión obtenidos, por ejemplo, usando cuantización uniforme en escala en el dominio del arcoseno
arcsen(rc(fe,/))
rcl(k ,f) = nint 8 en caso de k = 0..8
A
rcq (k,f) = sen[A(rCj(fc,/) — 8)] en caso de k = 0..8
donde A = n y nint(.) es la función de redondeo al número entero más próximo, por ejemplo rc(k,f) pueden ser los índices de salida del cuantizador y rcq(k,f) pueden ser los coeficientes de reflexión cuantizados.
El orden de los coeficientes de reflexión cuantizados se puede calcular empleando
k = 7
en tanto que k > 0 y rcq(k,f) = 0 hacer
fe = fe — 1
CCo rd er (f') = fe 1
El número total de bits consumidos por el TNS en la trama en curso se puede computar entonces de la siguiente manera
num_tns_filters-1
2048 nbitsTNSorier(f ) nbitsTNSrc(f )
nbitsTNS =
I 2048
f=0
donde
n nho ía ts cTNSorierV rr\ ) - - íac_tns_order_bits[tns_lpc_we¡ghting][rcorder( /) - 1] ,si ’¡"cor¿gr ( f ) > 0 , de lo contrario
y
Figure imgf000015_0001
Los valores de tab_nbits_TNS_order y tab_nbits_TNS_coef pueden estar proporcionados en las tablas.
Se puede filtrar el espectro de MDCT (o MDST) Xs(n) (entrada 15 en la figura 1) usando el siguiente procedimiento:
s0(start_freq(0) — 1) = s1(start_freq(0) — 1) = — = s7(start_freq(0) — 1) = 0 en caso de f = 0 a num_tns_filters-1 hacer en caso de n = start_freq(f) a stop_freq(f)-1 hacer
t0(n) = s0(n) = Xs(n)
en caso de k = 0 a 7 hacer
tk+1(n) = tk(n) rcq(fe)sk(n — 1)
sk+1(ri) = rcq(k)tk(ri) sk(n — 1)
Xf(ri) = t8(n)
donde Xj(n) es el espectro de MDCT (o MDST) con filtrado de TNS (salida 15 en la figura 1).
Con referencia a las operaciones ejecutadas en el decodificador (por ejemplo, 20, 60), se pueden obtener los coeficientes de reflexión cuantizados por cada filtro de TNS f mediante
rcq(k,f) = sen[A(rct(k, f ) — 8)] k = 0..8
Donde rcq(k,f) son los índices de salida del cuantizador.
A continuación se puede filtrar el espectro de MDCT (o MDST) X}(ri) enviado al decodificador de TNS 21 (por ejemplo, el obtenido de la herramienta de ganancia global 63) utilizando el siguiente algoritmo
s°(start_freq(0) — 1) = s1(start_freq(0) — 1) = — = s7(start_freq(0) — 1) = 0
en caso de f = 0 a num_tns_filters-1 hacer en caso de n = start_freq(f) a stop_freq(f) - 1 hacer
tK(n) = ÍCf(n)
en caso de k = 7 a 0 hacer
tk(ri) = tk+1(ri) — rcq(k)sk(n — 1)
sk+1(ri) = rcq(k)tk(ri) sk(n — 1)
(n) = (n) = t°(ri)
donde (ri) es la salida del decodificador de TNS.
6. Comentarios sobre la invención
Como se explicó anteriormente, en ocasiones el TNS puede introducir alteraciones, degradando la calidad del codificador de audio. Estas alteraciones son de tipo clic o de ruido y aparecen en la mayoría de los casos con señales de voz o señales de música tonal.
Se ha observado que las alteraciones generadas por el TNS solo aparecen en tramas en las que la ganancia de predicción predGain es baja y cercana a un umbral thresh.
Se podría pensar que el aumento del umbral solucionaría fácilmente el problema. Sin embargo, en la mayoría de las tramas, es en realidad ventajoso encender el TNS cuando la ganancia de predicción es baja.
Nuestra solución propuesta es mantener el mismo umbral pero ajustar el filtro de TNS cuando la ganancia de predicción es baja, a fin de reducir la energía de respuesta al impulso.
Hay muchas maneras de implementar este ajuste (al que, en algunos casos, se puede hacer referencia como “atenuación”, por ejemplo, cuando la reducción de la energía de respuesta al impulso se obtiene reduciendo los parámetros de filtro de LP, por ejemplo). Podemos optar por el uso de ponderación, que puede ser, por ejemplo, una ponderación:
aw(k) = yka(k),k = 0, ...,K
donde a(k) son los parámetros de filtro de LP (por ejemplo, coeficientes de LPC) computados en el Paso del codificador c) y aw(k) son los parámetros de filtro de LP ponderados. El factor de ajuste (ponderación) y depende de la ganancia de predicción de tal manera que se aplique una mayor reducción de la energía de respuesta al impulso ( y < 1) a menores ganancias de predicción y de tal manera que no haya, por ejemplo, reducción de la energía de respuesta al impulso (y = 1) a mayores ganancias de predicción.
La solución propuesta ha demostrado ser muy eficaz para eliminar todas las alteraciones en tramas problemáticas al mismo tiempo que afecta ínfimamente las demás tramas.
Se puede hacer referencia, ahora, a las figuras 8(1) a 8(3). Las figuras muestran una trama de una señal de audio (línea continua) y la respuesta en frecuencia (línea discontinua) del correspondiente filtro de predicción de TNS.
La figura 8(1): señal de castañuelas
La figura 8(2): señal de diapasón
La figura 8(3): señal de voz
La ganancia de predicción está relacionada con la forma plana de la envolvente temporal de la señal (véase, por ejemplo, la Sección 3 de la ref [2] o la Sección 1.2 de la ref [3]).
Una ganancia de predicción baja implica una envolvente temporal de tendencia plana, en tanto que una ganancia de predicción elevada implica una envolvente temporal sumamente no plana.
La figura 8(1) muestra el caso de una ganancia de predicción muy baja (predGain=1,0). Corresponde al caso de una señal de audio muy estacionaria, con una envolvente temporal plana. En este caso, predGain = 1 < thresh (por ejemplo, thresh=1,5): no se realiza el filtrado (S33).
La figura 8(2) muestra el caso de una ganancia de predicción muy elevada (12,3). Corresponde al caso de un ataque fuerte y agudo, con una envolvente temporal sumamente no plana. En este caso predGain = 12,3 > thresh2 (threh2=2): se ejecuta el filtrado de mayor energía de respuesta al impulso en S36.
La figura 8(3) muestra el caso de una ganancia de predicción entre thresh y thresh2, por ejemplo, en un rango de 1,5­ 2.0 (más elevada que el primer umbral, más baja que el segundo umbral). Corresponde al caso de una envolvente temporal ligeramente no plana. En este caso, thresh < predGain < thresh2: se ejecuta el filtrado con menor energía de respuesta al impulso en S35, usando el segundo filtro 15a con menor energía de respuesta al impulso.
7. Otros ejemplos
La figura 7 muestra un aparato 110 que puede implementar el aparato codificador 10 o 50 y/o ejecutar por lo menos algunos pasos del método 30 y/o 40'. El aparato 110 puede comprender un procesador 111 y una unidad de memoria no transitoria 112 que almacena instrucciones que, al ser ejecutadas por el procesador 111, puede hacer que el procesador 111 realice un filtrado y/o análisis de TNS. El aparato 110 puede comprender una unidad de entrada 116, que puede obtener una señal de información de entrada (por ejemplo, una señal de audio). Por lo tanto, el procesador 111 puede ejecutar procesos de TNS.
La figura 8 muestra un aparato 120 que puede implementar el aparato decodificador 20 o 60 y/o ejecutar el método 40'. El aparato 120 puede comprender un procesador 121 y una unidad de memoria no transitoria 122 que almacena instrucciones que, al ser ejecutadas por el procesador 121, pueden hacer que el procesador 121 ejecute, entre otras cosas, una operación de síntesis de TNS. El aparato 120 puede comprender una unidad de entrada 126, que puede obtener una representación decodificada de una señal de información (por ejemplo, una señal de audio) en el FD. El procesador 121 puede ejecutar, por lo tanto, procesos para obtener una representación decodificada de la señal de información, por ejemplo, en el TD. Esta representación decodificada puede ser enviada a unidades externas utilizando una unidad de salida 127. La unidad de salida 127 puede comprender, por ejemplo, una unidad de comunicaciones para comunicarla con dispositivos externos (por ejemplo, usando comunicación inalámbrica tal como Bluetooth) y/o espacios de almacenamiento externos. El procesador 121 puede guardar la representación decodificada de la señal de audio en un espacio de almacenamiento local 128.
En los ejemplos, los sistemas 110 y 120 pueden consistir en el mismo dispositivo.
Dependiendo de ciertos requisitos de implementación, los ejemplos pueden ser implementados en hardware. La implementación se puede realizar empleando un medio de almacenamiento digital, por ejemplo, un disco blando, un disco versátil digital (DVD), un disco Blu-ray, un disco compacto (CD), una memoria de solo lectura (ROM), una memoria programable de solo lectura (PROM), una memoria de solo lectura borrable y programable (EPROM), una memoria de solo lectura borrable y programable electrónicamente (EEPROM) o una memoria FLASH, que tiene almacenadas en la misma señales control legibles electrónicamente, que cooperan (o tienen capacidad para cooperar) con un sistema informático programable de tal manera que se ejecute el método respectivo. Por lo tanto, el medio de almacenamiento digital puede ser legible por ordenador.
En general, los ejemplos pueden ser implementados en forma de producto programa informático con instrucciones de programa, funcionando las instrucciones de programa para ejecutar uno de los métodos al ejecutar el programa informático en un ordenador. Las instrucciones de programa pueden ser almacenadas, por ejemplo, en un medio legible por una máquina.
Otros ejemplos comprenden el programa informático para llevar a cabo uno de los métodos descritos en el presente documento, almacenado en un portador legible por una máquina. En otras palabras, un ejemplo del método consiste, por lo tanto, en un programa informático que tiene instrucciones de programa para ejecutar uno de los métodos descritos en el presente documento cuando se ejecuta el programa informático en un ordenador.
Un ejemplo adicional de los métodos es, por lo tanto, un medio portador de datos (o medio de almacenamiento digital o medio legible por ordenador) que comprende, grabado en el mismo, el programa informático para ejecutar uno de los métodos descritos en el presente documento. El medio portador de datos, el medio de almacenamiento digital o el medio grabado son, por lo general, tangibles y/o no transitorios en lugar de señales que son intangibles y transitorias.
Un ejemplo adicional comprende una unidad de procesamiento, por ejemplo, un ordenador, o un dispositivo lógico programable para ejecutar uno de los métodos descritos en el presente documento.
Un ejemplo adicional comprende un ordenador en el que se ha instalado el programa informático para ejecutar uno de los métodos descritos en el presente documento.
Un ejemplo adicional comprende un aparato o un sistema para transferir (por ejemplo, por vía electrónica u óptica) un programa informático para llevar a cabo uno de los métodos descritos en el presente documento a un receptor. El receptor puede ser, por ejemplo, un ordenador, un dispositivo móvil, un dispositivo de memoria o similar. El aparato o sistema puede comprender, por ejemplo, un servidor de archivos para transferir el programa informático al receptor.
En algunos ejemplos, se puede utilizar un dispositivo lógico programable (por ejemplo, una matriz de puertas programables en el campo) para ejecutar algunas o todas las funcionalidades de los métodos descritos en el presente documento. En algunos ejemplos, una matriz de puertas programables en el campo puede cooperar con un microprocesador para ejecutar uno de los métodos descritos en el presente documento. Por lo general, los métodos se pueden ejecutar por cualquier aparato de hardware apropiado.
Los ejemplos anteriormente descritos son ilustrativos de los principios anteriormente descritos. Se entiende que las modificaciones y variaciones de las disposiciones y los detalles descritos en el presente documento han de resultar obvios. Por lo tanto, solo se pretende que queden limitados por el alcance de las siguientes reivindicaciones de patente y no por los detalles específicos presentados a modo de descripción y explicación de los ejemplos en el presente documento.

Claims (20)

  1. REIVINDICACIONES
    i. Aparato codificador (10, 50, 110) que comprende:
    una herramienta de modelado de ruido temporal, TNS, (11) para ejecutar el filtrado de predicción lineal, LP, (S33, S35, S36) en una señal de audio (13) que incluye una pluralidad de tramas; y
    un controlador (12) configurado para controlar la herramienta de TNS (11) de manera que la herramienta de TNS (11) ejecute el filtrado de l P con:
    un primer filtro (14a) cuya respuesta al impulso tiene una energía más elevada (S36); y
    un segundo filtro (15a) cuya respuesta al impulso tiene una energía más baja (S35) que la respuesta al impulso del primer filtro (14a), en el que el segundo filtro (15a) no es un filtro de identidad,
    en el que el controlador (12) está configurado para elegir (S34) entre filtrar (S36) con el primer filtro (14a) y filtrar (S35) con el segundo filtro (15a) sobre la base de una métrica de trama (17),
    caracterizado porque el controlador (12) está configurado además para:
    modificar el primer filtro (14a) a fin de obtener el segundo filtro (15a) en donde la energía de respuesta al impulso del filtro se ha reducido.
  2. 2. Aparato codificador según la reivindicación 1, en el que el controlador (12) está configurado además para:
    aplicar (S45') por lo menos un factor de ajuste al primer filtro (14a) para obtener el segundo filtro (15a).
  3. 3. Aparato codificador según cualquiera de las reivindicaciones precedentes, configurado para modificar el primer filtro (14a) para obtener el segundo filtro (15a) mediante la modificación de la amplitud de los parámetros (14) del primer filtro (14a) usando por lo menos un factor de ajuste.
  4. 4. Aparato codificador según la reivindicación 2 o 3, en el que el controlador (12) está configurado además para:
    definir (S45') el por lo menos un factor de ajuste sobre la base de un umbral de determinación de tipo de filtrado (18b) usado para seleccionar (S32) entre el filtrado (S36) con el primer filtro (14a) y filtrado (S35) con el segundo filtro (15a).
  5. 5. Aparato codificador según la reivindicación 2 o 3 o 4, en el que el controlador (12) está configurado además para:
    definir (S45') el por lo menos un factor de ajuste sobre la base de por lo menos la métrica de trama (17).
  6. 6. Aparato codificador según cualquiera de las reivindicaciones 2 a 5, en el que el controlador (12) está configurado además para:
    definir (S45') el por lo menos un factor de ajuste sobre la base de un umbral para la determinación del filtrado de TNS (18b) que se utiliza para seleccionar (S32) entre ejecutar el filtrado de TNS (S34, S35) y no ejecutar el filtrado de TNS (S33).
  7. 7. Aparato codificador según cualquiera de las reivindicaciones 2 a 6, en el que el controlador (12) está configurado además para:
    definir (S45') el por lo menos un factor de ajuste empleando una función lineal de la métrica de trama (17), donde la función lineal es tal que un aumento de la métrica de trama corresponde a un aumento del factor de ajuste y/o de la energía de respuesta al impulso del filtro.
  8. 8. Aparato codificador según cualquiera de las reivindicaciones 2 a 7, configurado para definir el factor de ajuste según
    thresh2 — frameMetrics
    si frameMetrics < thresh2
    Y = 1 -(1 - Ymin) thresh2 — thresh
    1 de lo contrario
    donde thresh es el umbral para la determinación de filtrado de TNS (18a), thresh2 es el umbral de determinación de tipo de filtrado (18b), frameMetrics es una métrica de trama (17) y Ymin es un valor fijo.
  9. 9. Aparato codificador según cualquiera de las reivindicaciones 2 a 8, configurado para modificar los parámetros (14) del primer filtro (14a) para obtener los parámetros del segundo filtro (15a) mediante la aplicación de:
    aw(k) = Yka(k),k = 0, ...,K
    donde a(k) son parámetros (14) del primer filtro (14a), y es el factor de ajuste de manera que 0 < y < 1, aw(k)son los parámetros del segundo filtro (15a) y K es el orden del primer filtro (14a).
  10. 10. Aparato codificador según cualquiera de las reivindicaciones precedentes, en el que el controlador (12) está configurado además para:
    obtener la métrica de trama (17) de por lo menos una de una ganancia de predicción, una energía de la señal de audio y/o un error de predicción.
  11. 11. Aparato codificador según cualquiera de las reivindicaciones precedentes, en el que la métrica de trama comprende una ganancia de predicción calculada de la siguiente manera
    energy
    predGain
    predError
    donde energy es un término asociado a una energía de la señal de audio y predError es un término asociado a un error de predicción.
  12. 12. Aparato codificador según cualquiera de las reivindicaciones precedentes, en el que el controlador está configurado para que:
    por lo menos en el caso de una reducción de una ganancia de predicción y/o una reducción de una energía de la señal de audio, la energía de respuesta al impulso del segundo filtro se reduzca, y/o por lo menos en el caso de un aumento del error de predicción, se reduzca la energía de respuesta al impulso del segundo filtro.
  13. 13. Aparato codificador según cualquiera de las reivindicaciones precedentes, en el que el controlador (12) está configurado además para:
    comparar (S34) la métrica de trama (17) con un umbral de determinación de tipo de filtrado (18b), a fin de ejecutar un filtrado (S36) con el primer filtro (15a) cuando la métrica de trama (17) es más baja que el umbral de determinación de tipo de filtrado (18b).
  14. 14. Aparato codificador según cualquiera de las reivindicaciones precedentes, en el que el controlador (12) está configurado además para:
    elegir (S32, S44') entre ejecutar un filtrado (S35, S36) y no ejecutar el filtrado (S33) sobre la base de la métrica de trama (17).
  15. 15. Aparato codificador según la reivindicación 14, en el que el controlador (12) está configurado además para:
    comparar (S32, S44') la métrica de trama (17) con un umbral para la determinación del filtrado de TNS (18a), a fin de elegir evitar el filtrado de TNS (S33) cuando la métrica de trama (17) es más baja que el umbral para la determinación de filtrado de TNS (18a).
  16. 16. Aparato codificador según cualquiera de las reivindicaciones precedentes, que además comprende:
    un dispositivo para escribir flujos de bits para preparar un flujo de bits con coeficientes de reflexión (16), o una versión cuantizada del mismo, obtenido por la herramienta de TNS (11).
  17. 17. Aparato codificador según cualquiera de las reivindicaciones precedentes, eligiéndose los parámetros de filtrado (14) del primer filtro (14a) entre coeficientes de codificación LP, LPC, y/o cualquier otra representación de los coeficientes de filtro.
  18. 18. Aparato codificador según cualquiera de las reivindicaciones precedentes, en el que el controlador (12) está configurado además para modificar el primer filtro (14a) a fin de obtener el segundo filtro (15a) en donde la energía de respuesta al impulso del filtro se ha reducido.
  19. 19. Aparato codificador según cualquiera de las reivindicaciones precedentes, en el que la métrica de trama (17) está asociada a la forma plana de la envolvente temporal de la señal.
  20. 20. Sistema que comprende un lado del codificador (10, 50, 110) y un lado del decodificador (20, 60, 120), en el que el lado del codificador comprende un aparato codificador según cualquiera de las reivindicaciones precedentes.
    Método (30, 40') para ejecutar el filtrado por modelado de ruido temporal, TNS, en una señal de audio que incluye una pluralidad de tramas, comprendiendo el método:
    - para cada trama, elegir (S34), sobre la base de una métrica de trama, entre el filtrado con un primer filtro (14a), cuya respuesta al impulso tiene una energía más alta, y el filtrado con un segundo filtro (15a), cuya respuesta al impulso tiene una energía más baja que la respuesta al impulso del primer filtro (14a), en el que el segundo filtro (15a) no es un filtro de identidad;
    - filtrar la trama usando el filtrado con el elegido entre el primer filtro (14a) y el segundo filtro (15a);
    - caracterizado por modificar el primer filtro (14a) a fin de obtener el segundo filtro (15a) en el cual se reduce la energía de respuesta al impulso del filtro.
    Método que comprende:
    - en un lado del codificador, codificar una señal de audio, en el que el codificador comprende además filtrar la señal de audio según el método de la reivindicación 21;
    - en un lado del decodificador, decodificar la señal de audio.
    Dispositivo de almacenamiento no transitorio que almacena instrucciones que, cuando se ejecutan por un procesador (111, 121), hacen que el procesador ejecute por lo menos el método de la reivindicación 21 o 22.
ES18796675T 2017-11-10 2018-11-06 Codificación de audio con modelado de ruido temporal Active ES2905911T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP17201094.4A EP3483880A1 (en) 2017-11-10 2017-11-10 Temporal noise shaping
PCT/EP2018/080339 WO2019091978A1 (en) 2017-11-10 2018-11-06 Temporal noise shaping

Publications (1)

Publication Number Publication Date
ES2905911T3 true ES2905911T3 (es) 2022-04-12

Family

ID=60301908

Family Applications (1)

Application Number Title Priority Date Filing Date
ES18796675T Active ES2905911T3 (es) 2017-11-10 2018-11-06 Codificación de audio con modelado de ruido temporal

Country Status (18)

Country Link
US (1) US11127408B2 (es)
EP (2) EP3483880A1 (es)
JP (1) JP6990306B2 (es)
KR (1) KR102428419B1 (es)
CN (1) CN111587456B (es)
AR (1) AR113480A1 (es)
AU (1) AU2018363699B2 (es)
BR (1) BR112020009104A2 (es)
CA (1) CA3081781C (es)
ES (1) ES2905911T3 (es)
MX (1) MX2020004789A (es)
PL (1) PL3707712T3 (es)
PT (1) PT3707712T (es)
RU (1) RU2740074C1 (es)
SG (1) SG11202004204UA (es)
TW (1) TWI701658B (es)
WO (1) WO2019091978A1 (es)
ZA (1) ZA202002520B (es)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6642146B2 (ja) 2015-03-31 2020-02-05 日立金属株式会社 窒化珪素系セラミックス集合基板及びその製造方法
CN113643713B (zh) * 2021-10-13 2021-12-24 北京百瑞互联技术有限公司 一种蓝牙音频编码方法、装置及存储介质

Family Cites Families (151)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3639753A1 (de) 1986-11-21 1988-06-01 Inst Rundfunktechnik Gmbh Verfahren zum uebertragen digitalisierter tonsignale
US5012517A (en) 1989-04-18 1991-04-30 Pacific Communication Science, Inc. Adaptive transform coder having long term predictor
US5233660A (en) 1991-09-10 1993-08-03 At&T Bell Laboratories Method and apparatus for low-delay celp speech coding and decoding
JPH05281996A (ja) 1992-03-31 1993-10-29 Sony Corp ピッチ抽出装置
IT1270438B (it) 1993-06-10 1997-05-05 Sip Procedimento e dispositivo per la determinazione del periodo del tono fondamentale e la classificazione del segnale vocale in codificatori numerici della voce
US5581653A (en) 1993-08-31 1996-12-03 Dolby Laboratories Licensing Corporation Low bit-rate high-resolution spectral envelope coding for audio encoder and decoder
JP3402748B2 (ja) 1994-05-23 2003-05-06 三洋電機株式会社 音声信号のピッチ周期抽出装置
DE69619284T3 (de) 1995-03-13 2006-04-27 Matsushita Electric Industrial Co., Ltd., Kadoma Vorrichtung zur Erweiterung der Sprachbandbreite
US5781888A (en) * 1996-01-16 1998-07-14 Lucent Technologies Inc. Perceptual noise shaping in the time domain via LPC prediction in the frequency domain
WO1997027578A1 (en) 1996-01-26 1997-07-31 Motorola Inc. Very low bit rate time domain speech analyzer for voice messaging
US5812971A (en) 1996-03-22 1998-09-22 Lucent Technologies Inc. Enhanced joint stereo coding method using temporal envelope shaping
JPH1091194A (ja) 1996-09-18 1998-04-10 Sony Corp 音声復号化方法及び装置
US6570991B1 (en) 1996-12-18 2003-05-27 Interval Research Corporation Multi-feature speech/music discrimination system
KR100261253B1 (ko) 1997-04-02 2000-07-01 윤종용 비트율 조절이 가능한 오디오 부호화/복호화 방법및 장치
GB2326572A (en) 1997-06-19 1998-12-23 Softsound Limited Low bit rate audio coder and decoder
WO1999016050A1 (en) 1997-09-23 1999-04-01 Voxware, Inc. Scalable and embedded codec for speech and audio signals
US6507814B1 (en) 1998-08-24 2003-01-14 Conexant Systems, Inc. Pitch determination using speech classification and prior pitch estimation
US7272556B1 (en) 1998-09-23 2007-09-18 Lucent Technologies Inc. Scalable and embedded codec for speech and audio signals
US6735561B1 (en) * 2000-03-29 2004-05-11 At&T Corp. Effective deployment of temporal noise shaping (TNS) filters
US7099830B1 (en) * 2000-03-29 2006-08-29 At&T Corp. Effective deployment of temporal noise shaping (TNS) filters
US7395209B1 (en) 2000-05-12 2008-07-01 Cirrus Logic, Inc. Fixed point audio decoding system and method
US7020605B2 (en) * 2000-09-15 2006-03-28 Mindspeed Technologies, Inc. Speech coding system with time-domain noise attenuation
US7512535B2 (en) 2001-10-03 2009-03-31 Broadcom Corporation Adaptive postfiltering methods and systems for decoding speech
US6785645B2 (en) 2001-11-29 2004-08-31 Microsoft Corporation Real-time speech and music classifier
US20030187663A1 (en) * 2002-03-28 2003-10-02 Truman Michael Mead Broadband frequency translation for high frequency regeneration
US7447631B2 (en) 2002-06-17 2008-11-04 Dolby Laboratories Licensing Corporation Audio coding system using spectral hole filling
US7433824B2 (en) 2002-09-04 2008-10-07 Microsoft Corporation Entropy coding by adapting coding between level and run-length/level modes
US7502743B2 (en) 2002-09-04 2009-03-10 Microsoft Corporation Multi-channel audio encoding and decoding with multi-channel transform selection
JP4287637B2 (ja) 2002-10-17 2009-07-01 パナソニック株式会社 音声符号化装置、音声符号化方法及びプログラム
KR101049751B1 (ko) 2003-02-11 2011-07-19 코닌클리케 필립스 일렉트로닉스 엔.브이. 오디오 코딩
KR20030031936A (ko) 2003-02-13 2003-04-23 배명진 피치변경법을 이용한 단일 음성 다중 목소리 합성기
CA2529851A1 (en) 2003-06-17 2004-12-23 Matsushita Electric Industrial Co., Ltd. Receiving apparatus, sending apparatus and transmission system
KR101058062B1 (ko) * 2003-06-30 2011-08-19 코닌클리케 필립스 일렉트로닉스 엔.브이. 잡음 부가에 의한 디코딩된 오디오의 품질 개선
US7983909B2 (en) 2003-09-15 2011-07-19 Intel Corporation Method and apparatus for encoding audio data
US7009533B1 (en) 2004-02-13 2006-03-07 Samplify Systems Llc Adaptive compression and decompression of bandlimited signals
DE102004009954B4 (de) * 2004-03-01 2005-12-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Verarbeiten eines Multikanalsignals
DE602005022641D1 (de) 2004-03-01 2010-09-09 Dolby Lab Licensing Corp Mehrkanal-Audiodekodierung
DE102004009949B4 (de) 2004-03-01 2006-03-09 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Ermitteln eines Schätzwertes
ATE523876T1 (de) 2004-03-05 2011-09-15 Panasonic Corp Fehlerverbergungseinrichtung und fehlerverbergungsverfahren
EP1869673B1 (en) 2005-04-01 2010-09-22 Qualcomm Incorporated Methods and apparatuses for encoding and decoding a highband portion of a speech signal
US7539612B2 (en) 2005-07-15 2009-05-26 Microsoft Corporation Coding and decoding scale factor information
US7546240B2 (en) 2005-07-15 2009-06-09 Microsoft Corporation Coding with improved time resolution for selected segments via adaptive block transformation of a group of samples from a subband decomposition
KR100888474B1 (ko) 2005-11-21 2009-03-12 삼성전자주식회사 멀티채널 오디오 신호의 부호화/복호화 장치 및 방법
US7805297B2 (en) 2005-11-23 2010-09-28 Broadcom Corporation Classification-based frame loss concealment for audio signals
WO2007070007A1 (en) 2005-12-14 2007-06-21 Matsushita Electric Industrial Co., Ltd. A method and system for extracting audio features from an encoded bitstream for audio classification
US8255207B2 (en) 2005-12-28 2012-08-28 Voiceage Corporation Method and device for efficient frame erasure concealment in speech codecs
CN101395661B (zh) 2006-03-07 2013-02-06 艾利森电话股份有限公司 音频编码和解码的方法和设备
US8150065B2 (en) 2006-05-25 2012-04-03 Audience, Inc. System and method for processing an audio signal
CN101460998A (zh) 2006-05-30 2009-06-17 皇家飞利浦电子股份有限公司 音频信号的线性预测编码
US8015000B2 (en) 2006-08-03 2011-09-06 Broadcom Corporation Classification-based frame loss concealment for audio signals
CN101501761B (zh) * 2006-08-15 2012-02-08 杜比实验室特许公司 无需边信息对时域噪声包络的任意整形
FR2905510B1 (fr) 2006-09-01 2009-04-10 Voxler Soc Par Actions Simplif Procede d'analyse en temps reel de la voix pour le controle en temps reel d'un organe numerique et dispositif associe
CN101140759B (zh) 2006-09-08 2010-05-12 华为技术有限公司 语音或音频信号的带宽扩展方法及系统
DE102006049154B4 (de) 2006-10-18 2009-07-09 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Kodierung eines Informationssignals
KR101292771B1 (ko) 2006-11-24 2013-08-16 삼성전자주식회사 오디오 신호의 오류은폐방법 및 장치
CN101548319B (zh) 2006-12-13 2012-06-20 松下电器产业株式会社 后置滤波器以及滤波方法
FR2912249A1 (fr) 2007-02-02 2008-08-08 France Telecom Codage/decodage perfectionnes de signaux audionumeriques.
JP4871894B2 (ja) 2007-03-02 2012-02-08 パナソニック株式会社 符号化装置、復号装置、符号化方法および復号方法
JP5618826B2 (ja) 2007-06-14 2014-11-05 ヴォイスエイジ・コーポレーション Itu.t勧告g.711と相互運用可能なpcmコーデックにおいてフレーム消失を補償する装置および方法
EP2015293A1 (en) 2007-06-14 2009-01-14 Deutsche Thomson OHG Method and apparatus for encoding and decoding an audio signal using adaptively switched temporal resolution in the spectral domain
JP4928366B2 (ja) 2007-06-25 2012-05-09 日本電信電話株式会社 ピッチ探索装置、パケット消失補償装置、それらの方法、プログラム及びその記録媒体
JP4572218B2 (ja) 2007-06-27 2010-11-04 日本電信電話株式会社 音楽区間検出方法、音楽区間検出装置、音楽区間検出プログラム及び記録媒体
JP4981174B2 (ja) 2007-08-24 2012-07-18 フランス・テレコム 確率テーブルの動的な計算によるシンボルプレーン符号化/復号化
US20110035212A1 (en) 2007-08-27 2011-02-10 Telefonaktiebolaget L M Ericsson (Publ) Transform coding of speech and audio signals
CN100524462C (zh) 2007-09-15 2009-08-05 华为技术有限公司 对高带信号进行帧错误隐藏的方法及装置
EP2207166B1 (en) 2007-11-02 2013-06-19 Huawei Technologies Co., Ltd. An audio decoding method and device
WO2009066869A1 (en) * 2007-11-21 2009-05-28 Electronics And Telecommunications Research Institute Frequency band determining method for quantization noise shaping and transient noise shaping method using the same
CA2711047C (en) 2007-12-31 2015-08-04 Lg Electronics Inc. A method and an apparatus for processing an audio signal
WO2009122757A1 (ja) * 2008-04-04 2009-10-08 パナソニック株式会社 ステレオ信号変換装置、ステレオ信号逆変換装置およびこれらの方法
WO2009150290A1 (en) 2008-06-13 2009-12-17 Nokia Corporation Method and apparatus for error concealment of encoded audio data
EP2346029B1 (en) 2008-07-11 2013-06-05 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoder, method for encoding an audio signal and corresponding computer program
EP2144231A1 (en) 2008-07-11 2010-01-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Low bitrate audio encoding/decoding scheme with common preprocessing
EP2144230A1 (en) 2008-07-11 2010-01-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Low bitrate audio encoding/decoding scheme having cascaded switches
AU2009267394B2 (en) 2008-07-11 2012-10-18 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Audio encoder and decoder for encoding frames of sampled audio signals
WO2010031049A1 (en) 2008-09-15 2010-03-18 GH Innovation, Inc. Improving celp post-processing for music signals
JP5555707B2 (ja) 2008-10-08 2014-07-23 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン マルチ分解能切替型のオーディオ符号化及び復号化スキーム
GB2466673B (en) 2009-01-06 2012-11-07 Skype Quantization
RU2542668C2 (ru) 2009-01-28 2015-02-20 Фраунхофер-Гезелльшафт цур Фёрдерунг дер ангевандтен Форшунг Е.Ф. Звуковое кодирующее устройство, звуковой декодер, кодированная звуковая информация, способы кодирования и декодирования звукового сигнала и компьютерная программа
JP4945586B2 (ja) 2009-02-02 2012-06-06 株式会社東芝 信号帯域拡張装置
JP4932917B2 (ja) * 2009-04-03 2012-05-16 株式会社エヌ・ティ・ティ・ドコモ 音声復号装置、音声復号方法、及び音声復号プログラム
FR2944664A1 (fr) 2009-04-21 2010-10-22 Thomson Licensing Dispositif et procede de traitement d'images
US8352252B2 (en) 2009-06-04 2013-01-08 Qualcomm Incorporated Systems and methods for preventing the loss of information within a speech frame
US8428938B2 (en) 2009-06-04 2013-04-23 Qualcomm Incorporated Systems and methods for reconstructing an erased speech frame
KR20100136890A (ko) 2009-06-19 2010-12-29 삼성전자주식회사 컨텍스트 기반의 산술 부호화 장치 및 방법과 산술 복호화 장치 및 방법
CN101958119B (zh) 2009-07-16 2012-02-29 中兴通讯股份有限公司 一种改进的离散余弦变换域音频丢帧补偿器和补偿方法
AU2010305383B2 (en) * 2009-10-08 2013-10-03 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Multi-mode audio signal decoder, multi-mode audio signal encoder, methods and computer program using a linear-prediction-coding based noise shaping
ES2888804T3 (es) * 2009-10-15 2022-01-07 Voiceage Corp Conformación simultánea de ruido en el dominio del tiempo y el dominio de la frecuencia para transformaciones TDAC
ES2533098T3 (es) 2009-10-20 2015-04-07 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Codificador de señal de audio, decodificador de señal de audio, método para proveer una representación codificada de un contenido de audio, método para proveer una representación decodificada de un contenido de audio y programa de computación para su uso en aplicaciones de bajo retardo
MX2012004572A (es) 2009-10-20 2012-06-08 Fraunhofer Ges Forschung Codificador de audio, decodificador de audio, metodo para codificar informacion de audio, metodo para decodificar informacion de audio y programa de computacion que usa una regla dependiente de la region para un mapeado mediante codificacion aritmetica.
US7978101B2 (en) 2009-10-28 2011-07-12 Motorola Mobility, Inc. Encoder and decoder using arithmetic stage to compress code space that is not fully utilized
US8207875B2 (en) 2009-10-28 2012-06-26 Motorola Mobility, Inc. Encoder that optimizes bit allocation for information sub-parts
KR101761629B1 (ko) 2009-11-24 2017-07-26 엘지전자 주식회사 오디오 신호 처리 방법 및 장치
CA2786944C (en) 2010-01-12 2016-03-15 Fraunhofer Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Audio encoder, audio decoder, method for encoding and audio information, method for decoding an audio information and computer program using a hash table describing both significant state values and interval boundaries
US20110196673A1 (en) 2010-02-11 2011-08-11 Qualcomm Incorporated Concealing lost packets in a sub-band coding decoder
EP2375409A1 (en) 2010-04-09 2011-10-12 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoder, audio decoder and related methods for processing multi-channel audio signals using complex prediction
FR2961980A1 (fr) * 2010-06-24 2011-12-30 France Telecom Controle d'une boucle de retroaction de mise en forme de bruit dans un codeur de signal audionumerique
KR102492622B1 (ko) 2010-07-02 2023-01-30 돌비 인터네셔널 에이비 선택적인 베이스 포스트 필터
CA2806000C (en) 2010-07-20 2016-07-05 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Audio encoder, audio decoder, method for encoding an audio information, method for decoding an audio information and computer program using an optimized hash table
US8738385B2 (en) 2010-10-20 2014-05-27 Broadcom Corporation Pitch-based pre-filtering and post-filtering for compression of audio signals
KR101617816B1 (ko) 2011-02-14 2016-05-03 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. 스펙트럼 도메인 잡음 형상화를 사용하는 선형 예측 기반 코딩 방식
US9270807B2 (en) 2011-02-23 2016-02-23 Digimarc Corporation Audio localization using audio signal encoding and recognition
AU2012230440C1 (en) 2011-03-18 2016-09-08 Dolby International Ab Frame element positioning in frames of a bitstream representing audio content
MY166916A (en) 2011-04-21 2018-07-24 Samsung Electronics Co Ltd Apparatus for quantizing linear predictive coding coefficients, sound encoding apparatus, apparatus for dequantizing linear predictive coding coefficients, sound decoding apparatus, and electronic device therefore
US8891775B2 (en) * 2011-05-09 2014-11-18 Dolby International Ab Method and encoder for processing a digital stereo audio signal
FR2977439A1 (fr) 2011-06-28 2013-01-04 France Telecom Fenetres de ponderation en codage/decodage par transformee avec recouvrement, optimisees en retard.
FR2977969A1 (fr) 2011-07-12 2013-01-18 France Telecom Adaptation de fenetres de ponderation d'analyse ou de synthese pour un codage ou decodage par transformee
US9672840B2 (en) * 2011-10-27 2017-06-06 Lg Electronics Inc. Method for encoding voice signal, method for decoding voice signal, and apparatus using same
CA2831176C (en) 2012-01-20 2014-12-09 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus and method for audio encoding and decoding employing sinusoidal substitution
KR101621287B1 (ko) 2012-04-05 2016-05-16 후아웨이 테크놀러지 컴퍼니 리미티드 다채널 오디오 신호 및 다채널 오디오 인코더를 위한 인코딩 파라미터를 결정하는 방법
US20130282372A1 (en) 2012-04-23 2013-10-24 Qualcomm Incorporated Systems and methods for audio signal processing
JP6088644B2 (ja) 2012-06-08 2017-03-01 サムスン エレクトロニクス カンパニー リミテッド フレームエラー隠匿方法及びその装置、並びにオーディオ復号化方法及びその装置
GB201210373D0 (en) 2012-06-12 2012-07-25 Meridian Audio Ltd Doubly compatible lossless audio sandwidth extension
FR2992766A1 (fr) * 2012-06-29 2014-01-03 France Telecom Attenuation efficace de pre-echos dans un signal audionumerique
CN102779526B (zh) 2012-08-07 2014-04-16 无锡成电科大科技发展有限公司 语音信号中基音提取及修正方法
US9406307B2 (en) 2012-08-19 2016-08-02 The Regents Of The University Of California Method and apparatus for polyphonic audio signal prediction in coding and networking systems
US9293146B2 (en) 2012-09-04 2016-03-22 Apple Inc. Intensity stereo coding in advanced audio coding
WO2014046526A1 (ko) 2012-09-24 2014-03-27 삼성전자 주식회사 프레임 에러 은닉방법 및 장치와 오디오 복호화방법 및 장치
US9401153B2 (en) 2012-10-15 2016-07-26 Digimarc Corporation Multi-mode audio recognition and auxiliary data encoding and decoding
MX343572B (es) * 2013-01-29 2016-11-09 Fraunhofer Ges Forschung Concepto de llenado con ruido.
FR3001593A1 (fr) 2013-01-31 2014-08-01 France Telecom Correction perfectionnee de perte de trame au decodage d'un signal.
SG10202106262SA (en) 2013-02-05 2021-07-29 Ericsson Telefon Ab L M Method and apparatus for controlling audio frame loss concealment
TWI530941B (zh) 2013-04-03 2016-04-21 杜比實驗室特許公司 用於基於物件音頻之互動成像的方法與系統
AU2014283389B2 (en) 2013-06-21 2017-10-05 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus and method for improved concealment of the adaptive codebook in ACELP-like concealment employing improved pulse resynchronization
EP2830063A1 (en) 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus, method and computer program for decoding an encoded audio signal
EP2830055A1 (en) 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Context-based entropy coding of sample values of a spectral envelope
KR101831289B1 (ko) 2013-10-18 2018-02-22 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에.베. 오디오 신호의 스펙트럼의 스펙트럼 계수들의 코딩
US9906858B2 (en) 2013-10-22 2018-02-27 Bongiovi Acoustics Llc System and method for digital signal processing
EP3336839B1 (en) 2013-10-31 2019-07-31 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio decoder and method for providing a decoded audio information using an error concealment modifying a time domain excitation signal
CA2927990C (en) 2013-10-31 2018-08-14 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Audio bandwidth extension by insertion of temporal pre-shaped noise in frequency domain
WO2015071173A1 (en) 2013-11-13 2015-05-21 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Encoder for encoding an audio signal, audio transmission system and method for determining correction values
GB2524333A (en) 2014-03-21 2015-09-23 Nokia Technologies Oy Audio signal payload
US9396733B2 (en) 2014-05-06 2016-07-19 University Of Macau Reversible audio data hiding
NO2780522T3 (es) 2014-05-15 2018-06-09
EP2963645A1 (en) 2014-07-01 2016-01-06 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Calculator and method for determining phase correction data for an audio signal
US9685166B2 (en) 2014-07-26 2017-06-20 Huawei Technologies Co., Ltd. Classification between time-domain coding and frequency domain coding
EP2980796A1 (en) 2014-07-28 2016-02-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Method and apparatus for processing an audio signal, audio decoder, and audio encoder
EP2980799A1 (en) 2014-07-28 2016-02-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for processing an audio signal using a harmonic post-filter
EP2980798A1 (en) 2014-07-28 2016-02-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Harmonicity-dependent controlling of a harmonic filter tool
EP2988300A1 (en) 2014-08-18 2016-02-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Switching of sampling rates at audio processing devices
CN104269173B (zh) * 2014-09-30 2018-03-13 武汉大学深圳研究院 切换模式的音频带宽扩展装置与方法
EP3067886A1 (en) 2015-03-09 2016-09-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoder for encoding a multichannel signal and audio decoder for decoding an encoded audio signal
US9886963B2 (en) 2015-04-05 2018-02-06 Qualcomm Incorporated Encoder selection
JP6422813B2 (ja) 2015-04-13 2018-11-14 日本電信電話株式会社 符号化装置、復号装置、これらの方法及びプログラム
US9978400B2 (en) 2015-06-11 2018-05-22 Zte Corporation Method and apparatus for frame loss concealment in transform domain
US10847170B2 (en) 2015-06-18 2020-11-24 Qualcomm Incorporated Device and method for generating a high-band signal from non-linearly processed sub-ranges
US9837089B2 (en) 2015-06-18 2017-12-05 Qualcomm Incorporated High-band signal generation
KR20170000933A (ko) 2015-06-25 2017-01-04 한국전기연구원 시간 지연 추정을 이용한 풍력 터빈의 피치 제어 시스템
US9830921B2 (en) 2015-08-17 2017-11-28 Qualcomm Incorporated High-band target signal control
US9978381B2 (en) 2016-02-12 2018-05-22 Qualcomm Incorporated Encoding of multiple audio signals
US10283143B2 (en) 2016-04-08 2019-05-07 Friday Harbor Llc Estimating pitch of harmonic signals
CN107945809B (zh) 2017-05-02 2021-11-09 大连民族大学 一种复调音乐多音高估计方法

Also Published As

Publication number Publication date
EP3707712B1 (en) 2021-12-01
US11127408B2 (en) 2021-09-21
KR20200090793A (ko) 2020-07-29
CN111587456A (zh) 2020-08-25
ZA202002520B (en) 2021-10-27
AU2018363699A1 (en) 2020-05-21
AU2018363699B2 (en) 2020-11-19
PT3707712T (pt) 2022-02-15
EP3483880A1 (en) 2019-05-15
CN111587456B (zh) 2023-08-04
PL3707712T3 (pl) 2022-03-28
KR102428419B1 (ko) 2022-08-02
JP2021502597A (ja) 2021-01-28
TW201923754A (zh) 2019-06-16
SG11202004204UA (en) 2020-06-29
MX2020004789A (es) 2020-08-13
AR113480A1 (es) 2020-05-06
BR112020009104A2 (pt) 2020-10-20
WO2019091978A1 (en) 2019-05-16
RU2740074C1 (ru) 2021-01-11
TWI701658B (zh) 2020-08-11
CA3081781A1 (en) 2019-05-16
US20200265850A1 (en) 2020-08-20
CA3081781C (en) 2022-10-04
JP6990306B2 (ja) 2022-01-12
EP3707712A1 (en) 2020-09-16

Similar Documents

Publication Publication Date Title
ES2961553T3 (es) Dispositivo y método para reducir el ruido de cuantificación en un decodificador de dominio del tiempo
AU2016203627B2 (en) Method of quantizing linear predictive coding coefficients, sound encoding method, method of dequantizing linear predictive coding coefficients, sound decoding method, and recording medium
US10194151B2 (en) Signal encoding method and apparatus and signal decoding method and apparatus
US11616954B2 (en) Signal encoding method and apparatus and signal decoding method and apparatus
ES2693229T3 (es) Codificación de señales de audio genérico a bajas tasas de bits y bajo retardo
US11705142B2 (en) Signal encoding method and device and signal decoding method and device
BR122021000241B1 (pt) Aparelho de quantização de coeficientes de codificação preditiva linear
ES2905911T3 (es) Codificación de audio con modelado de ruido temporal
US10902860B2 (en) Signal encoding method and apparatus, and signal decoding method and apparatus
US20160225379A1 (en) Signal encoding method and device and signal decoding method and device
US8838443B2 (en) Encoder apparatus, decoder apparatus and methods of these