ES2769061T3 - Codificador y método para codificar una señal de audio con ruido de fondo reducido que utiliza codificación predictiva lineal - Google Patents

Codificador y método para codificar una señal de audio con ruido de fondo reducido que utiliza codificación predictiva lineal Download PDF

Info

Publication number
ES2769061T3
ES2769061T3 ES16770500T ES16770500T ES2769061T3 ES 2769061 T3 ES2769061 T3 ES 2769061T3 ES 16770500 T ES16770500 T ES 16770500T ES 16770500 T ES16770500 T ES 16770500T ES 2769061 T3 ES2769061 T3 ES 2769061T3
Authority
ES
Spain
Prior art keywords
audio signal
background noise
signal
representation
filter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES16770500T
Other languages
English (en)
Inventor
Johannes Fischer
Tom Bäckström
Emma Jokinen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Original Assignee
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV filed Critical Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Application granted granted Critical
Publication of ES2769061T3 publication Critical patent/ES2769061T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/012Comfort noise or silence coding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/06Determination or coding of the spectral characteristics, e.g. of the short-term prediction coefficients
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/005Correction of errors induced by the transmission channel, if related to the coding algorithm
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/12Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/26Pre-filtering or post-filtering
    • G10L19/265Pre-filtering, e.g. high frequency emphasis prior to encoding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L21/0224Processing in the time domain
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L21/0232Processing in the frequency domain
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0272Voice signal separating
    • G10L21/0308Voice signal separating characterised by the type of parameter measurement, e.g. correlation techniques, zero crossing techniques or predictive techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0316Speech enhancement, e.g. noise reduction or echo cancellation by changing the amplitude
    • G10L21/0364Speech enhancement, e.g. noise reduction or echo cancellation by changing the amplitude for improving intelligibility
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/12Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being prediction coefficients
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/12Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
    • G10L19/125Pitch excitation, e.g. pitch synchronous innovation CELP [PSI-CELP]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

Codificador (4) para codificar una señal de audio (8') con ruido de fondo reducido utilizando codificación predictiva lineal, comprendiendo el codificador (4): un estimador de ruido de fondo (10) configurado para estimar una autocorrelación del ruido de fondo como una representación del ruido de fondo (12) de la señal de audio (8'); un reductor de ruido de fondo (14) configurado para generar una representación de una señal de audio de ruido de fondo reducido (16) restando la autocorrelación del ruido de fondo (12) de la señal de audio (8') desde una autocorrelación 10 de la señal de audio (8) para que la representación de la señal de audio de ruido de fondo reducido (16) sea una autocorrelación de una señal de audio de ruido de fondo de fondo; un predictor (18) configurado para someter la representación de la señal de audio (8) al análisis de predicción lineal para obtener un primer juego de coeficientes de filtro de predicción lineal, LPC, (20a) y someter la representación de la señal de audio de ruido de fondo reducido (12) al análisis de predicción lineal para obtener un segundo juego de coeficientes filtros de predicción lineal, LPC, (20b); y un filtro de análisis (22) compuesto por una cascada de filtros de dominio de tiempo (24, 24a, 24b) que es un filtro Wiener y controlado por el primer juego obtenido de coeficientes LPC (20a) y el segundo juego obtenido de coeficientes LPC (20b) para obtener una señal residual (26) de la señal de audio (8'); y un transmisor (30) configurado para transmitir el segundo juego de coeficientes LPC (20b) y la señal residual (26).

Description

DESCRIPCIÓN
Codificador y método para codificar una señal de audio con ruido de fondo reducido que utiliza codificación predictiva lineal
La presente invención se refiere a un codificador para codificar una señal de audio con ruido de fondo reducido que utiliza codificación predictiva lineal, un método correspondiente y un sistema que comprende codificador y un decodificador. En otras palabras, la presente invención se refiere a un enfoque conjunto de codificación y/o mejora de voz, tal como, por ejemplo, codificación y mejora conjuntas de voz por incorporación en un codificadordecodificador (códec) CELP (codificación lineal predictiva excitada por código).
Ya que se han extendido dispositivos de voz y comunicación y es probable que se usen en condiciones adversas, ha incremento la demanda de métodos de mejora de voz que puedan hacer frente a entornos adversos. En consecuencia, por ejemplo, en teléfonos móviles ahora es común utilizar métodos de atenuación de ruido como un paso/bloque de procesamiento previo para todo el procesamiento posterior de voz tal como codificación de voz. Existen diferentes enfoques que incorporan mejora de voz en codificadores de voz [1, 2, 3, 4]. En tanto que estos diseños mejoran la calidad de voz transmitida, el procesamiento en cascada no permite una reducción al mínimo/optimización perceptual, conjuntas de calidad, o ha sido al menos difícil una reducción al mínimo conjunta de ruido de cuantificación e interferencia.
El objetivo de los códecs de voz es permitir transmisión de voz de alta calidad con una cantidad mínima de datos transmitidos. Para alcanzar ese objetivo se necesitan representaciones eficientes de la señal, tal como modelado de la envolvente espectral de la señal de voz por predicción lineal, la frecuencia fundamental por un predictor de largo plazo y el resto con un libro de códigos de ruido. Esta representación es la base de códecs de voz que utilizan el paradigma de codificación lineal predictiva excita por código (CELP), que se utiliza en la mayoría de las normas de codificación de voz tal como multitasa adaptativa (AMR), AMR de banda ancha (AMR-WB), codificación unificada de voz y audio (USAC) y servicio de voz mejorado (EVS) [5, 6, 7, 8, 9, 10, 11].
Para comunicación de voz natural, los hablantes a menudo utilizan dispositivos en modos de manos libres. En estos escenarios el micrófono por lo general está lejos de la boca, por lo cual la señal de voz puede distorsionarse fácilmente por interferencias tal como reverberación o ruido de fondo.
La degradación no solo afecta la calidad de voz percibida, sino también la inteligibilidad de la señal de voz y por lo tanto puede impedir de forma severa la naturalidad de la conversación. Para mejorar la experiencia de comunicación, entonces es benéfico aplicar métodos de mejora de voz para atenuar ruidos y reducir los efectos de reverberación. El campo de mejora de voz es maduro y están fácilmente disponibles muchos métodos [12]. Sin embargo, la mayoría de algoritmos existentes se basan en métodos de superposición y suma, tal como transformadas como la transformada corta de Fourier en el tiempo (STFT), que aplica esquemas de partición en ventanas basados en superposición y suma, mientras que, en contraste, los códecs CELP modelan la señal con un filtro predictivo lineal/predictor lineal y aplican partición en ventanas solo en el residuo. Estas diferencias fundamentales hacen difícil unir métodos de mejora y codificación. Aún es claro que la optimización conjunta de mejora y codificación puede mejorar potencialmente la calidad, reducir el retardo y complejidad computacional. Por lo tanto, existe una necesidad de un enfoque mejorado.
El documento EP1 944 761 A1 divulga un método para transmitir una señal digital y(n), y(n) que comprende una señal útil s(n) y una señal de perturbación p(n). El método comprende los pasos de: - recibir los Coeficientes de Predicción Lineal (LPC) A y la señal y e (n), y e (n) siendo una señal de LPC codificado de y(n). -estimar la matriz de autocorrelación s de la señal útil s(n), de la matriz de autocorrelación p de la señal de perturbación p(n) y LPC A p de la señal de perturbación p(n); - calcular un LPC A s modificado usando A y un sp, Ap estimado; - generar un flujo de datos modificado y e'(n) que incluya el LPC A s modificado,
El documento “Codebook driven short-term predictor parameter estimation for speech enhancement” (Sriram Srinivasan, Jones Samuelsson, y W. Bastiaan Kleijn) divulga una nueva técnica para la estimación de parámetro predictivos lineales a corto plazo de discurso y ruido desde datos ruidosos y su posterior uso en esquemas de mejora de forma de onda.
El documento US 6.263.307 B1 divulga un filtro de supresión acústica que incluye filtrado de atenuación con una estimación libre de ruido basada en un libro de código de frecuencias espectrales.
Es un objeto de la presente invención proporcionar un concepto mejorado para procesar una señal de audio utilizando codificación predictiva lineal. Este objeto se resuelve por la materia de las reivindicaciones independientes. Las realizaciones de la presente invención muestran un codificador para codificar una señal de audio con ruido de fondo reducido utilizando codificación predictiva lineal. El codificador comprende un estimador de ruido de fondo configurado para estimar ruido de fondo de la señal de audio, un reductor de ruido de fondo configurado para generar señal de audio de ruido de fondo reducido al restar el ruido de fondo estimado de la señal de audio de la señal de audio, y un predictor configurado para someter la señal de audio a análisis de predicción lineal para obtener un primer conjunto de coeficientes de filtro de predicción lineal (LPC) y para someter a la señal de audio de ruido de fondo reducido a análisis de predicción lineal para obtener un segundo conjunto de coeficientes de filtro de predicción lineal (LPC). Además, el codificador comprende un filtro de análisis compuesto de una cascada de filtros en el dominio del tiempo controlados por el primer conjunto obtenido de coeficientes CELP y el segundo conjunto obtenido de coeficientes LPC.
La presente invención se basa en el hallazgo que un filtro de análisis mejorado en un entorno de codificación predictiva, lineal incrementa las propiedades de procesamiento de señal de codificador. De forma más específica, utilizando una cascada o una serie de filtros en el dominio del tiempo conectados en serie mejora la velocidad de procesamiento o el tiempo de procesamiento de la señal de audio de entrada si los filtros se aplican a un filtro de análisis del entorno de codificación predictiva, lineal. Esto es ventajoso ya que se omiten la conversión de tiempofrecuencia convencionalmente utilizada y la conversión de frecuencia-tiempo inversa de la señal de audio en el dominio del tiempo, entrante para reducir ruido de fondo al filtrar bandas de frecuencia que están dominadas por ruido. En otras palabras, al llevar a cabo la reducción o cancelación de ruido de fondo como una parte del filtro de análisis, se puede llevar a cabo reducción de ruido de fondo en el dominio del tiempo. Por lo tanto, el procedimiento de superposición y suma de, por ejemplo, se omite una MDCT/IDMCT (transformada discreta de coseno, modificada [inversa]), que se puede utilizar para conversión de tiempo/frecuencia/tiempo. Este método de superposición y suma limita la característica de procesamiento en tiempo real del codificador, ya que la reducción de ruido de fondo no se puede llevar a cabo en un solo cuadro, sino solo en cuadros consecutivos.
En otras palabras, el codificador descrito es capaz de llevar a cabo la reducción de ruido de fondo y por lo tanto el procesamiento completo del filtro de análisis en un solo cuadro de audio, y por lo tanto permite procesamiento en tiempo real de una señal de audio. El procesamiento en tiempo real puede referirse a un procesamiento de la señal de audio sin un retardo perceptible para usuarios participantes. Un retardo perceptible puede presentarse, por ejemplo, en una teleconferencia si un usuario tiene que esperar una respuesta del otro usuario debido a un retardo de procesamiento de la señal de audio. Este retardo máximo, permitido puede ser menos de 1 segundo, de manera preferente por debajo de 0,75 segundos, o incluso de manera más preferente por debajo de 0,25 segundos. Se tiene que señalar que estos tiempos de procesamiento se refiere al procesamiento completo de la señal de audio del emisor al receptor y por lo tanto incluyen, además del procesamiento de señal del codificador también el tiempo de transmisión de la señal de audio y el procesamiento de señal en el decodificador correspondiente.
De acuerdo con realizaciones, la cascada de filtros en el dominio del tiempo, y por lo tanto el filtro de análisis, comprenden dos veces un filtro de predicción lineal que utiliza el primer conjunto obtenido de coeficientes LPC y una vez un inverso de un filtro de predicción lineal adicional que utiliza el segundo conjunto obtenido de coeficientes LPC. Este procesamiento de señal puede ser llamado como filtración Wiener. Por lo tanto, en otras palabras, la cascada de filtros en el dominio del tiempo puede comprender un filtro Wiener.
De acuerdo con realizaciones adicionales, el estimador de ruido de fondo puede estimar una autocorrelación de ruido de fondo como una representación de ruido de fondo de la señal de audio. Además, el reductor de ruido de fondo puede generar la representación de audio de ruido de fondo reducido al restar la autocorrelación del ruido de fondo de una autocorrelación estimada de la señal de audio, en donde la correlación de audio estimada de la señal de audio es la representación de la señal de audio y en donde la representación de la señal de audio de ruido de fondo reducido es una autocorrelación de la señal de audio de ruido de fondo reducido. Utilizando la estimación de funciones de autocorrelación en lugar de utilizar la señal de audio en el dominio del tiempo para calcular los coeficientes LPC y llevar a cabo la reducción de ruido de fondo permite un procesamiento de señal completamente en el dominio del tiempo. Por lo tanto, la autocorrelación de la señal de audio y la autocorrelación del ruido de fondo se pueden calcular por convolución o al utilizar una integral de convolución de un cuadro de audio o una subparte del cuadro de audio. Por lo tanto, la autocorrelación del ruido de fondo se puede llevar a cabo en un cuadro o incluso solo en un subcuadro, que se puede definir como el cuadro o la parte del cuadro donde no está presente ninguna (casi) señal de audio de primer plano tal como voz. Además, la autocorrelación de la señal de audio de ruido de fondo reducido se puede calcular al restar la autocorrelación de ruido de fondo y la autocorrelación de la señal de audio (que comprende ruido de fondo). Utilizando la autocorrelación de la señal de audio de ruido de fondo reducido y la señal de audio (convencionalmente que tiene ruido de fondo) se permite calcular los coeficientes LPC para la señal de audio de ruido de fondo reducido y la señal de audio, respectivamente. Los coeficientes LPC de ruido de fondo reducido pueden ser llamados como el segundo conjunto de coeficientes LPC, donde los coeficientes LPC de la señal de audio pueden ser llamados como el primer conjunto de coeficientes LPC. Por lo tanto, la señal de audio se puede procesar completamente en el dominio del tiempo, ya que la aplicación de la cascada de filtros en el dominio del tiempo también lleva a cabo su filtración en la señal de audio en el dominio del tiempo.
Antes de que se describan realizaciones en detalle utilizando las figuras anexas, se va a señalar que se les da a los mismos o elementos funcionalmente iguales los mismos números de referencia en las figuras y que se omite una descripción repetida para elementos provistos con los mismos números de referencia. Por lo tanto, las descripciones provistas para elementos que tienen los mismos números de referencia son mutuamente intercambiables.
Las realizaciones de la presente invención se analizarán posteriormente con referencia a las figuras anexas, en donde:
La figura 1 muestra un diagrama de bloques esquemático de un sistema que comprende el codificador para codificar una señal se audio y un decodificador;
La figura 2 muestra un diagrama de bloques esquemático de a) un esquema de codificación de mejora en cascada, b) un esquema de codificación de voz CELP, y c) el esquema conjunto de codificación y mejora;
La figura 3 muestra un diagrama de bloques esquemático de la realización de la figura 2 con una notación diferente;
La figura 4 muestra una gráfica de líneas esquemáticas de la SNR de magnitud perceptual (relación de señal a ruido), como se define en la ecuación 23 para el enfoque conjunto propuesto (J) y el método en cascada (C), en donde la señal de entrada se degradó por ruido de carro no estacionario, y los resultados se presentan para dos velocidades de bits diferentes (7,2 kbit/s indicada por subíndice 7 y 13,2 kbit/s indicada por subíndice 13);
La figura 5 muestra una gráfica de líneas esquemáticas de la SNR de magnitud perceptual, como se define en la ecuación 23 para el enfoque conjunto propuesto (J) y el método en cascada (C), en donde la señal de entrada se degradó por un ruido blanco estacionario, y los resultados se presentan para dos velocidades de bits diferentes (7,2 kbit/s indicada por subíndice 7 y 13,2 kbit/s indicada por subíndice 13);
La figura 6 muestra un gráfico esquemático que muestra una ilustración de las puntuaciones MUSHRA para los diferentes angloparlantes (femenino (F) y masculino (M)), para dos interferencias diferentes (ruido blanco (W) y ruido de carro (C)), para dos SNR de entrada diferentes (10 dB (1) y 20 dB (2)), en donde todos los elementos se codificaron a dos velocidades de bits (7,2 kbit/s (7) y 13,2 kbit/s (13)), para el enfoque conjunto propuesto (JE) y el mejora en cascada (CE), en donde REF fue la referencia oculta, LP el anclaje de paso bajo de 3,5 kHz, y Mix la mezcla distorsionada;
La figura 7 muestra un gráfico de diferentes puntuaciones MUSHRA, simuladas a través de dos velocidades de bits diferentes, comparando el nuevo mejora conjunto (JE) con un enfoque en cascada (CE); y La figura 8 muestra un diagrama de flujo esquemático de un método para codificar una señal de audio con ruido de fondo reducido utilizando codificación predictiva lineal.
En lo siguiente, se describirán realizaciones de la invención en detalle adicional. Los elementos mostrados en las figuras respectivas que tienen la misma o una funcionalidad similar tienen asociados con los mismos, los mismos signos de referencia.
A continuación, se describirá un método para codificación y mejora conjuntos, con base en filtración Wiener [12] y codificación CELP. Las ventajas de esta función son que 1) la inclusión de filtración Wiener en la cadena de procesamiento no incrementa el retardo algorítmico del códec CELP, y que 2) la optimización conjunta reduce al mínimo simultáneamente distorsión debido a cuantificación y ruido de fondo. Además, la complejidad computacional del esquema conjunto es menor que aquella del enfoque en cascada. La implementación se basa en trabajo reciente a cerca de partición en ventanas residuales en códecs tipo CELP [13, 14, 15], que permite incorporar la filtración Wiener en los filtros del códec CELP de una nueva forma. Con este enfoque se puede demostrar que se mejora tanto la calidad objetiva como subjetiva en comparación con un sistema en cascada.
El método propuesto para codificación y mejora conjuntos de voz, evita de esta forma acumulación de errores debido a procesamiento en cascada y mejora además la calidad de salida perceptual. En otras palabras, el método propuesto evita acumulación de errores debido a procesamiento en cascada, ya que se lleva a cabo una reducción al mínimo conjunta de interferencia y cuantificación por una filtración Wiener óptima en un dominio perceptual.
La figura 1 muestra un diagrama de bloques esquemático de un sistema 2 que comprende un codificador 4 y un decodificador 6. El codificador 4 se configura para codificar una señal de audio 8' con ruido de fondo reducido utilizando codificación predictiva lineal. Por lo tanto, el codificador 4 puede comprender un estimador de ruido de fondo 10 configurado para estimar una representación de ruido de fondo 12 de la señal de audio 8'. El codificador puede comprender además un reductor de ruido de fondo 14 configurado para generar una representación de una señal de audio de ruido de fondo reducido 16 al restar la representación del ruido de fondo estimado 12 de la señal de audio 8' de una representación de la señal de audio 8. Por lo tanto, el reductor de ruido de fondo 14 puede recibir la representación del ruido de fondo 12 del estimador de ruido de fondo 10. Una entrada adicional del reductor de ruido de fondo puede ser la señal de audio 8' o la representación de la señal de audio 8. Opcionalmente, el reductor de ruido de fondo puede comprender un generador configurado para generar de forma interna la representación de la señal de audio 8, tal como, por ejemplo una autocorrelación 8 de la señal de audio 8'.
Además, el codificador 4 puede comprender un predictor 18 configurado para someter la representación de la señal de audio 8 a análisis de predicción lineal para obtener un primer conjunto de coeficientes de filtro de predicción lineal (LPC) 20a y para someter la representación de la señal de audio de ruido de fondo reducido 16 a análisis de predicción lineal para obtener un segundo conjunto de coeficientes de filtro de predicción lineal 20b. Similar al reductor de ruido de fondo 14, el predictor 18 puede comprender un generador para generar de forma interna la representación de la señal de audio 8 de la señal de audio 8'. Sin embargo, puede ser ventajoso utilizar un generador común o central 17 para calcular la representación 8 de la señal de audio 8' una vez y proporcionar la representación de la señal de audio, tal como la autocorrelación de la señal de audio 8', al reductor de ruido de fondo 14 y el predictor 18. Por lo tanto, el predictor puede recibir la representación de la señal de audio 8 y la representación de la señal de audio de ruido de fondo reducido 16, por ejemplo, la autocorrelación de la señal de audio y la autocorrelación de la señal de audio de ruido de fondo reducido, respectivamente, y determinar, con base en las señales entrantes, el primer conjunto de coeficientes LPC y el segundo conjunto de coeficientes LPC, respectivamente.
En otras palabras, el primer conjunto de coeficientes LPC se puede determinar de la representación de la señal de audio 8 y el segundo conjunto de coeficientes LPC se puede determinar de la representación de la señal de audio de ruido de fondo reducido 16. El predictor puede llevar a cabo el algoritmo Levinson-Durbin para calcular el primer y segundo conjunto de coeficientes LPC de la autocorrelación respectiva.
Además, el codificador comprende un filtro de análisis 22 compuesto de una cascada 24 de filtros en el dominio del tiempo 24a, 24b controlados por el primer conjunto obtenido de coeficientes LPC 20a y el segundo conjunto obtenido de coeficientes LPC 20b. El filtro de análisis puede aplicar la cascada de filtros en el dominio del tiempo, en donde los coeficientes de filtro del primer filtro en el dominio del tiempo 24a son el primer conjunto de coeficientes LPC y los coeficientes de filtro del segundo filtro en el dominio del tiempo 24b son el segundo conjunto de coeficientes LPC a la señal de audio 8' para determinar una señal residual 26. La señal residual puede comprender los componentes de señal de la señal de audio 8' que puede no representarse por un filtro lineal que tiene el primer y/o el segundo conjunto de coeficientes LPC.
De acuerdo con realizaciones, la señal residual se puede proporcionar a un cuantificador 28 configurado para cuantificar y/o codificar la señal residual y/o el segundo conjunto de coeficientes LPC 24b antes de la transmisión. El cuantificador, por ejemplo puede llevar a cabo excitación codificada por transformada (TCX), predicción lineal excitada por código (CELP), o una codificación sin pérdidas tal como, por ejemplo, codificación de entropía.
De acuerdo con una realización adicional, la codificación de la señal residual se puede llevar a cabo en un transmisor 30 como una alternativa a la codificación en el cuantificador 28. Por lo tanto, el transmisor, por ejemplo, lleva a cabo excitación codificada por transformada (TCX), predicción lineal excitada por código (CELP), o una codificación sin pérdidas tal como, por ejemplo codificación de entropía para codificar la señal residual. Además, el transmisor se puede configurar para transmitir el segundo conjunto de coeficientes LPC. Un receptor opcional es el decodificador 6. Por lo tanto, el transmisor 30 puede recibir la señal residual 26 o la señal residual cuantificada 26'. De acuerdo con una realización, el transmisor puede codificar la señal residual o la señal residual cuantificada, al menos si la señal residual cuantificada no se ha codificado ya, en el cuantificador. Después de codificación opcional de la señal residual o alternativamente la señal residual cuantificada, la señal respectiva provista al transmisor se transmite como una señal residual codificada 32 o como una señal residual cuantificada y codificada 32'. Además, el transmisor puede recibir el segundo conjunto de coeficientes LPC 20b', opcionalmente codificar los mismos, por ejemplo, con el mismo método de codificación como se utiliza para codificar la señal residual, y transmitir además el segundo conjunto codificado de coeficientes LPC 20b', por ejemplo al decodificador 6, sin transmitir el primer conjunto de coeficientes LPC. En otras palabras, el primer conjunto de coeficientes LPC 20a no se necesita transmitir.
El decodificador 6 puede recibir además la señal residual codificada 32 o alternativamente la señal residual cuantificada, codificada 32' y además de una de las señales residuales 32 o 32', el segundo conjunto codificado de coeficientes LPC 20b'. El decodificador puede decodificar las señales recibidas individuales y proporcionar la señal residual de codificada 26 a un filtro de síntesis. El filtro de síntesis puede ser el inverso de un filtro FIR (respuesta finita al impulso) predictivo, lineal que tiene el segundo conjunto de coeficientes LPC como coeficientes de filtro. En otras palabras, un filtro que tiene el segundo conjunto de coeficientes LPC se invierte para formar el filtro de síntesis del decodificador 6. La salida del filtro de síntesis y por lo tanto la salida del codificador es la señal de audio decodificada 8''.
De acuerdo con realizaciones, el estimador de ruido de fondo puede estimar una autocorrelación 12 del ruido de fondo de la señal de audio como una representación del ruido de fondo de la señal de audio. Además, el reductor de ruido de fondo puede generar la representación de la señal de audio de ruido de fondo reducido 16 al restar la autocorrelación del ruido de fondo 12 de una autocorrelación de la señal de audio 8, en donde la autocorrelación estimada 8 de la señal de audio es la representación de la señal de audio y en donde la representación de la señal de audio de ruido de fondo reducido 16 es una autocorrelación de la señal de audio de ruido de fondo reducido. Las figuras 2 y 3 ambas se refieren a la misma realización, sin embargo, utilizan una notación diferente. Por lo tanto, la figura 2 muestra ilustraciones del enfoque en cascada y el enfoque de mejora/codificación conjuntos donde Wn y Wc representan la contaminación con ruido blanco de las señales ruidosas y limpias, respectivamente, y 1 y W q"1 sus inversos correspondientes. Sin embargo, la figura 3 muestra ilustraciones del enfoque en cascada y el enfoque de mejora/codificación conjuntos donde Ay y As representan los filtros de contaminación de ruido blanco de las señales ruidosas y limpias, respectivamente, y Hy y Hs son filtros de reconstrucción (o síntesis), sus inversos correspondientes.
Tanto la figura 2a como la figura 3a muestran una parte de mejora y una parte de codificación de la cadena de procesamiento de señal llevando a cabo así una codificación y mejora en cascada. La parte de mejora 34 puede operar en el dominio de la frecuencia, donde los bloques 36a y 36b pueden llevar a cabo una conversión de tiempofrecuencia utilizando, por ejemplo, una MDCT y una conversión de frecuencia-tiempo utilizando, por ejemplo una IMDCT o cualquier otra transformada adecuada para llevar a cabo la conversión de tiempo-frecuencia y frecuenciatiempo. Los filtros 38 y 40 pueden llevar a cabo una reducción de ruido de fondo de la señal de audio transformada en frecuencia 42. En la presente, aquellas partes de frecuencia del ruido de fondo se pueden filtrar al reducir su impacto en el espectro de frecuencia de la señal de audio 8'. El convertidor de frecuencia-tiempo 36b por lo tanto puede llevar a cabo la transformada inversa del dominio de la frecuencia al dominio del tiempo. Después de que se llevó a cabo la reducción de ruido de fondo en la parte de mejora 34, la parte de codificación 35 puede llevar a cabo la codificación de la señal de audio con ruido de fondo reducido. Por lo tanto, el filtro de análisis 22' calcula una señal residual 26'' utilizando coeficientes LPC apropiados. La señal residual se puede cuantificar y proporcionar al filtro de síntesis 44, que es en el caso de la figura 2a y la figura 3a el inverso del filtro de análisis 22'. Ya que el filtro de síntesis 42 es el inverso del filtro de análisis 22', en el caso de la figura 2a y la figura 3a, los coeficientes LPC utilizados para determinar la señal residual 26 se transmiten al decodificador para determinar la señal de audio de codificada 8''.
Las figuras 2b y 3b muestran la etapa de codificación 35 sin la reducción de ruido de fondo previamente llevada a cabo. Ya que la etapa de codificación 35 ya se describe con respecto a las figuras 2a y 3a, se omite una descripción adicional para evitar repetir simplemente la descripción.
La figura 2c y la figura 3c se refieren al concepto principal de codificación-mejora conjuntos. Se muestra que el filtro de análisis 22 comprende una cascada de filtros en el dominio del tiempo utilizando filtros Ay y Hs. De forma más precisa, la cascada de filtros en el dominio del tiempo comprende dos veces un filtro de predicción lineal que utiliza el primer conjunto obtenido de coeficientes LPC 20a (Ay) y una vez un inverso de un filtro de predicción lineal adicional que utiliza el segundo conjunto obtenido de coeficientes LPC 20b (Hs). Este arreglo de filtros o esta estructura de filtro puede ser llamada como un filtro Wiener. Sin embargo, se debe señalar que un filtro de predicción Hs se cancela con el filtro de análisis /\s. En otras palabras, también se puede aplicar dos veces el filtro Ay (denotado por Ay), dos veces el filtro Hs (denotado por Hf) y una vez el filtro As.
Como ya se describió con respecto a la figura 1, los coeficientes LPC para estos filtros se determinaron, por ejemplo utilizando autocorrelación. Ya que la autocorrelación se puede llevar a cabo en el dominio del tiempo, no se tiene que llevar a cabo ninguna conversión de tiempo-frecuencia para implementar la codificación y mejora conjuntos. Además, este enfoque es ventajoso ya que la cadena de procesamiento adicional de cuantificación que transmite una filtración de síntesis permanece igual cuando se compara con la etapa de codificación 35 descrita con respecto a las figuras 2a y 3a. Sin embargo, se debe señalar que los coeficientes de filtro LPC basados en la señal de ruido de fondo reducida se deben transmitir al decodificador para filtración de síntesis apropiada. Sin embargo, de acuerdo con una realización adicional, en lugar de transmitir los coeficientes LPC, se pueden transmitir coeficientes de filtro ya calculados del filtro 24b (representados por el inverso de los coeficientes de filtro 20b) para evitar una inversión adicional del filtro lineal que tiene los coeficientes LPC para obtener el filtro de síntesis 42, ya que esta inversión ya sea ha llevado a cabo en el codificador. En otras palabras, en lugar de transmitir los coeficientes de filtro 20b, el inverso de la matriz de estos coeficientes de filtro se puede transmitir, evitando así llevar a cabo dos veces la inversión. Además, se tiene que señalar que el filtro del lado de codificador 24b y el filtro de síntesis 42 pueden ser el mismo filtro, aplicado en el codificador y decodificador respectivamente.
En otras palabras, con respecto a la figura 2, los códecs de voz basados en el modelo CELP se basan en un modelo de producción de voz que asume que la correlación de la señal de voz de entrada sn se puede modelar por un filtro de producción lineal con coeficientes a — [ a 0¡ a ^ ] T donde Me sel orden de modelo [16]. El residuo rn = an * sn, que es la parte de la señal de voz que no se puede predecir por el filtro de predicción lineal entonces se cuantifica utilizando cuantificación vectorial.
Permítase que Sk = [sk, Sk-i, ..., Sk-M]T sea un vector de la señal de entrada donde el superíndice T denota la transpuesta. El residuo entonces se puede expresar como
rk = a s* (1)
Dada la matriz de autocorrelación Rss del vector de señal de voz Sk
Figure imgf000007_0001
una estimación del filtro de producción de orden M puede estar dada como [20]
Figure imgf000007_0002
donde u = [1, 0, 0, 0]r y el error de predicción escalar í j | elegidos de tal forma que = 1 Obsérvese que el filtro de predicción lineal a n es un filtro de contaminación de ruido blanco, donde rkes ruido blanco sin correlacionar. Además, la señal original sn se puede reconstruir de la señal residual rn a través de filtración MR con el predictor a n. El siguiente paso es cuantificar vectores del residuo rk = [rkN, a>a/-i , ..., /m\/-a/+i ]t con un cuantificador de vector a f fe, de tal forma que se reduce al mínimo la distorsión perceptual. Permítase que un vector de la señal de salida sea s¿c = [ s kN, S/cam, ..., S/c-a/+i]T y su contraparte cuantificada, y W una matriz de convolución que se aplica a ponderación perceptual en la salida. El problema de optimización perceptual entonces se puede escribir como
Figure imgf000007_0003
donde H es una matriz de convolución que corresponde a la respuesta de impulso del predictor a n.
El proceso de codificación de voz tipo CELP se representa en la figura 2b. La señal de entrada primero se blanquea con el filtro A ( z ) = a m z ~™ para obtener la señal residual. Los vectores del residuo entonces se cuantifican en el bloque Q. Finalmente, la estructura de envolvente espectral entonces se reconstruye por filtración IIR que es el doble IR, de / P * ( z ) para obtener la señal de salida cuantificada $k. Ya que la señal resintetiza se evalúa en el dominio perceptual, este enfoque se conoce como el método de análisis por síntesis.
Filtración Wiener
En mejora de voz de un solo canal, se asume que la señal yn se adquiere, que es una mezcla aditiva de la señal de voz limpia, deseada Sn y alguna interferencia indeseada vn, es decir
Figure imgf000007_0004
El objetivo del proceso de mejora es estimar la señal de voz limpia Sn, en tanto que es accesible solo a la señal ruidosa yn y las estimaciones de las matrices de correlación
Figure imgf000007_0005
Donde yk = [yk, yk-\, y k-M¡ . utilizando una matriz de filtro H, la estimación de la señal de voz limpia sn se define como
Figure imgf000007_0006
El filtro óptimo en el sentido de error cuadrático medio, mínimo (MMSE), conocido como el filtro Wiener se puede obtener fácilmente como [12]
Figure imgf000008_0001
Por lo general, se aplica filtración Wiener en ventanas superpuestas de la señal de entrada y se reconstruye utilizando el método de superposición y suma [21, 12]. Este enfoque se ilustra en el bloque de mejora de la figura 2a. Sin embargo, conduce a un incremento en retardo algorítmico, que corresponde a la longitud de la superposición entre ventanas. Para evitar este retardo, un objetivo es combinar filtración Wiener con un método basado en predicción lineal.
Para obtener tal conexión, la señal de voz estimada
Figure imgf000008_0002
Figure imgf000008_0003
donde y es un coeficiente de modificación de escala y
Figure imgf000008_0004
es el predictor óptimo para la señal ruidosa yn. En otras palabras, la filtración de la señal ruidosa con a’, se obtiene el residuo (modificado en escala) de la señal limpia estimada. La modificación en escala es la relación entre la relación
Figure imgf000008_0005
A 9
entre los errores residuales esperados de las señales limpia y ruidosa, y e , respectivamente, es decir _ 2 / ^ 2
'y O y /OJ. Esta derivación por lo tanto muestra que la filtración Wiener y la predicción lineal son métodos íntimamente relacionados y en la siguiente sección, esta conexión se utilizará para desarrollar un método conjunto de mejora y codificación.
Incorporación de filtración Wiener en un códec CELP
Un objetivo es combinar filtración Wiener y códecs CELP (descritos en la sección 2 y la sección 2) en un algoritmo conjunto. Al combinar estos algoritmos se puede evitar al retardo de la partición en ventanas de superposición y suma por implementaciones usuales de filtración Wiener, y se reduce la complejidad computacional.
La implementación de la estructura conjunta entonces es sencilla. Se muestra que el residuo de la señal de voz mejorada se puede obtener por la ecuación 9. La señal de voz mejorada por lo tanto se puede reconstruir por filtración IIR del residuo con el modelo predictivo lineal de la señal limpia.
Para cuantificación del residuo, la ecuación 4 se puede modificar al reemplazar la señal limpia s k con la señal estimada ^k para obtener
Figure imgf000008_0006
En otras palabras, la unci n objetivo con la se al objetivo mejorada sk permanece igual como si tuviera acceso a la señal de entrada limpia &.
En conclusión, la única modificación a CELP normal es reemplazar el filtro de análisis a de la señal limpia con aquel de la señal ruidosa a’. Las partes restantes del algoritmo CELP permanecen sin cambios. El enfoque propuesto se ilustra en la figura 2(c).
Es claro que el método propuesto se pueda aplicar en cualquier códec CELP con cambios mínimos siempre que se desee atenuación de ruido y cuando tenga acceso a una estimación de la autocorrelación de la señal de voz limpia Rss. Si no está disponible una estimación de la autocorrelación de señal de voz limpia, se puede estimar utilizando una estimación de la autocorrelación de la señal de ruido Rw, por Rss * Ryy - Rw u otras estimaciones comunes. El método se puede extender fácilmente a escenarios tal como algoritmos multicanal con haz modelado, siempre y cuando una estimación de la señal limpia sea alcanzable utilizando filtros en el dominio del tiempo.
La ventaja en complejidad computacional del método propuesto se puede caracterizar como sigue. Se señala que en el enfoque convencional se necesita determinar el filtro de matriz H, dado por la ecuación 8. La inversión de matriz requerida es de complejidad 0 ( M 3). Sin embargo, en el enfoque propuesto solo la ecuación 3 se tiene que resolver para la señal ruidosa, que se puede implementar con el algoritmo Levinson-Durbin (o similar) con complejidad 0 (N2').
Predicción lineal excitada por código
En otras palabras con respecto a la figura 3, los códecs de voz basados en el paradigma CELP utilizan un modelo de producción de voz que asume que la correlación, y por lo tanto la envolvente espectral de la señal de voz de entrada sn se puede modelar por un filtro de predicción lineal con coeficientes a — [ a 0, a lr , (X.iVÍ] T donde M es el orden de modelo, determinado por el modelo de tubo subyacente [16]. El residuo rn = an * sn, la parte de la señal de voz que no se puede predecir por el filtro de predicción lineal (también llamado como predictor 18), entonces se cuantifica utilizando cuantificación vectorial.
El filtro predictivo lineal as, para un cuadro de la señal de entrada S se puede obtener, reduciendo al mínimo
Figure imgf000009_0002
donde u = [100... 0]7". La solución resulta como:
Figure imgf000009_0003
Con la definición de la matriz de convolución As, que consiste de los coeficientes de filtro a de as
Figure imgf000009_0001
la señal residual se puede obtener al multiplicar el cuadro de voz de entrada con la matriz de convolución A s e s = A s • s . (15)
La partición en ventanas, se lleva a cabo aquí como en códecs CELP al restar la respuesta de entrada cero de la señal de entrada y reintroduciéndola en la resíntesis [15].
La multiplicación en la ecuación 15 es idéntica a la convolución de la señal de entrada con el filtro de predicción, y por lo tanto corresponde a la filtración FIR. La señal original se puede reconstruir del residuo, por una multiplicación con el filtro de reconstrucción Hs
Figure imgf000009_0004
donde Hs, consiste de la respuesta de impulso — [ 1 , 77^ .... /v — 1 ] del filtro de predicción
Figure imgf000010_0001
de tal forma que esta operación corresponde a filtración IIR.
El vector residual se cuantifica aplicando cuantificación vectorial. Por lo tanto, el vector cuantificado
Figure imgf000010_0002
se elige, reduciendo al mínimo la distancia perceptual, en el sentido de la normal-2, a la señal limpia reconstruida, deseada:
Figure imgf000010_0003
donde es es el residuo no cuantificado y W(z) = A(0.92z) es el filtro de ponderación perceptual, como se utiliza en el códec de voz AMR-WB [6].
Aplicación de filtración Wiener en un códec CELP
Para la aplicación de mejora de voz de un solo canal, asumiendo que la señal de micrófono adquirida yn, es una mezcla aditiva de la señal de voz limpia, deseada Sn y alguna interferencia indeseada Vn, de tal forma que yn = Sn + Vn. En el dominio Z, equivalentemente Y(z) = S(z) V(z).
Al aplicar un filtro Wiener B(z) es posible reconstruir la señal de voz S(z) de la observación ruidosa Y(z) por filtración, de tal forma que la señal de voz estimada es S(z) := B(z)Y(z) « S(z). La solución cuadrática media, mínima para el filtro Wiener resulta como [12]
Figure imgf000010_0004
dada la suposición que las señales de voz y ruido Sn y Vn, respectivamente, no están correlacionadas.
En un códec de voz, una estimación del espectro de potencia está disponible de la señal ruidosa y n , en la forma de la respuesta de impulso del modelo predictivo lineal |A y (z)|-2. En otras palabras, |S(z)|2 |^(z)|2 « y |A y (z)|-2 donde y es un coeficiente de modificación de escala. El predictor lineal ruidoso se puede calcular de la matriz de autocorrelación R yy de la señal ruidosa de forma general.
Además, se puede estimar el espectro de potencia de la señal de voz limpia |S(z)|2 o de forma equivalente, la matriz de autocorrelación R ss de la señal de voz limpia. Los algoritmos de mejora a menudo asumen que la señal de ruido es estacionaria, por lo cual la autocorrelación de la señal de ruido como Rw se puede estimar de un cuadro no de voz de la señal de entrada. La matriz de autocorrelación de la señal de voz limpia Rss entonces se puede estimar como Rss = Ryy R VV . Aquí es ventajoso tomar las precauciones usuales para asegurar que R ss permanezca definida, positiva.
Utilizando la matriz de autocorrelación estimada para voz limpia Rss, el predictor lineal correspondiente se puede
determinar, cuya respuesta de impulso en el dominio Z es Ás 1 ( z ) . Por lo tanto, |S(z)|2 « |¿4s(z)|'2 y la ecuación 19 se puede describir como
Figure imgf000010_0005
En otras palabras, por filtración dos veces con los predictores de las señales ruidosa y limpia, en modo FIR e IIR respectivamente, se puede obtener una estimación Wiener de la señal limpia.
Las matrices de convolución se pueden denotar correspondientes a filtración FIR con predictores í45( z ) y Ay(z) por As y Ay, respectivamente. De forma similar, permítase que Hs y Hy sean las matrices de convolución respectivas que corresponden a filtración predictiva (IIR). Utilizando estas matrices, se puede ilustrar codificación CELP convencional con un diagrama de fijo con en la figura 3b. Aquí, es posible filtrar la señal de entrada Sn con A s para obtener el residuo, cuantificarlo y reconstruir la señal cuantificada por filtración con H s .
El enfoque convencional para combinar mejora con codificación se ilustra en la figura 3a, donde se aplica filtración Wiener como un bloque de preprocesamiento antes de codificación.
Finalmente, en el enfoque propuesto se combina filtración Wiener con códecs de voz tipo CELP. Comparando el enfoque en cascada de la figura 3a con el enfoque conjunto, ilustrado en la figura 3b, es evidente que se puede omitir el esquema de partición en ventanas de suma y superposición (OLA) adicional. Además, el filtro de entrada A s en el codificador se cancela con Hs. Por lo tanto, como se muestra en la figura 3c, la señal residual limpia, estimada
resulta por filtración la señal de entrada deteriorada y con la combinación de filtro A y H s. por lo tanto, la reducción al mínimo de error resulta:
Figure imgf000011_0001
. (21)
Por lo tanto, este enfoque reduce al mínimo conjuntamente la distancia entre la estimación limpia y la señal cuantificada, por lo cual es factible una reducción al mínimo conjunta de la interferencia y el ruido de cuantificación en el dominio perceptual.
El desempeño del enfoque conjunto de mejora y codificación de voz se evaluó utilizando tanto mediciones objetivas como subjetivas. Al fin de aislar el desempeño del nuevo método, se utiliza un códec CELP simplificado, donde solo se cuantificó la señal residual, pero no se cuantificó el retardo y la ganancia de la predicción de largo plazo (LTP), la codificación predictiva lineal (LPC) y los factores de ganancia. El residuo se cuantificó utilizando un método iterativo en pares, donde dos pulsos se suman de forma consecutiva al tratarlos en cada posición, como se describe en [17]. Además, para evitar cualquier influencia de algoritmos de estimación, la matriz de correlación de la señal de voz limpia R ss se asumió que se conocía en todos los escenarios simulados. Con la suposición de que no está correlacionada la señal de voz y ruido, se sostiene que R ss = R yy - R vv . En cualquier aplicación práctica la matriz de correlación de ruido Rw o alternativamente la matriz de correlación de voz limpia R ss se tiene que estimar de la señal de micrófono adquirida. Un enfoque común es estimar la matriz de correlación de ruido en pausas de voz, asumiendo que la interferencia es estacionara.
El escenario evaluado consistió de una mezcla de la señal de voz limpia, deseada e interferencia aditiva. Se han considerado dos tipos de interferencias: ruido blanco estacionario y un segmento de una grabación de ruido de carro de la librería de mezclas de sonidos Civilisation [18]. Se llevó a cabo cuantificación vectorial del residuo con una velocidad de bits de 2,8 kbit/s y 7,2 kbit/s, que corresponde a una velocidad de bits total de 7,2 kbit/s y 13,2 kbit/s respectivamente para un códec AMR-WB [6]. Se utilizó una velocidad de muestreo de 12,8 kHz para todas las simulaciones.
Se evaluaron las señales mejorada y codificada utilizando tanto mediciones objetivas como subjetivas, por lo tanto, se llevó a cabo una prueba de escucha y se calculó una relación de señal a ruido (SNR) de magnitud perceptual, como se define en la ecuación 23 y la ecuación 22. Esta SNR de magnitud perceptual se utilizó ya que el proceso conjunto de mejora no tiene ninguna influencia en la fase de los filtros, ya que tanto los filtros de síntesis como de reconstrucción están sujetos a la limitación de filtros de fase mínima, según el diseño de filtros de predicción.
Con la definición de la transformada de Fourier como operador T7^ ) , los valores espectrales absolutos de la señal de referencia limpia, reconstruida y la señal limpia estimada en el dominio perceptual resultan como:
S = |J ( W H se t )| y S = | J ( W H ,e fc)|
(22)
La definición de la relación de señal a ruido perceptual (PSNR) modificada resulta como:
PSNRabs lO lo g io llSf
Ws-s\\\ (23)
Para la evaluación subjetiva, se utilizaron elementos de voz del conjunto de prueba utilizado para la normalización de USAC [8], contaminados por ruido blanco y de coche, como se describe anteriormente. Se llevó a cabo una prueba de escucha de estimulación múltiple con anclaje y referencia ocultos (MUSHRA) [19] con 14 participantes, utilizando auriculares electrostáticos STAx en un entorno insonoro. Los resultados de la prueba de escucha se ilustran en la figura 6 y las puntuaciones MUSHRA diferenciales en la figura 7, que muestran la media y los intervalos de confianza de 95 %.
Los resultados de prueba MUSHRA absolutos en la figura 6 muestran que la referencia oculta siempre se asignó correctamente a 100 puntos. La mezcla ruidosa original recibió la puntuación media más baja para cada elemento, que indica que todos los métodos de mejora mejoraron la calidad perceptual. Las puntuaciones medias para la velocidad de bits más baja mostraron una mejora estadísticamente significativa de 6.4 puntos MUSHRA para el promedio a través de todos los elementos en comparación con el enfoque en cascada. Para la velocidad de bits mayor, el promedio a través de todos los elementos mostró una mejora, que, sin embargo, no es estadísticamente significativa.
Para obtener una comparación más detallada del método conjunto y el método mejorado previamente, se presentan las puntuaciones MUSHRA diferenciales en la figura 7, donde la diferencia entre el método mejorado previamente y el método conjunto se calcula para cada oyente y elemento. Los resultados diferenciales verifican las puntuaciones MUSHRA absolutas, al mostrar una mejora estadísticamente significativa para la velocidad de bits inferior, mientras que la mejora para la velocidad de bits mayor no es estadísticamente significativa.
En otras palabras, se muestra un método para codificación y mejora conjuntos de voz, que permite reducción al mínimo de ruido de cuantificación e interferencia general. En contraste, los enfoques convencionales aplican mejora y codificación en pasos de procesamiento en cascada. La unión de ambos pasos de procesamiento también es atractiva en términos de complejidad computacional, ya que se pueden omitir operaciones de filtración y partición en ventanas, repetidas.
Los códecs de voz tipo CELP se diseñan para ofrecer un muy bajo retardo y por lo tanto evitan una superposición de ventanas de procesamiento con ventanas de procesamiento futuras. En contraste, los métodos de mejora convencionales, aplicados en el dominio de la frecuencia dependen de partición en ventanas de superposición y suma, que introduce un retardo adicional que corresponde a la duración de superposición. El enfoque conjunto no requiere partición en ventanas de superposición y suma, pero utiliza el esquema de partición en ventanas como se aplica en códecs de voz [15], por lo cual evita el incremento en retardo algorítmico.
Un problema conocido con el método propuesto es que, a diferencia de filtración Wiener espectral, convencional donde la fase de señal se deja intacta, los métodos propuestos aplican filtros en el dominio del tiempo, que modifican la fase. Estas modificaciones de fase se pueden tratar fácilmente por aplicación de filtros all-pass adecuados. Sin embargo, ya que no se ha notado ninguna degradación perceptual atribuida a modificaciones de fase, estos filtros all-pass se omitieron para mantener baja la complejidad computacional. Se señala, sin embargo, que en la evaluación objetiva, se midió SNR de magnitud perceptual, para permitir comparación justa de los métodos. La medición objetiva muestra que el método propuesto es en promedio tres dB mejor que el procesamiento en cascada.
La ventaja de desempeño del método propuesto se confirmó además por resultados de una prueba de escucha MUSHRA, que muestra una mejora promedio de 6,4 puntos. Estos resultados demuestran que la aplicación de codificación y mejora conjuntos es benéfica para el sistema general en términos tanto de calidad como de complejidad computacional, en tanto que se mantiene el bajo retardo algorítmico de códecs de voz CELP.
La figura 8 muestra un diagrama de bloques esquemático de un método 800 para codificar una señal de audio con ruido de fondo reducido utilizando codificación predictiva lineal. El método 800 comprende un paso S802 de estimación de una representación de ruido de fondo de la señal de audio, un paso S804 de generación de un representación de una señal de audio de ruido de fondo reducido al restar la representación del ruido de fondo estimado de la señal de audio de una representación de la señal de audio, un paso S806 de sometimiento de la representación de la señal de audio a análisis de predicción lineal para obtener un primer conjunto de coeficientes de filtro de predicción lineal y para someter la representación de la señal de audio de ruido de fondo reducido a análisis de predicción lineal para obtener un segundo conjunto de coeficientes de filtro de predicción lineal, y un paso S808 de control de una cascada de filtros en el dominio del tiempo por el primer conjunto obtenido de coeficientes LPC y el segundo conjunto obtenido de coeficientes LPC para obtener una señal residual de la señal de audio. Debe entenderse que, en esta especificación, las señales en líneas son algunas veces nombradas por números de referencia por las líneas o indicadas algunas veces por los mismos números de referencia, que se han atribuido a las líneas. Por lo tanto, la notación es de tal forma que una línea que tiene una cierta señal indica la propia señal. Una línea puede ser una línea física en una implementación alámbrica. En una implementación computarizada, sin embargo, no existe una línea física, pero la señal representada por la línea se transmite de un módulo de cálculo a otro módulo de cálculo.
Aunque la presente invención se ha descrito en el contexto de diagramas de bloques donde los bloques representan componentes de hardware lógicos o reales, la presente invención también se puede implementar por un método implementado por ordenador. En este último caso, los bloques representan pasos de método correspondientes donde estos pasos representan las funcionalidades llevadas a cabo por bloques de hardware, físicos o lógicos correspondientes.
Aunque algunos aspectos se han descrito en el contexto de un aparato, es claro que estos aspectos también representan una descripción del método correspondiente, donde un bloque o dispositivo corresponde a un paso de método o una característica de un paso de método. De forma análoga, los aspectos descritos en el contexto de un paso de método también representan una descripción de un bloque correspondiente o elemento o características de un aparato correspondiente. Algunos o todos los pasos de método se pueden ejecutar por (o utilizando) un aparato de hardware, como, por ejemplo, un microprocesador, un ordenador programable o un circuito electrónico. En algunas realizaciones, alguno o más de los pasos de método más importantes se pueden ejecutar por este aparato. La señal transmitida o codificada inventiva se puede almacenar en un medio de almacenamiento digital o se puede transmitir en un medio de transmisión tal como un medio de transmisión inalámbrico o un medio de transmisión alámbrico tal como Internet.
Dependiendo de ciertos requerimientos de implementación, realizaciones de la invención se pueden implementar en hardware o en software. La implementación se puede llevar a cabo utilizando un medio de almacenamiento digital, por ejemplo un disco flexible, un DVD, un Blu-Ray, un CD, una ROM, una PROM, una EPROM, una EEPROM o una memoria flash, que tiene señales de control leíbles electrónicamente almacenadas en el mismo, que cooperan (o son capaces de cooperar) con un sistema informático programable de tal forma que se lleva a cabo el método respectivo. Por lo tanto, el medio de almacenamiento digital puede ser leíble por ordenador.
Algunas realizaciones de acuerdo con la invención comprenden un portador de datos que tiene señales de control electrónicamente leíbles, que son capaces de cooperar con un sistema informático programable, de tal forma que se lleva a cabo uno de los métodos descritos en el presente documento.
En general, las realizaciones de la presente invención se pueden implementar como un producto de programa informático con un código de programa, el código de programa que es operativo para llevar a cabo uno de los métodos cuando el producto de programa informático se ejecuta en un ordenador. El código de programa puede, por ejemplo, almacenarse en un portador leíble por máquina.
Otras realizaciones comprenden el programa informático para llevar a cabo uno de los métodos descritos en la presente, almacenados en un portador leíble por máquina.
En otras palabras, una realización el método inventivo es, por lo tanto, un programa informático que tiene un código de programa para llevar a cabo uno de los métodos descritos en la presente, cuando el programa informático se ejecuta en un ordenador.
Una realización adicional del método inventivo es, por lo tanto, un portador de datos (o un medio de almacenamiento no transitorio tal como un medio de almacenamiento digital, o un medio leíble por ordenador) que comprende, grabado en el mismo, el programa informático para llevar a cabo uno de los métodos descritos en la presente. El portador de datos, el medio de almacenamiento digital o el medio grabado son convencionalmente tangibles y/o no transitorios.
Una realización adicional del método de invención es, por lo tanto, un flujo de datos o una secuencia de señales que representan el programa informático para llevar a cabo uno de los métodos descritos en la presente. El flujo de datos o la secuencia de señales pueden por ejemplo, configurarse para transferirse a través de una conexión de comunicación de datos, por ejemplo, a través de internet.
Una realización adicional comprende un medio de procesamiento, por ejemplo, un ordenador o un dispositivo lógico programable, configurado para, o adaptado para, llevar a cabo uno de los métodos descritos en la presente.
Una realización adicional comprende un ordenador que tiene instalada en la misma el programa informático para llevar a cabo uno de los métodos descritos en la presente.
Una realización adicional de acuerdo con la invención comprende un aparato o un sistema configurado para transferir (por ejemplo, de forma electrónica u óptica) un programa de informático para llevar a cabo uno de los métodos descritos en la presente a un receptor. El receptor, por ejemplo, puede ser un ordenador, un dispositivo móvil, un dispositivo de memoria o similares. El aparato o sistema puede, por ejemplo, comprender un servidor de archivos para transferir el programa informático al receptor.
En algunas realizaciones, se puede utilizar un dispositivo lógico programable (por ejemplo, un arreglo de compuertas programable en el campo) para llevar a cabo algunas o todas las funcionalidades de los métodos descritos en la presente. En algunas realizaciones, un arreglo de compuertas programables en el campo puede cooperar con un microprocesador a fin de llevar a cabo uno de los métodos descritos en la presente. En general, los métodos se llevan a cabo de manera preferente por cualquier aparato de hardware.
Las realizaciones descritas anteriormente son simplemente ilustrativas para los principios de la presente invención. Se entiende que serán evidentes modificaciones y variaciones de los arreglos y los detalles descritos en la presente para otros expertos en la técnica. Se propone, por lo tanto, que se limite solo por el alcance de las próximas reivindicaciones de patente y no por los detalles específicos presentados a manera de descripción y explicación de las realizaciones en la presente.
Referencias
[1] M. Jeub y P. Vary, “Enhancement of reverberant speech using the CELP postfilter,” in Proc. ICASSP, Abril 2009, pp. 3993-3996.
[2] M. Jeub, C. Herglotz, C. Nelke, C. Beaugeant, y P. Vary, “Noise reduction for dual-microphone mobile phones exploiting power level differences,” in Proc. ICASSP, Marzo 2012, pp. 1693-1696.
[3] R. Martin, I. Wittke, y P. Jax, “Optimized estimation of spectral parameters for the coding of noisy speech,” in Proc. ICASSP, vol. 3, 2000, pp. 1479-1482 vol.3.
[4] H. Taddei, C. Beaugeant, y M. de Meuleneire, “Noise reduction on speech codec parameters,” in Proc. ICASSP, vol. 1, Mayo 2004, pp. I-497-500 vol.1.
[5] 3GPP, “Mandatory speech CODEC speech processing functions; AMR speech Codec; General description,” 3rd Generation Partnership Project (3GPP), TS 26.071, 12 2009. [En línea]. Disponible: http://www.3gpp.org/ftp/Specs/html-info/26071.htm
[6] -, “Speech codec speech processing functions; Adaptive Multi-Rate - Wideband (AMR-WB) speech codec; Transcoding functions,” 3rd Generation Partnership Project (3GPP), TS 26.190, 122009. [En línea]. Disponible: http://www.3gpp.org/ftp/Specs/html-info/26190.htm
[7] B. Bessette, R. Salami, R. Lefebvre, M. Jelinek, J. Rotola-Pukkila, J. Vainio, H. Mikkola, y K. Jarvinen, “The adaptive multirate wideband speech codec (AMR-WB),” IEEE Transactions on Speech and Audio Processing, vol.
10, no. 8, pp. 620-636, Noviembre 2002.
[8] ISO/IEC 23003-3:2012, “MPEG-D (MPEG audio technologies), Part 3: Unified speech and audio coding,” 2012.
[9] M. Neuendorf, P. Gournay, M. Multrus, J. Lecomte, B. Bessette, R. Geiger, S. Bayer, G. Fuchs, J. Hilpert, N. Rettelbach, R. Salami, G. Schuller, R. Lefebvre, y B. Grill, “Unified speech and audio coding scheme for high quality at low bitrates,” in Acoustics, Speech and Signal Processing, 2009. ICASSP 2009. IEEE International Conference on, Abril 2009, pp. 1-4.
[10] 3GPP, “TS 26.445, EVS Codec Detailed Algorithmic Description; 3GPP Technical Specification (Release 12),” 3rd Generation Partnership Project (3GPP), TS 26.445, 12 2014. [En línea]. Disponible: http://www.3gpp.org/ftp/Specs/html-info/26445.htm
[11] M. Dietz, M. Multrus, V. Eksler, V. Malenovsky, E. Norvell, H. Pobloth, L. Miao, Z.Wang, L. Laaksonen, A. Vasilache, Y. Kamamoto, K. Kikuiri, S. Ragot, J. Faure, H. Ehara, V. Rajendran, V. Atti, H. Sung, E. Oh, H. Yuan, y C. Zhu, “Overview of the EVS codec architecture,” in Acoustics, Speech and Signal Processing (ICASSP), 2015 IEEE International Conference on, Abril 2015, pp. 5698-5702.
[12] J. Benesty, M. Sondhi, y. Huang, Springer Handbook of Speech Processing. Springer, 2008.
[13] T. Backstrom, “Computationally efficient objective function for algebraic codebook optimization in ACELP,” in Proc. Interspeech, Agosto 2013.
[14] -, “Comparison of windowing in speech and audio coding,” in Proc. WASPAA, New Paltz, USA, Octubre 2013.
[15] J. Fischer y T. Backstrom, “Comparison of windowing schemes for speech coding,” in Proc EUSIPCO, 2015.
[16] M. Schroeder y B. Atal, “Code-excited linear prediction (CELP): High-quality speech at very low bit rates,” in Proc. ICASSP. IEEE, 1985, pp. 937-940.
[17] T. Backstrom y C. R. Helmrich, “Decorrelated innovative codebooks for ACELP using factorization of autocorrelation matrix,” in Proc. Interspeech, 2014, pp. 2794-2798.
[18] soundeffects.ch, “Civilisation soundscapes library,” visitado: 23.09.2015. [En línea]. Disponible: https://www.soundeffects.ch/de/geraeusch-archive/soundeffects.ch- produkte/civilisation-soundscapes-d.php [19] Method for the subjective assessment of intermediate quality levels of coding systems, ITU-R Recommendation BS.1534, 2003. [En línea]. Disponible: http://www.itu.int/rec/R-REC-BS.1534/en.
[20] P. P. Vaidyanathan, \The theory of linear prediction," in Synthesis Lectures on Signal Processing, vol. 2, pp.
1{184. Morgan & Claypool publishers, 2007.
[21] J. Allen, \Short-term spectral analysis, and modification by discrete Fourier transform," IEEE Trans. Acoust., Speech, Signal Process., vol. 25, pp. 235{238, 1977.

Claims (8)

REIVINDICACIONES
1. Codificador (4) para codificar una señal de audio (8') con ruido de fondo reducido utilizando codificación predictiva lineal, comprendiendo el codificador (4):
un estimador de ruido de fondo (10) configurado para estimar una autocorrelación del ruido de fondo como una representación del ruido de fondo (12) de la señal de audio (8');
un reductor de ruido de fondo (14) configurado para generar una representación de una señal de audio de ruido de fondo reducido (16) restando la autocorrelación del ruido de fondo (12) de la señal de audio (8') desde una autocorrelación de la señal de audio (8) para que la representación de la señal de audio de ruido de fondo reducido (16) sea una autocorrelación de una señal de audio de ruido de fondo de fondo;
un predictor (18) configurado para someter la representación de la señal de audio (8) al análisis de predicción lineal para obtener un primer juego de coeficientes de filtro de predicción lineal, LPC, (20a) y someter la representación de la señal de audio de ruido de fondo reducido (12) al análisis de predicción lineal para obtener un segundo juego de coeficientes filtros de predicción lineal, LPC, (20b); y
un filtro de análisis (22) compuesto por una cascada de filtros de dominio de tiempo (24, 24a, 24b) que es un filtro Wiener y controlado por el primer juego obtenido de coeficientes LPC (20a) y el segundo juego obtenido de coeficientes LPC (20b) para obtener una señal residual (26) de la señal de audio (8'); y
un transmisor (30) configurado para transmitir el segundo juego de coeficientes LPC (20b) y la señal residual (26).
2. Codificador (4) de acuerdo con la reivindicación 1, en donde la cascada de filtros de dominio de tiempo (24) comprende dos veces un filtro de predicción lineal (24a) que usa el primer juego obtenido de coeficientes LPC (20a) y una vez un inverso de un filtro de predicción lineal adicional (24b) que usa el obtenido segundo conjunto de coeficientes LPC (20b).
3. Codificador (4) de acuerdo con la reivindicación 1 o 2, que comprende además un cuantificador (28) configurado para cuantificar y/o codificar la señal residual (26) antes de la transmisión.
4. Codificador (4) de acuerdo con una cualquiera de las reivindicaciones anteriores, que comprende además un cuantificador (28) configurado para cuantificar y/o codificar el segundo juego de coeficientes LPC (20b) antes de la transmisión.
5. Codificador de acuerdo con la reivindicación 3 o 4, en donde el cuantificador está configurado para usar predicción lineal excitada por código, CELP, codificación de entropía, o transformar la excitación codificada, TCX.
6. Sistema (2) que comprende:
el codificador (4) de acuerdo con una cualquiera de las reivindicaciones anteriores;
un decodificador (6) configurado para decodificar la señal de audio codificada.
7. Método (800) para codificar una señal de audio con ruido de fondo reducido utilizando codificación predictiva lineal, comprendiendo el método:
estimar (S802) una autocorrelación del ruido de fondo como una representación del ruido de fondo de la señal de audio;
generar (S804) una representación de una señal de audio de ruido de fondo reducido restando la correlación automática del ruido de fondo de la señal de audio de una autocorrelación de la señal de audio de modo que la representación de la señal de audio de ruido de fondo reducido (16) sea una autocorrelación de una señal de audio de ruido de fondo reducido;
someter (S806) la representación de la señal de audio al análisis de predicción lineal para obtener un primer juego de coeficientes de filtro de predicción lineal, LPC, y someter la representación de la señal de audio de ruido de fondo reducido al análisis de predicción lineal para obtener un segundo juego de coeficientes filtros de predicción lineal, LPC;
controlar (S808) una cascada de filtros de dominio de tiempo que es un filtro Wiener por el primer juego obtenido de coeficientes LPC y el segundo juego obtenido de coeficientes LPC para obtener una señal residual de la señal de audio;
transmitir el segundo juego de coeficientes LPC (20b) y la señal residual (26).
8. Programa informático que comprende instrucciones que, cuando el programa es ejecutado por un ordenador, hace que el ordenador lleve a cabo el método de acuerdo con la reivindicación 7.
ES16770500T 2015-09-25 2016-09-23 Codificador y método para codificar una señal de audio con ruido de fondo reducido que utiliza codificación predictiva lineal Active ES2769061T3 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP15186901 2015-09-25
EP16175469 2016-06-21
PCT/EP2016/072701 WO2017050972A1 (en) 2015-09-25 2016-09-23 Encoder and method for encoding an audio signal with reduced background noise using linear predictive coding

Publications (1)

Publication Number Publication Date
ES2769061T3 true ES2769061T3 (es) 2020-06-24

Family

ID=56990444

Family Applications (1)

Application Number Title Priority Date Filing Date
ES16770500T Active ES2769061T3 (es) 2015-09-25 2016-09-23 Codificador y método para codificar una señal de audio con ruido de fondo reducido que utiliza codificación predictiva lineal

Country Status (11)

Country Link
US (1) US10692510B2 (es)
EP (1) EP3353783B1 (es)
JP (1) JP6654237B2 (es)
KR (1) KR102152004B1 (es)
CN (1) CN108352166B (es)
BR (1) BR112018005910B1 (es)
CA (1) CA2998689C (es)
ES (1) ES2769061T3 (es)
MX (1) MX2018003529A (es)
RU (1) RU2712125C2 (es)
WO (1) WO2017050972A1 (es)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3324407A1 (en) * 2016-11-17 2018-05-23 Fraunhofer Gesellschaft zur Förderung der Angewand Apparatus and method for decomposing an audio signal using a ratio as a separation characteristic
EP3324406A1 (en) 2016-11-17 2018-05-23 Fraunhofer Gesellschaft zur Förderung der Angewand Apparatus and method for decomposing an audio signal using a variable threshold
US11176954B2 (en) * 2017-04-10 2021-11-16 Nokia Technologies Oy Encoding and decoding of multichannel or stereo audio signals
EP3742391A1 (en) 2018-03-29 2020-11-25 Leica Microsystems CMS GmbH Apparatus and computer-implemented method using baseline estimation and half-quadratic minimization for the deblurring of images
US10741192B2 (en) * 2018-05-07 2020-08-11 Qualcomm Incorporated Split-domain speech signal enhancement
EP3671739A1 (en) * 2018-12-21 2020-06-24 FRAUNHOFER-GESELLSCHAFT zur Förderung der angewandten Forschung e.V. Apparatus and method for source separation using an estimation and control of sound quality
CN113287167A (zh) * 2019-01-03 2021-08-20 杜比国际公司 用于混合语音合成的方法、设备及系统
US11195540B2 (en) * 2019-01-28 2021-12-07 Cirrus Logic, Inc. Methods and apparatus for an adaptive blocking matrix
CN110455530B (zh) * 2019-09-18 2021-08-31 福州大学 谱峭度结合卷积神经网络的风机齿轮箱复合故障诊断方法
CN111986686B (zh) * 2020-07-09 2023-01-03 厦门快商通科技股份有限公司 短时语音信噪比估算方法、装置、设备及存储介质
CN113409810B (zh) * 2021-08-19 2021-10-29 成都启英泰伦科技有限公司 一种联合去混响的回声消除方法

Family Cites Families (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5173941A (en) * 1991-05-31 1992-12-22 Motorola, Inc. Reduced codebook search arrangement for CELP vocoders
US5307460A (en) * 1992-02-14 1994-04-26 Hughes Aircraft Company Method and apparatus for determining the excitation signal in VSELP coders
JP3626492B2 (ja) * 1993-07-07 2005-03-09 ポリコム・インコーポレイテッド 会話の品質向上のための背景雑音の低減
US5590242A (en) * 1994-03-24 1996-12-31 Lucent Technologies Inc. Signal bias removal for robust telephone speech recognition
US6001131A (en) * 1995-02-24 1999-12-14 Nynex Science & Technology, Inc. Automatic target noise cancellation for speech enhancement
US6263307B1 (en) * 1995-04-19 2001-07-17 Texas Instruments Incorporated Adaptive weiner filtering using line spectral frequencies
US5706395A (en) * 1995-04-19 1998-01-06 Texas Instruments Incorporated Adaptive weiner filtering using a dynamic suppression factor
CA2206652A1 (en) * 1996-06-04 1997-12-04 Claude Laflamme Baud-rate-independent asvd transmission built around g.729 speech-coding standard
US6757395B1 (en) * 2000-01-12 2004-06-29 Sonic Innovations, Inc. Noise reduction apparatus and method
JP2002175100A (ja) * 2000-12-08 2002-06-21 Matsushita Electric Ind Co Ltd 適応型雑音抑圧音声符号化装置
US6915264B2 (en) * 2001-02-22 2005-07-05 Lucent Technologies Inc. Cochlear filter bank structure for determining masked thresholds for use in perceptual audio coding
DE60120233D1 (de) * 2001-06-11 2006-07-06 Lear Automotive Eeds Spain Verfahren und system zum unterdrücken von echos und geräuschen in umgebungen unter variablen akustischen und stark rückgekoppelten bedingungen
JP4506039B2 (ja) * 2001-06-15 2010-07-21 ソニー株式会社 符号化装置及び方法、復号装置及び方法、並びに符号化プログラム及び復号プログラム
US7065486B1 (en) * 2002-04-11 2006-06-20 Mindspeed Technologies, Inc. Linear prediction based noise suppression
US7043423B2 (en) * 2002-07-16 2006-05-09 Dolby Laboratories Licensing Corporation Low bit-rate audio coding systems and methods that use expanding quantizers with arithmetic coding
CN1458646A (zh) * 2003-04-21 2003-11-26 北京阜国数字技术有限公司 一种滤波参数矢量量化和结合量化模型预测的音频编码方法
US7516067B2 (en) * 2003-08-25 2009-04-07 Microsoft Corporation Method and apparatus using harmonic-model-based front end for robust speech recognition
CN101124626B (zh) * 2004-09-17 2011-07-06 皇家飞利浦电子股份有限公司 用于最小化感知失真的组合音频编码
ATE405925T1 (de) * 2004-09-23 2008-09-15 Harman Becker Automotive Sys Mehrkanalige adaptive sprachsignalverarbeitung mit rauschunterdrückung
US8949120B1 (en) * 2006-05-25 2015-02-03 Audience, Inc. Adaptive noise cancelation
US8700387B2 (en) * 2006-09-14 2014-04-15 Nvidia Corporation Method and system for efficient transcoding of audio data
EP1944761A1 (en) * 2007-01-15 2008-07-16 Siemens Networks GmbH & Co. KG Disturbance reduction in digital signal processing
US8060363B2 (en) * 2007-02-13 2011-11-15 Nokia Corporation Audio signal encoding
BRPI0722269A2 (pt) * 2007-11-06 2014-04-22 Nokia Corp Encodificador para encodificar um sinal de áudio, método para encodificar um sinal de áudio; decodificador para decodificar um sinal de áudio; método para decodificar um sinal de áudio; aparelho; dispositivo eletrônico; produto de programa de comoputador configurado para realizar um método para encodificar e para decodificar um sinal de áudio
EP2154911A1 (en) * 2008-08-13 2010-02-17 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. An apparatus for determining a spatial output multi-channel audio signal
GB2466671B (en) * 2009-01-06 2013-03-27 Skype Speech encoding
EP2458586A1 (en) * 2010-11-24 2012-05-30 Koninklijke Philips Electronics N.V. System and method for producing an audio signal
EP2676264B1 (en) * 2011-02-14 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoder estimating background noise during active phases
US9208796B2 (en) * 2011-08-22 2015-12-08 Genband Us Llc Estimation of speech energy based on code excited linear prediction (CELP) parameters extracted from a partially-decoded CELP-encoded bit stream and applications of same
US9406307B2 (en) * 2012-08-19 2016-08-02 The Regents Of The University Of California Method and apparatus for polyphonic audio signal prediction in coding and networking systems
US9263054B2 (en) * 2013-02-21 2016-02-16 Qualcomm Incorporated Systems and methods for controlling an average encoding rate for speech signal encoding
US9520138B2 (en) * 2013-03-15 2016-12-13 Broadcom Corporation Adaptive modulation filtering for spectral feature enhancement
SG11201510353RA (en) * 2013-06-21 2016-01-28 Fraunhofer Ges Forschung Apparatus and method realizing a fading of an mdct spectrum to white noise prior to fdns application
US9538297B2 (en) * 2013-11-07 2017-01-03 The Board Of Regents Of The University Of Texas System Enhancement of reverberant speech by binary mask estimation
GB201617016D0 (en) * 2016-09-09 2016-11-23 Continental automotive systems inc Robust noise estimation for speech enhancement in variable noise conditions

Also Published As

Publication number Publication date
EP3353783A1 (en) 2018-08-01
JP2018528480A (ja) 2018-09-27
BR112018005910A2 (pt) 2018-10-16
WO2017050972A1 (en) 2017-03-30
RU2712125C2 (ru) 2020-01-24
KR20180054823A (ko) 2018-05-24
CA2998689A1 (en) 2017-03-30
MX2018003529A (es) 2018-08-01
RU2018115191A3 (es) 2019-10-25
RU2018115191A (ru) 2019-10-25
CA2998689C (en) 2021-10-26
BR112018005910B1 (pt) 2023-10-10
EP3353783B1 (en) 2019-12-11
JP6654237B2 (ja) 2020-02-26
KR102152004B1 (ko) 2020-10-27
US10692510B2 (en) 2020-06-23
CN108352166B (zh) 2022-10-28
CN108352166A (zh) 2018-07-31
US20180204580A1 (en) 2018-07-19

Similar Documents

Publication Publication Date Title
ES2769061T3 (es) Codificador y método para codificar una señal de audio con ruido de fondo reducido que utiliza codificación predictiva lineal
KR101871644B1 (ko) 적응적 대역폭 확장 및 그것을 위한 장치
ES2705589T3 (es) Sistemas, procedimientos y aparatos para el suavizado del factor de ganancia
TWI455114B (zh) 多模式音訊編解碼器及其適用碼簿激發線性預測編碼技術
RU2414010C2 (ru) Трансформация шкалы времени кадров в широкополосном вокодере
KR101698905B1 (ko) 정렬된 예견 부를 사용하여 오디오 신호를 인코딩하고 디코딩하기 위한 장치 및 방법
ES2656022T3 (es) Detección y codificación de altura tonal muy débil
JP2013528836A (ja) 広帯域音声コーディングのためのシステム、方法、装置、およびコンピュータプログラム製品
KR102007972B1 (ko) 스피치 처리를 위한 무성음/유성음 결정
JP2016510134A (ja) 潜在的なフレームの不安定性を軽減するためのシステムおよび方法
JP7123134B2 (ja) デコーダにおけるノイズ減衰
Grancharov et al. On causal algorithms for speech enhancement
CN105765653B (zh) 自适应高通后滤波器
RU2636126C2 (ru) Устройство для кодирования речевого сигнала с использованием acelp в автокорреляционной области
EP2608200B1 (en) Estimation of speech energy based on code excited linear prediction (CELP) parameters extracted from a partially-decoded CELP-encoded bit stream
ES2663013T3 (es) Sistemas y procedimientos para determinar un conjunto de factores de interpolación
CN107710324B (zh) 音频编码器和用于对音频信号进行编码的方法
AU2014280256B2 (en) Apparatus and method for audio signal envelope encoding, processing and decoding by splitting the audio signal envelope employing distribution quantization and coding
Fischer et al. Joint Enhancement and Coding of Speech by Incorporating Wiener Filtering in a CELP Codec.
Fischer Contributions to speech and audio coding for single-and multi-device scenarios
RU2574849C2 (ru) Устройство и способ для кодирования и декодирования аудиосигнала с использованием выровненной части опережающего просмотра
ES2963367T3 (es) Aparato y procedimiento de decodificación de una señal de audio usando una parte de anticipación alineada
Fapi et al. Noise reduction within network through modification of LPC parameters
Baghaki Single-Microphone Speech Dereverberation based on Multiple-Step Linear Predictive Inverse Filtering and Spectral Subtraction
Bao et al. Speech enhancement based on a novel weighting spectral distortion measure