ES2758799T3 - Método y aparato para codificar y decodificar una señal de audio y programas informáticos - Google Patents

Método y aparato para codificar y decodificar una señal de audio y programas informáticos Download PDF

Info

Publication number
ES2758799T3
ES2758799T3 ES11180983T ES11180983T ES2758799T3 ES 2758799 T3 ES2758799 T3 ES 2758799T3 ES 11180983 T ES11180983 T ES 11180983T ES 11180983 T ES11180983 T ES 11180983T ES 2758799 T3 ES2758799 T3 ES 2758799T3
Authority
ES
Spain
Prior art keywords
time
audio signal
signal
audio
harmonic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES11180983T
Other languages
English (en)
Inventor
Stefan Bayer
Sascha Disch
Ralf Geiger
Max Neuendorf
Gerald Schuller
Guillaume Fuchs
Bernd Edler
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Original Assignee
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV filed Critical Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Application granted granted Critical
Publication of ES2758799T3 publication Critical patent/ES2758799T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/002Dynamic bit allocation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/022Blocking, i.e. grouping of samples in time; Choice of analysis windows; Overlap factoring
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/028Noise substitution, i.e. substituting non-tonal spectral components by noisy source
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/03Spectral prediction for preventing pre-echo; Temporary noise shaping [TNS], e.g. in MPEG2 or MPEG4
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/032Quantisation or dequantisation of spectral components
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/26Pre-filtering or post-filtering
    • G10L19/265Pre-filtering, e.g. high frequency emphasis prior to encoding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/04Time compression or expansion
    • G10L21/043Time compression or expansion by changing speed
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/90Pitch determination of speech signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/022Blocking, i.e. grouping of samples in time; Choice of analysis windows; Overlap factoring
    • G10L19/025Detection of transients or attacks for time/frequency resolution switching
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/10Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a multipulse excitation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/04Time compression or expansion
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals

Abstract

Codificador de audio para codificar una señal de audio, que comprende: un distorsionador (506) de tiempo; un convertidor (508) de tiempo-frecuencia para llevar a cabo una conversión de tiempo/frecuencia de una señal de audio distorsionada en tiempo en una representación espectral; un cuantificador (512) para cuantificar valores de audio, en donde el cuantificador está configurado para cuantificar a valores de audio cero por debajo de un umbral de cuantificación; un calculador (524) de relleno de ruido para estimar una medida de una energía de valores de audio cuantificados a cero durante un marco de tiempo de la señal de audio para obtener una medida de relleno de ruido; un analizador (516) de señal de audio para analizar si el marco de tiempo de la señal de audio tiene una característica armónica o de expresión; en donde el analizador (516) de señal de audio provee una información de la distorsión de tiempo en la salida (518), que está conectada al distorsionador (506) de tiempo; un manipulador (602) para manipular la medida de relleno de ruido dependiendo de una característica armónica o de expresión de la señal de audio para obtener una medida de relleno de ruido manipulada; y una interfaz (522) de salida para generar una señal codificada para transmisión o almacenamiento, la señal codificada comprendiendo la medida (530) de relleno de ruido manipulada; en donde el manipulador (602) está configurado para aplicar un nivel de ruido normal cuando la señal no tiene una característica armónica o de expresión y cuando no se aplica distorsión de tiempo, y para manipular el nivel de relleno de ruido para que sea inferior que en el caso normal cuando un contorno de tono se encontró por el analizador de señal de audio, que indica un contenido armónico, y la distorsión de tiempo está activa.

Description

DESCRIPCIÓN
Método y aparato para codificar y decodificar una señal de audio y programas informáticos
La presente invención se refiere a codificación y decodificación de audio y específicamente a la codificación/decodificación de la señal de audio que tiene un contenido armónico o de expresión, el cual se puede someter a un procesamiento de distorsión (warp) de tiempo.
A continuación, se dará una breve introducción al campo de la codificación de audio distorsionado en el tiempo, cuyos conceptos se pueden aplicar en conjunto con algunas de las realizaciones de la invención.
En los últimos años, se han desarrollado técnicas para transformar una señal de audio en una representación de dominio de frecuencia, y para codificar con eficiencia esta representación de dominio de frecuencia, por ejemplo tomando en cuenta umbrales de enmascaramiento perceptual. Este concepto de codificación de señal de audio es particularmente eficiente si la longitud del bloque, para el cual se transmite un conjunto de coeficientes espectrales codificados, es larga, y si sólo un número relativamente pequeño de coeficientes espectrales están bien por encima del umbral de enmascaramiento global mientras que un gran número de coeficientes espectrales está cerca o por debajo del umbral de enmascaramiento global y de este modo puede ser insignificante (o codificado dentro de la longitud de código mínima).
Por ejemplo, las transformadas del tipo lapped moduladas por seno o coseno a menudo se utilizan en aplicaciones para codificación de fuente debido a sus propiedades de compactación de energía. Es decir, para tonos armónicos con frecuencias fundamentales constantes (tono), éstas concentran la energía de señal hasta una número bajo de componentes espectrales (sub-bandas), lo cual conduce a una representación de señal eficiente.
En general, el tono (fundamental) de una señal se entenderá como la frecuencia dominante más baja que se distingue del espectro de la señal. En el modelo de expresión común, el tono es la frecuencia de la señal de excitación modulada por la garganta humana. Si solo una frecuencia fundamental simple estuviera presente, el espectro sería extremadamente simple, comprendiendo la frecuencia fundamental y los sobretonos únicamente. Un espectro de este tipo podría codificarse en forma muy eficiente. Para señales con tono variable, sin embargo, la energía correspondiente a cada componente armónico se dispersa sobre varios coeficientes de transformación, conduciendo de este modo a una reducción de la eficiencia de codificación.
A fin de solucionar esta reducción de la eficiencia de codificación, la señal de audio a ser codificada se re-muestrea en forma eficaz sobre una grilla temporal no uniforme. En el procesamiento subsiguiente, las posiciones de muestra obtenidas por el re-muestreado no uniforme se procesan como si representaran los valores sobre una grilla temporal uniforme. Esta operación normalmente se denota por la frase “distorsión de tiempo”. Los tiempos de muestra se pueden elegir en forma ventajosa dependiendo de la variante temporal del tono, de modo que una variante de tono en la versión de tiempo distorsionado de la señal de audio es más pequeña que una variante de tono en la versión original de la señal de audio (antes de la distorsión de tiempo). Esta variante detono además puede denotarse con la frase “contorno de distorsión de tiempo”. Después de la distorsión de tiempo de la señal de audio, la versión distorsionada de tiempo de la señal de audio se convierte en el dominio de frecuencia. La distorsión de tiempo que depende del tono tiene el efecto de que la representación de dominio de frecuencia de la señal de audio distorsionada en el tiempo exhibe típicamente una compactación de energía en un número mucho más pequeño de componentes espectrales que una representación de dominio de frecuencia de la señal de audio original (sin distorsión de tiempo).
En el lado del decodificador, la representación de dominio de frecuencia de la señal de audio distorsionada en el tiempo se retro convierte al dominio de tiempo, de modo que una representación de dominio de tiempo de la señal de audio distorsionada en el tiempo está disponible en el lado del decodificador. Sin embargo, en la representación de dominio de tiempo de la señal de audio distorsionada en el tiempo reconstruida en el lado del decodificador, las variantes del tono original de la señal de audio de entrada por el lado del decodificador no se incluyen. En consecuencia, incluso se aplica otra distorsión de tiempo por el re-muestreado de la representación del dominio del tiempo reconstruido en el lado del decodificador de la señal de audio distorsionada en el tiempo. A fin de obtener una buena reconstrucción de la señal de audio de entrada por el lado del decodificador en el decodificador, se desea que la distorsión de tiempo del lado del decodificador sea al menos aproximadamente la operación inversa con respecto a la distorsión de tiempo del lado del decodificador. A fin de obtener una distorsión de tiempo apropiada, se desea tener información disponible en el decodificador lo cual permite un ajuste de la distorsión de tiempo en el lado del decodificador.
Dado que típicamente se requiere transferir este tipo de información desde el codificador de señal de audio al decodificador de señal de audio, se desea mantener una pequeña velocidad de bits requerida para esta transmisión mientras aún se permite una reconstrucción confiable de la información de distorsión de tiempo requerida en el lado del decodificador.
Un ejemplo de un proceso de codificación se proporciona en el documento WO 2006/113921 A1.
En vista de la descripción anterior, existe el deseo de crear un concepto el cual permita una aplicación de velocidad de bits eficiente del concepto de distorsión de tiempo en un codificador de audio.
Es el objetivo de algunos ejemplos de comparación crear conceptos para mejorar la impresión del oído provista por una señal de audio codificada sobre la base de información disponible in un codificador de señal de audio de distorsión de tiempo o un decodificador de señal de audio de distorsión de tiempo.
Este objetivo se logra mediante un proveedor de la señal de activación de distorsión de tiempo para aportar una señal de activación de distorsión de tiempo sobre la base de una representación de una señal de audio tal como se describe a continuación, un codificador de señal de audio para codificar una señal de audio de entrada tal como se describe a continuación, un método para proveer una señal de activación de distorsión de tiempo tal como se describe a continuación, un método para proveer una representación codificada de una señal de audio de entrada tal como se describe a continuación, o un programa informático tal como se describe a continuación.
Es otro objetivo de la presente invención proveer un esquema de codificación/decodificación de audio mejorado, el cual provee una velocidad de bits más baja o de calidad superior
Este objetivo se obtiene mediante un codificador de audio de acuerdo con la reivindicación 1, un decodificador de audio de acuerdo con la reivindicación 3, un método de codificación de audio de acuerdo con la reivindicación 4, un método de decodificación de acuerdo con la reivindicación 5, o un programa informático de acuerdo con la reivindicación 6.
Todos las siguientes apariciones de la palabra "realización (es)", si se refiere a combinaciones de características que no comprenden todas las características definidas por las reivindicaciones independientes adjuntas, se refieren a ejemplos que se presentaron originalmente pero que no representan realizaciones de la invención reivindicada actualmente.
A continuación se describen realizaciones preferidas con respecto a los dibujos adjuntos, en los cuales:
La figura 1 muestra un diagrama esquemático en bloque de un proveedor de la señal de activación de distorsión de tiempo, de acuerdo con un ejemplo de comparación;
La figura 2a muestra un diagrama esquemático en bloque de un codificador de señal de audio, de acuerdo con un ejemplo de comparación;
La figura 2b muestra otro diagrama esquemático en bloque de un proveedor de la señal de activación de distorsión de tiempo de acuerdo con un ejemplo de comparación;
La figura 3a muestra una representación gráfica de un espectro de una versión sin distorsión de tiempo de una señal de audio;
La figura 3b muestra una representación gráfica de un espectro de una versión de distorsión de tiempo de la señal de audio;
La figura 3c muestra una representación gráfica de un cálculo individual de medidas de planicidad espectral para diferentes bandas de frecuencia;
La figura 3d muestra una representación gráfica de un cálculo de una medida de planicidad espectral que considera únicamente la porción de frecuencia más alta del espectro;
La figura 3e muestra una representación gráfica de un cálculo de una medida de planicidad espectral que utiliza una representación espectral en la cual se enfatiza una porción de frecuencia más alta sobre una porción de frecuencia más baja;
La figura 3f muestra un diagrama esquemático en bloque de un proveedor de información de compactación de energía, de acuerdo con un ejemplo de comparación;
La figura 3g muestra una representación gráfica de una señal de audio que tiene un tono temporalmente variable en el dominio de tiempo;
La figura 3h muestra una representación gráfica de una versión de distorsión de tiempo (remuestreada no-uniforme) de la señal de audio de la figura 3g;
La figura 3i muestra una representación gráfica de una función de autocorrelación de la señal de audio de acuerdo con la figura 3g;
La figura 3j muestra una representación gráfica de una función de autocorrelación de la señal de audio de acuerdo con la figura 3h;
La figura 3k muestra un diagrama esquemático en bloque de un proveedor de información de compactación de energía, de acuerdo con un ejemplo de comparación;
La figura 4a muestra un diagrama de flujo de un método para proveer una señal de activación de distorsión de tiempo sobre la base de una señal de audio, de acuerdo con un ejemplo de comparación;
La figura 4b muestra un diagrama de flujo de un método para codificar una señal de audio de entrada para obtener una representación codificada de la señal de audio de entrada, de acuerdo con un ejemplo de comparación;
La figura 5a ilustra una realización preferida de un codificador de audio con aspectos de la invención;
La figura 5b ilustra una realización preferida de un decodificador de audio con aspectos de la invención;
La figura 6a ilustra una realización preferida del aspecto de relleno de ruido de la presente invención;
La figura 6b ilustra una tabla que define la función de control llevada a cabo por el manipulador de nivel de relleno de ruido;
La figura 7a ilustra una realización preferida para llevar a cabo un cambio de bloque basado en la distorsión de tiempo de acuerdo con un ejemplo de comparación;
La figura 7b ilustra una realización alternativa para influir en la función de generación de ventanas;
La figura 7c ilustra otra realización alternativa para ilustrar la función de generación de ventanas en base a la información de distorsión de tiempo;
La figura 7d ilustra una secuencia de generación de ventanas de un comportamiento de AAC normal en un inicio sonoro;
La figura 7e ilustra secuencias de ventanas alternativas de acuerdo con una realización preferida de acuerdo con un ejemplo de comparación;
La figura 8a ilustra una realización preferida de un control en base a la distorsión de tiempo de la herramienta de TNS (formato de ruido temporal) de acuerdo con un ejemplo de comparación;
La figura 8b ilustra una tabla que define los procedimientos de control realizados en el generador de la señal del control de umbral en la figura 8a;
La figura 9a-9e ilustra diferentes características de distorsión de tiempo y la correspondiente influencia sobre el ancho de banda de la señal de audio que se produce a continuación de una función de regeneración de tiempo del lado del decodificador;
La figura 10a ilustra una realización preferida de un controlador para controlar el número de líneas dentro de un procesador de codificación, de acuerdo con un ejemplo de comparación;
La figura 10b ilustra la dependencia entre el número de líneas a ser descartadas/agregadas para una velocidad de muestreo;
La figura 11 ilustra una comparación entre una escala de tiempo lineal y una escala de tiempo distorsionado;
La figura 12a ilustra una implementación en el contexto de la extensión del ancho de banda; y
La figura 12b ilustra una tabla que muestra la dependencia entre la velocidad de muestreo local en el dominio de distorsión de tiempo y el control de coeficientes espectrales.
La figura 1 muestra un diagrama esquemático en bloque del proveedor de la señal de activación de distorsión de tiempo, de acuerdo con una realización de la invención. El proveedor de la señal 100 de activación de distorsión de tiempo está configurado para recibir una representación 110 de una señal de audio y proveer, sobre la base del mismo, una señal 112 de activación de distorsión de tiempo. El proveedor de la señal 100 de activación de distorsión de tiempo comprende un proveedor 120 de información de compactación de energía, el cual está configurado para proveer una información 122 de compactación de energía, que describe una compactación de energía en una representación del espectro transformado por la distorsión de tiempo de la señal de audio. El proveedor de la señal 100 de activación de distorsión de tiempo además comprende un comparador 130 configurado para comparar la información 122 de compactación de energía con un valor 132 de referencia, y proveer la señal 112 de activación de distorsión de tiempo con dependencia del resultado de la comparación.
Como se mencionó anteriormente, se ha hallado que la información de compactación de energía es una información valiosa la cual permite si una distorsión de tiempo otorga un almacenamiento de bits o no. Se ha hallado que la presencia de almacenamiento de bits está íntimamente correlacionada con la cuestión si la distorsión de tiempo da por resultado una compactación de energía o no.
La figura 2a muestra un diagrama esquemático en bloque de un codificador 200 de señal de audio, de acuerdo con una realización de la invención. El codificador 200 de señal de audio está configurado para recibir una señal 210 de audio de entrada (además designada para a(t)) y proveer, sobre la base del mismo, una representación 212 codificada de la señal 210 de audio de entrada. El codificador 200 de señal de audio comprende un transformador 220 de distorsión de tiempo, el cual está configurado para recibir la señal 210 de audio de entrada (la cual puede estar representada en un dominio de tiempo) y proveer, sobre la base del mismo, una representación 222 espectral transformada por la distorsión de tiempo de la señal 210 de audio de entrada.
El codificador 200 de señal de audio además comprende un analizador 284 de distorsión de tiempo, el cual está configurado para analizar la señal 210 de audio de entrada y proveer, sobre la base del mismo, una información del contorno de distorsión de tiempo (por ej. información 286 absoluta o relativa del contorno de distorsión de tiempo).
El codificador 200 de señal de audio además comprende un mecanismo de cambio, por ejemplo en la forma de un cambio 240 controlado, para decidir respecto si la información 286 hallada del contorno de distorsión de tiempo o una información 288 estándar del contorno de distorsión de tiempo se utiliza para otro procesamiento. De este modo, el mecanismo 240 de cambio está configurado para proveer en forma selectiva, con dependencia de una información de activación de distorsión de tiempo, ya sea la información 286 hallada del contorno de distorsión de tiempo o una información 288 estándar del contorno de distorsión de tiempo como información 242 nueva del contorno de distorsión de tiempo, para un posterior procesamiento, por ejemplo para un transformador 220 de distorsión de tiempo. Debe observarse, que un transformador 220 de distorsión de tiempo puede utilizar por ejemplo la nueva información 242 del contorno de distorsión de tiempo (por ejemplo una nueva porción de contorno de distorsión de tiempo) y, además, una información de distorsión de tiempo previamente obtenida (por ejemplo una o más porciones de contorno de distorsión de tiempo previamente obtenidas) para la distorsión de tiempo de un marco de audio. El pos-procesamiento del espectro opcional puede comprender por ejemplo un formato de ruido temporal y/o un análisis de relleno de ruido. El codificador 200 de señal de audio además comprende un cuantificador/codificador 260, el cual está configurado para recibir la representación 222 espectral (opcionalmente procesada por el pos 250 procesamiento del espectro) y para cuantificar y codificar la representación espectral transformada 222. A este fin, el cuantificador/codificador 260 puede ser acoplado con un modelo perceptual 270 y recibir una información 272 de relevancia perceptual desde el modelo 270 perceptual, para considerar un enmascaramiento perceptual y ajustar las precisiones de cuantificación en diferentes cajas de frecuencia de acuerdo con la percepción humana. El codificador 200 de señal de audio además comprende una interfaz de salida 280 la cual está configurada para proveer la representación 212 codificada de la señal de audio sobre la base de la representación 262 cuantificada y codificada suministrada por el cuantificador/codificador 260.
El codificador 200 de señal de audio además comprende un proveedor 230 de la señal de activación de distorsión de tiempo, el cual está configurado para proveer una señal 232 de activación de distorsión de tiempo. La señal 232 de activación de distorsión de tiempo, por ejemplo, se puede utilizar para controlar el mecanismo 240 de cambio, para decidir respecto si la información 286 del contorno de distorsión de tiempo recientemente hallada o una información 288 estándar del contorno de distorsión de tiempo se utiliza en otros pasos de procesamiento (por ejemplo por un transformador 220 de distorsión de tiempo). Además, la información 232 de activación de distorsión de tiempo se puede utilizar en un contacto 280 para decidir respecto si información 242 del contorno de distorsión de tiempo nueva seleccionada (seleccionada de la información 286 del contorno de distorsión de tiempo recientemente hallada y la información estándar del contorno de distorsión de tiempo) está incluida en la representación 212 codificada de la señal 210 de audio de entrada. Típicamente, la información del contorno de distorsión de tiempo sólo se incluye en la representación 212 codificada de la señal de audio si la información del contorno de distorsión de tiempo seleccionada describe un contorno de distorsión de tiempo no constante (variable). Además, la información 232 de la activación de la distorsión de tiempo puede en si misma estar incluida en la representación 212 codificada, por ejemplo en la forma de una marca de un bit que indica la activación o desactivación de la distorsión de tiempo.
A fin de facilitar el entendimiento, debe observarse que un transformador 220 de distorsión de tiempo típicamente comprende una ventana 220a de análisis, un remuestreador o “distorsionador 220b de tiempo” (time warper) y un transformador 220c de dominio espectral (o convertidor de tiempo/frecuencia). Dependiendo de la implementación, sin embargo, el distorsionador 220b de tiempo puede ser colocado - en una dirección de procesamiento de señal -antes de la ventana 220a de análisis. Sin embargo, la distorsión de tiempo y el dominio de tiempo para la transformación del dominio espectral pueden combinarse en una sola unidad en algunas realizaciones.
A continuación se describirán los detalles con relación al funcionamiento del proveedor 230 de la señal de activación de distorsión de tiempo. Debe observarse que el proveedor 230 de la señal de activación de distorsión de tiempo puede ser equivalente al proveedor de la señal 100 de activación de distorsión de tiempo.
El proveedor 230 de la señal de activación de distorsión de tiempo está configurado con preferencia para recibir la representación 210 de la señal de audio del dominio de tiempo (además designado con a(t)), la información 286 del contorno de distorsión de tiempo recientemente hallada, y la información 288 estándar del contorno de distorsión de tiempo. El proveedor 230 de la señal de activación de distorsión de tiempo está además configurado para obtener, utilizando la señal 210 de audio del dominio de tiempo, la información 286 del contorno de distorsión de tiempo recientemente hallada y la información 288 estándar del contorno de distorsión de tiempo, una información de compactación de energía que describe una compactación de energía debido a la información 286 del contorno de distorsión de tiempo recientemente hallada, y proveer la señal 232 de activación de distorsión de tiempo sobre la base de esta información de compactación de energía.
La figura 2b muestra un diagrama esquemático en bloque de un proveedor 234 de la señal de activación de distorsión de tiempo, de acuerdo con una realización de la invención. El proveedor 234 de la señal de activación de distorsión de tiempo puede tomar la función del proveedor 230 de la señal de activación de distorsión de tiempo en algunas realizaciones. El proveedor 234 de la señal de activación de distorsión de tiempo está configurado para recibir una señal 210 de audio de entrada, y dos informaciones 286 y 288 del contorno de distorsión de tiempo, y proveer, sobre la base del mismo, una señal 234p de activación de distorsión de tiempo. La señal 234p de activación de distorsión de tiempo puede tomar la función de la señal 232 de activación de distorsión de tiempo. El proveedor de la señal de activación de distorsión de tiempo comprende dos proveedores 234a, 234g de la representación de la distorsión de tiempo idénticos, los cuales están configurados para recibir la señal 210 de audio de entrada y la información 286 y 288 del contorno de distorsión de tiempo respectivamente y proveer, sobre la base del mismo, dos representaciones 234e y 234k de distorsión de tiempo, respectivamente. El proveedor 234 de la señal de activación de distorsión de tiempo además comprende dos proveedores 234f y 234l de información de compactación de energía idénticos, los cuales están configurados para recibir las representaciones 234e y 234k de distorsión de tiempo, respectivamente, y, sobre la base del mismo, proveer la información 234m y 234n de compactación de energía, respectivamente. El proveedor de la señal de activación de distorsión de tiempo además comprende un comparador 234o, configurado para recibir la información 234m y 234n de compactación de energía, y, sobre la base del mismo proveer la señal 234p de activación de distorsión de tiempo.
A fin de facilitar el entendimiento, debe observarse que los proveedores 234a y 234g de representación de la distorsión de tiempo típicamente comprenden (opcional) idénticas ventanas 234b y 234h de análisis, idénticos 234c y 234i remuestreadores o distorsionadores de tiempo, y (opcional) idénticos transformadores 234d y 234j del dominio espectral.
A continuación, se mencionarán diferentes conceptos para obtener la información de compactación de energía. De antemano, se dará una introducción que explica el efecto de distorsión de tiempo sobre una señal de audio típica. A continuación, el efecto de distorsión de tiempo sobre una señal de audio se describirá tomando como referencia las figuras 3a y 3b. La figura 3a muestra una representación gráfica de un espectro de una señal de audio. Una abscisa 301 describe una frecuencia 302 y una ordenada describe la intensidad de la señal de audio. Una curva 303 describe la intensidad de la señal de audio sin distorsión de tiempo como una función de la frecuencia f.
La figura 3b muestra una representación gráfica de un espectro de una versión de distorsión de tiempo de la señal de audio representada en la figura 3a. Nuevamente, una abscisa 306 describe una frecuencia y una ordenada 307 describe la intensidad de la versión distorsionada de la señal de audio. Una curva 308 describe la intensidad de la versión de la distorsión de tiempo de la señal de audio sobre la frecuencia. Como puede observarse a partir de una comparación de la representación gráfica de las figuras 3a y 3b, la versión sin distorsión de tiempo de la señal de audio comprende un espectro embarrado, en particular en una región de frecuencia más alta. A diferencia, la versión de la distorsión de tiempo de la señal de audio de entrada comprende un espectro que tiene picos espectrales claramente distinguibles, incluso en la región de frecuencia más alta. Además, un moderado afilado de los picos espectrales incluso puede observarse en la región espectral más baja de la versión de la distorsión de tiempo de la señal de audio de entrada.
Debe observarse que el espectro de la versión de la distorsión de tiempo de la señal de audio de entrada, el cual se muestra en la figura 3b, puede cuantificarse y codificarse, por ejemplo mediante el cuantificador/codificador 260, con una velocidad de bits más baja que el espectro de la señal de audio de entrada sin distorsionar en la figura 3a. Esto se debe al hecho de que un espectro embarrado típicamente comprende un gran número de coeficientes espectrales perceptualmente relevantes (es decir un número relativamente pequeño de coeficientes espectrales cuantificados en cero o cuantificados a valores pequeños), mientras que un espectro “menos plano” como se muestra en la figura 3 típicamente comprende un mayor número de coeficientes espectrales cuantificado en cero o cuantificados a valores pequeños. Los coeficientes espectrales cuantificados en cero o cuantificados a valores pequeños se pueden codificar con menos bits que los coeficientes espectrales cuantificados a valores superiores, de modo que el espectro de la figura 3b puede ser codificado utilizando menos bits que el espectro de la figura 3a. No obstante, debe observarse además que el uso de una distorsión de tiempo no siempre da por resultado una mejora significativa de la eficiencia de codificación de la señal de distorsión de tiempo. En consecuencia, en algunos casos, el precio, en términos de velocidad de bits, requerido para la codificación de la información de distorsión de tiempo (por ej. contorno de distorsión de tiempo) puede exceder los salvados, en términos de velocidad de bits, para codificar el espectro transformado por la distorsión de tiempo (cuando se compara con el espectro transformado sin distorsión de tiempo). En este caso, es preferible proveer la representación codificada de la señal de audio utilizando un contorno de distorsión de tiempo estándar (no-variable) para controlar la transformación de la distorsión de tiempo. En consecuencia, la transmisión de cualquier información de distorsión de tiempo (es decir, información del contorno de distorsión de tiempo) se puede omitir (salvo una marca que indica la desactivación de la distorsión de tiempo), manteniendo de este modo la velocidad de bits baja.
A continuación, diferentes conceptos para un cálculo confiable y eficiente a nivel computacional de una señal 112, 232, 234p de activación de distorsión de tiempo se describirá tomando como referencia las figuras 3c-3k. Sin embargo, antes de eso, el antecedente del concepto de la invención se resumirá brevemente.
La presunción básica es que la aplicación de la distorsión de tiempo sobre una señal armónica con un tono variable hace el tono constante, y al hacer el tono constante mejora la codificación de los espectros obtenidos por una siguiente transformación de la frecuencia de tiempo, porque en lugar del manchado de las diferentes armonías sobre varias cajas espectrales (ver las figuras 3a) sólo un número limitado de líneas significativas permanecen (ver la figura 3b). Sin embargo, incluso cuando se detecta una variante de tono, la mejora en la ganancia de codificación (es decir la cantidad de bits almacenados) puede ser insignificante (por ej. si uno tiene un ruido fuerte subyacente a la señal armónica, o si la variante es tan pequeña que el manchado de las armonías más altas no es un problema), o puede ser inferior a la cantidad de bits necesarios para transferir el contorno de distorsión de tiempo al decodificador, o simplemente puede ser incorrecto. En estos casos, es preferible rechazar el contorno de distorsión de tiempo variable (por ej. 286) producido por un codificador del contorno de distorsión de tiempo y en su lugar utilizar una señalización de un bit eficiente, señalizando un contorno de distorsión de tiempo estándar (no-variable). El alcance de la presente invención comprende la creación de un método para decidir si una porción de contorno de distorsión de tiempo obtenida provee suficiente ganancia de codificación (por ejemplo suficiente ganancia de codificación para compensar el espacio libre inutilizado requerido para la codificación para el contorno de distorsión de tiempo).
Como se estableció anteriormente, el aspecto más importante de la distorsión de tiempo es la compactación de la energía espectral para un número más pequeño de líneas (ver las figuras 3a y 3b). Una mirada a ésta muestra que una compactación de energía además corresponde a un espectro más “sin planicidad” (ver las figuras 3a y 3b), dado que la diferencia entre los picos y los valles del espectro se incrementa. La energía se concentra en menos líneas teniendo las líneas entre aquéllos menos energía que antes.
Las figuras 3a y 3b muestran un ejemplo esquemático con un espectro sin distorsión de un marco con fuertes armonías y variación de tono (figura 3a) y el espectro de la versión de la distorsión de tiempo del mismo marco (figura 3b).
En vista de la situación, se ha hallado que es ventajoso utilizar la medida de planicidad espectral como una medida posible para la eficiencia de la distorsión de tiempo.
La planicidad espectral puede calcularse, por ejemplo, dividiendo el medio geométrico del espectro de potencia por el medio aritmético del espectro de potencia. Por ejemplo, la planicidad espectral (además designada brevemente como “planicidad”) se puede computar de acuerdo con la siguiente ecuación:
Figure imgf000007_0001
En lo anterior, x(n) representa la magnitud de un número binario n. Además, en lo anterior, N representa un número total de cajas espectrales consideradas para el cálculo de la medida de planicidad espectral.
En una realización de la invención, el cálculo mencionado anteriormente de la “planicidad”, el cual puede ser útil como una información de compactación de energía, se puede llevar a cabo utilizando las representaciones 234e, 234k del espectro transformado por la distorsión de tiempo, de modo que se puede sostener la siguiente relación:
x(n) = |x|tw(n).
En este caso, N puede ser igual al número de líneas espectrales provistas por el transformador 234d, 234j de domino espectral y |x |tw (n) es una representación 234e, 234k del espectro transformado de la distorsión de tiempo.
Aunque la medida espectral es una cantidad útil para la provisión de la señal de activación de distorsión de tiempo, una desventaja de la medida de planicidad espectral, al igual que la medida de relación señal a ruido (SNR), es que si se aplica al espectro total, enfatiza partes con energía más alta. Normalmente, los espectros armónicos tienen una cierta inclinación espectral, lo que significa que la mayor parte de la energía se concentra en los primeros pocos tonos parciales y a continuación disminuye con la frecuencia creciente, conduciendo a una sub-representación de los parciales más elevados en la medida. Esto no se desea en algunas realizaciones, dado que es la intención mejorar la calidad de estos parciales más altos, porque se embarran la mayoría de las veces (ver la figura 3a). A continuación, se describirán varios conceptos opcionales para la mejora de la relevancia de la medida de planicidad espectral.
En una realización de acuerdo con la invención, se elige un enfoque similar a la denominada medida de “SNR segmental”, que conduce a una medida de la planicidad espectral banda por banda. Un cálculo de la medida de planicidad espectral se realiza (por ejemplo en forma separada) dentro de un número de bandas, y se toma la principal (o medio). Las diferentes bandas podrían tener igual ancho de banda. Sin embargo, con preferencia, los anchos de banda pueden seguir una escala perceptual, al igual que las bandas críticas, o corresponder, por ejemplo, a las bandas del factor de escala de la denominada "codificación de audio avanzada", además denominada como AAC.
El concepto antes mencionado se explicará brevemente a continuación, tomando como referencia la figura 3c, la cual muestra una representación gráfica de un cálculo individual de medidas de planicidad espectral para diferentes bandas de frecuencia. Como puede observarse, el espectro puede dividirse en diferentes bandas 311, 312, 313 de frecuencia, las cuales pueden un ancho de banda igual o las cuales pueden tener diferentes anchos de banda. Por ejemplo, una primer medida de planicidad espectral puede computarse para la primera 311 banda de frecuencia, por ejemplo, utilizando la ecuación para la “planicidad” dada anteriormente. En este cálculo, se pueden considerar las cajas de frecuencia de la primera banda de frecuencia (n variable en funciones puede tomar los índices de caja de frecuencia de las cajas de frecuencia de la primera banda de frecuencia), y puede considerarse el ancho de la primera 311 banda de frecuencia (N variable puede tomar el ancho en término de cajas de frecuencia de la primera banda de frecuencia). En consecuencia, se obtiene una medida de planicidad para la primera 311 banda de frecuencia. De manera similar, una medida de planicidad puede computarse para la segunda 312 banda de frecuencia, tomando en cuenta las cajas de frecuencia de las segundas 312 bandas de frecuencia y además el ancho de la segunda banda de frecuencia. Más aún, las medidas de planicidad de las bandas de frecuencia adicionales, del tipo tercera 313 banda de frecuencia, pueden computarse de la misma forma.
A continuación, un promedio de las medidas de plenitud para diferentes bandas 311, 312, 313 de frecuencia se puede computar y el promedio puede ser útil como la información de compactación de energía.
Otro enfoque (para la mejora de la derivación de la señal de activación de distorsión de tiempo) consiste en aplicar la medida de planicidad espectral sólo por encima de una cierta frecuencia. Este enfoque se ilustra en la figura 3b. Como puede observarse, sólo cajas de frecuencia en una porción 316 de frecuencia superior de los espectros se consideran para un cálculo de la medida de planicidad espectral. Una porción de frecuencia inferior del espectro es insignificante para el cálculo de la medida de planicidad espectral. La porción 316 de frecuencia más alta se puede considerar banda de frecuencia por banda de frecuencia para el cálculo de la medida de planicidad espectral. En forma alternativa, la porción 316 completa de frecuencia más alta se puede considerar en su totalidad para el cálculo de la medida de planicidad espectral.
Para resumir lo anterior, se puede establecer que la disminución en la planicidad espectral (originada por la aplicación de la distorsión de tiempo) se puede considerar como una primera medida para la eficiencia de la distorsión de tiempo.
Por ejemplo, el proveedor de la señal 100, 230, 234 de activación de distorsión de tiempo (o el comparador 130, 234o del mismo) puede comparar la medida de planicidad espectral de la representación 234e espectral transformada por la distorsión de tiempo con una medida de planicidad espectral de la representación 234k espectral transformada por la distorsión de tiempo utilizando una información estándar del contorno de distorsión de tiempo, y para decidir sobre la base de dicha comparación si la señal de activación de distorsión de tiempo debe ser activa o inactiva. Por ejemplo, la distorsión de tiempo se activa por medio de una configuración apropiada de la señal de activación de distorsión de tiempo si la distorsión de tiempo da por resultado una reducción suficiente de la medida de planicidad espectral cuando se compara con un caso sin distorsión de tiempo.
Además de los enfoques mencionados anteriormente, la porción de frecuencia superior del espectro se puede enfatizar (por ejemplo por un escalamiento apropiado) sobre la porción de frecuencia inferior para el cálculo de la medida de planicidad espectral. La figura 3c muestra una representación gráfica de un espectro transformado por la distorsión de tiempo en la cual una porción de frecuencia más alta es enfatizada sobre una porción de frecuencia más baja. En consecuencia, se compensa una sub-representación de parciales más altos en el espectro. De este modo, la medida de planicidad se puede computar sobre el espectro escalado completo en el cual las cajas de frecuencia más alta son enfatizadas sobre las cajas de frecuencia más baja, como se muestra en la figura 3e.
En términos de almacenamientos de bits, una medida típica para codificar la eficiencia sería la entropía perceptual, la cual puede definirse de un modo que se correlacione muy bien con el número real de bits necesarios para codificar un cierto espectro como se describe en 3GPP TS 26.403 V7.0.0: 3rd Generation Partnership Project; Technical Specification Group Services and System Aspects; General audio codec audio processing functions; Enhanced aacPlus general audio codec; Encoder specification AAC part: Sección 5.6.1.1.3 Relation between bit demand and perceptual entropy. Como resultado de ello, la reducción de la entropía perceptual es otra medida para determinar cómo sería la eficiencia de la distorsión de tiempo.
La figura 3f muestra un proveedor de información de compactación de energía 325, el cual puede tomar el lugar del proveedor 120, 234f, 234l de información de compactación de energía, y el cual se puede utilizar en los proveedores de la señal 100, 290, 234 de activación de distorsión de tiempo. El proveedor de información de compactación de energía 325 está configurado para recibir una representación de la señal de audio, por ejemplo, en la forma de una representación 234e, 234k del espectro transformado por la distorsión de tiempo, además designado con |x|tw. El proveedor 325 de información de compactación de energía además está configurado para proveer una información de entropía perceptual 326, la cual puede tomar el lugar de la información 122, 234m, 234n de compactación de energía.
El proveedor 325 de información de compactación de energía comprende un calculador del factor de forma 327, el cual está configurado para recibir la representación 234e, 234k del espectro transformado por la distorsión de tiempo y proveer, sobre la base del mismo, una información del factor de forma 328, la cual puede estar asociada con una banda de frecuencia. El proveedor 325 de información de compactación de energía además comprende un calculador de energía de la banda de frecuencia 329, el cual está configurado para calcular una información de energía de la banda de frecuencia en(n) (330) sobre la base de la representación 234e, 234k del espectro de distorsión de tiempo. El proveedor 325 de información de compactación de energía además comprende un estimador 331 de número de líneas, el cual está configurado para proveer una información (332) estimada del número de líneas nl para una banda de frecuencia que tiene índice n. Además, el proveedor 325 de información de compactación de energía comprende un calculador 333 de entropía perceptual, el cual está configurado para computar la información 326 de entropía perceptual sobre la base de la información de energía de la banda de frecuencia 330 y de la información 332 estimada del número de líneas. Por ejemplo, el calculador del factor de forma 327 puede estar configurado para computar el factor forma de acuerdo con
kOffset ( n+1) -1
ffac(n) = X X (k)
k=kOjfset ( n)
(1)
En la ecuación anterior, ffac(n) designa el factor forma para la banda de frecuencia que tiene un índice de banda de frecuencia n. k designa una variable en funcionamiento, la cual funciona sobre los índices de caja espectral de la banda de factor en escala (o banda de frecuencia) n. X(k) designa un valor espectral (por ejemplo, un valor de energía o un valor de magnitud) de la caja espectral (o caja de frecuencia) que tiene un índice de caja espectral (o un índice de caja de frecuencia) k.
El estimador del número de líneas puede estar configurado para estimar el número de líneas que no son cero, designadas con nl, de acuerdo con la siguiente ecuación:
ffac(n)
nl = en ( n ) 0.25
kOffset ( n+1) -kOffset ( n ) )
(2)
En la ecuación anterior, en(n) designa una energía en la banda de frecuencia o banda de factor de escala n. kOffset(n+1)-kOffset(n) designa un ancho de la banda de frecuencia o banda de factor de escala de índice n en términos de cajas de frecuencia.
Más aún, el calculador de entropía perceptual 332 puede estar configurado para computar la información de entropía perceptual sfbPe de acuerdo con la siguiente ecuación:
Figure imgf000010_0001
En lo anterior, se pueden sostener las siguientes relaciones:
cl = log2(8) c2 = log2(2.5) c3 = 1 - c2/c1 (4)
Una entropía perceptual total pe se puede computar como la suma de las entropías perceptuales de múltiples bandas de frecuencia o bandas de factor de escala.
Como se mencionó anteriormente, la información 326 de entropía de percepción se puede utilizar como una información de compactación de energía.
Para otros detalles que se refieren al cómputo de la entropía perceptual, se hace referencia a la sección 5.6.1.1.3 del International Standard “3GPP TS 26.403 V7.0.0(2006-06)".
A continuación, se describirá un concepto para el cómputo de la información de compactación de energía en el dominio de tiempo.
Otra mirada al TW-MDCT (transformada de coseno discreto modificada por la distorsión de tiempo) es la idea básica para cambiar la señal de una manera que tenga un tono constante o casi constante dentro de un bloque. Si se obtiene un tono constante, esto significa que la máxima de la autocorrelación de un bloque en proceso aumenta. Dado que no es trivial hallar la máxima correspondiente en la autocorrelación para el caso de distorsión de tiempo y sin distorsión de tiempo, la suma de los valores absolutos para la autocorrelación normalizada se puede utilizar como medida para la mejora. Un aumento en esta suma corresponde a un aumento en la compactación de energía. Este concepto se explicará en detalle a continuación, tomando como referencia las figuras 3g, 3h, 3i, 3j y 3k.
La figura 3g muestra una representación gráfica de una señal sin distorsión de tiempo en el dominio de tiempo. Una abscisa 350 describe el tiempo, y una ordenada 351 describe un nivel a(t) de la señal de tiempo sin distorsión de tiempo. Una curva 352 describe la evolución temporal de la señal de tiempo sin distorsión de tiempo. Se presume que la frecuencia de la señal sin distorsión de tiempo descripta por la curva 352 aumenta en el tiempo, como puede observarse en la figura 3g.
La figura 3h muestra una representación gráfica de una versión de distorsión de tiempo de la señal de tiempo de la figura 3g. Una abscisa 355 describe la distorsión de tiempo (por ejemplo, en forma normalizada) y una ordenada 356 describe el nivel de la versión de la distorsión de tiempo a(tw) de la señal a(t). Como puede observarse en la figura 3h, la versión de la distorsión de tiempo a(tw) de la señal de tiempo sin distorsión de tiempo a(t) comprende (al menos aproximadamente) una frecuencia temporalmente constante en el dominio de distorsión de tiempo.
En otras palabras, la figura 3h ilustra el hecho de que una señal de tiempo de una frecuencia temporalmente variable se transforma en una señal de tiempo de una frecuencia temporalmente constante mediante una operación de distorsión de tiempo apropiada, la cual puede comprender un remuestreado de la distorsión de tiempo.
La figura 3i muestra una representación gráfica de una función de autocorrelación de la señal de tiempo sin distorsión de tiempo a(t). Una abscisa 360 describe un retardo en la autocorrelación t, y una ordenada 361 describe la magnitud de la función de autocorrelación. Las marcas 362 describen una evolución de la autocorrelación Ruw(t) como una función del retardo de la autocorrelación t. Como puede observarse a partir de la figura 3i, la función de autocorrelación Ruw de la señal de tiempo sin distorsión de tiempo a(t) comprende un pico para t = 0 (que refleja la energía de la señal a(t)) y toma pequeños valores para t £ 0.
La figura 3j muestra una representación gráfica de la función de autocorrelación Rtw de la señal de tiempo de distorsión de tiempo a(tw). Como puede observarse a partir de la figura 3j, la función de autocorrelación Rtw comprende un pico para t = 0, y además comprende picos para otros valores t1, t2, t3 del retardo de la autocorrelación t. Estos picos adicionales para t1, t2, t3 se obtienen por el efecto de la distorsión de tiempo para aumentar la periodicidad de la señal de tiempo de distorsión de tiempo a(tw). Esta periodicidad se refleja mediante los picos adicionales de la función de autocorrelación Rtw (t) cuando se compara con la función de autocorrelación Ruw(t). De este modo, la presencia de picos adicionales (o la intensidad aumentada de picos) de la función de autocorrelación de la señal de audio distorsionada en el tiempo, cuando se compara con la función de autocorrelación de la señal de audio original puede ser utilizada como una indicación de la efectividad (en términos de una reducción de la velocidad de bits) de la distorsión de tiempo.
La figura 3k muestra un diagrama esquemático en bloque de un proveedor 370 de información de compactación de energía configurado para recibir una representación de dominio de tiempo de distorsión de tiempo de la señal de audio, por ejemplo, la señal 234e, 234k de distorsión de tiempo (donde la transformada 234d, 234j de dominio espectral y opcionalmente la ventana 234b y 234h de análisis se omite), y proveer, sobre la base del mismo, una información 374 de compactación de energía, la cual puede tomar la función de la información 372 de compactación de energía. El proveedor 370 de información de compactación de energía de la figura 3k comprende un calculador 371 de autocorrelación configurado para computar la función de autocorrelación Rtw(T) de la señal de distorsión de tiempo a(tw) sobre un rango predeterminado de valores discretos de t. El proveedor 370 de información de compactación de energía además comprende un sumador 372 de autocorrelación configurado para sumar una pluralidad de valores de la función de autocorrelación Rtw(T) (por ejemplo, sobre un rango predeterminado de valores discretos de t) y proveer la suma obtenida como la información 122, 234m, 234n de compactación de energía. De este modo, el proveedor 370 de información de compactación de energía permite la provisión de información confiable que indica la eficiencia de la distorsión de tiempo sin realizar realmente la transformación de dominio espectral de la versión del dominio de tiempo de distorsión de tiempo de la señal 210 de audio de entrada. Por lo tanto, es posible realizar una transformación de dominio espectral de la versión de la distorsión de tiempo de la señal de audio de entrada 310 sólo si se halla, sobre la base de la información 122, 234m, 234n de compactación de energía provista por el proveedor 370 de información de compactación de energía, que la distorsión de tiempo realmente otorga una eficiencia de codificación mejorada.
Para resumir lo anterior, las realizaciones de acuerdo con la invención crean un concepto para una revisión final de la calidad. Un contorno de tono resultante (utilizado en un codificador de señal de audio de distorsión de tiempo) se evalúa en términos de su ganancia de codificación y si se acepta o se rechaza. Varias medidas concernientes a la escasez de ganancia de codificación o del espectro se pueden tomar en cuenta para esta decisión, por ejemplo, una medida de planicidad espectral, una medida de plenitud espectral segmental banda por banda, y/o una entropía perceptual.
El uso de diferente información de compactación espectral se ha discutido, por ejemplo, el uso de una medida de planicidad espectral, el uso de una medida de entropía perceptual, y el uso de una mediad de autocorrelación de dominio de tiempo. No obstante, existen otras medidas que muestran una compactación de la energía en un espectro distorsionado en el tiempo.
Todas estas medidas se pueden utilizar. Con preferencia, para todas estas medidas, se define una relación entre la medida para espectro sin distorsión de tiempo y uno con distorsión de tiempo, y se establece un umbral para esta relación en el codificador para determinar si un el contorno de distorsión de tiempo obtenido brinda un beneficio en la codificación o no.
Todas estas medidas se pueden aplicar a un marco completo, donde sólo la tercera porción del contorno de tono es nuevo (donde, por ejemplo, tres porciones del contorno de tono están asociadas con el marco completo), o con preferencia sólo para la porción de la señal, para lo cual se obtuvo esta nueva porción, por ejemplo, utilizando una transformada con una ventana superpuesta baja centrada sobre la porción de señal (respectiva).
Naturalmente, una sola medida o una combinación de las medidas antes mencionadas se pueden utilizar según se desee.
La figura 4a muestra un diagrama de flujo de un método para proveer una señal de activación de distorsión de tiempo sobre la base de una señal de audio. El método 400 de la figura 4a comprende un paso 410 para suministrar una información de compactación de energía que describe una compactación de energía en una representación espectral transformada por la distorsión de tiempo de la señal de audio. El método 400 además comprende un paso 420 para comparar la información de compactación de energía con un valor de referencia. El método 400 además comprende un paso 430 para suministrar la señal de activación de distorsión de tiempo con dependencia del resultado de la comparación.
El método 400 puede ser suplementado por cualquiera de los rasgos y funcionalidades que se describen en la presente con respecto a la provisión de la señal de activación de distorsión de tiempo.
La figura 4b muestra un diagrama de flujo de un método para codificar una señal de audio de entrada para obtener una representación codificada de la señal de audio de entrada. El método 450 opcionalmente comprende un paso 460 para suministrar una representación espectral transformada por la distorsión de tiempo sobre la base de la señal de audio de entrada. El método 450 además comprende un paso 470 para suministrar una señal de activación de distorsión de tiempo. El paso 470, por ejemplo, puede comprender la funcionalidad del método 400. De este modo, la información de compactación de energía puede ser provista de modo que la información de compactación de energía describa una compactación de energía en la representación del espectro transformado por la distorsión de tiempo de la señal de audio de entrada. El método 450 además comprende un paso 480 para suministrar en forma selectiva, con dependencia de la señal de activación de distorsión de tiempo, una descripción de la representación espectral transformada por la distorsión de tiempo de la señal de audio de entrada utilizando una información del contorno de distorsión de tiempo recientemente hallada o una descripción de una representación espectral transformada sin distorsión de tiempo de la señal de audio de entrada utilizando una información estándar del contorno de distorsión de tiempo (no-variable) para la inclusión en la representación codificada de la señal de audio de entrada.
El método 450 puede ser suplementado por cualquiera de los rasgos y funcionalidades mencionados en la presente con respecto a la codificación de la señal de audio de entrada.
La figura 5 ilustra una realización preferida de un codificador de audio de acuerdo con la presente invención, en la cual varios aspectos de la presente invención son implementados. Se provee una señal de audio en una entrada del codificador 500. Esta señal de audio será típicamente una señal de audio discreta la cual ha sido derivada de una señal de audio análoga utilizando una velocidad de muestreado la cual además se denomina la velocidad de muestreado normal. Esta velocidad de muestreado normal es diferente de una velocidad de muestreado local generada en una operación de la función de distorsión de tiempo, y la velocidad de muestreado normal de la señal de audio en la entrada 500 es una velocidad de muestreado constante que de por resultado muestras de audio separadas por una porción de tiempo constante. La señal se coloca en una ventana de análisis 502, el cual está, en esta realización, conectado un controlador de función de generación de ventanas 504. La ventana de análisis 502 está conectado a un distorsionador de tiempo 506 (time warper). Dependiendo de la implementación, sin embargo, el distorsionador de tiempo 506 puede ser colocado - en una dirección de procesamiento de señal antes de la ventana de análisis 502. Se prefiere esta implementación, cuando una característica de distorsión de tiempo se requiere para la generación de ventanas de análisis en bloque 502, y cuando la función de distorsión de tiempo deba realizarse sobre muestras de distorsión de tiempo en vez de muestras sin distorsión de tiempo. Específicamente en el contexto de distorsión de tiempo basado en MDCT como se describe en Bernd Edler et al., “Time Warped MDCT”, Solicitud de Patente Internacional PCT/EP2009/002118. Para otras aplicaciones de distorsión de tiempo tal como las que se describen en L. Villemoes, “Time Warped Transform Coding of Audio Signals”, Solicitud de Patente Internacional PCT/EP2006/010246, Noviembre 2005., la colocación entre el distorsionador de tiempo 506 y la ventana de análisis 502 se puede establecer según lo requerido. Además, un convertidor de tiempo/frecuencia 508 se provee para realizar una conversión de tiempo/frecuencia de una señal de audio distorsionada en el tiempo en una representación espectral. La representación espectral puede ser ingresada en una etapa de TNS (formato de ruido temporal) 510, la cual provee, como una salida 510a, información de TNS y, como una salida 510b, valores residuales espectrales. La salida 510b está acoplada a un cuantificador y bloque codificador 512 el cual puede ser controlado por un modelo 514 perceptual para cuantificar una señal de modo que el ruido de cuantificación se esconda por debajo del umbral de enmascaramiento perceptual de la señal de audio.
Además, el codificador que se ilustra en la figura 5a comprende un analizador de distorsión de tiempo 516, el cual puede ser implementado como un seguidor de tono, que provee una información de la distorsión de tiempo en la salida 518. La señal en la línea 518 puede comprender una característica de distorsión de tiempo, una característica de tono, un contorno de tono, o una información, si la señal analizada por el analizador de distorsión de tiempo es una señal armónica o una señal sin armonía. El analizador de distorsión de tiempo además puede implementar la funcionalidad de distinguir entre la expresión sonora y la expresión sorda. Sin embargo, dependiendo de la implementación, y si un clasificador de señal 520 está implementado, la decisión sonora/sorda puede efectuarse además mediante el clasificador de señal 520. En este caso, el analizador de distorsión de tiempo no necesariamente debe realizar la misma funcionalidad. La salida del analizador de distorsión de tiempo 518 está conectada a al menos una y con preferencia más de una funcionalidad en el grupo de funcionalidad que comprende el controlador de la función de generación de ventanas 504, el distorsionador de tiempo 506, la etapa 510 de TNS, el cuantificador y codificador 512 y una interfaz 522 de salida.
En forma análoga, una salida 522 del clasificador de señal 520 puede estar conectada a una o más de las funcionalidades de un grupo de funcionalidades que comprende el controlador de la función de generación de ventanas 504, la etapa 510 de TNS, un analizador 524 de relleno de ruido o la interfaz 522 de salida. Además, una salida del analizador de distorsión de tiempo 518 puede estar conectada al analizador 524 de relleno de ruido.
Aunque la figura 5a ilustra una situación, donde la señal de audio en la entrada de la ventana de análisis 500 es ingresada en un analizador de distorsión de tiempo 516 y el clasificador de señal 520, las señales de entrada para estas funcionalidades además se pueden tomar de la salida de la ventana de análisis 502 y, con respecto al clasificador de señal, incluso se pueden tomar de la salida del distorsionador de tiempo 506, la salida del convertidor de tiempo/frecuencia 508 o la salida de la etapa del TNS 510.
Además de la salida de una señal por el cuantificador codificador 512 que se indica en 526, la interfaz 522 de salida recibe la información del lado del TNS 510a, una información del lado del modelo perceptual 528, el cual puede incluir factores de escala en forma codificada, datos de indicación de distorsión de tiempo para más información del lado de la distorsión de tiempo avanzada tal como el contorno de tono en la línea 518 y la información de clasificación de señal en la línea 522. Además, el analizador 524 de relleno de ruido puede producir además datos de relleno de ruido en la salida 530 en la interfaz 522 de salida. La interfaz 522 de salida está configurada para generar datos de salida de audio codificada en la línea 532 para la transmisión a un decodificador o para almacenar en un dispositivo de almacenamiento tal como un dispositivo de memoria. Dependiendo de la implementación, los datos de salida 532 pueden incluir todos los de la entrada en la interfaz 522 de salida o pueden contener menos información, siempre que la información no sea requerida por el correspondiente decodificador, el cual tiene una funcionalidad reducida, o siempre que la información ya esté disponible en el decodificador debido a una transmisión mediante un canal de transmisión diferente.
El codificador que se ilustra en la figura 5a puede ser implementado como se define en detalle en estándar MPEG-4 además de las funcionalidades adicionales que se ilustran en el codificador de la invención en la figura 5a representada por el controlador de la función de generación de ventanas 504, el analizador 524 de relleno de ruido, el cuantificador codificador 512 y la etapa 510 de TNS, los cuales tienen, en comparación con el estándar MPEG-4, una funcionalidad avanzada. Otra descripción se encuentra en el estándar AAC ( estándar internacional 13818-7) o 3GPP TS 26.403 V7.0.0: Third generation partnership project; technical specification group services and system aspect; general audio codec audio processing functions; enhanced AAC plus general audio codec.
A continuación, se describe la figura 5b, la cual ilustra una realización preferida de un decodificador de audio para decodificar una señal de audio codificada recibida a través de la entrada 540. La interfaz de entrada 540 es operativa para procesar la señal de audio codificada de modo que los diferentes ítems de información de la información son extraídos de la señal en la línea 540. Esta información comprende información de clasificación de señal 541, información de distorsión de tiempo 542, datos de relleno de ruido 543, factores de escala 544, datos de TNS 545 e información espectral codificada 546. La información espectral codificada es ingresada en un decodificador entrópico 547, el cual puede comprender un decodificador Huffman o un decodificador aritmético, siempre que la funcionalidad del codificador en el bloque 512 in la figura 5a sea implementada en la forma del correspondiente codificador tal como un codificador Huffman o un codificador aritmético. La información espectral codificada es ingresada al re-cuantificador 550, el cual está conectado a un relleno 552 de ruido. La salida del relleno 552 de ruido es ingresada a una etapa de TNS inversa 554, la cual además recibe los datos de TNS en la línea 545. Dependiendo de la implementación, el relleno 552 de ruido y la etapa de TNS 554 se pueden aplicar en diferente orden de modo que el relleno 552 de ruido operes en los datos de salida de la etapa de TNS 554 más que en los datos de entrada de TNS. Además, se provee un convertidor de frecuencia/tiempo 556, el cual alimenta un regenerador de tiempo 558 (time dewarper). A la salida de la cadena de procesamiento de señal, una ventana de síntesis que realiza con preferencia un procesamiento de superposición/agregado se aplica como se indica en 560. El orden del regenerador de tiempo 558 y la etapa de síntesis 560 se puede cambiar, pero, en la realización preferida, se prefiere realizar un algoritmo de codificado/decodificación en base a MDCT como se define en el estándar AAC (AAC = codificación de audio avanzada). A continuación, la operación de desvanecimiento cruzado inherente de un bloque al próximo debido al procedimiento de superposición/agregado se utiliza con ventaja como la última operación en las cadenas de procesamiento de modo que todos los artefactos que bloquean la distorsión en la conversión se evitan en forma efectiva.
Adicionalmente, se proporciona un analizador 562 de relleno de ruido, que está configurado para controlar el relleno 552 de ruido y que recibe como una entrada, información 542 sobre la distorsión temporal y/o información 541 sobre la clasificación de señales e información sobre el espectro recuantificado, según sea el caso.
Preferiblemente, todas las funcionalidades descritas de aquí en adelante se aplican juntas en un esquema de codificador/decodificador de audio mejorado. No obstante, las funcionalidades descritas de aquí en adelante también pueden aplicarse independientemente una a la otra, es decir, de manera que solamente se implementa una o un grupo, pero no todas las funcionalidades en un cierto esquema de codificador/decodificador.
Posteriormente, se describe en detalle el aspecto de relleno de ruido de la presente invención.
En una realización, la información adicional proporcionada por la herramienta 516 de contornos de tono/distorsión temporal en la figura 5a se utiliza de manera beneficiosa para controlar otras herramientas del codificador/decodificador y, específicamente, la herramienta de relleno de ruido implementada por el analizador 524 de relleno de ruido del lado del codificador y/o implementada por el analizador 562 de relleno de ruido y el relleno 552 de ruido del lado del decodificador.
Varias herramientas del codificador dentro del marco AAC tal como una herramienta de relleno de ruido se controlan mediante la información recopilada por el análisis de contornos de tonos y/o por un conocimiento adicional de una clasificación de señales proporcionada por el clasificador 520 de señales.
Un contorno de tonos encontrado indica segmentos de señales con una estructura armónica clara, de manera que el relleno de ruido entre las líneas armónicas podría disminuir la calidad percibida, especialmente en las señales de expresión, por lo tanto el nivel de ruido se reduce, cuando se encuentra un contorno de tono. De otra manera, habría ruido entre los tonos parciales, que poseen el mismo efecto que el ruido de cuantificación incrementado para un espectro manchado. Además, la cantidad de reducción del nivel de ruido además puede mejorarse utilizando la información del clasificador de señales, de modo que p. ej. para las señales de expresión no habría ningún relleno de ruido y se aplicaría un relleno de ruido moderado a las señales genéricas con una estructura armónica fuerte.
Generalmente, el relleno 552 de ruido es útil para insertar líneas espectrales en un espectro decodificado, donde los ceros se han transmitido de un codificador a un decodificador, es decir, donde el cuantificador 512 en la figura 5a ha cuantificado líneas espectrales en cero. Naturalmente, cuantificar las líneas espectrales en cero redujo mucho la velocidad de bits de la señal transmitida, y, en teoría, la eliminación de estas líneas espectrales (pequeñas) no es audible, cuando estas líneas espectrales están por debajo del umbral de enmascaramiento perceptual según lo determinado por el modelo 514 perceptual. No obstante, se ha descubierto que estos “agujeros espectrales”, que pueden incluir muchas líneas espectrales adyacentes dan como resultado un sonido bastante poco natural. Por lo tanto, se proporciona una herramienta de relleno de ruido para insertar líneas espectrales en las posiciones, donde las líneas se han cuantificado en cero mediante un cuantificador del lado del codificador. Estas líneas espectrales pueden tener una amplitud o fase aleatoria, y estas líneas espectrales sintetizadas del lado del decodificador se escalan utilizando una medición de relleno de ruido determinada del lado del codificador según lo ilustrado en la figura 5a o dependiendo de una medición determinada del lado del decodificador según lo ilustrado en la figura 5b por bloque 562 opcional. El analizador 524 de relleno de ruido en la figura 5a, por lo tanto, está configurado para estimar una medición de relleno de ruido de una energía de valores de audio cuantificados en cero para un marco temporal de la señal de audio.
En una realización de la presente invención, el codificador de audio para codificar una señal 500 de audio en línea comprende el cuantificador 512 que se configura para cuantificar valores de audio, donde el cuantificador 512 además está configurado para cuantificar en cero valores de audio por debajo de un umbral de cuantificación. Este umbral de cuantificación puede ser el primer paso de un cuantificador basado en pasos, que se utiliza para la decisión, si un cierto valor de audio se cuantifica en cero, es decir, en un índice de cuantificación de cero, o se cuantifica en uno, es decir, un índice de cuantificación de uno que indica que el valor de audio está por encima de este primer umbral. Aunque el cuantificador en la figura 5a se ilustra como que realiza la cuantificación de valores de dominio de la frecuencia, el cuantificador también puede utilizarse para cuantificar valores de dominio del tiempo en una realización alternativa, en la que el relleno de ruido se realiza en el dominio del tiempo en vez del dominio de la frecuencia.
El analizador 524 de relleno de ruido se implementa como un calculador de relleno de ruido para estimar una medición de relleno de ruido de una energía de valores de audio cuantificados en cero para un marco de tiempo de la señal de audio por parte del cuantificador 512. Adicionalmente, el codificador de audio comprende un analizador 600 de señales de audio ilustrado en la figura 6a, que se configura para analizar, si el marco temporal de la señal de audio posee una característica armónica o una característica de expresión. El analizador 600 de señales puede, por ejemplo, comprender el bloque 516 de la figura 5a o el bloque 520 de la figura 5a o puede comprender cualquiera de los dispositivos para analizar, si una señal es una señal armónica o una señal de expresión. Debido a que el analizador 516 de distorsión temporal se implementa para buscar siempre un contorno de tonos, y debido a que la presencia de un contorno de tonos indica una estructura armónica de la señal, el analizador 600 de señales en la figura 6a puede implementarse como un rastreador de tonos o un calculador de contornos de distorsión temporal de un analizador de distorsión temporal.
El codificador de audio adicionalmente comprende un manipulador 602 del nivel de relleno de ruido ilustrado en la figura 6a, que produce una medición/nivel de relleno de ruido a ser producido en la interfaz 522 de salida indicada en 530 en la figura 5a. El manipulador 602 de medición de relleno de ruido está configurado para manipular la medición de relleno de ruido dependiendo de la característica armónica o de expresión de la señal de audio. El codificador de audio adicionalmente comprende la interfaz 522 de salida para generar una señal codificada para transmisión o almacenamiento, la señal codificada que comprende la medición de relleno de ruido manipulada producida por el bloque 602 en línea 530. Este valor corresponde a los valores producidos por el bloque 562 en la implementación del lado del decodificador ilustrada en la figura 5b.
Según lo indicado en la figura 5a y figura 5b, la manipulación del nivel de relleno de ruido puede implementarse en un codificador o puede implementarse en un decodificador o puede implementarse en ambos dispositivos juntos. En una implementación del lado del decodificador, el decodificador para decodificar una señal codificada de audio comprende la interfaz 539 de entrada para procesar la señal codificada en línea 540 para obtener una medición de relleno de ruido, es decir, datos 543 de relleno de ruido en línea, datos de audio codificados en línea 546. El decodificador adicionalmente comprende un decodificador 547 y re-cuantificador 550 para generar datos recuantificados.
Adicionalmente, el decodificador comprende un analizador 600 de señales (figura 6a) que puede implementarse en el analizador 562 de relleno de ruido en la figura 5b para recuperar información, en el caso de un marco temporal de los datos de audio posea una característica armónica o de expresión.
Adicionalmente, se proporciona el relleno 552 de ruido para generar datos de audio de relleno de ruido, en donde el relleno 552 de ruido está configurado para generar los datos de relleno de ruido en respuesta a la medición de relleno de ruido transmitida a través de la señal codificada y generada por la interfaz 543 de entrada en la línea y la característica armónica o de expresión de los datos de audio según lo definido por el analizador 516 de señales y/o 550 del lado del codificador o según lo definido por el ítem 562 del lado del decodificador a través del procesamiento e interpretación de la información 542 sobre la distorsión temporal que indica, si un cierto marco temporal ha sido sometido a un procesamiento de distorsión temporal o no.
Adicionalmente, el decodificador comprende un procesador para procesar los datos recuantificados y los datos de audio de relleno de ruido para obtener una señal de audio decodificada. El procesador puede incluir los ítems 554, 556, 558, 560 en la figura 5b según sea el caso. Adicionalmente, dependiendo de la implementación específica del algoritmo del codificador/decodificador, el procesador puede incluir otros bloques de procesamiento, que se proporcionan, por ejemplo, en un codificador de dominio del tiempo tal como el codificador AMR WB+ u otros codificadores de expresión.
La manipulación inventiva de relleno de ruido puede, por lo tanto, implementarse del lado del codificador solamente calculando la medición sencilla de ruido y manipulando esta medición de ruido sobre la base de la información armónica/de expresión y transmitiendo la medición de relleno de ruido manipulada ya correcta que entonces puede ser aplicada por un decodificador de manera sencilla. En forma alternativa, la medición de relleno de ruido no manipulada puede transmitirse desde un codificador a un decodificador, y el decodificador entonces analizará, si el marco temporal real de una señal de audio ha sufrido una distorsión temporal, es decir, posee una característica armónica o de expresión de manera que la manipulación real de la medición de relleno de ruido se produce del lado del decodificador.
Posteriormente, la figura 6b se debate con el fin de explicar las realizaciones preferibles para manipular el cálculo aproximado del nivel de ruido.
En la primera realización, se aplica un nivel de ruido normal, cuando la señal no posee una característica armónica o de expresión. Este es el caso, cuando no se aplica ninguna distorsión temporal. Cuando, adicionalmente, se proporciona un clasificador de señales, después el clasificador de señales que distingue entre expresión y no expresión indicaría no expresión para la situación, donde la distorsión temporal no estaba activa, es decir, donde no se encontró ningún contorno de tonos.
Cuando, sin embargo, la distorsión temporal estaba activa, es decir, cuando se encontró un contorno de tonos, que indica un contenido armónico, entonces el nivel de nivel de relleno de ruido se manipularía para que sea más bajo que en el caso normal. Cuando se proporciona un clasificador de señales adicional, y después este clasificador de señales indica expresión, y cuando simultáneamente la información sobre la distorsión temporal indica un contorno de tonos, entonces se señala un nivel de relleno de ruido más bajo o aún igual a cero. De este modo, el manipulador 602 del nivel de relleno de ruido de la figura 6a reducirá el nivel de ruido manipulado a cero o al menos a un valor menor que el valor bajo indicado en la figura 6b. Preferiblemente, el clasificador de señales adicionalmente posee un detector sonoro/mudo según lo indicado a la izquierda de la figura 6b. En el caso de expresión sonora, se señala/aplica un nivel de relleno de ruido muy bajo o igual a cero. Sin embargo, en el caso de expresión sorda, donde el indicio de distorsión temporal no indica un procesamiento de distorsión temporal debido al hecho de que no se encontró ningún tono, pero donde el clasificador de señales señala contenido de expresión, la medición de relleno de ruido no se manipula, pero se aplica un nivel de relleno de ruido normal.
Preferiblemente, el analizador de señales de audio comprende un rastreador de tonos para generar un indicio de tono tal como un contorno de tonos o un tono absoluto de un marco temporal de la señal de audio. Entonces, el manipulador está configurado para reducir la medición de relleno de ruido cuando se encuentra un tono, y no reducir la medición de relleno de ruido cuando no se encuentra un tono.
Según lo indicado en la figura 6a, un analizador 600 de señales, cuando se aplica del lado del decodificador, no está realizando un análisis de señales real como un rastreador de tonos o un detector sonoro/mudo, sino que el analizador de señales analiza sintácticamente la señal codificada de audio con el fin de extraer una información sobre la distorsión temporal o una información sobre la clasificación de señales. Por lo tanto, el analizador 600 de señales puede implementarse dentro de la interfaz 539 de entrada en el decodificador de la figura 5b.
Una realización adicional de la presente invención se debatirá posteriormente con respecto a las figuras 7a-7e.
Para inicios de expresión donde comienza una parte de expresión sonora después de una porción de señales silenciosas relativas, el algoritmo de cambio de bloques podría clasificar la misma como un accidente y podría elegir bloques cortos para este marco particular, con una pérdida de ganancia de codificación en el segmento de señales que posee una clara estructura armónica. Por lo tanto, la clasificación sonora/sorda del rastreador de tonos se utiliza para detectar inicios sonoros y evitar que el algoritmo de cambio de bloques indique un accidente del circuito de tránsito alrededor del inicio encontrado. Esta característica también puede asociarse con el clasificador de señales para evitar el cambio de bloques en las señales de expresión y permitir las mismas en todas las otras señales. Además se podría implementar un control más preciso del cambio de bloques no sólo mediante el permiso o rechazo de la detección de accidentes, sino mediante el uso de un umbral variable para la detección de accidentes basado en inicio sonoro e información sobre la clasificación de señales. Además, la información puede utilizarse para detectar accidentes como los inicios sonoros mencionados más arriba pero en vez de cambiar a bloques cortos, utiliza ventanas largas con superposiciones cortas, que siguen siendo la resolución espectral preferible pero reduce la región temporal donde pueden surgir ecos previos o posteriores. La figura 7d muestra el comportamiento típico sin la adaptación, la figura 7e muestra dos diferentes posibilidades de adaptación (ventanas de baja superposición y prevención).
Un codificador de audio conforme a una realización de la presente invención funciona para generar una señal de audio tal como la señal producida por la interfaz 522 de salida de la figura 5a. El codificador de audio comprende un analizador de señales de audio tal como el analizador 516 de distorsión temporal o un clasificador 520 de señales de la figura 5a. Generalmente, el analizador de señales de audio analiza si un marco temporal de la señal de audio posee una característica armónica o de expresión. Para este fin, el clasificador 520 de señales de la figura 5a puede incluir un detector 520a sonoro/mudo o un detector de expresión /no expresión 520b. Aunque no se muestra en la figura 7a, también puede proporcionarse un analizador de distorsión temporal tal como el analizador 516 de distorsión temporal de la figura 5a, que puede incluir un rastreador de tonos en vez de los ítems 520a y 520b o además de estas funcionalidades. Adicionalmente, el codificador de audio comprende el controlador 504 de funciones de ventanas para seleccionar una función de ventana dependiendo de una característica armónica o de expresión de la señal de audio según lo determinado por el analizador de señales de audio. El generador de ventanas 502 entonces genera ventanas de la señal de audio o, dependiendo de cierta implementación, la señal de audio distorsionada en el tiempo utilizando la función de ventana seleccionada para obtener un marco de ventana. Este marco de ventana, entonces además es procesado por un procesador para obtener una señal codificada de audio. El procesador puede comprender los ítems 508, 510, 512 ilustrados en la figura 5a o más o menos funcionalidades de los codificadores de audio bien conocidos tales como codificadores de audio basados en transformadas o codificadores de audio basados en dominios temporales que comprenden un filtro LPC tal como codificadores de expresión y, específicamente, codificadores de expresión implementados conforme la norma AMR-WB+.
En una realización preferente, el controlador 504 de funciones de ventanas comprende un detector 700 de circuitos de tránsito para detectar un circuito de tránsito en la señal de audio, en donde el controlador de funciones de ventanas está configurado para cambiar de una función de ventana para un bloque largo a una función de ventana para un bloque corto, cuando se detecta un circuito de tránsito y el analizador de señales de audio no encuentra una característica armónica o de expresión. Cuando, sin embargo, se detecta un circuito de tránsito y el analizador de señales de audio encuentra una característica armónica o de expresión, entonces el controlador 504 de funciones de ventanas no cambia a la función de ventana para bloque corto. Las salidas de la función de ventana que indican una ventana larga cuando no se obtiene ningún circuito de tránsito y una ventana corta cuando el detector de circuitos de tránsito detecta un circuito de tránsito se ilustran como 701 y 702 en la figura 7a. Este procedimiento normal según lo ejecutado por el bien conocido codificador AAC se ilustra en la figura 7d. En la posición del inicio de voz, el detector 700 de circuitos de tránsito detecta un incremento en la energía desde un marco al siguiente marco y, por lo tanto, cambia de una ventana 710 larga a ventanas 712 cortas. Con el fin de acomodar este cambio, se utiliza una ventana 714 de detención larga, que posee una primera porción 714 de superposición, una porción 714b de no aliasing (generación de señal ajena), una segunda 714c porción de superposición más corta y una porción cero que se extiende entre el punto 716 y el punto en el eje temporal indicado por las muestras 2048. Entonces, se ejecuta la secuencia de ventanas cortas indicada en 712 que, entonces, se termina mediante una ventana de inicio larga 718 que posee una porción 718a larga de superposición que se superpone con la siguiente ventana larga no ilustrada en la figura 7d. Además, esta ventana posee una porción 718b de no aliasing, una porción 718c de superposición corta y una porción cero que se extiende entre el punto 720 en el eje temporal hasta el punto 2048. Esta porción es una porción cero.
Normalmente, el cambio a ventanas cortas es útil para evitar preecos que aparezcan dentro de un marco antes del evento del circuito de tránsito que es la posición de inicio sonoro o, generalmente, el comienzo de la expresión o el comienzo de una señal que posee un contenido armónico. Generalmente, una señal posee un contenido armónico, cuando un rastreador de tonos decide que la señal posee un tono. En forma alternativa, existen otras mediciones de armonicidad tales como una medición de tonalidad por encima de un cierto nivel mínimo junto con la característica de que los picos prominentes tienen una relación armónica uno con otro. Existe una pluralidad de otras técnicas para determinar, si una señal es armónica o no.
Una desventaja de las ventanas cortas es que disminuye la resolución de frecuencia, ya que se incrementa la resolución temporal. Para codificación de alta calidad de la expresión y, específicamente, porciones de expresión sonora o porciones que poseen un fuerte contenido armónico, se desea una buena resolución de frecuencia. Por lo tanto, el analizador de señales de audio ilustrado en 516, 520 o 520a, 520b es operativo para producir una señal desactivada para el detector 700 de circuitos de tránsito de manera que se evita un cambio a ventanas cortas cuando se detecta un segmento de expresión sonora o un segmento de señales que posee una fuerte característica armónica. Esto asegura que, para codificar dichas porciones de señales, se mantiene una alta resolución de frecuencia. Este es un equilibrio entre los preecos por un lado y la codificación de alta calidad y alta resolución del tono para la señal de expresión o el tono para una señal de no expresión armónica por otro lado. Se ha descubierto que es mucho más perturbador cuando el espectro armónico no está codificado con precisión en comparación con cualquier preeco que pudiera aparecer. Con el fin de disminuir además los preecos, se favorece un procesamiento TNS para dicha situación, que se debatirá con relación a las figuras 8a y 8b.
En una realización alternativa ilustrada en la figura 7b, el analizador de señales de audio comprende un detector 520a, 520b de sonoro/mudo y/o de expresión /no expresión. Sin embargo, el detector 700 de circuitos de tránsito incluido en el controlador de funciones de ventanas no está completamente activado/desactivado como en la figura 7a, sino que el umbral incluido en el detector de circuitos de tránsito se controla utilizando una señal 704 de control de umbral. En esta realización, el detector 700 de circuitos de tránsito está configurado para determinar una característica cuantitativa de la señal de audio y para comparar la característica cuantitativa con el umbral controlable, en donde se detecta un circuito de tránsito cuando la característica cuantitativa posee una relación predeterminada con el umbral controlable. La característica cuantitativa puede ser un número que indica el incremento de energía de un bloque al siguiente bloque, y el umbral puede ser un cierto incremento umbral de energía. Cuando el incremento de energía de un bloque al siguiente es mayor que el incremento umbral de energía, entonces se detecta un circuito de tránsito, de manera que, en este caso, la relación predeterminada es una relación de “mayor que”. En otras realizaciones, la relación predeterminada también puede ser una relación de “menor que”, por ejemplo cuando la característica cuantitativa es un incremento invertido de energía. En la realización de la figura 7b, el umbral controlable se controla de manera que se reduce la posibilidad de un cambio a una función de ventana para un bloque corto, cuando el analizador de señales de audio ha encontrado una característica armónica o de expresión. En la realización del incremento de energía, la señal 704 de control de umbral dará como resultado un incremento del umbral de manera que los cambios a bloques cortos sucede solamente cuando el incremento de energía de un bloque al siguiente es un incremento de energía particularmente alto.
En una realización alternativa, la señal de salida del detector 520a sonoro/mudo o el detector 520b de expresión/no expresión también puede utilizarse para controlar el controlador 504 de funciones de ventanas de manera tal que en vez de cambiar a un bloque corto en un inicio de expresión, se ejecuta un cambio a una función de ventana que es más larga que la función de ventana para el bloque corto. Esta función de ventana asegura una resolución de frecuencia más alta que una función de ventana corta, pero posee una longitud más corta que la función de ventana larga de manera que se obtiene una buena composición entre los preecos por un lado y una resolución de frecuencia suficiente por otro lado. En una realización alternativa, se puede realizar una cambiar a una función de ventana que posee una superposición más pequeña según lo indicado por la línea sombreada en la figura 7e en 706. La función 706 de ventana posee una longitud 2048 de muestras como el bloque largo, pero esta ventana posee una porción 708 cero y una porción 710 de no aliasing de manera que se obtiene una longitud 712 de superposición corta desde la ventana 706 a la ventana 707 correspondiente. La función 707 de ventana, nuevamente, posee una porción 712 cero a la izquierda de la región y una porción 712 de no aliasing a la derecha de la región en analogía a la función 710 de ventana. Esta realización de baja superposición, efectivamente da como resultado una longitud de tiempo más corta para reducir los preecos debido a la porción 706 y 707 cero de ventana, pero por otro lado posee una longitud suficiente debido a la porción 714 de superposición y la porción 710 de no aliasing de manera que se mantiene una resolución de frecuencia suficiente.
En una implementación de MDCT preferente según lo implementado por el codificador AAC, mantener una cierta superposición proporciona la ventaja adicional de que, del lado del decodificador, se puede realizar un procesamiento de superposición/agregado lo que significa que se realiza una clase de fundido cruzado entre bloques. Esto efectivamente evita "artefactos" (en este contexto se refiere a errores en la conversión) de bloqueo. Adicionalmente, esta característica de superposición/agregado proporciona la característica de fundido cruzado sin incrementar la velocidad de bits, es decir, se obtiene un fundido cruzado críticamente mostrado. En ventanas cortas o ventanas largas regulares, la porción de superposición es una superposición del 50% según lo indicado por la porción 714 de superposición. En la realización donde la función de ventana es larga como las muestras 2048, la porción de superposición es del 50%, es decir, muestras 1024. La función de ventana que posee una superposición más corta que se utiliza para efectivamente generar ventanas de un inicio de expresión o un inicio de una señal armónica es preferiblemente menos del 50% y es, en la realización de la figura 7e, solamente las muestras 128, que es un 1/16 del total de la longitud de ventana. Preferiblemente, se utilizan las porciones de superposición entre 1/4 y 1/32 de la longitud total de la función de ventana.
La figura 7c ilustra esta realización, en la que un detector 520a sonoro/mudo ejemplar controla un selector de formas de ventanas incluido en el controlador 504 de funciones de ventanas con el fin de seleccionar una forma de ventana con una superposición corta según lo indicado en 749 o una forma de ventana con una superposición larga según lo indicado en 750. Se implementa la selección de una de ambas formas, cuando el detector 500a sonoro/mudo emite una señal sonora detectada en 751, donde la señal de audio utilizada para análisis puede ser la señal de audio en la entrada 500 en la figura 5a o una señal de audio preprocesada tal como una señal de audio distorsionada en el tiempo o una señal de audio que haya sido sometida a cualquier otra funcionalidad de preprocesamiento. Preferiblemente, en selector 504 de formas de ventanas en la figura 7c que está incluido en el controlador 504 de funciones de ventanas en la figura 5a solamente utiliza la señal 751, cuando un detector de circuitos de tránsito incluido en el controlador de funciones de ventanas detecta un circuito de tránsito y ordena un cambio de una función de ventana larga a una función de ventana corta según lo debatido con relación a la figura 7a.
Preferiblemente, la realización del cambio de función de ventana se combina con una realización de formato de ruido temporal debatida con relación a las figuras 8a y 8b. Sin embargo, la realización de TNS (formato de ruido temporal) también puede implementarse son la realización de cambios de bloques.
La propiedad de compactación de energía espectral de la MDCT distorsionada en el tiempo también influye en la herramienta de formato de ruido temporal (TNS), debido a que la ganancia de TNS tiende a disminuir para los marcos distorsionados en el tiempo especialmente para algunas señales de expresión. No obstante es deseable activar TNS, p. ej. para reducir los preecos en los inicios sonoros o desviaciones sonoras (consultar la adaptación del cambio de bloques), donde no se desea ningún cambio de bloques pero aún el envolvente temporal de la señal de expresión exhibe cambios rápidos. Típicamente, un codificador utiliza alguna medición para ver si la aplicación de la TNS es provechosa para un cierto marco, p. ej. la ganancia de predicción del filtro de TNS cuando se aplica al espectro. Entonces se prefiere un umbral de ganancia de TNS variable, que sea menor para los segmentos con un contorno de tonos activo, se manera que se asegure que la TNS esté activa más a menudo para dichas porciones de señales críticas como inicios sonoros. Como para las otras herramientas, esto también puede complementarse teniendo en cuenta la clasificación de señales.
El codificador de audio conforme a esta realización para generar una señal de audio comprende un distorsionador temporal controlable tal como el distorsionador 506 temporal para la distorsión temporal de la señal de audio para obtener una señal de audio distorsionada en el tiempo. Adicionalmente, se proporciona un convertidor 508 de frecuencia/tiempo para convertir al menos una porción de la señal de audio distorsionada en el tiempo en una representación espectral. El convertidor 508 de frecuencia/tiempo preferiblemente implementa una transformada MDCT tal como se conoce del codificador AAC, pero el convertidor de frecuencia/tiempo también puede realizar cualquier otra clase de transformada tal como una transformada DCT, DST, DFT, FFT o MDST o puede comprender un banco de filtros tal como un banco de filtros QMF.
Adicionalmente, el codificador comprende una etapa 510 de formato de ruido temporal para realizar un filtrado de predicción sobre la frecuencia de la representación espectral conforme a la orden de control del formato de ruido temporal, en donde no se realiza el filtrado de predicción, cuando no existe la orden de control del formato de ruido temporal.
Adicionalmente, el codificador comprende un controlador de formato de ruido temporal para generar la orden de control del formato de ruido temporal sobre la base de la representación espectral.
Específicamente, el controlador de formato de ruido temporal está configurado para incrementar la posibilidad de realizar el filtrado de predicción sobre la frecuencia, cuando la representación espectral se basa en una señal temporal distorsionada en el tiempo o para reducir la posibilidad de realizar el filtrado de predicción sobre la frecuencia, cuando la representación espectral no está basada en una señal temporal distorsionada en el tiempo. Los detalles del controlador de formato de ruido temporal se debaten con relación a la figura 8.
El codificador de audio adicionalmente comprende un procesador para además procesar un resultado del filtrado de predicción sobre la frecuencia para obtener la señal codificada. En una realización, el procesador comprende la etapa 512 del codificador del cuantificador ilustrada en la figura 5a.
La etapa 510 de TNS ilustrada en la figura 5a se ilustra en detalle en la figura 8. Preferiblemente, el controlador de formato de ruido temporal incluido en la etapa 510 comprende un calculador 800 de ganancia de TNS, un tomador 802 de decisión de TNS posteriormente conectado y un generador 804 de señal de control de umbral. Dependiendo de la señal 516 del analizador de distorsión temporal o el clasificador 520 de señales o ambos, el generador 804 de señal de control de umbral produce una señal 806 de control de umbral para el tomador de decisión de TNS. El tomador 802 de decisión de TNS posee un umbral controlable, que se incrementa o se reduce conforme a la señal 806 de control de umbral. El umbral en el tomador 802 de decisión de TNS es, en esta realización, un Umbral de ganancia de TNS. Cuando la ganancia de TNS realmente calculada producida por bloque 800 excede el umbral, entonces la orden de control de TNS requiere un procesamiento de TNS como salida, mientras, en el otro caso cuando la ganancia de TNS está por debajo del umbral de ganancia de TNS, no se produce ninguna orden de TNS o se produce una señal que ordena que el procesamiento de TNS no es útil y no se va a realizar en este marco temporal específico.
El calculador 800 de ganancia de TNS recibe, como una entrada, la representación espectral obtenida de la señal distorsionada en el tiempo. Típicamente, una señal distorsionada en el tiempo tendrá una ganancia de TNS menor, pero por otro lado, u procesamiento de TNS debido a la característica de formato de ruido temporal en el dominio del tiempo es beneficiario en la situación específica, donde existe una señal sonora/armónica que haya sido sometida a una operación de distorsión temporal. Por otro lado, el procesamiento de TNS no es útil en situaciones, donde la ganancia de TNS es baja, lo que significa que la señal residual de TNS en la línea 510b tiene la misma energía o mayor energía que la señal antes de la etapa 510 de TNS. En una situación, donde la energía de la señal residual de TNS en línea 510d es levemente menor que la energía antes de la etapa 510 de TNS, el procesamiento de TNS podría no ser ventajoso, debido a la reducción de bits debido a que la energía levemente menor en la señal que efectivamente es utilizada por la etapa 512 del codificador de entropía/cuantificador es más pequeña que el incremento de bits introducido por la transmisión necesaria de la información secundaria de TNS indicada en 510a en la figura 5a. Aunque una realización cambia automáticamente en el procesamiento de TNS para todos los marcos, en el que se ingresa una señal distorsionada en el tiempo indicada por la información sobre tonos del bloque 516 o la información del clasificador de señales del bloque 520, una realización preferente también mantienen la posibilidad del procesamiento de TNS desactivado, pero solo cuando la ganancia es realmente baja o al menos menor que en el caso normal, cuando no se procesa ninguna señal armónica/de expresión.
La figura 8b ilustra una implementación donde tres ajustes de umbral diferentes son implementados por el generador 804 de señal de control de umbral/tomador 802 de decisión de TNS. Cuando no existe un contorno de tonos, y cuando el clasificador de señales indica una expresión sorda o ninguna expresión, entonces la el umbral de decisión de TNS se ajusta para que esté en un estado normal requiriendo una ganancia de TNS relativamente alta para activar la TNS. Cuando, sin embargo, se detecta un contorno de tonos, pero el clasificador de señales no indica ninguna expresión o el detector sonoro/mudo detecta una expresión sorda, entonces el umbral de decisión de TNS se fija en un nivel menor, lo que significa que aún cuando las ganancias de TNS comparativamente bajas son calculadas por el bloque 800 en la figura 8a, sin embargo se activa el procesamiento de TNS.
En una situación, en la que se detecta un contorno de tonos activo y en la que se encuentra una expresión sonora, entonces, el umbral de decisión de TNS se fija en el mismo nivel más bajo o se fija en un estado aún menor de manera que aún las pequeñas ganancias de TNS sean suficientes para activar un procesamiento de TNS.
En una realización, el controlador 800 de ganancia de TNS está configurado para estimar una ganancia en calidad o velocidad de bits, cuando la señal de audio se somete al filtrado de predicción sobre la frecuencia. Un tomador 802 de decisión de TNS compara la ganancia estimada con un umbral de decisión, y una información de control de TNS a favor del filtrado de predicción se produce por bloque 802, cuando la ganancia estimada está en una relación predeterminada con respecto al umbral de decisión, donde esta relación predeterminada puede ser una relación de “mayor que”, pero también puede ser una relación de “menor que” para una ganancia invertida de TNS por ejemplo. Según lo debatido, el controlador de formato de ruido temporal además está configurado para variar el umbral de decisión utilizando preferiblemente la señal 806 de control de umbral de manera que, para la misma ganancia estimada, se activa el filtrado de predicción, cuando la representación espectral se basa en la señal de audio distorsionada en el tiempo, y no se activa, cuando la representación espectral no se basa en la señal de audio distorsionada en el tiempo.
Normalmente, la expresión sonora exhibirá un contorno de tonos, y la expresión sorda tal como sonidos fricativos o sonidos sibilantes no exhibirá un contorno de tonos. Sin embargo, existen señales de no expresión, con fuerte contenido armónico y, por lo tanto, poseen un contorno de tonos, aunque el detector de expresión no detecta la expresión. Adicionalmente, existe cierta expresión sobre la música o música sobre señales de expresión, que el analizador de señales de audio (516 de la figura 5a por ejemplo) determina que poseen un contenido armónico, pero que no son detectadas por el clasificador 520 de señales como señal de expresión. En dicha situación, también pueden aplicarse todas las operaciones de procesamiento para señales de expresión sonoras y también darán como resultado una ventaja.
Posteriormente, se describe otra realización preferente de la presente invención con respecto a un codificador de audio para codificar una señal de audio. Este codificador de audio es específicamente útil en el contexto de la extensión del ancho de banda, pero también es útil en las aplicaciones del codificador por sí solas, donde el codificador de audio se ajusta para codificar un cierto número de líneas con el fin de obtener una cierta limitación de ancho de banda/operación de filtrado de paso bajo. En las aplicaciones no distorsionadas en el tiempo, esta limitación de ancho de banda seleccionando un cierto número predeterminado de líneas dará como resultado un ancho de banda constante, ya que la frecuencia de muestreo de la señal de audio es constante. En situaciones, sin embargo, en las que se realiza un procesamiento de distorsión temporal tal como por bloque 506 en la figura 5a, un codificador que depende de un número fijo de líneas dará como resultado un ancho de banda variable introduciendo fuertes artefactos no sólo perceptibles para oyentes capacitados sino también perceptibles para oyentes no capacitados.
El codificador central AAC normalmente codifica un número fijo de líneas, ajustando en cero todos los otros por encima de la línea máxima. En el caso no distorsionado esto lleva a un efecto de paso bajo con una frecuencia de corte constante y por lo tanto un ancho de banda constante de la señal AAC decodificada. En el caso del caso distorsionado en el tiempo el ancho de banda varía debido a la variación de la frecuencia de muestreo local, una función del contorno de distorsión temporal local, que lleva a artefactos audibles. Estos artefactos pueden reducirse eligiendo en forma adaptable el número de líneas - como una función del contorno de distorsión temporal local y su velocidad de muestreo promedio obtenida- a ser codificadas en el codificador central dependiendo de la frecuencia de muestreo local de manera que se obtiene un ancho de banda promedio constante después de redistorsionar en el tiempo en el decodificador para todos los marcos. Un beneficio adicional es el ahorro de bits en el codificador.
El codificador de audio conforme a esta realización comprende el distorsionador 506 temporal para distorsionar en el tiempo una señal de audio que utiliza una característica de distorsión temporal variable. Adicionalmente, se proporciona un convertidor 508 de frecuencia/tiempo para convertir una señal de audio distorsionada en el tiempo en una representación espectral que posee un número de coeficientes espectrales. Adicionalmente, se utiliza un procesador para procesar un número variable de coeficientes espectrales para generar la señal de audio codificada, donde este procesador que comprende el bloque del cuantificador/codificador 512 de la figura 5a está configurado para fijar un número de coeficientes espectrales para un marco de la señal de audio basado en la característica de la distorsión temporal para el marco de manera que se reduzca o se elimine la variación del ancho de banda representada por el número procesado de coeficientes de frecuencia de marco a marco.
El procesador implementado por el bloque 512 puede comprender un controlador 1000 para controlar el número de líneas, donde el resultado del controlador 1000 es aquel, con respecto a un número de líneas fiado para el caso de un marco temporal que está siendo codificado sin ninguna distorsión temporal, se agrega o se descarta un cierto número variable de líneas en el extremo superior del espectro. Dependiendo de la implementación, el controlador 1000 puede recibir una información sobre el contorno de tonos en un cierto marco 1001 y/o una frecuencia de muestreo promedio local en el marco indicado en 1002.
En las figuras 9(a) a 9(e), los dibujos de la derecha ilustran una cierta situación de ancho de banda para ciertos contornos de tonos sobre un marco, donde los contornos de tonos sobre el marco se ilustran en los respectivos dibujos de la izquierda para la distorsión temporal y se ilustran en los dibujos del medio después de la distorsión temporal, donde se obtiene una característica de tono sustancialmente constante. Este es el objetivo de la funcionalidad de la distorsión temporal que, después de la distorsión temporal, la característica del tono es lo más constante posible.
El ancho de banda 900 ilustra el ancho de banda que se obtiene cuando se toma un cierto número de líneas producido por un convertidor 508 de frecuencia/tiempo o producido por una etapa 510 de TNS de la figura 5a, y cuando no se realiza una operación de distorsión temporal, es decir, cuando el distorsionador 506 temporal se desactivó, según lo indicado por la línea sombreada 507. Cuando, sin embargo, se obtiene un contorno de distorsión temporal no constante, y cuando este contorno de distorsión temporal se lleva a un tono más alto induciendo un incremento en la velocidad de muestreo (figura 9(a), (c)) el ancho de banda del espectro disminuye con respecto a una situación no distorsionada en el tiempo, normal. Esto significa que el número de líneas a ser transmitidas para este marco debe incrementarse con el fin de equilibrar esta pérdida de ancho de banda.
En forma alternativa, llevar el tono a un tono constante más bajo ilustrado en la figura 9(b) o figura 9(d) da como resultado una reducción de la tasa de muestreo. La reducción de la tasa de muestreo da como resultado un incremento del ancho de banda del espectro de este marco con respecto a la escala lineal, y este incremento de ancho de banda debe equilibrarse utilizando una supresión o desecho de un cierto número de líneas con respecto al valor del número de líneas para la situación normal no distorsionada en el tiempo.
La figura 9(e) ilustra un caso especial, en el que un contorno de tonos se lleva a un nivel medio de manera que la frecuencia de muestreo promedio dentro de un marco es, en vez de realizar la operación de distorsión temporal, igual que la frecuencia de muestreo sin ninguna distorsión temporal. De este modo, el ancho de banda de la señal no es afectada, y puede procesarse el sencillo número de líneas a ser utilizado para el caso normal sin distorsión temporal, aunque se tenga que realizar la operación de distorsión temporal. De la figura 9, se torna claro que realizar una operación de distorsión temporal no necesariamente influye en el ancho de banda, sino que la influencia en el ancho de banda depende del contorno de tonos y la forma, como se lleva a cabo la distorsión temporal en un marco.
Por lo tanto, es preferible utilizar, como valor de control, una tasa de muestreo local o promedio. La determinación de esta tasa de muestreo local se ilustra en la figura 11. La porción superior en la figura 11 ilustra una porción temporal con valores de muestreo equidistantes. Un marco incluye, por ejemplo, siete valores de muestreo indicados por Tn en la línea superior. La línea inferior muestra el resultado de una operación de distorsión temporal, en la que, totalmente, se ha producido un incremento de la tasa de muestreo. Esto significa que la longitud del marco distorsionado en el tiempo es más pequeña que la longitud temporal del marco no distorsionado en el tiempo. Sin embargo, debido a que la longitud temporal del marco distorsionado en el tiempo a ser introducido en el convertidor de frecuencia/tiempo es fija, el caso de un incremento de la tasa de muestreo hace que una porción adicional de la señal temporal que no pertenece al marco indicado por Tn sea introducido en el marco distorsionado en el tiempo según lo indicado por las líneas 1100. De este modo, un marco distorsionado en el tiempo cubre una porción temporal de la señal de audio indicada por Tlin el cual es mayor que el tiempo Tn. En vista de ello, la distancia efectiva entre dos líneas de frecuencia o el ancho de banda de la frecuencia de una única línea en el dominio lineal (el cual es el valor inverso para la resolución) ha disminuido, y el número de líneas Nn fijadas para un caso no distorsionado en el tiempo cuando se multiplica por la distancia de frecuencia reducida da como resultado un ancho de banda más pequeño, es decir, una reducción del ancho de banda.
El otro caso, no ilustrado en la figura 11, donde el distorsionador temporal lleva a cabo una reducción de la tasa de muestreo, la longitud de tiempo efectivo de un marco en el dominio distorsionado en el tiempo es más pequeña que la longitud temporal del dominio no distorsionado en el tiempo de manera que el ancho de banda de la frecuencia de una única línea o la distancia entre dos líneas de frecuencia se ha incrementado. Ahora, multiplicar este Af incrementado por el número Nn de líneas para el caso normal dará como resultado un ancho de banda incrementado debido a la resolución de frecuencia reducida/distancia de frecuencia incrementada entre dos coeficientes de frecuencias adyacentes.
La figura 11 adicionalmente ilustra, como se calcula una tasa de muestreo promedio fsR. Para este fin, se determina la distancia temporal entre dos muestras distorsionadas en el tiempo y se toma el valor inverso, el que se define que es la tasa de muestreo local entre dos muestras distorsionadas en el tiempo. Dicho valor puede calcularse entre cada par de muestras adyacentes, y puede calcularse el valor promedio aritmético y este valor finalmente da como resultado la tasa de muestreo promedio local, que preferiblemente se utiliza para ser ingresada en el controlador 1000 de la figura 10a.
La figura 10b ilustra una línea que indica cuantas líneas deben agregarse o descartarse dependiendo de la frecuencia de muestreo local, donde la frecuencia de muestreo fN para el caso no distorsionado junto con el número de líneas Nn para el caso no distorsionado en el tiempo define el ancho de banda previsto, el que debe mantenerse constante tanto como sea posible para una secuencia de marcos distorsionados en el tiempo o para una secuencia de marcos distorsionados en el tiempo y no distorsionados en el tiempo.
La figura 12b ilustra la dependencia entre los diferentes parámetros debatidos con relación a la figura 9, figura 10b y figura 11. Básicamente, cuando la tasa de muestreo, es decir, la tasa de muestreo promedio fsR disminuye con respecto a el caso no distorsionado en el tiempo, las líneas deben suprimirse, mientras que las líneas deben agregarse, cuando la tasa de muestreo aumenta con respecto a la tasa de muestreo normal fN para el caso no distorsionado en el tiempo de manera que las variaciones del ancho de banda de marco a marco se reducen o preferiblemente aún se eliminan tanto como sea posible.
El ancho de banda que resulta en el número de líneas NN y la tasa de muestreo fN preferiblemente define la frecuencia 1200 de cruce para un codificador de audio que, además de un codificador de audio central fuente, posee un codificador de extensión de ancho de banda (codificador BWE). Tal como se conoce en el arte, un codificador de extensión de ancho de banda solamente codifica un espectro con una alta velocidad de bits hasta la frecuencia de cruce y codifica el espectro de la banda alta, es decir, entre la frecuencia 1200 de cruce y la frecuencia fMAx con una velocidad de bits baja, donde esta velocidad de bits baja típicamente es aún menor que 1/10 o menos de la velocidad de bits requerida para la banda baja entre una frecuencia de 0 y la frecuencia 1200 de cruce. La figura 12a además ilustra el ancho de banda BWaac de un codificador de audio AAC sencillo, que es mucho mayor que la frecuencia de cruce. Por lo tanto, las líneas no solamente pueden descartares, sino que también pueden agregarse. Además, también se ilustra la variación del ancho de banda para un número de líneas constante dependiendo de la tasa de muestreo local fsR. Preferiblemente, el número de líneas a ser agregadas o a ser suprimidas con respecto al número de líneas para el caso normal se fija de manera que cada marco de los datos codificados de AAC posee una frecuencia máxima tan cercana como sea posible a la frecuencia 1200 de cruce. De este modo, se evita cualquier agujero espectral debido a la reducción del ancho de banda por un lado o un espacio libre inutilizado transmitiendo información en una frecuencia por encima de la frecuencia de cruce en el marco codificado de banda baja. Esto, por un lado, incrementa la calidad de la señal de audio decodificada y, por otro lado, disminuye la velocidad de bits.
El agregado real de líneas con respecto a un número fijo de líneas o una supresión de líneas con respecto al número fijo de líneas puede realizarse antes de cuantificar las líneas, es decir, en la entrada 512 del bloque, o puede realizarse después de cuantificar o también puede realizarse, dependiendo del código de entropía específico, después de la codificación de entropía.
Además, es preferible llevar las variaciones de ancho de banda a un nivel mínimo y aún eliminar las variaciones de ancho de banda, pero, en otras implementaciones, aún una reducción de las variaciones del ancho de banda determinando el número de líneas que dependen de la característica de distorsión temporal aún aumenta la calidad de audio y reduce la velocidad de bits requerida en comparación con una situación, donde se aplica un número de líneas constante independientemente de una cierta característica de distorsión temporal.
Aunque se han descrito algunos aspectos en el contexto de un equipo, está claro que estos aspectos también representan una descripción del método correspondiente, donde un bloque o dispositivo corresponde a un paso del método o una característica del paso del método. En forma análoga, los aspectos descritos en el contexto de un paso del método representan una descripción de un bloque correspondiente o ítem o característica del equipo correspondiente.
Dependiendo de ciertos requerimientos de implementación, las realizaciones de la invención pueden implementarse en hardware o en software. La implementación puede realizarse utilizando un medio de almacenamiento digital, por ejemplo un floppy disk, un DVD, un CD, un ROM, un PROM, un EPROM, un EEPROM o una memoria FLASH, que posea señales de control electrónicamente legibles almacenadas en los mismos, que cooperen (o sean capaces de cooperar) con un sistema informático programable de manera tal que se lleve a cabo el método respectivo. Algunas realizaciones conforme a la invención comprenden un soporte de datos que posee señales de control electrónicamente legibles, que son capaces de cooperar con un sistema informático programable, de manera tal que se lleve a cabo uno de los métodos descritos en la presente. Generalmente, las realizaciones de la presente invención pueden implementarse como un producto de programa informático con un código de programa, el código de programa que es operativo para realizar uno de los métodos cuando el producto de programa informático funciona en la computadora. El código de programa puede por ejemplo almacenarse en un soporte legible en la máquina. Otras realizaciones comprenden el programa informático para llevar a cabo uno de los métodos descritos en la presente, almacenado en el soporte legible en la máquina. En otras palabras, una realización del método inventivo es, por lo tanto, un programa informático que posee un código de programa para llevar a cabo uno de los métodos descritos en la presente, cuando el programa informático funciona en un ordenador. Una realización adicional de los métodos inventivos es, por lo tanto, un soporte de datos (o un medio de almacenamiento digital, o un medio legible en computadora) que comprende, grabado en los mismos, el programa informático que lleva a cabo uno de los métodos descritos en la presente. Una realización adicional del método inventivo es, por lo tanto, una corriente de datos o una secuencia de señales que representan el programa informático para llevar a cabo uno de los métodos descritos en la presente. La corriente de datos o la secuencia de señales puede por ejemplo configurarse para ser transferida a través de una conexión de comunicación de datos, por ejemplo a través de Internet. Una realización adicional comprende un medio de procesamiento, por ejemplo un ordenador, o un dispositivo lógico programable, configurado para o adaptado para llevar a cabo uno de los métodos descritos en la presente. Una realización adicional comprende un ordenador que posee el programa informático instalado en la mismo para llevar a cabo uno de los métodos descritos en la presente. En algunas realizaciones, puede utilizarse un dispositivo lógico programable (por ejemplo una matriz de puertas programables del campo) para llevar a cabo algunas o todas las funcionalidades de los métodos descritos en la presente. En algunas realizaciones, una matriz de puertas programables del campo puede cooperar con un microprocesador con el fin de llevar a cabo uno de los métodos descritos en la presente.

Claims (1)

  1. REIVINDICACIONES
    Codificador de audio para codificar una señal de audio, que comprende:
    un distorsionador (506) de tiempo;
    un convertidor (508) de tiempo-frecuencia para llevar a cabo una conversión de tiempo/frecuencia de una señal de audio distorsionada en tiempo en una representación espectral;
    un cuantificador (512) para cuantificar valores de audio, en donde el cuantificador está configurado para cuantificar a valores de audio cero por debajo de un umbral de cuantificación;
    un calculador (524) de relleno de ruido para estimar una medida de una energía de valores de audio cuantificados a cero durante un marco de tiempo de la señal de audio para obtener una medida de relleno de ruido;
    un analizador (516) de señal de audio para analizar si el marco de tiempo de la señal de audio tiene una característica armónica o de expresión;
    en donde el analizador (516) de señal de audio provee una información de la distorsión de tiempo en la salida (518), que está conectada al distorsionador (506) de tiempo;
    un manipulador (602) para manipular la medida de relleno de ruido dependiendo de una característica armónica o de expresión de la señal de audio para obtener una medida de relleno de ruido manipulada; y una interfaz (522) de salida para generar una señal codificada para transmisión o almacenamiento, la señal codificada comprendiendo la medida (530) de relleno de ruido manipulada;
    en donde el manipulador (602) está configurado para aplicar un nivel de ruido normal cuando la señal no tiene una característica armónica o de expresión y cuando no se aplica distorsión de tiempo, y para manipular el nivel de relleno de ruido para que sea inferior que en el caso normal cuando un contorno de tono se encontró por el analizador de señal de audio, que indica un contenido armónico, y la distorsión de tiempo está activa.
    Codificador de audio de acuerdo con la reivindicación 1,
    en el cual el analizador (516) de señal de audio comprende un accionador de tono para generar una indicación de un tono, donde un tono se encuentra en el marco de tiempo de la señal de audio, y en el cual el manipulador (602) está configurado para reducir la medida de relleno de ruido, cuando se encuentra un tono.
    Decodificador para decodificar una señal de audio codificada que comprende:
    una interfaz (539) de entrada para procesar la señal de audio codificada para obtener una medida (543) de relleno de ruido y datos (546) de audio codificados;
    un decodificador/re-cuantificador (547, 550) para generar datos re-cuantificados;
    una analizador (600) de señal para recuperar información, si un marco de tiempo de los datos de audio tiene característica armónica o de expresión; y
    un relleno (552) de ruido para generar datos de audio de relleno de ruido,
    donde el relleno (552) de ruido está configurado para generar datos de relleno de ruido en respuesta a la medida de relleno de ruido y a la característica armónica o de expresión de los datos de audio; y un procesador (556, 558, 560) para procesar los datos re-cuantificados y los datos de audio de relleno de ruido para obtener una señal (564) de audio decodificada;
    en donde la señal de audio codificada comprende datos (542, 541) que indican, si el marco de tiempo de los datos de audio data tiene una característica armónica o de expresión, y
    en donde el analizador (600) de señal está configurado para analizar la señal de audio codificada para recuperar datos que indican si el marco de tiempo de los datos de audio tiene una característica armónica o de expresión,
    en donde los datos son una indicación de que la porción de tiempo ha sido sometida a un procesamiento de distorsión de tiempo, y
    en donde el procesador comprende un regenerador (558) de tiempo para regenerar en tiempo una señal de audio derivada de los datos de relleno de ruido y los datos recuantificados.
    Método para codificar una señal de audio, que comprende:
    distorsionar (506) en tiempo una señal de audio;
    realizar (508) una conversión de tiempo/frecuencia de una señal de audio distorsionada en tiempo en una representación espectral;
    cuantificar (512) valores de audio, donde los valores debajo de un umbral de cuantificación son cuantificados a cero;
    estimar (524) una medida de una energía de valores de audio cuantificados a cero para un marco de tiempo de la señal de audio para obtener una medida de relleno de ruido;
    analizar (516) si el marco de tiempo de la señal de audio tiene una característica armónica o de expresión; proveer una información de distorsión del tiempo que se usa por la disporsión del tiempo;
    manipular (602) la medida de relleno de ruido dependiendo de una característica armónica o de expresión de la señal de audio para obtener una medida de relleno de ruido manipulada de modo que se aplique un nivel de ruido normal cuando la señal no tenga una característica armónica o de expresión y cuando no se aplique distorsión de tiempo, y de modo que el nivel de relleno de ruido se manipule para que sea inferior que en el caso normal cuando se encuentre un contorno de tono, lo que indica un contenido armónico, y la distorsión de tiempo esté activa; y
    generar (522) una señal codificada para transmisión o almacenamiento, la señal codificada comprendiendo la medida (530) de relleno de ruido manipulada.
    Método para decodificar una señal de audio codificada, en donde la señal de audio codificada comprende datos (542, 541) que indican si el marco de tiempo de los datos de audio tiene una característica armónica o de expresión, que comprende:
    procesar (539) la señal de audio codificada para obtener una medida (543) de relleno de ruido y datos (546) de audio codificados;
    analizar la señal de audio codificada para recuperar datos que indiquen si el marco de tiempo de los datos de audio tiene una característica armónica o de expresión, en donde los datos son una indicación de que la porción de tiempo ha sido sometida a un procesamiento de distorsión de tiempo;
    generar (547, 550) datos recuantificados;
    recuperar (600) información sobre si un marco de tiempo de los datos de audio tiene una característica armónica o de expresión; y
    generar (552) datos de audio de relleno de tiempo en respuesta a la medida de relleno de ruido y la característica armónica o de expresión de los datos de audio; y
    procesar (556, 558, 560) los datos recuantificados y los datos de audio de relleno de ruido para obtener una señal (564) de audio decodificada, en donde el procesamiento comprende regenerar en tiempo una señal de audio derivada de los datos de relleno de ruido y datos recuantificados.
    Programa informático que tiene un código de programa para llevar a cabo, al ponerse en marcha en un ordenador, el método de la reivindicación 4 o el método de la reivindicación 5.
ES11180983T 2008-07-11 2009-07-06 Método y aparato para codificar y decodificar una señal de audio y programas informáticos Active ES2758799T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US7987308P 2008-07-11 2008-07-11

Publications (1)

Publication Number Publication Date
ES2758799T3 true ES2758799T3 (es) 2020-05-06

Family

ID=41037694

Family Applications (5)

Application Number Title Priority Date Filing Date
ES11180988T Active ES2741963T3 (es) 2008-07-11 2009-07-06 Codificadores de señal de audio, métodos para codificar una señal de audio y programas informáticos
ES11180983T Active ES2758799T3 (es) 2008-07-11 2009-07-06 Método y aparato para codificar y decodificar una señal de audio y programas informáticos
ES09776982T Active ES2379761T3 (es) 2008-07-11 2009-07-06 Proporcinar una señal de activación de distorsión de tiempo y codificar una señal de audio con la misma
ES11180989.3T Active ES2654432T3 (es) 2008-07-11 2009-07-06 Codificador de señal de audio, método para generar una señal de audio y programa informático
ES11180990.1T Active ES2654433T3 (es) 2008-07-11 2009-07-06 Codificador de señal de audio, método para codificar una señal de audio y programa informático

Family Applications Before (1)

Application Number Title Priority Date Filing Date
ES11180988T Active ES2741963T3 (es) 2008-07-11 2009-07-06 Codificadores de señal de audio, métodos para codificar una señal de audio y programas informáticos

Family Applications After (3)

Application Number Title Priority Date Filing Date
ES09776982T Active ES2379761T3 (es) 2008-07-11 2009-07-06 Proporcinar una señal de activación de distorsión de tiempo y codificar una señal de audio con la misma
ES11180989.3T Active ES2654432T3 (es) 2008-07-11 2009-07-06 Codificador de señal de audio, método para generar una señal de audio y programa informático
ES11180990.1T Active ES2654433T3 (es) 2008-07-11 2009-07-06 Codificador de señal de audio, método para codificar una señal de audio y programa informático

Country Status (18)

Country Link
US (7) US9015041B2 (es)
EP (5) EP2410521B1 (es)
JP (5) JP5538382B2 (es)
KR (5) KR101360456B1 (es)
CN (5) CN103000186B (es)
AR (8) AR072740A1 (es)
AT (1) ATE539433T1 (es)
AU (1) AU2009267433B2 (es)
BR (1) BRPI0910790A2 (es)
CA (5) CA2836871C (es)
ES (5) ES2741963T3 (es)
HK (5) HK1155551A1 (es)
MX (1) MX2011000368A (es)
PL (4) PL2410522T3 (es)
PT (3) PT2410522T (es)
RU (5) RU2589309C2 (es)
TW (1) TWI463484B (es)
WO (1) WO2010003618A2 (es)

Families Citing this family (85)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7720677B2 (en) * 2005-11-03 2010-05-18 Coding Technologies Ab Time warped modified transform coding of audio signals
EP2107556A1 (en) * 2008-04-04 2009-10-07 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio transform coding using pitch correction
ES2741963T3 (es) 2008-07-11 2020-02-12 Fraunhofer Ges Forschung Codificadores de señal de audio, métodos para codificar una señal de audio y programas informáticos
MY154452A (en) 2008-07-11 2015-06-15 Fraunhofer Ges Forschung An apparatus and a method for decoding an encoded audio signal
US9042560B2 (en) * 2009-12-23 2015-05-26 Nokia Corporation Sparse audio
JP5625076B2 (ja) 2010-03-10 2014-11-12 フラウンホーファーゲゼルシャフトツール フォルデルング デル アンゲヴァンテン フォルシユング エー.フアー. コーディングコンテキストのピッチ依存適合を用いた、オーディオ信号復号器、オーディオ信号符号化器、オーディオ信号を復号するための方法、オーディオ信号を符号化するための方法、およびコンピュータプログラム
JP5814341B2 (ja) 2010-04-09 2015-11-17 ドルビー・インターナショナル・アーベー Mdctベース複素予測ステレオ符号化
US8924222B2 (en) 2010-07-30 2014-12-30 Qualcomm Incorporated Systems, methods, apparatus, and computer-readable media for coding of harmonic signals
US9208792B2 (en) * 2010-08-17 2015-12-08 Qualcomm Incorporated Systems, methods, apparatus, and computer-readable media for noise injection
US9008811B2 (en) 2010-09-17 2015-04-14 Xiph.org Foundation Methods and systems for adaptive time-frequency resolution in digital data coding
EP2619758B1 (en) 2010-10-15 2015-08-19 Huawei Technologies Co., Ltd. Audio signal transformer and inverse transformer, methods for audio signal analysis and synthesis
CN103229236B (zh) * 2010-11-25 2016-05-18 日本电气株式会社 信号处理装置、信号处理方法
ES2627410T3 (es) * 2011-01-14 2017-07-28 Iii Holdings 12, Llc Aparato para codificar una señal de voz/sonido
TWI484479B (zh) 2011-02-14 2015-05-11 Fraunhofer Ges Forschung 用於低延遲聯合語音及音訊編碼中之錯誤隱藏之裝置和方法
CN103503061B (zh) 2011-02-14 2016-02-17 弗劳恩霍夫应用研究促进协会 在一频谱域中用以处理已解码音频信号的装置及方法
BR112013020592B1 (pt) 2011-02-14 2021-06-22 Fraunhofer-Gellschaft Zur Fôrderung Der Angewandten Forschung E. V. Codec de áudio utilizando síntese de ruído durante fases inativas
AR085224A1 (es) 2011-02-14 2013-09-18 Fraunhofer Ges Forschung Codec de audio utilizando sintesis de ruido durante fases inactivas
EP3239978B1 (en) 2011-02-14 2018-12-26 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Encoding and decoding of pulse positions of tracks of an audio signal
JP6110314B2 (ja) 2011-02-14 2017-04-05 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン 整列したルックアヘッド部分を用いてオーディオ信号を符号化及び復号するための装置並びに方法
EP2550653B1 (en) 2011-02-14 2014-04-02 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Information signal representation using lapped transform
TWI488176B (zh) 2011-02-14 2015-06-11 Fraunhofer Ges Forschung 音訊信號音軌脈衝位置之編碼與解碼技術
MX2013009304A (es) * 2011-02-14 2013-10-03 Fraunhofer Ges Forschung Aparato y metodo para codificar una porcion de una señal de audio utilizando deteccion de un transiente y resultado de calidad.
WO2012122303A1 (en) 2011-03-07 2012-09-13 Xiph. Org Method and system for two-step spreading for tonal artifact avoidance in audio coding
WO2012122299A1 (en) 2011-03-07 2012-09-13 Xiph. Org. Bit allocation and partitioning in gain-shape vector quantization for audio coding
WO2012122297A1 (en) * 2011-03-07 2012-09-13 Xiph. Org. Methods and systems for avoiding partial collapse in multi-block audio coding
EP2707873B1 (en) * 2011-05-09 2015-04-08 Dolby International AB Method and encoder for processing a digital stereo audio signal
US9349380B2 (en) 2011-06-30 2016-05-24 Samsung Electronics Co., Ltd. Apparatus and method for generating bandwidth extension signal
CN102208188B (zh) 2011-07-13 2013-04-17 华为技术有限公司 音频信号编解码方法和设备
WO2013092292A1 (en) * 2011-12-21 2013-06-27 Dolby International Ab Audio encoder with parallel architecture
KR20130109793A (ko) * 2012-03-28 2013-10-08 삼성전자주식회사 잡음 감쇄를 위한 오디오 신호 부호화 방법 및 장치
KR102123770B1 (ko) * 2012-03-29 2020-06-16 텔레폰악티에볼라겟엘엠에릭슨(펍) 하모닉 오디오 신호의 변환 인코딩/디코딩
MY167474A (en) 2012-03-29 2018-08-29 Ericsson Telefon Ab L M Bandwith extension of harmonic audio signal
EP2709106A1 (en) * 2012-09-17 2014-03-19 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for generating a bandwidth extended signal from a bandwidth limited audio signal
CN103854653B (zh) 2012-12-06 2016-12-28 华为技术有限公司 信号解码的方法和设备
WO2014096236A2 (en) * 2012-12-19 2014-06-26 Dolby International Ab Signal adaptive fir/iir predictors for minimizing entropy
ES2688021T3 (es) 2012-12-21 2018-10-30 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Adición de ruido de confort para modelar ruido de fondo a bajas tasas de bits
MX344169B (es) 2012-12-21 2016-12-07 Fraunhofer Ges Forschung Generacion de ruido de confort con alta resolucion espectro-temporal en transmision discontinua de señales de audio.
MY173781A (en) 2013-01-08 2020-02-20 Dolby Int Ab Model based prediction in a critically sampled filterbank
CN103971694B (zh) 2013-01-29 2016-12-28 华为技术有限公司 带宽扩展频带信号的预测方法、解码设备
CN105264597B (zh) * 2013-01-29 2019-12-10 弗劳恩霍夫应用研究促进协会 感知转换音频编码中的噪声填充
PT2951814T (pt) 2013-01-29 2017-07-25 Fraunhofer Ges Forschung Ênfase de baixa frequência para codificação com base em lpc em domínio de frequência
PT3121813T (pt) 2013-01-29 2020-06-17 Fraunhofer Ges Forschung Preenchimento de ruído sem informação lateral para codificadores do tipo celp
RU2676870C1 (ru) * 2013-01-29 2019-01-11 Фраунхофер-Гезелльшафт Цур Фердерунг Дер Ангевандтен Форшунг Е.Ф. Декодер для формирования аудиосигнала с улучшенной частотной характеристикой, способ декодирования, кодер для формирования кодированного сигнала и способ кодирования с использованием компактной дополнительной информации для выбора
DK2981963T3 (en) 2013-04-05 2017-02-27 Dolby Laboratories Licensing Corp COMPRESSION APPARATUS AND PROCEDURE TO REDUCE QUANTIZATION NOISE USING ADVANCED SPECTRAL EXTENSION
EP3382699B1 (en) 2013-04-05 2020-06-17 Dolby International AB Audio encoder and decoder for interleaved waveform coding
CA2997882C (en) 2013-04-05 2020-06-30 Dolby International Ab Audio encoder and decoder
EP3321934B1 (en) * 2013-06-21 2024-04-10 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Time scaler, audio decoder, method and a computer program using a quality control
JP6360165B2 (ja) * 2013-06-21 2018-07-18 フラウンホーファーゲゼルシャフト ツール フォルデルング デル アンゲヴァンテン フォルシユング エー.フアー. 快適ノイズの適応スペクトル形状を生成するための装置及び方法
EP3011692B1 (en) 2013-06-21 2017-06-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Jitter buffer control, audio decoder, method and computer program
CN108364657B (zh) 2013-07-16 2020-10-30 超清编解码有限公司 处理丢失帧的方法和解码器
EP2830055A1 (en) 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Context-based entropy coding of sample values of a spectral envelope
EP2830061A1 (en) 2013-07-22 2015-01-28 Fraunhofer Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for encoding and decoding an encoded audio signal using temporal noise/patch shaping
US9379830B2 (en) * 2013-08-16 2016-06-28 Arris Enterprises, Inc. Digitized broadcast signals
CN105225666B (zh) * 2014-06-25 2016-12-28 华为技术有限公司 处理丢失帧的方法和装置
EP2980798A1 (en) * 2014-07-28 2016-02-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Harmonicity-dependent controlling of a harmonic filter tool
EP2980792A1 (en) 2014-07-28 2016-02-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for generating an enhanced signal using independent noise-filling
PT3000110T (pt) 2014-07-28 2017-02-15 Fraunhofer Ges Forschung Seleção de um de entre um primeiro algoritmo de codificação e um segundo algoritmo de codificação com o uso de redução de harmônicos.
EP2980794A1 (en) 2014-07-28 2016-02-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoder and decoder using a frequency domain processor and a time domain processor
EP2980801A1 (en) * 2014-07-28 2016-02-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Method for estimating noise in an audio signal, noise estimator, audio encoder, audio decoder, and system for transmitting audio signals
EP2980795A1 (en) 2014-07-28 2016-02-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoding and decoding using a frequency domain processor, a time domain processor and a cross processor for initialization of the time domain processor
EP2980793A1 (en) * 2014-07-28 2016-02-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Encoder, decoder, system and methods for encoding and decoding
CN108028047B (zh) * 2015-06-30 2022-08-30 弗劳恩霍夫应用研究促进协会 用于生成数据库的方法和设备
US9514766B1 (en) * 2015-07-08 2016-12-06 Continental Automotive Systems, Inc. Computationally efficient data rate mismatch compensation for telephony clocks
JP6705142B2 (ja) * 2015-09-17 2020-06-03 ヤマハ株式会社 音質判定装置及びプログラム
US10186276B2 (en) * 2015-09-25 2019-01-22 Qualcomm Incorporated Adaptive noise suppression for super wideband music
US20170178648A1 (en) * 2015-12-18 2017-06-22 Dolby International Ab Enhanced Block Switching and Bit Allocation for Improved Transform Audio Coding
US9711121B1 (en) * 2015-12-28 2017-07-18 Berggram Development Oy Latency enhanced note recognition method in gaming
US9640157B1 (en) * 2015-12-28 2017-05-02 Berggram Development Oy Latency enhanced note recognition method
CA3012159C (en) * 2016-01-22 2021-07-20 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus and method for encoding or decoding a multi-channel signal using a broadband alignment parameter and a plurality of narrowband alignment parameters
US9874624B2 (en) * 2016-02-29 2018-01-23 Nextnav, Llc Interference detection and rejection for wide area positioning systems using maximal ratio combining in the correlation domain
US10397663B2 (en) * 2016-04-08 2019-08-27 Source Digital, Inc. Synchronizing ancillary data to content including audio
CN106093453B (zh) * 2016-06-06 2019-10-22 广东溢达纺织有限公司 整经机经轴密度检测装置及方法
CN106356076B (zh) * 2016-09-09 2019-11-05 北京百度网讯科技有限公司 基于人工智能的语音活动性检测方法和装置
CN114885274B (zh) * 2016-09-14 2023-05-16 奇跃公司 空间化音频系统以及渲染空间化音频的方法
US10475471B2 (en) * 2016-10-11 2019-11-12 Cirrus Logic, Inc. Detection of acoustic impulse events in voice applications using a neural network
US10242696B2 (en) 2016-10-11 2019-03-26 Cirrus Logic, Inc. Detection of acoustic impulse events in voice applications
US20180218572A1 (en) * 2017-02-01 2018-08-02 Igt Gaming system and method for determining awards based on matching symbols
EP3382702A1 (en) * 2017-03-31 2018-10-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for determining a predetermined characteristic related to an artificial bandwidth limitation processing of an audio signal
EP3382700A1 (en) * 2017-03-31 2018-10-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for post-processing an audio signal using a transient location detection
EP3382701A1 (en) 2017-03-31 2018-10-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for post-processing an audio signal using prediction based shaping
US10431242B1 (en) * 2017-11-02 2019-10-01 Gopro, Inc. Systems and methods for identifying speech based on spectral features
EP3483879A1 (en) * 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Analysis/synthesis windowing function for modulated lapped transformation
JP6975928B2 (ja) * 2018-03-20 2021-12-01 パナソニックIpマネジメント株式会社 トリマー刃及び体毛切断装置
CN109448749B (zh) * 2018-12-19 2022-02-15 中国科学院自动化研究所 基于有监督学习听觉注意的语音提取方法、系统、装置
CN113470671B (zh) * 2021-06-28 2024-01-23 安徽大学 一种充分利用视觉与语音联系的视听语音增强方法及系统

Family Cites Families (90)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07850B2 (ja) * 1986-03-11 1995-01-11 河本製機株式会社 フイラメント糸の経糸糊付乾燥方法と経糸糊付乾燥装置
US5054075A (en) 1989-09-05 1991-10-01 Motorola, Inc. Subband decoding method and apparatus
JP3076859B2 (ja) 1992-04-20 2000-08-14 三菱電機株式会社 ディジタルオーディオ信号の信号処理装置
US5408580A (en) 1992-09-21 1995-04-18 Aware, Inc. Audio compression system employing multi-rate signal analysis
FI105001B (fi) 1995-06-30 2000-05-15 Nokia Mobile Phones Ltd Menetelmä odotusajan selvittämiseksi puhedekooderissa epäjatkuvassa lähetyksessä ja puhedekooderi sekä lähetin-vastaanotin
US5704003A (en) 1995-09-19 1997-12-30 Lucent Technologies Inc. RCELP coder
JP3707116B2 (ja) * 1995-10-26 2005-10-19 ソニー株式会社 音声復号化方法及び装置
US5659622A (en) 1995-11-13 1997-08-19 Motorola, Inc. Method and apparatus for suppressing noise in a communication system
US5848391A (en) 1996-07-11 1998-12-08 Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E.V. Method subband of coding and decoding audio signals using variable length windows
US6134518A (en) 1997-03-04 2000-10-17 International Business Machines Corporation Digital audio signal coding using a CELP coder and a transform coder
US6131084A (en) * 1997-03-14 2000-10-10 Digital Voice Systems, Inc. Dual subframe quantization of spectral magnitudes
KR100261254B1 (ko) 1997-04-02 2000-07-01 윤종용 비트율 조절이 가능한 오디오 데이터 부호화/복호화방법 및 장치
KR100261253B1 (ko) 1997-04-02 2000-07-01 윤종용 비트율 조절이 가능한 오디오 부호화/복호화 방법및 장치
US6016111A (en) 1997-07-31 2000-01-18 Samsung Electronics Co., Ltd. Digital data coding/decoding method and apparatus
US6070137A (en) 1998-01-07 2000-05-30 Ericsson Inc. Integrated frequency-domain voice coding using an adaptive spectral enhancement filter
ES2247741T3 (es) 1998-01-22 2006-03-01 Deutsche Telekom Ag Metodo para conmutacion controlada por señales entre esquemas de codificacion de audio.
US6115689A (en) 1998-05-27 2000-09-05 Microsoft Corporation Scalable audio coder and decoder
US6453285B1 (en) * 1998-08-21 2002-09-17 Polycom, Inc. Speech activity detector for use in noise reduction system, and methods therefor
US6449590B1 (en) 1998-08-24 2002-09-10 Conexant Systems, Inc. Speech encoder using warping in long term preprocessing
US6330533B2 (en) * 1998-08-24 2001-12-11 Conexant Systems, Inc. Speech encoder adaptively applying pitch preprocessing with warping of target signal
US7047185B1 (en) * 1998-09-15 2006-05-16 Skyworks Solutions, Inc. Method and apparatus for dynamically switching between speech coders of a mobile unit as a function of received signal quality
US7272556B1 (en) 1998-09-23 2007-09-18 Lucent Technologies Inc. Scalable and embedded codec for speech and audio signals
US6424938B1 (en) * 1998-11-23 2002-07-23 Telefonaktiebolaget L M Ericsson Complex signal activity detection for improved speech/noise classification of an audio signal
US6691084B2 (en) 1998-12-21 2004-02-10 Qualcomm Incorporated Multiple mode variable rate speech coding
SE9903553D0 (sv) * 1999-01-27 1999-10-01 Lars Liljeryd Enhancing percepptual performance of SBR and related coding methods by adaptive noise addition (ANA) and noise substitution limiting (NSL)
US6223151B1 (en) 1999-02-10 2001-04-24 Telefon Aktie Bolaget Lm Ericsson Method and apparatus for pre-processing speech signals prior to coding by transform-based speech coders
DE19910833C1 (de) * 1999-03-11 2000-05-31 Mayer Textilmaschf Kurzketten-Schärmaschine
EP1099215B1 (en) * 1999-05-26 2005-02-23 Koninklijke Philips Electronics N.V. Audio signal transmission system
US6782360B1 (en) * 1999-09-22 2004-08-24 Mindspeed Technologies, Inc. Gain quantization for a CELP speech coder
US6581032B1 (en) 1999-09-22 2003-06-17 Conexant Systems, Inc. Bitstream protocol for transmission of encoded voice signals
US6366880B1 (en) * 1999-11-30 2002-04-02 Motorola, Inc. Method and apparatus for suppressing acoustic background noise in a communication system by equaliztion of pre-and post-comb-filtered subband spectral energies
US6718309B1 (en) * 2000-07-26 2004-04-06 Ssi Corporation Continuously variable time scale modification of digital audio signals
JP2002149200A (ja) * 2000-08-31 2002-05-24 Matsushita Electric Ind Co Ltd 音声処理装置及び音声処理方法
US6850884B2 (en) * 2000-09-15 2005-02-01 Mindspeed Technologies, Inc. Selection of coding parameters based on spectral content of a speech signal
CN1408146A (zh) * 2000-11-03 2003-04-02 皇家菲利浦电子有限公司 音频信号的参数编码
US6925435B1 (en) * 2000-11-27 2005-08-02 Mindspeed Technologies, Inc. Method and apparatus for improved noise reduction in a speech encoder
SE0004818D0 (sv) 2000-12-22 2000-12-22 Coding Technologies Sweden Ab Enhancing source coding systems by adaptive transposition
BR0204818A (pt) * 2001-04-05 2003-03-18 Koninkl Philips Electronics Nv Métodos para modificar e expandir a escala de tempo de um sinal, e para receber um sinal de áudio, dispositivo de modificação de escala de tempo adaptado para modificar um sinal, e, receptor para receber um sinal de áudio
FI110729B (fi) * 2001-04-11 2003-03-14 Nokia Corp Menetelmä pakatun audiosignaalin purkamiseksi
DK1386312T3 (da) 2001-05-10 2008-06-09 Dolby Lab Licensing Corp Forbedring af transient ydeevne af audio kodningssystemer med lav bithastighed ved reduktion af forudgående stöj
DE20108778U1 (de) 2001-05-25 2001-08-02 Mannesmann Vdo Ag Gehäuse für ein in einem Fahrzeug verwendbares Gerät zur automatischen Ermittlung von Straßenbenutzungsgebühren
US6879955B2 (en) 2001-06-29 2005-04-12 Microsoft Corporation Signal modification based on continuous time warping for low bit rate CELP coding
EP1278185A3 (en) 2001-07-13 2005-02-09 Alcatel Method for improving noise reduction in speech transmission
US6963842B2 (en) 2001-09-05 2005-11-08 Creative Technology Ltd. Efficient system and method for converting between different transform-domain signal representations
WO2003036620A1 (en) * 2001-10-26 2003-05-01 Koninklijke Philips Electronics N.V. Tracking of sinusoidal parameters in an audio coder
CA2365203A1 (en) 2001-12-14 2003-06-14 Voiceage Corporation A signal modification method for efficient coding of speech signals
JP2003316392A (ja) 2002-04-22 2003-11-07 Mitsubishi Electric Corp オーディオ信号の復号化及び符号化装置、復号化装置並びに符号化装置
US6950634B2 (en) 2002-05-23 2005-09-27 Freescale Semiconductor, Inc. Transceiver circuit arrangement and method
US7457757B1 (en) 2002-05-30 2008-11-25 Plantronics, Inc. Intelligibility control for speech communications systems
US7447631B2 (en) * 2002-06-17 2008-11-04 Dolby Laboratories Licensing Corporation Audio coding system using spectral hole filling
TWI288915B (en) * 2002-06-17 2007-10-21 Dolby Lab Licensing Corp Improved audio coding system using characteristics of a decoded signal to adapt synthesized spectral components
US7043423B2 (en) 2002-07-16 2006-05-09 Dolby Laboratories Licensing Corporation Low bit-rate audio coding systems and methods that use expanding quantizers with arithmetic coding
CA2501368C (en) 2002-10-11 2013-06-25 Nokia Corporation Methods and devices for source controlled variable bit-rate wideband speech coding
KR20040058855A (ko) 2002-12-27 2004-07-05 엘지전자 주식회사 음성 변조 장치 및 방법
IL165425A0 (en) * 2004-11-28 2006-01-15 Yeda Res & Dev Methods of treating disease by transplantation of developing allogeneic or xenogeneic organs or tissues
US7529664B2 (en) * 2003-03-15 2009-05-05 Mindspeed Technologies, Inc. Signal decomposition of voiced speech for CELP speech coding
JP4629353B2 (ja) * 2003-04-17 2011-02-09 インベンテイオ・アクテイエンゲゼルシヤフト エスカレータまたは動く歩道のための移動手摺り駆動装置
WO2004097797A1 (en) 2003-05-01 2004-11-11 Nokia Corporation Method and device for gain quantization in variable bit rate wideband speech coding
US7363221B2 (en) 2003-08-19 2008-04-22 Microsoft Corporation Method of noise reduction using instantaneous signal-to-noise ratio as the principal quantity for optimal estimation
JP3954552B2 (ja) * 2003-09-18 2007-08-08 有限会社スズキワーパー ヤーンガイドの空転防止機構付サンプル整経機
KR100604897B1 (ko) * 2004-09-07 2006-07-28 삼성전자주식회사 하드 디스크 드라이브 조립체, 하드 디스크 드라이브의장착 구조 및 이를 채용한 휴대폰
KR100640893B1 (ko) * 2004-09-07 2006-11-02 엘지전자 주식회사 음성 인식용 베이스밴드 모뎀 및 이동통신용 단말기
US7630902B2 (en) * 2004-09-17 2009-12-08 Digital Rise Technology Co., Ltd. Apparatus and methods for digital audio coding using codebook application ranges
EP1849154B1 (en) 2005-01-27 2010-12-15 Synchro Arts Limited Methods and apparatus for use in sound modification
US8155965B2 (en) * 2005-03-11 2012-04-10 Qualcomm Incorporated Time warping frames inside the vocoder by modifying the residual
BRPI0608269B8 (pt) * 2005-04-01 2019-09-03 Qualcomm Inc método e aparelho para quantização vetorial de uma representação de envelope espectral
JP4550652B2 (ja) 2005-04-14 2010-09-22 株式会社東芝 音響信号処理装置、音響信号処理プログラム及び音響信号処理方法
US7885809B2 (en) * 2005-04-20 2011-02-08 Ntt Docomo, Inc. Quantization of speech and audio coding parameters using partial information on atypical subsequences
CN101199004B (zh) 2005-04-22 2011-11-09 高通股份有限公司 用于增益因数平滑的系统、方法及设备
CN1862969B (zh) * 2005-05-11 2010-06-09 尼禄股份公司 自适应块长、常数变换音频解码方法
US20070079227A1 (en) 2005-08-04 2007-04-05 Toshiba Corporation Processor for creating document binders in a document management system
JP4450324B2 (ja) * 2005-08-15 2010-04-14 日立オートモティブシステムズ株式会社 内燃機関の始動制御装置
JP2007084597A (ja) 2005-09-20 2007-04-05 Fuji Shikiso Kk 表面処理カーボンブラック組成物およびその製造方法
US7720677B2 (en) 2005-11-03 2010-05-18 Coding Technologies Ab Time warped modified transform coding of audio signals
US7366658B2 (en) * 2005-12-09 2008-04-29 Texas Instruments Incorporated Noise pre-processor for enhanced variable rate speech codec
US7974287B2 (en) * 2006-02-23 2011-07-05 Lg Electronics Inc. Method and apparatus for processing an audio signal
TWI294107B (en) * 2006-04-28 2008-03-01 Univ Nat Kaohsiung 1St Univ Sc A pronunciation-scored method for the application of voice and image in the e-learning
US7873511B2 (en) * 2006-06-30 2011-01-18 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Audio encoder, audio decoder and audio processor having a dynamically variable warping characteristic
US8682652B2 (en) 2006-06-30 2014-03-25 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Audio encoder, audio decoder and audio processor having a dynamically variable warping characteristic
KR101145578B1 (ko) * 2006-06-30 2012-05-16 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. 동적 가변 와핑 특성을 가지는 오디오 인코더, 오디오 디코더 및 오디오 프로세서
US8239190B2 (en) * 2006-08-22 2012-08-07 Qualcomm Incorporated Time-warping frames of wideband vocoder
US8036903B2 (en) 2006-10-18 2011-10-11 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Analysis filterbank, synthesis filterbank, encoder, de-coder, mixer and conferencing system
CN101025918B (zh) * 2007-01-19 2011-06-29 清华大学 一种语音/音乐双模编解码无缝切换方法
US9653088B2 (en) * 2007-06-13 2017-05-16 Qualcomm Incorporated Systems, methods, and apparatus for signal encoding using pitch-regularizing and non-pitch-regularizing coding
EP2107556A1 (en) 2008-04-04 2009-10-07 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio transform coding using pitch correction
MY154452A (en) 2008-07-11 2015-06-15 Fraunhofer Ges Forschung An apparatus and a method for decoding an encoded audio signal
ES2741963T3 (es) 2008-07-11 2020-02-12 Fraunhofer Ges Forschung Codificadores de señal de audio, métodos para codificar una señal de audio y programas informáticos
JP5297891B2 (ja) 2009-05-25 2013-09-25 京楽産業.株式会社 遊技機
US8670990B2 (en) * 2009-08-03 2014-03-11 Broadcom Corporation Dynamic time scale modification for reduced bit rate audio coding
US8886548B2 (en) * 2009-10-21 2014-11-11 Panasonic Corporation Audio encoding device, decoding device, method, circuit, and program

Also Published As

Publication number Publication date
RU2011104002A (ru) 2012-08-20
ES2379761T3 (es) 2012-05-03
EP2410519A1 (en) 2012-01-25
JP2014002404A (ja) 2014-01-09
BRPI0910790A2 (pt) 2023-02-28
HK1182212A1 (en) 2013-11-22
CN102150201B (zh) 2013-04-17
US20150066490A1 (en) 2015-03-05
CN103000177A (zh) 2013-03-27
US9466313B2 (en) 2016-10-11
US20110178795A1 (en) 2011-07-21
ES2654433T3 (es) 2018-02-13
EP2410520B1 (en) 2019-06-26
ES2654432T3 (es) 2018-02-13
TWI463484B (zh) 2014-12-01
AR072740A1 (es) 2010-09-15
AR097966A2 (es) 2016-04-20
JP2013242599A (ja) 2013-12-05
US20150066493A1 (en) 2015-03-05
CA2730239A1 (en) 2010-01-14
RU2012150075A (ru) 2014-05-27
JP5567192B2 (ja) 2014-08-06
HK1155551A1 (en) 2012-05-18
RU2621965C2 (ru) 2017-06-08
US20150066488A1 (en) 2015-03-05
CN103077722A (zh) 2013-05-01
JP2011527458A (ja) 2011-10-27
KR20110043589A (ko) 2011-04-27
PL2410522T3 (pl) 2018-03-30
KR101400588B1 (ko) 2014-05-28
US9015041B2 (en) 2015-04-21
RU2012150074A (ru) 2014-05-27
CN103000178B (zh) 2015-04-08
US9431026B2 (en) 2016-08-30
CN102150201A (zh) 2011-08-10
CA2836862A1 (en) 2010-01-14
PT2410520T (pt) 2019-09-16
WO2010003618A2 (en) 2010-01-14
CA2836858C (en) 2017-09-12
EP2311033A2 (en) 2011-04-20
EP2410521B1 (en) 2017-10-04
KR20130093671A (ko) 2013-08-22
JP5567191B2 (ja) 2014-08-06
CN103000177B (zh) 2015-03-25
CA2836862C (en) 2016-09-13
RU2012150076A (ru) 2014-05-27
EP2410520A1 (en) 2012-01-25
ATE539433T1 (de) 2012-01-15
EP2410522A1 (en) 2012-01-25
US20150066489A1 (en) 2015-03-05
CA2836871A1 (en) 2010-01-14
US9646632B2 (en) 2017-05-09
KR101360456B1 (ko) 2014-02-07
AR097969A2 (es) 2016-04-20
MX2011000368A (es) 2011-03-02
US9263057B2 (en) 2016-02-16
RU2586843C2 (ru) 2016-06-10
JP5538382B2 (ja) 2014-07-02
US9502049B2 (en) 2016-11-22
CA2836863C (en) 2016-09-13
AU2009267433A1 (en) 2010-01-14
EP2410521A1 (en) 2012-01-25
US20150066491A1 (en) 2015-03-05
KR20130093670A (ko) 2013-08-22
HK1182213A1 (en) 2013-11-22
US20150066492A1 (en) 2015-03-05
KR20130090919A (ko) 2013-08-14
JP5591386B2 (ja) 2014-09-17
KR101400484B1 (ko) 2014-05-28
JP5591385B2 (ja) 2014-09-17
RU2012150077A (ru) 2014-05-27
AR116330A2 (es) 2021-04-28
JP2013242600A (ja) 2013-12-05
CA2730239C (en) 2015-12-22
PL2410521T3 (pl) 2018-04-30
AR097965A2 (es) 2016-04-20
JP2014002403A (ja) 2014-01-09
CA2836871C (en) 2017-07-18
TW201009812A (en) 2010-03-01
RU2580096C2 (ru) 2016-04-10
AR097968A2 (es) 2016-04-20
RU2536679C2 (ru) 2014-12-27
PT2410521T (pt) 2018-01-09
AU2009267433B2 (en) 2013-06-13
PL2410520T3 (pl) 2019-12-31
AR097970A2 (es) 2016-04-20
WO2010003618A3 (en) 2010-03-25
CA2836858A1 (en) 2010-01-14
CN103000186B (zh) 2015-01-14
ES2741963T3 (es) 2020-02-12
PT2410522T (pt) 2018-01-09
KR101400513B1 (ko) 2014-05-28
AR097967A2 (es) 2016-04-20
KR101400535B1 (ko) 2014-05-28
CN103000186A (zh) 2013-03-27
CN103000178A (zh) 2013-03-27
HK1182830A1 (en) 2013-12-06
EP2311033B1 (en) 2011-12-28
CA2836863A1 (en) 2010-01-14
HK1184903A1 (en) 2014-01-30
RU2589309C2 (ru) 2016-07-10
US9293149B2 (en) 2016-03-22
EP2410522B1 (en) 2017-10-04
PL2311033T3 (pl) 2012-05-31
KR20130086653A (ko) 2013-08-02
CN103077722B (zh) 2015-07-22
EP2410519B1 (en) 2019-09-04

Similar Documents

Publication Publication Date Title
ES2758799T3 (es) Método y aparato para codificar y decodificar una señal de audio y programas informáticos
US11222643B2 (en) Apparatus for decoding an encoded audio signal with frequency tile adaption
AU2013206267B2 (en) Providing a time warp activation signal and encoding an audio signal therewith