ES2908624T3 - Aparato y procedimiento para codificar y decodificar una señal de audio con relleno inteligente de espacios en el dominio espectral - Google Patents

Aparato y procedimiento para codificar y decodificar una señal de audio con relleno inteligente de espacios en el dominio espectral Download PDF

Info

Publication number
ES2908624T3
ES2908624T3 ES14738853T ES14738853T ES2908624T3 ES 2908624 T3 ES2908624 T3 ES 2908624T3 ES 14738853 T ES14738853 T ES 14738853T ES 14738853 T ES14738853 T ES 14738853T ES 2908624 T3 ES2908624 T3 ES 2908624T3
Authority
ES
Spain
Prior art keywords
spectral
frequency
portions
scale factor
representation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES14738853T
Other languages
English (en)
Inventor
Sascha Disch
Frederik Nagel
Ralf Geiger
Balaji Nagendran Thoshkahna
Konstantin Schmidt
Stefan Bayer
Christian Neukam
Bernd Edler
Christian Helmrich
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Original Assignee
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV filed Critical Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Application granted granted Critical
Publication of ES2908624T3 publication Critical patent/ES2908624T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/0204Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using subband decomposition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/0212Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using orthogonal transformation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/022Blocking, i.e. grouping of samples in time; Choice of analysis windows; Overlap factoring
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/022Blocking, i.e. grouping of samples in time; Choice of analysis windows; Overlap factoring
    • G10L19/025Detection of transients or attacks for time/frequency resolution switching
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/028Noise substitution, i.e. substituting non-tonal spectral components by noisy source
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/03Spectral prediction for preventing pre-echo; Temporary noise shaping [TNS], e.g. in MPEG2 or MPEG4
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/06Determination or coding of the spectral characteristics, e.g. of the short-term prediction coefficients
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/038Speech enhancement, e.g. noise reduction or echo cancellation using band spreading techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/038Speech enhancement, e.g. noise reduction or echo cancellation using band spreading techniques
    • G10L21/0388Details of processing therefor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/06Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being correlation coefficients
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/18Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/21Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being power information
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S1/00Two-channel systems
    • H04S1/007Two-channel systems in which the audio signals are in digital form
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/0204Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using subband decomposition
    • G10L19/0208Subband vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/032Quantisation or dequantisation of spectral components

Abstract

Aparato para decodificar una señal de audio codificada, que comprende: un decodificador de audio de dominio espectral (112) configurado para generar una primera representación decodificada (904) de un primer conjunto de primeras porciones espectrales de una primera representación codificada (107) del primer conjunto de primeras porciones espectrales (103), teniendo la primera representación decodificada (904) una primera resolución espectral, donde la primera representación codificada (107) del primer conjunto de primeras porciones espectrales (103) comprende líneas espectrales codificadas en el primer conjunto de primeras porciones espectrales (103) y factores de escala (SF1, SF2, SF3, SF4, SF5, SF6, SF7) para cada banda de factor de escala (SCB1, SCB2, SCB3) en un rango central por debajo de una frecuencia de inicio de relleno de espacios de frecuencia (309) y para cada banda de factor de escala (SCB4, SCB5, SCB6, SCB7) en una banda de reconstrucción por encima de la frecuencia de inicio de relleno de espacio de frecuencia (309) hasta una frecuencia máxima (fIGFparada), siendo la frecuencia máxima menor o igual a la mitad de una frecuencia de muestreo (fS/2) de una señal de audio; un decodificador paramétrico (114) configurado para generar una segunda representación decodificada de un segundo conjunto de segundas porciones espectrales, comprendiendo la segunda representación decodificada información de envolvente espectral (902) que tiene una segunda resolución espectral que es inferior a la primera resolución espectral, en la que la primera resolución espectral se define por una codificación de líneas espectrales en línea, en la que la segunda resolución espectral se define solo por un único valor espectral por banda de factor de escala (SCB1, SCB2, SCB3, SCB4, SCB5, SCB6, SCB7), donde una banda de factor de escala (SCB1, SCB2, SCB3, SCB4, SCB5, SCB6, SCB7) abarca varias líneas de frecuencia, y en la que la información de envolvente espectral para el segundo conjunto de segundas porciones espectrales (105) corresponde a los valores de información de energía (E1, E2, E3, E4) para las bandas de factor de escala (SCB4, SCB5, SCB6, SCB7) por encima de la frecuencia de inicio de relleno de espacios de frecuencia (309), donde cada valor de información de energía (E1, E2, E3, E4) representa el valor espectral único por banda de factor de escala (SCB4, SCB5, SCB6, SCB7) por encima de la frecuencia de inicio de relleno de espacios de frecuencia (309) hasta la frecuencia máxima (fIGFparada) e indica una energía de la primera y la segunda porciones espectrales en la banda del factor de escala (SCB4, SCB5, SCB6, SCB7); donde el decodificador de audio espectral de dominio (112) está configurado para generar la primera representación decodificada (904) de modo que se coloca una primera porción espectral (306, 921) del primer conjunto de primeras porciones espectrales, con respecto a la frecuencia, entre dos segundas porciones espectrales (307a, 307b, 922, 923) del segundo conjunto de segundas porciones espectrales, y donde la primera porción espectral (306, 921) del primer conjunto de las primeras porciones espectrales y las dos segundas porciones espectrales (307a, 307b, 922, 923) del segundo conjunto de segundas porciones espectrales pertenecen a una banda de factor de escala específica (SCB6) en la banda de reconstrucción por encima de la frecuencia de inicio de relleno de espacios de frecuencia (309); un regenerador de frecuencia (116, 906) configurado para regenerar una segunda porción espectral reconstruida (117) que tiene la primera resolución espectral utilizando una primera porción espectral de origen del primer conjunto de las primeras porciones espectrales y la información de la envolvente espectral para una segunda porción espectral del segundo conjunto de segundas porciones espectrales, donde el regenerador de frecuencia (116, 906) comprende una calculadora de energía de supervivencia (912) para determinar una información de energía de supervivencia que comprende una energía acumulada de la primera porción espectral (306, 921) del primer conjunto de primeras porciones espectrales en la banda de factor de escala específica (SCB6); una calculadora de energía de mosaico (918) para determinar una información de energía de mosaico de las dos segundas porciones espectrales (307a, 307b, 922, 923) del segundo conjunto de segundas porciones espectrales que pertenecen a la banda de factor de escala específica (SCB6), donde las dos segundas porciones espectrales (307a, 307b, 922, 923) del segundo conjunto de segundas porciones espectrales que pertenecen a la banda de factor de escala específica (SCB6) se generarán mediante regeneración de frecuencia utilizando la primera porción espectral de origen diferente de la primera porción espectral (306, 921) en la banda de factor de escala específica (SCB6); una calculadora de energía que falta (914) para calcular una energía que falta en la banda de factor de escala específica (SCB6), donde la calculadora de energía que falta (914) está configurada para funcionar utilizando el valor de información de energía (E3) para la banda de factor de escala específica (SCB6) y la información de energía de supervivencia generada por la calculadora de energía de supervivencia (912); y un ajustador de envolvente espectral (916, 942) para ajustar las dos segundas porciones espectrales (307a, 307b, 922, 923) del segundo conjunto de segundas porciones espectrales que pertenecen a la banda de factor de escala específica (SCB6) basada en la información de energía que falta obtenida por la calculadora de energía que falta (914) y la información de energía de mosaico obtenida por la calculadora de energía de mosaico (918) para obtener la segunda porción espectral reconstruida (117) que tiene la primera resolución espectral, donde la primera porción espectral (306, 921) del primer conjunto de primeras porciones espectrales en la banda de factor de escala específica (SCB6) no se ve influenciada por el ajustador de envolvente espectral (916, 942); y un convertidor de tiempo de espectro (118) configurado para convertir la primera representación decodificada (904) y la segunda porción espectral reconstruida (117) en una representación de tiempo (119) de la señal de audio.

Description

DESCRIPCIÓN
Aparato y procedimiento para codificar y decodificar una señal de audio con relleno inteligente de espacios en el dominio espectral
[0001] La presente invención se refiere a la codificación/decodificación de audio y, en particular, a la codificación de audio que utiliza Relleno Inteligente de Espacios (IGF).
[0002] La codificación de audio es el dominio de la compresión de la señal que trata el aprovechamiento de la redundancia y la irrelevancia de señales de audio utilizando el conocimiento psico-acústico. Actualmente, los códecs de audio generalmente necesitan alrededor de 60 kbps/canal para la codificación perceptual transparente de casi cualquier tipo de señal de audio. Los códecs más nuevos tienen como objetivo reducir la tasa de bits de codificación aprovechando las similitudes espectrales en la señal y utilizando técnicas tales como la extensión de ancho de banda (BWE, por sus siglas en inglés). Un esquema de extensión de ancho de banda (BWE) utiliza un parámetro bajo de tasa de bits establecido para representar los componentes de alta frecuencia (HF) de una señal de audio. El espectro de alta frecuencia (HF) se rellena con el contenido espectral de regiones de baja frecuencia (LF) y la forma espectral, inclinación y continuidad temporal se ajustan para mantener el timbre y el color de la señal original. Estos procedimientos de extensión de ancho de banda (BWE) permiten que los códecs de audio retengan buena calidad a tasas de bits incluso bajas de alrededor de 24 kbps/canal.
[0003] El almacenamiento o la transmisión de señales de audio a menudo están sujetos a estrictas limitaciones de tasas de bits. En el pasado, los codificadores se vieron obligados a reducir drásticamente el ancho de banda de audio transmitida cuando sólo estaba disponible una tasa de bits muy baja.
[0004] Los códecs de audio modernos son capaces ahora de codificar señales de banda ancha utilizando los procedimientos de extensión de ancho de banda (BWE) [1]. Estos algoritmos se basan en una representación paramétrica del contenido de alta frecuencia (HF) - que se genera a partir de la parte de baja frecuencia (LF) codificada en forma de onda de la señal decodificada por medio de transposición a la región espectral de alta frecuencia (HF) ("interconexión") y la aplicación de un procesamiento posterior basado en parámetros. En los esquemas de extensión de ancho de banda (BWE), la reconstrucción de la región espectral de alta frecuencia (HF) por encima de una así denominada frecuencia de cruce determinada se basa a menudo en la interconexión espectral. En general, la región de alta frecuencia (HF) consta de múltiples conexiones adyacentes y cada una de estas conexiones se obtiene de regiones de paso de banda (BP) del espectro de baja frecuencia (LF) por debajo de la frecuencia de cruce determinada. Los sistemas del estado actual de la técnica desempeñan con eficacia la interconexión dentro de una representación de bancos de filtros, por ejemplo, Banco de Filtros Espejo en Cuadratura (QMF, por sus siglas en inglés), copiando un conjunto de coeficientes de sub-bandas adyacentes desde una región de origen a la región de destino.
[0005] Otra técnica que se encuentra en los códecs de audio actuales que aumenta la eficiencia de compresión y permite así el ancho de banda de audio extendida en tasas de bits bajas es el reemplazo sintético basado en parámetros de partes apropiadas de los espectros de audio. Por ejemplo, las partes de la señal tipo ruido de la señal de audio original se pueden reemplazar sin pérdida sustancial de calidad subjetiva por ruido artificial generado en el decodificador y ajustado a escala por parámetros de información lateral. Un ejemplo es la herramienta de Sustitución de Ruido Perceptual (PNS, por sus siglas en inglés) contenida en la Codificación Avanzada de Audio MPEG-4 (AAC, por sus siglas en inglés) [5].
[0006] Otra disposición que también permite un ancho de banda de audio extendida en tasas de bits bajas es la técnica de relleno de ruido contenida en el Sistema Unificado de Codificación de Voz y Audio MPEG-D (USAC, por sus siglas en inglés) [7]. Los espacios espectrales (ceros) que se deducen por la zona muerta del cuantificador debido a una cuantificación demasiado gruesa, posteriormente se llenan de ruido artificial en el decodificador y se ajustan a escala por un procesamiento posterior basado en parámetros.
[0007] Otro sistema del estado actual de la técnica se denomina Reemplazo Espectral Preciso (ASR, por sus siglas en inglés) [2-4]. Además de un códec de forma de onda, el reemplazo espectral preciso (ASR) emplea una etapa de síntesis de señal dedicada que restaura perceptualmente porciones sinusoidales importantes de la señal en el decodificador. Asimismo, un sistema descrito en [5] se basa en el modelado sinusoidal en la región de alta frecuencia (HF) de un codificador de forma de onda para permitir que el ancho de banda de audio extendido tenga una calidad perceptual adecuada a tasas de bits bajas. Todos estos procedimientos implican la transformación de los datos en un segundo dominio aparte de la Transformada Coseno Discreta Modificada (MDCT, por sus siglas en inglés) y también etapas de análisis/síntesis bastante complejas para la conservación de componentes sinusoidales de alta frecuencia (HF).
[0008] La Fig. 13a ilustra un diagrama esquemático de un codificador de audio para una tecnología de extensión de ancho de banda como, por ejemplo, la que se utiliza en la Codificación Avanzada de Audio de Alta Eficiencia (HE-AAC, por sus siglas en inglés). Una señal de audio en la línea 1300 se introduce en un sistema de filtro que comprende un paso bajo 1302 y un paso alto 1304. La señal emitida por el filtro de paso alto 1304 se introduce en un extractor/codificador de parámetros 1306. El extractor/codificador de parámetros 1306 está configurado para calcular y codificar parámetros tales como, por ejemplo, un parámetro de envolvente espectral, un parámetro de adición de ruido, un parámetro de armónicos que faltan, o un parámetro de filtrado inverso. Estos parámetros extraídos se introducen en un multiplexor de corriente de bits 1308. La señal de salida de paso bajo se introduce en un procesador que comprende generalmente la funcionalidad de un muestreador descendente 1310 y un codificador central 1312. El paso bajo 1302 restringe el ancho de banda para ser codificado en un ancho de banda significativamente menor que el producido en la señal de audio de entrada original en la línea 1300. Esto proporciona una ganancia de codificación significativa debido al hecho de que la totalidad de las funcionalidades que se producen en el codificador central sólo tienen que operar en una señal con un ancho de banda reducido. Cuando, por ejemplo, el ancho de banda de la señal de audio en la línea 1300 es de 20 kHz y cuando el filtro de paso bajo 1302 tiene a modo de ejemplo un ancho de banda de 4 kHz, con el fin de cumplir el teorema de muestreo, es teóricamente suficiente que la señal subsiguiente al muestreador descendente tenga una frecuencia de muestreo de 8 kHz, que es una reducción sustancial de la tasa de muestreo requerida para la señal de audio 1300 que tiene que ser de al menos 40 kHz.
[0009] La Fig. 13b ilustra un diagrama esquemático de un decodificador de extensión de ancho de banda respectivo. El decodificador comprende un multiplexor de corriente de bits 1320. El demultiplexor de corriente de bits 1320 extrae una señal de entrada para un decodificador central 1322 y una señal de entrada para un decodificador de parámetros 1324. Una señal de salida del decodificador central tiene, en el ejemplo anterior, una tasa de muestreo de 8 kHz y, por lo tanto, un ancho de banda de 4 kHz mientras que, para una reconstrucción completa de ancho de banda, la señal de salida de un reconstructor de alta frecuencia 1330 debe ser de 20 kHz lo que requiere una tasa de muestreo de al menos 40 kHz. Con el fin de hacer esto posible, se requiere un procesador de decodificador que tenga la funcionalidad de un muestreador ascendente 1325 y un banco de filtros 1326. El reconstructor de alta frecuencia 1330 recibe entonces la señal de baja frecuencia analizada por frecuencia emitida por el banco de filtros 1326 y reconstruye el intervalo de frecuencias definido por el filtro de paso alto 1304 de la Fig. 13a utilizando la representación paramétrica de la banda de alta frecuencia. El reconstructor de alta frecuencia 1330 tiene varias funcionalidades tales como la regeneración del intervalo de frecuencias superior que utiliza el intervalo de origen en el intervalo de baja frecuencia, un ajuste de envolvente espectral, una funcionalidad de adición de ruido y una funcionalidad para introducir armónicos que faltan en el intervalo de frecuencia superior y, si se aplica y calcula en el codificador de la Fig. 13a, una operación de filtrado inverso con el fin de tener en cuenta el hecho de que el intervalo de frecuencia superior normalmente no es tan tonal como el intervalo de frecuencia inferior. En la Codificación Avanzada de Audio de Alta Eficiencia (HE-AAC), los armónicos que faltan se re-sintetizan en el lado del decodificador y se colocan exactamente en el medio de una banda de reconstrucción. Por lo tanto, todas las líneas de armónicos que faltan que se han determinado en una cierta banda de reconstrucción no se colocan en los valores de frecuencia donde estaban ubicadas en la señal original. En cambio, dichas líneas de armónicos que faltan se colocan en frecuencias en el centro de la banda determinada. Por lo tanto, cuando una línea de armónico que falta en la señal original se colocó muy cerca del límite de la banda de reconstrucción en la señal original, el error en la frecuencia introducida al colocar esta línea de armónico que falta en la señal reconstruida en el centro de la banda está cerca del 50 % de la banda de reconstrucción individual, para la que se han generado y transmitido parámetros.
[0010] Además, a pesar de que los codificadores centrales de audio típicos operan en el dominio espectral, el decodificador central, no obstante, genera una señal de dominio temporal que, a continuación, se convierte de nuevo en un dominio espectral por la funcionalidad del banco de filtros 1326. Esto introduce retardos de procesamiento adicionales, puede introducir fallos debido al procesamiento en tándem de la transformación en primer lugar del dominio espectral en el dominio de frecuencia y de nuevo la transformación en generalmente un dominio de frecuencia diferente y, por supuesto, esto también requiere una cantidad sustancial de complejidad computacional y, por lo tanto, energía eléctrica, que representa básicamente un problema cuando se aplica la tecnología de extensión de ancho de banda en dispositivos móviles tales como teléfonos móviles, tabletas u ordenadores portátiles, etc.
[0011] Los códecs de audio actuales llevan a cabo la codificación de audio de baja tasa de bits utilizando la extensión de ancho de banda (BWE) como parte integral del esquema de codificación. Sin embargo, las técnicas de extensión de ancho de banda (BWE) se limitan a reemplazar sólo contenido de alta frecuencia (HF). Asimismo, no permiten la codificación de forma de onda del contenido perceptivamente importante por encima de una frecuencia de cruce determinada. Por lo tanto, los códecs de audio contemporáneos pierden detalle de alta frecuencia (HF) o timbre cuando se implementa la extensión de ancho de banda (BWE), ya que la alineación exacta de los armónicos tonales de la señal no se tiene en cuenta en la mayoría de los sistemas.
[0012] Otra desventaja de los sistemas de extensión de ancho de banda (BWE) del estado actual de la técnica es la necesidad de transformación de la señal de audio en un nuevo dominio para la implementación de la BWE (por ejemplo, transformación de la Transformada Coseno Discreta Modificada (MDCT) al dominio de Filtros Espejo en Cuadratura (QMF). Esto genera complicaciones de sincronización, complejidad computacional adicional y aumento de requisitos de memoria.
[0013] El documento US 2010241437 A1 describe un procedimiento para la decodificación espectral perceptual que comprende decodificación de coeficientes espectrales recuperados de un flujo binario a los coeficientes espectrales decodificados de un conjunto inicial de coeficientes espectrales. El conjunto inicial de coeficientes espectrales se llena en espectro. El relleno de espectro comprende el llenado de ruido de orificios espectrales al establecer coeficientes espectrales en el conjunto inicial de coeficientes espectrales que no se están decodificando del flujo binario igual que los elementos derivados de los coeficientes espectrales decodificados. El conjunto de coeficientes espectrales reconstruidos de un dominio de frecuencia formado por el relleno de espectro se convierte en una señal de audio de un dominio de tiempo. Un decodificador espectral perceptual comprende un relleno de ruido, que opera según el procedimiento para la decodificación espectral perceptual.
[0014] El documento US 2011264454 A1 describe un procedimiento para la recuperación del espectro en la decodificación espectral de una señal de audio. El procedimiento comprende la obtención de un conjunto inicial de coeficientes espectrales que representan la señal de audio y determinan una frecuencia de transición. La frecuencia de transición está adaptada a un contenido espectral de la señal de audio. Los orificios espectrales en el conjunto inicial de coeficientes espectrales por debajo de la frecuencia de transición están llenos de ruido y el conjunto inicial de coeficientes espectrales se extiende en ancho de banda por encima de la frecuencia de transición. También se ilustran los decodificadores y codificadores que se están disponiendo para realizar parte de o todo el procedimiento.
[0015] El documento US 2012029923 A1 describe un esquema para codificar un conjunto de coeficientes de transformación que representan un intervalo de audiofrecuencia de una señal. El esquema utiliza un modelo armónico para parametrizar una relación entre las ubicaciones de las regiones de energía significativa en el dominio de frecuencia.
[0016] Un objeto de la presente invención consiste en proporcionar un concepto mejorado para decodificar o codificar una señal de audio.
[0017] Este objeto se logra mediante un aparato para decodificar una señal de audio codificada de la reivindicación 1, un aparato para codificar una señal de audio de la reivindicación 10, un procedimiento para decodificar una señal de audio codificada de la reivindicación 23, un procedimiento para codificar una señal de audio de la reivindicación 24 o un programa informático de la reivindicación 25.
[0018] La presente invención se basa en el descubrimiento de que los problemas relacionados con la separación de la extensión de ancho de banda por un lado y la codificación central por otro lado se pueden abordar y superar llevando a cabo la extensión de ancho de banda en el mismo dominio espectral en el que opera el decodificador central. Por lo tanto, se proporciona un decodificador central de tasa completa que codifica y decodifica todo el intervalo de la señal de audio. Esto no genera la necesidad de un muestreador descendente en el lado del codificador y un muestreador ascendente en el lado del decodificador. En cambio, todo el procesamiento se lleva a cabo en toda la tasa de muestreo o en todo el dominio de ancho de banda. Con el fin de obtener una alta ganancia de codificación, la señal de audio se analiza para encontrar un primer conjunto de primeras porciones espectrales que tiene que ser codificado con una alta resolución, donde este primer conjunto de primeras porciones espectrales puede incluir, en una realización, porciones tonales de la señal de audio. Por otra parte, los componentes no tonales o ruidosos en la señal de audio que constituyen un segundo conjunto de segundas porciones espectrales se codifican paramétricamente con baja resolución espectral. Entonces, la señal de audio codificada sólo requiere que el primer conjunto de primeras porciones espectrales esté codificado de manera que conserve la forma de onda con una alta resolución espectral y, adicionalmente, que el segundo conjunto de segundas porciones espectrales esté codificado paramétricamente con una baja resolución utilizando "mosaicos" de frecuencia obtenidas del primer conjunto. En el lado del decodificador, el decodificador central, que es un decodificador de banda completa, reconstruye el primer conjunto de primeras porciones espectrales de manera que conserve la forma de onda, es decir, desconociendo si hay una regeneración de frecuencia adicional. Sin embargo, el espectro así generado tiene muchos espacios espectrales. Estos espacios se rellenan posteriormente con la tecnología de relleno inteligente de espacios (IGF, por sus siglas en inglés) de la invención utilizando una regeneración de frecuencia que aplica datos paramétricos, por un lado, y que utiliza un intervalo espectral de origen, es decir, primeras porciones espectrales reconstruidas por el decodificador de audio de tasa completa, por otro lado.
[0019] En otras realizaciones, las porciones espectrales, que son reconstruidas por relleno de ruido solamente en lugar de replicación de ancho de banda o relleno de mosaico de frecuencia, constituyen un tercer conjunto de terceras porciones espectrales. Debido al hecho de que el concepto de codificación opera en un dominio único para la codificación/decodificación central por un lado, y la regeneración de frecuencia por otro lado, el relleno inteligente de espacios (IGF) no sólo se limita a llenar un intervalo de frecuencia superior sino que puede llenar intervalos de frecuencia inferiores, ya sea por relleno de ruido sin regeneración de frecuencia o por regeneración de frecuencia utilizando un mosaico de frecuencia en un intervalo de frecuencia diferente.
[0020] Asimismo, se hace énfasis en que una información sobre energías espectrales, una información sobre energías individuales o una información de energía individual, una información sobre una energía de conservación o una información de energía de conservación, una información sobre una energía de mosaico o una información de energía de mosaico, o una información sobre una energía que falta o una información de energía que falta pueden comprender no sólo un valor de energía sino también un valor de amplitud (por ejemplo, absoluto), un valor de nivel o cualquier otro valor, del que se puede obtener un valor de energía final. Por lo tanto, la información sobre una energía puede comprender, por ejemplo, el valor de energía propiamente dicho, y/o un valor de un nivel y/o de una amplitud y/o de una amplitud absoluta.
[0021] Un aspecto adicional se basa en el descubrimiento de que la situación de correlación no sólo es importante para el intervalo de origen, sino también es importante para el intervalo de destino. Además, la presente invención reconoce el hecho de que pueden ocurrir diferentes situaciones de correlación en el intervalo de origen y en el intervalo de destino. Cuando se considera, por ejemplo, una señal de voz con ruido de alta frecuencia, puede ocurrir que la banda de baja frecuencia que comprende la señal de voz con un pequeño número de armónicos superiores esté altamente correlacionada en el canal izquierdo y el canal derecho, cuando el altavoz se coloca en el medio. La porción de alta frecuencia, sin embargo, puede estar fuertemente correlacionada debido al hecho de que podría haber un ruido de alta frecuencia diferente en el lado izquierdo en comparación con otro ruido de alta frecuencia o ningún ruido de alta frecuencia en el lado derecho. Por lo tanto, cuando se lleva a cabo una operación simple de relleno de espacios que ignora esta situación, entonces la porción de alta frecuencia estaría correlacionada también, y esto podría generar graves fallos de segregación espacial en la señal reconstruida. Con el fin de abordar esta cuestión, los datos paramétricos para una banda de reconstrucción o, en general, para el segundo conjunto de segundas porciones espectrales que tiene que ser reconstruido utilizando un primer conjunto de primeras porciones espectrales, se calculan para identificar, ya sea una primera o una segunda representación de dos canales, diferente para la segunda porción espectral o, dicho de otra manera, para la banda de reconstrucción. Por lo tanto, en el lado del codificador se calcula una identificación de dos canales para las segundas porciones espectrales, es decir, para las porciones para las que se calcula adicionalmente la información de energía para las bandas de reconstrucción. A continuación, un regenerador de frecuencia en el lado del decodificador regenera una segunda porción espectral en función de una primera porción del primer conjunto de primeras porciones espectrales, es decir, el intervalo de origen y los datos paramétricos para la segunda porción tal como la información de energía de la envolvente espectral o cualquier otro dato de la envolvente espectral y, adicionalmente, depende de la identificación de dos canales para la segunda porción, es decir, para esta banda de reconstrucción bajo reconsideración.
[0022] La identificación de dos canales se transmite preferentemente como una etiqueta para cada banda de reconstrucción y estos datos se transmiten desde un codificador a un decodificador y el decodificador decodifica a continuación la señal central indicada preferentemente por etiquetas calculadas para las bandas centrales. A continuación, en una implementación, la señal central se almacena en ambas representaciones estéreo (por ejemplo, izquierda/derecha y media/lateral) y, para el relleno de mosaicos de frecuencia de relleno inteligente de espacios (IGF), se elige la representación de mosaicos de origen para adaptar la representación de mosaicos de destino indicada por las etiquetas de identificación de dos canales para el relleno inteligente de espacios o las bandas de reconstrucción, es decir, para el intervalo de destino.
[0023] Se hace hincapié en que este procedimiento no sólo funciona para las señales estéreo, es decir, por un canal izquierdo y el canal derecho, sino que también funciona para las señales multicanal. En el caso de las señales multicanal se pueden procesar varios pares de canales diferentes, por ejemplo, como un canal izquierdo y un canal derecho como un primer par, un canal envolvente izquierdo y un canal envolvente derecho como el segundo par y un canal central y un canal LFE como el tercer par.
[0024] Otras formaciones de pares se pueden determinar para los formatos de canal de salida superiores tales como 7.1, 11.1 y así sucesivamente.
[0025] Un aspecto adicional se basa en el descubrimiento de que la calidad del audio de la señal reconstruida se puede mejorar a través de IGF puesto que el espectro completo es accesible al decodificador central de modo que, por ejemplo, las porciones tonales perceptualmente importantes en un intervalo espectral alto aún se pueden codificar por el codificador central en lugar de la sustitución paramétrica. Adicionalmente, una operación de relleno de espacios que usa mosaicos de frecuencia de un primer conjunto de primeras porciones espectrales que es, por ejemplo, un conjunto de porciones tonales típicamente de un intervalo de frecuencia más bajo, pero también de un intervalo de frecuencia más alto se lleva a cabo si está disponible. Para el ajuste de envolvente espectral en el lado del decodificador, sin embargo, las porciones espectrales del primer conjunto de porciones espectrales situadas en la banda de reconstrucción no se post-procesan mediante, por ejemplo, el ajuste de envolvente espectral. Solo los valores espectrales restantes en la banda de reconstrucción que no se originan del decodificador central se van a ajustar por envolvente usando la información de envolvente. De manera preferente, la información de envolvente es una información de envolvente de banda completa que tiene en cuenta la energía del primer conjunto de las primeras porciones espectrales en la banda de reconstrucción y el segundo conjunto de segundas porciones espectrales en la misma banda de reconstrucción, donde los últimos valores espectrales en el segundo conjunto de segundas porciones espectrales se indican que son cero y, por lo tanto, no se codifican por el codificador central, pero se codifican paramétricamente con información de energía de baja resolución.
[0026] Se ha descubierto que los valores de energía absolutos, ya sean normalizados con respecto al ancho de banda de la banda correspondiente o no normalizados, son útiles y muy eficaces en una aplicación en el lado del decodificador. Esto aplica especialmente cuando los factores de ganancia tienen que ser calculados basados en una energía residual en la banda de reconstrucción, la energía perdida en la banda de reconstrucción y la información del mosaico de frecuencia en la banda de reconstrucción.
[0027] Adicionalmente, se prefiere que la corriente de bits codificada no solo abarque la información de energía para las bandas de reconstrucción sino, adicionalmente, los factores de escala para las bandas de factor de escala que se extienden hasta la frecuencia máxima. Esto asegura que, para cada banda de reconstrucción, para la cual espectral esté disponible una cierta porción tonal, es decir, una primera porción, este primer conjunto de primera porción espectral se puede decodificar actualmente con la amplitud correcta. Adicionalmente, además del factor de escala para cada banda de reconstrucción, se genera una energía para esta banda de reconstrucción en un codificador y se transmite a un decodificador. Adicionalmente, se prefiere que las bandas de reconstrucción coincidan con las bandas de factor de escala o en el caso del agrupamiento de energía al menos los límites de una banda de reconstrucción coincidan con los límites de las bandas del factor de escala.
[0028] Un aspecto adicional se basa en el descubrimiento de que ciertas alteraciones en la calidad del audio se pueden resolver mediante la aplicación de un esquema de relleno de mosaicos de frecuencia adaptativa de la señal. Para este fin se lleva a cabo un análisis en el lado del codificador con el fin de encontrar el mejor candidato de región de origen de adaptación para una cierta región de destino. Se genera y transmite como información lateral al decodificador una información de adaptación que identifica para una región de destino una determinada región de origen junto con opcionalmente alguna información adicional. El decodificador aplica entonces una operación de relleno de mosaicos de frecuencia utilizando la información de adaptación. Para este fin, el decodificador lee la información de adaptación a partir de la corriente de datos o archivo de datos transmitidos y accede a la región de origen identificada para una determinada banda de reconstrucción y, si está indicado en la información de adaptación, lleva a cabo además algún procesamiento de estos datos de región de origen para generar datos espectrales en bruto para la banda de reconstrucción. Entonces, este resultado de la operación de llenado de mosaicos de frecuencia, es decir, los datos espectrales en bruto para la banda de reconstrucción, se modela utilizando información de la envolvente espectral con el fin de obtener finalmente una banda de reconstrucción que comprenda las primeras porciones espectrales, así como las porciones tonales. Estas porciones tonales, sin embargo, no se generan por el esquema de relleno de mosaicos adaptativo, pero estas primeras porciones espectrales son emitidas por el decodificador de audio o el decodificador central directamente.
[0029] El esquema de selección de mosaicos espectral adaptativo puede operar con baja granularidad. En esta implementación, una región de origen se subdivide en regiones de origen generalmente superpuestas y la región de destino o las bandas de reconstrucción están dadas por las regiones de destino de frecuencia que no se superponen. Entonces, las similitudes entre cada región de origen y cada región de destino se determinan en el lado del codificador y el mejor par de adaptación de una región de origen y la región de destino se identifica por la información de adaptación y, en el lado del decodificador, la región de origen identificada en la información de adaptación se utiliza para la generación de datos espectrales en bruto para la banda de reconstrucción.
[0030] Con el fin de obtener una granularidad más alta, a cada región de origen se le permite cambiar con el fin de obtener un cierto retardo cuando las similitudes son máximas. Este retardo puede ser tan fino como un intervalo de frecuencia y permite incluso una mejor adaptación entre una región de origen y la región de destino.
[0031] Asimismo, además de sólo identificar un mejor par de adaptación, este retardo de correlación también se puede transmitir dentro de la información de adaptación y, adicionalmente, incluso puede transmitirse un signo. Cuando se determina que la señal es negativa en el lado del codificador, a continuación, también se transmite una etiqueta de signo correspondiente dentro de la información de adaptación y, en el lado del decodificador, los valores espectrales región de la región de origen se multiplican por "-1" o, en una representación compleja, se "hacen girar" a 180 grados.
[0032] Una implementación adicional de esta invención aplica una operación de blanqueo de mosaicos. El blanqueo de un espectro quita la información de envolvente espectral en bruto y enfatiza la estructura fina espectral que es de interés principal para la evaluación de la similitud de mosaicos. Por lo tanto, un mosaico de frecuencia por un lado y/o la señal de origen por otro lado se blanquean antes de calcular una medida de correlación cruzada. Cuando sólo se blanquea el mosaico utilizando un procedimiento predefinido, se transmite una etiqueta de blanqueo que indica al decodificador que se aplicará el mismo proceso de blanqueo predefinido al mosaico de frecuencia dentro de IGF.
[0033] En cuanto a la selección de mosaicos, se prefiere utilizar el retardo de la correlación para desplazar espectralmente el espectro regenerado por un número entero de intervalos de transformación. Dependiendo de la transformación subyacente, el desplazamiento espectral puede requerir correcciones de adición. En caso de retardos impares, el mosaico se modula adicionalmente a través de la multiplicación por una secuencia temporal alternativa de -1/1 para compensar la representación de frecuencia inversa de cualquier otra banda dentro de la Transformada Coseno Discreta Modificada (MDCT). Además, el signo del resultado de la correlación se aplica cuando se genera el mosaico de frecuencia.
[0034] Asimismo, se prefiere utilizar el recorte y la estabilización de mosaicos con el fin de asegurar que se evitan los fallos creados por el cambio rápido de regiones de origen para la misma región de reconstrucción o la región de destino. Para ello se lleva a cabo un análisis de similitud entre las diferentes regiones de origen identificadas y cuando un mosaico de origen es similar a otros mosaicos de origen con una similitud por encima de un umbral, entonces este mosaico de origen se puede retirar del conjunto de mosaicos de origen potenciales, ya que está muy correlacionada con otros mosaicos de origen. Además, como un tipo de estabilización de selección de mosaicos, se prefiere mantener el orden de la trama anterior si ninguna de los mosaicos de origen en la trama actual se correlaciona (mejor que un umbral determinado) con los mosaicos de destino en la trama actual.
[0035] Un aspecto adicional se basa en el descubrimiento de que se obtiene una tasa de bits reducida y de calidad mejorada específicamente para señales que comprenden porciones transientes como las que se presentan muy frecuentemente en las señales de audio al combinar la tecnología de Modelado de Ruido Temporal (TNS) o el Modelado De Mosaico Temporal (TTS) con la reconstrucción de alta frecuencia. El procesamiento TNS/TTS en el lado del codificador que se implementa por una predicción sobre la frecuencia reconstruye el margen de tiempo de la señal de audio. Dependiendo de la implementación, es decir, cuando el filtro de modelado de ruido temporal se determina dentro de un intervalo de frecuencia que no solo abarca el intervalo de frecuencia de origen sino también el intervalo de frecuencia objetivo que se va a reconstruir en un decodificador de regeneración de frecuencia, el margen temporal no solo se aplica a la señal de audio principal hasta un espacio que rellena la frecuencia de inicio, sino el margen temporal también se aplica a los intervalos espectrales de las segundas porciones espectrales reconstruidas. De esta manera, los pre-ecos o post-ecos que se presentarían sin modelado de mosaico temporal se reducen o se eliminan. Esto se logra al aplicar una predicción inversa sobre la frecuencia no solo dentro del intervalo de frecuencia principal hasta una cierta frecuencia de inicio que rellena el espacio sino también dentro de un intervalo de frecuencia por encima del intervalo de frecuencia principal. Para este fin, la regeneración de frecuencia o generación del mosaico de frecuencia se lleva a cabo en el lado del decodificador antes de aplicar una predicción sobre la frecuencia. Sin embrago, la predicción sobre la frecuencia se puede aplicar antes o posteriormente al modelado de la envolvente espectral dependiendo de si el cálculo de información de energía se ha llevado a cabo en los valores residuales espectrales subsecuentes a la filtración o a los valores espectrales (completos) antes del modelado de la envolvente.
[0036] El procesamiento TTS que se procesa sobre una o más mosaicos de frecuencia establece adicionalmente una continuidad de correlación entre el intervalo de origen y el intervalo de reconstrucción o en dos intervalos de reconstrucción adyacentes o mosaicos de frecuencia.
[0037] En una implementación, se prefiere usar la filtración TNS/TTS compleja. De esta manera, se evitan los fallos de solapamiento (temporales) de una representación real críticamente muestreada, similar a MDCT. Un filtro TNS complejo se puede calcular en el lado del decodificador al aplicar no solo una transformada de coseno discreta modificada sino también una transformada de seno discreta modificada además de obtener una transformada modificada compleja. No obstante, se transmiten solo los valores de la transformada de coseno discreta, es decir, la parte real de la transformada compleja. En el lado del decodificador, sin embrago, es posible estimar la parte imaginaria de la transformada usando espectros MDCT de tramas anteriores o posteriores de modo que, en el lado del decodificador, el filtro complejo se pueda aplicar de nuevo en la predicción inversa sobre la frecuencia y, especialmente, la predicción sobre lo más amplio entre el intervalo de origen y el intervalo de reconstrucción y también sobre el límite entre los mosaicos de frecuencia adyacentes de frecuencia dentro del intervalo de reconstrucción.
[0038] El sistema de codificación de audio inventivo codifica de manera eficaz las señales de audio arbitrarias en un intervalo amplio de tasas de bits. Por consiguiente, para las tasas altas de bits, el sistema de la invención converge con la transparencia, para tasas bajas de bits se reduce al mínimo la molestia perceptual. Por lo tanto, la parte principal de tasa de bits disponible se utiliza para codificar en forma de onda solo la estructura perceptualmente más relevante de la señal en el codificador, y los espacios espectrales resultantes se rellenan en el decodificador con el contenido de la señal que se aproxima en líneas generales al espectro original. Un presupuesto de bits muy limitado se consume para controlar el así denominado Relleno Inteligente de Espacios (IGF) basado en parámetros por información lateral dedicada transmitida desde el codificador al decodificador.
[0039] A continuación, las realizaciones preferidas de la presente invención se describirán con referencia a los dibujos adjuntos, en los cuales:
La Fig. 1a ilustra un aparato para codificar una señal de audio.
La Fig. 1 b ilustra un decodificador para decodificar una señal de audio codificada que concuerda con el codificador de la Fig. 1a.
La Fig. 2a ilustra una implementación preferida del decodificador.
La Fig. 2b ilustra una implementación preferida del codificador.
La Fig. 3a ilustra una representación esquemática de un espectro generado por el decodificador de dominio espectral de la Fig. 1b.
La Fig. 3b ilustra una tabla que indica la relación entre los factores de ajuste de escala para las bandas de factor de escala y las energías para las bandas de reconstrucción y la información de relleno de ruido para una banda de relleno de ruido.
La Fig. 4a ilustra la funcionalidad del codificador de dominio espectral para aplicar la selección de porciones espectrales en el primer y el segundo conjunto de porciones espectrales.
La Fig. 4b ilustra una implementación de la funcionalidad de la Fig. 4a.
La Fig. 5a ilustra una funcionalidad de un codificador de la Transformada Coseno Discreta Modificada (MDCT). La Fig. 5b ilustra una funcionalidad del decodificador con una tecnología de MDCT.
La Fig. 5c ilustra una implementación del regenerador de frecuencia.
La Fig. 6a ilustra un codificador de audio con la funcionalidad de modelado de ruido temporal/modelado de mosaico temporal.
La Fig. 6b ilustra un decodificador con la tecnología de modelado de ruido temporal/modelado de mosaico temporal. La Fig. 6c ilustra una funcionalidad adicional de modelado de ruido temporal/modelado de mosaico temporal con un orden diferente del filtro de predicción espectral y el modelador espectral.
La Fig. 7a ilustra una implementación de la funcionalidad del modelado de mosaico temporal (TTS).
La Fig. 7b ilustra una implementación del decodificador que se adapta a la implementación del codificador de la Fig. 7a. La Fig. 7c ilustra un espectrograma de una señal original y una señal extendida sin Modelado de Mosaico Temporal (TTS).
La Fig. 7d ilustra una representación de frecuencia que ilustra la correspondencia entre las frecuencias de relleno inteligente de espacios y las energías de modelado de mosaico temporal.
La Fig. 7e ilustra un espectrograma de una señal original y una señal extendida sin Modelado de Mosaico Temporal (TTS).
La Fig. 8a ilustra un decodificador de dos canales con regeneración de frecuencia.
La Fig. 8b ilustra una tabla que ilustra combinaciones diferentes de las representaciones y los intervalos de origen/destino.
La Fig. 8c ilustra un diagrama de flujo que ilustra la funcionalidad del decodificador de dos canales con regeneración de frecuencia de la Fig. 8a.
La Fig. 8d ilustra una implementación más detallada del decodificador de la Fig. 8a.
La Fig. 8e ilustra una implementación de un codificador para el procesamiento de dos canales que será decodificado por el decodificador de la Fig. 8a.
La Fig. 9a ilustra un decodificador con la tecnología de regeneración de frecuencia utilizando valores de energía para el intervalo de frecuencia de regeneración.
La Fig. 9b ilustra una implementación más detallada del regenerador de frecuencia de la Fig. 9a.
La Fig. 9c ilustra un esquema que ilustra la funcionalidad de la Fig. 9b.
La Fig. 9d ilustra una implementación adicional del decodificador de la Fig. 9a.
La Fig. 10a ilustra un diagrama de bloques de un codificador que concuerda con el decodificador de la Fig. 9a. La Fig. 10b ilustra un diagrama de bloques para ilustrar una funcionalidad adicional de la calculadora de parámetros de la Fig. 10a.
La Fig. 10c ilustra un diagrama de bloques para ilustrar una funcionalidad adicional de la calculadora de parámetros de la Fig. 10a.
La Fig. 10d ilustra un diagrama de bloques que ilustra una funcionalidad adicional de la calculadora de parámetros de la Fig. 10a.
La Fig. 11a ilustra un decodificador adicional que tiene una identificación específica del intervalo de origen para una operación de relleno de mosaicos espectrales en el decodificador.
La Fig. 11b ilustra la funcionalidad adicional del regenerador de frecuencia de la Fig. 11 a.
La Fig. 11c ilustra un codificador utilizado para cooperar con el decodificador de la Fig. 11a.
La Fig. 11d ilustra un diagrama de bloques de una implementación de la calculadora de parámetros de la Fig. 11c. Las Figs. 12a y 12b ilustran esquemas de frecuencia para ilustrar un intervalo de origen y un intervalo de destino. La Fig. 12c ilustra un esquema de ejemplo de correlación de dos señales.
La Fig. 13a ilustra un codificador de la técnica anterior con extensión de ancho de banda.
La Fig. 13b ilustra un decodificador de la técnica anterior con extensión de ancho de banda.
[0040] La Fig. 1a ilustra un aparato para codificar una señal de audio 99. La señal de audio 99 se introduce en un convertidor de espectro de tiempo 100 para convertir una señal de audio que tiene una tasa de muestreo en una representación espectral 101 emitida por el convertidor de espectro de tiempo. El espectro 101 se introduce en un analizador espectral 102 para analizar la representación espectral 101. El analizador espectral 101 se configura para determinar un primer conjunto de primeras porciones espectrales 103 para ser codificado con una primera resolución espectral y un segundo conjunto diferente de segundas porciones espectrales 105 para ser codificado con una segunda resolución espectral. La segunda resolución espectral es más pequeña que la primera resolución espectral. El segundo conjunto de segundas porciones espectrales 105 se introduce en una calculadora de parámetros o codificador paramétrico 104 para calcular la información de envolvente espectral que tiene la segunda resolución espectral. Asimismo, se proporciona un codificador de audio de dominio espectral 106 para generar una primera representación codificada 107 del primer conjunto de primeras porciones espectrales que tiene la primera resolución espectral. Además, la calculadora de parámetros/codificador paramétrico 104 está configurada para generar una segunda representación codificada 109 del segundo conjunto de segundas porciones espectrales. La primera representación codificada 107 y la segunda representación codificada 109 se introducen en un multiplexor de corriente de bits o formador de corriente de bits 108 y el bloque 108 emite finalmente la señal de audio codificada para la transmisión o el almacenamiento en un dispositivo de almacenamiento.
[0041] Generalmente, una primera porción espectral tal como 306 de la Fig. 3a estará rodeada por dos segundas porciones espectrales tales como 307a, 307b. Esto no se aplica en la Codificación Avanzada de Audio de Alta Eficiencia (HE AAC), donde el intervalo de frecuencia del codificador central es de banda limitada.
[0042] La Fig. 1b ilustra un decodificador que concuerda con el codificador de la Fig. 1a. La primera representación codificada 107 se introduce en un decodificador de audio de dominio espectral 112 para generar una primera representación decodificada de un primer conjunto de primeras porciones espectrales, donde la representación decodificada tiene una primera resolución espectral. Además, la segunda representación codificada 109 se introduce en un decodificador paramétrico 114 para generar una segunda representación decodificada de un segundo conjunto de segundas porciones espectrales que tiene una segunda resolución espectral que es más baja que la primera resolución espectral.
[0043] El decodificador comprende además un regenerador de frecuencia 116 para regenerar una segunda porción espectral reconstruida que tiene la primera resolución espectral que utiliza una primera porción espectral. El regenerador de frecuencia 116 lleva a cabo una operación de relleno de mosaicos, es decir utiliza un mosaico o una porción del primer conjunto de primeras porciones espectrales y copia este primer conjunto de primeras porciones espectrales en el intervalo de reconstrucción o banda de reconstrucción que tiene la segunda porción espectral y generalmente lleva a cabo el modelado de la envolvente espectral u otra operación indicada por la segunda representación decodificada emitida por el decodificador paramétrico 114, es decir utilizando la información sobre el segundo conjunto de segundas porciones espectrales. El primer conjunto decodificado de primeras porciones espectrales y el segundo conjunto reconstruido de porciones espectrales indicado en la salida del regenerador de frecuencia 116 en la línea 117 se introduce en un convertidor de espectro-tiempo 118 configurado para convertir la primera representación decodificada y la segunda porción espectral reconstruida en una representación de tiempo 119, teniendo la representación de tiempo una tasa alta de muestreo determinada.
[0044] La Fig. 2b ilustra una implementación del codificador de la Fig. 1a. Una señal de entrada de audio 99 se introduce en un banco de filtros de análisis 220 correspondiente al convertidor de espectro de tiempo 100 de la Fig. 1a. A continuación, se lleva a cabo la operación de modelado de ruido temporal en el bloque de modelado de ruido temporal (TNS) 222. Por lo tanto, la entrada en el analizador espectral 102 de la Fig. 1a correspondiente a un enmascaramiento tonal de bloque 226 de la Fig. 2b pueden ser valores espectrales completos, cuando no se aplica la operación de modelado de ruido temporal/modelado de mosaico temporal o pueden ser valores residuales espectrales, cuando se aplica la operación de modelado de ruido temporal (TNS) como se ilustra en la Fig. 2b, bloque 222. Para las señales de dos canales o señales multicanal se puede llevar a cabo además una codificación conjunta de canal 228, por lo que el codificador de dominio espectral 106 de la Fig. 1a puede comprender el bloque de codificación conjunta de canal 228. Asimismo, se proporciona un codificador por entropía 232 para llevar a cabo una compresión de datos sin pérdidas que es también una porción del codificador de dominio espectral 106 de la Fig. 1a.
[0045] El analizador espectral/enmascaramiento tonal 226 separa la salida del bloque de modelado de ruido temporal (TNS) 222 en la banda central y los componentes tonales correspondientes al primer conjunto de primeras porciones espectrales 103 y los componentes residuales correspondientes al segundo conjunto de segundas porciones espectrales 105 de la Fig. 1a. El bloque 224 indicado como la codificación de extracción de parámetros de relleno inteligente de espacios (IGF) corresponde al codificador paramétrico 104 de la Fig. 1a y el multiplexor de la corriente de bits 230 corresponde al multiplexor de corriente de bits 108 de la Fig. 1a.
[0046] Preferentemente, el banco de filtros de análisis 222 se implementa como un MDCT (banco de filtros de la transformada coseno discreta modificada) y la MDCT se utiliza para transformar la señal 99 en un dominio de frecuencia temporal con la transformada coseno discreta modificada que actúa como la herramienta de análisis de frecuencia.
[0047] El analizador espectral 226 aplica preferentemente un enmascaramiento de tonalidad. Esta etapa de estimación de enmascaramiento de tonalidad se utiliza para separar los componentes tonales de los componentes tipo ruido en la señal. Esto permite que el codificador central 228 codifique todos los componentes tonales con un módulo psico-acústico. La etapa de estimación de enmascaramiento de tonalidad se puede implementar de muchas maneras diferentes y se implementa preferentemente de manera similar en su funcionalidad a la etapa de estimación de pista sinusoidal utilizada en el modelado sinusoidal y de ruido para la codificación de voz/audio [8, 9] o un codificador de audio basado en el modelo HILN descrito en [10]. Preferentemente se utiliza una implementación que es fácil de implementar sin la necesidad de mantener trayectorias de nacimiento-muerte, pero también se puede utilizar cualquier otro detector de tonalidad o ruido.
[0048] El módulo de relleno inteligente de espacios (IGF) calcula la similitud que existe entre una región de origen y una región de destino. La región de destino estará representada por el espectro de la región de origen. La medida de la similitud entre las regiones de origen y de destino se realiza utilizando una estrategia de correlación cruzada. La región de destino se divide en mosaicos de frecuencia que no se superponen nTar. Para cada mosaico en la región de destino, se crea un mosaico de origen nScr a partir de una frecuencia fija de inicio. Estos mosaicos de origen se superponen por un factor entre 0 y 1, donde 0 significa 0 % de solapamiento y 1 significa 100 % de solapamiento. Cada una de estos mosaicos de origen está correlacionada con el mosaico de destino en diversos retardos para encontrar el mosaico de origen que se adapte mejor al mosaico de destino. El mejor número de mosaico de adaptación se almacena en Nummosaico[idx_tar], el retardo en el que se correlaciona mejor con el objetivo se almacena en xcorr_retraso[idx_tar][idx_src] y el signo de la correlación se almacena en xcorr_signo[idx_tar][idx_src]. En caso de que la correlación sea muy negativa, el mosaico de origen debe ser multiplicada por -1 antes del proceso de relleno de mosaico en el decodificador. El módulo de relleno inteligente de espacios (IGF) también se encarga de no sobrescribir los componentes tonales en el espectro ya que los componentes tonales se conservan utilizando el enmascaramiento de tonalidad. Se utiliza un parámetro de energía por bandas para almacenar la energía de la región de destino que permita reconstruir el espectro con precisión.
[0049] Este procedimiento tiene ciertas ventajas en comparación con la SBR clásica [1] donde la cuadrícula de armónicos de una señal multitono es conservada por el codificador central mientras que sólo los espacios entre las sinusoides se llenan con el mejor "ruido modelado" de adaptación de la región de origen. Otra ventaja de este sistema en comparación con ASR (Reemplazo Espectral Preciso) [2-4] es la ausencia de una etapa de síntesis de la señal que crea las porciones importantes de la señal en el decodificador. En cambio, esta tarea es asumida por el codificador central, lo que permite la conservación de los componentes importantes del espectro. Otra ventaja del sistema propuesto es la escalabilidad continua que ofrecen las características. Sólo el uso de Nummosaico[idx_tar]. y xcorr_retraso=0, para cada mosaico se denomina adaptación de granularidad en bruto y se puede utilizar para tasas bajas de bits mientras que el uso de la variable xcorr_retraso para cada mosaico permite adaptar mejor los espectros de destino y de origen.
[0050] Además, se propone una técnica de estabilización de elección de mosaicos que elimina los fallos de dominio de frecuencia tales como trino y ruido musical.
[0051] En caso de pares de canales estéreo se aplica un procesamiento de estéreo conjunto adicional. Esto es necesario, ya que para un determinado intervalo de destino, la señal puede ser una fuente de sonido panoramizada y altamente correlacionada. En caso de que las regiones de origen elegidas para esta región en particular no estén bien correlacionadas, a pesar de que las energías se adaptan a las regiones de destino, la imagen espacial puede sufrir debido a las regiones de origen no correlacionadas. El codificador analiza cada banda de energía de la región de destino, por lo general llevando a cabo una correlación cruzada de los valores espectrales y si se supera un determinado umbral, establece una etiqueta conjunta para esta banda de energía. En el decodificador, las bandas de energía de los canales izquierdo y derecho se tratan individualmente si no se establece esta etiqueta conjunta de estéreo. En caso de que se establezca la etiqueta de estéreo conjunto, tanto las energías como la interconexión se llevan a cabo en el dominio de estéreo conjunto. La información de estéreo conjunto para las regiones de relleno inteligente de espacios (IGF) se señala de manera similar a la información conjunta de estéreo para la codificación central, que incluye una etiqueta que indica en el caso de la predicción si la dirección de la predicción es de mezcla descendente a residual o viceversa.
[0052] Las energías pueden calcularse a partir de las energías transmitidas en el dominio L/R.
Nrg [k] medio = Nrg[k] izquierdo Nrg[k] derecho
Nrg[k] lateral = Nrg[k] izquierdo Nrg[k] derecho;
donde k es el índice de frecuencia en el dominio de la transformada.
[0053] Otra solución consiste en calcular y transmitir las energías directamente en el dominio de estéreo conjunto para las bandas donde el estéreo conjunto está activo, por lo que no es necesaria la transformación de energía adicional en el lado del decodificador.
[0054] Los mosaicos de origen se crean siempre según la Matriz Media/Lateral:
mosaico medio[k]=0,5 (mosaico izquierdo[k]+mosaico derecho[k])
mosaico lateral[k]=0,5 (mosaico izquierdo[k]+mosaico derecho[k])
[0055] Ajuste de energía:
mosaico medio[k] = mosaico medio[k] * Nrg[k] medio;
mosaico lateral[k] = mosaico lateral[k] * Nrg[k] lateral;
[0056] Transformación conjunta de estéreo -> LR:
Si no se codifica ningún parámetro de predicción adicional:
mosaico izquierdo[k] = mosaico medio [k] mosaico lateral[k]
mosaico derecho [k] = mosaico medio [k] mosaico lateral[k]
[0057] Si se codifica un parámetro de predicción adicional y si la dirección señalada es del medio al lateral:
mosaico lateral[k]=mosaico lateral[k] - coef. de predicción • mosaico medio[k]
mosaico izquierdo[k]=mosaico medio[k] mosaico lateral[k]
mosaico derecho[k]=mosaico medio[k] - mosaico lateral[k]
[0058] Si la dirección señalada es del lateral al medio:
mosaico medio1[k]=mosaico medio[k] - coef. de predicción • mosaico lateral[k]
mosaico izquierdo[k]=mosaico medio1[k] - mosaico lateral[k]
mosaico derecho [k]=mosaico medio[k] mosaico lateral[k]
[0059] Este procesamiento asegura que a partir de los mosaicos utilizadas para regenerar regiones de destino altamente correlacionadas y regiones de destino panoramizadas, los canales izquierdo y derecho resultantes siguen representando una fuente de sonido correlacionada y panoramizada incluso si las regiones de origen no están correlacionadas, conservando la imagen estéreo para tales regiones.
[0060] En otras palabras, en la corriente de bits se transmiten etiquetas conjuntas de estéreo que indican si se utilizará L/R o M/S como un ejemplo para la codificación conjunta de estéreo general. En el decodificador, en primer lugar, la señal central se decodifica como lo indican las etiquetas conjuntas de estéreo para las bandas centrales. En segundo lugar, la señal central se almacena en ambas representaciones L/R y M/S. Para el relleno de mosaicos del relleno inteligente de espacios (IGF), la representación de mosaicos de origen se selecciona para ajustar la representación de mosaicos de destino como lo indica la información conjunta de estéreo para las bandas de IGF.
[0061] El modelado de ruido temporal (TNS) es una técnica estándar y forma parte de la Codificación Avanzada de Audio (AAC) [11 - 13]. El modelado de ruido temporal (TNS) se puede considerar como una extensión del esquema básico de un codificador perceptual, mediante la inserción de una etapa de procesamiento opcional entre el banco de filtros y la fase de cuantificación. La tarea principal del módulo de modelado de ruido temporal (TNS) consiste en ocultar el ruido de cuantificación producido en la región de enmascaramiento temporal de señales de transición y, por lo tanto, produce un esquema de codificación más eficaz. En primer lugar, el modelado de ruido temporal (TNS) calcula un conjunto de coeficientes de predicción utilizando "predicción directa" en el dominio de la transformada, por ejemplo, la Transformada Coseno Discreta Modificada (MDCT). Estos coeficientes se utilizan a continuación para aplanar la envolvente temporal de la señal. A medida que la cuantificación afecta al espectro filtrado del modelado de ruido temporal (TNS), también el ruido de cuantificación es temporalmente plano. Mediante la aplicación del filtrado inverso del modelado de ruido temporal (TNS) en el lado del decodificador, el ruido de cuantificación se modela según la envolvente temporal del filtro de TNS y, por lo tanto, el ruido de cuantificación es enmascarado por el transitorio.
[0062] El relleno inteligente de espacios (IGF) se basa en una representación de MDCT Preferentemente, para una codificación eficaz se tienen que utilizar bloques largos de aproximadamente 20 ms. Si la señal dentro de dicho bloque largo contiene transitorios, en las bandas espectrales del relleno inteligente de espacios (IGF) ocurren pre- y post-ecos audibles debido al relleno de mosaicos. La Fig. 7c muestra un efecto de pre-eco típico antes del inicio del transitorio debido al relleno inteligente de espacios (IGF). En el lado izquierdo se muestra el espectrograma de la señal original y en el lado derecho se muestra el espectrograma de la señal extendida de ancho de banda sin filtrado del modelado de ruido temporal (TNS).
[0063] Este efecto de pre-eco se reduce utilizando TNS en el contexto del relleno inteligente de espacios (IGF). En esta instancia, el TNS se utiliza como una herramienta de modelado de mosaico temporal (TTS) ya que la regeneración espectral en el decodificador se lleva a cabo sobre la señal residual del TNS. Los coeficientes de predicción del TTS requeridos se calculan y aplican utilizando el espectro completo en el lado del codificador como es habitual. Las frecuencias de inicio y fin del modelado de ruido temporal (TNS)/modelado de mosaico temporal (TTS) no resultan afectadas por la frecuencia de inicio del relleno inteligente de espacios (IGF) fiGFinicio de la herramienta de IGF. En comparación con el modelado de ruido temporal (TNS) de la técnica anterior, la frecuencia de fin del modelado de mosaico temporal (TTS) aumenta a la frecuencia de fin de la herramienta de relleno inteligente de espacios (IGF), que es mayor que fiGFinicio. En el lado del decodificador se aplican los coeficientes de TNS/TTS sobre el espectro completo de nuevo, es decir el espectro central más el espectro regenerado más los componentes tonales del mapa de tonalidad (véase la Fig. 7e). La aplicación de modelado de mosaico temporal (TTS) es necesaria para formar la envolvente temporal del espectro regenerado para adaptarse de nuevo a la envolvente de la señal original.
Por lo tanto, se reducen los pre-ecos ilustrados. Adicionalmente, todavía modela el ruido de cuantificación en la señal por debajo fiGFinicio como es habitual en el modelado de ruido temporal (TNS).
[0064] En los decodificadores de la técnica anterior, la interconexión espectral en una señal de audio altera la correlación espectral en los límites de interconexión y, por lo tanto, afecta a la envolvente temporal de la señal de audio introduciendo dispersión. Por lo tanto, otra ventaja de la aplicación del relleno de mosaicos del relleno inteligente de espacios (IGF) en la señal residual es que, tras la aplicación del filtro de modelado, los límites del mosaico se correlacionan perfectamente, lo que resulta en una reproducción temporal más fiel de la señal.
[0065] En un codificador de la invención, el espectro que ha sido sometido al filtrado de TNS/TTS, el procesamiento de enmascaramiento de tonalidad y la estimación de parámetros de relleno inteligente de espacios (IGF), carece de cualquier señal por encima de la frecuencia de inicio de IGF excepto los componentes tonales. Este espectro disperso está codificado ahora por el codificador central utilizando los principios de codificación aritmética y codificación predictiva. Estos componentes codificados junto con los bits de señalización forman la corriente de bits del audio.
[0066] La Fig. 2a ilustra la implementación correspondiente del decodificador. La corriente de bits en la Fig. 2a correspondiente a la señal de audio codificada se introduce en el demultiplexor/decodificador que estaría conectado, con respecto a la Fig. 1b, a los bloques 112 y 114. El demultiplexor de corriente de bits separa la señal de audio de entrada en la primera representación codificada 107 de la Fig. 1b y la segunda representación codificada 109 de la Fig. 1b. La primera representación codificada que tiene el primer conjunto de primeras porciones espectrales se introduce en el bloque de decodificación conjunta de canales 204 correspondiente al decodificador de dominio espectral 112 de la Fig. 1b. La segunda representación codificada se introduce en el decodificador paramétrico 114 que no se ilustra en la Fig. 2a y, a continuación, se introduce en el bloque de relleno inteligente de espacios (IGF) 202 correspondiente al regenerador de frecuencia 116 de la Fig. 1b. El primer conjunto de primeras porciones espectrales necesario para la regeneración de frecuencia se introduce en el bloque de IGF 202 a través de la línea 203. Asimismo, tras la decodificación conjunta de canales 204, la decodificación central específica se aplica en el bloque de enmascaramiento tonal 206 de manera que la salida del enmascaramiento tonal 206 corresponda a la salida del decodificador de dominio espectral 112. A continuación, el combinador 208 lleva a cabo una combinación, es decir una construcción de tramas donde la salida del combinador 208 tiene ahora el espectro de intervalo completo, pero todavía en el dominio filtrado de modelado de ruido temporal (TNS)/modelado de mosaico temporal (TTS). Posteriormente, en el bloque 210 se lleva a cabo una operación inversa de TNS/TTS utilizando información de filtro de TNS/TTS proporcionada a través de la línea 109, es decir la información lateral de TTS está incluida preferentemente en la primera representación codificada generada por el codificador de dominio espectral 106 que puede ser, por ejemplo, un codificador central de codificación avanzada de audio (AAC) directa o codificación unificada de voz y audio (USAC), o puede estar incluida también en la segunda representación codificada. En la salida del bloque 210 se proporciona un espectro completo hasta la frecuencia máxima que es la frecuencia de intervalo completo definida por la tasa de muestreo de la señal de entrada original. A continuación se lleva a cabo una conversión de espectro/tiempo en el banco de filtros de síntesis 212 para obtener finalmente la señal de salida de audio.
[0067] La Fig. 3a ilustra una representación esquemática del espectro. El espectro se subdivide en bandas de factor de escala SCB donde hay siete bandas de factor de escala SCB1 a SCB7 en el ejemplo ilustrado de la Fig. 3a. Las bandas de factor de escala pueden ser bandas de factor de escala de codificación avanzada de audio (AAC) que están definidas en la norma AAC y tienen un ancho de banda cada vez mayor hasta frecuencias superiores como se ilustra en la Fig. 3a esquemáticamente. Se prefiere llevar a cabo el relleno inteligente de espacios (IGF) no desde el comienzo del espectro, es decir a bajas frecuencias, sino iniciar la operación de IGF a una frecuencia de inicio de IGF ilustrada en 309. Por lo tanto, la banda de frecuencia central se extiende desde la frecuencia más baja a la frecuencia de inicio de IGF. Por encima de la frecuencia de inicio de IGF se aplica el análisis de espectro para separar los componentes espectrales de alta resolución 304, 305, 306, 307 (el primer conjunto de primeras porciones espectrales) de componentes de baja resolución representados por el segundo conjunto de segundas porciones espectrales. La Fig. 3a ilustra un espectro que se introduce a modo de ejemplo en el codificador de dominio espectral 106 o en el codificador conjunto de canales 228, es decir, el codificador central opera en todo el intervalo pero codifica una cantidad significativa de valores espectrales cero, es decir estos valores espectrales cero se cuantifican a cero o se fijan en cero antes de la cuantificación o tras la cuantificación. De todos modos, el codificador central opera en el intervalo completo, es decir, como si el espectro fuera como el ilustrado, es decir, el decodificador central no necesariamente tiene que estar al tanto de cualquier relleno inteligente de espacios del segundo conjunto de segunda porciones espectrales con una resolución espectral inferior.
[0068] Preferentemente, la alta resolución está definida por una codificación por líneas de líneas espectrales, tales como las líneas de la transformada coseno directa modificada (MDCT), mientras que la segunda resolución o baja resolución se define, por ejemplo, calculando sólo un único valor espectral por banda de factor de escala, donde una banda de factor de escala abarca varias líneas de frecuencia. Por lo tanto, la segunda resolución baja, con respecto a su resolución espectral, mucho menor que la primera o alta resolución definida por la codificación por líneas es generalmente aplicada por el codificador central tal como un codificador central de codificación avanzada de audio (AAC) o codificación unificada de voz y audio (USAC).
[0069] En cuanto al factor de ajuste de escala o cálculo de energía, la situación se ilustra en la Fig. 3b. Debido al hecho de que el codificador es un codificador central y debido al hecho de que puede haber, pero no necesariamente, componentes del primer conjunto de porciones espectrales en cada banda, el codificador central calcula un factor de ajuste de escala para cada banda no sólo en el intervalo central por debajo de la frecuencia de inicio de relleno inteligente de espacios (IGF) 309, sino también por encima de la frecuencia de inicio de IGF hasta la frecuencia máxima fIGFparada que es menor o igual a la mitad de la frecuencia de muestreo, es decir, fs/2.
[0070] Por lo tanto, las porciones tonales codificadas 302, 304, 305, 306, 307 de la Fig. 3a y, en esta realización junto con los factores de ajuste de escala SCB1 a SCB7 corresponden a los datos espectrales de alta resolución. Los datos espectrales de baja resolución se calculan a partir de la frecuencia de inicio de IGF y corresponden a los valores de información de energía E1, E2, E3, E4, que se transmiten junto con los factores de ajuste de escala SF4 a SF7.
[0071] En particular, cuando el codificador central se encuentra en una condición de baja tasa de bits se puede aplicar además la operación de relleno de ruido adicional en la banda central, es decir una frecuencia inferior a la frecuencia de inicio del relleno inteligente de espacios (IGF), es decir, en las bandas de factor de escala SCB1 a SCB3. En el relleno de ruido, existen varias líneas espectrales adyacentes que han sido cuantificadas a cero. En el lado del decodificador, estos valores espectrales cuantificados a cero se re-sintetizan y los valores espectrales re-sintetizados se ajustan en su magnitud utilizando una energía de relleno de ruido tal como NF2 ilustrada en 308 en la Fig. 3b. La energía de relleno de ruido, que se puede dar en términos absolutos o en términos relativos particularmente con respecto al factor de ajuste de escala como en la codificación unificada de voz y audio (USAC) corresponde a la energía del conjunto de valores espectrales cuantificados a cero. Estas líneas espectrales de relleno de ruido también pueden ser consideradas un tercer conjunto de terceras porciones espectrales que son regeneradas por la síntesis de relleno de ruido simple sin ninguna operación de relleno inteligente de espacios (IGF) basada en la regeneración de frecuencia utilizando mosaicos de frecuencia de otras frecuencias para la reconstrucción de mosaicos de frecuencia utilizando valores espectrales de un intervalo de origen y la información de energía E1, E2, E3, E4.
[0072] Preferentemente, las bandas para las cuales se calcula la información de energía coinciden con las bandas de factor de escala. En otras realizaciones se aplica un agrupamiento de valores de información de energía de manera que, por ejemplo, para las bandas de factor de escala 4 y 5 sólo se transmite un único valor de información de energía, pero incluso en esta realización, los límites de las bandas de reconstrucción agrupadas coincide con los límites de las bandas de factor de escala. Si se aplican diferentes separaciones de bandas, entonces se pueden aplicar nuevos cálculos o cálculos de sincronización, y esto puede tener sentido en función de la implementación determinada.
[0073] Preferentemente, el codificador de dominio espectral 106 de la Fig. 1a es un codificador activado psicoacústicamente como se ilustra en la Fig. 4a. Generalmente, como se ilustra por ejemplo en la norma MPEG2/4 AAC o MPEG1/2, Capa 3, la señal de audio para codificar después de haber sido transformada en el intervalo espectral (401 en la Figura. 4a) se envía a una calculadora de factor de escala 400. La calculadora de factor de ajuste de escala se controla mediante un modelo psico-acústico que recibe adicionalmente la señal de audio para cuantificar o recibe, como en la norma MPEG1/2 Capa 3 o MPEG AAC, una representación espectral compleja de la señal de audio. El modelo psico-acústico calcula, para cada banda de factor de escala, un factor de escala que representa el umbral psico-acústico. Adicionalmente, los factores de ajuste de escala se ajustan, a continuación, por la cooperación bien conocida de los bucles de iteración interna y externa o por cualquier otro procedimiento de codificación adecuado de manera que se cumplan determinadas condiciones de tasas de bits. A continuación, los valores espectrales para cuantificar por un lado, y los factores de ajuste de escala calculados por otro lado se introducen en un procesador cuantificador 404. En la operación de codificación de audio simple, los valores espectrales que se van a cuantificar son ponderados por los factores de ajuste de escala y los valores espectrales ponderados se introducen a continuación en un cuantificador fijo que generalmente tiene una funcionalidad de compresión para intervalos de amplitud superiores. Entonces, en la salida del procesador cuantificador sí existen índices de cuantificación que se envían a continuación a un codificador por entropía que generalmente tiene codificación específica y muy eficiente para un conjunto de índices de cuantificación cero para valores de frecuencia adyacentes o, como también se denomina en la técnica, un "recorrido" de valores cero.
[0074] En el codificador de audio de la Fig. 1a, sin embargo, el procesador cuantificador generalmente recibe información sobre las segundas porciones espectrales del analizador espectral. Por lo tanto, el procesador cuantificador 404 se asegura de que, en la salida del procesador cuantificador 404, las segundas porciones espectrales identificadas por el analizador espectral 102 son cero o tienen una representación reconocida por un codificador o un decodificador como una representación cero que puede ser codificada de manera muy eficaz, específicamente cuando existen "recorridos" de valores cero en el espectro.
[0075] La Fig. 4b ilustra una implementación del procesador cuantificador. Los valores espectrales de la transformada coseno discreta modificada (MDCT) se pueden introducir en un bloque fijado en cero 410. Posteriormente, las segundas porciones espectrales ya se fijan en cero antes de llevar a cabo una ponderación por los factores de ajuste de escala en el bloque 412. En una implementación adicional, el bloque 410 no se proporciona, pero la cooperación fijada en cero se lleva a cabo en el bloque 418 posterior al bloque de ponderación 412. Incluso en otra implementación, la operación fijada en cero también se puede llevar a cabo en un bloque fijado en cero 422 posterior a una cuantificación en el bloque cuantificador 420. En esta implementación, los bloques 410 y 418 no estarían presentes. En general se proporcionan al menos uno de los bloques 410, 418, 422 dependiendo de la implementación específica.
[0076] A continuación, en la salida del bloque 422 se obtiene un espectro cuantificado correspondiente a lo que se ilustra en la Fig. 3a. Este espectro cuantificado se introduce entonces en un codificador por entropía tal como 232 en la Fig. 2b que puede ser un codificador Huffman o un codificador aritmético como se define, por ejemplo, en la norma de codificación unificada de voz y audio (USAC).
[0077] Los bloques fijados en cero 410, 418, 422, que se proporcionan alternativamente entre sí o en paralelo son controlados por el analizador espectral 424. El analizador espectral comprende preferentemente cualquier implementación de un detector de tonalidad bien conocido o comprende cualquier tipo diferente de detector operativo para separar un espectro en componentes que se van a codificar con una alta resolución y componentes que se van a codificar con una baja resolución. Otros de estos algoritmos implementados en el analizador espectral pueden ser un detector de actividad de voz, un detector de ruido, un detector de voz o cualquier otro detector que determine, en función de la información espectral o metadatos asociados, los requisitos de resolución para diferentes porciones espectrales.
[0078] La Fig. 5a ilustra una implementación preferida del convertidor de espectro de tiempo 100 de la Fig. 1a como se implementa, por ejemplo, en la codificación avanzada de audio (AAC) o en la codificación unificada de voz y audio (USAC). El convertidor de espectro de tiempo 100 comprende un formador de ventanas 502 controlado por un detector de transitorios 504. Cuando el detector de transitorios 504 detecta un transitorio, entonces señala un intercambio de ventanas largas a ventanas cortas al formador de ventanas. A continuación, el formador de ventanas 502 calcula para los bloques superpuestos, tramas formadas en ventanas, donde cada trama formada en ventanas normalmente tiene dos valores N como, por ejemplo, los valores 2048. A continuación, se lleva a cabo una transformación dentro de un transformador de bloques 506, y generalmente este transformador de bloques proporciona además una eliminación de manera que realiza una eliminación/transformada combinada para obtener una trama espectral con valores N tales como los valores espectrales de la transformada coseno discreta modificada (MDCT). Por lo tanto, para una operación de ventanas largas, la trama en la entrada del bloque 506 comprende dos valores N tales como 2048 valores y una trama espectral tiene entonces 1024 valores. Sin embargo, a continuación, se lleva a cabo un intercambio en los bloques cortos, es decir cuando se llevan a cabo ocho bloques cortos donde cada bloque corto tiene 1/8 valores de dominio temporal formados en ventanas en comparación con una ventana larga y cada bloque espectral tiene 1/8 valores espectrales en comparación con un bloque largo. Por lo tanto, cuando esta eliminación se combina con una operación del 50 % de solapamiento del formador de ventanas, el espectro es una versión muestreada críticamente de la señal de audio de dominio temporal 99.
[0079] Posteriormente se hace referencia a la Fig. 5b que ilustra una implementación específica del regenerador de frecuencia 116 y el convertidor de tiempo de espectro 118 de la Fig. 1b, o de la operación combinada de los bloques 208, 212 de la Fig. 2a. En la Fig. 5b se ilustra una banda de reconstrucción específica tal como la banda de factor de escala de la Fig. 3a. La primera porción espectral en esta banda de reconstrucción, es decir, la primera porción espectral 306 de la Fig. 3a se introduce en el bloque constructor/regulador de tramas 510. Asimismo, una segunda porción espectral reconstruida para la banda de factor de escala 6 se introduce también en el constructor/regulador de tramas 510. Además, la información de la energía tal como E3 de la Fig. 3b para una banda de factor de escala 6 también se introduce en el bloque 510. La segunda porción espectral reconstruida en la banda de reconstrucción ya ha sido generada por el relleno de mosaicos de frecuencia utilizando un intervalo de origen y la banda de reconstrucción corresponde a continuación al intervalo de destino. En esta instancia se lleva a cabo un ajuste de energía de la trama para obtener finalmente la trama reconstruida completa que tiene los valores N como, por ejemplo, los que se obtienen en la salida del combinador 208 de la Fig. 2a. A continuación, en el bloque 512 se lleva a cabo una transformada/interpolación inversa de bloques para obtener 248 valores de dominio temporal para los 124 valores espectrales, por ejemplo, en la entrada del bloque 512. A continuación, en el bloque 514 se lleva a cabo una operación de síntesis de formación de ventanas que está controlada de nuevo por una indicación de ventana larga/ventana corta transmitida como información lateral en la señal de audio codificada. A continuación, en el bloque 516 se lleva a cabo una operación de solapamiento/adición con una trama de tiempo anterior. Preferentemente, la transformada coseno discreta modificada (MDCT) aplica un solapamiento del 50 % de manera que, para cada nueva trama de tiempo de valores 2N se emiten finalmente los valores de dominio temporal N. Se prefiere un solapamiento del 50 % debido al hecho de que proporciona un muestreo crítico y un cruce continuo de una trama a la trama siguiente debido a la operación de solapamiento/adición en el bloque 516.
[0080] Tal como se ilustra en 301 en la Fig. 3a se puede aplicar adicionalmente una operación de relleno de ruido, no sólo por debajo de la frecuencia de inicio de relleno inteligente de espacios (IGF) sino también por encima de la frecuencia de inicio de IGF como para la banda de reconstrucción contemplada coincidiendo con la banda de factor de escala 6 de la Fig. 3a. A continuación, los valores espectrales de relleno de ruido también se pueden introducir en el constructor/regulador de tramas 510 y el ajuste de los valores espectrales de relleno de ruido también se puede aplicar dentro de este bloque o los valores espectrales de relleno de ruido ya se pueden ajustar utilizando la energía de relleno de ruido antes de ser introducidos en el constructor/regulador de tramas 510.
[0081] Preferentemente, una operación de IGF, es decir una operación de relleno de mosaicos de frecuencia que utiliza valores espectrales de otras porciones se puede aplicar en el espectro completo. Por lo tanto, una operación de relleno de mosaicos espectrales no sólo se puede aplicar en la banda alta por encima de una frecuencia de inicio de relleno inteligente de espacios (IGF) sino que también se puede aplicar en la banda baja. Asimismo, el relleno de ruido sin relleno de mosaicos de frecuencia también se puede aplicar no sólo por debajo de la frecuencia de inicio de relleno inteligente de espacios (IGF) sino también por encima de la frecuencia de inicio de IGF. Sin embargo, se ha descubierto que la alta calidad y la alta eficacia de la codificación de audio se pueden obtener cuando la operación de relleno de ruido está limitada al intervalo de frecuencia por debajo de la frecuencia de inicio de IGF y cuando la operación de relleno de mosaicos de frecuencia está limitada al intervalo de frecuencia por encima de la frecuencia de inicio de IGF, como se ilustra en la Fig. 3a.
[0082] Preferentemente, los mosaicos de destino (TT) (que tienen frecuencias superiores a la frecuencia de inicio de IGF) están sujetas a los límites de la banda de factor de escala del codificador de tasa completa. Los mosaicos de origen (ST), de las cuales se obtiene información, es decir para frecuencias inferiores a la frecuencia de inicio de IGF no están sujetas a los límites de la banda de factor de escala. El tamaño de los mosaicos de origen (ST) debe corresponder al tamaño del mosaico de destino (TT) asociada. Esto se ilustra utilizando el siguiente ejemplo. TT[0] tiene una longitud de 10 Intervalos de MDCT. Esto corresponde exactamente a la longitud de dos SBCs posteriores (tal como 4 6). Entonces, todas los mosaicos de origen (ST) posibles que deben correlacionarse con TT[0], también tienen una longitud de 10 intervalos. Un segundo mosaico de destino TT[1] que es adyacente a TT[0] tiene una longitud de 15 intervalos 1 (SCB tiene una longitud de 7 8). Entonces, el mosaico de origen (ST) para lo anterior tiene una longitud de 15 intervalos en lugar de 10 intervalos como para TT[0].
[0083] En caso de que no se pueda encontrar un mosaico de destino (TT) para un mosaico de origen (ST) con la longitud del mosaico de destino (por ejemplo, cuando la longitud del TT es mayor que el intervalo de origen disponible), entonces no se calcula una correlación y el intervalo de origen se copia un número de veces en este TT (la copia se lleva a cabo una después de la otra de manera que una línea de frecuencia para la frecuencia más baja de la segunda copia sigue inmediatamente - en la frecuencia - la línea de frecuencia para la frecuencia más alta de la primera copia), hasta que el mosaico de destino (TT) se rellene completamente.
[0084] Posteriormente se hace referencia a la Fig. 5c que ilustra una realización preferida adicional del regenerador de frecuencia 116 de la Fig. 1b o el bloque de relleno inteligente de espacios (IGF) 202 de la Fig. 2a. El bloque 522 es un generador de mosaicos de frecuencia que no sólo recibe una ID de la banda de destino sino que además recibe una ID de la banda de origen. A modo de ejemplo, se ha determinado en el lado del codificador que la banda de factor de escala 3 de la Fig. 3a es muy adecuada para la reconstrucción de la banda de factor de escala 7. Por lo tanto, la ID de la banda de origen sería 2 y la ID de la banda de destino sería 7. Basándose en esta información, el generador de mosaicos de frecuencia 522 aplica una operación de copiado o de relleno de mosaicos de armónicos o cualquier otra operación de relleno de mosaicos para generar la segunda porción en bruto de los componentes espectrales 523. La segunda porción en bruto de los componentes espectrales tiene una resolución de frecuencia idéntica a la resolución de frecuencia incluida en el primer conjunto de primeras porciones espectrales.
[0085] Entonces, la primera porción espectral de la banda de reconstrucción tal como 307 de la Fig. 3a se introduce en un constructor de tramas 524 y la segunda porción en bruto 523 se introduce también en el constructor de tramas 524. A continuación, la trama reconstruida es ajustada por el regulador 526 utilizando un factor de ganancia para la banda de reconstrucción calculada por la calculadora de factor de ganancia 528. Es importante destacar, sin embargo, que la primera porción espectral en la trama no resulta afectada por el regulador 526, sino que sólo la segunda porción en bruto para la trama de reconstrucción resulta afectada por el regulador 526. Para este fin, la calculadora del factor de ganancia 528 analiza la banda de origen o la segunda porción en bruto 523 y además analiza la primera porción espectral en la banda de reconstrucción para encontrar finalmente el factor de ganancia correcto 527 de manera que la energía de la trama ajustada emitida por el regulador 526 tenga la energía E4 cuando se contempla una banda de factor de escala 7.
[0086] En este contexto, es muy importante evaluar la precisión de la reconstrucción de alta frecuencia de la presente invención en comparación con la codificación avanzada de audio de alta eficiencia (HE-AAC). Esto se explica con respecto a la banda de factor de escala 7 en la Fig. 3a. Se supone que un codificador de la técnica anterior ilustrado en la Fig. 13a detectaría la porción espectral 307 que se va a codificar con una alta resolución como un "armónico que falta". Entonces, la energía de este componente espectral se transmitiría junto con una información de la envolvente espectral para la banda de reconstrucción tal como la banda de factor de escala 7 al decodificador. A continuación, el decodificador recrearía el armónico que falta. Sin embargo, el valor espectral, en el que el armónico que falta 307 sería reconstruido por el decodificador de la técnica anterior de la Fig. 13b estaría en el medio de la banda 7 a una frecuencia indicada por la frecuencia de reconstrucción 390. Por lo tanto, la presente invención evita un error de frecuencia 391 que sería introducido por el decodificador de la técnica anterior de la Fig. 13d.
[0087] En una implementación, el analizador espectral también se implementa para el cálculo de similitudes entre primeras porciones espectrales y segundas porciones espectrales y para determinar, sobre la base de las similitudes calculadas, para una segunda porción espectral en un intervalo de reconstrucción una primera porción espectral que se adapte a la segunda porción espectral tanto como sea posible. Entonces, en esta implementación de intervalo de origen/intervalo de destino variable, el codificador paramétrico introducirá además en la segunda representación codificada una información de adaptación que indica un intervalo de origen de adaptación para cada intervalo de destino. En el lado del descodificador, esta información podría ser utilizada a continuación por un generador de mosaicos de frecuencia 522 de la Fig. 5c que ilustra una generación de una segunda porción en bruto 523 sobre la base de una ID de la banda de origen y una ID de la banda de destino.
[0088] Asimismo, tal como se ilustra en la Fig. 3a, el analizador espectral está configurado para analizar la representación espectral hasta una frecuencia máxima de análisis que es sólo una pequeña cantidad por debajo de la mitad de la frecuencia de muestreo y que es preferentemente al menos un cuarto de la frecuencia de muestreo o generalmente superior.
[0089] Como se ilustra, el codificador opera sin reducción de muestreo y el decodificador opera sin muestreo ascendente. En otras palabras, el codificador de audio de dominio espectral está configurado para generar una representación espectral que tiene una frecuencia de Nyquist definida por la tasa de muestreo de la señal de audio introducida originalmente.
[0090] Asimismo, tal como se ilustra en la Fig. 3a, el analizador espectral está configurado para analizar la representación espectral que se inicia con una frecuencia de relleno de espacios y que termina con una frecuencia máxima representada por una frecuencia máxima incluida en la representación espectral, donde una porción espectral que se extiende desde una frecuencia mínima hasta la frecuencia de inicio de relleno de espacios pertenece al primer conjunto de porciones espectrales y donde otra porción espectral tal como 304, 305, 306, 307 que tiene valores de frecuencia por encima de la frecuencia de relleno de espacios, está incluida adicionalmente en el primer conjunto de primeras porciones espectrales.
[0091] Como se explicó anteriormente, el decodificador de audio de dominio espectral 112 está configurado de manera que una frecuencia máxima representada por un valor espectral en la primera representación decodificada es igual a una frecuencia máxima incluida en la representación de tiempo que tiene la tasa de muestreo, donde el valor espectral para la frecuencia máxima en el primer conjunto de primeras porciones espectrales es cero o diferente de cero. De todos modos, para esta frecuencia máxima en el primer conjunto de componentes espectrales existe un factor de ajuste de escala para la banda de factor de escala, que es generado y transmitido sin importar si todos los valores espectrales en esta banda de factor de escala se fijan en cero o no, como se describe en el contexto de las Figs. 3a y 3b.
[0092] Por lo tanto, la invención es ventajosa con respecto a otras técnicas paramétricas para aumentar la eficacia de compresión, por ejemplo, la sustitución de ruido y el relleno de ruido (estas técnicas son exclusivamente para la representación eficiente de contenido de señal local tipo ruido), por lo que la invención permite una reproducción de frecuencia precisa de componentes tonales. Hasta la fecha, ningún procedimiento del estado actual de la técnica aborda la representación paramétrica eficiente del contenido arbitrario de la señal por relleno de espacios espectrales sin la restricción de una división fija a priori en la banda baja (LF) y en la banda alta (HF).
[0093] Las realizaciones del sistema de la invención mejoran las estrategias del estado actual de la técnica y, por lo tanto, proporcionan una alta eficiencia de compresión, ninguna o sólo una pequeña molestia perceptual y ancho de banda de audio completo, incluso para tasas bajas de bits.
[0094] El sistema general consta de:
- codificación central de banda completa
- relleno inteligente de espacios (relleno de mosaicos o relleno de ruido)
- partes tonales dispersas en núcleo, seleccionadas por enmascaramiento tonal
- codificación conjunta de par de estéreo para la banda completa, incluyendo el relleno de mosaicos
- TNS en el mosaico
- blanqueo espectral en el intervalo de relleno inteligente de espacios (IGF)
[0095] Una primera etapa hacia un sistema más eficiente consiste en eliminar la necesidad de transformar datos espectrales en un segundo dominio de transformada diferente del dominio del codificador central. Como la mayoría de los códecs de audio tal como, por ejemplo, la codificación avanzada de audio (AAC), utilizan la transformada coseno discreta modificada (MDCT) como transformada básico, también es útil llevar a cabo la extensión de ancho de banda (BWE) en el dominio de la MDCT Un segundo requisito para el sistema de BWE sería la necesidad de conservar la cuadrícula tonal mediante la cual se conservan incluso componentes tonales de alta frecuencia (HF) y, por lo tanto, la calidad del audio codificado es superior a los sistemas existentes. Para tener en cuenta ambos requisitos mencionados anteriormente para un esquema de extensión de ancho de banda (BWE) se propone un nuevo sistema denominado Relleno Inteligente de Espacios (IGF). La Fig. 2b muestra el diagrama de bloques del sistema propuesto en el lado del codificador y la Fig. 2a muestra el sistema en el lado del decodificador.
[0096] La Fig. 6a ilustra un aparato para decodificar una señal de audio codificada en otra implementación de la presente invención. El aparato para decodificar comprende un decodificador de audio de dominio espectral 602 para generar una primera representación decodificada de un primer conjunto de porciones espectrales y como el regenerador de frecuencia 604 conectado aguas abajo del decodificador de audio de dominio espectral 602 para generar una segunda porción espectral reconstruida utilizando una primera porción espectral del primer conjunto de primeras porciones espectrales. Como se ilustra en 603, los valores espectrales en la primera porción espectral y en la segunda porción espectral son valores residuales de predicción espectral. Con el fin de transformar estos valores residuales de predicción espectral en una representación espectral completa se proporciona un filtro de predicción espectral 606. Este filtro de predicción inversa está configurado para llevar a cabo una predicción inversa sobre la frecuencia utilizando los valores residuales espectrales para el primer conjunto de la primera frecuencia y las segundas porciones espectrales reconstruidas. El filtro de predicción inversa espectral 606 está configurado por la información de filtro incluida en la señal de audio codificada. La Fig. 6b ilustra una implementación más detallada de la realización de la Fig. 6a. Los valores residuales de predicción espectral 603 se introducen en un generador de mosaicos de frecuencia 612 que genera valores espectrales en bruto para una banda de reconstrucción o para una determinada segunda porción de frecuencia y estos datos en bruto que ahora tienen la misma resolución que la primera representación espectral de alta resolución se introducen en el modelador espectral 614. El modelador espectral modela ahora el espectro utilizando información de la envolvente transmitida en la corriente de bits y los datos modelados espectralmente se aplican a continuación al filtro de predicción espectral 616 generando finalmente una trama de valores espectrales completos utilizando la información de filtro 607 transmitida desde el codificador al decodificador a través de la corriente de bits.
[0097] En la Fig. 6b se supone que, en el lado del codificador, el cálculo de la información de filtro transmitida a través de la corriente de bits y utilizada a través de la línea 607 se lleva a cabo con posterioridad al cálculo de la información de la envolvente. Por lo tanto, en otras palabras, un codificador que concuerda con el decodificador de la Fig. 6b primero calcularía los valores residuales espectrales y, a continuación, calcularía la información de la envolvente con los valores residuales espectrales tal como se ilustra, por ejemplo, en la Fig. 7a. Sin embargo, la otra implementación también es útil para ciertas implementaciones, cuando la información de la envolvente se calcula antes de llevar a cabo el filtrado de modelado de ruido temporal (TNS) o de modelado de mosaico temporal (TTS) en el lado del codificador. A continuación, el filtro de predicción espectral 622 se aplica antes de llevar a cabo el modelado espectral en el bloque 624. Por lo tanto, en otras palabras, los valores espectrales (completos) se generan antes de aplicar la operación de modelado espectral 624.
[0098] Preferentemente se calcula un filtro de TNS o un filtro de TTS de valor complejo. Esto se ilustra en la Fig. 7a. La señal de audio original se introduce en un bloque de transformada coseno discreta modificada (MDCT) compleja 702. A continuación, se lleva a cabo el cálculo del filtro de TTS y el filtrado de TTS en el dominio complejo. A continuación, en el bloque 706 se calcula la información lateral del relleno inteligente de espacios (IGF) y también se calcula cualquier otra operación tal como el análisis espectral para la codificación, etc. Posteriormente, el primer conjunto de primera porción espectral generado por el bloque 706 se codifica con un codificador activado por modelo psico-acústico que se ilustra en 708 para obtener el primer conjunto de primeras porciones espectrales indicado en X(k) en la Fig. 7a y todos estos datos se envían al multiplexor de corriente de bits 710.
[0099] En el lado del decodificador, los datos codificados se introducen en un demultiplexor 720 para separar la información lateral de IGF por un lado, la información lateral de TTS por otro lado y la representación codificada del primer conjunto de primeras porciones espectrales.
[0100] A continuación, el bloque 724 se utiliza para calcular un espectro complejo a partir de uno o más espectros de valor real. A continuación, tanto los espectros de valor real como los espectros complejos se introducen en el bloque 726 para generar valores de frecuencia reconstruidos en el segundo conjunto de segundas porciones espectrales para una banda de reconstrucción. Entonces, en la trama de banda completa obtenida completamente y relleno de mosaicos se lleva a cabo la operación inversa de modelado de mosaico temporal (TTS) 728 y, en el lado del decodificador se lleva a cabo una operación inversa final de MDCT compleja en el bloque 730. Por lo tanto, el uso de la información de filtro de TNS complejo permite generar automáticamente, cuando se aplica no sólo dentro de la banda central o dentro de las bandas de mosaicos por separado sino también sobre los límites centrales/de mosaicos o sobre los límites de mosaicos/mosaicos, un procesamiento de límites de mosaicos que finalmente vuelve a introducir una correlación espectral entre los mosaicos. Esta correlación espectral sobre los límites de los mosaicos no se obtiene generando solamente mosaicos de frecuencia y llevando a cabo un ajuste de la envolvente espectral en estos datos en bruto de los mosaicos de frecuencia.
[0101] La Fig. 7c ilustra una comparación de una señal original (panel izquierdo) y una señal extendida sin Modelado de Mosaico Temporal (TTS). Se puede observar que hay fallos fuertes ilustrados por las porciones ampliadas en el intervalo de frecuencias superior ilustrado en 750. Esto, sin embargo, no ocurre en la Fig. 7e cuando la misma porción espectral en 750 se compara con el componente relacionado con los fallos 750 de la Fig. 7c.
[0102] Las realizaciones o el sistema de codificación de audio de la invención utilizan la parte principal de tasa de bits disponible para codificar en forma de onda sólo la estructura perceptualmente más relevante de la señal en el codificador, y los espacios espectrales resultantes se rellenan en el decodificador con el contenido de la señal que se aproxima en líneas generales al espectro original. Un presupuesto de bits muy limitado se consume para controlar el así denominado Relleno de Espacios Inteligente (IGF) basado en parámetros por información lateral dedicada transmitida desde el codificador al decodificador.
[0103] El almacenamiento o la transmisión de señales de audio a menudo están sujetos a estrictas limitaciones de tasas de bits. En el pasado, los codificadores se vieron obligados a reducir drásticamente el ancho de banda de audio transmitida cuando sólo estaba disponible una tasa de bits muy baja. Los códecs de audio modernos ahora son capaces de codificar señales de banda ancha utilizando los procedimientos de extensión de ancho de banda (BWE) tales como la Replicación de Ancho de Banda Espectral (SBR, por sus siglas en inglés) [1 ]. Estos algoritmos se basan en una representación paramétrica del contenido de alta frecuencia (HF) - que se genera a partir de la parte de baja frecuencia (LF) codificada en forma de onda de la señal decodificada por medio de transposición a la región espectral de alta frecuencia (HF) ("interconexión") y la aplicación de un procesamiento posterior basado en parámetros. En los esquemas de extensión de ancho de banda (BWE), la reconstrucción de la región espectral de alta frecuencia (HF) por encima de una así denominada frecuencia de cruce determinada se basa a menudo en la interconexión espectral. En general, la región de alta frecuencia (HF) consta de múltiples conexiones adyacentes y cada una de estas conexiones se obtiene de regiones de paso de banda (BP) del espectro de baja frecuencia (LF) por debajo de la frecuencia de cruce determinada. Los sistemas del estado actual de la técnica desempeñan con eficacia la interconexión dentro de una representación de bancos de filtros copiando un conjunto de coeficientes de sub-bandas adyacentes desde una región de origen a la región de destino.
[0104] Si se implementa un sistema de BWE en un banco de filtros o el dominio de la transformada de tiempofrecuencia, sólo hay una posibilidad limitada para controlar la forma temporal de la señal de extensión de ancho de banda. Generalmente, la granularidad temporal está limitada por el tamaño de salto utilizado entre ventanas adyacentes de la transformada. Esto puede conducir a pre o post-ecos no deseados en el intervalo espectral de la extensión de ancho de banda (BWE).
[0105] En la codificación de audio perceptual se sabe que la forma de la envolvente temporal de una señal de audio se puede restaurar utilizando técnicas de filtrado espectral como el Modelado de la Envolvente Temporal (TNS) [14]. Sin embargo, el filtro del TNS conocido del estado actual de la técnica es un filtro de valor real en los espectros de valor real. Dicho filtro de valor real en los espectros de valor real puede verse seriamente afectado por fallos de solapamiento, especialmente si la transformada real subyacente es una Transformada Coseno Discreta Modificada (MDCT).
[0106] El modelado de mosaicos de la envolvente temporal aplica filtrado complejo en espectros de valor complejo, tales como los obtenidos, por ejemplo, a través de una Transformada Coseno Discreta Modificada Compleja (CMDCT). De esta manera se evitan los fallos de solapamiento.
[0107] El modelado de mosaicos temporal consta de
- la estimación de coeficientes de filtro complejo y la aplicación de un filtro de aplanamiento en el espectro de la señal original en el codificador
- la transmisión de los coeficientes de filtro en la información lateral
- la aplicación de un filtro de modelado en el espectro reconstruido relleno de mosaicos en el decodificador
[0108] La invención extiende la técnica del estado actual de la técnica conocida a partir de la codificación por transformada de audio, específicamente el Modelado de Ruido Temporal (TNS) por predicción lineal a lo largo de la dirección de la frecuencia, para el uso en una forma modificada en el contexto de extensión de ancho de banda.
[0109] Asimismo, el algoritmo de extensión de ancho de banda de la invención se basa en un Relleno Inteligente de Espacios (IGF), pero emplea una transformada de valor complejo (CMDCT) sobremuestreada en oposición a la configuración estándar de relleno inteligente de espacios (IGF) que se basa en una representación de la transformada coseno discreta modificada (MDCT) críticamente muestreada de valor real de una señal. La CMDCT puede ser vista como la combinación de los coeficientes de la MDCT en la parte real y los coeficientes de la transformada sinusoidal discreta modificada (MDST) en la parte imaginaria de cada coeficiente espectral de valor complejo.
[0110] Aunque la nueva estrategia se describe en el contexto de IGF, el procesamiento de la invención puede utilizarse en combinación con cualquier procedimiento de extensión de ancho de banda (BWE) que se basa en una representación de bancos de filtros de la señal de audio.
[0111] En este nuevo contexto, la predicción lineal a lo largo de la dirección de la frecuencia no se utiliza como modelado de ruido temporal, sino más bien como una técnica de modelado de mosaico temporal (TTS). El cambio de nombre se justifica por el hecho de que los componentes de la señal rellenos de mosaicos se modelan temporalmente por TTS en comparación con el modelado de ruido de cuantificación por TNS en los códecs de la transformada perceptual del estado actual de la técnica.
[0112] La Fig. 7a muestra un diagrama de bloques de un codificador de BWE que utiliza IGF y la nueva estrategia de TTS.
[0113] Por lo tanto, el esquema básico de codificación funciona de la siguiente manera:
- calcular la CMDCT de una señal de dominio temporal
Figure imgf000019_0001
para obtener la señal de dominio de frecuencia
-calcular el filtro de TTS de valor complejo
-obtener la información lateral para la BWE y eliminar la información espectral que tiene que ser replicada por el decodificador
-aplicar la cuantificación utilizando el módulo psico-acústico (PAM, por sus siglas en inglés)
- almacenar/transmitir los datos, sólo se transmiten los coeficientes de MDCT de valor real
[0114] La Fig. 7b muestra el decodificador correspondiente. Este invierte principalmente las etapas realizadas en el codificador.
[0115] En esta instancia, el esquema básico de decodificación funciona de la siguiente manera:
- estimar los coeficientes de la transformada sinusoidal discreta modificada (MDST) partir de los valores de la transformada coseno discreta modificada (MDCT) (este procesamiento agrega un retardo de decodificador de bloques) y combinar los coeficientes de la MDCT y la MDST en coeficientes de la transformada coseno discreta modificada compleja (CMDCT) de valor complejo
- levar a cabo el relleno de mosaicos con su procesamiento posterior
- aplicar el filtrado de modelado de mosaico temporal (TTS) inverso con los coeficientes transmitidos del filtro de TTS - calcular la CMDCT inversa
[0116] Alternativamente, cabe destacar que el orden de la síntesis de TTS y el procesamiento posterior de IGF también se puede invertir en el decodificador si el análisis de TTS y la estimación de parámetros de IGF se invierten sistemáticamente en el codificador.
[0117] Para una codificación de transformada eficiente se deben utilizar preferentemente los así denominados "bloques largos" de aproximadamente 20 ms para lograr una ganancia de transformada razonable. Si la señal dentro de dicho bloque largo contiene transitorios, en las bandas espectrales reconstruidas ocurren pre- y post-ecos audibles debido al relleno de mosaicos. La Fig. 7c muestra efectos típicos de pre-y post-ecos que alteran los transitorios debido al relleno inteligente de espacios (IGF). En el panel izquierdo de la Fig. 7c se muestra el espectrograma de la señal original y en el panel derecho se muestra el espectrograma de la señal de relleno de mosaicos sin el filtrado del modelado de mosaico temporal (TTS) de la invención. En este ejemplo, la frecuencia de inicio de IGF fIGFinicio o fd¡v¡s¡ón entre la banda central y la banda rellena de mosaicos se selecciona como f /4. En el panel derecho de la Fig. 7c se observan distintos pre-y post-ecos alrededor de los transitorios, especialmente prominentes en el extremo espectral superior de la región de frecuencia replicada.
[0118] La tarea principal del módulo de TTS consiste en restringir estos componentes de señal no deseados en estrecha proximidad alrededor de un transitorio y de ese modo ocultarlos en la región temporal gobernada por el efecto de enmascaramiento temporal de la percepción humana. Por lo tanto, los coeficientes de predicción necesarios de TTS se calculan y aplican utilizando "predicción directa" en el dominio de la CMDCT.
[0119] En una realización que combina TTS e IGF en un códec, es importante alinear determinados parámetros de TTS y parámetros de IGF de manera que un mosaico de IGF se filtre completamente por un filtro de t Ts (filtro de aplanamiento o modelado) o no. Por lo tanto, todas las frecuencias TTSinicio[..] o TTSparada[..] no estarán comprendidas dentro de un mosaico de IGF, sino más bien estarán alineadas con las frecuencias f respectivas. La Fig. 7d muestra un ejemplo de áreas operativas de TTS e IGF para un conjunto de tres filtros de TTS.
[0120] La frecuencia de fin del modelado de mosaico temporal (TTS) se ajusta a la frecuencia de fin de la herramienta de relleno inteligente de espacios (IGF), que es mayor que fIGFinicio. Si el modelado de mosaico temporal (TTS) utiliza más de un filtro tiene que asegurarse de que la frecuencia de cruce entre dos filtros de TTS tiene que coincidir con la frecuencia dividida del relleno inteligente de espacios (IGF). De lo contrario, un sub-filtro de TTS se excederá del límite fIGFinicio lo que producirá fallos no deseados como, por ejemplo, sobremodelado.
[0121] En la variante de implementación representada en la Fig. 7a y en la Fig. 7b, se debe tener especial cuidado de que en ese decodificador, las energías de IGF estén ajustadas correctamente. Esto ocurre especialmente si, en el curso del procesamiento de TTS e IGF, diferentes filtros de TTS que tienen diferentes ganancias de predicción se aplican a la región de origen (como un filtro de aplanamiento) y a la región espectral de destino (como un filtro de modelado que no es la contrapartida exacta de dicho filtro de aplanamiento) de un mosaico del IGF. En este caso, la relación de la ganancia de predicción de los dos filtros de TTS aplicados ya no es igual a uno y, por lo tanto, debe aplicarse un ajuste de energía por esta relación.
[0122] En la variante de implementación alternativa, el orden de procesamiento posterior de IGF y TTS se invierte. En el decodificador, esto significa que el ajuste de energía por el procesamiento posterior de IGF se calcula después del filtrado de TTS y, de este modo, es la etapa de procesamiento final antes de la transformada de síntesis. Por lo tanto, independientemente de las diferentes ganancias de filtro de TTS aplicadas a un mosaico durante la codificación, la energía final se ajusta siempre correctamente por el procesamiento de IGF.
[0123] En el lado del decodificador se aplican los coeficientes de filtro de TTS en todo el espectro completo de nuevo, es decir el espectro central extendido por el espectro regenerado. La aplicación de modelado de mosaico temporal (TTS) es necesaria para formar la envolvente temporal del espectro regenerado para adaptarse de nuevo a la envolvente de la señal original. Por lo tanto, los pre-ecos ilustrados se reducen. Adicionalmente, todavía modela temporalmente el ruido de cuantificación en la señal por debajo fIGFinicio como es habitual en el modelado de ruido temporal (TNS) de la técnica anterior.
[0124] En los codificadores de la técnica anterior, la interconexión espectral de una señal de audio (por ejemplo, la Replicación de Ancho de Banda Espectral (SBR)) altera la correlación espectral en los límites de interconexión y, por lo tanto, afecta a la envolvente temporal de la señal de audio introduciendo dispersión. Por lo tanto, otra ventaja de la aplicación del relleno de mosaicos del relleno inteligente de espacios (IGF) en la señal residual es que, tras la aplicación del filtro de modelado de mosaico temporal (TTS), los límites del mosaico se correlacionan perfectamente, lo que resulta en una reproducción temporal más fiel de la señal.
[0125] El resultado de la señal procesada correspondiente se muestra en la Fig. 7e. En comparación, la versión sin filtrar (Fig. 7c, panel derecho) la señal filtrada de TTS muestra una buena reducción de pre- y post-ecos no deseados (Fig. 7e, panel derecho).
[0126] Asimismo, de acuerdo con la descripción, la Fig. 7a ilustra un codificador que concuerda con el decodificador de la Fig. 7b o el decodificador de la Fig. 6a. Básicamente, un aparato para codificar una señal de audio comprende un convertidor de espectro de tiempo tal como 702 para la conversión de una señal de audio en una representación espectral. La representación espectral puede ser una representación espectral de valor real o, como se ilustra en el bloque 702, una representación espectral de valor complejo. Además, se proporciona un filtro de predicción tal como 704 para llevar a cabo una predicción sobre la frecuencia para generar valores residuales espectrales, donde el filtro de predicción 704 se define por la información del filtro de predicción obtenida de la señal de audio y enviada a un multiplexor de corriente de bits 710, como se ilustra en 714 en la Fig. 7a. Asimismo, se proporciona un codificador de audio tal como el codificador de audio activado psico-acústicamente 704. El codificador de audio está configurado para codificar un primer conjunto de primeras porciones espectrales de los valores residuales espectrales para obtener un primer conjunto codificado de primeros valores espectrales. Adicionalmente, un codificador paramétrico tal como el que se ilustra en 706 en la Fig. 7a se proporciona para codificar un segundo conjunto de segundas porciones espectrales. Preferentemente, el primer conjunto de primeras porciones espectrales se codifica con resolución espectral superior en comparación con el segundo conjunto de segundas porciones espectrales.
[0127] Por último, tal como se ilustra en la Fig. 7a, se proporciona una interfaz de salida para emitir la señal codificada que comprende el segundo conjunto paramétricamente codificado de segundas porciones espectrales, el primer conjunto codificado de primeras porciones espectrales y la información del filtro ilustrada como "información lateral de modelado de mosaico temporal (TTS)" en 714 en la Fig. 7a.
[0128] Preferentemente, el filtro de predicción 704 comprende una calculadora de información de filtro configurado para utilizar los valores espectrales de la representación espectral para calcular la información de filtro. Asimismo, el filtro de predicción está configurado para calcular los valores residuales espectrales utilizando los mismos valores espectrales de la representación espectral utilizada para calcular la información de filtro.
[0129] Preferentemente, el filtro de TTS 704 está configurado de la misma manera conocida para los codificadores de audio de la técnica anterior que aplican la herramienta de modelado de ruido temporal (TNS) de acuerdo con la norma de codificación avanzada de audio (AAC).
[0130] Posteriormente, una implementación adicional que utiliza la decodificación de dos canales se analiza en el contexto de las Figs. 8a a 8e. Además, se hace referencia a la descripción de los elementos correspondientes en el contexto de las Figs. 2a, 2b (codificación conjunta de canales 228 y decodificación conjunta de canales 204).
[0131] La Fig. 8a ilustra un decodificador de audio para generar una señal decodificada de dos canales. El decodificador de audio comprende cuatro decodificadores de audio 802 para decodificar una señal codificada de dos canales para obtener un primer conjunto de primeras porciones espectrales y adicionalmente un decodificador paramétrico 804 para proporcionar datos paramétricos para un segundo conjunto de segundas porciones espectrales y, adicionalmente, una identificación de dos canales que identifica, ya sea una primera o una segunda representación diferente de dos canales para las segundas porciones espectrales. Adicionalmente, se proporciona un regenerador de frecuencia 806 para regenerar una segunda porción espectral en función de una primera porción espectral del primer conjunto de primeras porciones espectrales y datos paramétricos para la segunda porción y la identificación de dos canales para la segunda porción. La Fig. 8b ilustra diferentes combinaciones para las representaciones de dos canales en el intervalo de origen y en el intervalo de destino. El intervalo de origen puede estar en la primera representación de dos canales y el intervalo de destino también puede estar en la primera representación de dos canales. Alternativamente, el intervalo de origen puede estar en la primera representación de dos canales y el intervalo de destino puede estar en la segunda representación de dos canales. Además, el intervalo de origen puede estar en la segunda representación de dos canales y el intervalo de destino puede estar en la primera representación de dos canales como se indica en la tercera columna de la Fig. 8b. Por último, tanto el intervalo de origen como el intervalo de destino pueden estar en la segunda representación de dos canales. En una realización, la primera representación de dos canales es una representación de dos canales por separado, donde los dos canales de la señal de dos canales están representados individualmente. Entonces, la segunda representación de dos canales es una representación conjunta donde los dos canales de la representación de dos canales se representan de forma conjunta, es decir, cuando un procesamiento posterior o la transformada de representación son necesarios para recalcular una representación de dos canales por separado que es necesaria para la salida a los altavoces correspondientes.
[0132] En una implementación, la primera representación de dos canales puede ser una representación izquierda/derecha (L/R) y la segunda representación de dos canales es una representación conjunta de estéreo. Sin embargo, otras representaciones de dos canales además de izquierda/derecha o M/S o la predicción estéreo se pueden aplicar y utilizar para la presente invención.
[0133] La Fig. 8c ilustra un diagrama de flujo para las operaciones llevadas a cabo por el decodificador de audio de la Fig. 8a. En una etapa 812, el decodificador de audio 802 lleva a cabo una decodificación del intervalo de origen. El intervalo de origen puede comprender, con respecto a la Fig. 3a, bandas de factor de escala SCB1 a SCB3. Asimismo, puede haber una identificación de dos canales para cada banda de factor de escala y la banda de factor de escala 1 puede estar, por ejemplo, en la primera representación (tal como L/R) y la tercera banda de factor de escala puede estar en la segunda representación de dos canales tal como M/S o predicción de mezcla descendente/residual. Por lo tanto, la etapa 812 puede resultar en diferentes representaciones para diferentes bandas. Entonces, en la etapa 814, el regenerador de frecuencia 806 está configurado para seleccionar un intervalo de origen para una regeneración de frecuencia. En la etapa 816, el regenerador de frecuencia 806 comprueba entonces la representación del intervalo de origen y en el bloque 818, el regenerador de frecuencia 806 compara la representación de dos canales del intervalo de origen con la representación de dos canales del intervalo de destino. Si ambas representaciones son idénticas, el regenerador de frecuencia 806 proporciona una frecuencia de regeneración por separado para cada canal de la señal de dos canales. Cuando, sin embargo, ambas representaciones detectadas en el bloque 818 no son idénticas, entonces se toma el flujo de la señal 824 y el bloque 822 calcula la otra representación de dos canales del intervalo de origen y utiliza esta otra representación calculada de dos canales para la regeneración del intervalo de destino. Por lo tanto, el decodificador de la Fig. 8a hace que sea posible regenerar un intervalo de destino que se indica que tiene la segunda identificación de dos canales utilizando un intervalo de origen que está en la primera representación de dos canales. Naturalmente, la presente invención permite regenerar, además, un intervalo de destino utilizando un intervalo de origen que tiene la misma identificación de dos canales. Y, adicionalmente, la presente invención permite regenerar un intervalo de destino que tiene una identificación de dos canales que indica una representación conjunta de dos canales y a continuación transformar esta representación en una representación de canales por separado, necesaria para el almacenamiento o la transmisión a los altavoces correspondientes para la señal de dos canales.
[0134] Se hace hincapié en que los dos canales de la representación de dos canales pueden ser dos canales estéreo, tales como el canal izquierdo y el canal derecho. Sin embargo, la señal también puede ser una señal multicanal que tiene, por ejemplo, cinco canales y un canal de altavoz de graves o que tiene incluso más canales. Entonces, un procesamiento de dos canales por pares descrito en el contexto de la Fig. 8a a 8e se puede llevar a cabo cuando los pares pueden ser, por ejemplo, un canal izquierdo y un canal derecho, canal envolvente izquierdo y un canal envolvente derecho y un canal central y un canal LFE (altavoz de graves). Cualquier otra formación de pares se puede utilizar con el fin de representar, por ejemplo, seis canales de entrada por tres procedimientos de procesamiento de dos canales.
[0135] La Fig. 8d ilustra un diagrama de bloques de un decodificador de la invención correspondiente a la Fig. 8a. Un intervalo de origen o un decodificador central 830 pueden corresponder al decodificador de audio 802. Los otros bloques 832, 834, 836, 838, 840, 842 y 846 pueden ser partes del regenerador de frecuencia 806 de la Fig. 8a. En particular, el bloque 832 es un transformador de representación para transformar representaciones del intervalo de origen en bandas individuales de manera que, en la salida del bloque 832 está presente un conjunto completo del intervalo de origen en la primera representación por un lado y en la segunda representación de dos canales por otro lado. Estas dos representaciones completas del intervalo de origen se pueden almacenar en el almacenamiento 834 para ambas representaciones del intervalo de origen.
[0136] A continuación, el bloque 836 aplica una generación de mosaicos de frecuencia utilizando, como entrada, una ID del intervalo de origen y utilizando, además, una ID de dos canales como entrada para el intervalo de destino. Sobre la base de la ID de dos canales para el intervalo de destino, el generador de mosaicos de frecuencia accede al almacenamiento 834 y recibe la representación de dos canales del intervalo de origen que concuerda con la ID de dos canales para el intervalo de destino introducido en el generador de mosaicos de frecuencia en 835. Por lo tanto, cuando la ID de dos canales para el intervalo de destino indica el procesamiento conjunto de estéreo, entonces el generador de mosaicos de frecuencia 836 accede al almacenamiento 834 con el fin de obtener la representación conjunta de estéreo del intervalo de origen indicado por la ID del intervalo de origen 833.
[0137] El generador de mosaicos de frecuencia 836 lleva a cabo esta operación para cada intervalo de destino y la salida del generador de mosaicos de frecuencia es tal que cada canal de la representación de canales identificada por la identificación de dos canales está presente. A continuación, un regulador de envolventes 838 lleva a cabo un ajuste de la envolvente. El ajuste de envolvente se lleva a cabo en el dominio de dos canales identificado por la identificación de dos canales. Para este fin se requieren parámetros de ajuste de la envolvente y estos parámetros se transmiten desde el codificador al decodificador en la misma representación de dos canales descrita. Cuando la identificación de dos canales en el intervalo de destino que se va a procesar por el regulador de envolventes tiene una identificación de dos canales que indica una representación de dos canales diferentes de los datos de la envolvente para este intervalo de destino, a continuación un transformador de parámetros 840 transforma los parámetros de la envolvente en la representación de dos canales requerida. Cuando, por ejemplo, la identificación de dos canales para una banda indica la codificación conjunta de estéreo y cuando los parámetros para este intervalo de destino han sido transmitidos como parámetros de la envolvente L/R, entonces el transformador de parámetro calcula los parámetros conjuntos de la envolvente estéreo a partir de los parámetros de la envolvente L/R descrita de manera que la representación paramétrica correcta se utiliza para el ajuste de la envolvente espectral de un intervalo de destino.
[0138] En otra realización preferida, los parámetros de la envolvente ya se transmiten como parámetros conjuntos de estéreo cuando se utiliza el estéreo conjunto en una banda de destino.
[0139] Cuando se supone que la entrada en el regulador de la envolvente 838 es un conjunto de intervalos de destino que tienen diferentes representaciones de dos canales, entonces la salida del regulador de la envolvente 838 también es un conjunto de intervalos de destino en diferentes representaciones de dos canales. Cuando un intervalo de destino tiene una representación conjunta tal como M/S, entonces este intervalo de destino es procesado por un transformador de representaciones 842 para calcular la representación por separado necesaria para un almacenamiento o la transmisión a los altavoces. Sin embargo, cuando un intervalo de destino ya tiene una representación por separado se toma el flujo de la señal 844 y se evita el transformador de representaciones 842. En la salida del bloque 842 se obtiene una representación espectral de dos canales que es una representación de dos canales por separado que se puede procesar entonces adicionalmente como lo indica el bloque 846, donde este procesamiento adicional puede ser, por ejemplo, una conversión de frecuencia/tiempo o cualquier otro procesamiento requerido.
[0140] Preferentemente, las segundas porciones espectrales corresponden a las bandas de frecuencia, y la identificación de dos canales se proporciona como una disposición de etiquetas correspondientes a la tabla de la Fig. 8b, donde existe una etiqueta para cada banda de frecuencia. Entonces, el decodificador paramétrico está configurado para comprobar si la etiqueta se ha fijado o no y para controlar el regenerador de frecuencia 106 de acuerdo con una etiqueta para utilizar, ya sea una primera representación o una segunda representación de la primera porción espectral.
[0141] En una realización, sólo el intervalo de reconstrucción que se inicia con la frecuencia de inicio del relleno inteligente de espacios (IGF) 309 de la Fig. 3a tiene identificaciones de dos canales para diferentes bandas de reconstrucción. En otra realización, esto también se aplica para el intervalo de frecuencia por debajo de la frecuencia de inicio de IGF 309.
[0142] En una realización adicional, la identificación de la banda de origen y la identificación de la banda de destino se pueden determinar de forma adaptativa por un análisis de similitud. Sin embargo, el procesamiento de dos canales de la invención también se puede aplicar cuando hay una asociación fija de un intervalo de origen a un intervalo de destino. Un intervalo de origen se puede utilizar para recrear, con respecto a la frecuencia, un intervalo de destino más amplio, ya sea por una operación de relleno de mosaicos de frecuencia de armónicos o una operación de relleno de mosaicos de frecuencia de copiado utilizando dos o más operaciones de relleno de mosaicos de frecuencia similares al procesamiento para múltiples interconexiones conocidas a partir del procesamiento de codificación avanzada de audio (AAC) de alta eficiencia.
[0143] La Fig. 8e ilustra un codificador de audio para codificar una señal de audio de dos canales. El codificador comprende un convertidor de espectro de tiempo 860 para convertir la señal de audio de dos canales en una representación espectral. Asimismo, un analizador espectral 866 para convertir la señal de audio de canal de audio de dos canales en una representación espectral. Además se proporciona un analizador espectral 866 para llevar a cabo un análisis con el fin de determinar las porciones espectrales que serán codificadas con una alta resolución, es decir para descubrir el primer conjunto de primeras porciones espectrales y para descubrir adicionalmente el segundo conjunto de segundas porciones espectrales.
[0144] Adicionalmente se proporciona un analizador de dos canales 864 para analizar el segundo conjunto de segundas porciones espectrales para determinar una identificación de dos canales que identifica una primera representación de dos canales o una segunda representación de dos canales.
[0145] Dependiendo del resultado del analizador de dos canales, una banda en la segunda representación espectral se parametriza utilizando la primera representación de dos canales o la segunda representación de dos canales, y esto se lleva a cabo mediante un codificador de parámetros 868. El intervalo de frecuencia central, es decir la banda de frecuencia por debajo de la frecuencia de inicio del relleno inteligente de espacios (IGF) 309 de la Fig. 3a es codificado por un codificador central 870. El resultado de los bloques 868 y 870 se introduce en una interfaz de salida 872. Como se indicó anteriormente, el analizador de dos canales proporciona una identificación de dos canales para cada banda, ya sea por encima de la frecuencia de inicio de IGF o para todo el intervalo de frecuencia, y esta identificación de dos canales se envía también a la interfaz de salida 872 de manera que estos datos también están incluidos en una señal codificada 873 emitida por la interfaz de salida 872.
[0146] Asimismo se prefiere que el codificador de audio comprenda un transformador por bandas 862. Sobre la base de la decisión del analizador de dos canales 862, la señal de salida del convertidor de espectro de tiempo 862 se transforma en una representación indicada por el analizador de dos canales y, en particular, por la ID de dos canales 835. Por lo tanto, una salida del transformador por bandas 862 es un conjunto de bandas de frecuencia donde cada banda de frecuencia puede estar en la primera representación de dos canales o en la segunda representación diferente de dos canales. Cuando se aplica la presente invención en banda completa, es decir cuando ambos intervalos, el intervalo de origen y el intervalo de reconstrucción, son procesados por el transformador por bandas, el analizador espectral 860 puede analizar esta representación. Alternativamente, sin embargo, el analizador espectral 860 también puede analizar la salida de la señal por el convertidor de espectro de tiempo indicado por la línea de control 861. Por lo tanto, el analizador espectral 860 puede aplicar el análisis de tonalidad preferido en la salida del transformador por bandas 862 o la salida del convertidor de espectro de tiempo 860 antes de haber sido procesada por el transformador por bandas 862. Asimismo, el analizador espectral puede aplicar la identificación del mejor intervalo de origen de adaptación para un cierto intervalo de destino, ya sea en el resultado del transformador por bandas 862 o en el resultado del convertidor de espectro de tiempo 860.
[0147] Posteriormente se hace referencia a las Figs. 9a a 9d para ilustrar un cálculo preferido de los valores de información de energía ya analizados en el contexto de la Fig. 3a y en la Fig. 3b.
[0148] Los codificadores de audio del estado moderno de la técnica aplican diversas técnicas para reducir al mínimo la cantidad de datos que representan una señal de audio determinada. Los codificadores de audio como, por ejemplo, la codificación unificada de voz y audio (USAC) [1] aplican una transformación de tiempo a frecuencia como la transformada coseno discreta modificada (MDCT) para obtener una representación espectral de una señal de audio determinada. Estos coeficientes de la MDCT se cuantifican aprovechando los aspectos psico-acústicos del sistema auditivo humano. Si se reduce la tasa de bits disponible, la cuantificación se vuelve más gruesa introduciendo un gran número de valores espectrales reducidos a cero que generan fallos audibles en el lado del decodificador. Para mejorar la calidad de percepción, los decodificadores del estado de la técnica llenan estas partes espectrales reducidas a cero con ruido aleatorio. El procedimiento de relleno inteligente de espacios (IGF) recopila mosaicos de la señal no cero restante para llenar esos espacios en el espectro. Es crucial para la calidad perceptual de la señal de audio decodificada que la envolvente espectral y la distribución de energía de los coeficientes espectrales se conserven. El procedimiento de ajuste de energía presentado en la presente invención utiliza la información lateral transmitida para reconstruir la envolvente espectral de la MDCT de la señal de audio.
[0149] Dentro de la replicación de ancho de banda espectral (eSBR) [15] la señal de audio se submuestrea al menos por un factor de dos y la parte de alta frecuencia del espectro se reduce completamente a cero [1, 17]. Esta parte eliminada se sustituye por técnicas paramétricas, eSBR, en el lado del decodificador. La eSBR implica el uso de una transformada adicional, la transformación de filtros espejo en cuadratura (QMF) que se utiliza para sustituir la parte de alta frecuencia vacía y para volver a muestrear la señal de audio [17]. Esto agrega complejidad computacional y consumo de memoria a un codificador de audio.
[0150] El codificador de USAC [15] ofrece la posibilidad de llenar espacios espectrales (líneas espectrales reducidas a cero) con ruido aleatorio pero presenta los siguientes inconvenientes: el ruido aleatorio no puede conservar la estructura fina temporal de una señal transitoria y no se puede conservar la estructura armónica de una señal tonal.
[0151] El área donde opera la eSBR en el lado del decodificador fue completamente eliminada por el codificador [1]. Por lo tanto, la eSBR tiende a eliminar líneas tonales en la región de alta frecuencia o distorsionar las estructuras armónicas de la señal original. Como la resolución de frecuencia de filtros espejo en cuadratura (QMF) de la replicación de ancho de banda espectral (eSBR) es muy baja y la reinserción de componentes sinusoidales sólo es posible en la resolución gruesa del banco de filtros subyacente, la regeneración de componentes tonales en la eSBR en el intervalo de frecuencia replicado tiene muy poca precisión.
[0152] La eSBR utiliza técnicas para ajustar las energías de las áreas interconectadas, el ajuste de la envolvente espectral [1]. Esta técnica utiliza los valores de energía transmitidos en una cuadrícula de tiempo de frecuencia de QMF para remodelar la envolvente espectral. Este estado de la técnica no se ocupa de espectros parcialmente eliminados y debido a la alta resolución temporal tiende a necesitar una cantidad relativamente grande de bits para transmitir valores de energía apropiados o para aplicar una cuantificación gruesa a los valores de energía.
[0153] El procedimiento de IGF no necesita una transformación adicional, ya que utiliza la transformación de la MDCT de la técnica anterior que se calcula como se describe en [15].
[0154] El procedimiento de ajuste de energía presentado en la presente invención utiliza la información lateral generada por el codificador para reconstruir la envolvente espectral de la señal de audio. Esta información lateral es generada por el codificador como se indica a continuación:
a) Aplicar una transformada coseno discreta modificada (MDCT) formada en ventanas a la señal de audio de entrada [16, sección 4.6], opcionalmente calcular una transformada sinusoidal discreta modificada (MDST) formada en ventanas, o estimar una MDST formada en ventanas a partir de la MDCT calculada.
b) Aplicar modelado de ruido temporal (TNS)/modelado de mosaico temporal (TTS) en los coeficientes de la MDCT [15, sección 7.8]
c) Calcular la energía media para cada banda de factor de escala de la MDCT por encima de la frecuencia de inicio de relleno inteligente de espacios (IGF) (fIGFinicioa la frecuencia de fin de IGF (fIGFparada
d) Cuantificar los valores medios de energía
fIGF inicio fIGFparada son parámetros dados por el usuario.
[0155] Los valores calculados en la etapa c) y d) están codificados sin pérdidas y se transmiten como información lateral con la corriente de bits al decodificador.
[0156] El decodificador recibe los valores transmitidos y los utiliza para ajustar la envolvente espectral.
a) Decuantificar los valores transmitidos de la MDCT
b) Aplicar el relleno de ruido de la codificación unificada de voz y audio (USAC) de la técnica anterior si está indicado
c) Aplicar el relleno de mosaicos del relleno inteligente de espacios (IGF)
d) Decuantificar los valores de energía transmitidos
e) Ajustar la envolvente espectral por banda de factor de escala
f) Aplicar TNS/TTS si se indica
[0157] Dejar que X G E " sea la transformada MDCT, la representación espectral de valor real de una señal de audio formada en ventanas de longitud de ventana 2N. Esta transformación se describe en [16], El codificador A
aplica opcionalmente TNS en
[0158] En [16, 4.6.2] se describe una partición de Jf en bandas de factor de escala. Las bandas de factor de escala son un conjunto de un conjunto de índices y se indican en este texto con scb.
[0159] Los límites de cada scbk con k = 0,1,2 ... max_sfb están definidos por un conjunto swb_intervalo (16, 4.6.2), donde swb_intervalo[k] y swb_intervalo[k+1] 1 definen el primer y el último índice para la línea de coeficiente espectral más baja y más alta contenida en scbk. La banda de factor de escala se indica de la siguiente manera:
Scb\ \ = {swb_intervalo[k],1+ swb_intervalo[k],2+ swb_intervalo[k],..., swb_intervalo[k+1]-1}
[0160] Si la herramienta de IGF es utilizada por el codificador, el usuario define una frecuencia de inicio de IGF y una frecuencia de fin de IGF. Estos dos valores se asignan al índice de banda de factor de escala de ajuste óptimo igfInicioSfb e igfParadaSfb. Ambos son enviados en la corriente de bits al decodificador.
[0161] [16] describe una transformación de bloque largo y de bloque corto. Para los bloques largos sólo se transmite un conjunto de coeficientes espectrales junto con un conjunto de factores de escala al decodificador. Para los bloques cortos se calculan ocho ventanas cortas con ocho conjuntos diferentes de coeficientes espectrales. Para guardar la tasa de bits, los factores de escala de dichas ocho ventanas de bloques cortos son agrupados por el codificador.
[0162] En el caso del relleno inteligente de espacios (IGF), el procedimiento presentado en esta invención utiliza bandas de factor de escala de la técnica anterior para agrupar valores espectrales que se transmiten al decodificador:
Figure imgf000025_0001
Donde
K = igfInicioSfb,1 igfInicioSfb, 2 igfInicioSfb, ..., igfFinSfb.
Para cuantificar, se calcula
Figure imgf000025_0002
Todos los valores se transmiten al decodificador.
[0163] Se supone que el codificador decide agrupar los conjuntos de factor de escala núm _grupo_ ventana. Se indica con W este agrupamiento-partición del conjunto {0,1,2, ..,7} que son los índices de las ocho ventanas cortas.
Indica el ¿-ésimo subconjunto de W, donde ■? indica el índice del grupo de ventana, 0 ^ núm_grupo_ventana.
[0164] Para el cálculo de bloques cortos, el usuario definió que la frecuencia de inicio/fin de IGF se asigna a bandas de factor de escala apropiadas. Sin embargo, por razones de simplicidad también se indica para bloques cortos k = igfInicioSfb,1 igfInicioSfb, 2 igfInicioSfb, ..., igfFinSfb.
[0165] El cálculo de la energía de IGF utiliza la información de agolpamiento para agrupar los valores E ik ,l-
Figure imgf000025_0003
[0166] Para cuantificar, se calcula
Figure imgf000025_0004
Todos los valores f i j . ¡ se transmiten al decodificador.
[0167] Las fórmulas de codificación mencionadas anteriormente operan utilizando sólo coeficientes de la MDCT de valor real X. Para obtener una distribución de energía más estable en el intervalo de IGF, es decir para reducir las fluctuaciones de amplitud temporal, se puede utilizar un procedimiento alternativo para calcular los valores
Dejar que Xr
Figure imgf000025_0005
sea la transformada MDCT, la representación espectral de valor real de una señal de audio formada en ventanas de longitud de ventana 2N, y E la representación espectral de la transformada MDST de valor real de la misma porción de la señal de audio. La representación espectral de la transformada sinusoidal discreta A A A /.A .A "y j— ¿H modificada (MDST) X^ podría calcularse o estimarse exactamente a partir de Y c: = {x T, X J t L Indica la A A. representación espectral compleja de la señal de audio formada en ventanas, que tiene Xr como su parte real y X¡
A A
como su parte imaginaria. El codificador aplica opcionalmente modelado de ruido temporal (TNS) en Xr y X¡.
[0168] En esta instancia, la energía de la señal en el intervalo de IGF se puede medir con
Figure imgf000026_0001
[0169] Las energías de valor real y complejo de la banda de reconstrucción, es decir el mosaico que se debe utilizar en el lado del decodificador en la reconstrucción del intervalo de IGF SCb^, se calcula con:
Figure imgf000026_0002
donde es un conjunto de índices - el intervalo de mosaico de origen asociado, en función de SCb^. En las dos fórmulas anteriores, en lugar del conjunto de índices SCb^ se podría utilizar el conjunto SCb^ (definido más adelante en este texto) para crear para lograr valores más precisos Et y Er.
Calcular
Eok
Fk =
Jtk
sí E tk ]> 0, de lo contrario
Figure imgf000026_0003
Con:
^ k - V ^ t ^ r t
ahora se calcula una versión más estable de E]¿, ya que un cálculo de con los valores de MDCT sólo se ve afectado por el hecho de que los valores de MDCT no obedecen el teorema de Parseval y, por lo tanto, no reflejan la información de energía completa de los valores espectrales. E ^ se calcula como se indicó anteriormente.
[0170] Como se indicó anteriormente, para los bloques cortos se supone que el codificador decide agrupar los conjuntos de factor de escala núm_grupo_ventana. Como anteriormente,
Figure imgf000026_0004
indica el -í-ésimo subconjunto de W, donde l indica el índice del grupo de ventana 0 <1, < núm_grupo_ventana.
[0171] Una vez más podría aplicarse la versión alternativa descrita anteriormente para calcular una versión
modificada (MDCT) y K ¡ G que es la señal de audio formada en ventanas de longitud 2N de la transformada sinusoidal discreta modificada (MDST), calcular
Figure imgf000026_0005
[0172] Calcular de manera análoga
Figure imgf000026_0006
y continuar con el factor f ^ [
Figure imgf000027_0001
que se utiliza para ajustar E ^ i calculado anteriormente:
Figure imgf000027_0002
Ejj se calcula como se indicó anteriormente.
[0173] El procedimiento que no sólo utiliza la energía de la banda de reconstrucción, ya sea derivado de la banda de reconstrucción compleja o de los valores de la MDCT, sino que también utiliza una información de energía del intervalo de origen proporciona una reconstrucción de energía mejorada.
[0174] Específicamente, la calculadora de parámetros 1006 está configurada para calcular la información de energía para la banda de reconstrucción utilizando información sobre la energía de la banda de reconstrucción y utilizando, además, la información sobre una energía de un intervalo de origen que se va a utilizar para la reconstrucción de la banda de reconstrucción.
[0175] Asimismo, la calculadora de parámetros 1006 está configurada para calcular una información de energía (Eok) en la banda de reconstrucción de un espectro complejo de la señal original, para calcular una información de energía adicional (Erk) en un intervalo de origen de una parte de valor real del espectro complejo de la señal original que se va a utilizar para reconstruir la banda de reconstrucción, y donde la calculadora de parámetros está configurada para calcular la información de energía para la banda de reconstrucción utilizando la información de energía (Eok) y la información de energía adicional (Erk).
[0176] Además, la calculadora de parámetros 1006 está configurada para determinar una primera información de energía (Eok) en una banda de factor de escala que debe ser reconstruida de un espectro complejo de la señal original, para determinar una segunda información de energía (Etk) en un intervalo de origen del espectro complejo de la señal original que se va a utilizar para reconstruir la banda de factor de escala que debe ser reconstruida, para determinar una tercera información de energía (Erk) en un intervalo de origen de una parte de valor real del espectro complejo de la señal original que se va a utilizar para reconstruir la banda de factor de escala que debe ser reconstruida, para determinar una información de ponderación sobre la base de una relación entre al menos dos de la primera información de energía, la segunda información de energía, y la tercera información de energía, y para ponderar una de la primera información de energía y la tercera información de energía utilizando la información de ponderación para obtener una información de energía ponderada y para utilizar la información de energía ponderada como la información de energía para la banda de reconstrucción.
[0177] A continuación se presentan ejemplos para los cálculos aunque muchos otros ejemplos pueden quedar a criterio de los expertos en la técnica en vista del principio general anterior:
A)
f_k = E_ok/E_tk;
E_k = sqrt( f_k * E_rk );
B)
f_k = E_tk/E_ok;
E_k = sqrt((1/f_k) * E_rk);
C)
f_k = E_rk/E_tk;
E_k = sqrt(f_k * E_ok)
D)
f_k = E_tk/E_rk;
E_k = sqrt((1/f_k) * E_ok)
[0178] Todos estos ejemplos confirman el hecho que aunque sólo se procesan valores reales de MDCT en el lado del decodificador, el cálculo real se realiza - debido al solapamiento y la adición - del procedimiento de cancelación de solapamiento de dominio temporal implícitamente utilizando números complejos. Sin embargo, en particular, la determinación 918 de la información de energía de mosaico de las porciones espectrales adicionales 922, 923 de la banda de reconstrucción 920, para valores de frecuencia diferentes de la primera porción espectral 921 que tiene frecuencias en la banda de reconstrucción 920, se basa en valores reales de la MDCT. Por lo tanto, la información de energía transmitida al decodificador será generalmente menor que la información de energía Eok sobre la banda de reconstrucción del espectro complejo de la señal original. Por ejemplo, para el caso C anterior, esto significa que el factor f_k (información de ponderación) será menor que 1.
[0179] En el lado del decodificador, si la herramienta de relleno inteligente de espacios (IGF) se señala como
ON, los valores transmitidos se obtienen a partir de la corriente de bits y serán decuantificados con
Ek = 24 —É''*k
para todos k = igdInicioSfb,1 igfInicioSfb, 2 idfInicioSfb, ..., igfFinSfb.
[0180] Un decodificador decuantifica los valores transmitidos de la MDCT a
Figure imgf000028_0001
y calcula la energía de conservación restante:
Figure imgf000028_0002
donde k está en el intervalo definido anteriormente.
[0181] Indicamos que scb, = {£|í G scbk Ax¿ = O} . Este conjunto contiene todos los índices de la banda
de factor de escala , s JL cb rt que han sido cuantificados a cero por el codificador.
[0182] El procedimiento de sub-banda de relleno inteligente de espacios (IGF) (no descrito en la presente invención) se utiliza para llenar espacios espectrales que resultan de una cuantificación gruesa de los valores
■y espectrales de la MDCT en el lado del codificador utilizando valores no cero de la MDCT transmitida. A contendrá adicionalmente los valores que reemplazan a todos los valores anteriores reducidos a cero. La energía del mosaico se calcula por:
Figure imgf000028_0003
fr
donde está en el intervalo definido anteriormente.
[0183] La energía que falta en la banda de reconstrucción se calcula por:
mEk := Ijcíjfc \E k2 - sEk
[0184] y el factor de ganancia para el ajuste se obtiene por:
Figure imgf000029_0001
Con:
Figure imgf000029_0002
[0185] El ajuste de la envolvente espectral que utiliza el factor de ganancia es:
X i- = S %
para todos los ¿
Figure imgf000029_0003
Y ^ está en el intervalo definido anteriormente.
A
y -y [0186] Esto remodela la envolvente espectral de a la forma de la envolvente espectral original .
[0187] En principio, con la secuencia de ventanas cortas, todos los cálculos definidos anteriormente permanecen igual, pero se tiene en cuenta el agolpamiento de bandas de factor de escala. Se indica como E j j los valores de energía agrupados y decuantificados, obtenidos de la corriente de bits. Calcular
Figure imgf000029_0004
[0188] El índice $ describe el índice de ventanas de la secuencia de bloques cortos.
[0189] Calcular
Figure imgf000029_0005
Con
Sf = ramCff, 10)
Aplicar
Figure imgf000030_0001
para todos los
Figure imgf000030_0002
[0190] Para las aplicaciones de tasas bajas de bits es posible un agrupamiento por pares de los valores E i, sin perder demasiada precisión. Este procedimiento se aplica sólo con bloques largos:
Figure imgf000030_0003
donde
k = igfInicioSfb,2 igfInicioSfb, 4 igfInicioSfb, ..., igfFinSfb.
De nuevo, tras la decuantificación, todos los valores
Figure imgf000030_0004
se transmiten al decodificador.
[0191] La Fig. 9a ilustra un aparato para decodificar una señal de audio codificada que comprende una representación codificada de un primer conjunto de primeras porciones espectrales y una representación codificada de datos paramétricos que indica las energías espectrales para un segundo conjunto de segundas porciones espectrales. El primer conjunto de primeras porciones espectrales se indica en 901a en la Fig. 9a, y la representación codificada de los datos paramétricos se indica en 901b en la Fig. 9a. Un decodificador de audio 900 se proporciona para decodificar la representación codificada 901 a del primer conjunto de primeras porciones espectrales para obtener un primer conjunto decodificado de primeras porciones espectrales 904 y para decodificar la representación codificada de los datos paramétricos para obtener datos paramétricos decodificados 902 para el segundo conjunto de segundas porciones espectrales que indican las energías individuales para las bandas de reconstrucción, donde las segundas porciones espectrales están ubicadas en las bandas de reconstrucción. Además, se proporciona un regenerador de frecuencia 906 para reconstruir valores espectrales de una banda de reconstrucción que comprende una segunda porción espectral. El regenerador de frecuencia 906 utiliza una primera porción espectral del primer conjunto de primeras porciones espectrales y una información de energía individual para la banda de reconstrucción, donde la banda de reconstrucción comprende una primera porción espectral y la segunda porción espectral. El regenerador de frecuencia 906 comprende una calculadora 912 para determinar una información de energía de conservación que comprende una energía acumulada de la primera porción espectral que tiene frecuencias en la banda de la reconstrucción. Asimismo, el regenerador de frecuencia 906 comprende una calculadora 918 para determinar una información de energía de mosaico de otras porciones espectrales de la banda de reconstrucción y para valores de frecuencia que son diferentes de la primera porción espectral, donde estos valores de frecuencia tienen frecuencias en la banda de reconstrucción, donde las otras porciones espectrales deben ser generadas por la regeneración de frecuencia utilizando una primera porción espectral diferente de la primera porción espectral en la banda de reconstrucción.
[0192] El regenerador de frecuencia 906 comprende además una calculadora 914 para una energía que falta en la banda de reconstrucción, y la calculadora 914 funciona utilizando la energía individual para la banda de reconstrucción y la energía de conservación generada por el bloque 912. Además, el regenerador 906 de frecuencia comprende un regulador de la envolvente espectral 916 para el ajuste de las porciones espectrales adicionales en la banda de reconstrucción sobre la base de la información de energía que falta y la información de energía de mosaicos generada por el bloque 918.
[0193] Con referencia a la Fig. 9c, allí se ilustra una cierta banda de reconstrucción 920. La banda de reconstrucción comprende una primera porción espectral en la banda de reconstrucción tal como la primera porción espectral 306 en la Fig. 3a ilustrada esquemáticamente en 921. Asimismo, el resto de los valores espectrales en la banda de reconstrucción 920 se debe generar utilizando una región de origen, por ejemplo, de la banda de factor de escala 1, 2, 3 por debajo de la frecuencia de inicio del relleno inteligente de espacios 309 de la Fig. 3a. El regenerador de frecuencia 906 está configurado para generar valores espectrales en bruto para las segundas porciones espectrales 922 y 923. A continuación, se calcula un factor de ganancia g como se ilustra en la Fig. 9c con el fin de ajustar finalmente los valores espectrales en bruto en las bandas de frecuencia 922, 923 con el fin de obtener las segundas porciones espectrales reconstruidas y ajustadas en la banda de reconstrucción 920, que ahora tienen la misma resolución espectral, es decir, la misma distancia de línea que la primera porción espectral 921. Es importante entender que la primera porción espectral en la banda de reconstrucción ilustrada en 921 en la Fig. 9c está decodificada por el decodificador de audio 900 y no se ve influenciada por el ajuste de la envolvente llevado a cabo por el bloque 916 de la Fig. 9b. En cambio, la primera porción espectral en la banda de reconstrucción indicada en 921 se deja como está, ya que esta primera porción espectral es emitida por el decodificador de ancho de banda completa o de audio de tasa completa 900 a través de la línea 904.
[0194] A continuación se analizará un ejemplo determinado con números reales. La energía de conservación restante calculada por el bloque 912, por ejemplo, es de cinco unidades de energía y esta energía es la energía de las cuatro líneas espectrales indicadas a modo de ejemplo en la primera porción espectral 921.
[0195] Asimismo, el valor de la energía E3 para la banda de reconstrucción que corresponde a la banda de factor de escala 6 de la Fig. 3b o la Fig. 3a es igual a 10 unidades. Es importante destacar que el valor de la energía no sólo comprende la energía de las porciones espectrales 922, 923, sino también la energía total de la banda de reconstrucción 920 calculada en el lado del codificador, es decir, antes de llevar a cabo el análisis espectral, utilizando, por ejemplo, el enmascaramiento de la tonalidad. Por lo tanto, las diez unidades de energía abarcan las primeras y las segundas porciones espectrales en la banda de reconstrucción. Entonces, se supone que la energía de los datos del intervalo de origen para los bloques 922, 923 o de los datos en bruto del intervalo de destino para el bloque 922, 923 es igual a ocho unidades de energía. Por lo tanto, se calcula una energía que falta de cinco unidades.
[0196] Se calcula un factor de ganancia de 0,79 sobre la base de la energía que falta dividida por la energía de mosaico tEk. Entonces, las líneas espectrales en bruto para las segundas porciones espectrales 922, 923 se multiplican por el factor de ganancia calculado. De este modo, sólo se ajustan los valores espectrales para las segundas porciones espectrales 922, 923 y las líneas espectrales para la primera porción espectral 921 no se ven influenciadas por este ajuste de la envolvente. Después de la multiplicación de los valores espectrales en bruto para las segundas porciones espectrales 922, 923 se ha calculado una banda de reconstrucción completa que consta de las primeras porciones espectrales en la banda de reconstrucción, y que consta de líneas espectrales en las segundas porciones espectrales 922, 923 en la banda de reconstrucción 920.
[0197] Preferentemente, el intervalo de origen para generar los datos espectrales en bruto en las bandas 922, 923 está, con respecto a la frecuencia, por debajo de la frecuencia de inicio del relleno inteligente de espacios (IGF) 309 y la banda de reconstrucción 920 está por encima de la frecuencia de inicio de IGF 309.
[0198] Además, se prefiere que los límites de la banda de reconstrucción coincidan con los límites de la banda de factor de escala. Por lo tanto, una banda de reconstrucción tiene, en una realización, el tamaño de las bandas de factor de escala respectivas del decodificador de audio central o se dimensiona de manera que, cuando se aplica la formación de pares de energía, un valor de energía para una banda de reconstrucción proporciona la energía de dos o un número entero superior de bandas de factor de escala. Por lo tanto, cuando se supone que la acumulación de energía se lleva a cabo para la banda de factor de escala 4, la banda de factor de escala 5 y la banda de factor de escala, entonces el límite de frecuencia inferior de la banda de reconstrucción 920 es igual al límite inferior de la banda de factor de escala 4 y el límite de energía superior de la banda de reconstrucción 920 coincide con el límite superior de la banda de factor de escala 6.
[0199] A continuación se describe la Fig. 9d con el fin de mostrar las funcionalidades adicionales del decodificador de la Fig. 9a. El decodificador de audio 900 recibe los valores espectrales decuantificados correspondientes a las primeras porciones espectrales del primer conjunto de porciones espectrales y, adicionalmente, los factores de escala para las bandas de factor de escala, tal como se ilustra en la Fig. 3b se proporcionan a un bloque de ajuste de escala inverso 940. El bloque de ajuste de escala inverso 940 proporciona todos los primeros conjuntos de primeras porciones espectrales por debajo de la frecuencia de inicio de IGF 309 de la Fig. 3a y, adicionalmente, las primeras porciones espectrales por encima de la frecuencia de inicio de IGF, es decir, las primeras porciones espectrales 304, 305, 306, 307 de la Fig. 3a que están todas ubicadas en una banda de reconstrucción ilustrada en 941 en la Fig. 9d. Por otra parte, las primeras porciones espectrales en la banda de origen para el relleno de mosaicos de frecuencia en la banda de la reconstrucción se proporcionan al regulador/calculadora de la envolvente 942 y este bloque recibe además la información de energía para la banda de reconstrucción proporcionada como información lateral paramétrica de la señal de audio codificada ilustrada en 943 en la Fig. 9d. A continuación, el regulador/calculadora de la envolvente 942 proporciona las funcionalidades de la Fig. 9b y 9c y por último emite los valores espectrales ajustados para las segundas porciones espectrales en la banda de reconstrucción. Estos valores espectrales ajustados 922, 923 para las segundas porciones espectrales en la banda de reconstrucción y las primeras porciones espectrales 921 en la banda de reconstrucción indicada en la línea 941 en la Fig. 9d representan conjuntamente la representación espectral completa de la banda de reconstrucción.
[0200] Posteriormente se hace referencia a las Figs. 10a a 10b para explicar las realizaciones preferidas de un codificador de audio que codifica una señal de audio para proporcionar o generar una señal de audio codificada. El codificador comprende un convertidor de tiempo/espectro 1002 que alimenta un analizador espectral 1004, y el analizador espectral 1004 está conectado a una calculadora de parámetros 1006 por un lado y a un codificador de audio 1008 por otro lado. El codificador de audio 1008 proporciona la representación codificada de un primer conjunto de primeras porciones espectrales y no abarca el segundo conjunto de segundas porciones espectrales. Por otra parte, la calculadora de parámetros 1006 proporciona información de la energía para una banda de reconstrucción que abarca las primeras y las segundas porciones espectrales. Asimismo, el codificador de audio 1008 está configurado para generar una primera representación codificada del primer conjunto de primeras porciones espectrales que tiene la primera resolución espectral, donde el codificador de audio 1008 proporciona factores de ajuste de escala para todas las bandas de la representación espectral generada por el bloque 1002. Adicionalmente, tal como se ilustra en la Fig. 3b, el codificador proporciona información de la energía al menos para las bandas de reconstrucción ubicadas, con respecto a la frecuencia, por encima de la frecuencia de inicio de iGf 309 como se ilustra en la Fig. 3a. Por lo tanto, para que las bandas de reconstrucción coincidan preferentemente con las bandas de factor de escala o con grupos de bandas de factor de escala, se proporcionan dos valores, es decir, el factor de ajuste de escala correspondiente del codificador de audio 1008 y, adicionalmente, la información de la energía emitida por la calculadora de parámetros 1006.
[0201] Preferentemente, el codificador de audio tiene bandas de factor de escala con diferentes anchos de banda de frecuencia, es decir, con un número diferente de valores espectrales. Por lo tanto, la calculadora paramétrica comprende un normalizador 1012 para normalizar las energías para el ancho de banda diferente con respecto al ancho de banda de la banda de reconstrucción específica. Para este fin, el normalizador 1012 recibe, como entradas, una energía en la banda y un número de valores espectrales en la banda y el normalizador 1012 emite a continuación una energía normalizada por banda de reconstrucción/banda de factor de escala.
[0202] Además, la calculadora paramétrica 1006a de la Fig. 10a comprende una calculadora de valor de la energía que recibe información de control del codificador de audio o central 1008 como se ilustra en la línea 1007 en la Fig. 10a. Esta información de control puede comprender información sobre los bloques largos/cortos utilizados por el codificador de audio y/o información de agrupamiento. Por consiguiente, mientras que la información sobre los bloques largos/cortos y la información de agrupamiento sobre ventanas cortas se refieren a un agrupamiento "temporal", la información de agrupamiento puede referirse además a un agrupamiento espectral, es decir, el agrupamiento de dos bandas de factor de escala en una sola banda de reconstrucción. Por lo tanto, la calculadora del valor de energía 1014 emite un único valor de energía para cada banda agrupada que abarca una primera y una segunda porción espectral cuando sólo se han agrupado las porciones espectrales.
[0203] La Fig. 10d ilustra una realización adicional para la implementación del agrupamiento espectral. Para este fin, el bloque 1016 está configurado para calcular los valores de la energía para dos bandas adyacentes. A continuación, en el bloque 1018 se comparan los valores de la energía para las bandas adyacentes y, cuando los valores de la energía no son tan diferentes o menos diferentes que lo definido, por ejemplo, por un umbral, entonces se genera un único valor (normalizado) para ambas bandas como se indica en el bloque 1020. Como se ilustra en la línea 1019, el bloque 1018 se puede omitir. Asimismo, la generación de un valor único para dos o más bandas que se lleva a cabo en el bloque 1020 puede ser controlado por un control de tasa de bits del codificador 1024. Por lo tanto, cuando la tasa de bits se debe reducir, el control codificado de tasa de bits 1024 controla el bloque 1020 para generar un único valor normalizado para dos o más bandas, incluso cuando la comparación en el bloque 1018 no habría sido permitida para agrupar los valores de información de la energía.
[0204] En caso de que el codificador de audio lleve a cabo el agrupamiento de dos o más ventanas cortas, este agrupamiento se aplica también para la información de la energía. Cuando el codificador central lleva a cabo un agrupamiento de dos o más bloques cortos, entonces, para estos dos o más bloques, se calcula y se transmite solamente un único conjunto de factores de ajuste de escala. En el lado del decodificador, el decodificador de audio aplica entonces el mismo conjunto de factores de ajuste de escala para ambas ventanas agrupadas.
[0205] En cuanto al cálculo de la información de la energía, los valores espectrales en la banda de la reconstrucción se acumulan sobre dos o más ventanas cortas. En otras palabras, esto significa que los valores espectrales en una determinada banda de reconstrucción para un bloque corto y para el bloque corto posterior se acumulan y sólo se transmite un valor único de información de la energía para esta banda de reconstrucción que abarca dos bloques cortos. A continuación, en el lado del decodificador, el ajuste de la envolvente que se describe en la Fig. 9a a 9d no se lleva a cabo individualmente para cada bloque corto, pero se lleva a cabo conjuntamente para el conjunto de ventanas cortas agrupadas.
[0206] A continuación, se aplica de nuevo la normalización correspondiente de manera que, aunque se haya llevado a cabo cualquier agrupamiento en la frecuencia o agrupamiento temporal, la normalización permite fácilmente que, para el cálculo de la información del valor de energía en el lado del decodificador, sólo debe conocerse el valor de la información de energía por un lado y la cantidad de líneas espectrales en la banda de reconstrucción o en el conjunto de bandas de reconstrucción agrupadas.
[0207] En los esquemas de extensión de ancho de banda (BWE) del estado de la técnica, la reconstrucción de la región espectral de alta frecuencia (HF) por encima de una así denominada frecuencia de cruce determinada se basa a menudo en la interconexión espectral. En general, la región de alta frecuencia (HF) consta de múltiples conexiones adyacentes y cada una de estas conexiones se obtiene de regiones de paso de banda (BP) del espectro de baja frecuencia (LF) por debajo de la frecuencia de cruce determinada. Dentro de una representación de banco de filtros de la señal, dichos sistemas copian un conjunto de coeficientes de sub-bandas adyacentes del espectro de baja frecuencia (LF) en la región de destino. Los límites de los conjuntos seleccionados suelen depender del sistema y no dependen de la señal. Para algunos contenidos de la señal, esta selección de interconexión estática puede provocar un timbre desagradable y la coloración de la señal reconstruida.
[0208] Otras estrategias transfieren la señal de baja frecuencia (LF) a la alta frecuencia (HF) a través de una modulación de banda lateral única adaptativa de la señal (SSB). Tales estrategias son de alta complejidad computacional en comparación con [1 ] ya que operan a alta velocidad de muestreo en muestras de dominio temporal. Además, la interconexión puede volverse inestable, especialmente para señales no tonales (por ejemplo, de voz sorda) y, por lo tanto, la interconexión adaptativa del estado de la técnica puede introducir alteraciones en la señal.
[0209] La estrategia de la invención se denomina Relleno Inteligente de Espacios (IGF) y, en su configuración preferida, se aplica en un sistema de extensión de ancho de banda (BWE) sobre la base de una transformada de frecuencia temporal como, por ejemplo, la Transformada Coseno Discreta Modificada (MDCT). Sin embargo, las enseñanzas de la invención son de aplicación general, por ejemplo, de manera análoga dentro de un sistema basado en el Banco de Filtros Espejo en Cuadratura (QMF).
[0210] Una ventaja de la configuración de IGF basado en la MDCT es la integración perfecta en los codificadores de audio basados en la MDCT, por ejemplo, la Codificación Avanzada de Audio (Aa C) de MPEG. Compartiendo la misma transformada para la codificación de audio de forma de onda y para BWE reduce significativamente la complejidad computacional general para el códec de audio.
[0211] Por otra parte, la invención proporciona una solución para los problemas inherentes de estabilidad que se encuentran en los esquemas de interconexión adaptativa del estado de la técnica.
[0212] El sistema propuesto se basa en la observación de que, para algunas señales, una selección de interconexión sin guía puede generar cambios de timbre y coloraciones en la señal. Si una señal que es tonal en la región espectral de origen (SSR) pero es tipo ruido en la región espectral de destino (STR), la interconexión de la STR tipo ruido por la SSR tonal puede generar un timbre antinatural. El timbre de la señal también puede cambiar ya que la estructura tonal de la señal podría desalinearse o incluso destruirse por el proceso de interconexión.
[0213] El sistema de IGF propuesto lleva a cabo una selección inteligente de mosaicos utilizando la correlación cruzada como medida de similitud entre una SSR en particular y una STR específica. La correlación cruzada de dos señales proporciona una medida de similitud de esas señales y también el retardo de correlación máxima y su signo. Por lo tanto, la estrategia de una selección de mosaicos basada en la correlación también se puede utilizar para ajustar con precisión el desplazamiento espectral del espectro copiado para que esté tan cerca como sea posible de la estructura espectral original.
[0214] La contribución fundamental del sistema propuesto es la elección de una medida de similitud adecuada, y también técnicas para estabilizar el proceso de selección de mosaicos. La técnica propuesta proporciona un equilibrio óptimo entre la adaptación de la señal instantánea y, al mismo tiempo, la estabilidad temporal. La provisión de estabilidad temporal es especialmente importante para las señales que tienen poca similitud de SSR y STR y que, por lo tanto, exhiben valores bajos de correlación cruzada o cuando se emplean medidas de similitud que son ambiguas. En dichos casos, la estabilización impide el comportamiento pesado-aleatorio de la selección adaptativa de mosaicos.
[0215] Por ejemplo, una clase de señales que a menudo plantea problemas para la extensión de ancho de banda del estado de la técnica se caracteriza por una concentración distinta de la energía en regiones espectrales arbitrarias, tal como se muestra en la Fig. 12a (a la izquierda). Aunque hay procedimientos disponibles para ajustar la envolvente espectral y la tonalidad del espectro reconstruido en la región de destino, para algunas señales, estos procedimientos no son capaces de conservar bien el timbre como se muestra en la Fig. 12a (a la derecha). En el ejemplo ¡lustrado en la Fig. 12a, la magnitud del espectro en la región de destino de la señal original por encima de
una así denominada frecuencia de cruce fxawr (Figura 12a, a la izquierda) disminuye casi linealmente. Por el contrario, en el espectro reconstruido (Fig. 12a, a la derecha) hay un conjunto distinto de mosaicos y picos que se percibe como un fallo de coloración del timbre.
[0216] Una etapa importante de la nueva estrategia consiste en definir un conjunto de mosaicos entre los que puede tener lugar la elección basada en la similitud posterior. En primer lugar, los límites de los mosaicos, tanto de la región de origen como de la región de destino, tienen que estar definidos unos con otros. Por lo tanto, la región de destino entre la frecuencia de inicio de IGF del codificador central fIGF¡n¡c¡o y una frecuencia más alta disponible fIGFparada se divide en un número entero arbitrario nTar de mosaicos, cada uno de los cuales tiene un tamaño individual predefinido. Entonces, para cada mosaico de destino tar[idx_tar] se genera un conjunto de mosaicos de origen de igual tamaño src[idx_src]. Por lo anterior se determina el grado básico de libertad del sistema de IGF. El número total
de mosaicos de origen 7¡St C está determinado por el ancho de banda de la región de origen,
bWsrc _ ( fiGFinicio f lGFmin)
donde flGFmin es la frecuencia más baja disponible para la selección de mosaicos de manera que un número entero nSrc de mosaicos de origen se adapta en bWsrc. El número mínimo de mosaicos de origen es 0.
[0217] Para aumentar aún más el grado de libertad para la selección y el ajuste, se puede definir que los mosaicos de origen se superponen entre sí por un factor de solapamiento entre 0 y 1, donde 0 significa ningún solapamiento y 1 significa 100 % de solapamiento. El caso de 100 % de solapamiento implica que sólo uno o ningún mosaico de origen está disponible.
[0218] La Fig. 12b muestra un ejemplo de los límites de mosaicos de un conjunto de mosaicos. En este caso, todos los mosaicos de destino están correlacionados con cada uno de los mosaicos de origen. En este ejemplo, los mosaicos de origen se solapan en un 50 %.
[0219] Para un mosaico de destino, la correlación cruzada se calcula con varios mosaicos de origen en retardos de hasta xcorr_maxLag intervalos. Para un mosaico de destino determinado idx_tar y un mosaico de origen idx_scr, xcorr_val[idx_tar[idx_src] proporciona el valor máximo de la correlación cruzada absoluta entre los mosaicos, mientras que xcvorr_lag[idx_tar][idx_src]: proporciona el retardo en el que se produce este máximo y xcorr_sign[idx_tar][idx_src] proporciona el signo de la correlación cruzada en xcorr_lag[idx_tar][iidx_src].
[0220] El parámetro xcorr_lag se utiliza para controlar la proximidad de la coincidencia entre el mosaico de origen y el mosaico de destino. Este parámetro da lugar a una reducción de fallos y ayuda a conservar mejor el timbre y el color de la señal.
[0221] En algunos casos puede ocurrir que el tamaño de un mosaico de destino específico es mayor que el tamaño de los mosaicos de origen disponibles. En este caso, el mosaico de origen disponible se repite tan a menudo como sea necesario para llenar completamente el mosaico de destino específico. Todavía es posible llevar a cabo la correlación cruzada entre el mosaico grande de destino y el mosaico de origen más pequeño con el fin de obtener la mejor posición del mosaico de origen en el mosaico de destino en términos del retardo de la correlación cruzada xcorr_retardo y el signo xcorr_signo.
[0222] La correlación cruzada de los mosaicos espectrales en bruto y la señal original pueden no ser la medida de similitud más adecuada aplicada a los espectros de audio con una estructura fuerte de formantes. El blanqueo de un espectro quita la información de la envolvente en bruto y, por lo tanto, enfatiza la estructura fina espectral que es de interés principal para la evaluación de la similitud de mosaicos. El blanqueo también ayuda en un modelado fácil de la envolvente fácil de la región espectral de destino (STR) en el decodificador para las regiones procesadas por IGF. Por lo tanto, opcionalmente, el mosaico y la señal de origen se blanquean antes de calcular la correlación cruzada.
[0223] En otras configuraciones, sólo se blanquea el mosaico utilizando un procedimiento predefinido. Una etiqueta de "blanqueo" transmitida indica al decodificador que se aplicará el mismo proceso de blanqueo predefinido al mosaico de frecuencia dentro del relleno inteligente de espacios (IGF).
[0224] Para blanquear la señal, primero se calcula una estimación de la envolvente espectral. A continuación, el espectro de la MDCT se divide por la envolvente espectral. La estimación de la envolvente espectral se puede estimar en el espectro de la MDCT, las energías del espectro de la MDCT, las estimaciones del espectro de energía complejo basado en la MDCT o las estimaciones del espectro de energía. La señal en la que se estima la envolvente se llamará señal de base de aquí en adelante.
[0225] Las envolventes calculadas sobre estimaciones de espectro de energía complejo basado en la MDCT o el espectro de energía como señal de base tienen la ventaja de no tener fluctuación temporal en los componentes tonales.
[0226] Si la señal de base está en un dominio de energía, el espectro de la MDCT tiene que dividirse por la raíz cuadrada de la envolvente para blanquear la señal correctamente.
Existen diferentes procedimientos para calcular la envolvente:
- transformando la señal de base con una transformada coseno discreta (DCT), reteniendo sólo los coeficientes más bajos de la DCT (fijando la más alta en cero) y, a continuación, calculando una DCT inversa
- calculando una envolvente espectral de un conjunto de Coeficientes de Predicción Lineal (LPC, por sus siglas en inglés) calculado sobre la trama de audio de dominio temporal
- filtrando la señal de base con un filtro de paso bajo
[0227] Preferentemente, se elige la última estrategia. Para aplicaciones que requieren baja complejidad computacional se puede llevar a cabo una cierta simplificación para el blanqueo de un espectro de la m Dc T: En primer lugar, la envolvente se calcula por medio de una media móvil. Esto sólo necesita dos ciclos de procesador por intervalo de la MDCT. Entonces, con el fin de evitar el cálculo de la división y la raíz cuadrada, la envolvente espectral se aproxima por 2n, donde n es el logaritmo de número entero de la envolvente. En este dominio, la operación de raíz cuadrada se convierte simplemente en una operación de desplazamiento y, además, la división por la envolvente se puede llevar a cabo por otra operación de desplazamiento.
[0228] Después de calcular la correlación de cada mosaico de origen con cada mosaico de destino, para todos los mosaicos de destino nTar se selecciona el mosaico de origen con la correlación más alta para que lo sustituya. Para coincidir mejor con la estructura espectral original, el retardo de la correlación se utiliza para modular el espectro replicado por un número entero de intervalos de la transformada. En caso de retardos impares, el mosaico se modula adicionalmente a través de la multiplicación por una secuencia temporal alternativa de -1/1 para compensar la representación de frecuencia inversa de cualquier otra banda dentro de la Transformada Coseno Discreta Modificada (MDCT).
[0229] La Figura 12c muestra un ejemplo de una correlación entre un mosaico de origen y un mosaico de destino. En este ejemplo, el retardo de la correlación es 5, por lo que el mosaico de origen tiene que modularse por 5 intervalos hacia los intervalos de frecuencia más altos en la etapa de copiado del algoritmo de extensión de ancho de banda (BWE). Adicionalmente, el signo del mosaico tiene que invertirse ya que el valor máximo de correlación es negativo y una modulación adicional como se describió anteriormente representa el retardo impar.
[0230] Por lo tanto, la cantidad total de información lateral para transmitir desde el codificador al decodificador podría constar de los siguientes datos:
- Númmosaico [nTar ]: índice del mosaico de origen seleccionado por mosaico de destino - Signomosaico [nTar ]: signo del mosaico de destino
- Modmosaico [nTar ]: retardo de la correlación por mosaico de destino
[0231] El recorte y la estabilización de mosaicos constituyen una etapa importante en el relleno inteligente de espacios (IGF). Su necesidad y ventajas se explican con un ejemplo, en el supuesto de una señal de audio tonal estacionaria como, por ejemplo, una nota de altura de tono estable. La lógica determina que se introducen menos fallos si, para una región de destino determinada, siempre se seleccionan los mosaicos de origen de la misma región de origen a través de las tramas. A pesar de que se supone que la señal es estacionaria, esta condición no se aplicaría bien en cada trama ya que la medida de similitud (por ejemplo, correlación) de otra región de origen similar igual podría dominar el resultado de la similitud (por ejemplo, correlación cruzada). Esto hace que Númmosaico[nTar] entre tramas adyacentes dude entre dos o tres opciones muy similares. Este puede ser el origen de un fallo tipo ruido musical molesto.
[0232] Con el fin de eliminar este tipo de fallos, el conjunto de mosaicos de origen se recortará de manera que los elementos restantes del conjunto de origen sean máximamente disímiles. Esto se logra a través de un conjunto de mosaicos de origen
S = {s1 ,s2,...sn}
de la siguiente manera. Para cualquier mosaico de origen si, lo correlacionamos con todos los otros mosaicos de origen, encontrando la mejor correlación entre sj y sj y almacenándola en una matriz Sx. Aquí, Sx[i][j] contiene el valor máximo absoluto de correlación cruzada entre sí y sj. La adición de la matriz Sx a lo largo de las columnas, proporciona la suma de las correlaciones cruzadas de un mosaico de origen si con todos los otros mosaicos de origen T.
T[i] = Sx[i][1] Sx[i][2]...+ Sx[i][n]
[0233] Aquí, T representa una buena medida de similitud entre un mosaico de origen y otros mosaicos de origen. Si, para cualquier mosaico de origen i,
umbral T>
el mosaico de origen i puede ser retirado del conjunto de fuentes potenciales, ya que está muy correlacionado con otras fuentes. El mosaico que tiene la correlación más baja del conjunto de mosaicos que cumple la condición en la ecuación 1 se elige como un mosaico representativo para este subconjunto. De este modo, nos aseguramos de que los mosaicos de origen sean máximamente disímiles entre sí.
[0234] El procedimiento de recorte de mosaicos implica también una memoria del conjunto de mosaicos recortados utilizados en la trama anterior. Los mosaicos que estuvieron activos en la trama anterior se retienen en la siguiente trama si existen también candidatos alternativos para el recorte.
[0235] Dejar que los mosaicos s3, s4 y s5 estén activos a partir de los mosaicos {s1, s2..., s5} en la trama k, a continuación en la trama k+1, incluso si los mosaicos s1, s3 y s2 compiten por ser recortados estando s3 correlacionado máximamente con los otros, s3 se retiene ya que fue un mosaico de origen útil en la trama anterior y, por lo tanto, su retención en el conjunto de mosaicos de origen es beneficioso para reforzar la continuidad temporal en la selección de mosaicos. Este procedimiento se aplica preferentemente si la correlación cruzada entre el origen i y el destino j, representada como Tx[i][j] es alta
[0236] Un procedimiento adicional para la estabilización de mosaicos consiste en retener el orden de los mosaicos de la trama k-1 anterior si ninguno de los mosaicos de origen en la trama k actual se correlaciona bien con los mosaicos de destino. Esto puede suceder si la correlación cruzada entre el origen i y el destino j, representada como Tx[i][j] es muy baja para todos los i, j
[0237] Por ejemplo, si
Tx[i][j] < 0,6
ahora se utiliza un umbral provisional, a continuación
nummosaico[nTar]k = nummosaico[nTar]k-1
para todos los nTar de esta trama k.
[0238] Las dos técnicas anteriores reducen en gran medida los fallos que se producen a partir del cambio rápido de números de mosaicos fijos a través de las tramas. Otra ventaja adicional de este recorte y estabilización de mosaicos es que no se necesita enviar información extra al decodificador y tampoco se necesita un cambio de arquitectura del decodificador. Esta propuesta de recorte de mosaicos resulta una manera elegante de reducir el ruido musical potencial en forma de fallos o ruido excesivo en las regiones espectrales de los mosaicos.
[0239] La Fig. 11a ilustra un decodificador de audio para decodificar una señal de audio codificada. El primer decodificador de audio comprende un decodificador de audio (central) 1102 para generar una primera representación decodificada de un primer conjunto de primeras porciones espectrales, donde la representación decodificada tiene una primera resolución espectral.
[0240] Asimismo, el decodificador de audio comprende un decodificador paramétrico 1104 para generar una segunda representación decodificada de un segundo conjunto de segundas porciones espectrales que tiene una segunda resolución espectral que es más baja que la primera resolución espectral. Además se proporciona un regenerador de frecuencia 1106 que recibe, como una primera entrada 1101, primeras porciones espectrales decodificadas y como una segunda entrada en 1103 la información paramétrica que incluye, para cada mosaico de frecuencia de destino o banda de reconstrucción de destino, una información de intervalo de origen. El regenerador de frecuencia de 1106 aplica entonces la regeneración de frecuencia utilizando valores espectrales del intervalo de origen identificado por la información de adaptación con el fin de generar los datos espectrales para el intervalo de destino. A continuación, las primeras porciones espectrales 1101 y la salida del regenerador de frecuencia 1107 se introducen ambas en un convertidor de espectro-tiempo 1108 para generar finalmente la señal de audio decodificada.
[0241] Preferentemente, el decodificador de audio 1102 es un decodificador de audio de dominio espectral, aunque el decodificador de audio también se puede implementar como cualquier otro decodificador de audio tal como, por ejemplo, un decodificador de audio de dominio temporal o paramétrico.
[0242] Como se indica en la Fig. 11 b, el regenerador de frecuencia 1106 puede comprender las funcionalidades del bloque 1120 que ilustra un modulador de mosaicos - selector del intervalo de origen para retardos impares, un filtro blanqueado 1122, cuando se proporciona una etiqueta de blanqueo 1123 y, adicionalmente, una envolvente espectral con funcionalidades de ajuste implementadas como se ilustra en el bloque 1128 utilizando datos espectrales en bruto generados por cualquiera de los bloques 1120 o 1122 o la cooperación de ambos bloques. De todos modos, el regenerador de frecuencia 1106 puede comprender un conmutador 1124 reactivo a una etiqueta de blanqueo recibida 1123. Cuando se fija la etiqueta de blanqueo, la salida del selector de intervalo de origen/modulador de mosaicos para retardos impares se introduce en el filtro de blanqueo 1122. Sin embargo, la etiqueta de blanqueo 1123 no se fija para una cierta banda de reconstrucción, por lo que entonces se activa una línea de desvío 1126 de manera que la salida del bloque 1120 se proporciona al bloque de ajuste de la envolvente espectral 1128 sin ningún blanqueo. Puede haber más de un nivel de blanqueo (1123) señalado en la corriente de bits y estos niveles pueden estar señalados por mosaico. En caso de que haya tres niveles señalados por mosaico, los niveles se codificarán de la siguiente manera:
bit = Bitdelectura(l);
si(bit == 1) {
para(índice_mosaico = 0..nT)
/*los mismos niveles que la última trama*/
nivel_blanqueamiento[índice_mosaico] = trama_prev_nivel_blanqueamiento[índice_mosaico];
} o bien {
/*primer mosaico:*/
índice_mosaico = 0;
bit = Bitdelectura(1);
si(bit == 1) {
nivel_blanqueamiento[índice_mosaico] = BLANQUEAMIENTO_MEDIO;
} o bien {
bit = Bitdelectura(1);
si(bit == 1) {
nivel_blanqueamiento[índice_mosaico] = BLANQUEAMIENTO_FUERTE;
} o bien {
nivel_blanqueamiento[mdice_mosaico] = OFF; /*sin blanqueo*/
}
}
/*mosaicos restantes:*/
bit = Bitdelectura(1);
si(bit == 1) {
/*los niveles de aplanamiento para los mosaicos restantes son iguales que para el primero.*/
/*No tienen que leerse otros intervalos*/
para(índice_mosaico = 1..nT)
nivel_blanqueamiento[índice_mosaico] = nivel_blanqueamiento[0];
} o bien {
/*bits leídos para los mosaicos restantes como para el primer mosaico*/
para(índice_mosaico = 1..nT) {
bit = Bitdelectura(1);
si(bit == 1) {
nivel_blanqueamiento[índice_mosaico] = BLANQUEAMIENTO_MEDIO;
} o bien {
bit = Bitdelectura (1);
si(bit == 1) {
nivel_blanqueamiento[índice_mosaico] = BLANQUEAMIENTO_FUERTE;
} o bien {
nivel_blanqueamiento[mdice_mosaico] = DESCONECTADO; /*sin blanqueo*/
}
}
}
}
}
BLANQUEAMIENTO_MEDIO y BLANQUEAMIENTO_FUERTE se refieren a distintos filtros de blanqueo (1122) que pueden diferir en la forma en que se calcula la envolvente (como se describió anteriormente).
[0243] El regenerador de frecuencia del lado del decodificador puede ser controlado por una ID de intervalo de origen 1121 cuando se aplica sólo un esquema de selección de mosaicos espectrales en bruto. Sin embargo, cuando se aplica un esquema de selección de mosaicos espectrales de sincronización precisa, entonces se proporciona además un retardo de intervalo de origen 1119. Asimismo, siempre que el cálculo de la correlación proporcione un resultado negativo, entonces, adicionalmente se puede aplicar también un signo de la correlación al bloque 1120 de manera que cada una de las líneas espectrales de datos de página se multiplican por "-1" para representar el signo negativo.
[0244] Por lo tanto, la presente invención tal como se describe en la Fig. 11a, 11b garantiza la obtención de una calidad óptima de audio debido al hecho de que el mejor intervalo de origen coincidente para un destino determinado o intervalo de destino se calcula en el lado del codificador y se aplica en el lado del decodificador.
[0245] La Fig. 11c es un codificador de audio determinado para codificar una señal de audio que comprende un convertidor de tiempo-espectro 1130, un analizador espectral conectado posteriormente 1132 y, adicionalmente, una calculadora de parámetros 1134 y un codificador central 1136. El codificador central 1136 emite intervalos de origen codificados y la calculadora de parámetros 1134 emite información de adaptación para intervalos de destino.
[0246] Los intervalos de origen codificados se transmiten a un decodificador junto con información de adaptación para los intervalos de destino de manera que el decodificador ilustrado en la Fig. 11a se encuentre en la posición para llevar a cabo una regeneración de frecuencia.
[0247] La calculadora de parámetros 1134 está configurada para calcular similitudes entre primeras porciones espectrales y segundas porciones espectrales y para determinar, sobre la base de las similitudes calculadas para una segunda porción espectral, una primera porción espectral coincidente que se adapte a la segunda porción espectral. Preferentemente, los resultados de adaptación para diferentes intervalos de origen e intervalos de destino, como se ilustra en las Figs. 12a, 12b para determinar un par de adaptación seleccionado comprenden la segunda porción espectral, y la calculadora de parámetros está configurada para proporcionar esta información de adaptación que identifica el par de adaptación en una señal de audio codificada. Preferentemente, la calculadora de parámetros 1134 de la presente invención está configurada para utilizar regiones de destino predefinidas en el segundo conjunto de segundas porciones espectrales o regiones de origen predefinidas en el primer conjunto de primeras porciones espectrales como se ilustra, por ejemplo, en la Fig. 12b. Preferentemente, las regiones de destino predefinidas no se solapan o las regiones de origen predefinidas se solapan. Cuando las regiones de origen predefinidas son un subconjunto del primer conjunto de primeras porciones espectrales por debajo de una frecuencia de inicio de relleno de espacios 309 de la Fig. 3a y, preferentemente, la región de destino predefinida que abarca una región espectral inferior coincide, con su límite de frecuencia inferior, con la frecuencia de inicio de relleno de espacios de manera que cualquier intervalo de destino se encuentre por encima de la frecuencia de inicio de relleno de espacios y los intervalos de origen se encuentran por debajo de la frecuencia de inicio de relleno de espacios.
[0248] Como se explicó anteriormente, una granularidad fina se obtiene comparando una región de destino con una región de origen sin ningún retardo en la región de origen y la misma región de origen, pero con un cierto retardo. Estos retardos se aplican en la calculadora de correlación cruzada 1140 de la Fig. 11d y la selección de pares de adaptación es llevada a cabo finalmente por el selector de mosaicos 1144.
[0249] Además, se prefiere llevar a cabo un blanqueo de intervalos de origen y/o intervalos de destino como se ilustra en el bloque 1142. A continuación, este bloque 1142 proporciona una etiqueta de blanqueo a la corriente de bits que se utiliza para controlar el conmutador del lado del decodificador 1123 de la Fig. 11b. Asimismo, si la calculadora de correlación cruzada 1140 proporciona un resultado negativo, entonces este resultado negativo también se señala a un decodificador. Por lo tanto, en una realización preferida, el selector de mosaicos emite una ID de intervalo de origen para un intervalo de destino, un retardo, un signo y el bloque 1142 proporciona además una etiqueta de blanqueo.
[0250] Asimismo, la calculadora de parámetros 1134 está configurada para llevar a cabo un recorte de mosaicos de origen 1146 reduciendo el número de intervalos de origen potenciales por lo que una interconexión de origen se retira de un conjunto de mosaicos de origen potenciales sobre la base de un umbral de similitud. Por lo tanto, cuando dos mosaicos de origen son más similares o iguales a un umbral de similitud, entonces uno de estos dos mosaicos de origen se retira del conjunto de fuentes potenciales y el mosaico de origen eliminado ya no se utiliza para el procesamiento posterior y, específicamente, no puede ser seleccionado por el selector de mosaicos 1144 o no se utiliza para el cálculo de la correlación cruzada entre diferentes intervalos de origen e intervalos de destino como se llevó a cabo en el bloque 1140.
[0251] Se han descrito diferentes implementaciones con respecto a diferentes figuras. Las Figs. 1a-5c se refieren a un esquema de codificador/decodificador de ancho de banda completa o de tasa completa. Las Figs. 6a -7e se refieren a un esquema de codificador/decodificador con procesamiento de modelado de ruido temporal (TNS) o modelo de mosaico temporal (TTS). Las Figs. 8a-8e se refieren a un esquema de codificador/decodificador con procesamiento específico de dos canales. Las Figs. 9a-10d se refieren a un cálculo específico de información de energía y la aplicación, y las Figs. 11a-12c se refieren a un modo específico de selección de mosaicos.
[0252] Todos estos aspectos diferentes pueden ser de uso inventivo y son independientes entre sí pero, adicionalmente, también se pueden aplicar juntos como se ilustra básicamente en la Fig. 2a y 2b. Sin embargo, el procesamiento específico de dos canales se puede aplicar también a un esquema de codificador/decodificador ilustrado en la Fig. 13a-13b, y esto mismo se aplica al procesamiento de TNS/TTS, al cálculo de información de energía de la envolvente y la aplicación en la banda de reconstrucción o la identificación del intervalo de origen de adaptación y la aplicación correspondiente en el lado del decodificador. Por otro lado, el aspecto de tasa completa se puede aplicar con o sin procesamiento de TNS/TTS, con o sin procesamiento de dos canales, con o sin una identificación del intervalo de origen de adaptación o con otros tipos de cálculos de energía para la representación de la envolvente espectral. Por lo tanto, es evidente que las características de uno de estos aspectos individuales se pueden aplicar también en otros aspectos.
[0253] Aunque algunos aspectos se han descrito en el contexto de un aparato para codificar o decodificar, es evidente que estos aspectos también representan una descripción del procedimiento correspondiente, donde un bloque o dispositivo corresponde a una etapa del procedimiento o a una característica de una etapa del procedimiento. De forma análoga, los aspectos descritos en el contexto de una etapa del procedimiento también representan una descripción de un bloque o elemento o característica correspondiente de un aparato respectivo. Algunas o todas las etapas del procedimiento se pueden llevar a cabo por (o con) un aparato de hardware tal como, por ejemplo, un microprocesador, un ordenador programable o un circuito electrónico. En algunas realizaciones, alguna o más de la mayoría de las etapas importantes del procedimiento se pueden llevar a cabo por dicho aparato.
[0254] En función de determinados requisitos de implementación, las realizaciones de la invención se pueden implementar en hardware o en software. La implementación se puede llevar a cabo utilizando un medio de almacenamiento no transitorio tal como un medio de almacenamiento digital, por ejemplo un disco flexible, un Disco Duro (HDD), un DVD, un Blu-Ray, un CD, una memoria ROM, una memoria PROm , y una memoria EPROM, una memoria EEPROM o una memoria FLASH, que tienen señales de control de lectura electrónica almacenadas en ellos, que cooperan (o son capaces de cooperar) con un sistema informático programable de tal forma que se lleva a cabo el procedimiento respectivo. Por lo tanto, el medio de almacenamiento digital puede ser legible por ordenador.
[0255] Algunas realizaciones según la invención comprenden un soporte de datos que tiene señales de control de lectura electrónica, que son capaces de cooperar con un sistema de ordenador programable, de tal manera que se realice uno de los procedimientos descritos en esta invención.
[0256] En general, las realizaciones de la presente invención se pueden implementar como un producto de programa informático con un código de programa, cuyo código de programa es operativo para llevar a cabo uno de los procedimientos cuando el producto de programa informático se ejecuta en un ordenador. El código del programa se puede almacenar, por ejemplo, en un soporte legible por máquina.
[0257] Otras realizaciones comprenden el programa informático para llevar a cabo uno de los procedimientos descritos en esta invención, almacenados en un soporte legible por máquina.
[0258] En otras palabras, una realización del procedimiento de la invención es, por lo tanto, un programa informático que tiene un código de programa para llevar a cabo uno de los procedimientos descritos en esta invención, cuando el programa informático se ejecuta en un ordenador.
[0259] Por lo tanto, otra realización del procedimiento de la invención es un soporte de datos (o un medio de almacenamiento digital, o un medio legible por ordenador) que comprende, grabado en el mismo, el programa informático para llevar a cabo uno de los procedimientos descritos en esta invención. El soporte de datos, el medio de almacenamiento digital o el medio grabado son generalmente tangibles y/o no transitorios.
[0260] Por lo tanto, una realización adicional de la invención es una corriente de datos o una secuencia de señales que representan el programa informático para llevar a cabo uno de los procedimientos descritos en esta invención. La corriente de datos o la secuencia de señales, por ejemplo, pueden estar configuradas para ser transferidas a través de una conexión de comunicación de datos, por ejemplo, a través de Internet.
[0261] Una realización adicional comprende un medio de procesamiento, por ejemplo, un ordenador o un dispositivo lógico programable configurado o adaptado para llevar a cabo uno de los procedimientos descritos en la presente invención.
[0262] Otra realización comprende un ordenador que tiene el programa informático instalado en la misma para llevar a cabo uno de los procedimientos descritos en esta invención.
[0263] Otra realización según la invención comprende un aparato o un sistema configurado para transferir (por ejemplo, por vía electrónica u óptica) un programa informático para llevar a cabo uno de los procedimientos descritos en esta invención a un receptor. El receptor puede ser, por ejemplo, un ordenador, un dispositivo móvil, un dispositivo de memoria o similar. El aparato o sistema puede comprender, por ejemplo, un servidor de archivos para transferir el programa informático al receptor.
[0264] En algunas realizaciones, un dispositivo lógico programable (por ejemplo, una matriz de puerta programable de campo) se puede utilizar para llevar a cabo algunas o todas las funcionalidades de los procedimientos descritos en la presente invención. En algunas realizaciones, una matriz de puerta programable de campo puede cooperar con un microprocesador para llevar a cabo uno de los procedimientos descritos en esta invención. En general, los procedimientos serán llevados a cabo, preferentemente, por cualquier aparato de hardware.
[0265] Las realizaciones anteriormente descritas son simplemente ilustrativas de los principios de la presente invención. Se entiende que las modificaciones y variaciones de las disposiciones y los detalles descritos en esta invención serán evidentes para otros expertos en la materia. Es la intención, por lo tanto, de que la invención esté limitada solamente por el alcance de las reivindicaciones inminentes de la patente y no por los detalles específicos presentados a modo de descripción y explicación de las realizaciones de esta invención.
Lista de referencias
[0266]
[1] Dietz, L. Liljeryd, K. Kjorling and O. Kunz, “Spectral Band Replication, a novel approach in audio coding,” in 112th AES Convention, Munich, Mayo de 2002.
[2] Ferreira, D. Sinha, “Accurate Spectral Replacement”, Audio Engineering Society Convention, Barcelona, España 2005.
[3] D. Sinha, A. Ferreira1 and E. Harinarayanan, “A Novel Integrated Audio Bandwidth Extension Toolkit (ABET)”, Audio Engineering Society Convention, París, Francia 2006.
[4] R. Annadana, E. Harinarayanan, A. Ferreira and D. Sinha, “New Results in Low Bit Rate Speech Coding and Bandwidth Extension”, Audio Engineering Society Convention, San Francisco, EE.UU. 2006.
[5] T. Zernicki, M. Bartkowiak, “Audio bandwidth extension by frequency scaling of sinusoidal partials”, Audio Engineering Society Convention, San Francisco, EE.UU. 2008.
[6] J. Herre, D. Schulz, Extending the MPEG-4 AAC Codec by Perceptual Noise Substitution, 104th AES Convention, Amsterdam, 1998, Preprint 4720.
[7] M. Neuendorf, M. Multrus, N. Rettelbach, et al., MPEG Unified Speech and Audio Coding-The ISO/MPEG Standard for High-Efficiency Audio Coding of all Content Types, 132nd AES Convention, Budapest, Hungría, Abril de 2012.
[8] McAulay, Robert J., Quatieri, Thomas F. “Speech Analysis/Synthesis Based on a Sinusoidal Representation”. IEEE Transactions on Acoustics, Speech, And Signal Processing, Vol 34(4), Agosto de 1986.
[9] Smith, J.O., Serra, X. “PARSHL: An analysis/synthesis program for non-harmonic sounds based on a sinusoidal representation”, Proceedings of the International Computer Music Conference, 1987.
[10] Purnhagen, H.; Meine, Nikolaus, "HILN-the MPEG-4 parametric audio coding tools," Circuits and Systems, 2000. Proceedings. ISCAS 2000 Ginebra. The 2000 IEEE Intemational Symposium on, vol.3, no., pp.201, 204 vol.3, 2000
[11] International Standard ISO/IEC 13818-3, Generic Coding of Moving Pictures and Associated Audio: Audio", Ginebra, 1998.
[12] M. Bosi, K. Brandenburg, S. Quackenbush, L. Fielder, K. Akagiri, H. Fuchs, M. Dietz, J. Herre, G. Davidson, Oikawa: "MPEG-2 Advanced Audio Coding", 101st AES Convention, Los Angeles 1996
[13] J. Herre, “Temporal Noise Shaping, Quantization and Coding methods in Perceptual Audio Coding: A Tutorial introduction”, 17th AES International Conference on High Quality Audio Coding, Agosto de 1999
[14] J. Herre, “Temporal Noise Shaping, Quantization and Coding methods in Perceptual Audio Coding: A Tutorial introduction”, 17th AES International Conference on High Quality Audio Coding, Agosto de 1999
[15] International Standard ISO/IEC 23001-3:2010, Unified speech and audio coding Audio, Ginebra, 2010.
[16] International Standard ISO/IEC 14496-3:2005, Information technology - Coding of audio-visual objects - Part 3: Audio, Ginebra, 2005.
[17] P. Ekstrand, “Bandwidth Extension of Audio Signals by Spectral Band Replication”, in Proceedings of 1 st IEEE Benelux Workshop on MPCA, Lovaina, Noviembre de 2002
[18] F. Nagel, S. Disch, S. Wilde, A continuous modulated single sideband bandwidth extension, ICASSP International Conference on Acoustics, Speech and Signal Processing, Dallas, Texas (EE.UU.), Abril de 2010

Claims (25)

REIVINDICACIONES
1. Aparato para decodificar una señal de audio codificada, que comprende:
un decodificador de audio de dominio espectral (112) configurado para generar una primera representación decodificada (904) de un primer conjunto de primeras porciones espectrales de una primera representación codificada (107) del primer conjunto de primeras porciones espectrales (103), teniendo la primera representación decodificada (904) una primera resolución espectral,
donde la primera representación codificada (107) del primer conjunto de primeras porciones espectrales (103) comprende líneas espectrales codificadas en el primer conjunto de primeras porciones espectrales (103) y factores de escala (SF1, SF2, SF3, SF4, SF5, SF6, SF7) para cada banda de factor de escala (s Cb 1 , SCb2, s Cb 3) en un rango central por debajo de una frecuencia de inicio de relleno de espacios de frecuencia (309) y para cada banda de factor de escala (SCB4, SCB5, SCB6, SCB7) en una banda de reconstrucción por encima de la frecuencia de inicio de relleno de espacio de frecuencia (309) hasta una frecuencia máxima (fIGFparada), siendo la frecuencia máxima menor o igual a la mitad de una frecuencia de muestreo (fS/2) de una señal de audio;
un decodificador paramétrico (114) configurado para generar una segunda representación decodificada de un segundo conjunto de segundas porciones espectrales, comprendiendo la segunda representación decodificada información de envolvente espectral (902) que tiene una segunda resolución espectral que es inferior a la primera resolución espectral, en la que la primera resolución espectral se define por una codificación de líneas espectrales en línea, en la que la segunda resolución espectral se define solo por un único valor espectral por banda de factor de escala (SCB1, SCB2, SCB3, SCB4, SCB5, SCB6, SCB7), donde una banda de factor de escala (SCB1, SCB2, SCB3, SCB4, SCB5, SCB6, SCB7) abarca varias líneas de frecuencia, y
en la que la información de envolvente espectral para el segundo conjunto de segundas porciones espectrales (105) corresponde a los valores de información de energía (E1, E2, E3, E4) para las bandas de factor de escala (SCB4, SCB5, SCB6, SCB7) por encima de la frecuencia de inicio de relleno de espacios de frecuencia (309), donde cada valor de información de energía (E1, E2, E3, E4) representa el valor espectral único por banda de factor de escala (SCB4, SCB5, SCB6, SCB7) por encima de la frecuencia de inicio de relleno de espacios de frecuencia (309) hasta la frecuencia máxima (fIGFparada) e indica una energía de la primera y la segunda porciones espectrales en la banda del factor de escala (Sc B4, SCB5, SCB6, SCB7);
donde el decodificador de audio espectral de dominio (112) está configurado para generar la primera representación decodificada (904) de modo que se coloca una primera porción espectral (306, 921) del primer conjunto de primeras porciones espectrales, con respecto a la frecuencia, entre dos segundas porciones espectrales (307a, 307b, 922, 923) del segundo conjunto de segundas porciones espectrales, y donde la primera porción espectral (306, 921) del primer conjunto de las primeras porciones espectrales y las dos segundas porciones espectrales (307a, 307b, 922, 923) del segundo conjunto de segundas porciones espectrales pertenecen a una banda de factor de escala específica (SCB6) en la banda de reconstrucción por encima de la frecuencia de inicio de relleno de espacios de frecuencia (309); un regenerador de frecuencia (116, 906) configurado para regenerar una segunda porción espectral reconstruida (117) que tiene la primera resolución espectral utilizando una primera porción espectral de origen del primer conjunto de las primeras porciones espectrales y la información de la envolvente espectral para una segunda porción espectral del segundo conjunto de segundas porciones espectrales, donde el regenerador de frecuencia (116, 906) comprende
una calculadora de energía de supervivencia (912) para determinar una información de energía de supervivencia que comprende una energía acumulada de la primera porción espectral (306, 921) del primer conjunto de primeras porciones espectrales en la banda de factor de escala específica (SCB6);
una calculadora de energía de mosaico (918) para determinar una información de energía de mosaico de las dos segundas porciones espectrales (307a, 307b, 922, 923) del segundo conjunto de segundas porciones espectrales que pertenecen a la banda de factor de escala específica (SCB6), donde las dos segundas porciones espectrales (307a, 307b, 922, 923) del segundo conjunto de segundas porciones espectrales que pertenecen a la banda de factor de escala específica (SCB6) se generarán mediante regeneración de frecuencia utilizando la primera porción espectral de origen diferente de la primera porción espectral (306, 921) en la banda de factor de escala específica (SCB6);
una calculadora de energía que falta (914) para calcular una energía que falta en la banda de factor de escala específica (SCB6), donde la calculadora de energía que falta (914) está configurada para funcionar utilizando el valor de información de energía (E3) para la banda de factor de escala específica (SCB6) y la información de energía de supervivencia generada por la calculadora de energía de supervivencia (912); y
un ajustador de envolvente espectral (916, 942) para ajustar las dos segundas porciones espectrales (307a, 307b, 922, 923) del segundo conjunto de segundas porciones espectrales que pertenecen a la banda de factor de escala específica (SCB6) basada en la información de energía que falta obtenida por la calculadora de energía que falta (914) y la información de energía de mosaico obtenida por la calculadora de energía de mosaico (918) para obtener la segunda porción espectral reconstruida (117) que tiene la primera resolución espectral, donde la primera porción espectral (306, 921) del primer conjunto de primeras porciones espectrales en la banda de factor de escala específica (SCB6) no se ve influenciada por el ajustador de envolvente espectral (916, 942); y
un convertidor de tiempo de espectro (118) configurado para convertir la primera representación decodificada (904) y la segunda porción espectral reconstruida (117) en una representación de tiempo (119) de la señal de audio.
2. Aparato de la reivindicación 1,
donde el decodificador paramétrico (114) se configura para generar la segunda representación decodificada que comprende información coincidente en una primera porción espectral del primer conjunto de primeras porciones espectrales que indica que la primera porción espectral del primer conjunto de primeras porciones espectrales coincide con la segunda porción espectral del segundo conjunto de segundas porciones espectrales, y donde el regenerador de frecuencia (116, 906) se configura para regenerar la segunda porción espectral reconstruida (117) usando la primera porción espectral del primer conjunto de primeras porciones espectrales indicadas por la información coincidente.
3. Aparato de la reivindicación 1 o 2, donde el decodificador de audio de dominio espectral (112) se configura para enviar una secuencia de tramas decodificadas de valores espectrales, siendo una trama decodificada la primera representación decodificada (904), donde la trama decodificada comprende valores espectrales para el primer conjunto de porciones espectrales e indicaciones cero para el segundo conjunto de segundas porciones espectrales,
donde el aparato para decodificación comprende además un combinador (208) para combinar los valores espectrales generados por el regenerador de frecuencia (116, 906) para el segundo conjunto de segundas porciones espectrales y valores espectrales del primer conjunto de primeras porciones espectrales en una banda de reconstrucción para obtener una trama espectral reconstruida que comprende valores espectrales para el primer conjunto de las primeras porciones espectrales y el segundo conjunto de segunda porción espectral, y donde el convertidor de tiempo de espectro (118) se configura para convertir la trama espectral reconstruida en la representación de tiempo (119).
4. Aparato de una de las reivindicaciones anteriores, donde el convertidor de tiempo de espectro (118) se configura para llevar a cabo una transformada de coseno discreta modificada inversa (512, 514), y comprende además una etapa de superposición-adición (516) para superponer y añadir tramas de dominio de tiempo subsecuentes, comprendiendo cada trama de dominio de tiempo subsecuente que se origina de una representación de espectro la primera representación decodificada (904) y la segunda porción espectral reconstruida (117).
5. Aparato de una de las reivindicaciones anteriores, donde una frecuencia máxima representada por un valor espectral para la frecuencia máxima en la primera representación decodificada (904) es igual a una frecuencia máxima incluida en la representación de tiempo (119) generada por el convertidor de tiempo de espectro (118), donde el valor espectral para la frecuencia máxima en la primera representación es cero o diferente de cero.
6. El aparato de una de las reivindicaciones anteriores,
donde la señal de audio codificada comprende la primera representación codificada (107) que es una versión codificada de dominio de frecuencia del primer conjunto de primeras porciones espectrales y una segunda representación del segundo conjunto de segundas porciones espectrales,
donde el aparato comprende además un analizador sintáctico de corriente de datos (200) para extraer la primera representación codificada (107) y para enviar la primera representación codificada (107) al decodificador de audio de dominio espectral (112) y para extraer la segunda representación codificada (109) y para enviar la segunda representación codificada (109) al decodificador paramétrico (114).
7. El aparato de acuerdo con una de las reivindicaciones anteriores, donde la señal de audio codificada comprende además una representación codificada del tercer conjunto de las terceras porciones espectrales (301) que se van a reconstruir por el relleno de ruido, que comprende además:
un rellenador de ruido para extraer la información de relleno de ruido (308) de la representación codificada del tercer conjunto de terceras porciones espectrales y para aplicar una operación de relleno de ruido en el tercer conjunto de terceras porciones espectrales sin usar una primera porción espectral en un intervalo de frecuencia diferente para generar una tercera porción espectral reconstruida,
donde el convertidor de tiempo de espectro (118) se configura para convertir adicionalmente la tercera porción espectral en la representación de tiempo (119).
8. Aparato de acuerdo con una de las reivindicaciones anteriores,
donde el decodificador de audio de dominio espectral (112) se configura para generar la primera representación decodificada (904) que tiene las primeras porciones espectrales con valores de frecuencia que son mayores que una frecuencia que es igual a una frecuencia en una parte intermedia de un intervalo de frecuencia cubierto por la representación de tiempo (119) enviada por el convertidor de tiempo de espectro (118).
9. Aparato de la reivindicación 1,
que comprende un bloque de escala inversa (940) para la escala inversa en los valores espectrales decuantificados que corresponden a las primeras porciones espectrales del primer conjunto de porciones espectrales que utilizan los factores de escala (SF1, SF2, SF3, SF4, SF5, SF6, SF7) para las bandas de factor de escala para proporcionar las primeras porciones espectrales (302) por debajo de la frecuencia de inicio de relleno de espacios de frecuencia (309) y las primeras porciones espectrales (304, 305, 306, 307, 921) por encima de la frecuencia de inicio de relleno de espacios de frecuencia (309) en la banda de reconstrucción, y
donde el ajustador de envolvente espectral (916, 942) del regenerador de frecuencia (116, 906) está configurado para recibir la primera porción espectral de origen utilizada para el relleno de mosaico de frecuencia en la banda de reconstrucción, donde los valores espectrales ajustados (922, 923) para las segundas porciones espectrales en la banda de reconstrucción obtenida por el ajustador de envolvente espectral (916, 942) y la primera porción espectral (921) en la banda de reconstrucción representan conjuntamente una representación espectral de la banda de reconstrucción.
10. Aparato para codificar una señal de audio (99), que comprende:
un convertidor de tiempo de espectro (100) configurado para convertir la señal de audio (99) que tiene una frecuencia de muestreo en una representación espectral (101);
un analizador espectral (102) configurado para analizar la representación espectral (101) para determinar un primer conjunto de primeras porciones espectrales (103) que se van a codificar con una primera resolución espectral y un segundo conjunto diferente de segundas porciones espectrales (105) que se va a codificar con una segunda resolución espectral, siendo la segunda resolución espectral más pequeña que la primera resolución espectral, donde la primera porción espectral se define por una codificación de líneas de líneas espectrales, y donde la segunda resolución espectral se define solo por un único valor espectral por banda de factor de escala (SCB1, SCB2, SCB3, SCB4, SCB5, SCB6, SCB7), donde una banda de factor de escala (SCB1, SCB2, SCB3, SCB4, SCB5, SCB6, SCB7) abarca varias líneas de frecuencia, y
donde se coloca una primera porción espectral (306, 921) del primer conjunto de primeras porciones espectrales (103), con respecto a la frecuencia, entre dos segundas porciones espectrales (307a, 307b, 922, 923) del segundo conjunto de segundas porciones espectrales (105);
un codificador de audio de dominio espectral (106) configurado para generar una primera representación codificada (107) del primer conjunto de primeras porciones espectrales (103) que tiene la primera resolución espectral, en la que el codificador de audio de dominio espectral (106) está configurado para calcular una escala Factor (SF1, SF2, SF3) para cada banda de factor de escala (SCB1, SCB2, SCB3) en un intervalo central por debajo de una frecuencia de inicio de relleno de espacios de frecuencia (309), y para calcular un factor de escala (SF4, SF5, SF6, SF7) para cada banda de factor de escala (SCB4, SCB5, SCB6, SCB7) por encima de la frecuencia de inicio de relleno de espacios de frecuencia (309) hasta una frecuencia máxima (flGFparada), la frecuencia máxima es menor o igual a la mitad de la frecuencia de muestreo (fS/2) de la señal de audio (99), y en la que los factores de escala (SF1, SF2, SF3, SF4, SF5, SF6, SF7) para cada banda de factor de escala y líneas espectrales codificadas en el primer conjunto de primeras porciones espectrales (103) corresponde a la primera representación codificada (107) del primer conjunto de primeras porciones espectrales (103); y
un codificador paramétrico (104) configurado para calcular la información de envolvente espectral para el segundo conjunto de segundas porciones espectrales (105), teniendo la información de envolvente espectral la segunda resolución espectral, en la que el codificador paramétrico (104) está configurado para calcular un valor de información de energía (E1, E2, E3, E4) que representa el valor espectral único por banda de factor de escala para cada banda de factor de escala (SCB4, SCB5, SCB6, SCB7) por encima de la frecuencia de inicio de relleno de espacios de frecuencia (309) hasta la frecuencia máxima (flGFparada) y lo que indica una energía de la primera y segunda porciones espectrales en la banda de factor de escala (SCB4, SCB5, SCB6, SCB7), y en la que la información de envolvente espectral para el segundo conjunto de segundas porciones espectrales (105) corresponde a los valores de información de energía (E1, E2, E3, E4) para las bandas de factor de escala (SCB4, SCB5, SCB6, SCB7) por encima de la frecuencia de inicio de relleno de espacios de frecuencia (309).
11. Aparato de la reivindicación 10, donde el codificador de parámetros (104) se configura para calcular similitudes entre los intervalos de origen que tienen primeras porciones espectrales del primer conjunto de primeras porciones espectrales (103) e intervalos de destino que tienen segundas porciones espectrales del segundo conjunto de segundas porciones espectrales (105) y para determinar, basado en las similitudes calculadas, para una segunda porción espectral del segundo conjunto de segundas porciones espectrales (105), una primera porción espectral del primer conjunto de primeras porciones espectrales (103) que coincide con la segunda porción espectral y para proporcionar la información coincidente en la primera porción espectral que coincide con la segunda porción espectral en una representación codificada.
12. Aparato de una de las reivindicaciones 10 u 11,
donde el analizador espectral (102) se configura para analizar la representación espectral (101) hasta una frecuencia de análisis máxima que es al menos un cuarto de una frecuencia de muestreo de la señal de audio (99).
13. Aparato de una de las reivindicaciones 10 a 12,
donde el convertidor de tiempo de espectro (100) se configura para la formación de ventana (502) de la señal de audio (99) con las ventanas superpuestas para obtener una secuencia de tramas formadas en ventanas, una trama formada en ventanas que tiene un primer número de muestras, y para convertir (506) la secuencia de tramas en una representación espectral (101) para obtener tramas espectrales, una trama espectral que tiene un segundo número de muestras espectrales, siendo el segundo número más pequeño que el primer número.
14. Aparato de una de las reivindicaciones 10 a 13,
donde el codificador de audio de dominio espectral (106) se configura para procesar una secuencia de tramas de valores espectrales para cuantificación y codificación por entropía, donde, en una trama, los valores espectrales del segundo conjunto de segundas porciones (105) se ajustan a cero o donde, en una trama de la secuencia de tramas, los valores espectrales del primer conjunto de primeras porciones espectrales (103) y el segundo conjunto de las segundas porciones espectrales están presentes y donde, durante el procesamiento o posteriormente al procesamiento, los valores espectrales en el segundo conjunto de segundas porciones espectrales (105) se ajusta a cero(410, 418, 422).
15. Aparato de una de las reivindicaciones 10 a 14,
donde el codificador de audio de domino espectral (106) se configura para generar la primera representación espectral (101) del primer conjunto de primeras porciones espectrales (103) que tiene una frecuencia Nyquist definida por la tasa de muestreo de la señal de audio (99).
16. Aparato de una de las reivindicaciones 10 a 15,
donde el codificador de audio de dominio espectral (106) se configura para proporcionar la primera representación codificada (107) de modo que, para una trama de la señal de audio (99) muestreada, la primera representación codificada (107) comprende el primer conjunto de primeras porciones espectrales y el segundo conjunto de segundas porciones espectrales (103) y el segundo conjunto de segundas porciones espectrales (105), donde los valores espectrales en el segundo conjunto de segundas porciones espectrales (105) se codifican como cero o valores de ruido.
17. Aparato de una de las reivindicaciones 10 a 16,
donde el analizador espectral (102) se configura para analizar la representación espectral (101) que comienza con una frecuencia de inicio de relleno de espacio de frecuencia (309), y termina con una frecuencia máxima (fmax) representada por una frecuencia máxima incluida en la representación espectral (101), y donde una porción espectral que se extiende desde una frecuencia mínima hasta la frecuencia de inicio de relleno de espacio de frecuencia (309) pertenece al primer conjunto de primeras porciones espectrales (103) que se va a codificar por el codificador de audio de dominio espectral (106).
18. Aparato de una de las reivindicaciones 10 a 17,
donde en analizador espectral (102) se configura para aplicar una máscara tonal que procesa al menos una porción de la representación espectral (101) de modo que los componentes tonales y los componentes no tonales se separan entre sí, donde el primer conjunto de las primeras porciones espectrales comprende componentes tonales y el segundo conjunto de las segundas porciones espectrales comprende los componentes no tonales.
19. Aparato de una de las reivindicaciones 10 a 18,
donde el codificador de audio de dominio espectral (106) comprende un módulo psico-acústico (402) para cuantificar el primer conjunto de primeras porciones espectrales (103) bajo consideración de un umbral de enmascaramiento determinado en el módulo psico-acústico (402).
20. Aparato de una de las reivindicaciones 10 a 19,
donde el convertidor de tiempo de espectro (100) se configura para aplicar una transformada de coseno discreta modificada (MDCT).
21. Aparato de una de las reivindicaciones 10 a 19,
donde el analizador espectral (102) se configura para separar las porciones espectrales que tienen componentes tonales de las porciones espectrales que tienen componentes no tonales en la representación espectral (101),
donde el analizador espectral (102) se configura para analizar adicionalmente las porciones espectrales que tienen los componentes no tonales que se van a reconstruir al usar una porción espectral del primer conjunto de porciones espectrales, donde el analizador espectral (102) se configura para determinar las porciones espectrales similares a ruido en los componentes no tonales que se van a reconstruir por el relleno de ruido,
donde el primer conjunto de las primeras porciones espectrales (103) comprende los componentes tonales, donde el segundo conjunto de segundas porciones espectrales (105) comprende las porciones espectrales que tienen los componentes no tonales, y donde un tercer conjunto de terceras porciones espectrales comprende las porciones espectrales similares a ruido que se van a reconstruir por el relleno de ruido,
donde el codificador paramétrico (104) se configura para introducir una información de energía para las porciones espectrales similares a ruido en la segunda representación codificada (109).
22. Aparato de una de las reivindicaciones 10 a 21,
donde el analizador espectral (102) se configura para analizar la representación espectral (101) en un intervalo de frecuencia que comienza desde una frecuencia de inicio de relleno de espacio de frecuencia (309) y se extiende hasta las frecuencias mayores que la frecuencia de relleno de espacio de frecuencia (309),
donde el codificador de audio de domino espectral (106) se configura para codificar al menos una tercera porción espectral en la representación espectral (101) que tiene frecuencias por debajo de la frecuencia de inicio de relleno de espacio de frecuencia (309) con una resolución espectral menor que la primera resolución espectral al ajustar los valores espectrales en la tercera porción espectral a cero y al calcular y al codificar la información de envolvente espectral (308) que indica una energía en la al menos tercera porción espectral.
23. Procedimiento de decodificación de una señal de audio codificada, que comprende:
generar (112) una primera representación decodificada (904) de un primer conjunto de primeras porciones espectrales de una primera representación codificada (107) del primer conjunto de primeras porciones espectrales (103), teniendo la primera representación decodificada (904) una primera resolución espectral,
donde la primera representación codificada (107) del primer conjunto de primeras porciones espectrales (103) comprende líneas espectrales codificadas en el primer conjunto de primeras porciones espectrales (103) y factores de escala (SF1, SF2, SF3, SF4, SF5, SF6, SF7) para cada banda de factor de escala (s Cb 1 , SCb2, s Cb 3) en un intervalo central por debajo de una frecuencia de inicio de llenado de espacio de frecuencia (309) y para cada banda de factor de escala (SCB4, SCB5, SCB6, SCB7) en una banda de reconstrucción por encima de la frecuencia de inicio de relleno de espacio de frecuencia (309) hasta una frecuencia máxima (fIGFparada), siendo la frecuencia máxima menor o igual a la mitad de una frecuencia de muestreo (fS/2) de una señal de audio; generar (114) una segunda representación decodificada de un segundo conjunto de segundas porciones espectrales, comprendiendo la segunda representación decodificada información de envolvente espectral que tiene una segunda resolución espectral que es menor que la primera resolución espectral;
donde la primera resolución espectral se define mediante una codificación de líneas espectrales, en la que la segunda resolución espectral se define solo por un único valor espectral por banda de factor de escala (SCB1, SCB2, SCB3, SCB4, SCB5, SCB6, SCB7), donde una banda de factor de escala (SCB1, SCB2, SCB3, SCB4, SCB5, SCB6, SCB7) abarca varias líneas de frecuencia, y en la que la información de envolvente espectral para el segundo conjunto de segundas porciones espectrales (105) corresponde a los valores de información de energía (E1, E2, E3, E4) para las bandas de factor de escala (SCB4, SCB5, SCB6, SCB7) sobre la frecuencia de inicio de relleno de espacio de frecuencia (309), donde cada valor de información de energía (E1, E2, E3, E4) representa el valor espectral único por banda de factor de escala (SCB4, SCB5, SCB6, SCB7) por encima de la frecuencia de inicio de relleno de espacio de frecuencia (309) hasta la frecuencia máxima (fIGFparada), e indica una energía de la primera y la segunda porciones espectrales en la banda del factor de escala (SCB4, SCB5, SCB6, SCB7); donde la generación (112) la primera representación decodificada (904) comprende generar la primera representación decodificada (904) de modo que se coloca una primera porción espectral (306, 921) del primer conjunto de primeras porciones espectrales, con respecto a la frecuencia, entre dos segundas porciones espectrales (307a, 307b, 922, 923) del segundo conjunto de segundas porciones espectrales, y en las que la primera porción espectral (306, 921) del primer conjunto de las primeras porciones espectrales y las dos segundas porciones espectrales (307a, 307b, 922, 923) del segundo conjunto de segundas porciones espectrales pertenecen a una banda de factor de escala específica (SCB6) en la banda de reconstrucción por encima de la frecuencia de inicio de relleno de espacios de frecuencia (309);
regenerar (116, 906) una segunda porción espectral reconstruida (117) que tiene la primera resolución espectral usando una primera porción espectral de origen y la información de envolvente espectral para una segunda porción espectral del segundo conjunto de segundas porciones espectrales,
donde la regeneración (116, 906) comprende
determinar (912) una información de energía de supervivencia que comprende una energía acumulada de la primera porción espectral (306, 921) del primer conjunto de primeras porciones espectrales en la banda de factor de escala específica (SCB6);
determinar una información de energía de mosaico de las dos segundas porciones espectrales (307a, 307b, 922, 923) del segundo conjunto de segundas porciones espectrales que pertenecen a la banda de factor de escala específica (SCB6), donde las dos segundas porciones espectrales (307a, 307b, 922, 923) del segundo conjunto de segundas porciones espectrales que pertenecen a la banda de factor de escala específica (SCB6) se generarán por regeneración de frecuencia utilizando la primera porción espectral de origen diferente de la primera porción espectral (306, 921) en la banda de factor de escala específica (SCB6); calcular una energía que falta en la banda de factor de escala específica (SCB6), en la que la calculadora de energía que falta (914) está configurada para funcionar utilizando el valor de información de energía (E3) para la banda de factor de escala específica (SCB6) y la información de energía de supervivencia generada por la calculadora de energía de supervivencia (912); y ajustar (916, 942) las dos segundas porciones espectrales (307a, 307b, 922, 923) del segundo conjunto de segundas porciones espectrales que pertenecen a la banda de factor de escala específica (SCB6) basadas en la información de energía que falta y la información de energía de mosaico para obtener la segunda porción espectral reconstruida (117) que tenga la primera resolución espectral, en la que la primera porción espectral (306, 921) del primer conjunto de primeras porciones espectrales en la banda de factor de escala específica (SCB6) no se ve influenciada por el ajuste (916,942); y
convertir (118) la primera representación decodificada (904) y la segunda porción espectral reconstruida (117) en una representación de tiempo (119) de la señal de audio.
24. Procedimiento para codificar una señal de audio (99), que comprende:
convertir (100) la señal de audio (99) que tiene una frecuencia de muestreo en una representación espectral (101); analizar (102) la representación espectral (101) para determinar un primer conjunto de primeras porciones espectrales (103) que se van a codificar con una primera resolución espectral y un segundo conjunto diferente de segundas porciones espectrales (105) que se van a codificar con una segunda resolución espectral, siendo la segunda resolución espectral más pequeña que la primera resolución espectral, donde la primera resolución espectral se define mediante una codificación de líneas espectrales de línea, y donde la segunda resolución espectral se define solo por un único valor espectral por banda de factor de escala (SCB1, SCB2, SCB3, SCB4, SCB5, SCB6, SCB7), donde una banda de factor de escala (SCB1, SCB2, SCB3, SCB4, SCB5, SCB6, SCB7) abarca varias líneas de frecuencia, y
donde una primera porción espectral (306, 921) del primer conjunto de primeras porciones espectrales (103) se coloca, con respecto a la frecuencia, entre dos segundas porciones espectrales (307a, 307b, 922, 923) del segundo conjunto de segundas porciones espectrales (105);
generar (106) una primera representación codificada (107) del primer conjunto de primeras porciones espectrales (103) que tiene la primera resolución espectral;
donde la generación (106) de la primera representación codificada (107) comprende calcular un factor de escala (SF1, SF2, SF3) para cada banda de factor de escala (SCB1, SCB2, SCB3) en un intervalo central por debajo de una frecuencia de inicio de relleno de espacio de frecuencia (309), y calcular un factor de escala (SF4, SF5, SF6, SF7) para cada banda de factor de escala (SCB4, SCB5, SCB6, SCB7) por encima de la frecuencia de inicio de relleno de espacio de frecuencia (309) hasta una frecuencia máxima (fIGFparada), siendo la frecuencia máxima menor o igual a la mitad de la frecuencia de muestreo (fS/2) de la señal de audio (99), y en la que los factores de escala (SF1, SF2, SF3, SF4, SF5, SF6, SF7) para cada banda de factor de escala y las líneas espectrales codificadas en el primer conjunto de primeras porciones espectrales (103) corresponden a la primera representación codificada (107) del primer conjunto de primeras porciones espectrales (103); y
calcular (104) la información de envolvente espectral para el segundo conjunto de segundas porciones espectrales (105), teniendo la información de envolvente espectral la segunda resolución espectral,
donde calcular (104) la información de envolvente espectral comprende calcular un valor de información de energía (E1, E2, E3, E4) que representa el valor espectral único por banda de factor de escala para cada banda de factor de escala (SCB4, SCB5, SCB6, SCB7) sobre la frecuencia de inicio de relleno de espacio de frecuencia (309) hasta la frecuencia máxima (fIGFparada), e indicar una energía de la primera y la segunda porciones espectrales en la banda del factor de escala (SCB4, SCB5, SCB6, SCB7), y donde la información de la envolvente espectral para el segundo conjunto de segundas porciones espectrales (105) corresponde a los valores de información de energía (E1, E2, E3, E4) para las bandas de factor de escala (SCB4, SCB5, SCB6, SCB7) por encima de la frecuencia de inicio de relleno de espacio de frecuencia (309).
25. Programa informático que comprende instrucciones que, cuando el programa se ejecuta en un ordenador o un procesador hace que el ordenador o el procesador, lleven a cabo el procedimiento de la reivindicación 23 o el procedimiento de la reivindicación 24.
ES14738853T 2013-07-22 2014-07-15 Aparato y procedimiento para codificar y decodificar una señal de audio con relleno inteligente de espacios en el dominio espectral Active ES2908624T3 (es)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
EP13177350 2013-07-22
EP13177353 2013-07-22
EP13177348 2013-07-22
EP13177346 2013-07-22
EP13189362.0A EP2830056A1 (en) 2013-07-22 2013-10-18 Apparatus and method for encoding or decoding an audio signal with intelligent gap filling in the spectral domain
PCT/EP2014/065109 WO2015010948A1 (en) 2013-07-22 2014-07-15 Apparatus and method for encoding or decoding an audio signal with intelligent gap filling in the spectral domain

Publications (1)

Publication Number Publication Date
ES2908624T3 true ES2908624T3 (es) 2022-05-03

Family

ID=49385156

Family Applications (9)

Application Number Title Priority Date Filing Date
ES14738853T Active ES2908624T3 (es) 2013-07-22 2014-07-15 Aparato y procedimiento para codificar y decodificar una señal de audio con relleno inteligente de espacios en el dominio espectral
ES14738857.3T Active ES2599007T3 (es) 2013-07-22 2014-07-15 Aparato y método para codificar y decodificar una señal de audio codificada utilizando modelado de ruido/parche temporal
ES19157850T Active ES2959641T3 (es) 2013-07-22 2014-07-15 Aparato y método para decodificar o codificar una señal de audio utilizando valores de información para una banda de reconstrucción
ES14739811T Active ES2813940T3 (es) 2013-07-22 2014-07-15 Aparato, método y programa informático para decodificar una señal de audio codificada
ES14739160T Active ES2698023T3 (es) 2013-07-22 2014-07-15 Decodificador de audio y método relacionado que usan procesamiento de dos canales dentro de un marco de relleno inteligente de huecos
ES14739161.9T Active ES2667221T3 (es) 2013-07-22 2014-07-15 Aparato y método para decodificar y codificar una señal de audio utilizando selección de mosaicos espectrales adaptativos
ES14741264.7T Active ES2638498T3 (es) 2013-07-22 2014-07-15 Aparato y procedimiento para decodificar una señal de audio codificada mediante un filtro de cruce en torno a una frecuencia de transición
ES18180168T Active ES2827774T3 (es) 2013-07-22 2014-07-15 Codificador de audio y método relacionado usando procesamiento de dos canales dentro de un marco de referencia de relleno inteligente de espacios
ES14738854T Active ES2728329T3 (es) 2013-07-22 2014-07-15 Aparato y método para decodificar o codificar una señal de audio utilizando valores de información para una banda de reconstrucción

Family Applications After (8)

Application Number Title Priority Date Filing Date
ES14738857.3T Active ES2599007T3 (es) 2013-07-22 2014-07-15 Aparato y método para codificar y decodificar una señal de audio codificada utilizando modelado de ruido/parche temporal
ES19157850T Active ES2959641T3 (es) 2013-07-22 2014-07-15 Aparato y método para decodificar o codificar una señal de audio utilizando valores de información para una banda de reconstrucción
ES14739811T Active ES2813940T3 (es) 2013-07-22 2014-07-15 Aparato, método y programa informático para decodificar una señal de audio codificada
ES14739160T Active ES2698023T3 (es) 2013-07-22 2014-07-15 Decodificador de audio y método relacionado que usan procesamiento de dos canales dentro de un marco de relleno inteligente de huecos
ES14739161.9T Active ES2667221T3 (es) 2013-07-22 2014-07-15 Aparato y método para decodificar y codificar una señal de audio utilizando selección de mosaicos espectrales adaptativos
ES14741264.7T Active ES2638498T3 (es) 2013-07-22 2014-07-15 Aparato y procedimiento para decodificar una señal de audio codificada mediante un filtro de cruce en torno a una frecuencia de transición
ES18180168T Active ES2827774T3 (es) 2013-07-22 2014-07-15 Codificador de audio y método relacionado usando procesamiento de dos canales dentro de un marco de referencia de relleno inteligente de espacios
ES14738854T Active ES2728329T3 (es) 2013-07-22 2014-07-15 Aparato y método para decodificar o codificar una señal de audio utilizando valores de información para una banda de reconstrucción

Country Status (20)

Country Link
US (24) US10332539B2 (es)
EP (20) EP2830065A1 (es)
JP (11) JP6306702B2 (es)
KR (7) KR101809592B1 (es)
CN (12) CN110660410B (es)
AU (7) AU2014295301B2 (es)
BR (11) BR122022010958B1 (es)
CA (8) CA2918524C (es)
ES (9) ES2908624T3 (es)
HK (1) HK1211378A1 (es)
MX (7) MX354657B (es)
MY (5) MY184847A (es)
PL (8) PL3407350T3 (es)
PT (7) PT3017448T (es)
RU (7) RU2646316C2 (es)
SG (7) SG11201600464WA (es)
TR (1) TR201816157T4 (es)
TW (7) TWI555009B (es)
WO (7) WO2015010953A1 (es)
ZA (5) ZA201502262B (es)

Families Citing this family (82)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104221082B (zh) 2012-03-29 2017-03-08 瑞典爱立信有限公司 谐波音频信号的带宽扩展
TWI546799B (zh) 2013-04-05 2016-08-21 杜比國際公司 音頻編碼器及解碼器
EP2830065A1 (en) 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for decoding an encoded audio signal using a cross-over filter around a transition frequency
EP2830051A3 (en) 2013-07-22 2015-03-04 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoder, audio decoder, methods and computer program using jointly encoded residual signals
BR112016004299B1 (pt) * 2013-08-28 2022-05-17 Dolby Laboratories Licensing Corporation Método, aparelho e meio de armazenamento legível por computador para melhora de fala codificada paramétrica e codificada com forma de onda híbrida
FR3011408A1 (fr) * 2013-09-30 2015-04-03 Orange Re-echantillonnage d'un signal audio pour un codage/decodage a bas retard
EP3518237B1 (en) * 2014-03-14 2022-09-07 Telefonaktiebolaget LM Ericsson (publ) Audio coding method and apparatus
EP2980794A1 (en) 2014-07-28 2016-02-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoder and decoder using a frequency domain processor and a time domain processor
EP2980795A1 (en) 2014-07-28 2016-02-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoding and decoding using a frequency domain processor, a time domain processor and a cross processor for initialization of the time domain processor
KR102547480B1 (ko) 2014-12-09 2023-06-26 돌비 인터네셔널 에이비 Mdct-도메인 에러 은닉
TWI758146B (zh) 2015-03-13 2022-03-11 瑞典商杜比國際公司 解碼具有增強頻譜帶複製元資料在至少一填充元素中的音訊位元流
GB201504403D0 (en) 2015-03-16 2015-04-29 Microsoft Technology Licensing Llc Adapting encoded bandwidth
US10847170B2 (en) 2015-06-18 2020-11-24 Qualcomm Incorporated Device and method for generating a high-band signal from non-linearly processed sub-ranges
EP3171362B1 (en) * 2015-11-19 2019-08-28 Harman Becker Automotive Systems GmbH Bass enhancement and separation of an audio signal into a harmonic and transient signal component
EP3182411A1 (en) 2015-12-14 2017-06-21 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for processing an encoded audio signal
BR112018014813A2 (pt) * 2016-01-22 2018-12-18 Fraunhofer Ges Forschung ?aparelho, sistema e método para codificar canais de um sinal de entrada de áudio, aparelho, sistema e método para decodificar um sinal de áudio codificado e sistema para gerar um sinal de áudio codificado e um sinal de áudio decodificado?
PT3405951T (pt) 2016-01-22 2020-02-05 Fraunhofer Ges Forschung Aparelhos e métodos para codificar ou descodificar um sinal de áudio multicanal utilizando sincronização de controlo de quadro
EP3208800A1 (en) * 2016-02-17 2017-08-23 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for stereo filing in multichannel coding
DE102016104665A1 (de) * 2016-03-14 2017-09-14 Ask Industries Gmbh Verfahren und Vorrichtung zur Aufbereitung eines verlustbehaftet komprimierten Audiosignals
US10741196B2 (en) 2016-03-24 2020-08-11 Harman International Industries, Incorporated Signal quality-based enhancement and compensation of compressed audio signals
US10141005B2 (en) 2016-06-10 2018-11-27 Apple Inc. Noise detection and removal systems, and related methods
JP6976277B2 (ja) 2016-06-22 2021-12-08 ドルビー・インターナショナル・アーベー 第一の周波数領域から第二の周波数領域にデジタル・オーディオ信号を変換するためのオーディオ・デコーダおよび方法
US10249307B2 (en) * 2016-06-27 2019-04-02 Qualcomm Incorporated Audio decoding using intermediate sampling rate
US10812550B1 (en) * 2016-08-03 2020-10-20 Amazon Technologies, Inc. Bitrate allocation for a multichannel media stream
EP3288031A1 (en) 2016-08-23 2018-02-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for encoding an audio signal using a compensation value
US9679578B1 (en) 2016-08-31 2017-06-13 Sorenson Ip Holdings, Llc Signal clipping compensation
EP3306609A1 (en) * 2016-10-04 2018-04-11 Fraunhofer Gesellschaft zur Förderung der Angewand Apparatus and method for determining a pitch information
US10362423B2 (en) * 2016-10-13 2019-07-23 Qualcomm Incorporated Parametric audio decoding
EP3324406A1 (en) 2016-11-17 2018-05-23 Fraunhofer Gesellschaft zur Förderung der Angewand Apparatus and method for decomposing an audio signal using a variable threshold
US10304468B2 (en) * 2017-03-20 2019-05-28 Qualcomm Incorporated Target sample generation
US10090892B1 (en) * 2017-03-20 2018-10-02 Intel Corporation Apparatus and a method for data detecting using a low bit analog-to-digital converter
EP3382704A1 (en) * 2017-03-31 2018-10-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for determining a predetermined characteristic related to a spectral enhancement processing of an audio signal
EP3382700A1 (en) 2017-03-31 2018-10-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for post-processing an audio signal using a transient location detection
EP3382701A1 (en) 2017-03-31 2018-10-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for post-processing an audio signal using prediction based shaping
ES2881704T3 (es) 2017-05-18 2021-11-30 Fraunhofer Ges Forschung Dispositivo de red de gestión
US11188422B2 (en) 2017-06-02 2021-11-30 Apple Inc. Techniques for preserving clone relationships between files
DK3642839T3 (da) * 2017-06-19 2022-07-04 Rtx As Audiosignalkodning og -afkodning
CN110998722B (zh) 2017-07-03 2023-11-10 杜比国际公司 低复杂性密集瞬态事件检测和译码
CN111386568B (zh) * 2017-10-27 2023-10-13 弗劳恩霍夫应用研究促进协会 使用神经网络处理器生成带宽增强的音频信号的装置、方法或计算机可读存储介质
EP3483880A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Temporal noise shaping
EP3483882A1 (en) * 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Controlling bandwidth in encoders and/or decoders
EP3483884A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Signal filtering
EP3483878A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio decoder supporting a set of different loss concealment tools
EP3483879A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Analysis/synthesis windowing function for modulated lapped transformation
WO2019091573A1 (en) 2017-11-10 2019-05-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for encoding and decoding an audio signal using downsampling or interpolation of scale parameters
WO2019091576A1 (en) 2017-11-10 2019-05-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoders, audio decoders, methods and computer programs adapting an encoding and decoding of least significant bits
EP3483886A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Selecting pitch lag
EP3483883A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio coding and decoding with selective postfiltering
TWI702594B (zh) 2018-01-26 2020-08-21 瑞典商都比國際公司 用於音訊信號之高頻重建技術之回溯相容整合
US11076252B2 (en) * 2018-02-09 2021-07-27 Mitsubishi Electric Corporation Audio signal processing apparatus and audio signal processing method
US10950251B2 (en) * 2018-03-05 2021-03-16 Dts, Inc. Coding of harmonic signals in transform-based audio codecs
EP3576088A1 (en) * 2018-05-30 2019-12-04 Fraunhofer Gesellschaft zur Förderung der Angewand Audio similarity evaluator, audio encoder, methods and computer program
AU2019298307A1 (en) * 2018-07-04 2021-02-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Multisignal audio coding using signal whitening as preprocessing
CN109088617B (zh) * 2018-09-20 2021-06-04 电子科技大学 比率可变数字重采样滤波器
US10957331B2 (en) 2018-12-17 2021-03-23 Microsoft Technology Licensing, Llc Phase reconstruction in a speech decoder
US10847172B2 (en) * 2018-12-17 2020-11-24 Microsoft Technology Licensing, Llc Phase quantization in a speech encoder
EP3671741A1 (en) * 2018-12-21 2020-06-24 FRAUNHOFER-GESELLSCHAFT zur Förderung der angewandten Forschung e.V. Audio processor and method for generating a frequency-enhanced audio signal using pulse processing
WO2020146870A1 (en) * 2019-01-13 2020-07-16 Huawei Technologies Co., Ltd. High resolution audio coding
JP7262593B2 (ja) * 2019-01-13 2023-04-21 華為技術有限公司 ハイレゾリューションオーディオ符号化
KR102470429B1 (ko) * 2019-03-14 2022-11-23 붐클라우드 360 인코포레이티드 우선순위에 의한 공간 인식 다중 대역 압축 시스템
CN110265043B (zh) * 2019-06-03 2021-06-01 同响科技股份有限公司 自适应有损或无损的音频压缩和解压缩演算方法
WO2020253941A1 (en) * 2019-06-17 2020-12-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoder with a signal-dependent number and precision control, audio decoder, and related methods and computer programs
US11527252B2 (en) 2019-08-30 2022-12-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. MDCT M/S stereo
TWI702780B (zh) 2019-12-03 2020-08-21 財團法人工業技術研究院 提升共模瞬變抗擾度的隔離器及訊號產生方法
CN111862953B (zh) * 2019-12-05 2023-08-22 北京嘀嘀无限科技发展有限公司 语音识别模型的训练方法、语音识别方法及装置
CN113192517B (zh) * 2020-01-13 2024-04-26 华为技术有限公司 一种音频编解码方法和音频编解码设备
US11158297B2 (en) * 2020-01-13 2021-10-26 International Business Machines Corporation Timbre creation system
US20230085013A1 (en) * 2020-01-28 2023-03-16 Hewlett-Packard Development Company, L.P. Multi-channel decomposition and harmonic synthesis
CN111199743B (zh) * 2020-02-28 2023-08-18 Oppo广东移动通信有限公司 音频编码格式确定方法、装置、存储介质及电子设备
CN111429925B (zh) * 2020-04-10 2023-04-07 北京百瑞互联技术有限公司 一种降低音频编码速率的方法及系统
CN113593586A (zh) * 2020-04-15 2021-11-02 华为技术有限公司 音频信号编码方法、解码方法、编码设备以及解码设备
CN111371459B (zh) * 2020-04-26 2023-04-18 宁夏隆基宁光仪表股份有限公司 一种适用于智能电表的多操作高频替换式数据压缩方法
CN113808596A (zh) * 2020-05-30 2021-12-17 华为技术有限公司 一种音频编码方法和音频编码装置
CN113808597A (zh) * 2020-05-30 2021-12-17 华为技术有限公司 一种音频编码方法和音频编码装置
CN113113033A (zh) * 2021-04-29 2021-07-13 腾讯音乐娱乐科技(深圳)有限公司 一种音频处理方法、设备及可读存储介质
CN113365189B (zh) * 2021-06-04 2022-08-05 上海傅硅电子科技有限公司 多声道无缝切换方法
CN115472171A (zh) * 2021-06-11 2022-12-13 华为技术有限公司 编解码方法、装置、设备、存储介质及计算机程序
CN113593604A (zh) * 2021-07-22 2021-11-02 腾讯音乐娱乐科技(深圳)有限公司 检测音频质量方法、装置及存储介质
TWI794002B (zh) * 2022-01-28 2023-02-21 緯創資通股份有限公司 多媒體系統以及多媒體操作方法
CN114582361B (zh) * 2022-04-29 2022-07-08 北京百瑞互联技术有限公司 基于生成对抗网络的高解析度音频编解码方法及系统
WO2023224665A1 (en) * 2022-05-17 2023-11-23 Google Llc Asymmetric and adaptive strength for windowing at encoding and decoding time for audio compression
WO2024085551A1 (ko) * 2022-10-16 2024-04-25 삼성전자주식회사 패킷 손실 은닉을 위한 전자 장치 및 방법

Family Cites Families (264)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62234435A (ja) * 1986-04-04 1987-10-14 Kokusai Denshin Denwa Co Ltd <Kdd> 符号化音声の復号化方式
US6289308B1 (en) 1990-06-01 2001-09-11 U.S. Philips Corporation Encoded wideband digital transmission signal and record carrier recorded with such a signal
CN1038089C (zh) 1993-05-31 1998-04-15 索尼公司 信号编码或译码装置及信号编码或译码方法
JP3465697B2 (ja) * 1993-05-31 2003-11-10 ソニー株式会社 信号記録媒体
TW272341B (es) * 1993-07-16 1996-03-11 Sony Co Ltd
GB2281680B (en) * 1993-08-27 1998-08-26 Motorola Inc A voice activity detector for an echo suppressor and an echo suppressor
BE1007617A3 (nl) * 1993-10-11 1995-08-22 Philips Electronics Nv Transmissiesysteem met gebruik van verschillende codeerprincipes.
US5502713A (en) * 1993-12-07 1996-03-26 Telefonaktiebolaget Lm Ericsson Soft error concealment in a TDMA radio system
JPH07336231A (ja) * 1994-06-13 1995-12-22 Sony Corp 信号符号化方法及び装置、信号復号化方法及び装置、並びに記録媒体
DE69619284T3 (de) * 1995-03-13 2006-04-27 Matsushita Electric Industrial Co., Ltd., Kadoma Vorrichtung zur Erweiterung der Sprachbandbreite
US6041295A (en) 1995-04-10 2000-03-21 Corporate Computer Systems Comparing CODEC input/output to adjust psycho-acoustic parameters
JP3747492B2 (ja) 1995-06-20 2006-02-22 ソニー株式会社 音声信号の再生方法及び再生装置
JP3246715B2 (ja) * 1996-07-01 2002-01-15 松下電器産業株式会社 オーディオ信号圧縮方法,およびオーディオ信号圧縮装置
JPH10124088A (ja) * 1996-10-24 1998-05-15 Sony Corp 音声帯域幅拡張装置及び方法
SE512719C2 (sv) * 1997-06-10 2000-05-02 Lars Gustaf Liljeryd En metod och anordning för reduktion av dataflöde baserad på harmonisk bandbreddsexpansion
DE19730130C2 (de) * 1997-07-14 2002-02-28 Fraunhofer Ges Forschung Verfahren zum Codieren eines Audiosignals
US6253172B1 (en) * 1997-10-16 2001-06-26 Texas Instruments Incorporated Spectral transformation of acoustic signals
US5913191A (en) 1997-10-17 1999-06-15 Dolby Laboratories Licensing Corporation Frame-based audio coding with additional filterbank to suppress aliasing artifacts at frame boundaries
DE19747132C2 (de) * 1997-10-24 2002-11-28 Fraunhofer Ges Forschung Verfahren und Vorrichtungen zum Codieren von Audiosignalen sowie Verfahren und Vorrichtungen zum Decodieren eines Bitstroms
US6029126A (en) * 1998-06-30 2000-02-22 Microsoft Corporation Scalable audio coder and decoder
US6253165B1 (en) * 1998-06-30 2001-06-26 Microsoft Corporation System and method for modeling probability distribution functions of transform coefficients of encoded signal
US6453289B1 (en) 1998-07-24 2002-09-17 Hughes Electronics Corporation Method of noise reduction for speech codecs
US6061555A (en) 1998-10-21 2000-05-09 Parkervision, Inc. Method and system for ensuring reception of a communications signal
US6400310B1 (en) * 1998-10-22 2002-06-04 Washington University Method and apparatus for a tunable high-resolution spectral estimator
SE9903553D0 (sv) 1999-01-27 1999-10-01 Lars Liljeryd Enhancing percepptual performance of SBR and related coding methods by adaptive noise addition (ANA) and noise substitution limiting (NSL)
JP3762579B2 (ja) 1999-08-05 2006-04-05 株式会社リコー デジタル音響信号符号化装置、デジタル音響信号符号化方法及びデジタル音響信号符号化プログラムを記録した媒体
US6978236B1 (en) 1999-10-01 2005-12-20 Coding Technologies Ab Efficient spectral envelope coding using variable time/frequency resolution and time/frequency switching
EP1147514B1 (en) * 1999-11-16 2005-04-06 Koninklijke Philips Electronics N.V. Wideband audio transmission system
US7742927B2 (en) 2000-04-18 2010-06-22 France Telecom Spectral enhancing method and device
SE0001926D0 (sv) 2000-05-23 2000-05-23 Lars Liljeryd Improved spectral translation/folding in the subband domain
CN100431355C (zh) * 2000-08-16 2008-11-05 多尔拜实验特许公司 响应补充信息修改音频或视频感知编码系统的一个或多个参数
US7003467B1 (en) 2000-10-06 2006-02-21 Digital Theater Systems, Inc. Method of decoding two-channel matrix encoded audio to reconstruct multichannel audio
SE0004163D0 (sv) 2000-11-14 2000-11-14 Coding Technologies Sweden Ab Enhancing perceptual performance of high frequency reconstruction coding methods by adaptive filtering
US20020128839A1 (en) 2001-01-12 2002-09-12 Ulf Lindgren Speech bandwidth extension
US20040054525A1 (en) 2001-01-22 2004-03-18 Hiroshi Sekiguchi Encoding method and decoding method for digital voice data
JP2002268693A (ja) 2001-03-12 2002-09-20 Mitsubishi Electric Corp オーディオ符号化装置
SE522553C2 (sv) 2001-04-23 2004-02-17 Ericsson Telefon Ab L M Bandbreddsutsträckning av akustiska signaler
US6934676B2 (en) 2001-05-11 2005-08-23 Nokia Mobile Phones Ltd. Method and system for inter-channel signal redundancy removal in perceptual audio coding
SE0202159D0 (sv) 2001-07-10 2002-07-09 Coding Technologies Sweden Ab Efficientand scalable parametric stereo coding for low bitrate applications
JP2003108197A (ja) * 2001-07-13 2003-04-11 Matsushita Electric Ind Co Ltd オーディオ信号復号化装置およびオーディオ信号符号化装置
DE60230856D1 (de) * 2001-07-13 2009-03-05 Panasonic Corp Audiosignaldecodierungseinrichtung und audiosignalcodierungseinrichtung
DE60220307T2 (de) * 2001-10-25 2008-02-07 Koninklijke Philips Electronics N.V. Verfahren zur übertragung breitbandiger tonsignale über einen übertragungskanal mit verminderter bandbreite
JP3923783B2 (ja) * 2001-11-02 2007-06-06 松下電器産業株式会社 符号化装置及び復号化装置
JP4308229B2 (ja) 2001-11-14 2009-08-05 パナソニック株式会社 符号化装置および復号化装置
AU2002352182A1 (en) * 2001-11-29 2003-06-10 Coding Technologies Ab Methods for improving high frequency reconstruction
US7240001B2 (en) 2001-12-14 2007-07-03 Microsoft Corporation Quality improvement techniques in an audio encoder
US6934677B2 (en) 2001-12-14 2005-08-23 Microsoft Corporation Quantization matrices based on critical band pattern information for digital audio wherein quantization bands differ from critical bands
US7146313B2 (en) 2001-12-14 2006-12-05 Microsoft Corporation Techniques for measurement of perceptual audio quality
US7206740B2 (en) * 2002-01-04 2007-04-17 Broadcom Corporation Efficient excitation quantization in noise feedback coding with general noise shaping
DE60323331D1 (de) 2002-01-30 2008-10-16 Matsushita Electric Ind Co Ltd Verfahren und vorrichtung zur audio-kodierung und -dekodierung
US20030187663A1 (en) * 2002-03-28 2003-10-02 Truman Michael Mead Broadband frequency translation for high frequency regeneration
RU2316154C2 (ru) 2002-04-10 2008-01-27 Конинклейке Филипс Электроникс Н.В. Кодирование стереофонических сигналов
US20030220800A1 (en) * 2002-05-21 2003-11-27 Budnikov Dmitry N. Coding multichannel audio signals
US7447631B2 (en) 2002-06-17 2008-11-04 Dolby Laboratories Licensing Corporation Audio coding system using spectral hole filling
CN1659927A (zh) * 2002-06-12 2005-08-24 伊科泰克公司 房间内扬声器声音的数字均衡方法及其使用
KR100462615B1 (ko) * 2002-07-11 2004-12-20 삼성전자주식회사 적은 계산량으로 고주파수 성분을 복원하는 오디오 디코딩방법 및 장치
US7502743B2 (en) * 2002-09-04 2009-03-10 Microsoft Corporation Multi-channel audio encoding and decoding with multi-channel transform selection
DE20321883U1 (de) 2002-09-04 2012-01-20 Microsoft Corp. Computervorrichtung und -system zum Entropiedecodieren quantisierter Transformationskoeffizienten eines Blockes
US7299190B2 (en) * 2002-09-04 2007-11-20 Microsoft Corporation Quantization and inverse quantization for audio
US7318027B2 (en) 2003-02-06 2008-01-08 Dolby Laboratories Licensing Corporation Conversion of synthesized spectral components for encoding and low-complexity transcoding
FR2852172A1 (fr) * 2003-03-04 2004-09-10 France Telecom Procede et dispositif de reconstruction spectrale d'un signal audio
RU2244386C2 (ru) 2003-03-28 2005-01-10 Корпорация "Самсунг Электроникс" Способ восстановления высокочастотной составляющей аудиосигнала и устройство для его реализации
CN1774957A (zh) 2003-04-17 2006-05-17 皇家飞利浦电子股份有限公司 音频信号生成
US7318035B2 (en) * 2003-05-08 2008-01-08 Dolby Laboratories Licensing Corporation Audio coding systems and methods using spectral component coupling and spectral component regeneration
US20050004793A1 (en) 2003-07-03 2005-01-06 Pasi Ojala Signal adaptation for higher band coding in a codec utilizing band split coding
EP1667109A4 (en) * 2003-09-17 2007-10-03 Beijing E World Technology Co METHOD AND DEVICE FOR QUANTIFYING MULTI-RESOLUTION VECTOR FOR AUDIO CODING AND DECODING
US7447317B2 (en) 2003-10-02 2008-11-04 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V Compatible multi-channel coding/decoding by weighting the downmix channel
DE10345995B4 (de) 2003-10-02 2005-07-07 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Verarbeiten eines Signals mit einer Sequenz von diskreten Werten
DE10345996A1 (de) * 2003-10-02 2005-04-28 Fraunhofer Ges Forschung Vorrichtung und Verfahren zum Verarbeiten von wenigstens zwei Eingangswerten
RU2374703C2 (ru) 2003-10-30 2009-11-27 Конинклейке Филипс Электроникс Н.В. Кодирование или декодирование аудиосигнала
US7460990B2 (en) * 2004-01-23 2008-12-02 Microsoft Corporation Efficient coding of digital media spectral data using wide-sense perceptual similarity
DE102004007191B3 (de) * 2004-02-13 2005-09-01 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audiocodierung
DE102004007200B3 (de) * 2004-02-13 2005-08-11 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audiocodierung
DE102004007184B3 (de) 2004-02-13 2005-09-22 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und Vorrichtung zum Quantisieren eines Informationssignals
CA2457988A1 (en) * 2004-02-18 2005-08-18 Voiceage Corporation Methods and devices for audio compression based on acelp/tcx coding and multi-rate lattice vector quantization
DE602005022641D1 (de) 2004-03-01 2010-09-09 Dolby Lab Licensing Corp Mehrkanal-Audiodekodierung
US7739119B2 (en) 2004-03-02 2010-06-15 Ittiam Systems (P) Ltd. Technique for implementing Huffman decoding
US7272567B2 (en) * 2004-03-25 2007-09-18 Zoran Fejzo Scalable lossless audio codec and authoring tool
CN1677491A (zh) * 2004-04-01 2005-10-05 北京宫羽数字技术有限责任公司 一种增强音频编解码装置及方法
CN1677492A (zh) * 2004-04-01 2005-10-05 北京宫羽数字技术有限责任公司 一种增强音频编解码装置及方法
EP1852851A1 (en) * 2004-04-01 2007-11-07 Beijing Media Works Co., Ltd An enhanced audio encoding/decoding device and method
CN1677493A (zh) * 2004-04-01 2005-10-05 北京宫羽数字技术有限责任公司 一种增强音频编解码装置及方法
RU2382419C2 (ru) * 2004-04-05 2010-02-20 Конинклейке Филипс Электроникс Н.В. Многоканальный кодер
US7668711B2 (en) 2004-04-23 2010-02-23 Panasonic Corporation Coding equipment
KR20070009644A (ko) * 2004-04-27 2007-01-18 마츠시타 덴끼 산교 가부시키가이샤 스케일러블 부호화 장치, 스케일러블 복호화 장치 및 그방법
DE102004021403A1 (de) * 2004-04-30 2005-11-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Informationssignalverarbeitung durch Modifikation in der Spektral-/Modulationsspektralbereichsdarstellung
ATE394774T1 (de) * 2004-05-19 2008-05-15 Matsushita Electric Ind Co Ltd Kodierungs-, dekodierungsvorrichtung und methode dafür
US7649988B2 (en) 2004-06-15 2010-01-19 Acoustic Technologies, Inc. Comfort noise generator using modified Doblinger noise estimate
WO2006003891A1 (ja) * 2004-07-02 2006-01-12 Matsushita Electric Industrial Co., Ltd. 音声信号復号化装置及び音声信号符号化装置
US7465389B2 (en) 2004-07-09 2008-12-16 Exxonmobil Research And Engineering Company Production of extra-heavy lube oils from Fischer-Tropsch wax
US6963405B1 (en) 2004-07-19 2005-11-08 Itt Manufacturing Enterprises, Inc. Laser counter-measure using fourier transform imaging spectrometers
KR100608062B1 (ko) * 2004-08-04 2006-08-02 삼성전자주식회사 오디오 데이터의 고주파수 복원 방법 및 그 장치
TWI497485B (zh) 2004-08-25 2015-08-21 Dolby Lab Licensing Corp 用以重塑經合成輸出音訊信號之時域包絡以更接近輸入音訊信號之時域包絡的方法
EP1798724B1 (en) 2004-11-05 2014-06-18 Panasonic Corporation Encoder, decoder, encoding method, and decoding method
US7983904B2 (en) * 2004-11-05 2011-07-19 Panasonic Corporation Scalable decoding apparatus and scalable encoding apparatus
KR100721537B1 (ko) * 2004-12-08 2007-05-23 한국전자통신연구원 광대역 음성 부호화기의 고대역 음성 부호화 장치 및 그방법
WO2006062202A1 (ja) * 2004-12-10 2006-06-15 Matsushita Electric Industrial Co., Ltd. 広帯域符号化装置、広帯域lsp予測装置、帯域スケーラブル符号化装置及び広帯域符号化方法
KR100707174B1 (ko) * 2004-12-31 2007-04-13 삼성전자주식회사 광대역 음성 부호화 및 복호화 시스템에서 고대역 음성부호화 및 복호화 장치와 그 방법
US20070147518A1 (en) * 2005-02-18 2007-06-28 Bruno Bessette Methods and devices for low-frequency emphasis during audio compression based on ACELP/TCX
ES2350494T3 (es) * 2005-04-01 2011-01-24 Qualcomm Incorporated Procedimiento y aparatos para codificar y decodificar una parte de banda alta de una señal de habla.
NZ562188A (en) 2005-04-01 2010-05-28 Qualcomm Inc Methods and apparatus for encoding and decoding an highband portion of a speech signal
US7983922B2 (en) 2005-04-15 2011-07-19 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus and method for generating multi-channel synthesizer control signal and apparatus and method for multi-channel synthesizing
DE602006004959D1 (de) * 2005-04-15 2009-03-12 Dolby Sweden Ab Zeitliche hüllkurvenformgebung von entkorrelierten signalen
US8892448B2 (en) * 2005-04-22 2014-11-18 Qualcomm Incorporated Systems, methods, and apparatus for gain factor smoothing
US7698143B2 (en) 2005-05-17 2010-04-13 Mitsubishi Electric Research Laboratories, Inc. Constructing broad-band acoustic signals from lower-band acoustic signals
JP2006323037A (ja) * 2005-05-18 2006-11-30 Matsushita Electric Ind Co Ltd オーディオ信号復号化装置
EP1899959A2 (en) 2005-05-26 2008-03-19 LG Electronics Inc. Method of encoding and decoding an audio signal
US8315863B2 (en) * 2005-06-17 2012-11-20 Panasonic Corporation Post filter, decoder, and post filtering method
US7548853B2 (en) * 2005-06-17 2009-06-16 Shmunk Dmitry V Scalable compressed audio bit stream and codec using a hierarchical filterbank and multichannel joint coding
US8082157B2 (en) 2005-06-30 2011-12-20 Lg Electronics Inc. Apparatus for encoding and decoding audio signal and method thereof
US8032368B2 (en) * 2005-07-11 2011-10-04 Lg Electronics Inc. Apparatus and method of encoding and decoding audio signals using hierarchical block swithcing and linear prediction coding
US7539612B2 (en) * 2005-07-15 2009-05-26 Microsoft Corporation Coding and decoding scale factor information
KR100803205B1 (ko) 2005-07-15 2008-02-14 삼성전자주식회사 저비트율 오디오 신호 부호화/복호화 방법 및 장치
CN100539437C (zh) 2005-07-29 2009-09-09 上海杰得微电子有限公司 一种音频编解码器的实现方法
JP4640020B2 (ja) 2005-07-29 2011-03-02 ソニー株式会社 音声符号化装置及び方法、並びに音声復号装置及び方法
EP1938663A4 (en) 2005-08-30 2010-11-17 Lg Electronics Inc DEVICE FOR ENCODING AND DECODING AUDIO SIGNAL AND CORRESPONDING METHOD
US7974713B2 (en) 2005-10-12 2011-07-05 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Temporal and spatial shaping of multi-channel audio signals
KR100866885B1 (ko) * 2005-10-20 2008-11-04 엘지전자 주식회사 멀티채널 오디오 신호의 부호화 및 복호화 방법과 그 장치
US8620644B2 (en) 2005-10-26 2013-12-31 Qualcomm Incorporated Encoder-assisted frame loss concealment techniques for audio coding
KR20070046752A (ko) * 2005-10-31 2007-05-03 엘지전자 주식회사 신호 처리 방법 및 장치
US7720677B2 (en) * 2005-11-03 2010-05-18 Coding Technologies Ab Time warped modified transform coding of audio signals
KR100717058B1 (ko) * 2005-11-28 2007-05-14 삼성전자주식회사 고주파 성분 복원 방법 및 그 장치
US8255207B2 (en) 2005-12-28 2012-08-28 Voiceage Corporation Method and device for efficient frame erasure concealment in speech codecs
US7831434B2 (en) 2006-01-20 2010-11-09 Microsoft Corporation Complex-transform channel coding with extended-band frequency coding
KR100959971B1 (ko) * 2006-01-27 2010-05-27 돌비 스웨덴 에이비 복소 변조된 필터뱅크를 이용한 효율적인 필터링
EP1852848A1 (en) * 2006-05-05 2007-11-07 Deutsche Thomson-Brandt GmbH Method and apparatus for lossless encoding of a source signal using a lossy encoded data stream and a lossless extension data stream
KR20070115637A (ko) * 2006-06-03 2007-12-06 삼성전자주식회사 대역폭 확장 부호화 및 복호화 방법 및 장치
US8682652B2 (en) * 2006-06-30 2014-03-25 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Audio encoder, audio decoder and audio processor having a dynamically variable warping characteristic
US7873511B2 (en) * 2006-06-30 2011-01-18 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Audio encoder, audio decoder and audio processor having a dynamically variable warping characteristic
EP2337224B1 (en) * 2006-07-04 2017-06-21 Dolby International AB Filter unit and method for generating subband filter impulse responses
US9454974B2 (en) * 2006-07-31 2016-09-27 Qualcomm Incorporated Systems, methods, and apparatus for gain factor limiting
US8260609B2 (en) * 2006-07-31 2012-09-04 Qualcomm Incorporated Systems, methods, and apparatus for wideband encoding and decoding of inactive frames
US8135047B2 (en) 2006-07-31 2012-03-13 Qualcomm Incorporated Systems and methods for including an identifier with a packet associated with a speech signal
JP2010503881A (ja) 2006-09-13 2010-02-04 テレフオンアクチーボラゲット エル エム エリクソン(パブル) 音声・音響送信器及び受信器のための方法及び装置
DE602007013415D1 (de) * 2006-10-16 2011-05-05 Dolby Sweden Ab Erweiterte codierung und parameterrepräsentation einer mehrkanaligen heruntergemischten objektcodierung
RU2420815C2 (ru) 2006-10-25 2011-06-10 Фраунхофер-Гезелльшафт Цур Фердерунг Дер Ангевандтен Форшунг Е.Ф. Устройство и способ для генерации значений подполос звукового сигнала и устройство и способ для генерации отсчетов звукового сигнала во временной области
US20080243518A1 (en) * 2006-11-16 2008-10-02 Alexey Oraevsky System And Method For Compressing And Reconstructing Audio Files
US8170359B2 (en) 2006-11-28 2012-05-01 Panasonic Corporation Encoding device and encoding method
WO2008072524A1 (ja) 2006-12-13 2008-06-19 Panasonic Corporation オーディオ信号符号化方法及び復号化方法
US8200351B2 (en) 2007-01-05 2012-06-12 STMicroelectronics Asia PTE., Ltd. Low power downmix energy equalization in parametric stereo encoders
TR201906713T4 (tr) * 2007-01-10 2019-05-21 Koninklijke Philips Nv Audio kod çözücü.
US20080208538A1 (en) 2007-02-26 2008-08-28 Qualcomm Incorporated Systems, methods, and apparatus for signal separation
US20080208575A1 (en) * 2007-02-27 2008-08-28 Nokia Corporation Split-band encoding and decoding of an audio signal
JP5294713B2 (ja) 2007-03-02 2013-09-18 パナソニック株式会社 符号化装置、復号装置およびそれらの方法
KR101355376B1 (ko) 2007-04-30 2014-01-23 삼성전자주식회사 고주파수 영역 부호화 및 복호화 방법 및 장치
KR101411900B1 (ko) 2007-05-08 2014-06-26 삼성전자주식회사 오디오 신호의 부호화 및 복호화 방법 및 장치
CN101067931B (zh) * 2007-05-10 2011-04-20 芯晟(北京)科技有限公司 一种高效可配置的频域参数立体声及多声道编解码方法与系统
RU2422922C1 (ru) * 2007-06-08 2011-06-27 Долби Лэборетериз Лайсенсинг Корпорейшн Гибридное извлечение аудиоканалов объемного звука посредством управляемого объединения компонент сигналов окружения и компонент матрично-декодируемых сигналов
US7774205B2 (en) 2007-06-15 2010-08-10 Microsoft Corporation Coding of sparse digital media spectral data
CN101325059B (zh) * 2007-06-15 2011-12-21 华为技术有限公司 语音编解码收发方法及装置
US7885819B2 (en) 2007-06-29 2011-02-08 Microsoft Corporation Bitstream syntax for multi-process audio decoding
US8428957B2 (en) * 2007-08-24 2013-04-23 Qualcomm Incorporated Spectral noise shaping in audio coding based on spectral dynamics in frequency sub-bands
CN101809657B (zh) 2007-08-27 2012-05-30 爱立信电话股份有限公司 用于噪声填充的方法和设备
MX2010001394A (es) * 2007-08-27 2010-03-10 Ericsson Telefon Ab L M Frecuencia de transicion adaptiva entre llenado de ruido y extension de anchura de banda.
DE102007048973B4 (de) * 2007-10-12 2010-11-18 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Erzeugen eines Multikanalsignals mit einer Sprachsignalverarbeitung
US8527265B2 (en) 2007-10-22 2013-09-03 Qualcomm Incorporated Low-complexity encoding/decoding of quantized MDCT spectrum in scalable speech and audio codecs
KR101373004B1 (ko) * 2007-10-30 2014-03-26 삼성전자주식회사 고주파수 신호 부호화 및 복호화 장치 및 방법
US9177569B2 (en) * 2007-10-30 2015-11-03 Samsung Electronics Co., Ltd. Apparatus, medium and method to encode and decode high frequency signal
EP2207166B1 (en) * 2007-11-02 2013-06-19 Huawei Technologies Co., Ltd. An audio decoding method and device
EP2218068A4 (en) 2007-11-21 2010-11-24 Lg Electronics Inc METHOD AND APPARATUS FOR SIGNAL PROCESSING
US8688441B2 (en) * 2007-11-29 2014-04-01 Motorola Mobility Llc Method and apparatus to facilitate provision and use of an energy value to determine a spectral envelope shape for out-of-signal bandwidth content
CN101933086B (zh) * 2007-12-31 2013-06-19 Lg电子株式会社 处理音频信号的方法和设备
ATE500588T1 (de) * 2008-01-04 2011-03-15 Dolby Sweden Ab Audiokodierer und -dekodierer
US20090180531A1 (en) 2008-01-07 2009-07-16 Radlive Ltd. codec with plc capabilities
KR101413967B1 (ko) 2008-01-29 2014-07-01 삼성전자주식회사 오디오 신호의 부호화 방법 및 복호화 방법, 및 그에 대한 기록 매체, 오디오 신호의 부호화 장치 및 복호화 장치
ES2401817T3 (es) 2008-01-31 2013-04-24 Agency For Science, Technology And Research Procedimiento y dispositivo de distribución/truncado de la velocidad de transmisión de bits para codificación de audio escalable
BRPI0907508B1 (pt) * 2008-02-14 2020-09-15 Dolby Laboratories Licensing Corporation Método, sistema e método para modificar uma entrada estéreo que inclui sinais de entrada esquerdo e direito
AU2009221444B2 (en) * 2008-03-04 2012-06-14 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Mixing of input data streams and generation of an output data stream therefrom
EP2252996A4 (en) * 2008-03-05 2012-01-11 Voiceage Corp SYSTEM AND METHOD FOR ENHANCING A DECODED TONAL SIGNAL SIGNAL
EP3273442B1 (en) 2008-03-20 2021-10-20 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for synthesizing a parameterized representation of an audio signal
KR20090110244A (ko) * 2008-04-17 2009-10-21 삼성전자주식회사 오디오 시맨틱 정보를 이용한 오디오 신호의 부호화/복호화 방법 및 그 장치
WO2009135532A1 (en) 2008-05-09 2009-11-12 Nokia Corporation An apparatus
US20090319263A1 (en) 2008-06-20 2009-12-24 Qualcomm Incorporated Coding of transitional speech frames for low-bit-rate applications
EP2144171B1 (en) * 2008-07-11 2018-05-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoder and decoder for encoding and decoding frames of a sampled audio signal
MY178597A (en) 2008-07-11 2020-10-16 Fraunhofer Ges Forschung Audio encoder, audio decoder, methods for encoding and decoding an audio signal, and a computer program
EP2346030B1 (en) * 2008-07-11 2014-10-01 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoder, method for encoding an audio signal and computer program
RU2536679C2 (ru) * 2008-07-11 2014-12-27 Фраунхофер-Гезелльшафт цур Фёрдерунг дер ангевандтен Передатчик сигнала активации с деформацией по времени, кодер звукового сигнала, способ преобразования сигнала активации с деформацией по времени, способ кодирования звукового сигнала и компьютерные программы
JP5010743B2 (ja) 2008-07-11 2012-08-29 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン スペクトル傾斜で制御されたフレーミングを使用して帯域拡張データを計算するための装置及び方法
MY155538A (en) 2008-07-11 2015-10-30 Fraunhofer Ges Forschung An apparatus and a method for generating bandwidth extension output data
EP2144230A1 (en) 2008-07-11 2010-01-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Low bitrate audio encoding/decoding scheme having cascaded switches
BR122021007798B1 (pt) * 2008-07-11 2021-10-26 Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E. V. Codificador de áudio e decodificador de áudio
AU2009267525B2 (en) * 2008-07-11 2012-12-20 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Audio signal synthesizer and audio signal encoder
EP2154911A1 (en) 2008-08-13 2010-02-17 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. An apparatus for determining a spatial output multi-channel audio signal
US8463603B2 (en) 2008-09-06 2013-06-11 Huawei Technologies Co., Ltd. Spectral envelope coding of energy attack signal
US8532983B2 (en) 2008-09-06 2013-09-10 Huawei Technologies Co., Ltd. Adaptive frequency prediction for encoding or decoding an audio signal
WO2010031049A1 (en) 2008-09-15 2010-03-18 GH Innovation, Inc. Improving celp post-processing for music signals
JP5295372B2 (ja) * 2008-09-17 2013-09-18 フランス・テレコム デジタルオーディオ信号におけるプリエコーの減衰
EP2224433B1 (en) * 2008-09-25 2020-05-27 Lg Electronics Inc. An apparatus for processing an audio signal and method thereof
US9947340B2 (en) * 2008-12-10 2018-04-17 Skype Regeneration of wideband speech
EP4231294B1 (en) 2008-12-15 2023-11-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio bandwidth extension decoder
EP2360687A4 (en) * 2008-12-19 2012-07-11 Fujitsu Ltd VOICE BAND EXTENSION DEVICE AND VOICE BAND EXTENSION METHOD
CA3231911A1 (en) 2009-01-16 2010-07-22 Dolby International Ab Cross product enhanced harmonic transposition
JP4977157B2 (ja) 2009-03-06 2012-07-18 株式会社エヌ・ティ・ティ・ドコモ 音信号符号化方法、音信号復号方法、符号化装置、復号装置、音信号処理システム、音信号符号化プログラム、及び、音信号復号プログラム
KR101367604B1 (ko) * 2009-03-17 2014-02-26 돌비 인터네셔널 에이비 적응형으로 선택가능한 좌/우 또는 미드/사이드 스테레오 코딩과 파라메트릭 스테레오 코딩의 조합에 기초한 진보된 스테레오 코딩
EP2239732A1 (en) 2009-04-09 2010-10-13 Fraunhofer-Gesellschaft zur Förderung der Angewandten Forschung e.V. Apparatus and method for generating a synthesis audio signal and for encoding an audio signal
JP4932917B2 (ja) * 2009-04-03 2012-05-16 株式会社エヌ・ティ・ティ・ドコモ 音声復号装置、音声復号方法、及び音声復号プログラム
CN101521014B (zh) * 2009-04-08 2011-09-14 武汉大学 音频带宽扩展编解码装置
US8391212B2 (en) * 2009-05-05 2013-03-05 Huawei Technologies Co., Ltd. System and method for frequency domain audio post-processing based on perceptual masking
EP2249333B1 (en) * 2009-05-06 2014-08-27 Nuance Communications, Inc. Method and apparatus for estimating a fundamental frequency of a speech signal
CN101556799B (zh) 2009-05-14 2013-08-28 华为技术有限公司 一种音频解码方法和音频解码器
TWI643187B (zh) * 2009-05-27 2018-12-01 瑞典商杜比國際公司 從訊號的低頻成份產生該訊號之高頻成份的系統與方法,及其機上盒、電腦程式產品、軟體程式及儲存媒體
CN101609680B (zh) * 2009-06-01 2012-01-04 华为技术有限公司 压缩编码和解码的方法、编码器和解码器以及编码装置
PL2273493T3 (pl) 2009-06-29 2013-07-31 Fraunhofer Ges Forschung Kodowanie i dekodowanie z rozszerzaniem szerokości pasma
EP2452323B1 (en) 2009-07-07 2018-03-14 Xtralis Technologies Ltd Chamber condition
US8793617B2 (en) * 2009-07-30 2014-07-29 Microsoft Corporation Integrating transport modes into a communication stream
US9031834B2 (en) 2009-09-04 2015-05-12 Nuance Communications, Inc. Speech enhancement techniques on the power spectrum
GB2473267A (en) 2009-09-07 2011-03-09 Nokia Corp Processing audio signals to reduce noise
RU2591661C2 (ru) * 2009-10-08 2016-07-20 Фраунхофер-Гезелльшафт цур Фёрдерунг дер ангевандтен Форшунг Е.Ф. Многорежимный декодировщик аудио сигнала, многорежимный кодировщик аудио сигналов, способы и компьютерные программы с использованием кодирования с линейным предсказанием на основе ограничения шума
KR101137652B1 (ko) * 2009-10-14 2012-04-23 광운대학교 산학협력단 천이 구간에 기초하여 윈도우의 오버랩 영역을 조절하는 통합 음성/오디오 부호화/복호화 장치 및 방법
MX2012004593A (es) 2009-10-20 2012-06-08 Fraunhofer Ges Forschung Codec multimodo de audio y codificacion de celp adaptada a este.
MY166169A (en) 2009-10-20 2018-06-07 Fraunhofer Ges Forschung Audio signal encoder,audio signal decoder,method for encoding or decoding an audio signal using an aliasing-cancellation
ES2906085T3 (es) * 2009-10-21 2022-04-13 Dolby Int Ab Sobremuestreo en un banco de filtros de reemisor combinado
US8484020B2 (en) * 2009-10-23 2013-07-09 Qualcomm Incorporated Determining an upperband signal from a narrowband signal
US8856011B2 (en) 2009-11-19 2014-10-07 Telefonaktiebolaget L M Ericsson (Publ) Excitation signal bandwidth extension
CN102081927B (zh) 2009-11-27 2012-07-18 中兴通讯股份有限公司 一种可分层音频编码、解码方法及系统
CA2779453C (en) 2009-12-07 2015-12-22 Dolby Laboratories Licensing Corporation Decoding of multichannel audio encoded bit streams using adaptive hybrid transformation
KR101764926B1 (ko) 2009-12-10 2017-08-03 삼성전자주식회사 음향 통신을 위한 장치 및 방법
AU2010332925B2 (en) * 2009-12-16 2013-07-11 Dolby International Ab SBR bitstream parameter downmix
EP2357649B1 (en) * 2010-01-21 2012-12-19 Electronics and Telecommunications Research Institute Method and apparatus for decoding audio signal
CN102194457B (zh) * 2010-03-02 2013-02-27 中兴通讯股份有限公司 音频编解码方法、系统及噪声水平估计方法
CN103038819B (zh) * 2010-03-09 2015-02-18 弗兰霍菲尔运输应用研究公司 用以使用补丁边界对准处理输入音频信号的装置及方法
EP2369861B1 (en) 2010-03-25 2016-07-27 Nxp B.V. Multi-channel audio signal processing
DK2556504T3 (en) * 2010-04-09 2019-02-25 Dolby Int Ab MDCT-BASED COMPLEX PREVIEW Stereo Encoding
EP2375409A1 (en) 2010-04-09 2011-10-12 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoder, audio decoder and related methods for processing multi-channel audio signals using complex prediction
AU2011240239B2 (en) 2010-04-13 2014-06-26 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Audio or video encoder, audio or video decoder and related methods for processing multi-channel audio or video signals using a variable prediction direction
US8886523B2 (en) 2010-04-14 2014-11-11 Huawei Technologies Co., Ltd. Audio decoding based on audio class with control code for post-processing modes
CN102947882B (zh) 2010-04-16 2015-06-17 弗劳恩霍夫应用研究促进协会 使用制导带宽扩展和盲带宽扩展生成宽带信号的装置、方法
US8600737B2 (en) 2010-06-01 2013-12-03 Qualcomm Incorporated Systems, methods, apparatus, and computer program products for wideband speech coding
WO2011155170A1 (ja) 2010-06-09 2011-12-15 パナソニック株式会社 帯域拡張方法、帯域拡張装置、プログラム、集積回路およびオーディオ復号装置
US9047875B2 (en) 2010-07-19 2015-06-02 Futurewei Technologies, Inc. Spectrum flatness control for bandwidth extension
US9236063B2 (en) * 2010-07-30 2016-01-12 Qualcomm Incorporated Systems, methods, apparatus, and computer-readable media for dynamic bit allocation
JP6075743B2 (ja) 2010-08-03 2017-02-08 ソニー株式会社 信号処理装置および方法、並びにプログラム
US8489403B1 (en) 2010-08-25 2013-07-16 Foundation For Research and Technology—Institute of Computer Science ‘FORTH-ICS’ Apparatuses, methods and systems for sparse sinusoidal audio processing and transmission
KR101826331B1 (ko) 2010-09-15 2018-03-22 삼성전자주식회사 고주파수 대역폭 확장을 위한 부호화/복호화 장치 및 방법
AR085895A1 (es) * 2011-02-14 2013-11-06 Fraunhofer Ges Forschung Generacion de ruido en codecs de audio
EP2702589B1 (en) 2011-04-28 2017-04-05 Dolby International AB Efficient content classification and loudness estimation
WO2012158705A1 (en) 2011-05-19 2012-11-22 Dolby Laboratories Licensing Corporation Adaptive audio processing based on forensic detection of media processing history
WO2012158333A1 (en) 2011-05-19 2012-11-22 Dolby Laboratories Licensing Corporation Forensic detection of parametric audio coding schemes
DE102011106033A1 (de) * 2011-06-30 2013-01-03 Zte Corporation Verfahren und System zur Audiocodierung und -decodierung und Verfahren zur Schätzung des Rauschpegels
US20130006644A1 (en) 2011-06-30 2013-01-03 Zte Corporation Method and device for spectral band replication, and method and system for audio decoding
JP6001657B2 (ja) 2011-06-30 2016-10-05 サムスン エレクトロニクス カンパニー リミテッド 帯域幅拡張信号生成装置及びその方法
JP6037156B2 (ja) * 2011-08-24 2016-11-30 ソニー株式会社 符号化装置および方法、並びにプログラム
JP5942358B2 (ja) 2011-08-24 2016-06-29 ソニー株式会社 符号化装置および方法、復号装置および方法、並びにプログラム
KR20130022549A (ko) 2011-08-25 2013-03-07 삼성전자주식회사 마이크 노이즈 제거 방법 및 이를 지원하는 휴대 단말기
US9384749B2 (en) 2011-09-09 2016-07-05 Panasonic Intellectual Property Corporation Of America Encoding device, decoding device, encoding method and decoding method
BR112014007481A2 (pt) 2011-09-29 2017-04-04 Dolby Int Ab detecção de alta qualidade em sinais de rádio fm estéreo
EP3321931B1 (en) * 2011-10-28 2019-12-04 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Encoding apparatus and encoding method
EP3279895B1 (en) * 2011-11-02 2019-07-10 Telefonaktiebolaget LM Ericsson (publ) Audio encoding based on an efficient representation of auto-regressive coefficients
JP6069341B2 (ja) * 2011-11-30 2017-02-01 ドルビー・インターナショナル・アーベー オーディオ・コーデックからの向上したクロマ抽出のための方法、エンコーダ、デコーダ、ソフトウェア・プログラム、記憶媒体
JP5817499B2 (ja) * 2011-12-15 2015-11-18 富士通株式会社 復号装置、符号化装置、符号化復号システム、復号方法、符号化方法、復号プログラム、及び符号化プログラム
CN103165136A (zh) * 2011-12-15 2013-06-19 杜比实验室特许公司 音频处理方法及音频处理设备
US9390721B2 (en) 2012-01-20 2016-07-12 Panasonic Intellectual Property Corporation Of America Speech decoding device and speech decoding method
KR101398189B1 (ko) 2012-03-27 2014-05-22 광주과학기술원 음성수신장치 및 음성수신방법
CN104221082B (zh) * 2012-03-29 2017-03-08 瑞典爱立信有限公司 谐波音频信号的带宽扩展
KR20140130248A (ko) * 2012-03-29 2014-11-07 텔레폰악티에볼라겟엘엠에릭슨(펍) 하모닉 오디오 신호의 변환 인코딩/디코딩
CN102750955B (zh) * 2012-07-20 2014-06-18 中国科学院自动化研究所 基于残差信号频谱重构的声码器
US9589570B2 (en) 2012-09-18 2017-03-07 Huawei Technologies Co., Ltd. Audio classification based on perceptual quality for low or medium bit rates
EP2903004A4 (en) 2012-09-24 2016-11-16 Samsung Electronics Co Ltd METHOD AND APPARATUS FOR HAMPERING FRAME ERRORS, AND METHOD AND APPARATUS FOR DECODING AUDIO DATA
US9129600B2 (en) 2012-09-26 2015-09-08 Google Technology Holdings LLC Method and apparatus for encoding an audio signal
US9135920B2 (en) 2012-11-26 2015-09-15 Harman International Industries, Incorporated System for perceived enhancement and restoration of compressed audio signals
PL3054446T3 (pl) 2013-01-29 2024-02-19 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Koder audio, dekoder audio, sposób dostarczania kodowanej informacji audio, sposób dostarczania zdekodowanej informacji audio, program komputerowy i kodowana reprezentacja, stosujące adaptacyjne względem sygnału rozszerzenie szerokości pasma
EP2830065A1 (en) 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for decoding an encoded audio signal using a cross-over filter around a transition frequency
EP2830055A1 (en) 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Context-based entropy coding of sample values of a spectral envelope
EP2980795A1 (en) 2014-07-28 2016-02-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoding and decoding using a frequency domain processor, a time domain processor and a cross processor for initialization of the time domain processor

Also Published As

Publication number Publication date
WO2015010952A9 (en) 2017-10-26
US10147430B2 (en) 2018-12-04
PT3025328T (pt) 2018-11-27
EP3025337A1 (en) 2016-06-01
MY187943A (en) 2021-10-30
WO2015010947A1 (en) 2015-01-29
TWI541797B (zh) 2016-07-11
BR112015007533A2 (es) 2017-08-22
EP3025337B1 (en) 2021-12-08
ES2959641T3 (es) 2024-02-27
AU2014295298A1 (en) 2016-03-10
EP2830059A1 (en) 2015-01-28
WO2015010949A1 (en) 2015-01-29
KR20160034975A (ko) 2016-03-30
CN110310659B (zh) 2023-10-24
MX355448B (es) 2018-04-18
ES2667221T3 (es) 2018-05-10
US20190074019A1 (en) 2019-03-07
CN105518776B (zh) 2019-06-14
US20150287417A1 (en) 2015-10-08
JP6568566B2 (ja) 2019-08-28
US20180102134A1 (en) 2018-04-12
JP6321797B2 (ja) 2018-05-09
KR20160030193A (ko) 2016-03-16
MX353999B (es) 2018-02-07
BR112016000740A2 (pt) 2017-08-22
AU2014295300B2 (en) 2017-05-25
PL3506260T3 (pl) 2024-02-19
SG11201502691QA (en) 2015-05-28
CN105453175B (zh) 2020-11-03
TW201517024A (zh) 2015-05-01
WO2015010948A1 (en) 2015-01-29
CN111554310A (zh) 2020-08-18
KR101774795B1 (ko) 2017-09-05
AU2014295298B2 (en) 2017-05-25
CN105453176B (zh) 2019-08-23
JP6400702B2 (ja) 2018-10-03
US11769513B2 (en) 2023-09-26
MY184847A (en) 2021-04-27
RU2640634C2 (ru) 2018-01-10
JP6306702B2 (ja) 2018-04-04
EP2883227A1 (en) 2015-06-17
BR112016001072B1 (pt) 2022-07-12
HK1211378A1 (en) 2016-05-20
RU2016105619A (ru) 2017-08-23
CN110660410A (zh) 2020-01-07
EP2883227B1 (en) 2016-08-17
SG11201600506VA (en) 2016-02-26
RU2016105759A (ru) 2017-08-25
CA2918810C (en) 2020-04-28
EP3025340B1 (en) 2019-03-27
AU2014295296B2 (en) 2017-10-19
BR112016001125A2 (es) 2017-08-22
BR122022011238B1 (pt) 2023-12-19
BR122022010960B1 (pt) 2023-04-04
CA2918807A1 (en) 2015-01-29
US10847167B2 (en) 2020-11-24
TR201816157T4 (tr) 2018-11-21
PT3407350T (pt) 2020-10-27
US20190043522A1 (en) 2019-02-07
PT3017448T (pt) 2020-10-08
BR112016001072A2 (es) 2017-08-22
EP3025340A1 (en) 2016-06-01
US20220270619A1 (en) 2022-08-25
EP3506260B1 (en) 2023-08-16
JP6389254B2 (ja) 2018-09-12
AU2014295297B2 (en) 2017-05-25
US20160133265A1 (en) 2016-05-12
EP3017448B1 (en) 2020-07-08
AU2014295300A1 (en) 2016-03-10
ES2813940T3 (es) 2021-03-25
EP2830063A1 (en) 2015-01-28
US11922956B2 (en) 2024-03-05
EP2830064A1 (en) 2015-01-28
US11250862B2 (en) 2022-02-15
US10332539B2 (en) 2019-06-25
RU2635890C2 (ru) 2017-11-16
RU2651229C2 (ru) 2018-04-18
TW201523589A (zh) 2015-06-16
MX356161B (es) 2018-05-16
CA2973841A1 (en) 2015-01-29
RU2649940C2 (ru) 2018-04-05
US20210295853A1 (en) 2021-09-23
KR20160046804A (ko) 2016-04-29
JP2016530556A (ja) 2016-09-29
BR112015007533B1 (pt) 2022-09-27
EP3506260A1 (en) 2019-07-03
US10276183B2 (en) 2019-04-30
US20220139407A1 (en) 2022-05-05
US20200082841A1 (en) 2020-03-12
EP2830061A1 (en) 2015-01-28
MX2016000940A (es) 2016-04-25
CN104769671A (zh) 2015-07-08
EP3025344B1 (en) 2017-06-21
BR112016000740B1 (pt) 2022-12-27
CN110310659A (zh) 2019-10-08
AU2014295295B2 (en) 2017-10-19
ES2827774T3 (es) 2021-05-24
US20160140973A1 (en) 2016-05-19
EP3742444A1 (en) 2020-11-25
CN105580075B (zh) 2020-02-07
CA2918807C (en) 2019-05-07
WO2015010952A1 (en) 2015-01-29
ZA201601046B (en) 2017-05-31
EP3407350A1 (en) 2018-11-28
JP6186082B2 (ja) 2017-08-23
PL3017448T3 (pl) 2020-12-28
KR20150060752A (ko) 2015-06-03
EP3025343B1 (en) 2018-02-14
WO2015010950A1 (en) 2015-01-29
US20160210974A1 (en) 2016-07-21
WO2015010953A1 (en) 2015-01-29
CA2918804A1 (en) 2015-01-29
KR101764723B1 (ko) 2017-08-14
PT3025343T (pt) 2018-05-18
BR122022010958B1 (pt) 2024-01-30
US20230352032A1 (en) 2023-11-02
TWI555009B (zh) 2016-10-21
US20220157325A1 (en) 2022-05-19
SG11201600496XA (en) 2016-02-26
US10593345B2 (en) 2020-03-17
WO2015010954A1 (en) 2015-01-29
US10002621B2 (en) 2018-06-19
RU2016105618A (ru) 2017-08-28
ES2698023T3 (es) 2019-01-30
PL3407350T3 (pl) 2020-12-28
US10134404B2 (en) 2018-11-20
MY182831A (en) 2021-02-05
RU2016105610A (ru) 2017-08-25
US20160140980A1 (en) 2016-05-19
JP2022123060A (ja) 2022-08-23
US10311892B2 (en) 2019-06-04
CA2918835A1 (en) 2015-01-29
US20160140981A1 (en) 2016-05-19
SG11201600494UA (en) 2016-02-26
CA2918701C (en) 2020-04-14
US10515652B2 (en) 2019-12-24
US10332531B2 (en) 2019-06-25
BR122022011231B1 (pt) 2024-01-30
TWI545561B (zh) 2016-08-11
MX354002B (es) 2018-02-07
CA2886505A1 (en) 2015-01-29
US20170154631A1 (en) 2017-06-01
EP3025328A1 (en) 2016-06-01
KR20160042890A (ko) 2016-04-20
PT2883227T (pt) 2016-11-18
CA2973841C (en) 2019-08-20
EP3975180A1 (en) 2022-03-30
US11222643B2 (en) 2022-01-11
US11049506B2 (en) 2021-06-29
KR101826723B1 (ko) 2018-03-22
CA2918701A1 (en) 2015-01-29
CA2918524A1 (en) 2015-01-29
KR20160024924A (ko) 2016-03-07
JP2016529545A (ja) 2016-09-23
EP4246512A3 (en) 2023-12-13
JP7092809B2 (ja) 2022-06-28
SG11201600401RA (en) 2016-02-26
CN112466312A (zh) 2021-03-09
EP3025344A1 (en) 2016-06-01
RU2016105613A (ru) 2017-08-28
JP2016527557A (ja) 2016-09-08
EP2830065A1 (en) 2015-01-28
PL3025343T3 (pl) 2018-10-31
BR112016001125B1 (pt) 2022-01-04
ZA201601010B (en) 2017-11-29
KR101681253B1 (ko) 2016-12-01
PL3025337T3 (pl) 2022-04-11
TW201517023A (zh) 2015-05-01
CA2918524C (en) 2018-05-22
TW201513098A (zh) 2015-04-01
CN111554310B (zh) 2023-10-20
MY180759A (en) 2020-12-08
EP3025328B1 (en) 2018-08-01
TW201514974A (zh) 2015-04-16
ZA201601111B (en) 2017-08-30
AU2014295301B2 (en) 2017-05-25
US20190198029A1 (en) 2019-06-27
ZA201502262B (en) 2016-09-28
MX2016000935A (es) 2016-07-05
US20160140979A1 (en) 2016-05-19
BR112016000947B1 (pt) 2022-06-21
CN111179963A (zh) 2020-05-19
MX2016000943A (es) 2016-07-05
US11289104B2 (en) 2022-03-29
MX2016000854A (es) 2016-06-23
US20210217426A1 (en) 2021-07-15
RU2643641C2 (ru) 2018-02-02
US20190251986A1 (en) 2019-08-15
MX2015004022A (es) 2015-07-06
PT3025340T (pt) 2019-06-27
US11769512B2 (en) 2023-09-26
CA2886505C (en) 2017-10-31
EP3017448A1 (en) 2016-05-11
US20180144760A1 (en) 2018-05-24
MX354657B (es) 2018-03-14
AU2014295302B2 (en) 2016-06-30
EP2830056A1 (en) 2015-01-28
KR101822032B1 (ko) 2018-03-08
CN105453175A (zh) 2016-03-30
US11735192B2 (en) 2023-08-22
RU2646316C2 (ru) 2018-03-02
EP2830054A1 (en) 2015-01-28
CN105518776A (zh) 2016-04-20
KR20160041940A (ko) 2016-04-18
AU2014295296A1 (en) 2016-03-10
TWI555008B (zh) 2016-10-21
US20190371355A1 (en) 2019-12-05
BR112016000852A2 (pt) 2017-08-22
JP2018077487A (ja) 2018-05-17
RU2016105473A (ru) 2017-08-23
JP6705787B2 (ja) 2020-06-03
CN105518777B (zh) 2020-01-31
EP3025343A1 (en) 2016-06-01
CN110660410B (zh) 2023-10-24
JP2015535620A (ja) 2015-12-14
JP6144773B2 (ja) 2017-06-07
JP2016527556A (ja) 2016-09-08
AU2014295297A1 (en) 2016-03-10
SG11201600464WA (en) 2016-02-26
CN105580075A (zh) 2016-05-11
US20180268842A1 (en) 2018-09-20
ES2728329T3 (es) 2019-10-23
BR122022010965B1 (pt) 2023-04-04
CN105518777A (zh) 2016-04-20
CA2918835C (en) 2018-06-26
EP4246512A2 (en) 2023-09-20
CA2918804C (en) 2018-06-12
RU2015112591A (ru) 2016-10-27
PL2883227T3 (pl) 2017-03-31
MX2016000924A (es) 2016-05-05
AU2014295295A1 (en) 2016-03-10
MX340575B (es) 2016-07-13
JP2018041100A (ja) 2018-03-15
TW201523590A (zh) 2015-06-16
MX362036B (es) 2019-01-04
TW201517019A (zh) 2015-05-01
EP3407350B1 (en) 2020-07-29
JP2016525713A (ja) 2016-08-25
CN104769671B (zh) 2017-09-26
US20210065723A1 (en) 2021-03-04
US10573334B2 (en) 2020-02-25
ES2638498T3 (es) 2017-10-23
ES2599007T3 (es) 2017-01-31
PL3025340T3 (pl) 2019-09-30
CN105453176A (zh) 2016-03-30
JP6691093B2 (ja) 2020-04-28
ZA201601011B (en) 2017-05-31
KR101807836B1 (ko) 2018-01-18
MX2016000857A (es) 2016-05-05
PL3025328T3 (pl) 2019-02-28
BR112016000852B1 (pt) 2021-12-28
AU2014295302A1 (en) 2015-04-02
EP3506260C0 (en) 2023-08-16
US10984805B2 (en) 2021-04-20
JP2020060792A (ja) 2020-04-16
RU2607263C2 (ru) 2017-01-10
BR112016000947A2 (es) 2017-08-22
CA2918810A1 (en) 2015-01-29
JP2016529546A (ja) 2016-09-23
KR101809592B1 (ko) 2018-01-18
CN105556603A (zh) 2016-05-04
JP2018013796A (ja) 2018-01-25
CN105556603B (zh) 2019-08-27
MY175978A (en) 2020-07-19
PT3025337T (pt) 2022-02-23
AU2014295301A1 (en) 2016-03-10
EP3723091A1 (en) 2020-10-14
TWI545560B (zh) 2016-08-11
TWI549121B (zh) 2016-09-11
TWI545558B (zh) 2016-08-11
SG11201600422SA (en) 2016-02-26
US11257505B2 (en) 2022-02-22
US10347274B2 (en) 2019-07-09
JP6310074B2 (ja) 2018-04-11

Similar Documents

Publication Publication Date Title
ES2908624T3 (es) Aparato y procedimiento para codificar y decodificar una señal de audio con relleno inteligente de espacios en el dominio espectral
BR112016001398B1 (pt) Aparelho e método para decodificação e codificação de um sinal de áudio utilizando seleção de porção espectral adaptativa