ES2924427T3 - Decodificador para generar una señal de audio mejorada en frecuencia, procedimiento de decodificación, codificador para generar una señal codificada y procedimiento de codificación que utiliza información lateral de selección compacta - Google Patents

Decodificador para generar una señal de audio mejorada en frecuencia, procedimiento de decodificación, codificador para generar una señal codificada y procedimiento de codificación que utiliza información lateral de selección compacta Download PDF

Info

Publication number
ES2924427T3
ES2924427T3 ES17158862T ES17158862T ES2924427T3 ES 2924427 T3 ES2924427 T3 ES 2924427T3 ES 17158862 T ES17158862 T ES 17158862T ES 17158862 T ES17158862 T ES 17158862T ES 2924427 T3 ES2924427 T3 ES 2924427T3
Authority
ES
Spain
Prior art keywords
signal
parametric representation
side information
information
parametric
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES17158862T
Other languages
English (en)
Inventor
Frederik Nagel
Sascha Disch
Andreas Niedermeier
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Original Assignee
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV filed Critical Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Application granted granted Critical
Publication of ES2924427T3 publication Critical patent/ES2924427T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/26Pre-filtering or post-filtering
    • G10L19/265Pre-filtering, e.g. high frequency emphasis prior to encoding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/038Speech enhancement, e.g. noise reduction or echo cancellation using band spreading techniques
    • G10L21/0388Details of processing therefor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/002Dynamic bit allocation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/69Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for evaluating synthetic or decoded voice signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Stereophonic System (AREA)
  • Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)

Abstract

Un decodificador para generar una señal de audio de frecuencia mejorada (120), comprende: un extractor de características (104) para extraer una característica de una señal central (100); un extractor de información lateral (110) para extraer una información lateral de selección asociada con la señal central; un generador de parámetros (108) para generar una representación paramétrica para estimar un rango espectral de la señal de audio de frecuencia mejorada (120) no definida por la señal central (100), donde el generador de parámetros (108) está configurado para proporcionar una serie de parámetros paramétricos alternativas de representación (702, 704, 706, 708) en respuesta a la característica (112), y en el que el generador de parámetros (108) está configurado para seleccionar una de las alternativas de representación paramétrica como la representación paramétrica en respuesta a la información del lado de selección (712 a 718); y un estimador de señal (118) para estimar la señal de audio de frecuencia mejorada (120) utilizando la representación paramétrica seleccionada. (Traducción automática con Google Translate, sin valor legal)

Description

DESCRIPCIÓN
Decodificador para generar una señal de audio mejorada en frecuencia, procedimiento de decodificación, codificador para generar una señal codificada y procedimiento de codificación que utiliza información lateral de selección compacta
Memoria descriptiva
[0001] La presente invención se refiere a la codificación de audio y, en particular, a la codificación de audio en el contexto de la mejora de la frecuencia, es decir que la señal de salida de un decodificador tenga un número mayor de bandas de frecuencia en comparación con una señal codificada. Tales procedimientos comprenden la extensión del ancho de banda, la replicación espectral o el relleno inteligente de espacios vacíos.
[0002] Los sistemas contemporáneos de codificación de voz tienen capacidad para codificar el contenido de audio digital de banda ancha (WB), es decir, señales con frecuencias de hasta 7 u 8 kHz, a tasas de bits de tan solo 6 kbit/s. Los ejemplos más ampliamente difundidos son las recomendaciones de ITU-T G.722.2 [1], así como las desarrolladas más recientemente G.718 [4, 10] y MPEG-D de Codificación Unificada de Voz y Audio (USAC) [8]. Tanto G.722.2, que también se conoce como a Mr-WB, como G.718 emplean técnicas de extensión de ancho de banda (BWE) entre 6,4 y 7 kHz para permitir que el codificador de núcleo ACELP subyacente se “enfoque” en las frecuencias más bajas perceptualmente más relevantes (especialmente aquellas en las cuales el sistema auditivo humano es sensible a las fases) y de esa manera se obtenga una calidad perceptual suficiente especialmente a tasas de bits muy bajas. En el perfil de Codificación de Audio Avanzada de Alta Eficiencia Extendida (xHE-AAC) de USAC, se utiliza la replicación espectral mejorada de banda (de SBR) para extender el ancho de banda de audio más allá del ancho de banda del codificador de núcleo que por lo general es inferior a 6 kHz a 16 kbit/s. Los procesos BWE del estado actual de la técnica se pueden dividir en general en dos estrategias conceptuales:
• BWE ciega o artificial, en la cual se reconstruyen los componentes de alta frecuencia (HF) a partir solamente de la señal de baja frecuencia (LF) del codificador de núcleo decodificada, es decir sin necesidad de transmisión de información lateral desde el codificador. Este esquema es utilizado por AMR-WB y G.718 a 16 kbt/s y menos, así como por algunos post-procesadores de BWE compatibles con los anteriores que operan en la voz telefónica de banda estrecha tradicional [5, 9, 12] (Ejemplo: figura 15).
• BWE Guiada, que difiere de la BWE ciega en que algunos de los parámetros empleados para la reconstrucción del contenido de HF se transmiten al decodificador en forma de información lateral en lugar de ser deducidos de la señal de núcleo decodificada. AMR-WB, G.718, xHE- AAC, así como otros códecs [2, 7, 11] utilizan esta estrategia, aunque no a tasas de transmisión muy bajas (figura 16).
[0003] La Fig. 15 ilustra tal extensión de ancho de banda ciega o artificial descrita en la publicación Bernd Geiser, Peter Jax, and Peter Vary: "ROBUST WIDEBAND ENHANCEMENT OF SPEECH BY COMBINED CODING AND ARTIFICIAL EXTENSIÓN DE ANCHO DE BANDA", Proceedings of International Workshop on Acoustic Echo and Noise Control (IWAENC), 2005. El algoritmo de extensión de ancho de banda autónomo ilustrado en la Fig.15 comprende un procedimiento de interpolación 1500, un filtro de análisis 1600, una extensión de excitación 1700, un filtro de síntesis 1800, un procedimiento de extracción de características 1510, un procedimiento de estimación de la envolvente 1520 y un modelo estadístico 1530. Después de una interpolación de la señal de banda estrecha a una tasa de muestreo de banda ancha, se calcula un vector de característica. A continuación, mediante un modelo oculto de Markov previamente entrenado (HMM), se determina un cálculo estimativo de la envolvente espectral de banda ancha en términos de coeficientes de predicción lineal (LP). Estos coeficientes de banda ancha son utilizados para el filtrado de análisis de la señal de banda estrecha interpolada. Después de la extensión de la excitación así producida se aplica un filtro de síntesis inverso. La elección de una extensión de excitación que no altera la banda estrecha es transparente con respecto a los componentes de banda estrecha.
[0004] La Fig. 16 ilustra una extensión de ancho de banda con información lateral de acuerdo con lo descrito en la publicación antes citada, donde la extensión de ancho de banda comprende un paso banda telefónico 1620, un bloque de extracción de información lateral 1610, un codificador (conjunto) 1630, un decodificador 1640 y un bloque de extensión de ancho de banda 1650. En la Fig. 16 se ilustra este sistema para mejorar el ancho de banda de una señal de voz de banda con errores mediante la combinación de codificación y extensión de ancho de banda. En la terminal de transmisión, se analiza la envolvente espectral de banda alta de la señal de entrada de banda ancha y se determina la información lateral. El mensaje así obtenido m se codifica por separado o conjuntamente con la señal de voz de banda estrecha. En el receptor, se utiliza la información lateral del decodificador para sustentar el cálculo de la envolvente de banda ancha dentro del algoritmo de extensión de ancho de banda. El mensaje m se obtiene por varios procedimientos. Se extrae una representación espectral de frecuencias de 3,4 kHz a 7 kHz de la señal de banda ancha disponible solo del lado del envío.
[0005] Esta envolvente de subbanda se computa por predicción lineal selectiva, es decir, el cómputo del espectro de potencia de la banda ancha seguida por una IOFT de sus componentes de banda superior y la posterior recursión de Levinson-Durbin de orden 8. Los coeficientes de LPC de subbanda así obtenidos se convierten al dominio cepstral y por último son cuantificados por un cuantificador de vectores con un tamaño de libreo de códigos de M = 2N. En el caso de una longitud de trama de 20 ms, esto da lugar a una tasa de datos de información lateral de 300 bit/s. Una estrategia de cálculo estimativo combinado extiende el cálculo de las probabilidades a posteriori y reintroduce las dependencias de la característica de banda estrecha. De esa manera se obtiene una forma mejorada de ocultamiento de errores que utiliza más de una fuente de información para su estimación de parámetros.
[0006] Se puede observar un cierto dilema de calidad en los códecs de WB a bajas tasas de bits, típicamente por debajo de 10 kbit/s. Por un lado, esas tasas ya son demasiado bajas para justificar la transmisión incluso de cantidades moderadas de datos de BWE, excluyendo los sistemas típicos de BWE guiada con 1 kbit/s o más de información lateral. Por otro lado, se encuentra que una BWE ciega factible suena considerablemente peor en algunos tipos de materiales de voz o música debido a la incapacidad de predicción correcta de los parámetros desde la señal de núcleo. Esto es así especialmente con respecto a cierto sonido vocal con fricativos con baja correlación entre HF y LF. Por lo tanto, es conveniente reducir la tasa de información lateral de un esquema de BWE guiada a un nivel muy inferior a 1 kbit/s, lo que permitiría la adopción de una codificación a tasas de bits muy bajas.
[0007] En los últimos años se han documentados múltiples estrategias de BWE [1-10]. En general, todas estas son completamente ciegas o completamente guiadas en un punto operativo dado, independientemente de las características instantáneas de la señal de entrada. Además, muchos sistemas de BWE ciega [1, 3, 4, 5, 9, 10] se optimizan especialmente para señales de voz en lugar de música y, por lo tanto, pueden producir resultados no satisfactorios para la música. Por último, la mayoría de las realizaciones de BWE son relativamente complejas desde el punto de vista informático, y emplean transformadas de Fourier, cómputos de filtros LPC o cuantificación de vectores de la información lateral (Codificación por Vectores Predictivos en MPEG-D USAC [8]). Esto puede ser una desventaja en la adopción de nueva tecnología de codificación en los mercados de telecomunicaciones móviles, dado que la mayoría de los dispositivos móviles ofrecen una limitadísima potencia informática y capacidad de la batería.
[0008] Una estrategia que extiende la BWE ciega mediante una pequeña formación lateral es la presentada en [12] e ilustrada en la Fig. 16. Sin embargo, la información lateral "m" se limita a la transmisión de una envolvente espectral del intervalo de frecuencias del ancho de banda extendido.
[0009] Un problema adicional del procedimiento ilustrado en la Fig. 16 es la manera muy complicada de estimar la envolvente mediante el uso de la característica de banda baja por un lado y la información lateral adicional de la envolvente por el otro. Ambas entradas, es decir, la característica de banda baja y la envolvente adicional de banda alta influyen sobre el modelo estadístico. Esto da lugar a una implementación complicada del lado del decodificador que es particularmente problemática para los dispositivos móviles debido al mayor consumo de energía. Por añadidura, el modelo estadístico es aún más difícil de actualizar debido al hecho de que no es influenciado por los datos adicionales de envolvente de banda alta.
[00010] Otros ejemplos de extensiones de ancho de banda se describen en el documento de patente EP 2239732 A1 y en P. Bauer at al., "A statistical framework for artificial band-width extension and phonetic transcription", EUSIPCO 2009, 28. Aug. 2009.
[00011] Es un objetivo de la presente invención proporcionar un concepto mejorado de codificación/ decodificación de audio.
[00012] Este objetivo se obtiene por medio de un decodificador según la reivindicación 1, un codificador según la reivindicación 12, un procedimiento para generar una señal de audio mejorada en frecuencia según la reivindicación 14, un procedimiento de generación de una señal codificada según la reivindicación 15, un programa informático según la reivindicación 16. La presente invención se basa en el hallazgo de que para reducir aún más la cantidad de información lateral y, además, para poder lograr que un codificador/decodificador en su conjunto no sea demasiado complejo, se debe reemplazar, o al menos mejorar, la codificación paramétrica de una porción de banda alta de la técnica anterior por información lateral de selección que se relaciona, en realidad, con el modelo estadístico utilizado junto con un extractor de características en un decodificador de mejora de la frecuencia. Debido a que la extracción de características en combinación con un modelo estadístico proporciona alternativas de representación paramétrica que presentan ambigüedades específicamente en el caso de ciertas porciones de voz, se ha encontrado que el control verdadero del modelo estadístico dentro de un generador de parámetros del lado del decodificador, cuál de las alternativas propuestas sería la mejor, es superior a la codificación paramétrica real de una determinada característica de la señal específicamente en aplicaciones de muy baja tasa de bits, donde la información lateral correspondiente a la extensión de ancho de banda es limitada.
[00013] De esa manera se mejora una BWE ciega, que aprovecha un modelo de origen de la señal codificada, mediante extensión con poca información lateral adicional, en particular si la señal en sí no da lugar a la reconstrucción del contenido de HF en un nivel aceptable de calidad perceptual. Por lo tanto, el procedimiento combina los parámetros del modelo de origen, que se generan en el contenido codificado del codificador de núcleo, mediante información extra. Esto es ventajoso, especialmente para mejorar la calidad perceptual de los sonidos difíciles de codificar dentro de un modelo de origen. Tales sonidos exhiben, por lo general, una baja correlación entre el contenido de HF y LF.
[00014] La presente invención aborda los problemas de la BWE convencional en la codificación de audio de muy baja tasa de bits y las falencias de las técnicas de BWE existentes en el estado actual de la técnica. Se presenta una solución al problema antes planteado al proponer una BWE mínimamente guiada como combinación adaptativa a la señal de una BWE ciega y una guiada. La BWE de la invención agrega cierta información lateral a la señal, lo que da lugar a una mayor discriminación de los sonidos codificados de otro modo problemáticos. En la codificación de voz, esto se aplica especialmente a los sibilantes o fricativos.
[00015] Se ha encontrado que, en los códecs de WB, la envolvente espectral de la región de HF por encima de la región del codificador de núcleo representa los datos más críticos necesarios para ejecutar la BWE con calidad perceptual aceptable. Todos los demás parámetros como, por ejemplo, la estructura fina espectral y la envolvente temporal, pueden ser derivados, con frecuencia, de la señal de núcleo decodificada de forma bastante precisa o son de poca importancia perceptual. Los fricativos, sin embargo, a menudo carecen de una reproducción correcta en la señal de bWe . Por lo tanto, la información lateral puede incluir información adicional que distingue entre sibilantes o fricativos tales como "f, "s", "ch" y "sh".
[00016] Otra información acústica problemática para la extensión de ancho de banda, cuando se producen plosivos o africadas tales como "t" o "tsch".
[00017] La presente invención permite utilizar solo esta información lateral y transmitir, en realidad, esta información lateral cuando es necesario y no transmitir esta información lateral, cuando no hay una ambigüedad estimada en el modelo estadístico.
[00018] Además, las formas de realización preferidas de la presente invención solo hacen uso de una cantidad muy pequeña de información lateral como, por ejemplo, tres o menos bits por trama, una detección de actividad de voz/detección de voz o no voz combinadas para controlar un estimador de señales, diferentes modelos estadísticos determinados por un clasificador de señales o alternativas de representación paramétrica no solo en referencia a una estimación de la envolvente sino también en referencia a otras herramientas de extensión de ancho de banda o la mejora de los parámetros de extensión de ancho de banda o la adición de nuevos parámetros a los ya existentes y los parámetros de extensión de ancho de banda transmitidos en realidad.
[00019] Seguidamente se describen las formas de realización preferidas de la presente invención en el contexto de los dibujos que la acompañan y también se exponen en las reivindicaciones dependientes.
Fig. 1 ilustra un decodificador para generar una señal de audio mejorada en frecuencia;
Fig. 2 ilustra una implementación preferida en el contexto del extractor de información lateral de la Fig. 1;
Fig. 3 ilustra una tabla que relaciona con un número de bits de la información lateral de selección con el número de alternativas de representación paramétrica;
Fig. 4 ilustra un procedimiento preferido ejecutado en el generador de parámetros;
Fig. 5 ilustra una implementación preferida del estimador de señales controlado por un detector de actividad de voz o un detector de voz/no voz;
Fig. 6 ilustra una implementación preferida del generador de parámetros controlado por un clasificador de señales;
Fig. 7 ilustra un ejemplo correspondiente a un resultado de un modelo estadístico y la información lateral de selección asociada;
Fig. 8 ilustra una señal codificada a modo de ejemplo que comprende una señal de núcleo codificada e información lateral asociada;
Fig. 9 ilustra un esquema de procesamiento de señales de extensión de ancho de banda correspondiente a una mejora de la estimación de envolvente;
Fig. 10 ilustra una implementación adicional de un decodificador en el contexto de procedimientos de replicación de la banda espectral;
Fig. 11 ilustra otra forma de realización de un decodificador en el contexto de información lateral transmitida adicionalmente;
Fig. 12 ilustra una forma de realización de un codificador para generar una señal codificada;
Fig. 13 ilustra una implementación del generador de información lateral de selección de la Fig. 12;
Fig. 14 ilustra una implementación adicional del generador de información lateral de selección de la Fig. 12; Fig. 15 ilustra un algoritmo de extensión de ancho de banda autónomo de la técnica anterior; y
Fig. 16 ilustra un panorama general de un sistema de transmisión con un mensaje de adición.
[00020] La Fig. 1 ilustra un decodificador para generar una señal de audio mejorada en frecuencia 120. El decodificador comprende un extractor de características 104 para extraer (al menos) una característica de una señal de núcleo 100. En general, el extractor de características puede extraer una característica única o una pluralidad de características, es decir, dos o más características, y es aún más preferible que el extractor de características extraiga una pluralidad de características. Esto se aplica no solo al extractor de características incluido en el decodificador sino también al extractor de características del codificador.
[00021] Además, se incluye un extractor de información lateral 110 para extraer una información lateral de selección 114 asociada a la señal de núcleo 100. Por añadidura, hay un generador de parámetros 108 conectado al extractor de características 104 a través de una línea de transmisión de características 112 y al extractor de información lateral 110 a través de la información lateral de selección 114. El generador de parámetros 108 está configurado para generar una representación paramétrica para estimar un alcance espectral de la señal de audio mejorada en la frecuencia no definida por la señal de núcleo. El generador de parámetros 108 está configurado para presentar un número de alternativas de representación paramétrica en respuesta a las características 112 y para elegir una de las alternativas de representación paramétrica como representación paramétrica en respuesta a la información lateral de selección 114. El decodificador comprende además un estimador de señales 118 para estimar una señal de audio mejorada en frecuencia mediante el uso de la representación paramétrica seleccionada por el selector, es decir, la representación paramétrica 116.
[00022] En particular, el extractor de características 104 puede ser implementado para extraer de la señal de núcleo decodificada de la manera ilustrada en la Fig. 2. A continuación, una interfaz de entrada 110 está configurada para recibir una señal de entrada codificada 200. Esta señal de entrada codificada 200 es introducida en la interfaz 110 y, a continuación, la interfaz de entrada 110 separa la información lateral de selección de la señal de núcleo codificada. De esa manera, la interfaz de entrada 110 opera como extractor de información lateral 110 de la Fig. 1. A continuación se introduce la señal de núcleo codificada 201 emitida por la interfaz de entrada 110 en un decodificador de núcleo 124 para dar origen a una señal de núcleo decodificada que puede ser la señal de núcleo 100.
[00023] Alternativamente, sin embargo, el extractor de características también puede cumplir la función de extraer una característica de la señal de núcleo codificada. Por lo general, la señal de núcleo codificada comprende una representación de factores de escala correspondientes a bandas de frecuencia o cualquier otra representación de información de audio. Dependiendo del tipo de extracción de características, la representación codificada de la señal de audio es representativa de la señal de núcleo decodificada y, por lo tanto, se pueden extraer las características. Alternativa o adicionalmente, se puede extraer una característica no solo de una señal de núcleo totalmente decodificada sino de una señal de núcleo parcialmente decodificada. En la codificación en el dominio de la frecuencia, la señal codificada está representando una representación en el dominio de la frecuencia que comprende una secuencia de tramas espectrales. Por lo tanto, la señal de núcleo codificada puede ser decodificada solo en parte para obtener una representación decodificada de una secuencia de tramas espectrales, antes de efectuar en realidad una conversión de espectro-tiempo. De este modo, el extractor de características 104 puede extraer características de la señal de núcleo codificada o de una señal de núcleo parcialmente decodificada o bien de una señal de núcleo completamente decodificada. El extractor de características 104 puede ser implementado, en lo que respecta a sus características extraídas, de la manera conocida en la técnica y el extractor de características puede ser implementado, por ejemplo, como en las tecnologías de impresiones digitales de audio o ID de audio.
[00024] De preferencia, la información lateral de selección 114 comprende un número N de bits por trama de la señal de núcleo. La Fig. 3. Ilustra una tabla que corresponde a diferentes alternativas. El número de bits correspondiente a la información lateral de selección es fijo o es seleccionado dependiendo del número de alternativas de representación paramétrica proporcionadas por un modelo estadístico en respuesta a una característica extraída. Un bit de información lateral de selección es suficiente cuando el modelo estadístico solo ofrece dos alternativas de representación paramétrica en respuesta a una característica. Cuando el modelo estadístico presenta un número máximo de cuatro alternativas de representación, en ese caso se necesitan dos bits para la información lateral de selección. Tres bits de información lateral de selección permiten un máximo de ocho alternativas de representación paramétrica concurrentes. Cuatro bits de información lateral de selección dan origen en realidad a 16 alternativas de representación paramétrica y cinco bits de información lateral de selección dan origen a 32 alternativas de representación paramétrica concurrentes. Es preferible utilizar solo tres o menos de tres bits de información lateral de selección por trama para dar lugar a una tasa de información lateral de 150 bits por segundo cuando un segundo se divide en 50 tramas. Esta tasa de información lateral se puede reducir incluso debido a que la información lateral de selección solo es necesaria cuando el modelo estadístico ofrece en realidad alternativas de representación. De este modo, cuando el modelo estadístico solo ofrece una única alternativa para una característica, no es necesario en absoluto un bit de información lateral de selección. Por otra parte, cuando el modelo estadístico solo presenta cuatro alternativas de representación paramétrica, en ese caso solo se necesitan dos bits, en lugar de tres bits de información lateral de selección. Por lo tanto, en los casos típicos, la tasa de información lateral adicional se puede reducir incluso a menos de 150 bits por segundo.
[00025] Además, el generador de parámetros está configurado para presentar, a lo sumo, una cantidad de alternativas de representación paramétrica que es igual a 2N. Por otro lado, cuando el generador de parámetros 108 presenta, por ejemplo, solo cinco alternativas de representación paramétrica, de todas maneras se necesitan tres bits de información lateral de selección.
[00026] La Fig. 4 ilustra una implementación preferida del generador de parámetros 108. En particular, el generador de parámetros 108 está configurado de manera que la característica 112 de la Fig. 1 sea introducida en un modelo estadístico de la manera indicada en la etapa 400. A continuación, como se indica en la etapa 402, el modelo presenta una pluralidad de alternativas de representación paramétrica.
[00027] Además, el generador de parámetros 108 está configurado para recobrar la información lateral de selección 114 del extractor de información lateral como se indica en la etapa 404. Seguidamente, en la etapa 406, se selecciona una alternativa específica de representación paramétrica utilizando la información lateral de selección 114. Por último, en la etapa 408, se envía la alternativa de representación paramétrica seleccionada al estimador de señales 118.
[00028] De preferencia, el generador de parámetros 108 está configurado para usar, al seleccionar una de las alternativas de representación paramétrica, un orden predefinido de alternativas de representación paramétrica o, por otro lado, un orden de señales del codificador de las alternativas de representación. Para este fin, se hace referencia a la Fig. 7. La Fig. 7 ilustra un resultado del modelo estadístico que presenta cuatro alternativas de representación paramétrica 702, 704, 706, 708. También se ilustra el código de información lateral de selección correspondiente. La alternativa 702 corresponde al patrón de bits 712. La alternativa 704 corresponde al patrón de bits 714. La alternativa 706 corresponde al patrón de bits 716 y la alternativa 708 corresponde al patrón de bits 718. De esa manera, cuando el generador de parámetros 108 o, por ejemplo, la etapa 402 obtiene las cuatro alternativas 702 a 708 en el orden ilustrado en la Fig. 7, entonces una información lateral de selección que tiene el patrón de bits 716 ha de identificar de manera unívoca la alternativa de representación paramétrica 3 (número de referencia 706) y el generador de parámetros 108 selecciona entonces esta tercera alternativa. Sin embargo, cuando el patrón de bits de la información lateral de selección es el patrón de bits 712, se seleccionaría entonces la primera alternativa 702.
[00029] El orden predefinido de las alternativas de representación paramétrica puede ser, por lo tanto, el orden en el cual el modelo estadístico entrega realmente las alternativas en respuesta a una característica extraída. Por otro lado, si la alternativa individual está asociada a diferentes probabilidades que, de todas maneras, se aproximan bastante entre sí, entonces el orden predefinido podría ser que la representación paramétrica con mayores probabilidades sea la primera y así sucesivamente. De manera alternativa, el orden podría ser señalado, por ejemplo, por un bit único, aunque, para ahorrar incluso este bit, es preferible un orden predefinido.
[00030] A continuación se hace referencia a las Figs. 9 a 11.
[00031] En una forma de realización según la Fig. 9, la invención se adecua particularmente a las señales de voz, ya que se aprovecha un modelo fuente de voz dedicado para la extracción de parámetros. Sin embargo, la invención no se limita a la codificación de voz. Diferentes formas de realización podrían emplear también otros modelos de fuente.
[00032] En particular, la información lateral de selección 114 también se denomina “información de fricativos”, ya que esta información lateral de selección distingue entre sibilantes o fricativos problemáticos tales como "f, "s" o "sh". De este modo, la información lateral de selección ofrece una definición clara de una de tres alternativas problemáticas que son proporcionadas, por ejemplo, por el modelo estadístico 904 en el proceso de la estimación de envolvente 902 que se realiza en el generador de parámetros 108. La estimación de envolvente da lugar a una representación paramétrica de la envolvente espectral de las porciones espectrales no incluidas en la señal de núcleo.
[00033] Por lo tanto, el bloque 104 puede corresponder al bloque 1510 de la Fig. 15. Además, el bloque 1530 de la Fig. 15 puede corresponder al modelo estadístico 904 de la Fig. 9.
[00034] Además, es preferible que el estimador de señales 118 comprenda un filtro de análisis 910, un bloque de extensión de excitación 112 y un filtro de síntesis 940. De este modo, los bloques 910, 912, 914 pueden corresponder a los bloques 1600, 1700 y 1800 de la Fig. 15. En particular, el filtro de análisis 910 es un filtro de análisis de LPC. El bloque de estimación de envolvente 902 controla los coeficientes de filtro del filtro de análisis 910 de manera que el resultado del bloque 910 sea la señal de excitación de filtro. Esta señal de excitación de filtro se extiende con respecto a la frecuencia para obtener una señal de excitación a la salida del bloque 912, que no solo tiene el intervalo de frecuencias del decodificador 120 correspondiente a una señal de salida sino que también tiene la frecuencia o intervalo espectral no definida por el codificador de núcleo y/o que excede el intervalo espectral de la señal de núcleo. De este modo, se sobremuestrea la señal de audio 909 a la salida y es interpolada por un interpolador 900 y, a continuación, se somete a la señal interpolada al proceso ejecutado en el estimador de señales 118. De este modo, el interpolador 900 de la Fig. 9 puede corresponder a interpolador 1500 de la Fig. 15. Sin embargo, es preferible, a diferencia de la Fig. 15, que la extracción de características 104 se lleve a cabo utilizando la señal no interpolada en lugar de la señal interpolada, como se ilustra en la Fig. 15. Esto es ventajoso por el hecho de que el extractor de características 104 opera de manera más eficiente debido a que la señal de audio no interpolada 909 tiene un número menor de muestras en comparación con una determinada porción de tiempo de la señal de audio en comparación con la señal sobremuestreada e interpolada a la salida del bloque 900.
[00035] La Fig. 10 ilustra otra forma de realización de la presente invención. A diferencia de la Fig. 9, la Fig. 10 tiene un modelo estadístico 904 que no solo ofrece una estimación de la envolvente como en la Fig. 9, sino que también presenta representaciones paramétricas adicionales que comprenden información correspondiente a la generación de tonos que faltan 1080 o la información para el filtrado inverso 1040 o la información sobre un ruido de fondo 1020 que se va a añadir. Los bloques 1020, 1040, los procedimientos de generación de envolvente espectral 1060 y tonos que faltan 1080 han sido descritos por la norma MPEG-4 en el contexto de HE-AAC (del inglés, Codificación de Audio Avanzada de Alta Eficiencia).
[00036] De este modo, también se pueden codificar otras señales diferentes de la voz, como se ilustra en la Fig. 10. En ese caso, podría no ser suficiente para codificar la envolvente espectral 1060 solamente, sino también más información lateral tal como la tonalidad (1040), el nivel de ruido (1020) o sinusoides que faltan (1080) como se efectúa en la tecnología de replicación de la banda espectral (SBR) lustrada en [6].
[00037] En la Fig. 11 se ilustra otra forma de realización, en la que se utiliza la información lateral 114, es decir, la información lateral de selección además de la información lateral de SBR ilustrada en 1100. De este modo, la información lateral de selección que comprende, por ejemplo, información con respecto a los sonidos de voz detectados se suma a la información lateral de SBR 1100 existente anteriormente. Esto ayuda a regenerar con más precisión el contenido de alta frecuencia correspondiente a los sonidos de voz tales como sibilantes, incluyendo fricativos, plosivos o vocales. De este modo, el procedimiento ilustrado en la Fig. 11 tiene la ventaja de que la información lateral de selección 114 transmitida adicionalmente sustenta una clasificación del lado del decodificador (fonema) a fin de producir una adaptación del lado del decodificador de los parámetros de SBR o BWE (extensión de ancho de banda). De este modo, a diferencia de la Fig. 10, la realización de la Fig. 11 proporciona, además de la información lateral de selección, la información lateral SBR que ya existía.
[00038] La Fig. 8 ilustra una representación ejemplar de la señal de entrada codificada. La señal de entrada codificada consiste en las tramas subsiguientes 800, 806, 812. Cada trama tiene la señal de núcleo codificada. A título de ejemplo, la trama 800 tiene voz como señal de núcleo codificada. La trama 806 tiene música como señal de núcleo codificada y la trama 812 tiene, de nuevo, voz como señal de núcleo codificada. La trama 800 tiene como información lateral, por ejemplo, solo la información lateral de selección y no información lateral de SBR. De este modo, la trama 800 corresponde a la Fig. 9 o a la Fig. 10. A título de ejemplo, la trama 806 comprende información SBR pero no contiene información lateral de selección. Además, la trama 812 comprende una señal de voz codificada y, a diferencia de la trama 800, la trama 812 no contiene ninguna información lateral de selección. Esto se debe a que la información lateral de selección no es necesaria, ya que no se han encontrado ambigüedades en el proceso de extracción de características/ modelo estadístico del lado del codificador.
[00039] A continuación se describe la Fig. 5. Se emplea un detector de actividad de voz o un detector de voz/no voz 500 que opera en la señal de núcleo a fin de decidir si se debe emplear la tecnología de mejora del ancho de banda o la frecuencia o una tecnología diferente de extensión de ancho de banda. De este modo, cuando el detector de actividad de voz o el detector de voz/no voz detecta voz o habla, en ese caso se utiliza una primera tecnología de extensión de ancho de banda BWEXT.1 ilustrada en 511 que funciona, por ejemplo, como se describe en las Figs. 1, 9, 10, 11. De este modo, los conmutadores 502, 504 están configurados de tal manera que se toman los parámetros obtenidos del generador de parámetros de la entrada 512 y el conmutador 504 conecta estos parámetros con el bloque 511. Sin embargo, el detector 500 detecta una situación en que no se muestra ninguna señal de voz sino que muestra señales de música, en ese caso se introducen preferentemente los parámetros de extensión de ancho de banda 514 del flujo de bits en el procedimiento de la otra tecnología de extensión de ancho de banda 513. De este modo, el detector 500 detecta si se debe emplear o no la tecnología de extensión de ancho de banda 511 de la invención. En el caso de las señales de no voz, el codificador puede conmutar a las otras técnicas de extensión de ancho de banda ilustradas por el bloque 513, tal como se ha mencionado en [6, 8]. De este modo, el estimador de señales 118 de la Fig. 5 está configurado para conmutar a un procedimiento diferente de extensión de ancho de banda y/o al uso de diferentes parámetros extraídos de una señal codificada, cuando el detector 500 detecta una actividad que no es de voz o una señal que no es de voz humana. Para esta tecnología de extensión de ancho de banda 513 diferente, es preferible que la información lateral de selección no esté presente en el flujo de bits y tampoco se utiliza, lo que está simbolizado en la Fig. 5 por la activación del conmutador 502 ante la entrada 514.
[00040] La Fig. 6 ilustra una implementación adicional del generador de parámetros 108. El generador de parámetros 108 tiene preferentemente una pluralidad de modelos estadísticos tal como un primer modelo estadístico 600 y un segundo modelo estadístico 602. Además, se incluye un selector 604 que es controlado por la información lateral de selección para aportar la correcta alternativa de representación paramétrica. La opción de qué modelo estadístico se activa es controlada por un clasificador de señales adicional 606 que recibe, como entrada, la señal de núcleo, es decir, la misma señal introducida en el extractor de características 104. De este modo, el modelo estadístico de la Fig. 10 o de cualquier otra figura puede variar con el contenido codificado. En el caso de la voz, se emplea un modelo estadístico que representa un modelo fuente de producción de voz, mientras que para otras señales, tales como señales de música como, por ejemplo, las clasificadas por el clasificador de señales 606 se utiliza un modelo diferente que se entrena según una gran serie de datos musicales. Hay otros modelos estadísticos útiles asimismo para diferentes idiomas, etc.
[00041] Como se ha tratado anteriormente, la Fig. 7 ilustra la pluralidad de alternativas obtenidas por un modelo estadístico tal como el modelo estadístico 600. Por lo tanto, la salida del bloque 600 es, por ejemplo, para diferentes alternativas, como se ilustra en la línea paralela 605. Del mismo modo, el segundo modelo estadístico 602 puede emitir también una pluralidad de alternativas tales como las alternativas ilustradas en la línea 606. Dependiendo del modelo estadístico específico, es preferible que solo se emitan como salida las alternativas con elevada probabilidad con respecto al extractor de características 104. De este modo, un modelo estadístico presenta, en respuesta a una característica, una pluralidad de representaciones paramétricas alternativas, donde cada representación paramétrica alternativa tiene una probabilidad que es idéntica a las probabilidades de otras representaciones paramétricas alternativas o que es diferente de las probabilidades de las otras representaciones paramétricas alternativas en menos del 10 %. De este modo, en una forma de realización, solo la representación paramétrica con la probabilidad más elevada y un número de otras representaciones paramétricas alternativas, todas las cuales tienen una probabilidad que es solo un 10 % menor que la probabilidad de la mejor alternativa con mejor coincidencia.
[00042] La Fig. 12 ilustra un codificador para generar una señal codificada 1212. El codificador comprende un codificador de núcleo 1200 para codificar una señal original 1206 para obtener una señal de audio del núcleo codificada 1208 que tiene información sobre un número más pequeño de bandas de frecuencia en comparación con la señal original 1206. Además, se incluye un generador de información lateral de selección 1202 para generar información lateral de selección 1210 (s Si - información lateral de selección). La información lateral de selección 1210 indica una representación paramétrica alternativa definida proporcionada por un modelo estadístico en respuesta a una característica extraída de la señal original 1206 o de la señal de audio codificada 1208 o de una versión decodificada de la señal de audio codificada. Además, el codificador comprende una interfaz de salida 1204 para emitir la señal codificada 1212. La señal codificada 1212 comprende la señal de audio codificada 1208 y la información lateral de selección 1210. De preferencia, el generador de información lateral de selección 1202 está implementado de la manera ilustrada en la Fig. 13. Para este fin, el generador de información lateral de selección 1202 comprende un decodificador de núcleo 1300. Se incluye el extractor de características 1302 que opera en la señal de núcleo decodificada emitida por el bloque 1300. Se introduce la característica en un procesador de modelos estadísticos 1304 para generar un número de alternativas de representación paramétrica a fin de estimar un alcance espectral de una señal mejorada en frecuencia no definida por la señal de núcleo decodificada emitida por el bloque 1300. Todas estas alternativas de representación paramétrica 1305 son introducidas en un estimador de señales 1306 para estimar una señal de audio mejorada en frecuencia 1307. A continuación se introducen todas estas señales de audio mejoradas en frecuencia 1307 en un comparador 1308 para comparar las señales de audio mejoradas en la frecuencia 1307 con la señal original 1206 de la Fig. 12. El generador de información lateral de selección 1202 está configurado además para establecer la información lateral de selección 1210 de manera que la información lateral de selección defina de manera unívoca la representación paramétrica alternativa que da origen a una señal de audio mejorada en frecuencia que mejor coincide con la señal original según un criterio de optimización. El criterio de optimización puede ser un criterio basado en MMSE (mínimo error cuadrático medio), un criterio que minimiza la diferencia por muestra o preferentemente un criterio psico-acústico que minimiza la distorsión percibida o cualquier otro criterio de optimización conocido por aquellos expertos en la técnica.
[00043] Aunque la Fig. 13 ilustra un procedimiento de bucle cerrado o de análisis por síntesis, la Fig. 14 ilustra una implementación alternativa de la información lateral de selección 1202 más similar a un procedimiento de bucle abierto. En la forma de realización de la Fig. 14, la señal original 1206 comprende meta información asociada para el generador de información lateral de selección 1202 que describe una secuencia de información acústica (por ejemplo, anotaciones) correspondiente a una secuencia de muestras de la señal de audio original. El generador de información lateral de selección 1202 comprende, en esta forma de realización, un extractor de metadatos 1400 para extraer la secuencia de meta información y, además, un traductor de metadatos, que por lo general tiene conocimiento sobre el modelo estadístico empleado del lado del decodificador para traducir la secuencia de meta información en una secuencia de información lateral de selección 1210 asociada a la señal de audio original. Los metadatos extraídos por el extractor de metadatos 1400 son descartados en el codificador y no se transmiten en la señal codificada 1212. Por el contrario, la información lateral de selección 1210 se transmite en la señal codificada junto con la señal de audio codificada 1208 generada por el codificador de núcleo que tiene un contenido de frecuencia diferente y, por lo general, un contenido de frecuencia menor en comparación con la señal decodificada generada en último término o en comparación con la señal original 1206.
[00044] La información lateral de selección 1210 generada por el generador de información lateral de selección 1202 puede tener cualquiera de las características señaladas en el contexto de las figuras anteriores.
[00045] Aunque la presente invención ha sido descrita en el contexto de diagramas de bloques en los cuales los bloques representan componentes de hardware reales o lógicos, la presente invención también puede ser implementada por un procedimiento implementado por informática. En este último caso, los bloques representan etapas correspondientes en el procedimiento, donde estas etapas representan las funcionalidades ejecutadas por los bloques de hardware lógicos o físicos correspondientes.
[00046] Aunque se han descrito algunos aspectos en el contexto de un aparato, es obvio que estos aspectos también representan una descripción del procedimiento correspondiente, en el cual un bloque o dispositivo corresponde a un paso del procedimiento o a una característica de un paso del procedimiento. De manera análoga, los aspectos descritos en el contexto de un paso del procedimiento también representan una descripción de un bloque o elemento correspondiente o de una característica de un aparato correspondiente. Algunas o todas las etapas del procedimiento pueden ser ejecutadas por medio de (o mediante el uso de) un aparato de hardware como, por ejemplo, un microprocesador, un ordenador programable o un circuito electrónico. En algunas formas de realización, una cualquiera o más de las etapas más importantes del procedimiento pueden ser ejecutadas por ese tipo de aparato.
[00047] La señal transmitida o codificada de la presente invención puede ser almacenada en un medio de almacenamiento digital o puede ser transmitida por un medio de transmisión tal como un medio de transmisión inalámbrico o un medio de transmisión por cable tal como Internet.
[00048] Dependiendo de ciertos requisitos de implementación, las formas de realización de la invención pueden ser implementadas en hardware o en software. La implementación se puede realizar empleando un medio de almacenamiento digital, por ejemplo un disco flexible, un DVD, un Blu-Ray, un CD, una ROM, una PROM, una EPROM, una EEPROM o una memoria FLASH, que tiene almacenadas en la misma, señales de control legibles electrónicamente, que cooperan (o tienen capacidad para cooperar) con un sistema de computación programable de tal manera que se ejecute el procedimiento respectivo. Por lo tanto, el medio de almacenamiento digital puede ser legible por ordenador.
[00049] Algunas formas de realización según la invención comprenden un soporte de datos que comprende señales de control legibles electrónicamente, con capacidad para cooperar con un sistema de computación programable de tal manera que se ejecute uno de los procedimientos descritos en esta invención.
[00050] En general, las formas de realización de la presente invención pueden ser implementadas en forma de producto de programa informático con un código de programa, donde el código de programa cumple la función de ejecutar uno de los procedimientos al ejecutarse el programa informático en un ordenador. El código de programa puede ser almacenado, por ejemplo, en un soporte legible por una máquina.
[00051] Otras formas de realización comprenden el programa informático para ejecutar uno de los procedimientos descritos en esta invención, almacenado en un soporte legible por máquina.
[00052] En otras palabras, una forma de realización del procedimiento de la invención consiste, por lo tanto, en un programa informático que consta de un código de programa para realizar uno de los procedimientos descritos en esta invención al ejecutarse el programa informático en un ordenador.
[00053] Una forma de realización adicional del procedimiento de la invención consiste, por lo tanto, en un soporte de datos (o medio de almacenamiento digital, o medio legible por ordenador) que comprende, grabado en el mismo, el programa informático para ejecutar uno de los procedimientos descritos en esta invención. El soporte de datos, el medio de almacenamiento digital o el medio grabado son por lo general tangibles y/o no transitorios.
[00054] Una forma de realización adicional del procedimiento de la invención es, por lo tanto, un flujo de datos o una secuencia de señales que representa el programa informático para ejecutar uno de los procedimientos descritos en esta invención. El flujo de datos o la secuencia de señales pueden estar configurados, por ejemplo, para ser transferidos a través de una conexión de comunicación de datos, por ejemplo, a través de Internet.
[00055] Una forma de realización adicional comprende un medio de procesamiento, por ejemplo, un ordenador, un dispositivo lógico programable, configurado o adaptado para ejecutar uno de los procedimientos descritos en esta invención.
[00056] Una forma de realización adicional comprende un ordenador en el que se ha instalado el programa informático para ejecutar uno de los procedimientos descritos en esta invención.
[00057] Una forma de realización adicional según la invención comprende un aparato o sistema configurado para transferir (por ejemplo por vía electrónica u óptica) un programa informático para poner en práctica uno de los procedimientos descritos en esta invención en un receptor. El receptor puede ser, por ejemplo, un ordenador, un dispositivo móvil, un dispositivo de memoria o similar. El aparato o sistema puede comprender, por ejemplo, un servidor de archivos para transferir el programa informático al receptor.
[00058] En algunas formas de realización, se puede utilizar un dispositivo lógico programare (por ejemplo una matriz de puertas programares en el campo) para ejecutar algunas o todas las funcionalidades de los procedimientos descritos en esta invención. En algunas formas de realización, una matriz de puertas programa r es en el campo puede cooperar con un microprocesador para ejecutar uno de los procedimientos descritos en esta invención. Por lo general, los procedimientos son ejecutados preferentemente por cualquier aparato de hardware.
[00059] Las formas de realización anteriormente descritas son meramente ilustrativas de los principios de la presente invención. Se entiende que las modificaciones y variaciones de las disposiciones y detalles descritos en esta invención han de ser evidentes para aquellos expertos en la técnica. Por lo tanto, es la intención limitarse únicamente al alcance de las siguientes reivindicaciones de patente y no a los detalles específicos presentados a manera de descripción y explicación de las formas de realización presentadas en esta invención.
Referencias:
[00060]
[1] B. Bessette et a/., "The Adaptive Multi-rate Wideband Speech Codec (AMR-WB)," IEEE Trans. on Speech y Audio Processing, Vol. 10, No. 8, Nov. 2002.
[2] B. Geiser eta/., "Wide band Extension for Hierarchical Speech and Audio Coding in ITU-T Rec. G.729.1," IEEE Trans. on Audio, Speech, y Language Processing, Vol. 15, No. 8, Nov. 2007.
[3] B. lser, W. Minker, y G. Schmidt, Wide band Extension of Speech Signals,
Springer Lecture Notes in Electrical Engineering, Vol. 13, Nueva York, 2008.
[4] M. Jelinek y R. Salami, " Speech Wideband Extension Coding Advances in VMR-WB Standard," IEEE Trans. on Audio, Speech, and Language Processing, Vol. 15, No.4, mayo de 2007.
[5] I. Katsir, I. Cohen, y D. Malah, " Speech Wideband Extension Coding Based on Speech Phonetic Content y Speaker Vocal Tract Shape Estimation," in Proc. EUSIPCO 2011, Barcelona, España, Sept. 2011.
[6] E. Larsen y R. M. Aarts, Audio Wideband Extension; Application of Psychoacoustics, Signal Processing y Loudspeaker Design, Wiley, Nueva York, 2004.
[7] J. Makinen eta/., "a Mr-WB+: A New Audio Coding Standard for 3rd Generation Mobile Audio Services," in Proc. /CASSP 2005, Filadelfia, EE. UU., marzo de 2005.
[8] M. Neuendorf eta/., "MPEG Unified Speech y Audio Coding - T h e ISO/MPEG Standard for High-Efficiency Audio Coding of All Content Types," in Proc. 132nd Convention of the AES, Budapest, Hungría, abril de 2012. También aparece en the Journal of the AES, 2013.
[9] H. Pulakka y P. Alku, "Bandwidth extension of Telephone Speech Using a Neural Network y a Filter Bank Implementation for Highband Mel Spectrum," IEEE Trans. on Audio, Speech, and Language Processing, Vol. 19, No.
7, Sept. 2011.
[10] T. Vaillancourt et al., "ITU-T EV-VBR: A Robust 8-32 kbit/s Scalable Coder for Error Prone Telecommunications Channels," in Proc. EUSIPCO 2008, Lausanne, Suiza, agosto de 2008.
[11] L. Miao et al., "G.711.1 Annex D y G.722 Annex B: New ITU-T Superwideband codecs," in Proc. ICASSP 2011, Praga, República Checa, mayo de 2011.
[12] Bernd Geiser, Peter Jax, and Peter Vary: "ROBUST WIDEBAND ENHANCEMENT OF SPEECH BY COMBINED CODING AND ARTIFICIAL WIDEBAND EXTENSION ", Proceedings of International Workshop on Acoustic Echo and Noise Control (IWAENC), 2005
[13] P. Bauer and T. Fingscheidt: "A STATISTICAL FRAMEWORK FOR ARTIFICIAL BANDWIDTH EXTENSION EXPLOITING SPEECH WAVEFORM AND PHONETIC TRANSCRIPTION", 17th European Signal Processing Conference (EUSIPCO 2009) (17a conferencia de procesamiento de señal europea) (EUSIPCO 2009)), agosto de 2009.

Claims (16)

REIVINDICACIONES
1. Un decodificador para generar una señal de audio mejorada en frecuencia (120), que comprende:
un extractor de características (104) para extraer una característica (112) de una señal de núcleo (100);
un extractor de información lateral (110) para extraer una información lateral de selección (114, 712, 714, 716, 718) asociada a la señal de núcleo (100);
un generador de parámetros (108) para generar una representación paramétrica para estimar un alcance espectral de la señal de audio mejorada en frecuencia (120) no definida por la señal de núcleo (100), donde el generador de parámetros (108) está configurado para presentar un número de alternativas de representación paramétrica (702, 704, 706, 708) en respuesta a la característica (112), y donde el generador de parámetros (108) está configurado para seleccionar una representación paramétrica del número de alternativas de representación paramétrica (702, 704, 706, 708) como representación paramétrica en respuesta a la información lateral de selección (114, 712, 714, 716, 718);
un estimador de señales (118) para estimar la señal de audio mejorada en frecuencia (120) mediante el uso de la representación paramétrica seleccionada;
donde el generador de parámetros (108) está configurado para recibir información de mejora de frecuencia paramétrica (1100) asociada con la señal de núcleo (100), la información de mejora de frecuencia paramétrica (1100) comprendiendo un grupo de parámetros individuales,
donde el generador de parámetros (108) está configurado para proveer la representación paramétrica seleccionada además de la información de mejora de frecuencia paramétrica (1100),
donde la representación paramétrica seleccionada comprende un parámetro no incluido en el grupo de parámetros individuales o un valor de cambio de parámetro para cambiar un parámetro en el grupo de parámetros individuales, y
donde el estimador de señal (118) está configurado para estimar la señal de audio mejorada en frecuencia (120) utilizando la representación paramétrica seleccionada y la información de mejora de frecuencia paramétrica (1100).
2. Decodificador de la reivindicación 1, que comprende además:
una interfaz de entrada (110) para recibir una señal de entrada codificada (200) que comprende una señal de núcleo codificada (201) y la información lateral de selección (114, 712, 714, 716, 718); y
un decodificador de núcleo (124) para decodificar la señal de núcleo codificada (201) para obtener la señal de núcleo (100).
3. Decodificador de la reivindicación 1 o 2, en el que el generador de parámetros (108) está configurado para utilizar, cuando se selecciona la alternativa de representación paramétrica del número de alternativas de representación paramétrica (702, 704, 706, 708), un orden predefinido del número de alternativas de representación paramétrica (702, 704, 706, 708) o un orden del número de alternativas de representación paramétrica (702, 704, 706, 708) señalizadas en el codificador.
4. Decodificador de una de las reivindicaciones anteriores, en el que el generador de parámetros (108) está configurado para proporcionar una representación de envolvente como representación paramétrica,
en el que la información lateral de selección (114, 712, 714, 716, 718) indica uno de una pluralidad de sibilantes o fricativos diferentes, y
en el que el generador de parámetros (108) está configurado para proporcionar la representación de envolvente identificada por la información lateral de selección (114, 712, 714, 716, 718).
5. Decodificador de una de las reivindicaciones anteriores,
en el que el estimador de señales (118) comprende un interpolador (900) para interpolar la señal de núcleo (100), y en el que el extractor de características (104) está configurado para extraer la característica (112) de la señal de núcleo (100) que no se está interpolando.
6. Decodificador de una de las reivindicaciones anteriores,
en el que el estimador de señales (118) comprende:
un filtro de análisis (910) para analizar la señal de núcleo (100) o una señal de núcleo interpolada para obtener una señal de excitación;
un bloque de extensión de excitación (912) para generar una señal de excitación mejorada que tiene un intervalo espectral no incluido en la señal de núcleo (100); y
un filtro de síntesis (914) para filtrar la señal de excitación extendida;
en el que el filtro de análisis (910) o el filtro de síntesis (914) está determinado por la representación paramétrica seleccionada.
7. Decodificador de una de las reivindicaciones anteriores,
en el que el estimador de señales (118) comprende un procesador de extensión de ancho de banda espectral para generar una banda espectral extendida que corresponde al intervalo espectral no incluido en la señal de núcleo (100) mediante el uso de al menos una banda espectral de la señal de núcleo (100) y la representación paramétrica, en el que la representación paramétrica comprende parámetros correspondientes al menos a uno entre el ajuste de la envolvente espectral (1060), una adición de ruido de fondo (1020), un filtro inverso (1040) y una adición de tonos que faltan 1080),
en el que el generador de parámetros (108) está configurado para proporcionar, para la característica, el número de alternativas de representación paramétrica (702, 704, 706, 708), donde cada alternativa de representación paramétrica del número de alternativas de representación paramétrica (702, 704, 706, 708) tiene parámetros para al menos uno de un ajuste de la envolvente espectral (1060), una adición de ruido de fondo (1020), un filtrado inverso (1040) y adición de tonos que faltan (1080).
8. Decodificador de una de las reivindicaciones anteriores, que comprende además:
un detector de actividad de voz o un discriminador de habla/no habla (500),
en el que el estimador de señales (118) está configurado para estimar la señal mejorada en frecuencia (120) mediante el uso de la representación paramétrica solo cuando el detector de actividad de voz o el detector de habla/no habla (500) indica una actividad de voz o una actividad de habla.
9. Decodificador de la reivindicación 8,
en el que el estimador de señales (118) está configurado para conmutar (502, 504) de un procedimiento de mejora en frecuencia (511) a otro procedimiento de mejora en frecuencia diferente (513) o para usar parámetros diferentes (514) extraídos de una señal codificada, cuando el detector de actividad de voz o el detector de habla/no habla (500) indica una señal de no habla o una señal que no tiene actividad de voz.
10. Decodificador de una de las reivindicaciones anteriores, que comprende además:
un clasificador de señales (606) para clasificar una trama de la señal de núcleo (100),
en la que el generador de parámetros (108) está configurado para utilizar un primer modelo estadístico (600), cuando una trama de señal está clasificada para pertenecer a una primera clase de señales y utiliza un segundo modelo estadístico diferente (602), cuando la trama está clasificada en una segunda clase de señales diferente en el que el primer modelo estadístico o el segundo modelo estadístico (602) está configurado para proporcionar, en respuesta a la característica (112), el número de alternativas de representación paramétrica (702, 704, 706, 708), en el que cada representación paramétrica alternativa del número de alternativas de representación paramétrica (702, 704, 706, 708) tiene una probabilidad que es idéntica a una probabilidad de una representación paramétrica alternativa diferente del número de alternativas de representación paramétrica (702, 704, 706, 708) o que es diferente de la probabilidad de la representación paramétrica alternativa del número de alternativas de representación paramétrica (702, 704, 706, 708) en menos de un 10 % de la probabilidad más elevada.
11. Decodificador de una de las reivindicaciones anteriores,
en el que la información lateral de selección (114, 712, 714, 716, 718) solo está incluida en una trama (800) de una señal codificada, cuando el generador de parámetros (108) proporciona el número de alternativas de representación paramétrica (702, 704, 706, 708), y
en el que la información lateral de selección (114, 712, 714, 716, 718) no está incluida en una trama diferente (812) de la señal de audio codificada, en la cual el generador de parámetros (108) proporciona solo una única alternativa de representación paramétrica en respuesta a la característica (112).
12. Codificador para generar una señal codificada (1212), que comprende:
un codificador de núcleo (1200) para codificar una señal original (1206) para obtener una señal de audio codificada (1208) que tiene información sobre un número más pequeño de bandas de frecuencia en comparación con una señal original (1206);
un generador de información lateral de selección (1202) para generar información lateral de selección (1210) que indica una alternativa de representación paramétrica definida (702, 704, 706, 708) proporcionada por un modelo estadístico en respuesta a una característica (112) extraída de la señal original (1206) o de la señal de audio codificada (1208) o de una versión decodificada de la señal de audio codificada (1208); y
una interfaz de salida (1204) para emitir la señal codificada (1212), comprendiendo la señal codificada la señal de audio codificada (1208) y la información lateral de selección (1210);
donde la señal original comprende meta información asociada que describe una secuencia de información acústica para una secuencia de muestras de la señal de audio original, la información acústica comprendiendo información que distingue entre diferentes sibilantes o fricativos, o una indicación de uno de una pluralidad de diferentes sibilantes o fricativos o africadas, o información sobre plosivos o vocales,
en el que el generador de información lateral de selección (1202) comprende:
un extractor de metadatos (1400) para extraer la secuencia de meta información; y
un traductor de metadatos (1402) para traducir la secuencia de meta información en una secuencia de información lateral de selección (1210).
13. Codificador de la reivindicación 12,
en el que la interfaz de salida (1204) está configurada para incluir solo la información lateral de selección (1210) en la señal codificada (1212), cuando el modelo estadístico proporciona el número de alternativas de representación paramétrica (702, 704, 706, 708) y para no incluir ninguna información lateral de selección (1210) en una trama para la señal de audio codificada (1208), en la cual el modelo estadístico es operativo para proporcionar solo una única representación paramétrica en respuesta a la característica (112).
14. Un procedimiento para generar una señal de audio mejorada en frecuencia (120), que comprende: extraer (104) una característica de una señal de núcleo (100);
extraer (110) una información lateral de selección (114, 712, 714, 716, 718) asociada a la señal de núcleo (100); generar (108) una representación paramétrica para estimar un intervalo espectral de la señal de audio mejorada en frecuencia (120) no definida por la señal de núcleo (100), donde se presenta un número de alternativas de representación paramétrica (702, 704, 706, 708) en respuesta a la característica (112), y donde se selecciona uno de los números de alternativas de representación paramétrica (702, 704, 706, 708) como representación paramétrica en respuesta a la información lateral de selección (114, 712, 714, 716, 718); y
estimar (118) la señal de audio mejorada en frecuencia (120) mediante el uso de la representación paramétrica seleccionada,
donde el generar (108) la representación paramétrica recibe información de mejora de frecuencia paramétrica (1100) asociada con la señal de núcleo (100), la información de mejora de frecuencia paramétrica (1100) comprendiendo un grupo de parámetros individuales,
donde el generar (108) la representación paramétrica provee la representación paramétrica seleccionada además de la información de mejora de frecuencia paramétrica (1100),
donde la representación paramétrica seleccionada comprende un parámetro no incluido en el grupo de parámetros individuales o un valor de cambio de parámetro para cambiar un parámetro en el grupo de parámetros individuales, y
donde el estimar (118) estima la señal de audio mejorada en frecuencia (120) utilizando la representación paramétrica seleccionada y la información de mejora de frecuencia paramétrica (1100).
15. Procedimiento de generación de una señal codificada (1212), que comprende:
codificar (1200) una señal original (1206) para obtener una señal de audio codificada (1208) que tiene información sobre un número menor de bandas de frecuencia en comparación con una señal original (1206);
generar (1202) información lateral de selección (1210) que indica una alternativa de representación paramétrica definida (702, 704, 706, 708) proporcionada por un modelo estadístico en respuesta a una característica (112) extraída de la señal original (1206) o de la señal de audio codificada (1208) o de una versión decodificada de la señal de audio codificada (1208);
emitir como salida (1204) la señal codificada (1212), comprendiendo la señal codificada la señal de audio codificada (1208) y la información lateral de selección (1210),
donde la señal original comprende meta información asociada que describe una secuencia de información acústica para una secuencia de muestras de la señal de audio original, la información acústica comprendiendo información que distingue entre diferentes sibilantes o fricativos, o una indicación de uno de una pluralidad de diferentes sibilantes o fricativos o africadas, o información sobre plosivos o vocales,
donde el generar (1202) la información lateral de selección (1210) comprende:
extraer (1400) la secuencia de meta información; y
traducir (1402) la secuencia de meta información en una secuencia de información lateral de selección (1210).
16. Programa informático para llevar a cabo, cuando se ejecuta en un ordenador o un procesador, el procedimiento de la reivindicación 14 o el procedimiento de la reivindicación 15.
ES17158862T 2013-01-29 2014-01-28 Decodificador para generar una señal de audio mejorada en frecuencia, procedimiento de decodificación, codificador para generar una señal codificada y procedimiento de codificación que utiliza información lateral de selección compacta Active ES2924427T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US201361758092P 2013-01-29 2013-01-29

Publications (1)

Publication Number Publication Date
ES2924427T3 true ES2924427T3 (es) 2022-10-06

Family

ID=50023570

Family Applications (3)

Application Number Title Priority Date Filing Date
ES14701550T Active ES2725358T3 (es) 2013-01-29 2014-01-28 Decodificador para generar una señal de audio mejorada en frecuencia, procedimiento de decodificación, codificador para generar una señal codificada y procedimiento de codificación que utiliza información lateral de selección compacta
ES17158737T Active ES2943588T3 (es) 2013-01-29 2014-01-28 Decodificador para generar una señal de audio mejorada en frecuencia, procedimiento de decodificación, codificador para generar una señal codificada y procedimiento de codificación que utiliza información lateral de selección compacta
ES17158862T Active ES2924427T3 (es) 2013-01-29 2014-01-28 Decodificador para generar una señal de audio mejorada en frecuencia, procedimiento de decodificación, codificador para generar una señal codificada y procedimiento de codificación que utiliza información lateral de selección compacta

Family Applications Before (2)

Application Number Title Priority Date Filing Date
ES14701550T Active ES2725358T3 (es) 2013-01-29 2014-01-28 Decodificador para generar una señal de audio mejorada en frecuencia, procedimiento de decodificación, codificador para generar una señal codificada y procedimiento de codificación que utiliza información lateral de selección compacta
ES17158737T Active ES2943588T3 (es) 2013-01-29 2014-01-28 Decodificador para generar una señal de audio mejorada en frecuencia, procedimiento de decodificación, codificador para generar una señal codificada y procedimiento de codificación que utiliza información lateral de selección compacta

Country Status (19)

Country Link
US (3) US10657979B2 (es)
EP (3) EP3203471B1 (es)
JP (3) JP6096934B2 (es)
KR (3) KR101798126B1 (es)
CN (3) CN109509483B (es)
AR (1) AR094673A1 (es)
AU (3) AU2014211523B2 (es)
BR (1) BR112015018017B1 (es)
CA (4) CA3013744C (es)
ES (3) ES2725358T3 (es)
HK (1) HK1218460A1 (es)
MX (1) MX345622B (es)
MY (1) MY172752A (es)
RU (3) RU2676242C1 (es)
SG (3) SG10201608613QA (es)
TR (1) TR201906190T4 (es)
TW (3) TWI524333B (es)
WO (1) WO2014118155A1 (es)
ZA (1) ZA201506313B (es)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3008533A1 (fr) * 2013-07-12 2015-01-16 Orange Facteur d'echelle optimise pour l'extension de bande de frequence dans un decodeur de signaux audiofrequences
TWI771266B (zh) 2015-03-13 2022-07-11 瑞典商杜比國際公司 解碼具有增強頻譜帶複製元資料在至少一填充元素中的音訊位元流
US10008214B2 (en) * 2015-09-11 2018-06-26 Electronics And Telecommunications Research Institute USAC audio signal encoding/decoding apparatus and method for digital radio services
BR112020008216A2 (pt) * 2017-10-27 2020-10-27 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. aparelho e seu método para gerar um sinal de áudio intensificado, sistema para processar um sinal de áudio
KR102556098B1 (ko) * 2017-11-24 2023-07-18 한국전자통신연구원 심리음향 기반 가중된 오류 함수를 이용한 오디오 신호 부호화 방법 및 장치, 그리고 오디오 신호 복호화 방법 및 장치
CN108399913B (zh) * 2018-02-12 2021-10-15 北京容联易通信息技术有限公司 高鲁棒性音频指纹识别方法及系统
EP3844749B1 (en) 2018-08-30 2023-12-27 Dolby International AB Method and apparatus for controlling enhancement of low-bitrate coded audio
KR20220137921A (ko) * 2020-02-03 2022-10-12 핀드롭 시큐리티 인코포레이티드 음성 생체 인식의 크로스-채널 등록 및 인증
CN113808596A (zh) * 2020-05-30 2021-12-17 华为技术有限公司 一种音频编码方法和音频编码装置
CN112233685B (zh) * 2020-09-08 2024-04-19 厦门亿联网络技术股份有限公司 基于深度学习注意力机制的频带扩展方法及装置
KR20220151953A (ko) 2021-05-07 2022-11-15 한국전자통신연구원 부가 정보를 이용한 오디오 신호의 부호화 및 복호화 방법과 그 방법을 수행하는 부호화기 및 복호화기
CN114443891B (zh) * 2022-01-14 2022-12-06 北京有竹居网络技术有限公司 编码器的生成方法、指纹提取方法、介质及电子设备

Family Cites Families (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5646961A (en) * 1994-12-30 1997-07-08 Lucent Technologies Inc. Method for noise weighting filtering
US6226616B1 (en) * 1999-06-21 2001-05-01 Digital Theater Systems, Inc. Sound quality of established low bit-rate audio coding systems without loss of decoder compatibility
US8605911B2 (en) * 2001-07-10 2013-12-10 Dolby International Ab Efficient and scalable parametric stereo coding for low bitrate audio coding applications
US7603267B2 (en) * 2003-05-01 2009-10-13 Microsoft Corporation Rules-based grammar for slots and statistical model for preterminals in natural language understanding system
US7447317B2 (en) * 2003-10-02 2008-11-04 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V Compatible multi-channel coding/decoding by weighting the downmix channel
CA2457988A1 (en) * 2004-02-18 2005-08-18 Voiceage Corporation Methods and devices for audio compression based on acelp/tcx coding and multi-rate lattice vector quantization
US8046217B2 (en) * 2004-08-27 2011-10-25 Panasonic Corporation Geometric calculation of absolute phases for parametric stereo decoding
RU2007107348A (ru) * 2004-08-31 2008-09-10 Мацусита Электрик Индастриал Ко., Лтд. (Jp) Устройство и способ генерирования стереосигнала
SE0402652D0 (sv) * 2004-11-02 2004-11-02 Coding Tech Ab Methods for improved performance of prediction based multi- channel reconstruction
JP4459267B2 (ja) * 2005-02-28 2010-04-28 パイオニア株式会社 辞書データ生成装置及び電子機器
US7751572B2 (en) * 2005-04-15 2010-07-06 Dolby International Ab Adaptive residual audio coding
KR20070003574A (ko) * 2005-06-30 2007-01-05 엘지전자 주식회사 오디오 신호 인코딩 및 디코딩 방법 및 장치
DE102005032724B4 (de) * 2005-07-13 2009-10-08 Siemens Ag Verfahren und Vorrichtung zur künstlichen Erweiterung der Bandbreite von Sprachsignalen
US20070055510A1 (en) * 2005-07-19 2007-03-08 Johannes Hilpert Concept for bridging the gap between parametric multi-channel audio coding and matrixed-surround multi-channel coding
US20070094035A1 (en) * 2005-10-21 2007-04-26 Nokia Corporation Audio coding
US7546237B2 (en) * 2005-12-23 2009-06-09 Qnx Software Systems (Wavemakers), Inc. Bandwidth extension of narrowband speech
US7835904B2 (en) * 2006-03-03 2010-11-16 Microsoft Corp. Perceptual, scalable audio compression
DE602006021347D1 (de) * 2006-03-28 2011-05-26 Fraunhofer Ges Forschung Verbessertes verfahren zur signalformung bei der mehrkanal-audiorekonstruktion
JP4766559B2 (ja) * 2006-06-09 2011-09-07 Kddi株式会社 音楽信号の帯域拡張方式
EP1883067A1 (en) * 2006-07-24 2008-01-30 Deutsche Thomson-Brandt Gmbh Method and apparatus for lossless encoding of a source signal, using a lossy encoded data stream and a lossless extension data stream
CN101140759B (zh) * 2006-09-08 2010-05-12 华为技术有限公司 语音或音频信号的带宽扩展方法及系统
CN101479785B (zh) * 2006-09-29 2013-08-07 Lg电子株式会社 用于编码和解码基于对象的音频信号的方法和装置
JP5026092B2 (ja) * 2007-01-12 2012-09-12 三菱電機株式会社 動画像復号装置および動画像復号方法
DE602008005250D1 (de) * 2008-01-04 2011-04-14 Dolby Sweden Ab Audiokodierer und -dekodierer
ES2401817T3 (es) * 2008-01-31 2013-04-24 Agency For Science, Technology And Research Procedimiento y dispositivo de distribución/truncado de la velocidad de transmisión de bits para codificación de audio escalable
DE102008015702B4 (de) 2008-01-31 2010-03-11 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zur Bandbreitenerweiterung eines Audiosignals
DE102008009719A1 (de) * 2008-02-19 2009-08-20 Siemens Enterprise Communications Gmbh & Co. Kg Verfahren und Mittel zur Enkodierung von Hintergrundrauschinformationen
JP5108960B2 (ja) * 2008-03-04 2012-12-26 エルジー エレクトロニクス インコーポレイティド オーディオ信号処理方法及び装置
US8578247B2 (en) * 2008-05-08 2013-11-05 Broadcom Corporation Bit error management methods for wireless audio communication channels
PL2410520T3 (pl) * 2008-07-11 2019-12-31 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Kodery sygnałów audio, sposoby kodowania sygnału audio i programy komputerowe
EP2301026B1 (en) 2008-07-11 2020-03-04 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio signal synthesizer and audio signal encoder
EP2346030B1 (en) * 2008-07-11 2014-10-01 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoder, method for encoding an audio signal and computer program
AU2009267531B2 (en) * 2008-07-11 2013-01-10 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. An apparatus and a method for decoding an encoded audio signal
EP2146344B1 (en) * 2008-07-17 2016-07-06 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoding/decoding scheme having a switchable bypass
JP5326465B2 (ja) 2008-09-26 2013-10-30 富士通株式会社 オーディオ復号方法、装置、及びプログラム
MX2011011399A (es) 2008-10-17 2012-06-27 Univ Friedrich Alexander Er Aparato para suministrar uno o más parámetros ajustados para un suministro de una representación de señal de mezcla ascendente sobre la base de una representación de señal de mezcla descendete, decodificador de señal de audio, transcodificador de señal de audio, codificador de señal de audio, flujo de bits de audio, método y programa de computación que utiliza información paramétrica relacionada con el objeto.
JP5629429B2 (ja) 2008-11-21 2014-11-19 パナソニック株式会社 オーディオ再生装置及びオーディオ再生方法
TWI430264B (zh) * 2009-01-16 2014-03-11 Dolby Int Ab 交叉乘積加強之諧波移調
CA2966469C (en) * 2009-01-28 2020-05-05 Dolby International Ab Improved harmonic transposition
BR122019023877B1 (pt) * 2009-03-17 2021-08-17 Dolby International Ab Sistema codificador, sistema decodificador, método para codificar um sinal estéreo para um sinal de fluxo de bits e método para decodificar um sinal de fluxo de bits para um sinal estéreo
EP2239732A1 (en) 2009-04-09 2010-10-13 Fraunhofer-Gesellschaft zur Förderung der Angewandten Forschung e.V. Apparatus and method for generating a synthesis audio signal and for encoding an audio signal
ES2400661T3 (es) * 2009-06-29 2013-04-11 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Codificación y decodificación de extensión de ancho de banda
TWI433137B (zh) * 2009-09-10 2014-04-01 Dolby Int Ab 藉由使用參數立體聲改良調頻立體聲收音機之聲頻信號之設備與方法
CN102714035B (zh) 2009-10-16 2015-12-16 弗兰霍菲尔运输应用研究公司 用以提供一或多个经调整参数的装置及方法
PL2486564T3 (pl) * 2009-10-21 2014-09-30 Dolby Int Ab Urządzenie i sposób do generowania sygnału audio o wysokiej częstotliwości z użyciem adaptacyjnego nadpróbkowania
US8484020B2 (en) 2009-10-23 2013-07-09 Qualcomm Incorporated Determining an upperband signal from a narrowband signal
US9286944B2 (en) * 2009-11-04 2016-03-15 Koninklijke Philips N.V. Methods and systems for providing a combination of media data and metadata
CN102081927B (zh) * 2009-11-27 2012-07-18 中兴通讯股份有限公司 一种可分层音频编码、解码方法及系统
WO2011106925A1 (en) * 2010-03-01 2011-09-09 Nokia Corporation Method and apparatus for estimating user characteristics based on user interaction data
PL3779978T3 (pl) * 2010-04-13 2022-08-08 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Sposób dekodowania enkodowanego sygnału audio stereo z wykorzystaniem zmiennego kierunku predykcji
SG185050A1 (en) * 2010-04-26 2012-12-28 Panasonic Corp Filtering mode for intra prediction inferred from statistics of surrounding blocks
US8600737B2 (en) * 2010-06-01 2013-12-03 Qualcomm Incorporated Systems, methods, apparatus, and computer program products for wideband speech coding
TWI516138B (zh) * 2010-08-24 2016-01-01 杜比國際公司 從二聲道音頻訊號決定參數式立體聲參數之系統與方法及其電腦程式產品
PL2432161T3 (pl) * 2010-09-16 2016-02-29 Deutsche Telekom Ag Sposób oraz system do pomiaru jakości transmisji strumienia bitów audio i wideo w ciąg transmisji
CN101959068B (zh) * 2010-10-12 2012-12-19 华中科技大学 一种视频流解码计算复杂度估计方法
UA107771C2 (en) * 2011-09-29 2015-02-10 Dolby Int Ab Prediction-based fm stereo radio noise reduction

Also Published As

Publication number Publication date
MX2015009747A (es) 2015-11-06
TW201603008A (zh) 2016-01-16
AU2016262636A1 (en) 2016-12-08
BR112015018017B1 (pt) 2022-01-25
US10062390B2 (en) 2018-08-28
TWI524333B (zh) 2016-03-01
TW201443889A (zh) 2014-11-16
US20170358311A1 (en) 2017-12-14
RU2676242C1 (ru) 2018-12-26
AU2014211523B2 (en) 2016-12-22
CA2899134C (en) 2019-07-30
TWI585755B (zh) 2017-06-01
EP3203471A1 (en) 2017-08-09
TW201603009A (zh) 2016-01-16
US20150332701A1 (en) 2015-11-19
RU2676870C1 (ru) 2019-01-11
TR201906190T4 (tr) 2019-05-21
CA3013744C (en) 2020-10-27
WO2014118155A1 (en) 2014-08-07
KR101775084B1 (ko) 2017-09-05
JP2016505903A (ja) 2016-02-25
MX345622B (es) 2017-02-08
CA3013756C (en) 2020-11-03
EP3196878A1 (en) 2017-07-26
AU2016262636B2 (en) 2018-08-30
US10657979B2 (en) 2020-05-19
RU2627102C2 (ru) 2017-08-03
SG11201505925SA (en) 2015-09-29
CA3013756A1 (en) 2014-08-07
ES2943588T3 (es) 2023-06-14
KR20160099119A (ko) 2016-08-19
CA3013766C (en) 2020-11-03
SG10201608643PA (en) 2016-12-29
AU2016262638A1 (en) 2016-12-08
KR101775086B1 (ko) 2017-09-05
TWI585754B (zh) 2017-06-01
AU2014211523A1 (en) 2015-09-17
CN109346101B (zh) 2024-05-24
CA3013744A1 (en) 2014-08-07
AU2016262638B2 (en) 2017-12-07
JP2017083862A (ja) 2017-05-18
RU2015136789A (ru) 2017-03-03
BR112015018017A2 (es) 2017-07-11
CN109346101A (zh) 2019-02-15
EP3196878B1 (en) 2022-05-04
ZA201506313B (en) 2019-04-24
CN109509483B (zh) 2023-11-14
CA2899134A1 (en) 2014-08-07
MY172752A (en) 2019-12-11
EP2951828B1 (en) 2019-03-06
ES2725358T3 (es) 2019-09-23
CN105103229B (zh) 2019-07-23
CN109509483A (zh) 2019-03-22
KR20160099120A (ko) 2016-08-19
JP6511428B2 (ja) 2019-05-15
CN105103229A (zh) 2015-11-25
EP3203471B1 (en) 2023-03-08
JP2017076142A (ja) 2017-04-20
HK1218460A1 (zh) 2017-02-17
KR20150111977A (ko) 2015-10-06
US10186274B2 (en) 2019-01-22
EP2951828A1 (en) 2015-12-09
US20170358312A1 (en) 2017-12-14
KR101798126B1 (ko) 2017-11-16
SG10201608613QA (en) 2016-12-29
JP6513066B2 (ja) 2019-05-15
AR094673A1 (es) 2015-08-19
CA3013766A1 (en) 2014-08-07
JP6096934B2 (ja) 2017-03-15

Similar Documents

Publication Publication Date Title
ES2924427T3 (es) Decodificador para generar una señal de audio mejorada en frecuencia, procedimiento de decodificación, codificador para generar una señal codificada y procedimiento de codificación que utiliza información lateral de selección compacta