ES2943588T3 - Decodificador para generar una señal de audio mejorada en frecuencia, procedimiento de decodificación, codificador para generar una señal codificada y procedimiento de codificación que utiliza información lateral de selección compacta - Google Patents
Decodificador para generar una señal de audio mejorada en frecuencia, procedimiento de decodificación, codificador para generar una señal codificada y procedimiento de codificación que utiliza información lateral de selección compacta Download PDFInfo
- Publication number
- ES2943588T3 ES2943588T3 ES17158737T ES17158737T ES2943588T3 ES 2943588 T3 ES2943588 T3 ES 2943588T3 ES 17158737 T ES17158737 T ES 17158737T ES 17158737 T ES17158737 T ES 17158737T ES 2943588 T3 ES2943588 T3 ES 2943588T3
- Authority
- ES
- Spain
- Prior art keywords
- signal
- audio signal
- side information
- parametric representation
- selection side
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000005236 sound signal Effects 0.000 title claims abstract description 73
- 238000000034 method Methods 0.000 title claims description 57
- 230000003595 spectral effect Effects 0.000 claims abstract description 45
- 230000004044 response Effects 0.000 claims abstract description 18
- 238000013179 statistical model Methods 0.000 claims description 59
- 238000004590 computer program Methods 0.000 claims description 12
- 230000000694 effects Effects 0.000 claims description 10
- 238000004458 analytical method Methods 0.000 claims description 8
- 238000000605 extraction Methods 0.000 claims description 8
- 238000003786 synthesis reaction Methods 0.000 claims description 8
- 230000015572 biosynthetic process Effects 0.000 claims description 7
- 238000001914 filtration Methods 0.000 claims description 5
- 230000005284 excitation Effects 0.000 claims description 4
- 238000004422 calculation algorithm Methods 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 9
- 230000005540 biological transmission Effects 0.000 description 7
- 238000003860 storage Methods 0.000 description 6
- 230000010076 replication Effects 0.000 description 5
- 239000000284 extract Substances 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 108010076504 Protein Sorting Signals Proteins 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000013518 transcription Methods 0.000 description 2
- 230000001052 transient effect Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000035897 transcription Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/26—Pre-filtering or post-filtering
- G10L19/265—Pre-filtering, e.g. high frequency emphasis prior to encoding
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/038—Speech enhancement, e.g. noise reduction or echo cancellation using band spreading techniques
- G10L21/0388—Details of processing therefor
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/002—Dynamic bit allocation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/69—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for evaluating synthetic or decoded voice signals
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Quality & Reliability (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Stereophonic System (AREA)
- Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)
Abstract
Un decodificador para generar una señal de audio de frecuencia mejorada (120), comprende: un extractor de características (104) para extraer una característica de una señal central (100); un extractor de información lateral (110) para extraer una información lateral de selección asociada con la señal central; un generador de parámetros (108) para generar una representación paramétrica para estimar un rango espectral de la señal de audio de frecuencia mejorada (120) no definida por la señal central (100), donde el generador de parámetros (108) está configurado para proporcionar una serie de parámetros paramétricos alternativas de representación (702, 704, 706, 708) en respuesta a la característica (112), y en el que el generador de parámetros (108) está configurado para seleccionar una de las alternativas de representación paramétrica como la representación paramétrica en respuesta a la información del lado de selección (712 a 718); (Traducción automática con Google Translate, sin valor legal)
Description
DESCRIPCIÓN
Decodificador para generar una señal de audio mejorada en frecuencia, procedimiento de decodificación, codificador para generar una señal codificada y procedimiento de codificación que utiliza información lateral de selección compacta
[0001] La presente invención se refiere a la codificación de audio y, en particular, a la codificación de audio en el contexto de la mejora de la frecuencia, es decir, que la señal de salida de un decodificador tenga un número mayor de bandas de frecuencia en comparación con una señal codificada. Tales procedimientos comprenden la extensión del ancho de banda, la replicación espectral o el relleno inteligente de espacios vacíos.
[0002] Los sistemas contemporáneos de codificación de voz tienen capacidad para codificar el contenido de audio digital de banda ancha (WB), es decir, señales con frecuencias de hasta 7 u 8 kHz, a tasas de bits de tan solo 6 kbit/s. Los ejemplos más ampliamente difundidos son las recomendaciones de ITU-T G.722.2 [1], así como las desarrolladas más recientemente G.718 [4, 10] y Codificación Unificada de Voz y Audio (USAC) MPEG-D [8]. Tanto G.722.2, que también se conoce como Am R-Wb , como G.718 emplean técnicas de extensión de ancho de banda (BWE) entre 6,4 y 7 kHz para permitir que el codificador de núcleo ACELP subyacente se “enfoque” en las frecuencias más bajas perceptualmente más relevantes (especialmente aquellas en las cuales el sistema auditivo humano es sensible a las fases) y de esa manera se obtenga una calidad perceptual suficiente especialmente a tasas de bits muy bajas. En el perfil de Codificación de Audio Avanzada de Alta Eficiencia Extendida (xHE-AAC) de USAC, se utiliza la replicación espectral mejorada de banda (eSBR) para extender el ancho de banda de audio más allá del ancho de banda del codificador de núcleo que por lo general es inferior a 6 kHz a 16 kbits/s. Los procesos BWE del estado actual de la técnica se pueden dividir en general en dos estrategias conceptuales:
• BWE ciega o artificial, en la cual se reconstruyen los componentes de alta frecuencia (HF) a partir solamente de la señal de baja frecuencia (LF) del codificador de núcleo decodificada, es decir, sin necesidad de transmisión de información lateral desde el codificador. Este esquema es utilizado por AMR-WB y G.718 a 16 kbt/s y menos, así como por algunos post-procesadores de BWE compatibles con los anteriores que operan en la voz telefónica de banda estrecha tradicional [5, 9, 12] (Ejemplo: figura 15).
• BWE Guiada, que difiere de la BWE ciega en que algunos de los parámetros empleados para la reconstrucción del contenido de HF se transmiten al decodificador en forma de información lateral en lugar de ser deducidos de la señal de núcleo decodificada. AMR-WB, G.718, xHE- AAC, así como otros códecs [2, 7, 11] utilizan esta estrategia, aunque no a tasas de bits muy bajas (figura 16).
[0003] La Fig. 15 ilustra tal extensión de ancho de banda ciega o artificial descrita en la publicación Bernd Geiser, Peter Jax, y Peter Vary: "ROBUST WIDEBAND ENHANCEMENT OF SPEECH BY COMBINED CODING AND ARTIFICIAL BANDWIdTh EXTENSION", Proceedings of International Workshop on Acoustic Echo and Noise Control (IWAENC), 2005. El algoritmo de extensión de ancho de banda autónomo ilustrado en la Fig. 15 comprende un procedimiento de interpolación 1500, un filtro de análisis 1600, una extensión de excitación 1700, un filtro de síntesis 1800, un procedimiento de extracción de características 1510, un procedimiento de estimación de la envolvente 1520 y un modelo estadístico 1530. Después de una interpolación de la señal de banda estrecha a una tasa de muestreo de banda ancha, se calcula un vector de característica. A continuación, mediante un modelo estadístico oculto de Markov previamente entrenado (HMM), se determina un cálculo estimativo de la envolvente espectral de banda ancha en términos de coeficientes de predicción lineal (LP). Estos coeficientes de banda ancha son utilizados para el filtrado de análisis de la señal de banda estrecha interpolada. Después de la extensión de la excitación así producida se aplica un filtro de síntesis inverso. La elección de una extensión de excitación que no altera la banda estrecha es transparente con respecto a los componentes de banda estrecha.
[0004] La Fig. 16 ilustra una extensión de ancho de banda con información lateral de acuerdo con lo descrito en la publicación antes citada, donde la extensión de ancho de banda comprende un paso banda telefónico 1620, un bloque de extracción de información lateral 1610, un codificador (conjunto) 1630, un decodificador 1640 y un bloque de extensión de ancho de banda 1650. En la Fig. 16 se ilustra este sistema para mejorar el ancho de banda de una señal de voz de banda con errores mediante la combinación de codificación y extensión de ancho de banda. En la terminal de transmisión, se analiza la envolvente espectral de banda alta de la señal de entrada de banda ancha y se determina la información lateral. El mensaje así obtenido m se codifica por separado o conjuntamente con la señal de voz de banda estrecha. En el receptor, se utiliza la información lateral del decodificador para sustentar el cálculo de la envolvente de banda ancha dentro del algoritmo de extensión de ancho de banda. El mensaje m se obtiene por varios procedimientos. Se extrae una representación espectral de frecuencias de 3,4 kHz a 7 kHz de la señal de banda ancha disponible solo del lado del envío.
[0005] Esta envolvente de subbanda se computa por predicción lineal selectiva, es decir, el cómputo del espectro de potencia de la banda ancha seguido por una IDFT de sus componentes de banda superior y la posterior recursión de Levinson-Durbin de orden 8. Los coeficientes de LPC de subbanda así obtenidos se convierten al dominio cepstral y por último son cuantificados por un cuantificador de vectores con un tamaño de libro de códigos de M =
2N. En el caso de una longitud de trama de 20 ms, esto da lugar a una tasa de datos de información lateral de 300 bit/s. Una estrategia de cálculo estimativo combinado extiende el cálculo de las probabilidades a posteriori y reintroduce las dependencias de la característica de banda estrecha. De esa manera se obtiene una forma mejorada de ocultamiento de errores que utiliza más de una fuente de información para su estimación de parámetros.
[0006] Se puede observar un cierto dilema de calidad en los códecs de WB a bajas tasas de bits, típicamente por debajo de 10 kbit/s. Por un lado, esas tasas ya son demasiado bajas para justificar la transmisión incluso de cantidades moderadas de datos de BWE, excluyendo los sistemas típicos de BWE guiada con 1 kbit/s o más de información lateral. Por otro lado, se encuentra que una BWE ciega factible suena considerablemente peor en algunos tipos de materiales de voz o música debido a la incapacidad de predicción correcta de los parámetros desde la señal de núcleo. Esto es así especialmente con respecto a cierto sonido vocal con fricativos con baja correlación entre HF y LF. Por lo tanto, es conveniente reducir la tasa de información lateral de un esquema de BWE guiada a un nivel muy inferior a 1 kbit/s, lo que permitiría la adopción de una codificación a tasas de bits muy bajas.
[0007] En los últimos años se han documentado múltiples estrategias de BWE [1-10]. En general, todas estas son completamente ciegas o completamente guiadas en un punto operativo dado, independientemente de las características instantáneas de la señal de entrada. Además, muchos sistemas de BWE ciega [1, 3, 4, 5, 9, 10] se optimizan especialmente para señales de voz en lugar de música y, por lo tanto, pueden producir resultados no satisfactorios para la música. Por último, la mayoría de las realizaciones de BWE son relativamente complejas desde el punto de vista informático, y emplean transformadas de Fourier, cómputos de filtros LPC o cuantificación de vectores de la información lateral (Codificación por Vectores Predictivos en MPEG-D USAC [8]). Esto puede ser una desventaja en la adopción de nueva tecnología de codificación en los mercados de telecomunicaciones móviles, dado que la mayoría de los dispositivos móviles ofrecen una limitadísima potencia informática y capacidad de la batería.
[0008] Una estrategia que extiende la BWE ciega mediante una pequeña información lateral es la presentada en [12] e ilustrada en la Fig. 16. Sin embargo, la información lateral "m" se limita a la transmisión de una envolvente espectral del intervalo de frecuencias del ancho de banda extendido.
[0009] Un problema adicional del procedimiento ilustrado en la Fig. 16 es la manera muy complicada de estimar la envolvente mediante el uso de la característica de banda baja por un lado y la información lateral adicional de la envolvente por el otro. Ambas entradas, es decir, la característica de banda baja y la envolvente adicional de banda alta influyen sobre el modelo estadístico. Esto da lugar a una implementación complicada del lado del decodificador que es particularmente problemática para los dispositivos móviles debido al mayor consumo de energía. Por añadidura, el modelo estadístico es aún más difícil de actualizar debido al hecho de que no es influenciado por los datos adicionales de envolvente de banda alta.
[0010] El documento EP 2239732 A1 describe un aparato para generar una señal de audio de síntesis utilizando una señal de control de parcheo que comprende un primer convertidor, un generador de parcheo en el dominio espectral, un manipulador de reconstrucción de alta frecuencia y un combinador. El primer convertidor está configurado para convertir una porción de tiempo de una señal de audio en una representación espectral. El generador de parcheo en el dominio espectral está configurado para realizar una pluralidad de diferentes algoritmos de parcheo en el dominio espectral, donde cada algoritmo de parcheo genera una representación espectral modificada que comprende componentes espectrales en una banda de frecuencia superior derivada de componentes espectrales correspondientes en una banda de frecuencia de núcleo de la señal de audio. El generador de parcheo en el dominio espectral está configurado por otra parte para seleccionar un primer algoritmo de parcheo en el dominio espectral a partir de la pluralidad de algoritmos de parcheo para una primera porción de tiempo y un segundo algoritmo de parcheo en el dominio espectral a partir de la pluralidad de algoritmos de parcheo para una segunda porción de tiempo diferente de acuerdo con la señal de control de parcheo para obtener la representación espectral modificada. El manipulador de reconstrucción de alta frecuencia está configurado para manipular la representación espectral modificada o una señal derivada de la representación espectral modificada de acuerdo con un parámetro de replicación de banda espectral para obtener una señal extendida en ancho de banda. Por último, el combinador está configurado para combinar la señal de audio que tiene componentes espectrales en la banda de frecuencia de núcleo o una señal derivada de la señal de audio con la señal extendida en ancho de banda para obtener la señal de audio de síntesis.
[0011] P Bauer Y COL, "A STATISTICAL FRAMEWORK FOR ARTIFICIAL BANDWIDTH EXTENSION EXPLOITING SPEECH WAVEFORM AND PHONETIC TRANSCRIPTION", EUSIPCO 2009, Glasgow, Escocia, (20090828), URL: http://vwvw.researchgate.net/publication/228336475 A Statistical_Framework for Artificial_Bandwidth_Extension_Exploiting_Speech_Waveform_and_Phonetic_Transcription/file/e0b49522506840942 3.pdf, (20140402) describen varios aspectos sobre la extensión artificial del ancho de banda.
[0012] Es un objeto de la presente invención proporcionar un concepto mejorado de codificación/decodificación de audio.
[0013] Este objeto se obtiene por medio de un decodificador según la reivindicación 1, un codificador según la reivindicación 12, un procedimiento de decodificación según la reivindicación 14, un procedimiento de codificación según la reivindicación 15, o un programa informático según la reivindicación 16.
[0014] La presente invención se basa en el hallazgo de que para reducir aún más la cantidad de información lateral y, además, para poder lograr que un codificador/decodificador en su conjunto no sea demasiado complejo, se debe reemplazar, o al menos mejorar, la codificación paramétrica de una porción de banda alta de la técnica anterior por información lateral de selección que se relaciona, en realidad, con el modelo estadístico utilizado junto con un extractor de características en un decodificador de mejora de la frecuencia. Debido a que la extracción de características en combinación con un modelo estadístico proporciona alternativas de representación paramétrica que presentan ambigüedades específicamente en el caso de ciertas porciones de voz, se ha encontrado que el control verdadero del modelo estadístico dentro de un generador de parámetros del lado del decodificador, que de entre las alternativas propuestas sería la mejor, es superior a la codificación paramétrica real de una determinada característica de la señal específicamente en aplicaciones de muy baja tasa de bits, donde la información lateral correspondiente a la extensión de ancho de banda es limitada.
[0015] De esa manera se mejora una BWE ciega, que aprovecha un modelo de origen de la señal codificada, mediante extensión con poca información lateral adicional, en particular si la señal en sí no da lugar a la reconstrucción del contenido de HF en un nivel aceptable de calidad perceptual. Por lo tanto, el procedimiento combina los parámetros del modelo de origen, que se generan en el contenido codificado del codificador de núcleo, mediante información extra. Esto es ventajoso, especialmente para mejorar la calidad perceptual de los sonidos difíciles de codificar dentro de un modelo de origen. Tales sonidos exhiben, por lo general, una baja correlación entre el contenido de HF y LF.
[0016] La presente invención aborda los problemas de la BWE convencional en la codificación de audio de muy baja tasa de bits y las falencias de las técnicas de BWE existentes en el estado de la técnica. Se presenta una solución al problema antes planteado al proponer una BWE mínimamente guiada como combinación adaptativa a la señal de una BWE ciega y una guiada. La BWE de la invención agrega cierta información lateral a la señal, lo que da lugar a una mayor discriminación de los sonidos codificados de otro modo problemáticos. En la codificación de voz, esto se aplica especialmente a los sibilantes o fricativos.
[0017] Se ha encontrado que, en los códecs de WB, la envolvente espectral de la región de HF por encima de la región del codificador de núcleo representa los datos más críticos necesarios para ejecutar la BWE con calidad perceptual aceptable. Todos los demás parámetros como, por ejemplo, la estructura fina espectral y la envolvente temporal, pueden ser derivados, con frecuencia, de la señal de núcleo decodificada de forma bastante precisa o son de poca importancia perceptual. Los fricativos, sin embargo, a menudo carecen de una reproducción correcta en la señal de bWe . Por lo tanto, la información lateral puede incluir información adicional que distingue entre sibilantes o fricativos tales como "f, "s", "ch" y "sh".
[0018] Otra información acústica problemática para la extensión de ancho de banda, cuando se producen plosivos o africadas tales como "t" o "tsch".
[0019] La presente invención permite utilizar solo esta información lateral y transmitir, en realidad, esta información lateral cuando es necesario y no transmitir esta información lateral, cuando no hay una ambigüedad estimada en el modelo estadístico.
[0020] Además, las formas de realización preferidas de la presente invención solo hacen uso de una cantidad muy pequeña de información lateral como, por ejemplo, tres o menos bits por trama, una detección de actividad de voz/detección de voz o no voz combinadas para controlar un estimador de señales, diferentes modelos estadísticos determinados por un clasificador de señales o alternativas de representación paramétrica no solo en referencia a una estimación de la envolvente sino también en referencia a otras herramientas de extensión de ancho de banda o la mejora de los parámetros de extensión de ancho de banda o la adición de nuevos parámetros a los ya existentes y los parámetros de extensión de ancho de banda transmitidos en realidad.
[0021] Seguidamente se describen las realizaciones preferidas de la presente invención en el contexto de los dibujos que la acompañan y también se exponen en las reivindicaciones dependientes, en los que:
Fig. 1 ilustra un decodificador para generar una señal de audio mejorada en frecuencia;
Fig. 2 ilustra una implementación preferida en el contexto del extractor de informaciones laterales de la Fig. 1;
Fig. 3 ilustra una tabla que relaciona un número de bits de la información lateral de selección con el número de alternativas de representación paramétrica;
Fig. 4 ilustra un procedimiento preferido ejecutado en el generador de parámetros;
Fig. 5 ilustra una implementación preferida del estimador de señales controlado por un detector de actividad de voz o un detector de voz/no voz;
Fig. 6 ilustra una implementación preferida del generador de parámetros controlado por un clasificador de señales;
Fig. 7 ilustra un ejemplo correspondiente a un resultado de un modelo estadístico y la información lateral de selección asociada;
Fig. 8 ilustra una señal codificada a modo de ejemplo que comprende una señal de núcleo codificada e información lateral asociada;
Fig. 9 ilustra un esquema de procesamiento de señales de extensión de ancho de banda correspondiente a una mejora de la estimación de envolvente;
Fig. 10 ilustra una implementación adicional de un decodificador en el contexto de procedimientos de replicación de la banda espectral;
Fig. 11 ilustra otra realización de un decodificador en el contexto de información lateral transmitida adicionalmente;
Fig. 12 ilustra una realización de un codificador para generar una señal codificada;
Fig. 13 ilustra una implementación del generador de información lateral de selección de la Fig. 12;
Fig. 14 ilustra una implementación adicional del generador de información lateral de selección de la Fig. 12;
Fig. 15 ilustra un algoritmo de extensión de ancho de banda autónomo de la técnica anterior; y Fig. 16 ilustra un panorama general de un sistema de transmisión con un mensaje de adición.
La Fig. 1 ilustra un decodificador para generar una señal de audio mejorada en frecuencia 120. El decodificador comprende un extractor de características 104 para extraer (al menos) una característica de una señal de núcleo 100. En general, el extractor de características puede extraer una característica única o una pluralidad de características, es decir, dos o más características, y es aún más preferible que el extractor de características extraiga una pluralidad de características. Esto se aplica no solo al extractor de características incluido en el decodificador sino también al extractor de características del codificador.
[0023] Además, se incluye un extractor de informaciones laterales 110 para extraer una información lateral de selección 114 asociada a la señal de núcleo 100. Por añadidura, hay un generador de parámetros 108 conectado al extractor de características 104 a través de una línea de transmisión de características 112 y al extractor de informaciones laterales 110 a través de la información lateral de selección 114. El generador de parámetros 108 está configurado para generar una representación paramétrica para estimar un intervalo espectral de la señal de audio mejorada en la frecuencia no definida por la señal de núcleo. El generador de parámetros 108 está configurado para presentar un número de alternativas de representación paramétrica en respuesta a las características 112 y para elegir una de las alternativas de representación paramétrica como representación paramétrica en respuesta a la información lateral de selección 114. El decodificador comprende además un estimador de señales 118 para estimar una señal de audio mejorada en frecuencia mediante el uso de la representación paramétrica seleccionada por el selector, es decir, la representación paramétrica 116.
[0024] En particular, el extractor de características 104 puede ser implementado para extraer la señal de núcleo decodificada de la manera ilustrada en la Fig. 2. A continuación, una interfaz de entrada 110 está configurada para recibir una señal de entrada codificada 200. Esta señal de entrada codificada 200 es introducida en la interfaz 110 y, a continuación, la interfaz de entrada 110 separa la información lateral de selección de la señal de núcleo codificada. De esa manera, la interfaz de entrada 110 opera como extractor de informaciones laterales 110 de la Fig. 1. A continuación se introduce la señal de núcleo codificada 201 emitida por la interfaz de entrada 110 en un decodificador de núcleo 124 para dar origen a una señal de núcleo decodificada que puede ser la señal de núcleo 100.
[0025] Alternativamente, sin embargo, el extractor de características también puede cumplir la función de extraer una característica de la señal de núcleo codificada. Por lo general, la señal de núcleo codificada comprende una representación de factores de escala correspondientes a bandas de frecuencia o cualquier otra representación de información de audio. Dependiendo del tipo de extracción de características, la representación codificada de la señal de audio es representativa de la señal de núcleo decodificada y, por lo tanto, se pueden extraer las características. Alternativa o adicionalmente, se puede extraer una característica no solo de una señal de núcleo totalmente decodificada sino de una señal de núcleo parcialmente decodificada. En la codificación en el dominio de la frecuencia, la señal codificada representa una representación en el dominio de la frecuencia que comprende una secuencia de tramas espectrales. Por lo tanto, la señal de núcleo codificada puede ser decodificada solo en parte para obtener una representación decodificada de una secuencia de tramas espectrales, antes de efectuar en realidad una conversión de espectro-tiempo. De este modo, el extractor de características 104 puede extraer características de la señal de núcleo codificada o de una señal de núcleo parcialmente decodificada o bien de una señal de núcleo completamente decodificada. El extractor de características 104 puede ser implementado, en lo que respecta a sus características extraídas, de la manera conocida en la técnica y el extractor de características puede ser implementado, por ejemplo, como en las tecnologías de impresiones digitales de audio o ID de audio.
[0026] Según la invención, la información lateral de selección 114 comprende un número N de bits por trama de la señal de núcleo. La Fig. 3. Ilustra una tabla que corresponde a diferentes alternativas. El número de bits
correspondiente a la información lateral de selección es fijo o es seleccionado dependiendo del número de alternativas de representación paramétrica proporcionadas por un modelo estadístico en respuesta a una característica extraída. Un bit de información lateral de selección es suficiente cuando el modelo estadístico solo ofrece dos alternativas de representación paramétrica en respuesta a una característica. Cuando el modelo estadístico presenta un número máximo de cuatro alternativas de representación, en ese caso se necesitan dos bits para la información lateral de selección. Tres bits de información lateral de selección permiten un máximo de ocho alternativas de representación paramétrica concurrentes. Cuatro bits de información lateral de selección dan origen en realidad a 16 alternativas de representación paramétrica y cinco bits de información lateral de selección dan origen a 32 alternativas de representación paramétrica concurrentes. Es preferible utilizar solo tres o menos de tres bits de información lateral de selección por trama para dar lugar a una tasa de información lateral de 150 bits por segundo cuando un segundo se divide en 50 tramas. Esta tasa de información lateral se puede reducir incluso debido a que la información lateral de selección solo es necesaria cuando el modelo estadístico ofrece en realidad alternativas de representación. De este modo, cuando el modelo estadístico solo ofrece una única alternativa para una característica, no es necesario en absoluto un bit de información lateral de selección. Por otra parte, cuando el modelo estadístico solo presenta cuatro alternativas de representación paramétrica, en ese caso solo se necesitan dos bits, en lugar de tres bits de información lateral de selección. Por lo tanto, en los casos típicos, la tasa de información lateral adicional se puede reducir incluso a menos de 150 bits por segundo.
[0027] Además, el generador de parámetros está configurado para presentar, a lo sumo, una cantidad de alternativas de representación paramétrica que es igual a 2N. Por otro lado, cuando el generador de parámetros 108 presenta, por ejemplo, solo cinco alternativas de representación paramétrica, de todas maneras se necesitan tres bits de información lateral de selección.
[0028] La Fig. 4 ilustra una implementación preferida del generador de parámetros 108. Según la invención, el generador de parámetros 108 está configurado de manera que la característica 112 de la Fig. 1 sea introducida en un modelo estadístico de la manera indicada en la etapa 400. A continuación, como se indica en la etapa 402, el modelo presenta una pluralidad de alternativas de representación paramétrica.
[0029] Además, el generador de parámetros 108 está configurado para recobrar la información lateral de selección 114 del extractor de informaciones laterales como se indica en la etapa 404. Seguidamente, en la etapa 406, se selecciona una alternativa específica de representación paramétrica utilizando la información lateral de selección 114. Por último, en la etapa 408, se envía la alternativa de representación paramétrica seleccionada al estimador de señales 118.
[0030] Preferentemente, el generador de parámetros 108 está configurado para usar, al seleccionar una de las alternativas de representación paramétrica, un orden predefinido de alternativas de representación paramétrica o, por otro lado, un orden de señales del codificador de las alternativas de representación. Para este fin, se hace referencia a la Fig. 7. La Fig. 7 ilustra un resultado del modelo estadístico que presenta cuatro alternativas de representación paramétrica 702, 704, 706, 708. También se ilustra el código de información lateral de selección correspondiente. La alternativa 702 corresponde al patrón de bits 712. La alternativa 704 corresponde al patrón de bits 714. La alternativa 706 corresponde al patrón de bits 716 y la alternativa 708 corresponde al patrón de bits 718. De esa manera, cuando el generador de parámetros 108 o, por ejemplo, la etapa 402 obtiene las cuatro alternativas 702 a 708 en el orden ilustrado en la Fig. 7, entonces una información lateral de selección que tiene el patrón de bits 716 ha de identificar de manera unívoca la alternativa de representación paramétrica 3 (número de referencia 706) y el generador de parámetros 108 selecciona entonces esta tercera alternativa. Sin embargo, cuando el patrón de bits de la información lateral de selección es el patrón de bits 712, se seleccionaría entonces la primera alternativa 702.
[0031] El orden predefinido de las alternativas de representación paramétrica puede ser, por lo tanto, el orden en el cual el modelo estadístico entrega realmente las alternativas en respuesta a una característica extraída. Por otro lado, si la alternativa individual está asociada a diferentes probabilidades que, de todas maneras, se aproximan bastante entre sí, entonces el orden predefinido podría ser que la representación paramétrica con mayores probabilidades sea la primera y así sucesivamente. De manera alternativa, el orden podría ser señalado, por ejemplo, por un bit único, aunque, para ahorrar incluso este bit, es preferible un orden predefinido.
[0032] A continuación se hace referencia a las Figs. 9 a 11.
[0033] En una realización según la Fig. 9, la invención se adecua particularmente a las señales de voz, ya que se aprovecha un modelo fuente de voz dedicado para la extracción de parámetros.
[0034] Sin embargo, la invención no se limita a la codificación de voz. Diferentes realizaciones podrían emplear también otros modelos de fuente.
[0035] En particular, la información lateral de selección 114 también se denomina “información de fricativos”, ya que esta información lateral de selección distingue entre sibilantes o fricativos problemáticos tales como "f, "s" o "sh". De este modo, la información lateral de selección ofrece una definición clara de una de tres alternativas
problemáticas que son proporcionadas, por ejemplo, por el modelo estadístico 904 en el proceso de la estimación de envolvente 902 que se realiza en el generador de parámetros 108. La estimación de envolvente da lugar a una representación paramétrica de la envolvente espectral de las porciones espectrales no incluidas en la señal de núcleo.
[0036] Por lo tanto, el bloque 104 puede corresponder al bloque 1510 de la Fig. 15. Además, el bloque 1530 de la Fig. 15 puede corresponder al modelo estadístico 904 de la Fig. 9.
[0037] Además, es preferible que el estimador de señales 118 comprenda un filtro de análisis 910, un bloque de extensión de excitación 112 y un filtro de síntesis 940. De este modo, los bloques 910, 912, 914 pueden corresponder a los bloques 1600, 1700 y 1800 de la Fig. 15. En particular, el filtro de análisis 910 es un filtro de análisis de LPC. El bloque de estimación de envolvente 902 controla los coeficientes de filtro del filtro de análisis 910 de manera que el resultado del bloque 910 sea la señal de excitación de filtro. Esta señal de excitación de filtro se extiende con respecto a la frecuencia para obtener una señal de excitación a la salida del bloque 912, que no solo tiene el intervalo de frecuencias del decodificador 120 correspondiente a una señal de salida sino que también tiene la frecuencia o intervalo espectral no definida por el codificador de núcleo y/o que excede el intervalo espectral de la señal de núcleo. De este modo, se sobremuestrea la señal de audio 909 a la salida y es interpolada por un interpolador 900 y, a continuación, se somete a la señal interpolada al proceso ejecutado en el estimador de señales 118. De este modo, el interpolador 900 de la Fig. 9 puede corresponder al interpolador 1500 de la Fig. 15. Sin embargo, es preferible, a diferencia de la Fig. 15, que la extracción de características 104 se lleve a cabo utilizando la señal no interpolada en lugar de la señal interpolada, como se ilustra en la Fig. 15. Esto es ventajoso por el hecho de que el extractor de características 104 opera de manera más eficiente debido a que la señal de audio no interpolada 909 tiene un número menor de muestras en comparación con una determinada porción de tiempo de la señal de audio en comparación con la señal sobremuestreada e interpolada a la salida del bloque 900.
[0038] La Fig. 10 ilustra otra realización de la presente invención. A diferencia de la Fig. 9, la Fig. 10 tiene un modelo estadístico 904 que no solo ofrece una estimación de la envolvente como en la Fig. 9, sino que también presenta representaciones paramétricas adicionales que comprenden información correspondiente a la generación de tonos que faltan 1080 o la información para el filtrado inverso 1040 o la información sobre un ruido de fondo 1020 que se va a añadir. Los bloques 1020, 1040, los procedimientos de generación de envolvente espectral 1060 y tonos que faltan 1080 han sido descritos por la norma MPEG-4 en el contexto de HE-AAC (del inglés, Codificación de Audio Avanzada de Alta Eficiencia).
[0039] De este modo, también se pueden codificar otras señales diferentes de la voz, como se ilustra en la Fig. 10. En ese caso, podría no ser suficiente para codificar la envolvente espectral 1060 solamente, sino también más información lateral tal como la tonalidad (1040), el nivel de ruido (1020) o sinusoides que faltan (1080) como se efectúa en la tecnología de replicación de la banda espectral (SBR) lustrada en [6].
[0040] En la Fig. 11 se ilustra otra realización, en la que se utiliza la información lateral 114, es decir, la información lateral de selección además de la información lateral de SBR ilustrada en 1100. De este modo, la información lateral de selección que comprende, por ejemplo, información con respecto a los sonidos de voz detectados se suma a la información lateral de SBR 1100 existente anteriormente. Esto ayuda a regenerar con más precisión el contenido de alta frecuencia correspondiente a los sonidos de voz tales como sibilantes, incluyendo fricativos, plosivos o vocales. De este modo, el procedimiento ilustrado en la Fig. 11 tiene la ventaja de que la información lateral de selección 114 transmitida adicionalmente sustenta una clasificación del lado del decodificador (fonema) a fin de producir una adaptación del lado del decodificador de los parámetros de SBR o BWE (extensión de ancho de banda). De este modo, a diferencia de la Fig. 10, la realización de la Fig. 11 proporciona, además de la información lateral de selección, la información lateral SBR que ya existía.
[0041] La Fig. 8 ilustra una representación ejemplar de la señal de entrada codificada. La señal de entrada codificada consiste en las tramas subsiguientes 800, 806, 812. Cada trama tiene la señal de núcleo codificada. A título de ejemplo, la trama 800 tiene voz como señal de núcleo codificada. La trama 806 tiene música como señal de núcleo codificada y la trama 812 tiene, de nuevo, voz como señal de núcleo codificada. La trama 800 tiene como información lateral, por ejemplo, solo la información lateral de selección y no información lateral de SBR. De este modo, la trama 800 corresponde a la Fig. 9 o a la Fig. 10. A título de ejemplo, la trama 806 comprende información SBR pero no contiene información lateral de selección. Además, la trama 812 comprende una señal de voz codificada y, a diferencia de la trama 800, la trama 812 no contiene ninguna información lateral de selección. Esto se debe a que la información lateral de selección no es necesaria, ya que no se han encontrado ambigüedades en el proceso de extracción de características/modelo estadístico del lado del codificador.
[0042] A continuación se describe la Fig. 5. Se emplea un detector de actividad de voz o un detector de voz/no voz 500 que opera en la señal de núcleo a fin de decidir si se debe emplear la tecnología de mejora del ancho de banda o la frecuencia o una tecnología diferente de extensión de ancho de banda. De este modo, cuando el detector de actividad de voz o el detector de voz/no voz detecta voz o habla, en ese caso se utiliza una primera tecnología de extensión de ancho de banda BWEXT.1 ilustrada en 511 que funciona, por ejemplo, como se describe
en las Figs. 1, 9, 10, 11. De este modo, los conmutadores 502, 504 están configurados de tal manera que se toman los parámetros obtenidos del generador de parámetros de la entrada 512 y el conmutador 504 conecta estos parámetros con el bloque 511. Sin embargo, el detector 500 detecta una situación en que no se muestra ninguna señal de voz sino que muestra señales de música, en ese caso se introducen preferentemente los parámetros de extensión de ancho de banda 514 del flujo de bits en el procedimiento de la otra tecnología de extensión de ancho de banda 513. De este modo, el detector 500 detecta si se debe emplear o no la tecnología de extensión de ancho de banda 511 de la invención. En el caso de las señales de no voz, el codificador puede conmutar a las otras técnicas de extensión de ancho de banda ilustradas por el bloque 513, tal como se ha mencionado en [6, 8]. De este modo, el estimador de señales 118 de la Fig. 5 está configurado para conmutar a un procedimiento diferente de extensión de ancho de banda y/o al uso de diferentes parámetros extraídos de una señal codificada, cuando el detector 500 detecta una actividad que no es de voz o una señal que no es de voz humana. Para esta tecnología de extensión de ancho de banda 513 diferente, es preferible que la información lateral de selección no esté presente en el flujo de bits y tampoco se utiliza, lo que está simbolizado en la Fig. 5 por la activación del conmutador 502 ante la entrada 514.
[0043] La Fig. 6 ilustra una implementación adicional del generador de parámetros 108. El generador de parámetros 108 tiene preferentemente una pluralidad de modelos estadísticos tal como un primer modelo estadístico 600 y un segundo modelo estadístico 602. Además, se incluye un selector 604 que es controlado por la información lateral de selección para aportar la correcta alternativa de representación paramétrica. La opción de qué modelo estadístico se activa es controlada por un clasificador de señales adicional 606 que recibe, como entrada, la señal de núcleo, es decir, la misma señal introducida en el extractor de características 104. De este modo, el modelo estadístico de la Fig. 10 o de cualquier otra figura puede variar con el contenido codificado. En el caso de la voz, se emplea un modelo estadístico que representa un modelo fuente de producción de voz, mientras que para otras señales, tales como señales de música como, por ejemplo, las clasificadas por el clasificador de señales 606 se utiliza un modelo diferente que se entrena según una gran serie de datos musicales. Hay otros modelos estadísticos útiles asimismo para diferentes idiomas, etc.
[0044] Como se ha tratado anteriormente, la Fig. 7 ilustra la pluralidad de alternativas obtenidas por un modelo estadístico tal como el modelo estadístico 600. Por lo tanto, la salida del bloque 600 es, por ejemplo, para diferentes alternativas, como se ilustra en la línea paralela 605. Del mismo modo, el segundo modelo estadístico 602 puede emitir también una pluralidad de alternativas tales como las alternativas ilustradas en la línea 606. Dependiendo del modelo estadístico específico, es preferible que solo se emitan como salida las alternativas con elevada probabilidad con respecto al extractor de características 104. De este modo, un modelo estadístico presenta, en respuesta a una característica, una pluralidad de representaciones paramétricas alternativas, donde cada representación paramétrica alternativa tiene una probabilidad que es idéntica a las probabilidades de otras representaciones paramétricas alternativas o que es diferente de las probabilidades de las otras representaciones paramétricas alternativas en menos del 10 %. De este modo, en una realización, solo la representación paramétrica con la probabilidad más elevada y un número de otras representaciones paramétricas alternativas, todas las cuales tienen una probabilidad que es solo un 10 % menor que la probabilidad de la mejor alternativa con mejor coincidencia.
[0045] La Fig. 12 ilustra un codificador para generar una señal codificada 1212. El codificador comprende un codificador de núcleo 1200 para codificar una señal original 1206 para obtener una señal de audio del núcleo codificada 1208 que tiene información sobre un número más pequeño de bandas de frecuencia en comparación con la señal original 1206. Además, se incluye un generador de información lateral de selección 1202 para generar información lateral de selección 1210 (s Si - información lateral de selección). La información lateral de selección 1210 indica una representación paramétrica alternativa definida proporcionada por un modelo estadístico en respuesta a una característica extraída de la señal original 1206 o de la señal de audio codificada 1208 o de una versión decodificada de la señal de audio codificada. Además, el codificador comprende una interfaz de salida 1204 para emitir la señal codificada 1212. La señal codificada 1212 comprende la señal de audio codificada 1208 y la información lateral de selección 1210. Preferentemente, el generador de información lateral de selección 1202 está implementado de la manera ilustrada en la Fig. 13. Para este fin, el generador de información lateral de selección 1202 comprende un decodificador de núcleo 1300. Se incluye el extractor de características 1302 que opera en la señal de núcleo decodificada emitida por el bloque 1300. Se introduce la característica en un procesador de modelos estadísticos 1304 para generar un número de alternativas de representación paramétrica a fin de estimar un intervalo espectral de una señal mejorada en frecuencia no definida por la señal de núcleo decodificada emitida por el bloque 1300. Todas estas alternativas de representación paramétrica 1305 son introducidas en un estimador de señales 1306 para estimar una señal de audio mejorada en frecuencia 1307. A continuación se introducen todas estas señales de audio mejoradas en frecuencia 1307 en un comparador 1308 para comparar las señales de audio mejoradas en la frecuencia 1307 con la señal original 1206 de la Fig. 12. El generador de información lateral de selección 1202 está configurado además para establecer la información lateral de selección 1210 de manera que la información lateral de selección defina de manera unívoca la alternativa de representación paramétrica que da origen a una señal de audio mejorada en frecuencia que mejor coincide con la señal original según un criterio de optimización. El criterio de optimización puede ser un criterio basado en MMSE (mínimo error cuadrático medio), un criterio que minimiza la diferencia por muestra o preferentemente un criterio psicoacústico que minimiza la distorsión
percibida o cualquier otro criterio de optimización conocido por aquellos expertos en la materia.
[0046] Aunque la Fig. 13 ilustra un procedimiento de bucle cerrado o de análisis por síntesis, la Fig. 14 ilustra una implementación alternativa de la información lateral de selección 1202 más similar a un procedimiento de bucle abierto. En la realización de la Fig. 14, la señal original 1206 comprende meta información asociada para el generador de información lateral de selección 1202 que describe una secuencia de información acústica (por ejemplo, anotaciones) correspondiente a una secuencia de muestras de la señal de audio original. El generador de información lateral de selección 1202 comprende un extractor de metadatos 1400 para extraer la secuencia de meta información y, además, un traductor de metadatos, que por lo general tiene conocimiento sobre el modelo estadístico empleado del lado del decodificador para traducir la secuencia de meta información en una secuencia de información lateral de selección 1210 asociada a la señal de audio original. Los metadatos extraídos por el extractor de metadatos 1400 son descartados en el codificador y no se transmiten en la señal codificada 1212. Por el contrario, la información lateral de selección 1210 se transmite en la señal codificada junto con la señal de audio codificada 1208 generada por el codificador de núcleo que tiene un contenido de frecuencia diferente y, por lo general, un contenido de frecuencia menor en comparación con la señal decodificada generada en último término o en comparación con la señal original 1206.
[0047] La información lateral de selección 1210 generada por el generador de información lateral de selección 1202 puede tener cualquiera de las características señaladas en el contexto de las figuras anteriores.
[0048] Aunque la presente invención ha sido descrita en el contexto de diagramas de bloques en los cuales los bloques representan componentes de hardware reales o lógicos, la presente invención también puede ser implementada por un procedimiento implementado por informática. En este último caso, los bloques representan etapas correspondientes en el procedimiento, donde estas etapas representan las funcionalidades ejecutadas por los bloques de hardware lógicos o físicos correspondientes.
[0049] Aunque se han descrito algunos aspectos en el contexto de un aparato, es obvio que estos aspectos también representan una descripción del procedimiento correspondiente, en el cual un bloque o dispositivo corresponde a una etapa del procedimiento o a una característica de una etapa del procedimiento. De manera análoga, los aspectos descritos en el contexto de una etapa del procedimiento también representan una descripción de un bloque o elemento correspondiente o de una característica de un aparato correspondiente. Algunas o todas las etapas del procedimiento pueden ser ejecutadas por medio de (o mediante el uso de) un aparato de hardware como, por ejemplo, un microprocesador, un ordenador programable o un circuito electrónico. En algunas realizaciones, una cualquiera o más de las etapas más importantes del procedimiento pueden ser ejecutadas por ese tipo de aparato.
[0050] La señal transmitida o codificada puede ser almacenada en un medio de almacenamiento digital o puede ser transmitida por un medio de transmisión tal como un medio de transmisión inalámbrico o un medio de transmisión por cable tal como Internet.
[0051] Dependiendo de ciertos requisitos de implementación, las realizaciones de la invención pueden ser implementadas en hardware o en software. La implementación se puede realizar empleando un medio de almacenamiento digital, por ejemplo un disco flexible, un DVD, un Blu-Ray, un CD, una ROM, una PROM, una EPROM, una EEPROM o una memoria FLASH, que tiene almacenadas en el mismo, señales de control legibles electrónicamente, que cooperan (o tienen capacidad para cooperar) con un sistema de computación programable de tal manera que se ejecute el procedimiento respectivo. Por lo tanto, el medio de almacenamiento digital puede ser legible por ordenador.
[0052] Algunas realizaciones según la invención comprenden un soporte de datos que comprende señales de control legibles electrónicamente, con capacidad para cooperar con un sistema de computación programable de tal manera que se ejecute uno de los procedimientos descritos en esta invención.
[0053] En general, las realizaciones de la presente invención pueden ser implementadas en forma de producto de programa informático con un código de programa, donde el código de programa cumple la función de ejecutar uno de los procedimientos al ejecutarse el producto de programa informático en un ordenador. El código de programa puede ser almacenado, por ejemplo, en un soporte legible por una máquina.
[0054] Otras realizaciones comprenden el programa informático para ejecutar uno de los procedimientos descritos en esta invención, almacenado en un soporte legible por máquina.
[0055] En otras palabras, una realización del procedimiento de la invención consiste, por lo tanto, en un programa informático que consta de un código de programa para realizar uno de los procedimientos descritos en esta invención al ejecutarse el programa informático en un ordenador.
[0056] Una realización adicional del procedimiento de la invención consiste, por lo tanto, en un soporte de
datos (o medio de almacenamiento no transitorio tal como un medio de almacenamiento digital, o medio legible por ordenador) que comprende, grabado en el mismo, el programa informático para ejecutar uno de los procedimientos descritos en esta invención. El soporte de datos, el medio de almacenamiento digital o el medio grabado son por lo general tangibles y/o no transitorios.
[0057] Una realización adicional del procedimiento de la invención es, por lo tanto, un flujo de datos o una secuencia de señales que representa el programa informático para ejecutar uno de los procedimientos descritos en esta invención. El flujo de datos o la secuencia de señales pueden estar configurados, por ejemplo, para ser transferidos a través de una conexión de comunicación de datos, por ejemplo, a través de Internet.
[0058] Una realización adicional comprende un medio de procesamiento, por ejemplo, un ordenador, un dispositivo lógico programable, configurado o adaptado para ejecutar uno de los procedimientos descritos en esta invención.
[0059] Una realización adicional comprende un ordenador en el que se ha instalado el programa informático para ejecutar uno de los procedimientos descritos en esta invención.
[0060] Una realización adicional según la invención comprende un aparato o sistema configurado para transferir (por ejemplo por vía electrónica u óptica) un programa informático para poner en práctica uno de los procedimientos descritos en esta invención en un receptor. El receptor puede ser, por ejemplo, un ordenador, un dispositivo móvil, un dispositivo de memoria o similar. El aparato o sistema puede comprender, por ejemplo, un servidor de archivos para transferir el programa informático al receptor.
[0061] En algunas realizaciones, se puede utilizar un dispositivo lógico programable (por ejemplo una matriz de puertas programables en el campo) para ejecutar algunas o todas las funcionalidades de los procedimientos descritos en esta invención. En algunas realizaciones, una matriz de puertas programables en el campo puede cooperar con un microprocesador para ejecutar uno de los procedimientos descritos en esta invención. Por lo general, los procedimientos son ejecutados preferentemente por cualquier aparato de hardware.
[0062] Las realizaciones anteriormente descritas son meramente ilustrativas de los principios de la presente invención. Se entiende que las modificaciones y variaciones de las disposiciones y detalles descritos en esta invención han de ser evidentes para aquellos expertos en la materia. Por lo tanto, es la intención limitarse únicamente al alcance de las siguientes reivindicaciones de patente y no a los detalles específicos presentados a manera de descripción y explicación de las realizaciones presentadas en esta invención.
Referencias:
[0063]
[1] B. Bessette y col., "The Adaptive Multi-rate Wideband Speech Codec (AMR-WB)", IEEE Trans. on Speech and Audio Processing, Vol. 10, N.° 8, Nov. 2002.
[2] B. Geiser y col., "Wide band Extension for Hierarchical Speech and Audio Coding in ITU-T Rec. G.729.1", IEEE Trans. on Audio, Speech, and Language Processing, Vol. 15, N.° 8, Nov. 2007.
[3] B. lser, W. Minker, y G. Schmidt, Wide band Extension of Speech Signals, Springer Lecture Notes in Electrical Engineering, Vol. 13, Nueva York, 2008.
[4] M. Jelinek y R. Salami, "Speech Wideband Extension Coding Advances in VMR-WB Standard", IEEE Trans. on Audio, Speech, and Language Processing, Vol. 15, N.°4, mayo de 2007.
[5] I. Katsir, I. Cohen, y D. Malah, "Speech Wideband Extension Coding Based on Speech Phonetic Content and Speaker Vocal Tract Shape Estimation", en Proc. EUSIPCO 2011, Barcelona, España, Sept. 2011.
[6] E. Larsen y R. M. Aarts, Audio Wideband Extension: Application of Psychoacoustics, Signal Processing and Loudspeaker Design, Wiley, Nueva York, 2004.
[7] J. Makinen y col., "AMR-WB+: A New Audio Coding Standard for 3rd Generation Mobile Audio Services", en Proc. ICASSP 2005, Filadelfia, EE. UU., marzo de 2005.
[8] M. Neuendorf y col., "MPEG Unified Speech y Audio Coding - The ISO/MPEG Standard for High-Efficiency Audio Coding of All Content Types", en Proc. 132a Convention of the AES, Budapest, Hungría, abril de 2012. También aparece en the Journal of the AES, 2013.
[9] H. Pulakka y P. Alku, "Bandwidth extension of Telephone Speech Using a Neural Network and a Filter Bank Implementation for Highband Mel Spectrum", IEEE Trans. on Audio, Speech, and Language Processing, Vol. 19, N.° 7, Sept. 2011.
[10] T. Vaillancourt y col., "ITU-T EV-VBR: A Robust 8-32 kbit/s Scalable Coder for Error Prone Telecommunications Channels," en Proc. EUSIPCO 2008, Lausanne, Suiza, agosto de 2008.
[11] L. Miao y col., "G.711.1 Annex D and G.722 Annex B: New ITU-T Superwideband codecs," en Proc. ICASSP 2011, Praga, República Checa, mayo de 2011.
[12] Bernd Geiser, Peter Jax, y Peter Vary: "ROBUST WIDEBAND ENHANCEMENT OF SPEECH BY COMBINED CODING AND ARTIFICIAL WIDEBAND EXTENSION", Proceedings of International Workshop on
Acoustic Echo and Noise Control (IWAENC), 2005.
Claims (16)
1. Un decodificador para generar una señal de audio mejorada en frecuencia (120), que comprende: un extractor de características (104) para extraer una característica (112) de una señal de audio de núcleo (100, 201);
un extractor de informaciones laterales (110) para extraer una información lateral de selección (114, 712, 714, 716, 718) asociada a la señal de audio de núcleo (100, 201);
un generador de parámetros (108) con un modelo estadístico (904), donde el generador de parámetros (108) está configurado para generar una representación paramétrica (116) para estimar un intervalo espectral de la señal de audio mejorada en frecuencia (120) no definida por la señal de audio de núcleo (100, 201), donde el generador de parámetros (108) está configurado
para introducir (400) la característica (112) extraída por el extractor de características (104) en el modelo estadístico (904);
para proporcionar (402), mediante el modelo estadístico (904), una pluralidad de alternativas de representación paramétrica (702, 704, 706, 708) en respuesta a la característica (112) introducida (400) en el modelo estadístico (904), y
para seleccionar (406) una alternativa de representación paramétrica (116) de la pluralidad de alternativas de representación paramétrica (702, 704, 706, 708) proporcionadas (402), mediante el modelo estadístico (904), como la representación paramétrica (116) en respuesta a la información lateral de selección (114, 712, 714, 716, 718); y
un estimador de señales (118) para estimar la señal de audio mejorada en frecuencia (120) mediante el uso de la representación paramétrica (116) seleccionada, donde el estimador de señales (118) está configurado para añadir un contenido de frecuencia adicional a la señal de audio de núcleo (100, 201),
donde la información lateral de selección (114, 712, 714, 716, 718) comprende un número N de bits por trama (800) de la señal de audio de núcleo (100, 201), y
donde el generador de parámetros (108) está configurado para proporcionar, como máximo, una cantidad de alternativas de representación paramétrica (702, 704, 706, 708) igual a 2N, donde N es el número de bits de la información lateral de selección (114, 712, 714, 716, 718).
2. Decodificador de la reivindicación 1, que comprende además:
una interfaz de entrada (110) para recibir una señal de entrada codificada (200) que comprende una señal de audio de núcleo codificada (201) y la información lateral de selección (114, 712, 714, 716, 718); y
un decodificador de núcleo (124) para decodificar la señal de audio de núcleo codificada (201) para obtener una señal decodificada como señal de audio de núcleo (100).
3. Decodificador de la reivindicación 1 o 2, donde el generador de parámetros (108) está configurado para utilizar, cuando se selecciona una de las alternativas de representación paramétrica (702, 704, 706, 708), un orden predefinido de alternativas de representación paramétrica (702, 704, 706, 708) o un orden señalizado por el codificador de alternativas de representación paramétrica (702, 704, 706, 708).
4. Decodificador de la reivindicación 1, 2 o 3, donde el generador de parámetros (108) está configurado para proporcionar una representación de envolvente como representación paramétrica (116), donde la información lateral de selección (114, 712, 714, 716, 718) indica uno de una pluralidad de diferentes sibilantes o fricativos, y
donde el generador de parámetros (108) está configurado para proporcionar la representación de envolvente (116) identificada por la información lateral de selección (114, 712, 714, 716, 718).
5. Decodificador de una de las reivindicaciones anteriores,
en el que el estimador de señales (118) comprende un interpolador (900) para interpolar la señal de audio de núcleo (100), y
donde el extractor de características (104) está configurado para extraer la característica (112) de la señal de audio de núcleo (100) que no se está interpolando.
6. Decodificador de una de las reivindicaciones anteriores,
donde el estimador de señales (118) comprende:
un filtro de análisis (910) para analizar la señal de audio de núcleo (100, 201) o una señal de audio de núcleo interpolada para obtener una señal de excitación;
un bloque de extensión de excitación (912) para generar una señal de excitación mejorada que tiene un intervalo
espectral no incluido en la señal de audio de núcleo (100, 201); y
un filtro de síntesis (914) para filtrar la señal de excitación extendida;
donde el filtro de análisis (910) o el filtro de síntesis (914) está determinado por la representación paramétrica (116) seleccionada.
7. Decodificador de una de las reivindicaciones anteriores,
donde el estimador de señales (118) comprende un procesador de extensión de ancho de banda espectral para generar una banda espectral extendida que corresponde al intervalo espectral no incluido en la señal de audio de núcleo (100, 201) mediante el uso de al menos una banda espectral de la señal de audio de núcleo (100, 201) y de la representación paramétrica (116) seleccionada,
donde la representación paramétrica (116) seleccionada comprende parámetros para al menos uno entre un ajuste de envolvente espectral (1060), una adición de ruido de fondo (1020), un filtrado inverso (1040) y una adición de tonos que faltan (1080),
donde el generador de parámetros (108) está configurado para proporcionar, para la característica (112), la pluralidad de alternativas de representación paramétrica (702, 704, 706, 708), teniendo cada alternativa de representación paramétrica de la pluralidad de alternativas de representación paramétrica (702, 704, 706, 708) parámetros para al menos uno entre el ajuste de envolvente espectral (1060), la adición de ruido de fondo (1020), el filtrado inverso (1040) y la adición de tonos que faltan (1080).
8. Decodificador de una de las reivindicaciones anteriores, que comprende además:
un detector de actividad de voz o un discriminador de voz/no voz (500),
donde el estimador de señales (118) está configurado para estimar la señal de audio mejorada en frecuencia (120) mediante el uso de la representación paramétrica (116) seleccionada solo cuando el detector de actividad de voz o el discriminador de voz/no voz (500) indica una actividad de voz o una señal de voz.
9. Decodificador de la reivindicación 8,
donde el estimador de señales (118) está configurado para conmutar (502, 504) de un procedimiento de mejora en frecuencia (511) a un procedimiento de mejora en frecuencia diferente (513) o para utilizar parámetros diferentes (514) extraídos de una señal de entrada codificada (200) cuando el detector de actividad de voz o el discriminador de voz/no voz (500) indica una señal de no voz o una señal que no tiene actividad de voz.
10. Decodificador de una de las reivindicaciones anteriores, que comprende además:
un clasificador de señales (606) para clasificar la trama (800) de la señal de audio de núcleo (100, 201), donde el generador de parámetros (108) está configurado para utilizar el modelo estadístico (904) como un primer modelo estadístico (600) cuando la trama (800) se clasifica como perteneciente a una primera clase de señales y para utilizar un segundo modelo estadístico diferente (602) cuando la trama (800) se clasifica en una segunda clase diferente de señales, donde el primer modelo estadístico (600) o el segundo modelo estadístico (602) está configurado para proporcionar, en respuesta a la característica (112), la pluralidad de alternativas de representación paramétrica (702, 704, 706, 708),
donde cada alternativa de representación paramétrica de la pluralidad de alternativas de representación paramétrica (702, 704, 706, 708) tiene una probabilidad que es idéntica a una probabilidad de una alternativa de representación paramétrica diferente o es diferente de la probabilidad de la alternativa de representación paramétrica en menos de un 10 % de la probabilidad más elevada.
11. Decodificador de una de las reivindicaciones anteriores,
donde la información lateral de selección (114, 712, 714, 716, 718) solo está incluida en la trama (800) de la señal de audio de núcleo (100, 201) cuando el generador de parámetros (108) proporciona la pluralidad de alternativas de representación paramétrica (702, 704, 706, 708), y
donde la información lateral de selección (114, 712, 714, 716, 718) no está incluida en una trama diferente (806, 812) de la señal de audio de núcleo (100, 201), en la cual el generador de parámetros (108) proporciona solo una única alternativa de representación paramétrica en respuesta a la característica (112).
12. Codificador para generar una señal codificada (1212), que comprende:
un codificador de núcleo (1200) para codificar una señal de audio original (1206) para obtener una señal de audio codificada (1208) que tiene información sobre un número más pequeño de bandas de frecuencia en comparación con una señal de audio original (1206);
un generador de información lateral de selección (1202) para generar información lateral de selección (1210) que indica una alternativa de representación paramétrica definida (116) de una pluralidad de alternativas de representación paramétrica (702, 704, 706, 708) proporcionadas por un modelo estadístico en respuesta a una característica (112) extraída de la señal de audio original (1206) o de la señal de audio codificada (1208) o de
una versión decodificada de la señal de audio codificada (1208); y
una interfaz de salida (1204) para emitir la señal codificada (1212), comprendiendo la señal codificada (1212) la señal de audio codificada (1208) y la información lateral de selección (1210),
donde el generador de información lateral de selección (1202) está configurado para generar la información lateral de selección (1210) que comprende un número N de bits por trama (800) de la señal de audio codificada (1208), y
donde el modelo estadístico es tal que, como máximo, se proporciona una cantidad de alternativas de representación paramétrica de la pluralidad de alternativas de representación paramétrica (702, 704, 706, 708) igual a 2N, donde N es el número de bits de la información lateral de selección (1210).
13. Codificador de la reivindicación 12,
donde la interfaz de salida (1204) está configurada para incluir solo la información lateral de selección (1210) en la señal codificada (1212) cuando el modelo estadístico proporciona una pluralidad de alternativas de representación paramétrica (702, 704, 706, 708) y para no incluir ninguna información lateral de selección en una trama diferente (806, 812) de la señal de audio codificada (1208), en la cual el modelo estadístico es operativo para proporcionar solo una única representación paramétrica en respuesta a la característica (112).
14. Procedimiento para generar una señal de audio mejorada en frecuencia (120), que comprende el hecho de:
extraer(104) una característica (112) de una señal de audio de núcleo (100, 201);
extraer (110) una información lateral de selección (114, 712, 714, 716, 718) asociada a la señal de audio de núcleo (100, 201);
generar (108), mediante el uso de un modelo estadístico (904), una representación paramétrica (116) para estimar un intervalo espectral de la señal de audio mejorada en frecuencia (120) no definida por la señal de audio de núcleo (100, 201), donde la generación (108) comprende el hecho de
introducir (400) la característica (112) extraída por la etapa de extracción (104) en el modelo estadístico (904);
proporcionar, mediante el modelo estadístico (904), una pluralidad de alternativas de representación paramétrica (702, 704, 706, 708) en respuesta a la característica (112) introducida (400) en el modelo estadístico (904), y
seleccionar (406) una alternativa de representación paramétrica de la pluralidad de alternativas de representación paramétrica (702, 704, 706, 708) proporcionadas por el modelo estadístico (904) como representación paramétrica en respuesta a la información lateral de selección (114, 712, 714, 716, 718); y
estimar (118) la señal de audio mejorada en frecuencia (120) mediante el uso de la representación paramétrica (116) seleccionada; donde la estimación (118) comprende la adición de un contenido de frecuencia adicional a la señal de audio de núcleo (100, 201),
donde la información lateral de selección (114, 712, 714, 716, 718) comprende un número N de bits por trama (800) de la señal de audio de núcleo (100, 201), y
donde la generación (108) proporciona, como máximo, una cantidad de alternativas de representación paramétrica (702 a 708) igual a 2N, donde N es el número de bits de la información lateral de selección (114, 712, 714, 716, 718).
15. Procedimiento de generación de una señal codificada (1212), que comprende el hecho de:
codificar (1200) una señal original (1206) para obtener una señal de audio codificada (1208) que tiene información sobre un número menor de bandas de frecuencia en comparación con una señal original (1206); generar (1202) información lateral de selección (1210) que indica una alternativa de representación paramétrica definida (116) de una pluralidad de alternativas de representación paramétrica (702, 704, 706, 708) proporcionadas por un modelo estadístico en respuesta a una característica (112) extraída de la señal original (1206) o de la señal de audio codificada (1208) o de una versión decodificada de la señal de audio codificada (1208); y
emitir como salida (1204) la señal codificada (1212), comprendiendo la señal codificada (1212) la señal de audio codificada (1208) y la información lateral de selección (1210),
donde el generador de información lateral de selección (1202) está configurado para generar la información lateral de selección (1210) que comprende un número N de bits por trama (800) de la señal de audio codificada (1208), y
donde el modelo estadístico es tal que, como máximo, se proporciona una cantidad de alternativas de representación paramétrica de la pluralidad de alternativas de representación paramétrica (702, 704, 706, 708) igual a 2N, donde N es el número de bits de la información lateral de selección (1210).
16. Un programa informático que comprende instrucciones que, cuando el programa informático es ejecutado por un ordenador o un procesador, hacen que el ordenador o el procesador lleve a cabo el
procedimiento de la reivindicación 14 o el procedimiento de la reivindicación 15.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201361758092P | 2013-01-29 | 2013-01-29 |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2943588T3 true ES2943588T3 (es) | 2023-06-14 |
Family
ID=50023570
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES17158862T Active ES2924427T3 (es) | 2013-01-29 | 2014-01-28 | Decodificador para generar una señal de audio mejorada en frecuencia, procedimiento de decodificación, codificador para generar una señal codificada y procedimiento de codificación que utiliza información lateral de selección compacta |
ES17158737T Active ES2943588T3 (es) | 2013-01-29 | 2014-01-28 | Decodificador para generar una señal de audio mejorada en frecuencia, procedimiento de decodificación, codificador para generar una señal codificada y procedimiento de codificación que utiliza información lateral de selección compacta |
ES14701550T Active ES2725358T3 (es) | 2013-01-29 | 2014-01-28 | Decodificador para generar una señal de audio mejorada en frecuencia, procedimiento de decodificación, codificador para generar una señal codificada y procedimiento de codificación que utiliza información lateral de selección compacta |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES17158862T Active ES2924427T3 (es) | 2013-01-29 | 2014-01-28 | Decodificador para generar una señal de audio mejorada en frecuencia, procedimiento de decodificación, codificador para generar una señal codificada y procedimiento de codificación que utiliza información lateral de selección compacta |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES14701550T Active ES2725358T3 (es) | 2013-01-29 | 2014-01-28 | Decodificador para generar una señal de audio mejorada en frecuencia, procedimiento de decodificación, codificador para generar una señal codificada y procedimiento de codificación que utiliza información lateral de selección compacta |
Country Status (19)
Country | Link |
---|---|
US (3) | US10657979B2 (es) |
EP (3) | EP2951828B1 (es) |
JP (3) | JP6096934B2 (es) |
KR (3) | KR101775084B1 (es) |
CN (3) | CN109509483B (es) |
AR (1) | AR094673A1 (es) |
AU (3) | AU2014211523B2 (es) |
BR (1) | BR112015018017B1 (es) |
CA (4) | CA3013756C (es) |
ES (3) | ES2924427T3 (es) |
HK (1) | HK1218460A1 (es) |
MX (1) | MX345622B (es) |
MY (1) | MY172752A (es) |
RU (3) | RU2676242C1 (es) |
SG (3) | SG10201608613QA (es) |
TR (1) | TR201906190T4 (es) |
TW (3) | TWI585754B (es) |
WO (1) | WO2014118155A1 (es) |
ZA (1) | ZA201506313B (es) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR3008533A1 (fr) * | 2013-07-12 | 2015-01-16 | Orange | Facteur d'echelle optimise pour l'extension de bande de frequence dans un decodeur de signaux audiofrequences |
TWI693594B (zh) | 2015-03-13 | 2020-05-11 | 瑞典商杜比國際公司 | 解碼具有增強頻譜帶複製元資料在至少一填充元素中的音訊位元流 |
US10008214B2 (en) * | 2015-09-11 | 2018-06-26 | Electronics And Telecommunications Research Institute | USAC audio signal encoding/decoding apparatus and method for digital radio services |
WO2019081070A1 (en) * | 2017-10-27 | 2019-05-02 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | APPARATUS, METHOD, OR COMPUTER PROGRAM PRODUCT FOR GENERATING ENHANCED BANDWIDTH AUDIO SIGNAL USING NEURAL NETWORK PROCESSOR |
KR102556098B1 (ko) * | 2017-11-24 | 2023-07-18 | 한국전자통신연구원 | 심리음향 기반 가중된 오류 함수를 이용한 오디오 신호 부호화 방법 및 장치, 그리고 오디오 신호 복호화 방법 및 장치 |
CN108399913B (zh) * | 2018-02-12 | 2021-10-15 | 北京容联易通信息技术有限公司 | 高鲁棒性音频指纹识别方法及系统 |
JP7019096B2 (ja) | 2018-08-30 | 2022-02-14 | ドルビー・インターナショナル・アーベー | 低ビットレート符号化オーディオの増強を制御する方法及び機器 |
JP2023512178A (ja) * | 2020-02-03 | 2023-03-24 | ピンドロップ セキュリティー、インコーポレイテッド | 音声バイオメトリクスのクロスチャネル登録と認証 |
CN113808596A (zh) * | 2020-05-30 | 2021-12-17 | 华为技术有限公司 | 一种音频编码方法和音频编码装置 |
CN112233685B (zh) * | 2020-09-08 | 2024-04-19 | 厦门亿联网络技术股份有限公司 | 基于深度学习注意力机制的频带扩展方法及装置 |
KR20220151953A (ko) | 2021-05-07 | 2022-11-15 | 한국전자통신연구원 | 부가 정보를 이용한 오디오 신호의 부호화 및 복호화 방법과 그 방법을 수행하는 부호화기 및 복호화기 |
US20230016637A1 (en) * | 2021-07-07 | 2023-01-19 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Apparatus and Method for End-to-End Adversarial Blind Bandwidth Extension with one or more Convolutional and/or Recurrent Networks |
CN114443891B (zh) * | 2022-01-14 | 2022-12-06 | 北京有竹居网络技术有限公司 | 编码器的生成方法、指纹提取方法、介质及电子设备 |
Family Cites Families (56)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5646961A (en) * | 1994-12-30 | 1997-07-08 | Lucent Technologies Inc. | Method for noise weighting filtering |
US6226616B1 (en) * | 1999-06-21 | 2001-05-01 | Digital Theater Systems, Inc. | Sound quality of established low bit-rate audio coding systems without loss of decoder compatibility |
US8605911B2 (en) * | 2001-07-10 | 2013-12-10 | Dolby International Ab | Efficient and scalable parametric stereo coding for low bitrate audio coding applications |
US7603267B2 (en) * | 2003-05-01 | 2009-10-13 | Microsoft Corporation | Rules-based grammar for slots and statistical model for preterminals in natural language understanding system |
US7447317B2 (en) * | 2003-10-02 | 2008-11-04 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V | Compatible multi-channel coding/decoding by weighting the downmix channel |
CA2457988A1 (en) * | 2004-02-18 | 2005-08-18 | Voiceage Corporation | Methods and devices for audio compression based on acelp/tcx coding and multi-rate lattice vector quantization |
WO2006022124A1 (ja) * | 2004-08-27 | 2006-03-02 | Matsushita Electric Industrial Co., Ltd. | オーディオデコーダ、方法及びプログラム |
BRPI0515128A (pt) * | 2004-08-31 | 2008-07-08 | Matsushita Electric Ind Co Ltd | aparelho de geração de sinal estéreo e método de geração de sinal estéreo |
SE0402652D0 (sv) * | 2004-11-02 | 2004-11-02 | Coding Tech Ab | Methods for improved performance of prediction based multi- channel reconstruction |
US20080126092A1 (en) * | 2005-02-28 | 2008-05-29 | Pioneer Corporation | Dictionary Data Generation Apparatus And Electronic Apparatus |
US7751572B2 (en) * | 2005-04-15 | 2010-07-06 | Dolby International Ab | Adaptive residual audio coding |
KR20070003574A (ko) * | 2005-06-30 | 2007-01-05 | 엘지전자 주식회사 | 오디오 신호 인코딩 및 디코딩 방법 및 장치 |
DE102005032724B4 (de) * | 2005-07-13 | 2009-10-08 | Siemens Ag | Verfahren und Vorrichtung zur künstlichen Erweiterung der Bandbreite von Sprachsignalen |
US20070055510A1 (en) * | 2005-07-19 | 2007-03-08 | Johannes Hilpert | Concept for bridging the gap between parametric multi-channel audio coding and matrixed-surround multi-channel coding |
US20070094035A1 (en) * | 2005-10-21 | 2007-04-26 | Nokia Corporation | Audio coding |
US7546237B2 (en) * | 2005-12-23 | 2009-06-09 | Qnx Software Systems (Wavemakers), Inc. | Bandwidth extension of narrowband speech |
US7835904B2 (en) * | 2006-03-03 | 2010-11-16 | Microsoft Corp. | Perceptual, scalable audio compression |
DE602006021347D1 (de) * | 2006-03-28 | 2011-05-26 | Fraunhofer Ges Forschung | Verbessertes verfahren zur signalformung bei der mehrkanal-audiorekonstruktion |
JP4766559B2 (ja) | 2006-06-09 | 2011-09-07 | Kddi株式会社 | 音楽信号の帯域拡張方式 |
EP1883067A1 (en) * | 2006-07-24 | 2008-01-30 | Deutsche Thomson-Brandt Gmbh | Method and apparatus for lossless encoding of a source signal, using a lossy encoded data stream and a lossless extension data stream |
CN101140759B (zh) * | 2006-09-08 | 2010-05-12 | 华为技术有限公司 | 语音或音频信号的带宽扩展方法及系统 |
CN101479787B (zh) * | 2006-09-29 | 2012-12-26 | Lg电子株式会社 | 用于编码和解码基于对象的音频信号的方法和装置 |
JP5026092B2 (ja) * | 2007-01-12 | 2012-09-12 | 三菱電機株式会社 | 動画像復号装置および動画像復号方法 |
EP2077550B8 (en) * | 2008-01-04 | 2012-03-14 | Dolby International AB | Audio encoder and decoder |
EP2248263B1 (en) * | 2008-01-31 | 2012-12-26 | Agency for Science, Technology And Research | Method and device of bitrate distribution/truncation for scalable audio coding |
DE102008015702B4 (de) | 2008-01-31 | 2010-03-11 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und Verfahren zur Bandbreitenerweiterung eines Audiosignals |
DE102008009719A1 (de) * | 2008-02-19 | 2009-08-20 | Siemens Enterprise Communications Gmbh & Co. Kg | Verfahren und Mittel zur Enkodierung von Hintergrundrauschinformationen |
JP5108960B2 (ja) * | 2008-03-04 | 2012-12-26 | エルジー エレクトロニクス インコーポレイティド | オーディオ信号処理方法及び装置 |
US8578247B2 (en) * | 2008-05-08 | 2013-11-05 | Broadcom Corporation | Bit error management methods for wireless audio communication channels |
CA2871268C (en) * | 2008-07-11 | 2015-11-03 | Nikolaus Rettelbach | Audio encoder, audio decoder, methods for encoding and decoding an audio signal, audio stream and computer program |
CA2836871C (en) * | 2008-07-11 | 2017-07-18 | Stefan Bayer | Time warp activation signal provider, audio signal encoder, method for providing a time warp activation signal, method for encoding an audio signal and computer programs |
CN102089814B (zh) * | 2008-07-11 | 2012-11-21 | 弗劳恩霍夫应用研究促进协会 | 对编码的音频信号进行解码的设备和方法 |
ES2796552T3 (es) * | 2008-07-11 | 2020-11-27 | Fraunhofer Ges Forschung | Sintetizador de señales de audio y codificador de señales de audio |
ES2592416T3 (es) * | 2008-07-17 | 2016-11-30 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Esquema de codificación/decodificación de audio que tiene una derivación conmutable |
JP5326465B2 (ja) | 2008-09-26 | 2013-10-30 | 富士通株式会社 | オーディオ復号方法、装置、及びプログラム |
MX2011011399A (es) * | 2008-10-17 | 2012-06-27 | Univ Friedrich Alexander Er | Aparato para suministrar uno o más parámetros ajustados para un suministro de una representación de señal de mezcla ascendente sobre la base de una representación de señal de mezcla descendete, decodificador de señal de audio, transcodificador de señal de audio, codificador de señal de audio, flujo de bits de audio, método y programa de computación que utiliza información paramétrica relacionada con el objeto. |
JP5629429B2 (ja) | 2008-11-21 | 2014-11-19 | パナソニック株式会社 | オーディオ再生装置及びオーディオ再生方法 |
UA99878C2 (ru) * | 2009-01-16 | 2012-10-10 | Долби Интернешнл Аб | Гармоническое преобразование, усовершенствованное перекрестным произведением |
RU2493618C2 (ru) * | 2009-01-28 | 2013-09-20 | Долби Интернешнл Аб | Усовершенствованное гармоническое преобразование |
KR101433701B1 (ko) * | 2009-03-17 | 2014-08-28 | 돌비 인터네셔널 에이비 | 적응형으로 선택가능한 좌/우 또는 미드/사이드 스테레오 코딩과 파라메트릭 스테레오 코딩의 조합에 기초한 진보된 스테레오 코딩 |
EP2239732A1 (en) | 2009-04-09 | 2010-10-13 | Fraunhofer-Gesellschaft zur Förderung der Angewandten Forschung e.V. | Apparatus and method for generating a synthesis audio signal and for encoding an audio signal |
ES2400661T3 (es) * | 2009-06-29 | 2013-04-11 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Codificación y decodificación de extensión de ancho de banda |
TWI433137B (zh) * | 2009-09-10 | 2014-04-01 | Dolby Int Ab | 藉由使用參數立體聲改良調頻立體聲收音機之聲頻信號之設備與方法 |
RU2607266C2 (ru) * | 2009-10-16 | 2017-01-10 | Фраунхофер-Гезелльшафт цур Фёрдерунг дер ангевандтен Форшунг Е.Ф. | Устройство, способ и компьютерная программа для формирования с использованием среднего значения параметров сигнала, подстроенных для обеспечения представления микшированного с повышением сигнала на базе представления микшированного с понижением сигнала и параметрической сторонней информации, связанной с представлением микшированного с понижением сигнала |
AU2010310041B2 (en) * | 2009-10-21 | 2013-08-15 | Dolby International Ab | Apparatus and method for generating a high frequency audio signal using adaptive oversampling |
US8484020B2 (en) | 2009-10-23 | 2013-07-09 | Qualcomm Incorporated | Determining an upperband signal from a narrowband signal |
US9286944B2 (en) * | 2009-11-04 | 2016-03-15 | Koninklijke Philips N.V. | Methods and systems for providing a combination of media data and metadata |
CN102081927B (zh) * | 2009-11-27 | 2012-07-18 | 中兴通讯股份有限公司 | 一种可分层音频编码、解码方法及系统 |
US20120331137A1 (en) * | 2010-03-01 | 2012-12-27 | Nokia Corporation | Method and apparatus for estimating user characteristics based on user interaction data |
EP3779975B1 (en) * | 2010-04-13 | 2023-07-12 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Audio decoder and related methods for processing multi-channel audio signals using a variable prediction direction |
BR112012027438B1 (pt) * | 2010-04-26 | 2022-02-22 | Sun Patent Trust | Método para decodificar, meio legível por computador e aparelho para decodificar |
US8600737B2 (en) * | 2010-06-01 | 2013-12-03 | Qualcomm Incorporated | Systems, methods, apparatus, and computer program products for wideband speech coding |
TWI516138B (zh) * | 2010-08-24 | 2016-01-01 | 杜比國際公司 | 從二聲道音頻訊號決定參數式立體聲參數之系統與方法及其電腦程式產品 |
EP2432161B1 (en) * | 2010-09-16 | 2015-09-16 | Deutsche Telekom AG | Method of and system for measuring quality of audio and video bit stream transmissions over a transmission chain |
CN101959068B (zh) * | 2010-10-12 | 2012-12-19 | 华中科技大学 | 一种视频流解码计算复杂度估计方法 |
UA107771C2 (en) * | 2011-09-29 | 2015-02-10 | Dolby Int Ab | Prediction-based fm stereo radio noise reduction |
-
2014
- 2014-01-28 KR KR1020167021785A patent/KR101775084B1/ko active IP Right Grant
- 2014-01-28 AU AU2014211523A patent/AU2014211523B2/en active Active
- 2014-01-28 SG SG10201608613QA patent/SG10201608613QA/en unknown
- 2014-01-28 TR TR2019/06190T patent/TR201906190T4/tr unknown
- 2014-01-28 RU RU2017109527A patent/RU2676242C1/ru active
- 2014-01-28 MY MYPI2015001889A patent/MY172752A/en unknown
- 2014-01-28 CN CN201811139723.4A patent/CN109509483B/zh active Active
- 2014-01-28 RU RU2017109526A patent/RU2676870C1/ru active
- 2014-01-28 WO PCT/EP2014/051591 patent/WO2014118155A1/en active Application Filing
- 2014-01-28 CN CN201480006567.8A patent/CN105103229B/zh active Active
- 2014-01-28 MX MX2015009747A patent/MX345622B/es active IP Right Grant
- 2014-01-28 EP EP14701550.7A patent/EP2951828B1/en active Active
- 2014-01-28 SG SG11201505925SA patent/SG11201505925SA/en unknown
- 2014-01-28 CA CA3013756A patent/CA3013756C/en active Active
- 2014-01-28 CA CA3013766A patent/CA3013766C/en active Active
- 2014-01-28 ES ES17158862T patent/ES2924427T3/es active Active
- 2014-01-28 RU RU2015136789A patent/RU2627102C2/ru active
- 2014-01-28 ES ES17158737T patent/ES2943588T3/es active Active
- 2014-01-28 ES ES14701550T patent/ES2725358T3/es active Active
- 2014-01-28 CA CA3013744A patent/CA3013744C/en active Active
- 2014-01-28 KR KR1020157022901A patent/KR101798126B1/ko active IP Right Grant
- 2014-01-28 CA CA2899134A patent/CA2899134C/en active Active
- 2014-01-28 CN CN201811139722.XA patent/CN109346101B/zh active Active
- 2014-01-28 SG SG10201608643PA patent/SG10201608643PA/en unknown
- 2014-01-28 EP EP17158862.7A patent/EP3196878B1/en active Active
- 2014-01-28 BR BR112015018017-5A patent/BR112015018017B1/pt active IP Right Grant
- 2014-01-28 KR KR1020167021784A patent/KR101775086B1/ko active IP Right Grant
- 2014-01-28 JP JP2015554193A patent/JP6096934B2/ja active Active
- 2014-01-28 EP EP17158737.1A patent/EP3203471B1/en active Active
- 2014-01-29 TW TW104132427A patent/TWI585754B/zh active
- 2014-01-29 TW TW104132428A patent/TWI585755B/zh active
- 2014-01-29 TW TW103103520A patent/TWI524333B/zh active
- 2014-01-29 AR ARP140100289A patent/AR094673A1/es active IP Right Grant
-
2015
- 2015-07-28 US US14/811,722 patent/US10657979B2/en active Active
- 2015-08-28 ZA ZA2015/06313A patent/ZA201506313B/en unknown
-
2016
- 2016-06-06 HK HK16106404.9A patent/HK1218460A1/zh unknown
- 2016-11-21 AU AU2016262638A patent/AU2016262638B2/en active Active
- 2016-11-21 AU AU2016262636A patent/AU2016262636B2/en active Active
- 2016-12-20 JP JP2016246647A patent/JP6513066B2/ja active Active
- 2016-12-20 JP JP2016246648A patent/JP6511428B2/ja active Active
-
2017
- 2017-08-03 US US15/668,375 patent/US10062390B2/en active Active
- 2017-08-03 US US15/668,473 patent/US10186274B2/en active Active
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2943588T3 (es) | Decodificador para generar una señal de audio mejorada en frecuencia, procedimiento de decodificación, codificador para generar una señal codificada y procedimiento de codificación que utiliza información lateral de selección compacta |