MX2013009305A - Generacion de ruido en codecs de audio. - Google Patents

Generacion de ruido en codecs de audio.

Info

Publication number
MX2013009305A
MX2013009305A MX2013009305A MX2013009305A MX2013009305A MX 2013009305 A MX2013009305 A MX 2013009305A MX 2013009305 A MX2013009305 A MX 2013009305A MX 2013009305 A MX2013009305 A MX 2013009305A MX 2013009305 A MX2013009305 A MX 2013009305A
Authority
MX
Mexico
Prior art keywords
background noise
audio signal
parametric
input audio
spectral
Prior art date
Application number
MX2013009305A
Other languages
English (en)
Inventor
Stephan Wilde
Martin Dietz
Panji Setiawan
Anthony Lombard
Original Assignee
Fraunhofer Ges Forschung
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer Ges Forschung filed Critical Fraunhofer Ges Forschung
Publication of MX2013009305A publication Critical patent/MX2013009305A/es

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/10Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a multipulse excitation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/028Noise substitution, i.e. substituting non-tonal spectral components by noisy source
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/005Correction of errors induced by the transmission channel, if related to the coding algorithm
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/012Comfort noise or silence coding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/0212Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using orthogonal transformation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/022Blocking, i.e. grouping of samples in time; Choice of analysis windows; Overlap factoring
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/022Blocking, i.e. grouping of samples in time; Choice of analysis windows; Overlap factoring
    • G10L19/025Detection of transients or attacks for time/frequency resolution switching
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/03Spectral prediction for preventing pre-echo; Temporary noise shaping [TNS], e.g. in MPEG2 or MPEG4
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/06Determination or coding of the spectral characteristics, e.g. of the short-term prediction coefficients
    • G10L19/07Line spectrum pair [LSP] vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/10Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a multipulse excitation
    • G10L19/107Sparse pulse excitation, e.g. by using algebraic codebook
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/12Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/12Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
    • G10L19/13Residual excited linear prediction [RELP]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/22Mode decision, i.e. based on audio signal content versus external parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/06Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being correlation coefficients
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K15/00Acoustics not otherwise provided for
    • G10K15/02Synthesis of acoustic waves
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/26Pre-filtering or post-filtering

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Quality & Reliability (AREA)
  • Algebra (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Physics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Noise Elimination (AREA)
  • Image Generation (AREA)
  • Soundproofing, Sound Blocking, And Sound Damping (AREA)
  • Optical Communication System (AREA)

Abstract

Se usa eficientemente el dominio espectral para parametrizar el ruido de fondo produciendo de ese modo una síntesis de ruido de fondo que es más realista y por ende conduce a una más transparente conmutación de fase activa a inactiva.

Description

GENERACION DE RUIDO EN COPECS DE AUDIO ! j Descripción El presente invento se relaciona con un codee de audio que soporta síntesis de ruido durante fases inactivas. j En la técnica se conoce la posibilidad de reducir el ancho dé banda de transmisión aprovechando los períodos inactivos de vos u otras fuentes ¡de ruido. Tales esquemas generalmente usan alguna forma de detección para ¡distinguir entre fases inactivas (de silencio) y activas (de no silencio). Durante ¡fases inactivas, un logra una menor frecuencia de bits parando la transmisión de i i secuencia de datos codificando precisamente la señal grabada, y enviando en cambio sólo actualizaciones de descripción de inserción de silencio ¡ (SID). Las actualizaciones de SID pueden ser transmitidas a intervalos regulares o| cuando se detectan cambios en las características del ruido de fondo. Entonces 'sé pueden usar los cuadros de SID en el lado de decodificación para generar un ruido de fondo con características similares al ruido de fondo durante las fases| activas de modo que el freno de la transmisión de la secuencia de datos ordinaria que codifica la señal grabada no conduce a una transición desagradable desde la fase activa a la fase inactiva en el lado del receptor. i ! Sin embargo, todavía hay una necesidad de reducir más; el ritmiD de transmisión. Un creciente número de consumidores de cantidad de! bits transmitidos (bitrate), tal como un creciente número de teléfonos mój/il!es, !y un creciente número de aplicaciones que hacen uso más o menos intehsivp en i cuando a cantidad de bits transmitidos, requieren una permanente reducción de la cantidad de bits transmitidos consumidos.
Por el otro lado, el ruido sintetizado debe emular estrechamente el ruido real de modo que la síntesis sea transparente para los usuarios. | Consiguientemente, es un objetivo del presente invento proveér un esquema de codee de audio que soporta generación de ruido durarjite fases inactivas, el cual permite reducir la cantidad de bits transmitidos de transmisión y/o ayuda a aumentar la calidad de generación alcanzable.
Este objetivo se alcanza mediante la materia del caso de una p'aiíte de las El último objetivo también se alcanza mediante la materia del casó de otra parte de las reivindicaciones independientes de la presente solicitud. ¡ En partios, es una idea básica que subyace a ,a presente nvenci6n que se puede usar muy eficientemente el dominio espectral para parameírizar el ruido parametrizar el ruido de fondo en el dominio espectral tiene ventaja cuando se combina con la actualización continua mencionada antes de la est¡mació|n ¡de ruido de fondo paramétrica durante las fases activas ya que se puede lograr una mejor separación entre ruido y señal útil en el dominio espectral de modo que no es necesaria transición adicional desde un dominio a otro cuando sej combinan ambos aspectos ventajosos de la presente solicitud. i De acuerdo con realizaciones específicas, se puede ahorrar valiosa cantidad de bits transmitidos ruido dentro de las fases inactivas, ruido de fondo paramétrica durante una fase activa de modo que la generación de ruido ' i : adicional preliminar que consume cantidad de bits transmitidos d iei la muy trabajosa codificación del ruido de fondo. j Otros detalles ventajosos de realizaciones del presente invento son tema de las reivindicaciones dependientes del conjunto de reivindicaciones en trámite. ¡ ' la Figura 1 muestra un diagrama de bloques de un codificador de audip, de acuerdo con una realización; j la Figura 2 muestra una implementación posible 14; la Figura 3 muestra un diagrama de bloques de de acuerdo con una realización; la Figura 4 muestra una posible implementación d de la Figura 3 de acuerdo con una realización; i la Figura 5 muestra un diagrama de bloques de un codificador de audip de acuerdo con otra descripción más detallada de la realización; ! ¡ la Figura 6 muestra un diagrama de bloques de un decodificador que podría la Figura 10 muestra un diagrama de bloques de un decodificadór de audio de acuerdo con una realización que usa extensión de ancho de banda espectral; la Figura 1 1 muestra un diagrama de bloques de una posible descripción más detallada de una realización de un decodificadór de audio que usa replicación de ancho espectral; la Figura 12 muestra un diagrama de bloques de un codificador de audio de acuerdo con otra realización que usa extensión de ancho de banda espectral; y la Figura 13 muestra un diagrama de bloque de otra realizaqión de un decodificadór de audio.
La Figura 1 ilustra un codificador de audio 100 de acuerdo con una realización del presente invento. El codificador de audio de la Figura 1 Comprende un estimador de ruido de fondo 12, un motor de codificación 14, un detector 16, una entrada de señal de audio 18 y una salida de secuencia de dajtos 20. El proveedor 12, el motor de codificación 14 y el detector 16 tienen urja entrada conectada a la entrada de señal de audio 18, respectivamente. Las salidas del estimador 12 y del motor de codificación 14 están respectivamente conectadas a la salida de secuencia de datos 20 a través de un conmutador 22. El conmutador 22, el estimador 12 y el motor de codificación 14 tienen una entrada cié control conectada a una salida del detector 16, respectivamente.
El codificador 14 codifica la señal de audio de entrada en la secuencia de 1 ? ¦ i datos 30 durante una fase activa 24 y el detector 16 está configurado para detectar una entrada 34 de una fase inactiva 28 que sigue a la fase activa 24 en base a la señal de entrada. La porción de la secuencia de datos 30 entrégada por el motor de codificación 14 está designada 44.
El estimador de ruido de fondo 12 está configurado para determinar una estimación de ruido de fondo paranoica en base a una reprendo, de descomposición espectral de una señal de audio de entrada de modo que la estimación de ruido de fondo paramétrica describe espectralmente una Envolvente espectral de un ruido de fondo de la señal de audio de entrada. La determinación puede comenzar luego de la entrada de la fase inactiva 38, j ésto es, inmediatamente a continuación del instante de tiempo 34 en él ¡ cual el decodificador 16 detecta la inactividad. En ese caso, la porción normal !44 de la secuencia de datos 30 se extendería levemente dentro de la fase inactiyaj esto es, duraría otro breve período suficiente para que el estimador de ruido de fondo 12 aprenda/estime el ruido de fondo de la señal de entrada la cual entonces sería asumida como solamente compuesta por ruido de fondo. ! o revelan realizaciones donde la respectiva estimación de ruido hace al detectar la estimación de ruido, por ejemplo. ¡ Así, el estimador de ruido de fondo 12 puede estar configurado para i actualizar continuamente la estimación de ruido de fondo paramétrica ¡durante la fase inactiva 24 basado en la señal de audio de entrada que ingresa al Codificador de audio 10 en la entrada 18. A pesar de que la Figura 1 sugiere que el¡ estimador de ruido de fondo 12 puede establecer la actualización continua de de ruido de fondo paramétrica basado en la señal de audio como entrada 18, no necesariamente es este el caso. Alternativamente o l | I , adicionalmente, el estimador de ruido de fondo 12 puede obtener una versión de la señal de audio del motor de codificación 14 como se ilustra mediante la línea de trazos 26. En ese caso, el estimador de ruido de fondo 12, alterna 1tiviam'ente o ' i adicionalmente, sería conectado a la entrada 18 indirectamente vía la línea de ? conexión 26 y el motor de codificación 14, respectivamente. En existen diferentes posibilidades para que el estimador de ruido de fondo 12j actualice continuamente la estimación de ruido de fondo y abajo se describen algünas de esas posibilidades. > i El motor de codificación 14 está configurado para codificar la serial; de aüdio de entrada que llega a la entrada 18 en una secuencia de datos durante la fase activa 24. La fase activa abarcará todo tiempo en que una información1 útil está contenida dentro de la señal de audio como voz u otro sonido útil de una fuente de i , I ruido. Por el otro lado, los sonidos con una característica casi invariable en el tiempo tales como un espectro con invariancia temporal como el causado por : i ejemplo por lluvia o tráfico en el fondo de un locutor, será clasificado jcomp ruido de fondo y siempre que esté presente meramente este ruido de fphdoj el I í ¦ respectivo período de tiempo será clasificado como una fase inactiva 28. El detector 16 es responsable de detectar la entrada de una fase inactiva 28 a continuación de la fase activa 24 basado a la señal de audio de ent ada en la codificación 14 realiza la codificación de la señal de audio de entrada en la I secuencia de datos durante las fases activas 24. El detector 16 controla el conmutador 22 consiguientemente de modo que la secuencia de datos entregada por el motor de codificación 14 sea entregada en la salida 20. Durante; las fases inactivas, el motor de codificación 4 puede dejar de codificar la señal de audio de entrada. Por lo menos, la secuencia de datos entregada en la salida 2 ya no es alimentada por ninguna secuencia de datos posiblemente entregada de codificación 14. Además de eso, el motor de codificación 14 puede solo) realizar mínimo procesamiento para dar soporte al estimador 12 con! algunas ' i 1 salida 20, la estimación de ruido de fondo paramétrica como está actualizada continuamente durante la fase activa 24, inmediatamente a continuación de la I ¡ transición desde la fase activa 24 a la fase inactiva 28, esto es, inmed Iia [tamente luego de la entrada en la fase inactiva 28. Por ejemplo, el estimador de ruido de Figura 1 , el mismo puede operar como siguie. Imagine, con propósitos de ilustración, que actualmente está presente una fase activa 24. En este icaso, el ? motor de codificación 14 actualmente codifica la señal de audio de entrada en la entrada 18, formando la secuencia de datos 20. El conmutador 22 conecta la salida del motor de codifica 14 a la salida 20. El motor de codificación: 14 puede usar codificación paramétrica la señal de audio de entrada 18 el motor de codificación 14 puede codificar la señal de audio de entrada en unidades de cuadros con cada cuadro que codifica uno de los intervalos dé tiempo ' ' í consecutivos— que se superponen parcialmente entre sí— de la señal de audio de entrada. El motor de codificación 14 puede tener adicionalmente la ¡capacidad codificación TCX o AAC. Se hace referencia, por ejemplo, a USAC y sus modos de codificación según se describen en ISO/IEC CD 23003— 3 24 de septiembre de 2010. ¡ El estimador de ruido de fondo 12 actualiza continuamente la estimación de ruido de fondo paramétrica durante la fase activa 24. el estimador de ruido de fondo 12 puede estar configurado un componente de ruido y un componente de señal útil dentro de la señal de áudió de entrada para determinar la estimación de ruido de fondo paramétrica njie'ramente del componente de ruido. El estimador de ruido de fondo 12 realiza esta dentro del motor de codificación 14, por ejemplo, al codificar por transformada una ! ? ¡ ! versión filtrada con base en LPC de la señal de audio según entra en lugar de la señal de audio conforme entra por la entrada 18 o un codificada con pérdidá de | i I I I Transform), o un dominio de banco de filtros tal como un dominio dé banco de filtros de valor complejo tal como un dominio QMF (Quadratura Mirror Filters).
Durante la fase activa 24, el detector 16 también está funcionando continuamente para detectar una entrada de la fase inactiva 28. El detector 16 puede ser puesto en práctica como un detector de actividad de voz/sonido (VAD/SAD) o algún otro mecanismo que decida si hay un componente de señal útil presente actualmente dentro de la señal de audio o no. Un criterio de base para el detector 16 para decidir si continúa o no una fase activa 24, podría ser verificar si una potencia filtrada por pasa bajos de la señal de audio, queda por debajo de un cierto umbral, suponiendo que se ingresa a una fase inactiva tan pronto como se excede el umbral.
Independientemente de la forma exacta en que el detector 16 realiza la detección de la entrada de la fase inactiva 28 a continuación de la fase activa 24, el detector 16 informa inmediatamente a las otras entidades 12, 14 y 22, de la entrada de la fase inactiva 28. En el caso de actualización continua del estimador de ruido de fondo de la estimación de ruido de fondo paramétrica durante la fase activa 24, se puede impedir inmediatamente que la secuencia de datos 30 entregada en la salida 20 siga siendo alimentada desde el motor de codificación 14. En cambio, el estimador de ruido de fondo 12 insertaría, inmed ¡ataréente luego de ser informado de la entrada de la fase inactiva 28, insertaría la , información sobre la última actualización de la estimación de ruido de fondo parámjétrica en la secuencia de datos 30, en la forma del cuadro SID 32. Eso es, el cuadro SID 32 podría seguir inmediatamente al último cuadro del motor de codificación que codifica el cuadro de la señal de audio concerniente al intervalo de tiempo dentro del cual el detector 16 detectó la entrada de fase inactiva.
Normalmente, el ruido de fondo no cambia con mucha frecuencia. En la mayoría de los casos, el ruido de fondo tiende a ser algo invariante con el tiempo.
Por consiguiente, después que el estimador de ruido de fondo 12 insertó él cuadro de SID 32 inmediatamente después que el detector 16 que detecta el comienzo de la fase inactiva 28, toda transmisión de secuencia de datos puede ser interrumpida de modo que en esta fase de interrupción 34, la secuencia de datos 30 no consume cantidad de bits transmitidos o meramente un mínimo de cantidad de bits transmitidos requerida para algún propósito de transmisión. Para mantener una mínima cantidad de bits transmitidos, el estimador de ruido de fondo 12 puede repetir en forma intermitente la salida de SID 32.
Sin embargo, a pesar de la tendencia del ruido de fondo a no cambiar con el tiempo, de todos modos puede ocurrir que el ruido de fondo cambie. Por ejemplo, imagine un usuario de teléfono móvil saliendo del auto de modo que el i ruido de fondo cambia del ruido de motor al ruido del tráfico afuera del auto durante la llamada del usuario. Para rastrear tales cambios del ruido de fondo, el estimador de ruido de fondo 12 puede ser configurado para escrutar continuamente el ruido de fondo durante la fase inactiva 28. Siempre que el estimador de ruido de fondo 12 determina que la estimación de ruido de fondo paramétrica cambia en una magnitud que excede algún umbral, el estimador de fondo 12 puede insertar una versión actualizada de la estimación dé ruido de fondo paramétrica dentro de la secuencia de datos 20 vía otro SID 38, después de lo cual puede seguir otra fase de interrupción 40, por ejemplo, empieza Otra fase activa 42 según lo detectado por el detector 16, y así de seguido. Naturalménte, los cuadros de SID que revelan la estimación de ruido de fondo paramétrica actualizada actualmente pueden, adicionalmente o alternativamente, pueden ser I ¦ intercalados dentro de las fases inactivas de una manera intermedia deprendiente de los cambios en la estimación de ruido de fondo paramétrica. j Obviamente, la secuencia de datos 44 entregada por el | rt¡\otor de codificación 14 e indicada en la Figura 1 mediante el uso de sombreado, consume más cantidad de bits transmitidos de transmisión que los fragmentos de' secuencia de datos 32 y 38 a ser transmitidos durante las fases inactivas j 28 y por i ! consiguiente los ahorros de cantidad de bits transmitidos son considerabjlés.
Asimismo, en el caso en que el estimador de ruido de fondo l l puede empezar inmediatamente con proceder a alimentar adicionalmente la 'secuencia I ' de datos 30 mediante la actualización de estimación continua opcionalj de arriba, no es necesario continuar en forma preliminar transmitiendo la secuencia de datos ! I 1 ' 44 del motor de codifica 14 más allá del punto de tiempo de detección de fase inactiva 34, reduciendo de ese modo todavía más la cantidad de bits transmitidos consumidos en total. : ¡ í ' ! de secuencia de datos 58 del motor de codificación 14. Además, el ! motor de ; ! I ; l i I I I codificación 14 de la Figura 2 comprende un módulo de análisis de 'predicción i lineal 60 el cual está configurado para determinar coeficientes de predicción lineal realizar subsiguientemente estimación LPC en base a la autocorrelación tal como usando un algoritmo de (Wiener— ) Levinson— Durbi. ¡ En base a los coeficientes de predicción lineal determinados porj e) módulo de análisis de predicción lineal 60, la secuencia de datos entregada en la salida 58 ¡ i es alimentada con respectiva información sobre los LPCs, y el corrector de ruido del dominio de la frecuencia es controlado de modo que corregir espectrjalmente el espectrograma de la señal de audio en concordancia con una ' función i transferencia correspondiente a la función transferencia de un filtro de análisis de como divisor. i j i El cuantificador 54 entonces cuantifica los coeficientes de transformación ese modo transformadas consecutivas correspondientes a porciones ventaneadas que se superponen de la señal de audio, las cuales luego espectralmente mediante el corrector de ruido del dominio de la ponderando estas transformadas de acuerdo con la función de transferencia del filtro de análisis de LP. ¡ ! I , : El espectrograma corregido puede ser interpretado como una señal de excitación y como tal se ilustra mediante la flecha de trazos 62, el estirhador de Más detalles relacionados con posibles implementaciones de losj elementos mostrados en las Figuras 1 a 2 se pueden establecer a partir de las realizaciones subsiguientemente mas detalladas y se hace notar que todos estos i ? det ialle !s son individualmente transferibles a los elementos de las Figuras 1 y 2.
Sin embargo, antes de describir estas realizaciones más detalladamente, se hace referencia a la Figura 3, la cual muestra que, adici i0n ia| -imen ite o alternativamente, la actualización de estimación de ruido de fondo paramétrica se puede hacer del lado del decodificador. ¡ El decodificador de audio 80 de la Figura 3 está configurado para decodificar una secuencia de datos que entra en la entrada 82 del decóidificador 80 de modo de reconstruir a partir de ella una señal de audio a ser entregada en una salida 84 del decodificador 80. La secuencia de datos comprendé por lo para reconstruir la señal de audio a partir de la secuencia de datos durante la fase ¡ activa, de modo que la señal de audio 98 como se entrega en la sajlida 84 comprende ruido y sonido útil en una calidad apropiada. ¡ secuencia de datos puede tener, como se indica arriba, codificada allí dentro, una estimación de ruido de fondo paramétrica la cual describe espectralr ente la envolvente espectral del ruido de fondo. En ese caso, el decodificador 92 puede estar configurado para reconstruir la señal de audio a partir de la sequéncia de datos durante la fase activa, mientras que el generador aleatorio paramétrico 94 y el generador de ruido de fondo 96 cooperan para que el generador 96 sintetice la señal de audio durante la fase inactiva controlando el generador aleatorio paramétrico 94 durante la fase inactiva 88 dependiendo de la estimación de ruido de fondo paramétrica.
Sin embargo, si el estimador 90 está presente, el decodificador 80 de la Figura 3 podría ser informados sobre la entrada 106 de la fase inactiva 106 por medio de la secuencia de datos 88 tal como mediante el uso de una bandera de inicio de inactividad. Entonces, el decodificador 92 podría proceder a continuar decodificando una porción alimentada adicional en forma preliminar 102 y el estimador de ruido de fondo podría aprender/estimar el ruido de fondo dentro de ese tiempo preliminar que sigue al instante de tiempo 106. Sin embargo, en concordancia con las realizaciones de arriba de las Figuras 1 y 2, es posible que el estimador de ruido de fondo 90 esté configurado para actualizar continuamente la estimación de ruido de fondo paramétrica a partir de la secuencia de datos durante la fase activa.
El estimador de ruido de fondo 90 puede no estar conectado a la entrada 82 directamente sino vía el motor de decodificacíón 92 como se ilustra mediante la línea de trazos 100 de modo de obtener del motor de decodificación 92 alguna versión reconstruida de la señal de audio. En principio, el estimador de; ruido de fondo 90 puede estar configurado para funcionar en modo muy similar al estimador de ruido de fondo 12, además del hecho de que el estimador 'de ruido de fondo 90 solo tiene acceso a la versión reconstruible de la señal de audio, esto es, que incluye la pérdida causada por cuantificación en El generador aleatorio paramétrico 94 puede generadores o pseudogeneradores de números aleatorios, la secuencia dé valores I ¡ entregada por el cual puede conformarse a una distribución estadística ¿|ue puede ser fijada en forma paramétrica vía el generador de ruido de fondo 96.
El generador de ruido de fondo 96 de audio 98 durante la fase inactiva paramétrico 94 durante la fase inactiva 88 dependiendo de la estimación de mido de fondo paramétrica según se obtuvo del estimador de ruido de fondo 9b. A pesar de que ambas entidades, 96 y 94, se muestran conectadas en serie, la conexión en serie no debe ser interpretada como limitación. Los generadores 96 y 94 tiempo 106. Eso es, no hay otro cuadro de la porción de secuencia dej datos en ese instante de tiempo 106 para decodificación por el motor 92. La señalización de la entrada de la fase inactiva 88 puede ser la perturbación de la transmisión dé la porción de secuencia de datos 102, o bien puede ser señalizada mediante alguna información 108 dispuesta inmediatamente en el inicio de la fase inactiva' 8!8.
En cualquier caso, la entrada de la fase inactiva 88 ocurre muy repentinamente, pero esto no es un problema ya que el estimador dé ruido de fondo 90 tiene actualizada continuamente la estimación de ruido ídé fondo paramétrica durante la fase activa 86 sobre la base de la porción de secuencia de datos 102. Debido a esto, el estimador de ruido de fondo 90 puede proveer al generador de ruido de fondo 96 la versión más nueva de la estimación dé ruido de fondo paramétrica tan pronto como empieza en 106, la fase inactiva 88. Consiguientemente, a partir del instante 106 en adelante, el motor de decodificación 92 deja de entregar reconstrucción de señal de audio ya que el I j motor de decodificación 92 ya no es alimentado con una porción de secjuéncia de datos 102, pero el generador aleatorio paramétrico 94 es controlado, por el generador de ruido de fondo 96 de acuerdo con una estimación de ruidoj de fondo paramétrica tal que puede entregar una emulación del ruido de fondo en la salida 84 inmediatamente a continuación del instante de tiempo 106 de modo seguir sin interrupción la señal de audio reconstruida según lo entregado por el 'motor de i ' ' decodificación 92 hasta el instante de tiempo 106. Se puede usar desvanecimiento para distinguir entre un componente de ruido y un componente de señal útil dentro de la versión de la señal de audio según lo reconstruido a partir de la secuencia de í datos 104 en la fase activa 86 y para determinar la estimación de ruido áe fondo paramétrica meramente a partir del componente de ruido en lugar del cojrripohente de seña útil. La manera en que el estimador de ruido de fondo 90 realizar esta distinción/separación corresponde a la manera delineada arriba con respecto al I | estimador de ruido de fondo 12. Por ejemplo, se puede usar la excitación! o señal residual interna reconstruida a partir de la secuencia de datos 104 dentro del • í motor de decodificación 92. , | Similar a la Figura 2, la Figura 4 muestra una posible implementación para el motor de decodificación 92. De acuerdo con la Figura 4, el 'mbtor de decodificación 92 comprende una entrada 110 para recibir la porción de secuencia i de d^os 102 y una salida 1 12 para entregar la señal reconstruida dentro de la plano) de acuerdo con una función transferencia que corresponde a ún filtro de síntesis de predicción lineal, formando de ese modo ruido de cuantificáción. En principio, el FDNS 116 de la Figura 4 actúa similar al FDNS de la Figura 2: Se I extraen los LPCs de la secuencia de datos y luego son sometidos a conversión de LPC a peso espectral, por ejemplo, aplicando una ODFT sobre los LPCs extraídos, aplicando luego las ponderaciones espectrales resultantes a los espectros descuantificados entrantes desde el descuantificador 11:4 qomo actualización de ruido de fondo paramétrica. Alternativamente, el espectrograma de la señal de audio en sí mismo puede ser usado como se indica mediante la ! i "i flecha de trazos 122. j i i Con respecto a la Figura 2 y a la Figura 4, se debe notar ¡ que estas codificación de cuadro podría también ser un modo de codificación predictivo que usa codificación de predicción lineal por ejemplo, pero con codificación en el dominio del tiempo en lugar de usar codificación de transformada. I j ! La Figura 5 muestra una realización más detallada del codificador de la Figura 1 . En particular, el estimador de ruido de fondo 12 se muestra en más detalle en la Figura 5 de acuerdo con una realización específica. I En concordancia con la Figura 5, el estimador de ruido de i fóndó 12 comprende un transformador 140, un FDNS 142, un módulo de análisis del LP 144, un estimador de ruido 146, un estimador de parámetros 148, un medidor de estacionareidad 150, y un cuantificador 152. Algunos de los componentes recién mencionados pueden estar total o parcialmente en el motor de codificación 14 Por ejemplo, el transformador 140 y el transformador 50 de la Figura iguales, los módulos de análisis de LP 60 y 144 pueden ser iguales, y 142 pueden ser iguales y/o los cuantificadores 54 y 152 pueden ser implementados en un módulo. | La Figura 5 también muestra un empaquetador de serie de bits erj él tiempo (bitstream packager) 154 el cual asume una responsabilidad pasiva para la transformador 140, el FDNS 142, el modulo de análisis de LP 144, el estimador de ruido 146, el estimador de parámetros 148, y el cuantificador 152, están conectados en serie entre la entrada 18 y el empaquetador 154 (en el orden en que se mencionan), mientras el módulo de análisis de LP 144 está conectado entre la entrada 18 y una entrada de LPC del módulo FDNS 142 y una entrada adicional del cuantificador 153, respectivamente, y un medidor de estacionareidad 150 está conectado adicionalmente entre el módulo de análisis de LP 144 y una entrada de control del cuantificador 152. El empaquetador de serie de bits en el tiempo 154 simplemente realizar el empaquetado si recibe una entrada proveniente de cualquiera de las entidades conectadas a sus entradas.
En el caso de transmitir cuadros cero, esto es, durante la fase de interrupción de la fase inactiva, el detector 16 informa al estimador de ruido de i fondo 12, en particular al cuantificador 152, que pare de procesar y que no envié nada al empaquetador de serie de bits en el tiempo 154.
De acuerdo con la Figura 5, el detector 16 puede funcionar en e| dominio del tiempo y/o de la transformada/espectral de modo de detectiar fases activas/inactivas.
El modo de funcionamiento del codificador de la Figura 5 es como sigue. Como se irá aclarando, el codificador de la Figura 5 puede mejorar la calidad de ruido de comodidad tal como ruido estacionario en general, tal como ruido de auto, ruido de charla con muchos participantes, algunos instrumentos musicales, y en particular aquellos que tienen muchos armónicos tales como gotas de lluvia.
En particular, el codificador de la Figura 5 es para controlar un generador aleatorio en el lado de decodificación de modo de excitar coeficientes de transformada tal que sea emulado el ruido detectado del lado de codificación. Consiguientemente, antes de discutir la funcionalidad del codificador de la Figura 5 I adicionalmente, se hace una breve referencia a la Figura 6 que mu'estra una i posible realización para comodidad en el lado de Figura 5. Más en general, decodificador que se ajusta al codificador de la Figura 1.
En particular, el decodificador de la Figura 6 comprende un ¡motor de decodificación 160 como para decodificar la porción de secuencia de! datos 44 durante las fases activas y una parte generadora de ruido de comodidad 1;62 para generar el ruido de comodidad en base a la información 32 y 38 provista en la secuencia de datos concerniente a las fases inactivas 28. La de ruido de comodidad 162 comprende un generador aleatorio un FDNS 166 y un transformador (o sintetizador) inverso 168. Los módulos j164 y 168 están conectados en serie entre sí de modo que en la salida del sintetizador 168 resulta el ruido de comodidad, el cual llena el espacio entre la señal : de audio reconstruida como es entregada por el fases inactivas 28, como se discutió con FDNS 166 y trasnformador inverso decodificación 160. En particular, pued Figura 4, por ejemplo.
El modo de funcionamiento y la funcionalidad de los módulos individuales de las Figuras 5 y 6 resultarán más claro a partir de la siguiente discusión.
? I ' ¡ En particular, el transformador 140 descompone espectralmente la señal de entrada en un espectrograma tal como usando una transformada lapped. Un estimador de ruido 146 está configurado para determinar parámetros de ruido a partir de ello. En forma concurrente, del detector de actividad de voz ¡ o s ' dnido i 16 i j ! i i evalúa los rasgos establecidos a partir de la señal de entrada de modo de detectar usada para distinguir ruido de fondo útil tal como una sirena, teléfono sonando o música; residual LPC puede ser usado para obtener una indicacíói de la presencia de voz en la señal. Basado en estos rasgos, el detector 16 püede dar aproximadamente una información sobre si el cuadro actual puede ser c aisificado, por ejemplo, como voz, silencio, música o ruido.
Mientras el estimador de ruido 146 puede ser responsable de distinguir el ruido de dentro del espectrograma del componente de señal útil allí cléntrq, tal suponiendo que los mínimos del espectrograma son principalmente un atributo de ruido de fondo más que sonido de primer plano. i i El cuantificador de parámetros 152 a su vez puede ser configurado para parametrizar los parámetros estimados por el estimador de parámetros! ll48. Por ejemplo, los parámetros pueden describir una amplitud media y un mornientó de primero orden, u orden más alto, de una distribución de valores espect ales de dentro del espectrograma de la señal de entrada en tanto se refiere al componente i de ruido. Para ahorrar cantidad de bits transmitidos, los parámetros pueden ser remitidos a la secuencia de datos para inserción dentro de la misma dentro de i cuadros SID en una resolución espectral más baja que la resolución ¡espectral ' i 1 provista por el transformador 140. , ¡ El módulo 152 cuantifica los parámetros calculados por el estimador de parámetros 148 y el análisis de LP 144 y envía las señales al j lado I de decodificación. En particular, antes de cuantificar, los componentes iesjpéctráles pueden ser agrupados en grupos. Tal agrupamiento puede ser seleccionado de acuerdo con aspectos psicoacústicos tal como conformando la escala de Bark o algo similar. El detector 16 informa al cuantificador 152 si se necesita! hacer la cuantificación o no. En el caso de no ser necesaria la cuantificación, debeh seguir cuadros cero. ! j Cuando se transfiere la descripción a un escenario concreto de conmutación desde una fase activa a una fase inactiva, entonces los módulos de la Figura 5 actúan como sigue. ' j I Durante una fase activa, el motor de codificación 14 sigue codificando la señal de audio vía el empaquetador en series de bits en el tiempo. La codificación puede realizarse a modo de cuadros. Cada cuadro de la secuencia ¡dé datos puede representar una porción/intervalo de tiempo codificador de audio 14 puede estar configurado para (code— excited linear prediction) (CELP) tal como modo de codificación ACELP ¡ 1 (algebraic— code— excited linear prediction), por ejemplo. Eso es, la porción 44 de la secuencia de datos puede comprender una actualización continua de coeficientes de LPC usando alguna tasa de transmisión de igual o mayor que la tasa de cuadro.
En paralelo, el estimador de ruido 146 inspeccionar los LPC (filtrado por análisis de LPC) de modo de identificar dentro del espectrograma TCX representado por la secuencia de estos espectros. í Por supuesto, estos mínimos pueden variar con el tiempo t, esto es km¡h(t). En todo caso, los mínimos pueden formar trazas en la salida del espectrograma ¡mediante ! i FDNS 142 y por ende, para cada espectro consecutivo i en el instante t¡, él [mínimo puede ser asociable con los mínimos en espectro precedente y ¡siguiente, respectivamente. ¡ El estimador de parámetros entonces establece parámetros de e'stimación de ruido de fondo a partir de eso tal como, por ejemplo, una tendencia central (valor medio, mediana o similar) m y/o dispersión (desviación estándar, vananza o similar) d para diferentes componentes o bandas espectrales. involucrar análisis estadístico de los coeficientes espectrales espectros del espectrograma en los mínimos, produciendo de ese mó(iq m y d para cada mínimo en km¡n- La interpolación a lo largo de entre los mínimos de espectro antedichos puede realizarse y d para otros componentes o bandas espectrales predeterminados. La resolución espectral para la derivación y/o interpolación de la tendencia central ([promedio medio) y la derivación de la dispersión (desviación estándar, varianza jo similar) puede diferir. j Los parámetros recién mencionados son actualizados continuamente para cada salida de espectro por el FDNS 142, por ejemplo. diferente, tal como usando ponderaciones espectrales correspondientes al análisis de LPC o a la función transferencia del filtro de síntesis de LPC tal como los que hubieran sido aplicados por el FDNS 142 dentro del marco de trabajo del n otor de codificación 14 al proceder con una fase activa.
Durante la fase inactiva, el estimador de ruido 146, el estimador de parámetros 148 y el medidor de estacionareidad 150 sigue cooperando de modo de mantener actualizado el lado de decodificación sobre cambios en el ruido de fondo. En particular, el medidor 150 verifica la ponderación espectral definida por los LPCs, de modo de identificar cambios e informar al estimador 148 cuándo un t , cuadro SID debe ser enviado al decodificador. Por ejemplo, el medidor 1!5Ó podría activar el estimador consiguientemente siempre que la medida antedicha de estacionareidad indique un grado de fluctuación en los LPCs que excede una cierta magnitud. Adicionalmente o alternativamente, el estimador podría ser disparado para enviar los parámetros actualizados regularmente. Entre estos cuadros de actualización SID 40 no se enviaría nada en las secuencias dé datos, esto es, "cuadros cero".
En el lado del decodificador, durante la fase activa, el motor de decodificación 160 asume la responsabilidad de reconstruir la señal de audio. Tan pronto como empieza la fase inactiva, el generador aleatorio de parámetros adaptivos 164 usa los parámetros del generador aleatorio descuantificados enviados durante la fase inactiva adentro de la secuencia de datos desde el cuantificador de parámetros 150, para generar componentes eápiectráles aleatorios, formando de ese modo un espectrograma aleatorio el cual es formado espectralmente adentro del procesador de energía espectral 166 con el sintetizador 168 realizando entonces una retransformación desde el dominio I .
I ! espectral al dominio del tiempo. Para la formación espectral adentro del FDNS 166, se puede usar, ya sea los coeficientes LPC más recientes proven iie Intes de los cuadros activos más recientes, o bien la ponderación espectral a ser aplicada por el FDNS 166 puede ser derivada de allí mediante extrapolación, bien el cuadro SID 32 en sí mismo puede conducir la información. Mediante esta linedida, en el inicio de la fas inactiva, el espectro entrante de acuerdo síntesis de LPC, con el LPS qe define el filtro de síntesis de LPC que se deriv de la porción da datos activos 44 o del cuadro SID 32. Sin embargo, con el inicio de la fase inactiva, el espectro a ser corregido por el FDNS 166 es el espectro generado 1 1 aleatoriamente en lugar de una transformación codificada como en caso del módo de codificación de cuadro TCX. Asimismo, la corrección espectral aplicada en 166 ¡ i es actualizada meramente en forma discontinua mediante el uso de los¡ cuadros SID 38. Se podría realizar una interpolación o un debilitamiento para conmutar gradualmente desde una definición de corrección espectral a la siguiente durante codificador y/o decodificador, puede comprender información estad ística sóbre una distribución de valores espectrales temporalmente consecutivos par distintas porciones espectrales tal como bandas de Bark o diferentes componentes espectrales. Para cada tal porción espectral, por ejemplo, la información I i estadística puede contener una medida de dispersión. La medida dé dispersión, consiguientemente, sería definida en la información espectral de unja j mañera resuelta espectralmente, a saber, muestreada en/para las porciones espectrales. La resolución espectral, esto es, el número de medidas para dispersión y tendencia central se desparramas a lo largo del eje espectral, pueden diferir entre, por ejemplo, medida de dispersión y la opcionalmente presente mediaj o medida de tendencia central. La información estadística está contenida dentnp de los cuadros SID. Se puede referir a un espectro corregido tal como el espectro filtrado de análisi LPC (esto es, LPC aplanado) tal como un espectro de MDCT corregido el cual permite síntesis sintetizando un espectro aleatorio de acuerdo con el espectro estadístico y des— corrigiendo el mismo de acuerdo con i u ína 1 función Por ejemplo, se puede usar el espectro QMF de la señal de audio n' forma no corregida y puede describirse en forma estadística en cuyo caso no hay corrección de la información estadística en sí misma. j En forma similar a la relación entre la realización de la Figura 3 con i ; respecto a la realización de la Figura 1 , la Figura 7 muestra un'a posible implementación del decodificador de la Figura 3. Como se muestra mediante el í ' uso de los mismos signos de referencia que en la Figura 5, el decodificácjor de la Figura 7 puede comprender un estimador de ruido 146, un estimador de transmitido y descuantificado tal como 120 o 122 de la Figura 4. El estimador de : I 1 í parámetros 146 entonces opera como el discutido en la Figura 5. Lo nfiismo vale con respecto al medidor de estacionareidad 148, el cual opera sobre la energía y activa. ! Mientras los elementos 46, 148 y 150 actúan como el estimador ¡de ruido de fondo 90 de la Figura 3, el decodificador de la Figura 7 también generador aleatorio paramétrico adaptivo 164 y un FDNS 166 así un transformador inverso 168 y ellos están conectados en serie entre sí como en la Figura 6, de sintetizador 168. de fondo 96 de la Figura 3 con el módulo 164 que asume la responsabilidad de la j funcionalidad del generador aleatorio paramétrico 94. El generador ¡ aleatorio paramétrico adaptivo 94 o 164 entre componentes espectrales generadas aleatoriamente del espectrograma de acuerdo con los parámetros determinados por el estimador de parámetros 148 el cual a su vez es disparado usando la medida de estacionareidad entregada por el medidor de estacionareidajd 150. El procesador 166 entonces corrige espectralmente el espectrograma así generado con el transformador inverso 168, realizando luego la transición desde el dominio i 1 espectral al dominio del tiempo. Notar que cuando durante la fase inactiya 88 el decodificador está recibiendo la información 108, el estimador de ruido ¡de fondo 90 está realizando una actualización de las estimaciones de ruido seguida por algún medio de interpolación. Por lo demás, si se reciben cuadros cero, simplemente hace el procesamiento tal como interpolación y/o desvanecirjnijent .
Sintetizando las Figuras 5 a 7, estas realizaciones muestran que es técnicamente posible aplicar un generador aleatorio controlado 164 para excitar los coeficientes TCX, lo cuales pueden ser valores reales tal como en| ly1DCT o valores complejos como en FFT. También podría ser ventajoso, aplicar el generador aleatorio 164 sobre grupos de coeficientes usualmente conseguidos a i i través de bancos de filtros. ¡ El generador aleatorio 164 preferiblemente es controlado tal qüe el mismo ! j ! ' modela el tipo de ruido lo más fielmente posible. Esto se podría llevar a cabo si el ruido blando es conocido de antemano. Algunas aplicaciones pueden permitirlo. En muchas aplicaciones realistas donde un sujeto puede encontrar diferentes tipos de ruido, se requiere un método adaptivo como se muestra en las Figuras 5 á 7. i i I j Por consiguiente, se usa un generador aleatorio de parámetros adaptivb 164, el I i cual podría ser definido brevemente como g = f (x), donde x = (x1 , x2, ; ..) es un conjunto de parámetros de generador aleatorio provisto por los estimadores de parámetros 146 y 150, respectivamente.
Para hacer el generador aleatorio de parámetros adaptivo, el estimador de parámetros de generador aleatorio 146 controla adecuadamente el generador aleatorio. Se puede incluir compensación de deslizamiento para compensar los casos donde se consideran que los datos son estadísticamente insuficiehtés. Esto se hace para generar un modelo estadísticamente apareado del ruido basado en los cuadros pasados y siempre actualizará los parámetros estimados. Un ejemplo se da cuando se supone que el generador aleatorio 164 genera un ruido Gaussiano. En este caso, por ejemplo, sólo se pueden necesitar los parámetros media y varianza y se puede calcular un deslizamiento y aplicarlo a esos parámetros. Un método más avanzado puede manejar cualquier tipo de ruido o distribución y los parámetros no son necesariamente los momentos de una distribución.
Para el ruido no estacionario, se necesita tener una médida de estacionareidad y entonces se puede usar un generador aleatorio párámétrico menos adaptivo. La medida de estacionareidad determinada por el medidor 148 puede ser derivada de la forma espectral de la señal de entrada usando diversos métodos como por ejemplo, la medida de distancia de Itakura, la medida de distancia de Kullback— Leibler, etc.
Para manejar la naturaleza discontinua de actualizaciones de ruido enviadas a través de cuadros SID tal como se ilustra mediante 38 en la Figura 1 , usualmente se envía información adicional tal como la energía y la forma espectral del ruido. Esta información es útil para generar el ruido en el decodificador teniendo una transición suave incluso durante un período de discontinuidad dentro de la fase inactiva. Finalmente, se pueden aplicar diversas técnicas de alisámiento o filtrado para ayudar a mejorar la calidad del emulador de ruido de comodidad.
Como ya se notó arriba, las Figuras 5 y 6 por un lado, y la Figura 7 por otro, pertenecen a diferentes escenarios. En un escenario que corresponde a las Figuras 5 y 6, la estimación de ruido de fondo paramétrica se hace en el codificador basado en la señal de entrada procesada y después los parámetros son transmitidos al decodificador. La Figura 7 corresponde al otro escenario donde el decodificador puede ocuparse de la estimación de ruido de fondo paramétrica basado en los cuadros pasados recibidos dentro de la fase activa. El üso de un detector de actividad de voz/señal o estimador de ruido puede ser beneficioso para ayudar a extraer componentes de ruido incluso durante voz activa, por ejemplo.
Entre los escenarios mostrados en las Figuras 5 a 7, el escenario de la Figura 7 puede ser preferido ya que este escenario resulta en que se transmite una menor cantidad de bits transmitidos. El escenario de las Figuras 5 y 6 sin embargo, tiene la ventaja de tener a disposición más precisa estimación ¡de ruido.
Todas las realizaciones de arriba podrían ser combinadas con técnicas de extensión de ancho de banda tal como replicación de banda espectral (SBR), a pesar de que en general se puede usar extensión de ancho de banda: Para ilustrar esto, ver la Figura 8. La Figura 8 muestra módulos mediante los cuales los codificadores de las Figuras 1 y 5 podrías se extendidos para realizar codificación paramétrica con relación a una porción de más alta! frecuencia de la señal de entrada. En particular, de acuerdo con la Figura 8, una señal de audio de entrada del dominio del tiempo es descompuesta espéctralmente mediante un análisis QMF Figuras 1 y 5 de la descomposición espectral generada por el banco de filtros 200. Para llevar información sobre la porción de frecuencia más alta al lado del decodificador, también se usa codificación paramétrica. Con este fin, un codificajdorj de replicación de banda espectral regular 202 está configurado para parametrizar la porción de frecuencia más alta durante fases activas y alimentar información sobre ello en la forma de información de replicación de banda espectral dehtrp de la secuencia de datos al lado de decodificación. Un conmutador 204 puede estar provisto entre la salida del banco de filtros QMF 200 y la entrada del codificador de replicación de banda espectral 206 puede usar una mínima resolución de tiempo/frecuencia a la cual la envolvente espectral es parametrizada y conducida , adentro de la secuencia de datos, mientras el codificador de replicación dé banda espectral 202 puede estar configurado para adaptar la resolución de tiempo/frecuencia a la señal de audio de entrada dependiendo de las ocurrencias de transitorios dentro de la señal de audio.
La Figura 9 muestra una implementación posible del módulo de codificación de extensión de ancho de banda 206. Un fijador de grilla tiempo/frecue cia 208, un calculador de energía 210 y un codificador de energía 212 están conectados en serie entre sí entre una entrada y una salida del módulo de codificación Í206. El fijador de grilla de tiempo/frecuencia 208 puede estar configurado paral fijar la resolución de tiempo/frecuencia en la cual se determina la envolvente de la I ¦ porción de frecuencia más alta. Por ejemplo, una mínima resolución de I ! tiempo/frecuencia permitida es usada continuamente por el módulo de cojdificación 206. El calculador de energía 210 entonces puede determinar la energía de la porción de frecuencia más alta del espectrograma entregado por el banco de filtros 2?0 dentro de la porción de frecuencia más alta en baldosas de tiempo/frecuencia correspondientes a la resolución de tiempo/frecuencia, y el codificador dé energía 212 puede usar codificación de entropía, calculadas por el calculador 210 en la durante las fases inactivas tal como dentro de cuadros SID, tal como el ciiadro SID banda generada de acuerdo con las realizaciones de las Figuras 8 y 9 tambiéh puede¡ser i usada en conexión con usar un decodificador de acuerdo con cualquierá í s í de í las realizaciones descritas arriba, tal como las Figuras 3, 4 y 7. i Así, las Figuras 8 y 9 aclaran que la generación de ruido de cónriodidad como se explicó con respecto a las Figuras 1 a 7, también puede ser uáada en conexión con replicación de banda espectral. Por ejemplo, los codificaclorés y I decodificadores de audio descritos arriba pueden operar en diferentes modos de operación, entre los cuales algunos comprenden replicación de banda espectral y algunos no. Los modos de operación de banda super ancha por ejemplo, podrían involucrar replicación de banda espectral. En cualquier caso, las realizaciónes de arriba de las Figuras 1 a 7 que muestran ejemplos para generar j ruido de comodidad pueden ser combinadas con técnicas de extensión de ancho ¡dé banda operar en una resolución de frecuencia diferente lo cual acarrea una tabla de : í ¡ banda de frecuencia adicional con resolución de muy baja frecuencia; júnto con filtros de alisamiento MR en el decodificador para toda banda de factor¡de escala de generación de ruido de comodidad que interpola los factores de ¡escala de energía aplicados en el ajustador de envolvente durante las fases inactivas. Como se mencionó recién, la grilla de tiempo/frecuencia puede estar configurada ¡para : i 1 corresponder a una resolución temporal lo más baja posible. ; j ¦ Eso es, la codificación de extensión de ancho de banda puede ser realizada de modo diferente en QMF o dominio espectral dependiendo del silencio o1 fase activo que esté presente. En la fase activa, esto es, durante cuadros ¡activos, se lleva a cabo codificación SBR regular por medio del codificador 2021, danclo pr resultado una secuencia de datos SBR normal que acompaña a las secuencias de datos 44 102, respectivamente. En las fases inactivas o durante ! cuadros clasificados como cuadros SID, sólo se puede extraer información acerca dé la Los factores de escala resultantes podrían ser codificados eficientemente mediante el codificador 212 y escritos a la secuencia de datos. En cuadros; cero o durante fases de interrupción 36, no se puede escribir información laíeljal á la secuencia de datos mediante el módulo de codificación de replicación oej banda espectral 206 y por lo tanto no se puede llevar a cabo ningún cálculo dé energía i mediante el calculador 210. ¡ En conformidad con la Figura 8, la Figura 10 muestra una posible extensión de las realizaciones de decodificador de las Figuras 3 y 7 a tecnióas de codificación de extensión de ancho de banda. Para ser más prcisos, la Figura 10 muestra una posible realización de un decodificador de audio de acuerdo con la presente solicitud. Un decodificador por núcleo 92 está conectado en paralelo con un generador de ruido de comodidad, estando indicado el generador de| ruido de comodidad con el signo de referencia 220 y comprendiendo, por ejemplo, el I módulo de generación de ruido 162 o los módulos 90, 94 y 96 de la Figura 3. Un conmutador 222 se muestra como distribuyendo los cuadros dentro de la secuencia de datos 104 y 30 respectivamente, sobre el decodificador por, núcleo í i i í 92 o el generador de ruido de comodidad 220 dependiendo del tipo de cuadro, a saber, si el cuadro concierne o pertenece a una fase activa, o concierne o pertenece a una fase inactiva tal como cuadros SID o cuadros cero que conciernen a fases de interrupción. Las salidas del decodificador por núbléo 92 y i ¡ del generador de ruido de comodidad 220 se conectan a una entrada! de un decodificador de extensión de ancho de banda 224, la salida del cual ¡revela la señal de audio reconstruida.
La Figura 11 muestra una realización más detallada de implementación de un decodificador de extensión de ancho de banda Como se muestra en la Figura 11 , el decodificador de extensión dé ancho de banda 224 de acuerdo con la realización de la Figura 11 , comprende un entrada 226 para recibir la reconstrucción del dominio del tiempo de lá porjción de baja frecuencia de la señal de audio completa a ser reconstruida. Es lá ¡entrada 226 que conecta el decodificador de extensión de ancho de banda 22fi con las salidas del decodificador por núcleo 92 y el generador de ruido de comodidad 220 de modo que la entrada del dominio del tiempo en el entrada 226 pueda ser reconstruida la porción de baja frecuencia de una señal de audio que comprende tanto ruido como componente útil, o bien el ruido de comodidad genefaldo para puentear el tiempo entre fases activas. j : bien en fases activas o bien en fases inactivas. Entre la entrada 226 y la salida 228 del decodificador SBR 224, están, conectados en serie en el orden en que se mencionan, un descomponedor espectral 230 el cual puede ser, como sé muestra en la Figura 11 , un banco de filtros de análisis tal como un banco de filtros de análisis QMF, un generador de HF 232, un ajustador de envolvente 234, y un convertidor del dominio espectral al tiempo 236 el cual puede estar, cómo se muestra en la Figura 1 1 , realizado como un banco de filtros de síntesis tal como un banco de filtros de síntesis QMF.
Los módulos 230 a 236 operan como sigue. El descomponedor espectral 230 descompone espectralmente la señal de entrada del dominio del tiempo de modo de obtener una porción de baja frecuencia reconstruida. El generador de HF 232 genera una porción de réplica de alta frecuencia basado en porción de baja frecuencia reconstruida y el ajustador de envolvente 234 forma o corrige espectralmente la réplica de alta frecuencia usando una representación de una envolvente espectral de la porción de alta frecuencia como es llevada por medio de la secuencia de datos SBR y provista por módulos todavía no discutidos pero mostrados en la Figura 11 arriba del ajustador de envolvente 234. Así, ej ajustador de envolvente 234 ajusta la envolvente de la porción de réplica de alta frecuéncia de acuerdo con la representación de grilla de tiempo/frecuencia de la envolvente de alta frecuencia transmitida, y remite la porción de alta frecuencia así obtenida al convertidor del dominio espectral a temporal 236 para una conversión dél espectro de frecuencia completo, esto es, porción de alta frecuencia formada espectralmente junto con la porción de baja frecuencia reconstruida, a la señal del dominio del tiempo reconstruida en la salida 228.
Como ya se mencionó arriba con respecto a las Figuras 8 10, la envolvente espectral de porción de alta frecuencia puede ser llevada adentro de la secuencia de datos en la forma de factores de escala de energía y el déco ¡d ljficador SBR 224 comprende una entrada 238 para recibir esta información ¡sobre la interpolación 246, tal como una unidad filtradora MR, y un 248. Los módulos 242, 244, 246 y 248 están conectados 238 y la entrada de envolvente espectral del ajustador de 246. El conmutador 250 está configurado para conectar este almacehamientó de datos de factor de escala 244 con la entrada de la unidad filtradora 246, ¡o jbien un restaurador de datos de factor de escala 252. En el caso de cuadros SID duránte fases inactivas— y opcionalmente en casos de cuadros activos para los Cuales es aceptable una representación muy grosera de la envolvente espectral de porción de alta frecuencia— los conmutadores 250 y 240 conectan la secuencia de| los módulos 242 a 248 entre la entrada 238 y el ajustador de envolvente 234. El combinador de factor de escala 242 adapta la resolución de frecuencia en la Cual ; í ' >¦ I i i ha sido transmitida la envolvente espectral de porciones de alta frecuencia vía la secuencia de datos a la resolución, la cual espera recibir el ajustador de envolvente 234 y un almacenamiento de datos de factor de escala 244 almacena la envolvente espectral hasta una siguiente actualización. La unidad 246 filtra la envolvente espectral en dimensión temporal y/o espectral y el ajustador de i I ! ganancia 248 adapta la ganancia de la envolvente espectral de la porción de alta frecuencia. Con ese fin, el ajustador de ganancia puede combinar los ¡datos de envolvente según fueron obtenidos por la unidad 246 con la cómo se puede derivar de la salida del banco de filtros Q F. El estaurador de; datos de factor de escala 252 reproduce los datos de factor de escala que representan la envolvente espectral dentro de fases de interrupción o cuadros cero sfegún lo almacenado por el almacenamiento de factor de escala 244. ; i Así, en el lado del decodificador, se puede llevar a cabo el ¡ siguiente procesamiento. En los cuadros activos o durante fases activas, se puejd aplicar procesamiento de replicación de banda espectral regular. Durante estos: períodos, los factores de escala provenientes de la secuencia de datos, Ipsl cuales típicamente están disponibles para un mayor número de bandas de! factor de escala comparado con procesamiento de generación de ruido de comodidad] son convertidos a la resolución de frecuencia de generación de ruido de comodidad por el combinador de factor de escala 242. El combinador de factor jdé escala ! 1 1 i combina los factores de escala para la resolución de frecuencia más alta ( para resultar en un número de factores de escala conforme con CNG aprovechando i i : ! bordes de banda de frecuencia comunes de las diferentes tablas de! banda de 1 i 1 i frecuencia. Los valores de factor de escala resultantes en la salida de la unidad i ! i 1 combinadora de factor de escala 242 son almacenados para al reutilización en cuadros cero y posterior reproducción por el recuperador 252 y son1 usados subsiguientemente para actualizar la unidad filtradora 246 para el (¡nodo de operación CNG. En los cuadros SID se aplica un lector de secuencia jdé datos SBR modificado el cual extrae la información de factor de escala de la secuencia de datos. La configuración restante del procesamiento SBR es inicializada con I valores predefinidos, se inicializa la grilla de tiempo/frecuencia a la ¡ misma i ! resolución de tiempo/frecuencia usada en el codificador. Los factores de; escala i extraídos son alimentados a la unidad filtradora 246 donde, por ejemplo, iun filtro de alisamiento MR interpola la progresión de la energía para una banda¡ de factor de escala de baja resolución a lo largo del tiempo. En caso de caso cúaÜrps cero, no hay carga útil para leer desde la serie de bits en el tiempo y la configuración SBR que incluye la grilla de tiempo/frecuencia es la misma que la usada en los cuadros SID. En cuadros cero, los filtros de alisamiento de la unidad filtradora 246 son alimentados con un valor de factor de escala entregado desde ¡ la unidad combinadora de factores de escala 242 que han sido almacenados en él último cuadro que contiene información de factores de escala válida. En el caso que el cuadro actual es clasificado como un cuadro inactivo o cuadro SID, él ruido de ! ? : · comodidad es generado en el dominio TCX y se vuelve a transformar !all dominio ¡ ? 1 i del tiempo. Subsiguientemente, la señal del dominio del tiempo que contiene el < ' i i ruido de comodidad es alimentada al banco de filtros de análisis Qi iF; 230 del módulo SBR 224. En el dominio de QMF, la extensión de ancho dei bandá del ruido de comodidad se realiza por medio de transposición de copy— íup dentro del generador de HF 232 y finalmente la envolvente espectral de la parte dé alta i ! i frecuencia creada artificialmente, es ajustada mediante aplicación de información de factores de escala de energía en el ajustador de envolvente 234. Estos factores de escala de energía se obtienen mediante la salida de la unidad 246 y son puestos en escala mediante la unidad de ajuste de ganancia 248 antes de la aplicación en el ajustador de envolvente 234. En esta unidad de ajuste de ganancia 248 se calcula un valor de ganancia para ajusfar los factores de escala y se aplica para compensar grandes diferencias de energía en el bordej entré la porción de baja frecuencia y el contenido de alta frecuencia de la señal.
Las realizaciones descritas arriba se usan en común en las realizaciones de las Figuras 12 y 13. La Figura 12 muestra una realización de un codificador de audio de acuerdo con una realización de la presente solicitud, y la Figura 13 muestra una realización de un decodificador de audio. Los detalles revelados con respecto a estas figuras se aplican igual a los elementos mencionados t 1 previamente en forma individual. j El codificador de audio de la Figura 12 comprende un banco de ¡filtros de i ¦ análisis QMF 200 para descomponer espectralmente una señal dé áüdio de entrada. Un detector 270 y un estimador de ruido 262 están conectados a una salida del banco de filtros de análisis QMF 200. El estimador de ruido 262| asume la responsabilidad de la funcionalidad del estimador de ruido de fondo 12;. Durante por un codificador por núcleo 14 por el otro lado. Ambos caminos paralelos se i conectan a una respectiva salida del empaquetador de serie de bits ? ¡el tiempo 266. En el caso de cuadros SID salientes, el codificador de cuadro SID 274 recibe ¡ [ ¡ I i i I ! I I ; los datos desde el estimador de ruido 262 y entrega los cuadros SID al empaquetador de serie de bits en el tiempo 266.
Los datos de extensión de ancho de banda espectral entregados por el estimador 260 describen la envolvente espectral de la porción de alta frecuencia del espectrograma o espectro entregado por el banco de filtros de análisis QMF 200, los cuales luego son codificados, tal como mediante codificación por entropía, por el codificador SBR 264. El multiplexador de secuencia de datos 266 inserta los datos de extensión de ancho de banda espectral de fases activas en la secuencia de datos entregada en una salida 268 del multiplexador 266.
El detector 270 detecta si actualmente está activa una fase activa 0 inactiva.
En base a esta detección, un cuadro activo, un cuadro SID o un cuadro cero, esto cuadro inactivo, se ha de entregar actualmente. En otras palabras, el módulo 270 decide si una fase activa o una fase inactiva está activa y si la fase inactiva está activa, si se ha de entregar o no un cuadro SID. Las decisiones están indicadas en la Figura 12 usando I para cuadros cero, A para cuadros activos, y S para cuadros SID. Los cuadros que corresponden a intervalos de tiempo de la señal dé entrada donde la fase activa está presente, también son remitidos a la concatenación; del banco de filtros de síntesis QMF 272 y al codificador por núcleo 14. El banco de filtros de síntesis QMF 272 tiene una resolución de menor frecuencia ú opera á un menor número de subbandas QMF cuando se compara con el banco de filtros de análisis QMF 200 de modo de lograr por medio del cociente de número de subbandas una reducción de la tasa de muestreo para transferir las porciones de cuadro activas de la señal de entrada al dominio del tiempo nuevamente. En particular, el banco de filtros de síntesis QMF 272 es aplicado a las porciones de menor frecuencia o subbandas de menor frecuencia del espectrograma dé banco de filtros de análisis QMF dentro de los cuadros activos. El codificador por núcleo 14 recibe así una versión de tasa de muestreo reducida de la señal de entrada, la cual convierte así meramente una porción de menor frecuencia de la señal de entrada original ingresada al banco de filtros de análisis QMF 200. La: restante porción de frecuencia más alta es codificada paramétricamente por los módulos 260 y 264.
Los cuadros SID (o, para ser más precisos, la información a ser llevada por los mismos) so remitidos al codificador SID 274 el cual asume la responsabilidad de las funcionalidades del módulo 152 de la Figura 5, por ejemplo. Lá única diferencia: el módulo 262 opera sobre el espectro de la señal de entrada directamente— sin corrección por LPC. Asimismo, como se usa el filtrado de análisis QMF, la operación del módulo 262 es independiente del modo de cuadro elegido por el codificador por núcleo o la opción de extensión de ancho dé banda espectral que se aplique o no. Las funcionalidades del módulo 148 y 150 de la Figura 5 pueden ser implementadas dentro del módulo 274.
El multiplexador 266 multiplexa la respectiva información codificada formando la secuencia de datos en la salida 268.
El decodificador de audio de la Figura 13 puede operar sobre una secuencia de datos como la entregada por el codificador de la Figura 12. Eso es, un módulo 280 está configurado para recibir la secuencia de datos y para clasificar los cuadros dentro de la secuencia de datos en cuadros activos, cuadros SilD y cuadros cero, esto es, una carencia de cuadro en la secuencia de datos, por ejemplo. Los cuadros activos son remitidos a una concatenación de un decodificador por núcleo 92, un banco de filtros de análisis QMF 282 y un módulo de extensión de ancho de banda espectral 284. Opcionalmente, un estimador de ruido 286 está conectado a la salida del banco de filtros de análisis QMF. El estimador de ruido 286 puede operar en forma similar, y puede asumir la responsabilidad de las funcionalidades de, el estimador de ruido de fondo 90 de la Figura 3, por ejemplo, con la excepción de que el estimador de ruido opera sobre el espectro no corregido en lugar de sobre los espectros de excitación. La concatenación de módulos 92, 282 y 284 se conecta a una entrada del banco de filtros de síntesis QMF 288. Los cuadros SID son remitidos a un decodificador de cuadros SID 290 el cual asume la responsabilidad de la funcionalidad del generador de ruido de fondo 96 de la Figura 3, por ejemplo. Un actualizador de parámetros de generación de ruido de comodidad 292 es alimentado por la información proveniente del decodificador 290 y el estimador de ruido 286 con este actualizador 292 que gobierna el generador aleatorio 294 el cual asume la responsabilidad de la funcionalidad de los generadores aleatorios paramétricos de la Figura 3. Como faltan cuadros inactivos o cero, no tiene que ser remitidos a ningún lado, pero ellos disparan otro ciclo de generación aleatoria del generador aleatorio 294. La salida del generador aleatorio 294 está conectada al baijico de filtros de síntesis QMF 288, la salida del cual revela la señal de audio reconstruida en silencio y fases activas en el dominio del tiempo.
Así, durante las fases activas, el decodificador por núcleo 92 reconstruye la porción de baja frecuencia de la señal de audio incluyendo tanto ruido como componentes de señal útiles. El banco de filtros de análisis QMF 282 descompone espectralmente la señal reconstruida y el módulo de extensión de ancho de banda espectral 284 usa la información de extensión de ancho de banda espectral dentro de la secuencia de datos y cuadros activos, respectivamente, para agregar la porción de alta frecuencia. El estimador de ruido 286, si está presente, realiza la estimación de ruido basado en una porción de espectro según lo reconstruido por el decodificador por núcleo, esto inactivas, los cuadros SID llevan estimación de ruido de fondo derivada por la estimación de ruido 262 eh el lado del codificador. El actualizador de parámetros 292 puede usar principalmente la información del codificador para actualizar su estimación de ruido de fondo paramétrica, usando la información provista por el estimador de ruido 286 I ! principalmente como una posición de soporte de información para caso dé pérdida de transmisión concerniente a cuadros 288 convierte la señal espectralmente con las realizaciones de las Figuras 12 y 13, la generación de ruido de .comodidad se incluye exitosamente dentro de este marco de trabajo.
En particular, de acuerdo con las realizaciones de las Figuras 12; y 13, se puede ver que es posible generar ruido de comodidad en el lado del decodificador después del análisis QMF, pero antes de la síntesis QMF aplicando un generador aleatorio 294 para excitar las partes real e imaginaria de cada coeficiente! QMF del ! i banco de filtros de síntesis QMF 288, por ejemplo. La amplitud de las secuencias ! I ! aleatorias, por ejemplo, son computadas individualmente en cada banda QMF tal que el espectro del reuido de comodidad generado se parezca al espectro de la señal de ruido de fondo de entrada real. Esto se puede lograr en cada banda QMF I usando un estimador de ruido después del análisis QMF en el lado de codificación.
Estos parámetros entonces pueden ser transmitidos a través de los para actualizar la amplitud de las secuencias aleatorias aplicada en QMF en el lado del decodificador.
Idealmente, notar que la estimación de ruido 262 aplicada en el lado del codificador debe poder operar tanto durante períodos inactivos (esto i jes, sólo ruido) como activos (que típicamente contienen voz ruidos) de miodb qué los parámetros de ruido de comodidad puedan ser actualizados inmediatamente al : ! i i final de cada período activo. Además, la estimación de ruido podría !sér usada : i también del lado del decodificador. Como se descartan los cuadros de sólo ruido paquete desde el codificador al decodificador falla para el(los) primer(os) cuádro(s) SID siguientes a un período de actividad. ! i La estimación de ruido debe poder seguir, precisa y rápidamente, variaciones del contenido espectral del ruido de fondo e idealmente lo debe! poder realizar durante ambos, cuadros, activo e inactivo, como se expresó arriba. Una manera de lograr estos objetivos es rastrear los mínimos tomados en cada1 banda por el espectro de potencia usando una venta deslizante de longitud finita' como se propone en [R. Martin, Estimación de Densidad Espectral de Potencia cié Ruido Basada en Alisamiento Óptimo y Estadística de Mínimos (Noise Power Speófral Density Estimation Based on Optimal Smoothing and Mínimum Statisiics),\ 2001]. La idea detrás de esto es que la potencia de un espectro de vozj ruidosa frecuentemente decae a la potencia del ruido de fondo, por ejemplo, entre i palabras o sílabas. Rastrear el mínimo del espectro de potencia, por j lo tanto, provee una estimación del piso de ruido en cada banda, incluso durante ¡actividad de voz. Sin embargo, estos pisos de ruido son subestimados en , general. Asimismo, ellos no permiten capturar rápidas fluctuaciones de las pdtencias espectrales, especialmente repentinos incrementos de energía.
De todos modos, el piso de ruido computado como se describe ¡arriba en cada banda provee información lateral muy útil para aplicar una segunda; etapa de estimación de ruido. De hecho, podemos esperar que la potencia de n| éspectro ruidoso esté cerca del piso de ruido estimado durante inactividad, mientras que la potencia espectral estará muy por arriba del piso de ruido durante la actividad. ¡Los pisos de ruido computados separadamente en cada banda pueden ; ser i usados entonces como detectores groseros de actividad para cada banda. En basé a éste conocimiento, se puede estimar fácilmente la potencia de ruido de fondo como una versión recursivamente alisada del espectro de potencia como sigue: oN2(rn,k) = (m,fc) - aN2(m - l,fc) + (l - £(m, fc))¦ ax2 m,k) , donde °*2(m'fc) denota la densidad espectral de potencia de la señal de entrada en el cuadro 731 y banda k, a^2ím>ky refiere a la estimación de potencia de ruido, y 0(m,fe) es un factor de olvido (necesariamente entre 0 y 1 ) que controla la magnitud del alisamiento para cada banda y cada cuadro separadamente. Usar la información de piso de ruido para reflejar el estado de actividad, debe tomar un pequeño valor durante períodos inactivos (esto es, cuando el espectro de potencia está cerca del piso de ruido), mientras se debe elegir un valor alto para aplicar más alisamiento (idealmente manteniendo s?2 ^ constante) durante cuadros activos. Para lograr esto se puede tomar una decisión débil calculando los factores de olvido como sigue: ß{t?,1?) = í - e s(nU ) t : donde es la potencia de piso de ruido y es un parámetro de control. Un valor más alto para a da por resultado factores de olvido más grandeis <y por ende más alisamiento global.
Así, se ha descrito un concepto de Generación de Ruido de Comodidad (CNG) donde se produce ruido artificial en el lado del decodificador en un dominio de transformada. Las realizaciones de arriba pueden ser aplicadas en combinación con virtualmente cualquier tipo de herramienta de análisis espectro— temporal (esto es, una transformación o un banco de filtros) que descompone una señal del dominio del tiempo en múltiples bandas espectrales.
De nuevo, se debe notar que el uso del dominio espectral solo provee una estimación más precisa del ruido de fondo y logra ventajas sin usar la posibilidad de arriba de actualizar continuamente la estimación durante las fases activas. Por consiguiente, algunas otras realizaciones adicionales difieren de las realizaciones de arriba al no usar este rasgo de actualización continua de la estimación de ruido de fondo paramétrica. Pero estas realizaciones alternativas usan el dominio espectral de modo de determinar paramétricamente la estimación de ruido.
Por consiguiente, en otra realización, el estimador de ruido de fondo 12 puede estar configurado para determinar una estimación de ruido de fondo paramétrica en base a una representación de descomposición espectral de una señal de audio de entrada de modo que la estimación de ruido de fondo paramétrica describe espectralmente una envolvente espectral de un ruido de fondo de la señal de audio de entrada. La determinación puede comenzar al entrar la fase inactiva, o se pueden usar en forma conjunta las ventajas de arriba puede y la determinación puede ser realizada continuamente durante las fases activas para actualizar la estimación para uso inmediato al entrar la fase inactiva. El codificador 14 codifica la señal de audio de entrada en la secuencia de datos durante la fase activa y un detector 16 puede estar configurado para detectar una entrada de una fase inactiva que sigue a la fase activa en base a la señal de entrada. El codificador puede estar configurado además para codificar en la secuencia de datos la estimación de ruido de fondo paramétrica. El estimador de ruido de fondo puede estar configurado para realizar la determinación de la estimación de ruido de fondo paramétrica en la fase activa y con distinguir entre un componente de ruido y un componente de señal útil dentro de representación de descomposición espectral de la señal de audio de entrada y para determinar la estimación ¡dé ruido ! i de fondo paramétrica meramente a partir del componente de ruido. ¡En otra I I \ realización el codificador puede estar configurado para, al codificar la se al de audio de entrada, codificar predictivamente la señal de audio de entrada en coeficientes de predicción lineal y una señal de excitación, y codificar por transformada una descomposición espectral de la señal de excitación, y ¡codificar j los coeficientes de predicción lineal en la secuencia de datos, en donde; el estimador de ruido de fondo está configurado para usar la descomposición espectral de la señal de excitación como la representación de descomppsición espectral de la señal de audio de entrada para determinar la estimación ¡ de ruido de fondo paramétrica. i Además, el estimador de ruido de fondo puede estar configurado para identificar los mínimos locales en la representación espectral de la señal de excitación para estimar la envolvente espectral de un ruido de fondo de( laj sjsñai de audio de entrada usando interpolación entre los mínimos locales identificados estimación de ruido de fondo paramétrica describe espectralmente una envolvente ¦ i I ! espectral de un ruido de fondo de la señal de audio de entrada. Un decc-dificador 92 puede estar configurado para reconstruir la señal de audio a partir; de la secuencia de datos durante la fase activa. Un generador aleatorio paraméllrico 94 y un generador de ruido de fondo 96 pueden estar configurados para reconstruir la señal de audio durante la fase inactiva controlando el generador j aleatorio paramétrico durante la fase inactiva con la estimación de ruido de fondo paramétrica.
De acuerdo con otra realización, el estimador de ruido de fondo pujede estar i l ; configurado para realizar la determinación de la estimación de ruido ;dé fondo i i paramétrica en la fase activa y con distinguir entre un componente de ruido y un componente de señal útil dentro de representación de descomposición j espectral de la señal de audio de entrada y para determinar la estimación de ruido' de fondo paramétrica meramente a partir del componente de ruido. ¡ i En una realización adicional el decodificador puede estar configurado para, fondo puede estar configurado también para usar la descomposición ¡espéctrá! de la señal de excitación como la representación de descomposición espectral de la señal de audio de entrada al determinar la estimación de ruido ; de fpndo paramétrica. I I ¡ De acuerdo con una realización adicional, el estimador de ruido de fondo puede estar configurado para identificar los mínimos locales en la repriesentáción espectral de la señal de excitación para estimar la envolvente espectral de un ruido de fondo de la señal de audio de entrada usando interpolación entre los j mínimos locales identificados como puntos de soporte. j Por ende, las realizaciones de arriba, inter alias, describieron un CNG basado en TCX donde un generador de ruido de comodidad emplea pulios aleatorio para modelar lo residual. ! A pesar de que se han descrito algunos aspectos en el contexto de' un aparato, es claro que estos aspectos también representan una descripción del método correspondiente, donde un bloque o dispositivo corresponde a uh [pasó de método o a un rasgo de un paso de método. Análogamente, los aspectos! d scritos ; i en el contexto de una etapa de método también representan una descripción de un correspondiente bloque o componente o rasgo de un correspondiente aparato.
Algunos o todos de los pasos de método pueden ser ejecutados por (p usando) un aparato de hardware, como por ejemplo, programable o un circuito electrónico. En los pasos de método más importantes pueden ser ejecutados mediante un aparato tal.
Dependiendo de ciertos requerimientos de implementácipn, ¡ las realizaciones del invento pueden ser implementadas en hardware o ep software. La implementación puede ser realizada usando un medio de almacenamiento digital, por ejemplo, un disco flexible, un DVD, un CD, un Blu— Ray, luna ¡memoria de sólo lectura, una PROM, una EEPROM o una memoria FLASH, teniendo i ! señales de control legibles electrónicamente almacenadas en las mismas, las cuales cooperan (o son capaces de cooperar) con un sistema de: computadora programable tal que se ejecute el respectivo método. Por lo tanto ;; e!l m1 ediio de almacenamiento digital puede ser legible por computadora. , i ' ! Algunas realizaciones de acuerdo con el invento comprenden un portador de datos que tiene señales de control legibles electrónicamente, las cuales son I I capaces de cooperar con un sistema de computadora programable, tal que úno de los métodos descrito en la presente sea ejecutado. i Generalmente, realizaciones del presente invento pueden ser implementadas como un programa de computador con un código de programa, siendo código de programa operativo para ejecutar uno de los métodos producto de programa de computadora corre en una computadora. El programa puede ser almacenado, por ejemplo, sobre un portador legible; por una máquina. > \ Otras realizaciones comprenden el programa de computadora para ejecutar uno de los métodos descritos en la presente, almacenado en un portador legible por una máquina. í En otras palabras, una realización del método inventivo es, por lo ¡tanto j un ! i programa de computadora que un código de programa para ejecutar uhd de los métodos descritos en la presente, cuando el programa de computadora corre en una computadora. ¡ ; Una realización adicional de los métodos inventivos es, por lo ,tanto¡ un portador de datos (o un medio de almacenamiento digital, o un medio legible por computadora) que comprende, grabado en el mismo, el programa de computadora para ejecutar uno de los métodos descritos en la presente. El portador de ciatos, el medio de almacenamiento digital o el medio de registro típicamente son tangibles y/o no transitorios. i ' Una realización adicional del método inventivo es, por transmisión de datos o una secuencia de señales que representan computador para ejecutar uno de los métodos descritos en la presente. La transmisión de datos o la secuencia de señales pueden ser configuradas, por I i ejemplo, para ser transferidos vía una conexión de comunicación de, datos, por ejemplo, vía Internet. ! Una realización adicional comprende un ejemplo, una computadora, o un dispositivo lógico o adaptado para ejecutar uno de los métodos descritos en la presente. i Una realización adicional comprende una computadora que tiene ¡instalado i i ; en ella el programa de computadora para ejecutar uno de los métodos descritos en la presente.
Otra realización de acuerdo con el invento comprende un aparato o un i sistema configurado para transferir (por ejemplo, electrónicamente u ópticamente) I un programa de computadora para ejecutar uno de los métodos descritos! aquí, a un receptor. El receptor puede ser, por ejemplo, una computadora, un dispositivo móvil, un dispositivo de memoria o similar. El aparato o sistema puede comprender, por ejemplo, un servidor de archivo para transferir el programé de í computadora al receptor. ¡ Las realizaciones que se describieron más arriba son puramente ilustrativas para los principios del presente invento. Se entiende que las modificaciones y variaciones posibles de las disposiciones y de los detalles descritos en la présente serán evidentes para los expertos en la materia. Por lo tanto, es la intención qué el invento esté limitado sólo por el alcance de las siguientes reivindicaciones de patente y no por los detalles específicos presentados por la descripción y la explicación de las realizaciones en la presente.

Claims (18)

60 REIVINDICACIONES Habiendo así especialmente descripto y determinado la naturaleza de la presente invención y la forma como la misma ha de ser llevada a la practica, se declara reivindicar como de propiedad y derecho exclusivo:
1. Un codificador de audio que comprende un estimador de ruido de fondo (12) configurado para determinar una estimación de ruido de fondo paramétrica en base a una representación de descomposición espectral de una señal de audio de entrada de modo que la estimación de ruido de fondo paramétrica describe espectralmente una envolvente espectral de un ruido de fondo de la señal de audio de entrada; un codificador (14) para codificar la señal de audio de entrada en una secuencia de datos durante la fase activa; y un detector (16) configurado para detectar la entrada de una fase inactiva a continuación de la fase activa basado a la señal de entrada, en donde el codificador de audio está configurado para codificar en la secuencia de datos la estimación de ruido de fondo paramétrica en la fase inactiva, en donde el estimador de ruido de fondo está configurado para; identificar mínimos locales en la representación de descomposición espectral de la señal de audio de entrada y para estimar la envolvente espectral del ruido de fondo de la señal de audio de entrada utilizando interpolación entre los mínimos locales identificados como puntos de soporte o el codificador está configurado para, en la codificación de la señal de audio de entrada, codificar predictivamente la señal de audio de entrada a coeficientes de predicción lineales y una señal de excitación y codificar por transformada una ¡ descomposición espectral de la señal de excitación y codificar los coeficientes de i I como la representación de descomposición espectral de la señal de jaijidio de entrada en la determinación de la estimación de ruido de fondo paramétrico,. I
2. Un codificador de audio de acuerdo con la reivindicación 1 , en donde I el estimador de ruido de fondo está configurado para realizar la determinación de la estimación de ruido de fondo paramétrica en la fase activa con distinguir entre un componente de ruido y un componente de señal útil dentro de representación de descomposición espectral de la señal de audio de entrada y para determinar la estimación de ruido de fondo paramétrica meramente a partir del componente de , i ruido. : ¡
3. Un codificador de audio de acuerdo con la reivindicación 1 en dónde el estimador de ruido de fondo puede está configurado para identificar los mínimos locales en la representación espectral de la señal de excitación para ¡estimar la envolvente espectral de un ruido de fondo de la señal de audio de entrada usando i interpolación entre los mínimos locales identificados como puntos de soporte. ;
4. Un codificador de audio de acuerdo con una cualquiera de las ; ! : í reivindicaciones previas, en donde el codificador está configurado paramal codificar la señal de audio de entrada, usar codificación predictiva y/o por tr 'an isf 'orm 'ación i ¡ ' ¡ para codificar una porción de frecuencia más baja de la representación de descomposición espectral de la señal de audio de entrada, iy j paraj usar i i ! codificación paramétrica para codificar una envolvente espectral de una porción de i 'i · más alta frecuencia de la representación de descomposición espectral' dé la señal de audio de entrada.
5. Un codificador de audio de acuerdo con una cualquiera ;de las i 1 reivindicaciones previas, en donde el codificador está configurado para, al cbdificar i · la señal de audio de entrada, usar codificación predictiva y/o por transfprmación para codificar una porción de frecuencia más baja de la representación de descomposición espectral de la señal de audio de entrada, y para elegir codificación paramétrica para codificar una envolvente espectral de una ! i más alta frecuencia de la representación de descomposición espectral de la señal de audio de entrada o dejar sin codificar la porción de frecuencia más afta de la señal de audio de entrada.
6. Un codificador de audio de acuerdo con una de las reivindicaciones 4 o 5, en donde el codificador está configurado para interrumpir la códificáción predictiva y/o por transformación y la codificación paramétrica en fases ináctivas o para interrumpir la codificación predictiva y/o por transformación y realizar la codificación paramétrica de la envolvente espectral de la porción de ¡frecuencia más alta de la representación de descomposición espectral de la señal de audio de entrada en una más baja resolución de tiempo/frecuencia comparada con el uso de codificación paramétrica en la fase activa. , ;
7. Un codificador de audio de acuerdo con una de las reivindicaciones i I 4, 5 o 6, en donde el codificador usa un banco de filtros para descomponer espectralmente la señal de audio de entrada en un conjunto de subbarida!s que forman la porción de frecuencia más baja, y un conjunto de subbandas qüe forman la porción de frecuencia más alta. í
8. Un codificador de audio que comprende: un estimador de ruido de fondo configurado para determinar una estimación i I de ruido de fondo paramétrica en base a una representación de descomposición espectral de una señal de audio de entrada de tal manera que la estimación de ruido de fondo paramétrica describe espectralmente una envolvente espectral de un ruido de fondo de la señal de audio de entrada; un codificador para codificar la señal de audio de entrada a una Secuencia i . de datos durante la fase activa y j un detector configurado para detectar una entrada de una fase inactiva enseguida de la fase activa basada en la señal de entrada, en donde el codificador de audio está configurado para codifipar á la secuencia de datos la estimación de ruido de fondo paramétrica en la fase inactiva, i en donde el codificador está configurado para, en la codificación de la señal ' ! I !. descomposición espectral de la señal de audio de entrada.
9. Un codificador de audio de acuerdo con la reivindicación 8, en donde el estimador de ruido de fondo está configurado para, al actualizar la estimación de ruido de fondo paramétrica, identificar mínimos locales en las porciones de frecuencia más baja y más alta de la representación de descomposición éspectral de la señal de audio de entrada y para realizar análisis estadístico de las porciones de frecuencia más baja y más alta de la representación de descomposición espectral de la señal de audio de entrada en los mínimos locales de modo de derivar la estimación de ruido de fondo paramétrica.
10. Un codificador de audio de acuerdo con una cualquiera de las reivindicaciones precedentes, en donde el estimador de ruido está configurado para continuar actualizando continuamente la estimación de ruido de fondo durante la fase inactiva, en donde el codificador de audio están configurado para codificar intermitentemente actualizaciones de la estimación de ruido de fondo paramétrica conforme es continuamente actualizada durante la fase inactiva.
11. Un codificador de audio de acuerdo con la reivindicación 10, en donde el codificador de audio está configurado para codificar intermitentemente las actualizaciones de la estimación de ruido de fondo paramétrica en un. intervalo de tiempo fijo o variable. ! ; 1
12. Un decodificador de audio para decodificar una secuencia¡de datos de modo de reconstruir a partir de ello una señal de audio, la secuencia! de datos que comprende por lo menos una fase activa seguida por una fase inactiva, el decodificador de audio que comprende un estimador de ruido de fondo (90) configurado para determinar una estimación de ruido de fondo paramétrica en base a una representación de descomposición espectral de la señal de audio de entrada obtenida de la secuencia de datos de modo que la estimación de ruido de fondo paramétrica describe espectralmente una envolvente espectral un ruido de fondo de lá señal de audio de entrada; un decodificador (92) configurado para reconstruir la señal de audio a partir de la secuencia de datos durante la fase activa; un generador aleatorio paramétrico (94); y un generador de ruido de fondo (96) configurado para reconstruir la señal de audio durante la fase inactiva controlando el generador aleatorio paramétrico durante la fase inactiva con la estimación de ruido de fondo paramétrica, en donde el estimador de ruido de fondo está configurado para identificar mínimos locales en la representación de descomposición espectral dé lá señal de audio de entrada y para estimar la envolvente espectral del ruido de fóndo de la señal de audio de entrada usando interpolación entre los mínimos locales identificados como puntos de soporte.
13. Un decodificador de audio de acuerdo con la reivindicación 12, en donde el estimador de ruido de fondo está configurado para realizar la determinación de la estimación de ruido de fondo paramétrica en la fase activa y con distinguir entre un componente de ruido y un componente de señal; útil dentro de representación de descomposición espectral de la señal de audio dé entrada y para determinar la estimación de ruido de fondo paramétrica meramente a partir del componente de ruido.
14. Un decodificador de audio de acuerdo con una cualquiera de las reivindicaciones 12 o 13, en donde el decodificador está configurado para, al reconstruir la señal de audio a partir de la secuencia de datos, aplicar corregir una descomposición espectral de una señal de excitación, codificada por transfójrmada en la secuencia de datos de acuerdo con coeficientes de predicción lineal! también codificados en los datos, en donde el estimador de ruido de foridó está configurado para usar la descomposición espectral de la señal de excitáciptji como la representación de descomposición espectral de la señal de audio de entrada para determinar la estimación de ruido de fondo paramétrica al identificar mínimos locales en la representación espectral de la señal de excitación y estimar la envolvente espectral del ruido de fondo de la señaljdé audio de entrada usando interpolación entre los mínimos locales identificados en la representación espectral de la señal de excitación como puntos de soporte.
15. Un método de codificación de audio que comprende , i | determinar una estimación de ruido de fondo paramétrica en basé a una representación de descomposición espectral de una señal de audio de entrada de modo que la estimación de ruido de fondo paramétrica describe espectralmente una envolvente espectral de un ruido de fondo de la señal de audio de entrada; codificar la señal de audio de entrada en una secuencia de datos ¿Jurante la espectral del ruido de fondo de la señal de audio de entrada usando interpolación entre los mínimos locales identificados como puntos de soporte o la codificación de la señal de audio de entrada comprende ¡codificar predictivamente la señal de audio de entrada a coeficientes de predicción lineales 5. y una señal de excitación y codificación por transformada de una descomposición espectral de la señal de excitación y codificación de los coeficientes de predicción i ¡ lineales a la secuencia de datos, en donde la determinación de una estimación de ruido de fondo paramétrica comprende usar la descomposición espectral de la señal de excitación como la representación de descomposición espectral de la 0 señal de audio de entrada en la determinación de la estimación de ruido ¡dé fondo paramétrica. ¡
16. Un método de codificación de audio que comprende: determinar una estimación de ruido de fondo paramétrica en basé a una : i representación de descomposición espectral de una señal de audio de entrada, de 5 tal manera que la estimación de ruido de fondo paramétrica ; describe espectralmente una envolvente espectral de un ruido de fondo de Ja | sjeñal de audio de entrada; j i i codificar la señal de audio de entrada a una secuencia de datos durante la fase activa y 0 detectar una entrada de una fase activa enseguida de la fas a la señal de entrada y codificar a la secuencia de datos la estimación de paramétrica en la fase inactiva, en donde la codificación de la señal de audio de entrada comprende ¡usar 5 codificación predictiva y/o de transformada para codificar una i p¡orción de frecuencia más baja de la representación de descomposición espectral de la' señal de audio de entrada y usar codificación paramétrica para codificar una en qlvente espectral de una porción de frecuencia más alta de la representación de i descomposición espectral de la señal de audio de entrada, i en done se usa un banco de filtros con el fin de descorripoher ! i espectralmente la señal de audio de entrada a un conjunto de subbandás que forman la porción de frecuencia más baja y un conjunto de subbandás qué forman la porción de frecuencia más alta y 1 en donde la determinación de una estimación de ruido de fondo paraijnétrica comprende actualizar la estimación de ruido de fondo paramétrica en la fasé activa 1 1 en base a las porciones de frecuencia más baja y más alta de la representación de I descomposición espectral de la señal de audio de entrada.
17. Un método para decodificar una secuencia de datos de modo de reconstruir a partir de ello una señal de audio, la secuencia de datós que comprende por lo menos una fase activa seguida por una fase método comprende determinar una estimación de ruido de fondo paramétrica en base a generador aleatorio paramétrico durante la fase inactiva con la estimación de ruido de fondo paramétrica, en donde la determinación de una estimación de ruido de fondo comprende identificar mínimos locales en la representación de descomposición espectral de la señal de audio de entrada y estimar la envolvente espectral clel ruido de fondo de la señal de audio de entrada usando interpolación entre los mínimos locales identificados como puntos de soporte. j
18. Un programa de computadora que tiene un código para ejecutar cuando corre en una computadora, un método de una cualquiera de las reivindicaciones 15 a 17. !
MX2013009305A 2011-02-14 2012-02-14 Generacion de ruido en codecs de audio. MX2013009305A (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201161442632P 2011-02-14 2011-02-14
PCT/EP2012/052464 WO2012110482A2 (en) 2011-02-14 2012-02-14 Noise generation in audio codecs

Publications (1)

Publication Number Publication Date
MX2013009305A true MX2013009305A (es) 2013-10-03

Family

ID=71943600

Family Applications (1)

Application Number Title Priority Date Filing Date
MX2013009305A MX2013009305A (es) 2011-02-14 2012-02-14 Generacion de ruido en codecs de audio.

Country Status (17)

Country Link
US (1) US8825496B2 (es)
EP (2) EP3373296A1 (es)
JP (3) JP5934259B2 (es)
KR (1) KR101624019B1 (es)
CN (1) CN103477386B (es)
AR (2) AR085895A1 (es)
AU (1) AU2012217162B2 (es)
BR (1) BR112013020239B1 (es)
CA (2) CA2827305C (es)
ES (1) ES2681429T3 (es)
MX (1) MX2013009305A (es)
MY (1) MY167776A (es)
RU (1) RU2585999C2 (es)
SG (1) SG192745A1 (es)
TW (1) TWI480856B (es)
WO (1) WO2012110482A2 (es)
ZA (1) ZA201306874B (es)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
PL2676268T3 (pl) 2011-02-14 2015-05-29 Fraunhofer Ges Forschung Urządzenie i sposób przetwarzania zdekodowanego sygnału audio w domenie widmowej
PT2676270T (pt) 2011-02-14 2017-05-02 Fraunhofer Ges Forschung Codificação de uma parte de um sinal de áudio utilizando uma deteção de transiente e um resultado de qualidade
KR101424372B1 (ko) 2011-02-14 2014-08-01 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. 랩핑 변환을 이용한 정보 신호 표현
AR085794A1 (es) 2011-02-14 2013-10-30 Fraunhofer Ges Forschung Prediccion lineal basada en esquema de codificacion utilizando conformacion de ruido de dominio espectral
PT3239978T (pt) 2011-02-14 2019-04-02 Fraunhofer Ges Forschung Codificação e descodificação de posições de pulso de faixas de um sinal de áudio
BR112013020324B8 (pt) 2011-02-14 2022-02-08 Fraunhofer Ges Forschung Aparelho e método para supressão de erro em fala unificada de baixo atraso e codificação de áudio
CN103918029B (zh) * 2011-11-11 2016-01-20 杜比国际公司 使用过采样谱带复制的上采样
CN105469805B (zh) 2012-03-01 2018-01-12 华为技术有限公司 一种语音频信号处理方法和装置
US9640190B2 (en) * 2012-08-29 2017-05-02 Nippon Telegraph And Telephone Corporation Decoding method, decoding apparatus, program, and recording medium therefor
KR101812123B1 (ko) * 2012-11-15 2017-12-26 가부시키가이샤 엔.티.티.도코모 음성 부호화 장치, 음성 부호화 방법, 음성 부호화 프로그램, 음성 복호 장치, 음성 복호 방법 및 음성 복호 프로그램
RU2633107C2 (ru) * 2012-12-21 2017-10-11 Фраунхофер-Гезелльшафт Цур Фердерунг Дер Ангевандтен Форшунг Е.Ф. Добавление комфортного шума для моделирования фонового шума при низких скоростях передачи данных
JP6180544B2 (ja) * 2012-12-21 2017-08-16 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン オーディオ信号の不連続伝送における高スペクトル−時間分解能を持つコンフォートノイズの生成
CN103971693B (zh) 2013-01-29 2017-02-22 华为技术有限公司 高频带信号的预测方法、编/解码设备
ES2834929T3 (es) * 2013-01-29 2021-06-21 Fraunhofer Ges Forschung Llenado con ruido en la codificación de audio por transformada perceptual
CN105225668B (zh) * 2013-05-30 2017-05-10 华为技术有限公司 信号编码方法及设备
JP6465020B2 (ja) * 2013-05-31 2019-02-06 ソニー株式会社 復号装置および方法、並びにプログラム
EP2830061A1 (en) 2013-07-22 2015-01-28 Fraunhofer Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for encoding and decoding an encoded audio signal using temporal noise/patch shaping
EP2830051A3 (en) 2013-07-22 2015-03-04 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoder, audio decoder, methods and computer program using jointly encoded residual signals
CN104978970B (zh) * 2014-04-08 2019-02-12 华为技术有限公司 一种噪声信号的处理和生成方法、编解码器和编解码系统
US10715833B2 (en) * 2014-05-28 2020-07-14 Apple Inc. Adaptive syntax grouping and compression in video data using a default value and an exception value
CN105336336B (zh) 2014-06-12 2016-12-28 华为技术有限公司 一种音频信号的时域包络处理方法及装置、编码器
EP2980801A1 (en) * 2014-07-28 2016-02-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Method for estimating noise in an audio signal, noise estimator, audio encoder, audio decoder, and system for transmitting audio signals
EP2980790A1 (en) * 2014-07-28 2016-02-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for comfort noise generation mode selection
CN106971741B (zh) * 2016-01-14 2020-12-01 芋头科技(杭州)有限公司 实时将语音进行分离的语音降噪的方法及系统
JP7011449B2 (ja) 2017-11-21 2022-01-26 ソニーセミコンダクタソリューションズ株式会社 画素回路、表示装置および電子機器
US10650834B2 (en) * 2018-01-10 2020-05-12 Savitech Corp. Audio processing method and non-transitory computer readable medium
US10847172B2 (en) * 2018-12-17 2020-11-24 Microsoft Technology Licensing, Llc Phase quantization in a speech encoder
US10957331B2 (en) 2018-12-17 2021-03-23 Microsoft Technology Licensing, Llc Phase reconstruction in a speech decoder

Family Cites Families (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5657422A (en) * 1994-01-28 1997-08-12 Lucent Technologies Inc. Voice activity detection driven noise remediator
US5960389A (en) * 1996-11-15 1999-09-28 Nokia Mobile Phones Limited Methods for generating comfort noise during discontinuous transmission
JPH10326100A (ja) * 1997-05-26 1998-12-08 Kokusai Electric Co Ltd 音声録音方法及び音声再生方法及び音声録音再生装置
JP3223966B2 (ja) * 1997-07-25 2001-10-29 日本電気株式会社 音声符号化/復号化装置
US7272556B1 (en) * 1998-09-23 2007-09-18 Lucent Technologies Inc. Scalable and embedded codec for speech and audio signals
US7124079B1 (en) * 1998-11-23 2006-10-17 Telefonaktiebolaget Lm Ericsson (Publ) Speech coding with comfort noise variability feature for increased fidelity
JP2003501925A (ja) * 1999-06-07 2003-01-14 エリクソン インコーポレイテッド パラメトリックノイズモデル統計値を用いたコンフォートノイズの生成方法及び装置
JP2002118517A (ja) 2000-07-31 2002-04-19 Sony Corp 直交変換装置及び方法、逆直交変換装置及び方法、変換符号化装置及び方法、並びに復号装置及び方法
US20050130321A1 (en) * 2001-04-23 2005-06-16 Nicholson Jeremy K. Methods for analysis of spectral data and their applications
US20020184009A1 (en) * 2001-05-31 2002-12-05 Heikkinen Ari P. Method and apparatus for improved voicing determination in speech signals containing high levels of jitter
US20030120484A1 (en) * 2001-06-12 2003-06-26 David Wong Method and system for generating colored comfort noise in the absence of silence insertion description packets
US7318035B2 (en) * 2003-05-08 2008-01-08 Dolby Laboratories Licensing Corporation Audio coding systems and methods using spectral component coupling and spectral component regeneration
CA2457988A1 (en) 2004-02-18 2005-08-18 Voiceage Corporation Methods and devices for audio compression based on acelp/tcx coding and multi-rate lattice vector quantization
FI118835B (fi) * 2004-02-23 2008-03-31 Nokia Corp Koodausmallin valinta
FI118834B (fi) * 2004-02-23 2008-03-31 Nokia Corp Audiosignaalien luokittelu
WO2005096274A1 (fr) 2004-04-01 2005-10-13 Beijing Media Works Co., Ltd Dispositif et procede de codage/decodage audio ameliores
GB0408856D0 (en) 2004-04-21 2004-05-26 Nokia Corp Signal encoding
US7649988B2 (en) * 2004-06-15 2010-01-19 Acoustic Technologies, Inc. Comfort noise generator using modified Doblinger noise estimate
US8160274B2 (en) 2006-02-07 2012-04-17 Bongiovi Acoustics Llc. System and method for digital signal processing
BRPI0607251A2 (pt) * 2005-01-31 2017-06-13 Sonorit Aps método para concatenar um primeiro quadro de amostras e um segundo quadro subseqüente de amostras, código de programa executável por computador, dispositivo de armazenamento de programa, e, arranjo para receber um sinal de áudio digitalizado
JP4519169B2 (ja) * 2005-02-02 2010-08-04 富士通株式会社 信号処理方法および信号処理装置
US20070147518A1 (en) * 2005-02-18 2007-06-28 Bruno Bessette Methods and devices for low-frequency emphasis during audio compression based on ACELP/TCX
KR100956877B1 (ko) * 2005-04-01 2010-05-11 콸콤 인코포레이티드 스펙트럼 엔벨로프 표현의 벡터 양자화를 위한 방법 및장치
RU2296377C2 (ru) * 2005-06-14 2007-03-27 Михаил Николаевич Гусев Способ анализа и синтеза речи
US7610197B2 (en) * 2005-08-31 2009-10-27 Motorola, Inc. Method and apparatus for comfort noise generation in speech communication systems
RU2312405C2 (ru) * 2005-09-13 2007-12-10 Михаил Николаевич Гусев Способ осуществления машинной оценки качества звуковых сигналов
US7720677B2 (en) 2005-11-03 2010-05-18 Coding Technologies Ab Time warped modified transform coding of audio signals
US8255207B2 (en) 2005-12-28 2012-08-28 Voiceage Corporation Method and device for efficient frame erasure concealment in speech codecs
US8032369B2 (en) 2006-01-20 2011-10-04 Qualcomm Incorporated Arbitrary average data rates for variable rate coders
FR2897733A1 (fr) 2006-02-20 2007-08-24 France Telecom Procede de discrimination et d'attenuation fiabilisees des echos d'un signal numerique dans un decodeur et dispositif correspondant
JP4810335B2 (ja) 2006-07-06 2011-11-09 株式会社東芝 広帯域オーディオ信号符号化装置および広帯域オーディオ信号復号装置
US7933770B2 (en) * 2006-07-14 2011-04-26 Siemens Audiologische Technik Gmbh Method and device for coding audio data based on vector quantisation
CN101589623B (zh) 2006-12-12 2013-03-13 弗劳恩霍夫应用研究促进协会 对表示时域数据流的数据段进行编码和解码的编码器、解码器以及方法
FR2911426A1 (fr) * 2007-01-15 2008-07-18 France Telecom Modification d'un signal de parole
US8185381B2 (en) 2007-07-19 2012-05-22 Qualcomm Incorporated Unified filter bank for performing signal conversions
EP2186088B1 (en) 2007-08-27 2017-11-15 Telefonaktiebolaget LM Ericsson (publ) Low-complexity spectral analysis/synthesis using selectable time resolution
JP4886715B2 (ja) * 2007-08-28 2012-02-29 日本電信電話株式会社 定常率算出装置、雑音レベル推定装置、雑音抑圧装置、それらの方法、プログラム及び記録媒体
US8000487B2 (en) * 2008-03-06 2011-08-16 Starkey Laboratories, Inc. Frequency translation by high-frequency spectral envelope warping in hearing assistance devices
EP2107556A1 (en) 2008-04-04 2009-10-07 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio transform coding using pitch correction
MY152252A (en) 2008-07-11 2014-09-15 Fraunhofer Ges Forschung Apparatus and method for encoding/decoding an audio signal using an aliasing switch scheme
JP2010079275A (ja) * 2008-08-29 2010-04-08 Sony Corp 周波数帯域拡大装置及び方法、符号化装置及び方法、復号化装置及び方法、並びにプログラム
US8352279B2 (en) * 2008-09-06 2013-01-08 Huawei Technologies Co., Ltd. Efficient temporal envelope coding approach by prediction between low band signal and high band signal
TWI419148B (zh) 2008-10-08 2013-12-11 Fraunhofer Ges Forschung 多解析度切換音訊編碼/解碼方案
EP2446539B1 (en) 2009-06-23 2018-04-11 Voiceage Corporation Forward time-domain aliasing cancellation with application in weighted or original signal domain
CA2862715C (en) 2009-10-20 2017-10-17 Ralf Geiger Multi-mode audio codec and celp coding adapted therefore

Also Published As

Publication number Publication date
CA2827305A1 (en) 2012-08-23
WO2012110482A2 (en) 2012-08-23
US20130332176A1 (en) 2013-12-12
TWI480856B (zh) 2015-04-11
CA2827305C (en) 2018-02-06
SG192745A1 (en) 2013-09-30
JP6643285B2 (ja) 2020-02-12
EP3373296A1 (en) 2018-09-12
ES2681429T3 (es) 2018-09-13
JP6185029B2 (ja) 2017-08-23
AR102715A2 (es) 2017-03-22
EP2676262A2 (en) 2013-12-25
JP2014510307A (ja) 2014-04-24
RU2585999C2 (ru) 2016-06-10
CN103477386A (zh) 2013-12-25
US8825496B2 (en) 2014-09-02
RU2013142079A (ru) 2015-03-27
MY167776A (en) 2018-09-24
WO2012110482A3 (en) 2012-12-20
CA2968699C (en) 2020-12-22
AU2012217162A1 (en) 2013-08-29
KR101624019B1 (ko) 2016-06-07
JP2016026319A (ja) 2016-02-12
JP5934259B2 (ja) 2016-06-15
KR20130126711A (ko) 2013-11-20
BR112013020239A2 (pt) 2020-11-24
AR085895A1 (es) 2013-11-06
AU2012217162B2 (en) 2015-11-26
JP2017223968A (ja) 2017-12-21
ZA201306874B (en) 2014-05-28
CN103477386B (zh) 2016-06-01
TW201248615A (en) 2012-12-01
BR112013020239B1 (pt) 2021-12-21
EP2676262B1 (en) 2018-04-25
CA2968699A1 (en) 2012-08-23

Similar Documents

Publication Publication Date Title
JP6643285B2 (ja) オーディオ符号器及びオーディオ符号化方法
CA2903681C (en) Audio codec using noise synthesis during inactive phases
JP2016504635A (ja) Celp状コーダのためのサイド情報を用いないノイズ充填
EP2866228B1 (en) Audio decoder comprising a background noise estimator
AU2012217161B9 (en) Audio codec using noise synthesis during inactive phases

Legal Events

Date Code Title Description
FG Grant or registration