ES2938668T3 - Mejorar la clasificación entre codificación en el dominio del tiempo y codificación en el dominio de la frecuencia - Google Patents

Mejorar la clasificación entre codificación en el dominio del tiempo y codificación en el dominio de la frecuencia Download PDF

Info

Publication number
ES2938668T3
ES2938668T3 ES18214327T ES18214327T ES2938668T3 ES 2938668 T3 ES2938668 T3 ES 2938668T3 ES 18214327 T ES18214327 T ES 18214327T ES 18214327 T ES18214327 T ES 18214327T ES 2938668 T3 ES2938668 T3 ES 2938668T3
Authority
ES
Spain
Prior art keywords
encoding
digital signal
bit rate
signal
speech
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES18214327T
Other languages
English (en)
Inventor
Yang Gao
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huawei Technologies Co Ltd
Original Assignee
Huawei Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huawei Technologies Co Ltd filed Critical Huawei Technologies Co Ltd
Application granted granted Critical
Publication of ES2938668T3 publication Critical patent/ES2938668T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/002Dynamic bit allocation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/12Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
    • G10L19/125Pitch excitation, e.g. pitch synchronous innovation CELP [PSI-CELP]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/20Vocoders using multiple modes using sound class specific coding, hybrid encoders or object based coding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/22Mode decision, i.e. based on audio signal content versus external parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L2019/0001Codebooks
    • G10L2019/0002Codebook adaptations
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L2019/0001Codebooks
    • G10L2019/0011Long term prediction filters, i.e. pitch estimation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L2019/0001Codebooks
    • G10L2019/0016Codebook for LPC parameters

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)

Abstract

Un método para procesar señales de voz antes de codificar una señal digital que comprende datos de audio incluye seleccionar la codificación en el dominio de la frecuencia o la codificación en el dominio del tiempo en función de una tasa de bits de codificación que se usará para codificar la señal digital y una detección de retraso de tono corto de la señal digital. (Traducción automática con Google Translate, sin valor legal)

Description

DESCRIPCIÓN
Mejorar la clasificación entre codificación en el dominio del tiempo y codificación en el dominio de la frecuencia
Esta solicitud reivindica el beneficio frente a la solicitud no provisional de EE. UU. con número de serie 14/511.943, presentada el 10 de octubre de 2014, con el título “Improving Classification Between Time-Domain Coding and Frequency Domain Coding", que reivindica el beneficio frente a la solicitud provisional de EE. UU. con número de serie 62/029.437, presentada el 26 de julio de 2014, con el título “Improving Classification Between Time-Domain Coding and Frequency Domain Coding for High Bit Rates".
Campo técnico
La presente invención está, en general, en el campo de la codificación de señales. En particular, la presente invención está en el campo de mejorar la clasificación entre la codificación en el dominio del tiempo y la codificación en el dominio de la frecuencia.
Antecedentes
La codificación de voz se refiere a un proceso que reduce la tasa de bits de un archivo de voz. La codificación de voz es una aplicación de compresión de datos de señales de audio digital que contienen voz. La codificación de voz utiliza la estimación de parámetros específicos de la voz, utilizando técnicas de procesamiento de señales de audio para modelar la señal de voz, combinada con algoritmos de compresión de datos genéricos para representar los parámetros modelados resultantes en un flujo de bits compacto. El objetivo de la codificación de voz es lograr un ahorro en el espacio de almacenamiento de memoria, el ancho de banda de transmisión y la potencia de transmisión requeridos, al reducir el número de bits por muestra, de manera que la voz decodificada (descomprimida) es perceptivamente indistinguible de la voz original.
Sin embargo, los codificadores de voz son codificadores con pérdida, es decir, la señal decodificada es diferente de la original. Por lo tanto, uno de los objetivos de la codificación de voz es minimizar la distorsión (o pérdida perceptible) en una tasa de bits dada, o minimizar la tasa de bits para alcanzar una distorsión dada.
La codificación de voz difiere de otras formas de codificación de audio, en que la voz es una señal mucho más simple que la mayoría de las otras señales de audio y hay mucha más información estadística disponible sobre las propiedades de la voz. Como resultado, cierta información auditiva que es relevante en la codificación de audio puede ser innecesaria en el contexto de la codificación de voz. En la codificación de voz, el criterio más importante es la preservación de la inteligibilidad y la “afabilidad” de la voz, con una cantidad limitada de datos transmitidos.
La inteligibilidad de la voz incluye, además del contenido literal real, también, la identidad, las emociones, la entonación, el timbre, etc. del hablante, que son todas importantes para la inteligibilidad perfecta. El concepto más abstracto de la afabilidad de la voz degradada es una propiedad diferente de la inteligibilidad, ya que es posible que la voz degradada sea completamente inteligible, pero subjetivamente molesta para el oyente.
Tradicionalmente, todos los métodos de codificación de voz paramétrica hacen uso de la redundancia inherente a la señal de voz para reducir la cantidad de información que debe enviarse y para estimar los parámetros de las muestras de voz de una señal en intervalos cortos. Esta redundancia surge principalmente de la repetición de formas de onda de la voz en una frecuencia casi periódica y la envolvente espectral que cambia lenta de la señal de voz.
La redundancia de las formas de onda de la voz puede considerarse con respecto a varios tipos diferentes de señales de voz, tales como señales de voz sonora y no sonora. Los sonidos de voz, p. ej., ‘a’, ‘b’, se deben esencialmente a vibraciones de las cuerdas vocales y son oscilatorias. Por lo tanto, durante cortos períodos de tiempo, están bien modeladas mediante sumas de señales periódicas, tales como sinusoides. En otras palabras, para la voz sonora, la señal de voz es esencialmente periódica. Sin embargo, esta periodicidad puede ser variable durante la duración de un segmento de voz y la forma de la onda periódica, generalmente, cambia gradualmente de segmento a segmento. Una codificación de voz de tasa de bits baja podría beneficiarse enormemente de la exploración de dicha periodicidad. Una codificación de voz en el dominio del tiempo podría beneficiarse enormemente de la exploración de dicha periodicidad. El período de voz sonora también se llama paso y la predicción de paso, a menudo, se denomina Predicción a Largo Plazo (LTP). En contraste, los sonidos sin voz, tales como el ‘s’, ‘sh’, son más parecidos al ruido. Esto se debe a que la señal de voz no sonora es más como un ruido aleatorio y tiene una menor cantidad de predictibilidad.
En cualquier caso, la codificación paramétrica se puede utilizar para reducir la redundancia de los segmentos de voz al separar la componente de excitación de la señal de voz de la componente de envolvente espectral, que cambia a una tasa más lenta. La componente de envolvente espectral que cambia lentamente puede representarse mediante la Codificación de Predicción Lineal (LPC), también llamada Predicción a Corto Plazo (STP). Una codificación de voz de tasa de bits baja también podría beneficiarse mucho de la exploración de dicha Predicción a Corto Plazo. La ventaja de codificación surge de la tasa baja a la que cambian los parámetros. Sin embargo, es raro que los parámetros sean significativamente diferentes de los valores mantenidos dentro de unos pocos milisegundos.
En estándares bien conocidos más recientes, como el G.723.1, G.729, G.718, Tasa Completa Mejorada (EFR), Vocodificador de Modo Seleccionable (SMV), Multi-Tasa Adaptativa (AMR), Banda ancha Multimodo de Tasa Variable (VMR-WB), o Banda Ancha Multi-Tasa Adaptativa (AMR-WB), se ha adoptado la Técnica de Predicción Lineal con Excitación de Código (“CELP”). La CELP se entiende comúnmente como una combinación técnica de Excitación Codificada, Predicción a Largo Plazo y Predicción a Corto Plazo. La CELP se utiliza principalmente para codificar la señal de voz al beneficiarse de las características específicas de la voz humana o del modelo de producción de voz vocal humana. La Codificación de Voz de CELP es un principio de algoritmo muy popular en el área de compresión de voz, aunque los detalles de CELP para diferentes códecs podrían ser significativamente diferentes. Debido a su popularidad, el algoritmo de CELP se ha utilizado en diversos estándares de UIT-T, de MPEG, de 3GPP y de 3GPP2. Las variantes de CELP incluyen CELP algebraico, CELP relajado, CELP de bajo retardo y predicción lineal excitada de suma vectorial, y otros. CELP es un término genérico para una clase de algoritmos y no para un códec en particular.
El algoritmo de CELP se basa en cuatro ideas principales. Primero, se utiliza un modelo de filtro de fuente de producción de voz a través de predicción lineal (LP). El modelo de filtro de fuente de producción de voz, modela la voz como una combinación de una fuente de sonido, tal como las cuerdas vocales, y un filtro acústico lineal, el tracto vocal (y la característica de radiación). En la implementación del modelo de filtro de fuente de producción de voz, la fuente de sonido, o la señal de excitación, a menudo se modela como un tren de impulsos periódico, para voz sonora, o ruido blanco para voz no sonora. En segundo lugar, se utiliza un libro de códigos adaptativo y uno fijo como la entrada (excitación) del modelo de LP. En tercer lugar, se realiza una búsqueda en un circuito cerrado en un “dominio ponderado perceptivamente”. En cuarto lugar, se aplica la cuantización vectorial (VQ).
Resumen
La invención está definida por un método de acuerdo con la reivindicación 1 y un aparato de acuerdo con la reivindicación 5. Las realizaciones de la presente invención están definidas por las reivindicaciones independientes. Las características adicionales de las realizaciones de la invención se presentan en las reivindicaciones dependientes. En lo que sigue a continuación, las partes de la descripción y los dibujos que hacen referencia a realizaciones anteriores, que no comprenden necesariamente todas las características que se deben implementar en las realizaciones de la invención reivindicada, no están representadas como realizaciones de la invención sino como ejemplos útiles para comprender las realizaciones de la invención.
De acuerdo con una realización de la presente invención, un método para procesar señales de voz antes de codificar una señal digital que comprende datos de audio, incluye seleccionar la codificación en el dominio de la frecuencia o la codificación en el dominio del tiempo en base a una tasa de bits de codificación a ser utilizada para codificar la señal digital y una detección de retardo de paso corto de la señal digital.
De acuerdo con una realización alternativa de la presente invención, un método para procesar señales de voz antes de codificar una señal digital que comprende datos de audio, comprende seleccionar la codificación en el dominio de la frecuencia para codificar la señal digital, cuando una tasa de bits de codificación es mayor que un límite superior de tasa de bits. Alternativamente, el método selecciona la codificación en el dominio del tiempo para codificar la señal digital, cuando la tasa de bits de codificación es menor que un límite inferior de tasa de bits. La señal digital comprende una señal de paso corto, para la cual el retardo de paso es más corto que un límite de retardo de paso.
De acuerdo con una realización alternativa de la presente invención, un método para procesar señales de voz antes de codificar comprende seleccionar la codificación en el dominio del tiempo para codificar una señal digital que comprende datos de audio cuando la señal digital no comprende una señal de paso corto y la señal digital se clasifica como voz no sonora o voz normal. El método comprende, además, seleccionar la codificación en el dominio de la frecuencia para codificar la señal digital cuando la tasa de bits de codificación está entre medias de un límite inferior de tasa de bits y un límite superior de tasa de bits. La señal digital comprende una señal de paso corto y la periodicidad de entonación es baja. El método incluye, además, seleccionar la codificación en el dominio del tiempo para codificar la señal digital cuando la tasa de bits de codificación está entre medias y la señal digital comprende una señal de paso corto y una periodicidad de entonación es muy fuerte.
De acuerdo con una realización alternativa de la presente invención, un aparato para procesar señales de voz antes de codificar una señal digital que comprende datos de audio, comprende un selector de codificación configurado para seleccionar la codificación en el dominio de la frecuencia o la codificación en el dominio del tiempo, en base a una tasa de bits de codificación a ser utilizada para codificar la señal digital y a una detección de retardo de paso corto de la señal digital.
Breve descripción de los dibujos
Para una comprensión más completa de la presente invención y de sus ventajas, ahora se hace referencia a las siguientes descripciones tomadas junto con los dibujos adjuntos, en los cuales:
la Figura 1 ilustra las operaciones realizadas durante la codificación de una voz original utilizando un codificador de CELP convencional;
la Figura 2 ilustra las operaciones realizadas durante la decodificación de una voz original utilizando un decodificador de CELP;
la Figura 3 ilustra un codificador de CELP convencional;
la Figura 4 ilustra un decodificador de CELP básico, correspondiente al codificador en la Figura 3;
las Figuras 5 y 6 ilustran ejemplos de señales de voz esquemáticas y su relación con el tamaño de trama y el tamaño de subtrama en el dominio del tiempo;
la Figura 7 ilustra un ejemplo de un espectro de banda ancha de voz original;
la Figura 8 ilustra un espectro sonoro codificado del espectro de sonora original ilustrado en la Figura 7 utilizando duplicación de codificación de retardo de paso;
las Figuras 9A y 9B ilustran el esquema de un códec perceptivo típico en el dominio de la frecuencia, en donde la Figura 9A ilustra un codificador en el dominio de la frecuencia, mientras que la Figura 9B ilustra un decodificador en el dominio de la frecuencia;
la Figura 10 ilustra un esquema de las operaciones en un codificador antes de codificar una señal de voz que comprende datos de audio, de acuerdo con realizaciones de la presente invención;
la Figura 11 ilustra un sistema10 de comunicación, de acuerdo con una realización de la presente invención;
la Figura 12 ilustra un diagrama de bloques de un sistema de procesamiento que puede utilizarse para implementar los dispositivos y métodos dados a conocer en el presente documento;
la Figura 13 ilustra un diagrama de bloques de un aparato para procesar señales de voz antes de codificar una señal digital; y
la Figura 14 ilustra un diagrama de bloques de otro aparato para procesar señales de voz antes de codificar una señal digital.
Descripción detallada de las realizaciones ilustrativas
En el sistema moderno de comunicación de señal digital de audio/voz, una señal digital se comprime en un codificador y, la información comprimida o el flujo de bits, se puede empaquetar y enviar a un decodificador trama a trama a través de un canal de comunicación. El decodificador recibe y decodifica la información comprimida para obtener la señal digital de audio/voz.
En el sistema moderno de comunicación de señal digital de audio/voz, una señal digital se comprime en un codificador y, la información comprimida o el flujo de bits, se puede empaquetar y enviar a un decodificador trama a trama a través de un canal de comunicación. El sistema del codificador y del decodificador juntos se llama códec. La compresión de voz/audio se puede utilizar para reducir el número de bits que representan la señal de voz/audio, reduciendo así el ancho de banda y/o la tasa de bits necesaria para la transmisión. En general, una mayor tasa de bits dará como resultado una mayor calidad de audio, mientras que una menor tasa de bits dará como resultado una menor calidad de audio.
La Figura 1 ilustra las operaciones realizadas durante la codificación de una voz original utilizando un codificador de CELP convencional.
La Figura 1 ilustra un codificador de CELP inicial convencional, donde un error 109 ponderado entre una voz 102 sintetizada y una voz 101 original se minimiza a menudo utilizando un enfoque de análisis por síntesis, lo que significa que la codificación (análisis) se realiza optimizando perceptivamente la señal decodificada (síntesis) en un bucle cerrado.
El principio básico que explotan todos los codificadores de voz, es el hecho de que las señales de voz son formas de onda altamente correlacionadas. Como ilustración, la voz se puede representar utilizando un modelo autorregresivo (AR) como en la Ecuación (1) a continuación.
Figure imgf000005_0001
En la ecuación (11), cada una de las muestras se representa como una combinación lineal de las P muestras anteriores más un ruido blanco. Los coeficientes a i , a2, ... ap de ponderación, se llaman Coeficientes de Predicción Lineal (LPC). Para cada una de la tramas, los coeficientes a i , a2, ... ap de ponderación, se eligen de modo que el espectro de {X i , X2, Xn}, generado utilizando el modelo anterior, coincida estrechamente con el espectro de la trama de voz de entrada.
Alternativamente, las señales de voz también pueden representarse mediante una combinación de un modelo armónico y un modelo de ruido. La parte armónica del modelo es efectivamente una representación de la serie de Fourier de la componente periódica de la señal. En general, para las señales sonoras, el modelo de voz armónica más ruido se compone de una mezcla de armónicos y ruido. La proporción de armónicos y ruido en una voz sonora depende de una serie de factores que incluyen las características del hablante (p. ej., en qué medida la voz del hablante es normal o entrecortada); el carácter del segmento de voz (p. ej., hasta qué punto un segmento de voz es periódico) y en la frecuencia. Las frecuencias más altas de la voz sonora tienen una mayor proporción de componentes similares al ruido.
El modelo de predicción lineal y el modelo de ruido armónico son los dos métodos principales para modelar y codificar las señales de voz. El modelo de predicción lineal es particularmente bueno para modelar la envoltura espectral de la voz, mientras que el modelo de ruido armónico es bueno para modelar la estructura fina de la voz. Los dos métodos pueden combinarse para aprovechar sus fortalezas relativas.
Como se indicó anteriormente, antes de la codificación de CELP, la señal de entrada al micrófono del teléfono se filtra y se muestrea, por ejemplo, a una tasa de 8000 muestras por segundo. Cada una de las muestras se cuantiza, por ejemplo, con 13 bits por muestra. La voz muestreada se segmenta en segmentos o tramas de 20 ms (p. ej., en este caso, 160 muestras).
La señal de voz se analiza y se extrae su modelo de LP, sus señales de excitación y su paso. El modelo de LP representa la envoltura espectral de la voz. Se convierte en un conjunto de coeficientes de frecuencias espectrales de línea (LSF), que es una representación alternativa de los parámetros de predicción lineal, porque los coeficientes de LSF tienen buenas propiedades de cuantización. Los coeficientes de LSF pueden cuantizarse de forma escalar o, de manera más eficiente, pueden cuantizarse por vector utilizando libros de códigos de vector de LSF previamente entrenados.
El código de excitación incluye un libro de códigos que comprende vectores de códigos, que tienen componentes que se eligen todas de forma independiente, de modo que cada uno de los vectores de códigos puede tener un espectro aproximadamente “blanco”. Para cada una de las subtramas de voz de entrada, cada uno de los vectores de códigos se filtra a través del filtro 103 de predicción lineal a corto plazo y el filtro 105 de predicción a largo plazo, y la salida se compara con las muestras de voz. En cada una de las subtramas, el vector de códigos cuya salida coincide mejor con la voz de entrada (error minimizado) se elige para representar esa subtrama.
La excitación 108 codificada comprende, normalmente, una señal similar a pulso o una señal similar a ruido, que se construyen matemáticamente o se guardan en un libro de códigos. El libro de códigos está disponible tanto para el codificador como para el decodificador de recepción. La excitación 108 codificada, que puede ser un libro de códigos estocástico o fijo, puede ser un diccionario de cuantización vectorial que está codificado fijo (implícita o explícitamente) en el códec. Un libro de códigos fijo de este tipo puede ser una predicción lineal algebraica excitada por código o almacenarse explícitamente.
Un vector de códigos del libro de códigos se escala mediante una ganancia apropiada para hacer que la energía sea igual a la energía de la voz de entrada. En consecuencia, la salida de la excitación 108 codificada se escala por una ganancia Gc 107 antes de pasar a través de los filtros lineales.
El filtro 103 de predicción lineal a corto plazo da forma al espectro ‘blanco’ del vector de códigos para parecerse al espectro de la voz de entrada. De manera equivalente, en el dominio del tiempo, el filtro 103 de predicción lineal a corto plazo incorpora correlaciones a corto plazo (correlación con muestras anteriores) en la secuencia blanca. El filtro que da forma a la excitación tiene un modelo de todos los polos de la forma 1 / A(z) (filtro 103 de predicción lineal a corto plazo), donde A(z) se denomina el filtro de predicción y se puede obtener utilizando la predicción lineal (p. ej., Algoritmo de Levinson-Durbin). En una o más realizaciones, se puede utilizar un filtro de todos los polos porque es una buena representación del tracto vocal humano y porque es fácil de calcular.
El filtro 103 de predicción lineal a corto plazo se obtiene al analizar la señal 101 original y se representa mediante un conjunto de coeficientes:
Figure imgf000006_0001
Como se describió anteriormente, las regiones de la voz sonora exhiben una periodicidad a largo plazo. Este período, conocido como paso, se introduce en el espectro sintetizado por el filtro de paso 1 / (B(z)). La salida del filtro 105 de predicción a largo plazo depende del paso y de la ganancia de paso. En una o más realizaciones, el paso puede estimarse a partir de la señal original, la señal residual o la señal original ponderada. En una realización, la función (B(z)) de predicción a largo plazo se puede expresar utilizando la Ecuación (3) de la siguiente manera.
B(z) = l G, (3)
El filtro 110 de ponderación está relacionado con el filtro de predicción a corto plazo anterior. Uno de los filtros de ponderación típicos se puede representar como se describe en la Ecuación (4).
A(z¡a)
W(z) (4)
1 - p - z~'
donde fi < a, 0 < fi <1,0 < a <1.
En otra realización, el filtro W(z) de ponderación puede derivarse a partir del filtro de LPC utilizando la expansión del ancho de banda, como se ilustra en una realización, en la Ecuación (5) a continuación.
A (z l/T )
W{z) (5),
A {z ¡ r 2)
En la ecuación (5), y1 > Y2, son los factores con los cuales los polos se mueven hacia el origen.
En consecuencia, para cada una de las tramas de voz, se calculan los LPC y el paso, y se actualizan los filtros. Para todas las subtramas de voz, el vector de códigos que produce la “mejor” salida filtrada se elige para representar la subtrama. El valor de ganancia cuantizado correspondiente debe transmitirse al decodificador para la decodificación adecuada. Los LPC y los valores de paso también deben cuantizarse y enviarse cada una de las tramas para reconstruir los filtros en el decodificador. Por consiguiente, el índice de excitación codificado, el índice de ganancia cuantizado, el índice de parámetro de predicción a largo plazo cuantizado y el índice de parámetro de predicción a corto plazo cuantizado se transmiten al decodificador.
La Figura 2 ilustra las operaciones realizadas durante la decodificación de una voz original utilizando un decodificador de CELP.
La señal de voz se reconstruye en el decodificador pasando los vectores de códigos recibidos a través de los filtros correspondientes. En consecuencia, todos los bloques, excepto el postprocesamiento, tiene la misma definición que se describe en el codificador de la Figura 1.
El flujo de bits de CELP codificado se recibe y se desempaqueta 80 en un dispositivo de recepción. Para cada una de las subtramas recibida, el índice de excitación codificado, el índice de ganancia cuantizado, el índice de parámetro de predicción a largo plazo cuantizado y el índice de parámetro de predicción a corto plazo cuantizado recibidos, se utilizan para encontrar los parámetros correspondientes utilizando los decodificadores correspondientes, por ejemplo, el decodificador 81 de ganancia, el decodificador 82 de predicción a largo plazo y el decodificador 83 de predicción a corto plazo. Por ejemplo, las posiciones y los signos de amplitud de los pulsos de excitación y del vector de códigos algebraico del código 402 de excitación, pueden determinarse a partir del índice de excitación codificado recibido.
Haciendo referencia a la Figura 2, el decodificador es una combinación de varios bloques que incluye excitación 201 codificada, predicción 203 a largo plazo, predicción 205 a corto plazo. El decodificador inicial incluye, además, el bloque 207 de postprocesamiento después de una voz 206 sintetizada. El postprocesamiento puede comprender, además, el postprocesamiento a corto plazo y el postprocesamiento a largo plazo.
La Figura 3 ilustra un codificador de CELP convencional.
La Figura 3 ilustra un codificador de CELP básico que utiliza un libro de códigos adaptativo adicional para mejorar la predicción lineal a largo plazo. La excitación se produce sumando las contribuciones de un libro 307 de códigos adaptativo y un código 308 de excitación, que puede ser un libro de códigos estocástico o fijo, como se describió anteriormente. Las entradas en el libro de códigos adaptativo comprenden versiones retardadas de la excitación. Esto hace posible la codificación eficiente de señales periódicas, tal como los sonidos sonoros.
Haciendo referencia a la Figura 3, un libro 307 de códigos adaptativo comprende una excitación 304 sintetizada anterior o repetir el ciclo de paso de excitación anterior en el período de paso. El retardo de paso se puede codificar en valor entero cuando es grande o largo. El retardo de paso a menudo se codifica en un valor fraccional más preciso cuando es pequeño o corto. La información periódica del paso se emplea para generar la componente adaptativa de la excitación. Luego, esta componente de excitación se escala mediante una ganancia Gp 305 (también llamada ganancia de paso).
La Predicción a Largo Plazo juega un papel muy importante para la codificación de voz sonora, porque la voz sonora tiene fuerte periodicidad. Los ciclos de paso adyacentes de la voz sonora son similares entre sí, lo que significa matemáticamente que la ganancia de paso Gp en la siguiente expresión de excitación es alta o cercana a 1. La excitación resultante se puede expresar como en la Ecuación (6), como combinación de las excitaciones individuales.
donde, ep (n) es una subtrama de series de muestras indexadas por n, procedentes del libro 307 de códigos adaptativo que comprende la excitación 304 anterior a través del bucle de retroalimentación (Figura 3). ep (n) puede filtrarse en paso bajo adaptativamente, ya que el área de baja frecuencia es a menudo más periódica o más armónica que el área de frecuencia alta. ec (n) es del libro 308 de códigos de excitación codificado (también llamado libro de códigos fijo), que es una contribución de excitación actual. Además, ec (n) también puede mejorarse, tal como utilizando la mejora de filtrado de paso alto, la mejora de paso, la mejora de dispersión, la mejora de formantes y otras.
Para voz sonora, la contribución de ep (n) del libro 307 de códigos adaptativo puede ser dominante y la ganancia Gp 305 de paso es aproximadamente un valor de 1. La excitación generalmente se actualiza para cada una de las subtramas. El tamaño de trama típico es de 20 milisegundos y el tamaño de subtrama típico es de 5 milisegundos.
Como se describe en la Figura 1, la excitación 308 codificada fija se escala por una ganancia Gc 306 antes de pasar a través de los filtros lineales. Las dos componentes de excitación escaladas de la excitación 108 codificada fija y el libro 307 de códigos adaptativo se suman antes de filtrarse a través del filtro 303 de predicción lineal a corto plazo. Las dos ganancias (Gp y Gc) se cuantizan y se transmiten a un decodificador. Por consiguiente, el índice de excitación codificado, el índice de libro de códigos adaptativo, los índices de ganancia cuantizados y el índice de parámetros de predicción a corto plazo cuantizado se transmiten al dispositivo de audio receptor.
El flujo de bits de CELP codificado utilizando un dispositivo ilustrado en la Figura 3, se recibe en un dispositivo de recepción. La Figura 4 ilustra el decodificador correspondiente del dispositivo de recepción.
La Figura 4 ilustra un decodificador de CELP básico correspondiente al codificador de la Figura 3. La Figura 4 incluye un bloque 408 de postprocesamiento que recibe la voz 407 sintetizada del decodificador principal. Este decodificador es similar a la Figura 3, excepto el libro 307 de códigos adaptativo.
Para cada una de las subtramas recibida, el índice de excitación codificado, el índice de ganancia de excitación codificado cuantizado, el índice de paso cuantizado, el índice de ganancia del libro de códigos adaptativo cuantizado y el índice de parámetro de predicción a corto plazo cuantizado recibidos, se utilizan para encontrar los parámetros correspondientes utilizando los decodificadores correspondientes, por ejemplo, el decodificador 81 de ganancia, el decodificador 84 de paso, el decodificador 85 de ganancia de libro de códigos adaptativo y decodificador 83 de predicción a corto plazo.
En diversas realizaciones, el decodificador de CELP es una combinación de varios bloques y comprende la excitación 402 codificada, el libro 401 de códigos adaptativo, la predicción 406 a corto plazo y el postprocesamiento 408. Todos los bloques, excepto el postprocesamiento, tienen la misma definición que la descrita en el codificador de la Figura 3. El postprocesamiento puede incluir, además, el postprocesamiento a corto plazo y el postprocesamiento a largo plazo.
El bloque de excitación de código (referenciado con la etiqueta 308 en la Figura 3 y 402 en la Figura 4) ilustra la ubicación del Libro de Códigos Fijo (FCB) para una codificación de CELP general. Un vector de códigos seleccionado del FCB se escala por una ganancia, a menudo indicada como Gc 306.
Las Figuras 5 y 6 ilustran ejemplos de señales de voz esquemáticas y su relación con el tamaño de trama y el tamaño de subtrama en el dominio del tiempo. Las Figuras 5 y 6 ilustran una trama que incluye una pluralidad de subtramas.
Las muestras de la voz de entrada se dividen en bloques de muestras, cada uno, llamado trama, p. ej., 80-240 muestras o tramas. Cada una de las tramas se divide en bloques más pequeños de muestras, cada uno, llamado subtrama. En la tasa de muestreo de 8 kHz, 12,8 kHz o 16 kHz, el algoritmo de codificación de voz es tal que la duración nominal de la trama está en el rango de diez a treinta milisegundos y, típicamente, veinte milisegundos. En la Figura 5 ilustrada, la trama tiene un tamaño 1 de trama y un tamaño 2 de subtrama, en la que cada una de las tramas se divide en 4 subtramas.
Haciendo referencia a las partes más bajas o inferiores de las Figuras 5 y 6, las regiones sonoras en una voz parecen una señal casi periódica en la representación en el dominio del tiempo. La apertura y el cierre periódicos de las cuerdas vocales del hablante dan como resultado la estructura armónica en las señales de voz sonora. Por lo tanto, durante cortos períodos de tiempo, los segmentos de voz sonora pueden tratarse para ser periódicos para todo el análisis y procesamiento prácticos. La periodicidad asociada con dichos segmentos se define como “Período de Paso” o simplemente “paso” en el dominio del tiempo y “Frecuencia de paso o Frecuencia fundamental fo’ en el dominio de la frecuencia. La inversa del período de paso es la frecuencia fundamental de la voz. Los términos paso y frecuencia fundamental de la voz se utilizan frecuentemente de manera intercambiable.
Para la mayoría de las voces sonoras, una trama contiene más de dos ciclos de paso. La Figura 5 ilustra, además, un ejemplo que el período 3 de paso es más pequeño que el tamaño 2 de subtrama. En contraste, la Figura 6 ilustra un ejemplo en el que el período 4 de paso es mayor que el tamaño 2 de subtrama y menor que el tamaño de media trama.
Para codificar la señal de voz de manera más eficiente, la señal de voz se puede clasificar en diferentes clases y cada una de las clases se codifica de una manera diferente. Por ejemplo, en algunos estándares, tales como G.718, VMR-WB o AMR-WB, la señal de voz se clasifica en NO SONORA, TRANSICION, GENÉRICA, SONORA y RUIDO.
Para cada una de las clases, el filtro de LPC o de STP siempre se utiliza para representar la envolvente espectral. Sin embargo, la excitación al filtro de LPC puede ser diferente. Las clases de NO SONORA y de RUIDO pueden codificarse con una excitación de ruido y alguna mejora de excitación. La clase de TRANSICION se puede codificar con una excitación de pulso y alguna mejora de excitación sin utilizar un libro de códigos adaptativo o LTP.
La GENÉRICA puede codificarse con un enfoque de CELP tradicional, tal como el CELP algebraico utilizado en G.729 o en AMR-WB, en el que una trama de 20 ms contiene cuatro subtramas de 5 ms. Tanto la componente de excitación del libro de códigos adaptativo como la componente de excitación del libro de códigos fijo se producen con alguna mejora de excitación para cada una de las subtramas. Los retardos de paso para el libro de códigos adaptativo en la primera y la tercera subtramas se codifican en un rango completo de un límite PIT_MIN de paso mínimo hasta un límite PIT_MAX de paso máximo. Los retardos de paso para el libro de códigos adaptativo en las subtramas segunda y cuarta se codifican de manera diferente del retardo de paso codificado anterior.
Las clases SONORA pueden codificarse de tal manera que sean ligeramente diferentes de la clase GENÉRICA. Por ejemplo, el retardo de paso en la primera subtrama puede codificarse en un rango completo desde un límite PIT_MIN de paso mínimo hasta un límite PIT MAX de paso máximo. Los retardos de paso en las otras subtramas pueden codificarse de manera diferente del retardo de paso codificado anterior. Como ilustración, suponiendo que la tasa de muestreo de excitación es 12,8 kHz, entonces el valor de PIT_MIN de ejemplo puede ser 34 y PIT_mAx puede ser 231.
Ahora se describirán realizaciones de la presente invención para mejorar la clasificación de la codificación en el dominio del tiempo y de la codificación en el dominio de la frecuencia.
En términos generales, es mejor utilizar la codificación en el dominio del tiempo para la señal de voz y la codificación en el dominio de la frecuencia para la señal de música con el fin de lograr la mejor calidad a una tasa de bits bastante alta (p. ej., 24 kbps <= tasa de bits <= 64 kbps). Sin embargo, para algunas señales de voz específicas, tal como la señal de paso corto, la señal de voz cantada o la señal de voz muy ruidosa, puede ser mejor utilizar la codificación en el dominio de la frecuencia. Para algunas señales de música específicas, tal como una señal muy periódica, puede ser mejor utilizar la codificación en el dominio del tiempo al beneficiarse de una ganancia de LTP muy alta. La tasa de bits es un parámetro importante para la clasificación. Generalmente, la codificación en el dominio del tiempo favorece la tasa de bits baja y la codificación en el dominio de la frecuencia favorece la tasa de bits alta. Debe decidirse cuidadosamente una mejor clasificación o selección entre la codificación en el dominio del tiempo y la codificación en el dominio de la frecuencia, considerando también el rango de tasa de bits y la característica de los algoritmos de codificación.
En las siguientes secciones, se describirá la detección de la señal de voz normal y de paso corto.
La voz normal es una señal de voz que excluye la señal de voz cantada, la señal de voz de paso corto o la señal mixta de voz/música. La voz normal también puede ser una señal de voz que cambia rápidamente, cuyo espectro y/o energía cambia más rápido que la mayoría de las señales de música. Normalmente, el algoritmo de codificación en el dominio del tiempo es mejor que el algoritmo de codificación en el dominio de la frecuencia para codificar la señal de voz normal. Lo siguiente es un ejemplo de algoritmo para detectar la señal de voz normal.
Para un candidato P de paso, la correlación de paso normalizada a menudo se define de forma matemática como en la Ecuación (8).
Figure imgf000009_0001
En la ecuación (8), sw (n) es una señal de voz ponderada, el numerador es la correlación y el denominador es un factor de normalización de energía. Supongamos que Entonación señala el valor promedio de correlación del paso normalizado de las cuatro subtramas en la trama de voz actual, la Entonación se puede calcular como en la Ecuación (9) a continuación.
Entonación = [R ¡(P¡) + RyfPi) + R.ifP.i) R / P J ] / 4 (9)
Ri (P i), F¡2 (P2), R3 (P3) y R4 (P4) son las cuatro correlaciones de paso normalizadas calculadas para cada una de las subtramas; Pi , P2, P3 y P4 para cada una de las subtramas son los mejores candidatos de paso que se encuentran en el rango de paso de P = PIT_MIN a P = PIT_MAX. La correlación de paso suavizada desde la trama anterior a la trama actual se puede calcular como en la Ecuación (10).
si ( (Entonación > Entonación_sm) y (clase_voz NO SONORA) )
Entonación_sm <= (3 - Entonación_sm Entonación) / 4
sino si (VAD = 1) (10)
Entonación_sm <= (31 ■ Entonación_sm Entonación) / 32
En la ecuación (10), VAD es Detección de Actividad de Voz y VAD = 1 referencia que la señal de voz sale.
Supongamos que Fs es la frecuencia de muestreo, la energía máxima en la región [0, Fm in = Fs / PIT_MIN] (Hz) de muy baja frecuencia es Energíaü (dB), la energía máxima en la región [Fm in , 900] (Hz) de baja frecuencia es Energía1 (dB), y la energía máxima en la región [5000, 5800] (Hz) de frecuencia alta es Energía3 (dB), un parámetro Inclinación de inclinación espectral se define de la siguiente manera.
Inclinación = energía3 - maxfenergíaO, energía1} ( I D
Un parámetro de inclinación espectral suavizada se señala como en la ecuación (12).
Inclinación_sm <= (7 ■ lnclinación_sm + Inclinación) / 8 (12)
Una diferencia de inclinación espectral de la trama actual y de la trama anterior se puede dar como en la ecuación (13).
Diffjnclinación = inclinación - inclinación_antigua (13)
Una diferencia inclinación espectral suavizada se da como en la ecuación (14).
si ( (Diffjnclinación > Diffjnclinación_sm) y (clase_voz í NO SONORA))
Diffjnclinación_sm <= (3 ■ Diffjnclinación_sm Diffjnclinación) / 4
sino si (VAD = 1) (14)
Diffjnclinación_sm <= (31 Diffjnclinación_sm Diffjnclinación) / 32
Una diferencia de energía de baja frecuencia de la trama actual y de la trama anterior es
Diff_energía1 = energ ía l - energía1_antigua (15)
Un diferencia energía suavizada viene dada por la ecuación (16).
si ( (Diff_energía1 > Diff_energía1_sm) y (c/ase_voz f NO SONORA))
Diff_energía1_sm <= (3 ■ Diff_energía1_sm Diff_energía1) / 4
sino si (VAD = 1) (16) Diff_energía1_sm <= (31 Diff_energía1_sm Diff_energía1) / 32
Además, una bandera voz normal denotada como Bandera_voz se decide y se cambia durante el área sonora al considerar la variación Diff_energía1_sm de energía, variación Entonación_sm de entonación y la variación Diff_entonación_sm de inclinación espectral, como se proporcionan en la ecuación (17).
si (clase_voz / NO SONORA) {
Diff_Sp = Diff_energía1_sm ■ Entonación_sm Diff_entonación_sm
si (Diff_Sp > 800) Bandera_voz - 1 //cambiar a voz normal (17)
si (Diff_Sp < 100) Bandera_voz = 0 //cambiar a voz no normal
Se describirán realizaciones de la presente invención para detectar una señal de paso corto.
La mayoría de los códecs de CELP funcionan bien para las señales de voz normales. Sin embargo, los códecs de CELP de tasa de bits baja a menudo fallan para señales de música y/o señales de voz cantadas. Si el rango de codificación de paso es de PIT_MINa PIT_MAXy el retardo de paso real es más pequeño que PIT_MIN, el rendimiento de la codificación de CELP puede ser perceptivamente malo debido al doble paso o triple paso. Por ejemplo, el rango de paso de PIT_MIN = 34 a PIT MAX = 231 para la frecuencia de muestreo Fs = 12,8 kHz, se adapta a la mayoría de las voces humanas. Sin embargo, el retardo de paso real de la señal de música regular o de voz cantada puede ser mucho más corto que el límite mínimo PIT_MIN = 34 definido en el algoritmo de CELP de ejemplo anterior.
Cuando el retardo de paso real es P, la correspondiente frecuencia fundamental normalizada (o primer armónico) es fo = Fs / P, donde Fs es la frecuencia de muestreo y fo es la ubicación del primer pico de armónicos en el espectro. Entonces, para una frecuencia de muestreo dada, la limitación de paso mínima PIT_MIN define realmente la limitación Fm = Fs / PIT_MIN de frecuencia armónica fundamental máxima para el algoritmo de CELP.
La Figura 7 ilustra un ejemplo de un espectro sonoro original. La Figura 8 ilustra un espectro sonoro codificado del espectro de banda ancha de voz original ilustrado en la Figura 7 utilizando la duplicación de codificación de retardo de paso. En otras palabras, la Figura 7 ilustra un espectro antes de la codificación y la Figura 8 ilustra el espectro después de la codificación.
En el ejemplo mostrado en la Figura 7, el espectro está formado por los picos 701 de armónicos y la envolvente 702 espectral. La frecuencia armónica fundamental real (la ubicación del primer pico armónico) ya está más allá de la limitación Fm de frecuencia armónica fundamental máxima, de modo que el retardo de paso transmitido para el algoritmo de CELP no puede ser igual al retardo de paso real y podría ser el doble o múltiplo del retardo de paso real.
El retardo de paso mal transmitido con múltiplo del retardo de paso real puede causar degradación de la calidad obvia. En otras palabras, cuando el retardo de paso real para la señal de música armónica o la señal de voz cantada es menor que la limitación PIT_MIN de retardo mínimo definido en el algoritmo de CELP, el retardo transmitido podría ser doble, triple o múltiple del retardo de paso real.
Como resultado, el espectro de la señal codificada con el retardo de paso transmitido puede ser como se muestra en la Figura 8. Como se ilustra en la Figura 8, además de incluir los picos 8011 armónicos y la envolvente 802 espectral, se pueden ver picos 803 pequeños no deseados entre los picos armónicos reales, mientras que el espectro correcto debería ser como el de la Figura 7. Esos picos de espectro pequeños en la Figura 8 podrían causar una distorsión perceptiva incómoda.
De acuerdo con realizaciones de la presente invención, una solución para resolver este problema cuando el CELP falla para algunas señales específicas, es que se utilice una codificación en el dominio de la frecuencia en lugar de codificación en el dominio del tiempo.
Por lo general, las señales armónicas de música o señales de voz cantada son más estacionarias que las señales de voz normal. El retardo de paso (o la frecuencia fundamental) de la señal de voz normal cambia constantemente. Sin embargo, el retardo de paso (o la frecuencia fundamental) de la señal de música o la señal de voz cantada, a menudo, mantiene un cambio relativamente lento durante bastante tiempo. El rango de paso muy corto se define de PIT_MIN0 a PIT_MIN. En la frecuencia de muestreo Fs = 12,8 kHz, una definición de ejemplo del rango de paso muy corto puede ser de PIT_MIN0 <= 17 a PIT_MIN = 34. Como el candidato de paso es tan corto, la energía de 0 Hz a Fmin = Fs / PIT_MIN Hz debe ser suficientemente baja. Otras condiciones, como la Detección de Actividad de Voz y la Clasificación de Voz, pueden agregarse durante la detección de la existencia de la señal de paso corto.
Los dos parámetros siguientes pueden ayudar a detectar la posible existencia de la señal de paso muy corto. Uno presenta “Ausencia de Energía de Muy Baja Frecuencia" y otro presenta “Nitidez Espectral’. Como ya se mencionó anteriormente, suponga que la energía máxima en la región [0, Fmin] (Hz) de frecuencia es Energía0 (dB), la energía máxima en la región [Fmin, 900] (Hz) de frecuencia es Energía1 (dB), la relación de energía relativa entre Energía0 y Energía1 se proporciona en la Ecuación (18) a continuación.
Relación = Energlal - EnergíaO ( 18)
Esta relación de energía puede ponderarse multiplicando un valor Entonación de correlación de paso normalizado promedio, que se muestra a continuación en la Ecuación (19).
Relación <= Relación ■ max{Entonación, 0,5} (19)
La razón para hacer la ponderación de la Ecuación (19) utilizando un factor de Entonación es que la detección de paso corto es significativa para la voz sonora o música armónica, y no es significativa para voz no sonora o música no armónica. Antes de utilizar el parámetro Relación para detectar la ausencia de energía de baja frecuencia, es mejor suavizarlo para reducir la incertidumbre como en la Ecuación (20).
si (VAD = 1) {
LF_RelaciónEnergía_sm < (15 - LF_RelaciónEnergía_sm Relación) / 16 (20)
}
Si LF_ausencia_bandera= 1 significa que se detecta la ausencia de energía de baja frecuencia (de lo contrario LF_ausencia_bandera= 0), LF_ausencia_bandera se puede determinar mediante el siguiente procedimiento.
si (LF_RelaciónEnergía_sm > 30) o (Relación > 48) o
(LF_RelaciónEnergía_sm > 22 y Relación > 38) {
LF_ausencia_bandera - 1;
}
sino si (LF_RelaciónEnergía_sm < 13) {
LF_ausencia_bandera = 0;
}
sino {
LF_ausencia_bandera se mantiene sin cambios
}
Los parámetros relacionados de Nitidez Espectral se determinan de la siguiente manera. Supongamos que Energíal (dB) es la energía máxima en la región [Fm in , 900] (Hz) de baja frecuencia, i_pico es la ubicación del pico armónico de energía máxima en la región [Fm in , 900] (Hz) de frecuencia y Energía2 (dB) es la energía promedio en la región [i_pico, i_pico + 400] (Hz) de frecuencia. Un parámetro de nitidez espectral se define como en la ecuación (21).
NitidezEspec = max{Energía1 - Energía2, 0} (21)
Un parámetro de nitidez espectral suavizada se da como sigue.
s i (VAD = 1) {
NitidezEspec_sm = (1 ■ NitidezEspec_sm NitidezEspec) / 8
}
Una bandera nitidez espectral que indica la posible existencia de señal de paso corto se evalúa mediante lo siguiente.
si ( NitidezEspec_sm > 50 o NitidezEspec > 80) {
NitidezEspec_bandera = 1; //posible paso corto o tonos
}
si (NitidezEspec_sm < 8) {
NitidezEspec_bandera = 0;
}
si no se cumple alguna de las condiciones anteriores, NitidezEspec_bandera se mantiene sin cambios
En diversas realizaciones, los parámetros estimados anteriormente pueden utilizarse para mejorar la clasificación o selección de la codificación en el dominio del tiempo y de la codificación en el dominio de la frecuencia. Supongamos que Sp_Aud_Deci = 1 denota que se selecciona la codificación en el dominio de la frecuencia y Sp_Aud_Deci = 0 indica que se selecciona la codificación en el dominio del tiempo. El siguiente procedimiento proporciona un ejemplo de algoritmo para mejorar la clasificación de la codificación en el dominio del tiempo y de la codificación en el dominio de la frecuencia para diferentes tasas de bits de codificación.
Las realizaciones de la presente invención se pueden utilizar para mejorar tasas de bits altas, por ejemplo, la tasa de bits de codificación es mayor o igual que 46200 bps. Cuando la tasa de bits de codificación es muy alta y posiblemente exista una señal de paso corto, se selecciona la codificación en el dominio de la frecuencia, porque la codificación en el dominio de la frecuencia puede ofrecer una calidad robusta y confiable, mientras que la codificación en el dominio del tiempo corre el riesgo influirse negativamente por la detección de paso incorrecto. En contraste, cuando la señal de paso corto no existe y la señal es de voz no sonora o de voz normal, se selecciona la codificación en el dominio del tiempo, porque la codificación en el dominio del tiempo puede ofrecer mejor calidad que la codificación en el dominio de la frecuencia para la señal de voz normal.
/* para posible señal de paso corto, seleccionar codificación en el dominio de la frecuencia V
si (LF_ausencia_bandera = 1 o NitidezEspec_bandera = 1) {
SP_Aud_Deci = 1; //seleccionar codificación en el dominio de la frecuencia
}
/*para voz no sonora o voz normal, seleccionar codificación en el dominio del tiempo V
si (LF_ausencia_bandera = 0 y NitidezEspec_bandera = 0) {
si ( (Inclinación > 40) y (Entonación < 0,5) y (clase_voz = NO SONORA) y
(VAD = 1) ) { '
Sp_Aud_Deci = 0; //seleccionar codificación en el dominio del tiempo
}
si (Voz_bandera = 1) {
SP_Aud_Deci = 0; //seleccionar codificación en el dominio del tiempo
}
Las realizaciones de la presente invención se pueden utilizar para mejorar la codificación de la tasa de bits intermedia, por ejemplo, cuando la tasa de bits de codificación está entre 24,4 kbps y 46200 bps. Cuando posiblemente existe una señal de paso corto y la periodicidad de entonación es baja, se selecciona la codificación en el dominio de la frecuencia, porque la codificación en el dominio de la frecuencia puede ofrecer una calidad robusta y confiable, mientras que la codificación en el dominio del tiempo corre el riesgo de influirse negativamente por la baja periodicidad de entonación. Cuando no existe una señal de paso corto y la señal es de voz no sonora o de voz normal, se selecciona la codificación en el dominio del tiempo, porque la codificación en el dominio del tiempo puede ofrecer una mejor calidad que la codificación en el dominio de la frecuencia para la señal de voz normal. Cuando la periodicidad de entonación es muy fuerte, se selecciona la codificación en el dominio del tiempo, porque la codificación en el dominio del tiempo puede beneficiarse mucho de la alta ganancia de LTP con periodicidad de entonación fuerte.
Las realizaciones de la presente invención también se pueden utilizar para mejorar tasas de bits altas, por ejemplo, la tasa de bits de codificación es menor que 24,4 kbps. Cuando existe una señal de paso corto y la periodicidad de entonación no es baja con detección de retardo de paso corto correcta, no se selecciona la codificación en el dominio de la frecuencia, porque la codificación en el dominio de la frecuencia no puede ofrecer calidad robusta y confiable en tasa baja, mientras que la codificación en el dominio del tiempo puede beneficiarse de la función de LTP.
El siguiente algoritmo ilustra una realización específica de las realizaciones anteriores, como una ilustración. Todos los parámetros se pueden calcular como se describió anteriormente en una o más realizaciones.
/* preparar parámetros o umbrales */
si (trama anterior es de codificación en el dominio del tiempo) {
' DPIT - 0,4; '
TH1 = 0,92;
TH2 = 0,8;
}
Figure imgf000014_0001
/* para posible señal de paso corto con periodicidad baja (entonación baja) seleccionar codificación en el dominio de la frecuencia 7
si ( (LF_ausencia_bandera = 1) o (NitidezEspec_bandera = 1)) (
si ( ( (Stab_Paso_Bandera = 0 o Entonación_Alta = 0) y (lnclinación_sm <= -50))
o (Inclinación sm c - -60))
{
Sp_Aud Deci = 1; //seleccionar codificación en el dominio de la frecuencia
}
r para señal de voz no sonora o señal de voz normal, seleccionar codificación en el
dominio del tiempo V
si ( LF_ausencia_bandera = 0 y NitidezEspec_bandera = 0)
{
si (Inclinación > 40 y Entonación <0,5 y clase_voz = NO SONORA y Vad = 1)
{
Sp_Aud_Deci = 0; //seleccionar codificación en el dominio del tiempo
}
si (Voz_bandera - 1)
{
Sp_Aud Deci = 0; //seleccionar codificación en el dominio del tiempo
}
/* para señal de entonación fuerte, seleccionar codificación en el dominio del tiempo */
si ( inclinación sm > -60 y (clase_voz no es NO SONORA))
{
si ( Entonación^Alta = 1 y
(S tabP asoB andera = 1 o (LF_ausencia_bandera = 0 y NitidezE$pec_bandera = 0 ) ) )
{
Sp_Aud_Deci - 0: //seleccionar codificación en el dominio del tiempo
}
En diversas realizaciones, la clasificación o selección de la codificación en el dominio del tiempo y de la codificación en el dominio de la frecuencia, puede utilizarse para mejorar significativamente la calidad perceptiva de algunas señales de voz específicas o señal de música.
La codificación de audio basada en la tecnología de banco de filtros, se utiliza ampliamente en la codificación en el dominio de la frecuencia. En el procesamiento de señales, un banco de filtros es un conjunto de filtros de paso de banda que separa la señal de entrada en múltiples componentes, cada una de las cuales transporta una subbanda de frecuencia única de la señal de entrada original. El proceso de descomposición realizado por el banco de filtros se denomina análisis y la salida del análisis del banco de filtros se denomina una señal de subbanda que tiene tantas subbandas como filtros en el banco de filtros. El proceso de reconstrucción se denomina síntesis de banco de filtros. En el procesamiento de señales digitales, el término banco de filtros también se aplica comúnmente a un banco de receptores, que también puede convertir descendentemente las subbandas a una frecuencia central baja que se puede volver a muestrear a una tasa reducida. El mismo resultado sintetizado a veces también se puede lograr al submuestrear las subbandas de paso de banda. La salida del análisis del banco de filtros puede estar en una forma de coeficientes complejos. Cada uno de los coeficientes complejos tiene un elemento real y un elemento imaginario que representan, respectivamente, un término de coseno y un término de seno para cada una de las subbandas del banco de filtros.
El Análisis del Banco de Filtros y la Síntesis del Banco de Filtros es un tipo de par de transformación que transforma una señal en el dominio del tiempo en coeficientes en el dominio de la frecuencia y transforma inversamente los coeficientes en el dominio de la frecuencia de nuevo en una señal en el dominio del tiempo. También se pueden utilizar otros pares de transformación populares, tales como (FFTe iFFT), (DFTe iDFT) y (MDCTe iMDCT), en la codificación de voz/audio.
En la aplicación de bancos de filtros para la compresión de señales, algunas frecuencias son perceptivamente más importantes que otras. Después de la descomposición, las frecuencias perceptivamente significativas pueden codificarse con una resolución fina, ya que las pequeñas diferencias en estas frecuencias son perceptivamente perceptibles para justificar utilizar un esquema de codificación que conserve estas diferencias. Por otro lado, las frecuencias perceptivamente menos significativas no se replican con la misma precisión. Por lo tanto, se puede utilizar un esquema de codificación más grueso, aunque algunos de los detalles más finos se perderán en la codificación. Un esquema típico de codificación más grueso puede basarse en el concepto de Extensión de Ancho de Banda (BWE), también conocido como Extensión de Banda Alta (HBE). Un enfoque de BWE o de HBE específico recientemente popular se conoce como Réplica de Subbanda (SBR) o Replicación de Banda Espectral (SBR). Estas técnicas son similares en cuanto a que codifican y decodifican algunas subbandas de frecuencia (generalmente bandas altas) con poco o ningún presupuesto de tasa de bits, produciendo así una tasa de bits significativamente más baja que un enfoque de codificación/decodificación normal. Con la tecnología de SBR, una estructura espectral fina en la banda de frecuencia alta se copia de la banda de baja frecuencia y se puede agregar ruido aleatorio. A continuación, se modela una envolvente espectral de la banda de frecuencia alta utilizando información lateral transmitida desde el codificador al decodificador.
La utilización del principio psicoacústico o efecto de enmascaramiento perceptivo tiene sentido para el diseño de compresión de audio. El equipo de audio/voz o la comunicación están destinados a la interacción con humanos, con todas sus capacidades y limitaciones de percepción. El equipo de audio tradicional trata de reproducir las señales con la mayor fidelidad al original. Un objetivo dirigido de manera más apropiada y, a menudo, más eficiente es lograr la fidelidad perceptible por humanos. Este es el objetivo de los codificadores perceptivos.
Si bien un objetivo principal de los codificadores perceptivos de audio digital es la reducción de datos, la codificación perceptiva también se puede utilizar para mejorar la representación del audio digital a través de la asignación avanzada de bits. Uno de los ejemplos de codificadores perceptivos podría ser los sistemas multibanda, que dividen el espectro de una manera que imita las bandas críticas de la psicoacústica. Al modelar la percepción humana, los codificadores perceptivos pueden procesar señales de manera muy similar a como lo hacen los humanos y aprovechar fenómenos tales como el enmascaramiento. Si bien este es su objetivo, el proceso se basa en un algoritmo preciso. Debido al hecho de que es difícil tener un modelo perceptivo muy preciso que cubra el comportamiento auditivo humano común, la precisión de cualquier expresión matemática del modelo perceptivo es aún limitada. Sin embargo, con una precisión limitada, el concepto de percepción ha ayudado en el diseño de códecs de audio. Numerosos esquemas de codificación de audio de MPEG se han beneficiado de la exploración del efecto de enmascaramiento perceptivo. Varios códecs del estándar de la UIT también utilizan el concepto perceptivo. Por ejemplo, el UIT G.729.1 realiza la llamada asignación dinámica de bits basada en el concepto de enmascaramiento perceptivo. El concepto de asignación dinámica de bits basado en la importancia perceptiva también se utiliza en el códec de EVS del 3GPP reciente.
Las Figuras 9A y 9B ilustran el esquema de un códec perceptivo en el dominio de la frecuencia típico. La Figura 9A ilustra un codificador en el dominio de la frecuencia, mientras que la Figura 9B ilustra un decodificador en el dominio de la frecuencia.
La señal 901 original se transforma primero en el dominio de la frecuencia para obtener coeficientes 902 en el dominio de la frecuencia sin cuantizar. Antes de cuantizar los coeficientes, la función de enmascaramiento (importancia perceptiva) divide el espectro de frecuencias en muchas subbandas (a menudo espaciadas igualmente para la simplicidad). Cada una de las subbandas asigna dinámicamente el número necesario de bits, mientras que mantiene que el número total de bits distribuidos a todas las subbandas no esté más allá del límite superior. A algunas subbandas pueden asignarse 0 bits si se considera que está por debajo del umbral de enmascaramiento. Una vez que se determina como lo qué se puede descartar, al resto se le asigna el número disponible de bits. Debido a que los bits no se desperdician en espectro enmascarado, se pueden distribuir en mayor cantidad al resto de la señal.
De acuerdo con los bits asignados, los coeficientes se cuantizan y el flujo 703 de bits se envía al decodificador. Aunque el concepto de enmascaramiento perceptivo ayudó mucho durante el diseño del códec, todavía no es perfecto debido a diversas razones y limitaciones.
Haciendo referencia a la Figura 9B, el postprocesamiento del lado del decodificador puede mejorar aún más la calidad perceptiva de la señal decodificada producida con tasas de bits limitadas. El decodificador utiliza primero los bits 904 recibidos para reconstruir los coeficientes 905 cuantizados. Luego, se postprocesan por un módulo 906 diseñado correctamente para obtener los coeficientes 907mejorados. Se realiza una transformación inversa en los coeficientes mejorados para tener la salida 908 final en el dominio del tiempo.
La Figura 10 ilustra un esquema de las operaciones en un codificador antes de codificar una señal de voz que comprende datos de audio, de acuerdo con realizaciones de la presente invención.
Haciendo referencia a la Figura 10, el método comprende seleccionar la codificación en el dominio de la frecuencia o la codificación en el dominio del tiempo (recuadro 1000) en base a una tasa de bits de codificación a ser utilizada para codificar la señal digital y un retardo de paso de la señal digital.
Seleccionar la codificación en el dominio de la frecuencia o la codificación en el dominio del tiempo, comprende el paso de determinar si la señal digital comprende una señal de paso corto, para la cual el retardo de paso es más corto que un límite de retardo de paso (recuadro 1010). Además, se determina si la tasa de bits de codificación es mayor que un límite superior de tasa de bits (recuadro 1020). Si la señal digital comprende una señal de paso corto y la tasa de bits de codificación es mayor que un límite superior de tasa de bits, se selecciona la codificación en el dominio de la frecuencia para codificar la señal digital.
De lo contrario, se determina si la tasa de bits de codificación es menor que un límite inferior de tasa de bits (recuadro 1030). Si la señal digital comprende una señal de paso corto y la tasa de bits de codificación es menor que un límite inferior de tasa de bits, se selecciona la codificación en el dominio del tiempo para codificar la señal digital.
De lo contrario, se determina si la tasa de bits de codificación está entre medias de un límite inferior de tasa de bits y un límite superior de tasa de bits (recuadro 1040). A continuación, se determina la periodicidad de entonación (recuadro 1050). Si la señal digital comprende una señal de paso corto y la tasa de bits de codificación está entre medias, y la periodicidad de entonación es baja, se selecciona la codificación en el dominio de la frecuencia para codificar la señal digital. Alternativamente, si la señal digital comprende una señal de paso corto y la tasa de bits de codificación está entre medias y la periodicidad de entonación es muy fuerte, se selecciona la codificación en el dominio del tiempo para codificar la señal digital.
Alternativamente, haciendo referencia al recuadro 1010, la señal digital no comprende una señal de paso corto para la cual el retardo de paso es más corto que un límite de retardo de paso. Se determina si la señal digital se clasifica como voz no sonora o voz normal (recuadro 1070). Si la señal digital no comprende una señal de paso corto y si la señal digital se clasifica como voz no sonora o voz normal, se selecciona la codificación en el dominio del tiempo para codificar la señal digital.
Por consiguiente, en diversas realizaciones, un método para procesar señales de voz antes de codificar una señal digital que comprende datos de audio, incluye seleccionar codificación en el dominio de la frecuencia o codificación en el dominio del tiempo en base a una tasa de bits de codificación a ser utilizada para codificar la señal digital y una detección de retardo de paso corto de la señal digital. La señal digital comprende una señal de paso corto para la cual el retardo de paso es más corto que un límite de retardo de paso. En diversas realizaciones, el método para seleccionar la codificación en el dominio de la frecuencia o la codificación en el dominio del tiempo comprende seleccionar la codificación en el dominio de la frecuencia para codificar la señal digital, cuando la tasa de bits de codificación es mayor que un límite superior de tasa de bits, y seleccionar la codificación en el dominio del tiempo para codificar la señal digital, cuando la tasa de bits de codificación es menor que un límite inferior de tasa de bits. La tasa de bits de codificación es mayor que el límite superior de tasa de bits cuando la tasa de bits de codificación es mayor o igual que 46200 bps. La tasa de bits de codificación es menor que un límite inferior de tasa de bits cuando la tasa de bits de codificación es menor que 24,4 kbps.
De manera similar, en otra realización, un método para procesar señales de voz antes de la codificación de una señal digital que comprende datos de audio, comprende seleccionar la codificación en el dominio de la frecuencia para codificar la señal digital, cuando una tasa de bits de codificación es mayor que un límite superior de tasa de bits. Alternativamente, el método selecciona la codificación en el dominio del tiempo para codificar la señal digital, cuando la tasa de bits de codificación es menor que un límite inferior de tasa de bits. La señal digital comprende una señal de paso corto para la cual el retardo de paso es más corto que un límite de retardo de paso. La tasa de bits de codificación es mayor que el límite superior de tasa de bits, cuando la tasa de bits de codificación es mayor o igual que 46200 bps. La tasa de bits de codificación es menor que un límite inferior de tasa de bits, cuando la tasa de bits de codificación es menor que 24,4 kbps.
De manera similar, en otra realización, un método para procesar señales de voz antes de codificar comprende seleccionar la codificación en el dominio del tiempo para codificar una señal digital que comprende datos de audio, cuando la señal digital no comprende la señal de paso corto y la señal digital se clasifica como voz no sonora o voz normal. El método comprende, además, seleccionar la codificación en el dominio de la frecuencia para codificar la señal digital, cuando la tasa de bits de codificación está entre medias de un límite inferior de tasa de bits y un límite superior de tasa de bits. La señal digital comprende una señal de paso corto y la periodicidad de entonación es baja. El método incluye, además, seleccionar la codificación en el dominio del tiempo para codificar la señal digital, cuando la tasa de bits de codificación está entre medias y la señal digital comprende la señal de paso corto y una periodicidad de entonación es muy fuerte. El límite inferior de tasa de bits es de 24,4 kbps y el límite superior de tasa de bits es de 46,2 kbps.
La Figura 11 ilustra un sistema10 de comunicación, de acuerdo con una realización de la presente invención.
El sistema 10 de comunicación tiene dispositivos 7 y 8 de acceso de audio acoplados a una red 36 a través de enlaces 38 y 40 de comunicación. En una realización, el dispositivo 7 y 8 de acceso de audio son dispositivos de voz sobre protocolo de Internet (VOIP) y la red 36 es una red de área amplia (WAN), una red telefónica pública conmutada (PTSN) y/o la Internet. En otra realización, los enlaces 38 y 40 de comunicación son conexiones de banda ancha cableadas y/o inalámbricas. En una realización alternativa, los dispositivos 7 y 8 de acceso de audio son teléfonos celulares o móviles, los enlaces 38 y 40 son canales de telefonía móvil inalámbrica y la red 36 representa una red de telefonía móvil.
El dispositivo 7 de acceso de audio utiliza un micrófono 12 para convertir sonido, tal como música o la voz de una persona, en una señal 28 de entrada de audio analógica. Una interfaz 16 de micrófono convierte la señal 28 de entrada de audio analógica en una señal 33 de audio digital para la entrada en un codificador 22 de un CODEC 20. El codificador 22 produce una señal de TX de audio codificada para la transmisión a una red 26 a través de una interfaz 26 de red, de acuerdo con realizaciones de la presente invención. Un decodificador 24 dentro del CODEC 20 recibe la señal de RX de audio codificada desde la red 36, a través de la interfaz 26 de red, y convierte la señal de RX de audio codificada en una señal 34 de audio digital. La interfaz 18 de altavoz convierte la señal 34 de audio digital en la señal de audio 30 adecuada para accionar el altavoz 14.
En realizaciones de la presente invención, donde el dispositivo 7 de acceso de audio es un dispositivo de VOIP, algunos o todos los componentes dentro del dispositivo 7 de acceso de audio están implementados dentro de un teléfono. Sin embargo, en algunas realizaciones, el micrófono 12 y el altavoz 14 son unidades separadas, y la interfaz 16 de micrófono, la interfaz 18 de altavoz, el CODEC 20 y la interfaz 26 de red se implementan dentro de una computadora personal. El CODEC 20 puede implementarse en un software que se ejecuta en una computadora o un procesador dedicado, o mediante un hardware dedicado, por ejemplo, en un circuito integrado de aplicación específica (ASIC). La interfaz 16 de micrófono se implementa mediante un convertidor analógico a digital (A/D), así como otra circuitería de interfaz ubicada dentro del teléfono y/o dentro de la computadora. Igualmente, la interfaz 18 de altavoz se implementa mediante un convertidor digital a analógico y otra circuitería de interfaz ubicada dentro del teléfono y/o dentro de la computadora. En otras realizaciones, el dispositivo 7 de acceso de audio puede implementarse y particionarse de otras maneras conocidas en la técnica.
En realizaciones de la presente invención, donde el dispositivo 7 de acceso de audio es un teléfono celular o móvil, los elementos dentro del dispositivo 7 de acceso de audio se implementan dentro de un teléfono celular. El CODEC 20 se implementa mediante un software que se ejecuta en un procesador dentro del teléfono o por un hardware dedicado. En otras realizaciones de la presente invención, el dispositivo de acceso de audio puede implementarse en otros dispositivos, tales como sistemas de comunicación cableados e inalámbricos de pares, tales como intercomunicadores y teléfonos de radio. En aplicaciones, tales como dispositivos de audio de consumo, el dispositivo de acceso de audio puede contener un CODEC con solo el codificador 22 o el decodificador 24, por ejemplo, en un sistema de micrófono digital o un dispositivo de reproducción de música. En otras realizaciones de la presente invención, el CODEC 20 puede utilizarse sin el micrófono 12 ni el altavoz 14, por ejemplo, en estaciones base celulares que acceden a la PTSN.
El procesamiento de voz para mejorar la clasificación no sonora/sonora descrito en diversas realizaciones de la presente invención, puede implementarse en el codificador 22 o en el decodificador 24, por ejemplo. El procesamiento de voz para mejorar la clasificación no sonora/sonora puede implementarse en hardware o en software, en diversas realizaciones. Por ejemplo, el codificador 22 o el decodificador 24 pueden ser parte de un chip de procesamiento de señal digital (DSP).
La Figura 12 ilustra un diagrama de bloques de un sistema de procesamiento que puede utilizarse para implementar los dispositivos y métodos dados a conocer en el presente documento. Los dispositivos específicos pueden utilizar todos los componentes mostrados, o solo un subconjunto de los componentes, y los niveles de integración pueden variar de un dispositivo a otro. Además, un dispositivo puede contener múltiples instancias de un componente, tal como múltiples unidades de procesamiento, procesadores, memorias, transmisores, receptores, etc. El sistema de procesamiento puede comprender una unidad de procesamiento equipada con uno o más dispositivos de entrada/salida, tales como un altavoz, un micrófono, un ratón, una pantalla táctil, un teclado numérico, un teclado, una impresora, una pantalla y similares. La unidad de procesamiento puede incluir una unidad central de procesamiento (CPU), una memoria, un dispositivo de almacenamiento masivo, un adaptador de video y una interfaz de E/S conectados a un bus.
El bus puede ser uno o más de cualquier tipo de varias arquitecturas de bus, incluyendo un bus de memoria o controlador de memoria, un bus periférico, bus de vídeo, o similar. La CPU puede comprender cualquier tipo de procesador electrónico de datos. La memoria puede comprender cualquier tipo de memoria del sistema, tal como memoria de acceso aleatorio estático (SRAM), memoria de acceso aleatorio dinámico (DRAM), DRAM síncrona (SDRAM), memoria de solo lectura (ROM), una combinación de las mismas, o similares. En una realización, la memoria puede incluir ROM para utilización en el arranque y DRAM para el almacenamiento de programas y datos para utilización mientras se ejecutan programas.
El dispositivo de almacenamiento masivo puede comprender cualquier tipo de dispositivo de almacenamiento configurado para almacenar datos, programas y otra información, y para hacer los datos, los programas y otra información accesibles a través del bus. El dispositivo de almacenamiento masivo puede comprender, por ejemplo, uno o más de una unidad de estado sólido, una unidad de disco duro, una unidad de disco magnético, una unidad de disco óptico o similares.
El adaptador de video y la interfaz de E/S proporcionan interfaces para acoplar dispositivos externos de entrada y salida a la unidad de procesamiento. Como se ilustra, los ejemplos de dispositivos de entrada y salida incluyen la pantalla acoplada al adaptador de video y el ratón/teclado/impresora acoplados a la interfaz de E/S. Se pueden acoplar otros dispositivos a la unidad de procesamiento y se pueden utilizar tarjetas de interfaz adicionales o menos. Por ejemplo, se puede utilizar una interfaz en serie, tal como el Bus Universal en Serie (USB) (no mostrado), para proporcionar una interfaz para una impresora.
La unidad de procesamiento también incluye una o más interfaces de red, que pueden comprender enlaces cableados, tales como un cable Ethernet o similar, y/o enlaces inalámbricos para acceder a nodos o a diferentes redes. La interfaz de red permite que la unidad de procesamiento se comunique con las unidades remotas a través de las redes. Por ejemplo, la interfaz de red puede proporcionar comunicación inalámbrica a través de uno o más transmisores/antenas de transmisión y uno o más receptores/antenas de recepción. En una realización, la unidad de procesamiento está acoplada a una red de área local o a una red de área amplia para el procesamiento de datos y las comunicaciones con dispositivos remotos, tales como otras unidades de procesamiento, la Internet, instalaciones de almacenamiento remoto, o similares.
Si bien esta invención se ha descrito con referencia a realizaciones ilustrativas, esta descripción no pretende ser interpretada en un sentido limitante. Diversas modificaciones y combinaciones de las realizaciones ilustrativas, así como otras realizaciones de la invención, serán evidentes para los expertos en la técnica en referencia a la descripción. Por ejemplo, se pueden combinar entre sí diversas realizaciones descritas anteriormente.
Con referencia a la Figura 13, se describe una realización de un aparato 130 para procesar señales de voz antes de codificar una señal digital. El aparato incluye:
un selector 131 de codificación configurado para seleccionar la codificación en el dominio de la frecuencia o la codificación en el dominio del tiempo en base a una tasa de bits de codificación a ser utilizada para codificar la señal digital y a una detección de retardo de paso corto de la señal digital.
En donde, cuando la señal digital incluye una señal de paso corto para la cual el retardo de paso es más corto que un límite de retardo de paso, el selector de codificación está configurado para
seleccionar la codificación en el dominio de la frecuencia para codificar la señal digital, cuando una tasa de bits de codificación es mayor que un límite superior de tasa de bits y
seleccionar la codificación en el dominio del tiempo para codificar la señal digital, cuando la tasa de bits de codificación es menor que un límite inferior de tasa de bits.
En donde, cuando la señal digital incluye una señal de paso corto para la cual el retardo de paso es más corto que un límite de retardo de paso, el selector de codificación está configurado para seleccionar la codificación en el dominio de la frecuencia para codificar la señal digital cuando la tasa de bits de codificación está entre medias de un límite inferior de tasa de bits y un límite superior de tasa de bits y en donde una periodicidad de entonación es baja.
En donde, cuando la señal digital no incluye una señal de paso corto para la cual el retardo de paso es más corto que un límite de retardo de paso, el selector de codificación está configurado para seleccionar la codificación en el dominio del tiempo para codificar la señal digital, cuando la señal digital se clasifica como voz no sonora o voz normal.
En donde, cuando la señal digital incluye una señal de paso corto para la cual el retardo de paso es más corto que un límite de retardo de paso, el selector de codificación está configurado para seleccionar la codificación en el dominio del tiempo para codificar la señal digital, cuando la tasa de bits de codificación está entre medias de un límite de inferior de tasa de bits y un límite superior de tasa de bits, y una periodicidad de entonación es muy fuerte.
El aparato incluye además una unidad 132 de codificación, la unidad de codificación está configurada para codificar la señal digital utilizando la codificación en el dominio de la frecuencia, seleccionada por el selector 131, o la codificación en el dominio del tiempo, seleccionada por el selector 131.
El selector de codificación y la unidad de codificación pueden implementarse por la CPU o por algunos circuitos de hardware, tales como FPGA, ASIC.
Con referencia a la Figura 14, se describe una realización de un aparato 140 para procesar señales de voz antes de codificar una señal digital. El aparato incluye:
una unidad 141 de selección de codificación, la unidad de selección de codificación está configurada para
seleccionar la codificación en el dominio del tiempo para codificar una señal digital que comprende datos de audio, cuando la señal digital no incluye una señal de paso corto y la señal digital se clasifica como voz no sonora o voz normal;
seleccionar la codificación en el dominio de la frecuencia para codificar la señal digital, cuando la tasa de bits de codificación está entre medias de un límite inferior de tasa de bits y un límite superior de tasa de bits, y la señal digital incluye una señal de paso corto y la periodicidad de entonación es baja; y
seleccionar la codificación en el dominio del tiempo para codificar la señal digital, cuando la tasa de bits de codificación está entre medias y la señal digital incluye una señal de paso corto y una periodicidad de entonación es muy fuerte.
El aparato incluye, además, una segunda 142 unidad de codificación, la segunda unidad de codificación está configurada para codificar la señal digital utilizando la codificación en el dominio de la frecuencia, seleccionada por la unidad 141 de selección de codificación, o la codificación en el dominio del tiempo, seleccionada por la unidad 141 de selección de codificación.
La unidad de selección de codificación y la unidad de codificación pueden implementarse por la CPU o por algunos circuitos de hardware, tales como FPGA, ASIC.

Claims (6)

REIVINDICACIONES
1. Un método para procesar señales de voz antes de codificar una señal digital que comprende datos de audio, en donde el método está caracterizado por comprender:
seleccionar la codificación en el dominio de la frecuencia o la codificación en el dominio del tiempo en base a
una tasa de bits de codificación a ser utilizada para codificar la señal digital y
una detección de retardo de paso corto de la señal digital; en donde la detección de retardo de paso corto comprende detectar si la señal digital comprende una señal de paso corto para la cual el retardo de paso es más corto que un límite de retardo de paso, en donde el límite de retardo de paso es un paso mínimo permitido para un algoritmo de Predicción Lineal Excitada por Código, CELP, para codificar la señal digital, en donde el paso mínimo permitido es 34 cuando una tasa de muestreo es 12,8 kHz.
2. El método de la reivindicación 1, en donde la señal digital comprende una señal de paso corto para la cual el retardo de paso es más corto que un límite de retardo de paso y, en donde, seleccionar la codificación en el dominio de la frecuencia o la codificación en el dominio del tiempo comprende:
seleccionar la codificación en el dominio de la frecuencia para codificar la señal digital, cuando una tasa de bits de codificación es mayor que un límite superior de tasa de bits, y
seleccionar la codificación en el dominio del tiempo para codificar la señal digital, cuando la tasa de bits de codificación es menor que un límite inferior de tasa de bits.
3. El método de la reivindicación 2, en donde la tasa de bits de codificación es mayor que el límite superior de tasa de bits, cuando la tasa de bits de codificación es mayor o igual que 46200 bps y, en donde, la tasa de bits de codificación es menor que un límite inferior de tasa de bits, cuando la tasa de bits de codificación es menor que 24,4 kbps.
4. El método de la reivindicación 1, en donde seleccionar la codificación en el dominio de la frecuencia o la codificación en el dominio del tiempo en base al retardo de paso de la señal digital comprende detectar una señal de paso corto en base a determinar un parámetro para detectar la ausencia de energía de muy baja frecuencia o un parámetro para la nitidez espectral.
5. Un aparato para procesar señales de voz antes de codificar una señal digital, en donde el aparato está caracterizado por comprender datos de audio, comprendiendo el aparato un selector de codificación configurado para realizar el método de una cualquiera de las reivindicaciones 1 a 4.
6. El aparato de la reivindicación 5, en donde el aparato comprende, además, una unidad de codificación que está configurada para codificar la señal digital utilizando la codificación en el dominio del tiempo seleccionada por el selector.
ES18214327T 2014-07-26 2015-07-23 Mejorar la clasificación entre codificación en el dominio del tiempo y codificación en el dominio de la frecuencia Active ES2938668T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201462029437P 2014-07-26 2014-07-26
US14/511,943 US9685166B2 (en) 2014-07-26 2014-10-10 Classification between time-domain coding and frequency domain coding

Publications (1)

Publication Number Publication Date
ES2938668T3 true ES2938668T3 (es) 2023-04-13

Family

ID=55167212

Family Applications (2)

Application Number Title Priority Date Filing Date
ES15828041T Active ES2721789T3 (es) 2014-07-26 2015-07-23 Mejorar la clasificación entre codificación en el dominio del tiempo y codificación en el dominio de la frecuencia
ES18214327T Active ES2938668T3 (es) 2014-07-26 2015-07-23 Mejorar la clasificación entre codificación en el dominio del tiempo y codificación en el dominio de la frecuencia

Family Applications Before (1)

Application Number Title Priority Date Filing Date
ES15828041T Active ES2721789T3 (es) 2014-07-26 2015-07-23 Mejorar la clasificación entre codificación en el dominio del tiempo y codificación en el dominio de la frecuencia

Country Status (18)

Country Link
US (4) US9685166B2 (es)
EP (2) EP3152755B1 (es)
JP (1) JP6334808B2 (es)
KR (2) KR102039399B1 (es)
CN (2) CN106663441B (es)
AU (2) AU2015296315A1 (es)
BR (1) BR112016030056B1 (es)
CA (1) CA2952888C (es)
ES (2) ES2721789T3 (es)
FI (1) FI3499504T3 (es)
HK (1) HK1232336A1 (es)
MX (1) MX358252B (es)
MY (1) MY192074A (es)
PL (1) PL3499504T3 (es)
PT (2) PT3152755T (es)
RU (1) RU2667382C2 (es)
SG (1) SG11201610552SA (es)
WO (1) WO2016015591A1 (es)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9589570B2 (en) * 2012-09-18 2017-03-07 Huawei Technologies Co., Ltd. Audio classification based on perceptual quality for low or medium bit rates
US9934793B2 (en) * 2014-01-24 2018-04-03 Foundation Of Soongsil University-Industry Cooperation Method for determining alcohol consumption, and recording medium and terminal for carrying out same
CA3074749A1 (en) * 2017-09-20 2019-03-28 Voiceage Corporation Method and device for allocating a bit-budget between sub-frames in a celp codec
EP3483878A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio decoder supporting a set of different loss concealment tools
EP3483880A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Temporal noise shaping
WO2019091573A1 (en) 2017-11-10 2019-05-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for encoding and decoding an audio signal using downsampling or interpolation of scale parameters
EP3483883A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio coding and decoding with selective postfiltering
EP3483886A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Selecting pitch lag
EP3483884A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Signal filtering
EP3483879A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Analysis/synthesis windowing function for modulated lapped transformation
EP3483882A1 (en) 2017-11-10 2019-05-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Controlling bandwidth in encoders and/or decoders
WO2019091576A1 (en) 2017-11-10 2019-05-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoders, audio decoders, methods and computer programs adapting an encoding and decoding of least significant bits
US11270721B2 (en) * 2018-05-21 2022-03-08 Plantronics, Inc. Systems and methods of pre-processing of speech signals for improved speech recognition
USD901798S1 (en) 2018-08-16 2020-11-10 Samsung Electronics Co., Ltd. Rack for clothing care machine
BR112021012753A2 (pt) * 2019-01-13 2021-09-08 Huawei Technologies Co., Ltd. Método implementado por computador para codificação de áudio, dispositivo eletrônico e meio legível por computador não transitório
US11367437B2 (en) * 2019-05-30 2022-06-21 Nuance Communications, Inc. Multi-microphone speech dialog system for multiple spatial zones
CN110992963B (zh) * 2019-12-10 2023-09-29 腾讯科技(深圳)有限公司 网络通话方法、装置、计算机设备及存储介质
CN113129910A (zh) * 2019-12-31 2021-07-16 华为技术有限公司 音频信号的编解码方法和编解码装置
CN113132765A (zh) * 2020-01-16 2021-07-16 北京达佳互联信息技术有限公司 码率决策模型训练方法、装置、电子设备及存储介质
WO2023110082A1 (en) * 2021-12-15 2023-06-22 Telefonaktiebolaget Lm Ericsson (Publ) Adaptive predictive encoding

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5504834A (en) 1993-05-28 1996-04-02 Motrola, Inc. Pitch epoch synchronous linear predictive coding vocoder and method
KR100711047B1 (ko) 2000-02-29 2007-04-24 퀄컴 인코포레이티드 폐루프 멀티모드 혼합영역 선형예측 (mdlp) 음성 코더
US7185082B1 (en) * 2000-08-09 2007-02-27 Microsoft Corporation Fast dynamic measurement of connection bandwidth using at least a pair of non-compressible packets having measurable characteristics
EP1783745B1 (en) 2004-08-26 2009-09-09 Panasonic Corporation Multichannel signal decoding
KR20060119743A (ko) 2005-05-18 2006-11-24 엘지전자 주식회사 구간 속도에 대한 예측정보를 제공하고 이를 이용하는 방법및 장치
ES2478004T3 (es) * 2005-10-05 2014-07-18 Lg Electronics Inc. Método y aparato para decodificar una señal de audio
KR100647336B1 (ko) * 2005-11-08 2006-11-23 삼성전자주식회사 적응적 시간/주파수 기반 오디오 부호화/복호화 장치 및방법
KR101149449B1 (ko) * 2007-03-20 2012-05-25 삼성전자주식회사 오디오 신호의 인코딩 방법 및 장치, 그리고 오디오 신호의디코딩 방법 및 장치
KR101518532B1 (ko) 2008-07-11 2015-05-07 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. 오디오 인코더, 오디오 디코더, 오디오 신호, 오디오 스트림을 부호화 및 복호화하는 장치 및 컴퓨터 프로그램
ES2396927T3 (es) * 2008-07-11 2013-03-01 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Aparato y procedimiento para decodificar una señal de audio codificada
KR101756834B1 (ko) * 2008-07-14 2017-07-12 삼성전자주식회사 오디오/스피치 신호의 부호화 및 복호화 방법 및 장치
US9037474B2 (en) * 2008-09-06 2015-05-19 Huawei Technologies Co., Ltd. Method for classifying audio signal into fast signal or slow signal
WO2010031049A1 (en) * 2008-09-15 2010-03-18 GH Innovation, Inc. Improving celp post-processing for music signals
WO2010031003A1 (en) 2008-09-15 2010-03-18 Huawei Technologies Co., Ltd. Adding second enhancement layer to celp based core layer
JP5519230B2 (ja) * 2009-09-30 2014-06-11 パナソニック株式会社 オーディオエンコーダ及び音信号処理システム
DK3079153T3 (en) * 2010-07-02 2018-11-05 Dolby Int Ab AUDIO DECOD WITH SELECTIVE FILTERING
WO2013096875A2 (en) 2011-12-21 2013-06-27 Huawei Technologies Co., Ltd. Adaptively encoding pitch lag for voiced speech
US9099099B2 (en) 2011-12-21 2015-08-04 Huawei Technologies Co., Ltd. Very short pitch detection and coding
US9589570B2 (en) 2012-09-18 2017-03-07 Huawei Technologies Co., Ltd. Audio classification based on perceptual quality for low or medium bit rates
CN109448745B (zh) 2013-01-07 2021-09-07 中兴通讯股份有限公司 一种编码模式切换方法和装置、解码模式切换方法和装置

Also Published As

Publication number Publication date
US20180040331A1 (en) 2018-02-08
US20170249949A1 (en) 2017-08-31
AU2015296315A1 (en) 2017-01-12
FI3499504T3 (fi) 2023-01-31
AU2018217299A1 (en) 2018-09-06
US10885926B2 (en) 2021-01-05
BR112016030056A2 (pt) 2017-08-22
MY192074A (en) 2022-07-25
US20160027450A1 (en) 2016-01-28
US9837092B2 (en) 2017-12-05
BR112016030056B1 (pt) 2023-05-16
EP3499504A1 (en) 2019-06-19
CN106663441A (zh) 2017-05-10
PT3499504T (pt) 2023-01-02
ES2721789T3 (es) 2019-08-05
KR20170016964A (ko) 2017-02-14
PL3499504T3 (pl) 2023-08-14
CA2952888C (en) 2020-08-25
HK1232336A1 (zh) 2018-01-05
US10586547B2 (en) 2020-03-10
KR102039399B1 (ko) 2019-11-04
RU2017103905A (ru) 2018-08-27
RU2017103905A3 (es) 2018-08-27
WO2016015591A1 (en) 2016-02-04
CA2952888A1 (en) 2016-02-04
EP3152755A4 (en) 2017-04-12
US9685166B2 (en) 2017-06-20
AU2018217299B2 (en) 2019-11-28
RU2667382C2 (ru) 2018-09-19
PT3152755T (pt) 2019-05-27
CN109545236A (zh) 2019-03-29
EP3152755A1 (en) 2017-04-12
MX358252B (es) 2018-08-10
JP6334808B2 (ja) 2018-05-30
EP3499504B1 (en) 2022-11-23
CN106663441B (zh) 2018-10-19
KR20190029779A (ko) 2019-03-20
JP2017526956A (ja) 2017-09-14
EP3152755B1 (en) 2019-02-13
CN109545236B (zh) 2021-09-07
KR101960198B1 (ko) 2019-03-19
SG11201610552SA (en) 2017-01-27
US20200234724A1 (en) 2020-07-23
MX2017001045A (es) 2017-05-04

Similar Documents

Publication Publication Date Title
ES2938668T3 (es) Mejorar la clasificación entre codificación en el dominio del tiempo y codificación en el dominio de la frecuencia
US10249313B2 (en) Adaptive bandwidth extension and apparatus for the same
US10347275B2 (en) Unvoiced/voiced decision for speech processing
US9418671B2 (en) Adaptive high-pass post-filter