MX2010009571A - Metodo y aparato para el procesamiento de señales de audio. - Google Patents

Metodo y aparato para el procesamiento de señales de audio.

Info

Publication number
MX2010009571A
MX2010009571A MX2010009571A MX2010009571A MX2010009571A MX 2010009571 A MX2010009571 A MX 2010009571A MX 2010009571 A MX2010009571 A MX 2010009571A MX 2010009571 A MX2010009571 A MX 2010009571A MX 2010009571 A MX2010009571 A MX 2010009571A
Authority
MX
Mexico
Prior art keywords
type
signal
coding
audio signal
information
Prior art date
Application number
MX2010009571A
Other languages
English (en)
Inventor
Yang Won Jung
Hong Goo Kang
Hyen-O Oh
Chang Heon Lee
Jung Wook Song
Original Assignee
Lg Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lg Electronics Inc filed Critical Lg Electronics Inc
Publication of MX2010009571A publication Critical patent/MX2010009571A/es

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/22Mode decision, i.e. based on audio signal content versus external parameters
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/00007Time or data compression or expansion
    • G11B2020/00014Time or data compression or expansion the compressed signal being an audio signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)

Abstract

Se describe un aparato para el procesamiento de una señal codificada y un método del mismo, mediante los cuales se puede comprimir y reconstruir una señal de audio con mayor eficiencia. Un método de procesamiento de señales de audio incluye las etapas de identificar si un tipo de una señal de audio es de música, usando el primer tipo de información, si el tipo de la señal de audio no es la señal de música, identificar si el tipo de la señal de audio es una señal de voz, o una señal mezclada, usando el segundo tipo de información, y si el tipo de la señal de audio se determina ya sea como la señal de voz o señal mezclada, reconstruir la señal de audio de acuerdo con un esquema de codificación aplicado por cada cuadro, usando la información de identificación de la codificación. Si el tipo de la señal de audio es la señal de música, se recibe solamente el primer tipo de información. Si el tipo de la señal de audio es la señal de voz o la señal mezclada, se recibe tanto el primer tipo de información y el segundo tipo de información. Por consiguiente, varios tipos de señales de audio se pueden codificar/decodificar con alta eficiencia.

Description

MÉTODO Y APARATO PARA EL PROCESAMIENTO DE SEÑALES DE AUDIO ANTECEDENTES DE LA INVENCIÓN CAMPO DE LA INVENCIÓN La presente invención se refiere a un aparato para procesamiento de señales de audio para codificar y decodificar de manera efectiva varios tipos de señales de audio y un método del mismo.
DISCUSIÓN DE LA TÉCNICA RELACIONADA Por lo general, las tecnologías de codificación se clasifican de manera convencional en dos tipos tales como codificadores de audio sensoriales y codificadores basados en predicción lineal. Por ejemplo, los codificadores de audio sensorial optimizados para música, adoptan un esquema de reducción del tamaño de la información en un proceso de codificación que usa el principio de enmascaramiento, el cual es una teoría psicoacústica auditiva humana, sobre el eje de la frecuencia. Por el contrario, los codificadores basados en predicción lineal optimizados para voz adoptan un esquema de reducción del tamaño de la información modelando la vocalización de la voz sobre un eje el tiempo.
Sin embargo, cada una de la tecnologías descritas anteriormente tiene buen desempeño sobre cada señal de audio optimizada (por ejemplo, una señal de voz, una señal de música) pero no proporciona un desempeño consistente sobre una señal de audio generada por el mezclado en forma complicada de diferentes tipos de señales de audio o de señales de voz y música juntas.
BREVE DESCRIPCIÓN DE LA INVENCIÓN Por consiguiente, la presente invención se dirige a un aparato para el procesamiento de una señal de audio y un método del mismo que evita substancialmente uno o más de los problemas debidos a las limitaciones y las desventajas de la técnica relacionada.
Un objetivo de la presente invención es proporcionar un aparato para el procesamiento de una señal de audio y un método del mismo, mediante los cuales, diferentes tipos de señales de audio pueden ser comprimidas y/o reconstruidas con mayor eficiencia.
Otro objetivo de la presente invención es proporcionar un esquema de codificación de audio adecuado para las características de una señal de audio.
Se debe entender que tanto la descripción general anterior y la siguiente descripción etallada son ejemplificantes y explicativas y que tienen la intención de proporcionar una explicación adicional de la invención como se reivindica .
BREVE DESCRIPCIÓN DE LOS DIBUJOS Los dibujos anexos, los cuales se incluyen para proporcionar un entendimiento adicional de la invención y que se incorporan y forman parte de esta especificación, ilustran las modalidades de la invención y junto con la descripción, sirven para explicar los principios de la invención.
En los dibujos: La FIG. 1 es un diagrama de bloques de un aparato de decodificación de audio de acuerdo con una modalidad preferida de la presente invención; la FIG. 2 es un diagrama de flujo de un método para la decodificación de una señal de una señal de audio usando la tipo de información del audio de acuerdo con una modalidad de la presente invención; la FIG. 3 es un diagrama para un ejemplo de una estructura del flujo de bitios de audio codificado de acuerdo con la presente invención; la FIG. 4 es un diagrama de bloques de un aparato para decodificación de audio usando un modelo psicoacustico de acuerdo con una modalidad de la presente invención; la FIG. 5 es un diagrama de bloques de un aparato de decodificación de audio que usa un modelo psicoacustico de acuerdo con otra modalidad de la presente invención; la FIG. 6 es un diagrama para las variaciones de un valor de referencia modificado por ruido usando una unidad de modelo psicoacustico de acuerdo con otra modalidad de la presente invención; la FIG. 7 es un diagrama de flujo de un método para generar un valor de referencia modificado por ruido usando una unidad de modelo psicoacustico de acuerdo con otra modalidad de la presente invención; la FIG. 8 es un diagrama de bloques de un aparato de decodificación de audio de acuerdo con una modalidad de la presente invención; la FIG. 9 es un diagrama de la configuración de un producto implementado con un aparato de decodificación de audio de acuerdo con una modalidad de la presente invención; la FIG. 10 es un diagrama para un ejemplo de las relaciones entre los productos implementados con un aparato de decodificación de audio de acuerdo con una modalidad de la presente invención; y la FIG. 11 es un diagrama de flujo para un método de decodificación de audio de acuerdo con una modalidad de la presente invención.
DESCRIPCIÓN DETALLADA DE LA INVENCIÓN Ahora se hará referencia en detalle a las modalidades preferidas de la presente invención, los ejemplos de las cuales se ilustran en los dibujos anexos.
En la presente invención, la terminología en la presente invención puede ser interpretada según las siguientes referencias. Antes que nada, "codificación" se puede considerar ocasionalmente como codificación y decodificación. Información, es una terminología que incluye valores, parámetros, coeficientes, elementos y los similares.
Con relación a la presente invención, ^señal de audio' en la presente invención, se discrimina conceptualmente de una señal de video. Y, la señal de audio indica todas las señales que pueden ser identificadas auditivamente durante la reproducción. Por lo tanto, las señales de audio pueden ser clasificadas en una señal de voz principalmente relevante para la vocalización humana o una señal similar a la señal de voz (llamada de aquí en adelante señal de voz' ) , una señal de música relevante principalmente para los ruidos y sonidos mecánicos o una señal similar a la señal de música (llamada de aquí en adelante 'señal de música' ) , y una *señal mezclada' generada por el mezclado de la señal de voz y la señal de música. La presente invención pretende proporcionar y aparato para la codificación/decodificación de los tres tipos de señales de audio de arriba y un método del mismo para codificar/decodificar las señales de audio para que sean adecuadas para las características de las señales de audio. No obstante, las señales de audio se clasifican para la descripción de la presente invención solamente. Y, es aparente que la idea técnica de la presente invención es aplicable igualmente a un caso de clasificación de las señales de audio de acuerdo con un método diferente.
La FIG. 1 es un diagrama de bloques de un aparato de decodificación de audio de acuerdo con una modalidad preferida de la presente invención. En particular, la FIG. 1 muestra un proceso para clasificar una señal de audio introducida de acuerdo con una referencia pre-configurada y después codificar la señal de audio clasificada al seleccionar un esquema de codificación de audio adecuado para la señal de audio correspondiente .
Haciendo referencia a la FIG. 1, un aparato de codificación de audio de acuerdo con una modalidad preferida de la presente invención incluye una unidad 100 de clasificación de señales (detector de actividad de sonido) que clasifica una señal de audio introducida en un tipo de señal de voz, una señal de música o una señal combinada de voz y música al analizar una característica de la señal de audio introducida, una unidad 110 de modelado de pronostico lineal que codifica la señal de voz del tipo de señal determinado por la unidad 100 de clasificación, una unidad 120 de modelo psicoacustico que codifica la señal de música, y una unidad 130 de modelado se señales mezcladas que codifica la señal mezclada de voz y música. Y, el aparato de codificación de audio puede incluir además una unidad 101 de conmutación configurada para seleccionar un esquema de codificación adecuado para la señal de audio clasificada por la unidad 100 de clasificación de señales. La unidad 101 de conmutación se maneja usando la información del tipo de codificación de la señal de audio (por ejemplo, la primera tipo de información y el segundo tipo de información, la cual se explicará en detalle con referencia a la FIG. 2 y la FIG. 3) generada por la unidad 100 de clasificación de señales como una señal de control. Además, la unidad 130 de modelado de señales mezcladas puede incluir una unidad 131 de predicción lineal, una unidad 132 de extracción de señales residuales y una unidad 133 de transformación de frecuencias. En la siguiente descripción, se explican en detalle los elementos respectivos mostrados en la FIG. 1.
Antes que nada, la unidad 100 de clasificación de señales clasifica un tipo de una señal de audio introducida y después genera una señal de control para seleccionar un esquema de codificación de audio adecuado para el tipo clasificado. Por ejemplo, la unidad 100 de clasificación de señales elige si una señal de audio introducida es una señal de música, una señal de voz o una señal mezclada de voz y música. Por lo tanto, el tipo de la señal de audio introducida se clasifica para seleccionar un esquema de codificación óptimo según el tipo de la señal de audio, de entre los esquemas de codificación de audio los cuales se explicarán después. Por lo tanto, la unidad 100 de clasificación de señales realiza un proceso para analizar una señal de audio introducida y después seleccionar un esquema óptimo de codificación de audio para la señal de audio introducida. Por ejemplo, la unidad 100 de clasificación de señales genera la información del tipo codificación del audio al analizar una señal de audio introducida. La información del tipo de codificación del audio generada se utiliza como una referencia para seleccionar un esquema de codificación. La información del tipo de codificación del audio generada se incluye como un flujo de bitios en una señal de audio codificada finalmente y después se transfiere a un dispositivo de decodificación o recepción. Además, un método de decodificación y un aparato que usa la información del tipo de codificación de audio se explicaran en detalle con referencia a ala FIG. 8 y la FIG. 11. Además, la información del tipo de codificación de audio generada por la unidad 100 de clasificación de señales puede incluir la primera tipo de información y el segundo tipo de información, por ejemplo. Esto se describirá con referencia a la FIG. 2 y la FIG. 3.
La unidad 100 de clasificación de señales determina un tipo de la señal de audio de acuerdo con una característica de una señal de audio introducida. Por ejemplo, si la señal de audio introducida es una señal mejora para el modelado con un coeficiente específico y una señal residual, la unidad 100 de clasificación de señales determina la señal de audio introducida como una señal de voz. Si la señal de audio introducida es una señal deficiente para el modelado con un coeficiente específico y una señal residual, la unidad 100 de clasificación de señales determina la señal de audio introducida como una señal de música. Si es difícil determinar la señal de audio introducida como una señal de voz o una señal de música, la unidad 100 de clasificación de señales determina la señal de audio introducida como una señal mezclada. En cuanto a una referencia de determinación detallada, por ejemplo, cuando la señal se modela con un coeficiente especifico y una señal residual, si una relación del nivel de energía de la señal con respecto a la señal es menor que un valor de referencia pre-configurado, la señal puede ser determinada como una señal buena para el modelado. Por lo tanto, la señal puede ser determinada como una señal de voz. Si la señal tiene alta redundancia en el eje del tiempo, la señal puede ser determinada como una señal buena para el modelado por predicción lineal para pronosticar una señal actual de una señal pasada. Por lo tanto, la señal puede ser determinada como una señal de música.
Si una señal introducida de acuerdo con esta referencia se determina como señal de voz, se puede codificar una señal de entrada usando un codificador de voz optimizado para la señal de voz. De acuerdo con la presente modalidad, la unidad 100 de modelado por predicción lineal se usa para un esquema de codificación adecuado para una señal de voz. La unidad 100 de modelado por predicción lineal se provee con varios esquemas. Por ejemplo, el esquema de codificación ACELP (predicción linear con excitación por código algebraico, el esquema de codificación AMR (multi-tasa adaptativa) o el esquema de codificación AMR-WB (ancho de banda con multi-tasa adaptativa) , son aplicables a la unidad 110 de modelado por predicción lineal.
La unidad 110 de modelado por predicción lineal es capaz de llevar a cabo la codificación por predicción lineal sobre una señal de audio introducida en unidades de cuadros. La unidad 110 de modelado por predicción lineal extrae un coeficiente predictivo por cuadro y después cuantifica el coeficiente predictivo extraído. Por ejemplo, un esquema para extraer un coeficiente predictivo usando un ^algoritmo de Levinson-Durbin' se usa ampliamente en general.
En particular, se una señal de audio introducida se construye con una pluralidad de cuadros o existe ahí una pluralidad de super cuadros, cada uno de los cuales tiene una unidad de una pluralidad de cuadros, por ejemplo, se puede determinar si se aplica un esquema de modelado por predicción lineal por cuadro. Es posible aplicar un esquema de modelado por predicción lineal por cuadro unitario existente dentro de un super cuadro o por sub-cuadro de un cuadro unitario. Esto puede elevar la eficiencia de codificación de una señal de audio .
Entretanto, si una señal de audio introducida se clasifica como una señal de música por la unidad 100 de clasificación de señales, se puede codificar una señal de entrada usando un codificador de música optimizado para las señales de música. De acuerdo con la presente invención, la unidad 120 de modelo psicoacustico se usa para un esquema de codificación adecuado para una señal de música. Un ejemplo de la unidad 120 de modelo psicoacustico aplicado a la presente invención se describirá en detalle con referencia a las FIGs. 4 a 7.
Si una señal de audio introducida se clasifica como una señal mezclada, en la cual la voz y la música se mezclan juntas, por la unidad 100 de clasificación de señales, se puede codificar una señal de entrada usando un codificador optimizado para la señal mezclada. De acuerdo con la presente modalidad, la unidad 130 de modelado de señales mezcladas se usa para un esquema de codificación adecuado para una señal mezclada .
La unidad 130 de modelado de señales mezcladas puede realizar la codificación mediante un esquema mezclado que resulta de mezclar el esquema de modelado por predicción lineal citado anteriormente. En particular, la unidad 130 de modelado de señales mezcladas realiza la codificación por predicción lineal sorbe una señal de entrada, obtiene una señal residual que equivale a la diferencia entre una señal de predicción lineal resultante y una señal original, y después codifica la señal residual mediante un esquema de codificación por transformación de frecuencia.
Por ejemplo, la FIG. 1 muestra un ejemplo en que la unidad 130 de modelado de señales mezcladas incluye la unidad 131 de predicción lineal, la unidad 132 de extracción de señales residuales y la unidad 133 de transformación de frecuencias .
La unidad 131 de predicción lineal realiza el análisis predictivo lineal sobre una señal introducida y después extrae un coeficiente predictivo lineal que indica una característica de la señal. La unidad 132 de extracción de señales residuales extrae una señal residual, de la cual, se elimina un componente de redundancia, a partir de la señal introducida, usando el coeficiente predictivo lineal extraído. Como la redundancia se elimina de la señal residual, la señal residual correspondiente puede tener el tipo de un ruido blanco. La unidad 131 de predicción lineal puede realizar la codificación por predicción lineal sobre una señal de audio introducida, en unidades de cuadros. La unidad 131 de predicción lineal extrae un coeficiente predictivo por cuadro y después cuantifica el coeficiente predictivo extraído. Por ejemplo, en particular, si una señal de audio introducida se construye con una pluralidad de cuadros o existe ahí una pluralidad de super cuadros, cada uno de los cuales tiene una unidad de una pluralidad de cuadros, se puede determinar si se aplica un esquema de modelado por predicción lineal por cuadro. Es posible aplicar un esquema de predicción lineal diferente por cada cuadro unitario que exista dentro de un super cuadro o por sub-cuadro de un cuadro unitario. Esto puede elevar la eficiencia de codificación de una señal de audio.
La unidad 132 de extracción de señales residuales recibe una entrada de una señal remanente codificada por la unidad 131 de predicción lineal y una entrada de una señal de audio original que ha pasado a través de la unidad 100 de clasificación de señales y después extrae una señal residual que es una señal de diferencia entre las dos señales introducidas .
La unidad 133 de transformación de frecuencias calcula un umbral de enmascaramiento o una relación de señal a máscara (SMR) realizando una transformada del dominio de la frecuencia sobre una señal residual introducida por MDCT o los similares y después codifica la señal residual. La unidad 133 de transformación de frecuencias es capaz de codificar una señal de una tendencia de audio residual usando TCX asi como el modelado psicoacustico.
Cuando la unidad 100 de modelado por predicción lineal y la unidad 131 de predicción lineal extraen un coeficiente predictivo lineal (LPC) reflejado, característico al realizar la predicción y el análisis lineal sobre una señal de audio introducida, se puede considerar un esquema para usar los bitios variables para un método para transferir los datos LPC.
Por ejemplo, un modo de datos LPC se determina con liderando un esquema de codificación por cuadro. Entonces se puede asignar un coeficiente predictivo lineal que tenga un número variable de bitios según el modo de datos LPC determinado. A través de esto, se reduce el número total de bitios de audio. Por lo tanto, la codificación y la decodificación de audio se pueden realizar de manera más eficiente .
Entretanto, como se menciona en la descripción anterior, la unidad 100 de clasificación de señales genera la información del tipo de codificación de una señal de audio al clasificar la señal de audio en uno de dos tipos de la información del tipo de codificación, permite gue la información del tipo de codificación sea incluida en un flujo de bitios, y después transfiere el flujo de bitios a un aparato de decodificación. En la siguiente descripción, la información del tipo de la codificación de audio de acuerdo con la presente invención, se explica en detalle con referencia a la FIG. 2 y la FIG. 3.
La FIG. 2 es un diagrama de flujo para un método de codificación de una señal de audio usando la información del tipo de audio de acuerdo con una modalidad preferida de la presente invención.
Haciendo referencia a la FIG. 2, la presente invención propone un método para representar un tipo de una señal de audio en una manera en la que se usa la primera información del tipo y la segunda información del tipo para la clasificación. Por ejemplo, si una señal de audio introducida se determina como una señal de música [S100], la unidad 100 de clasificación de señales controla la unidad 10 de conmutación para seleccionar un esquema de codificación (por ejemplo, el esquema de modelado psicoacústico mostrado en la FIG. 2) adecuado para la señal de música y después permite que se realice la codificación de acuerdo con el esquema de codificación seleccionado [S110] . Después, la información de control correspondiente se configura como la primera tipo de información y después se transfiere al ser incluida en un flujo de bitios de audio codificado. Por lo tanto, la primera tipo de información juega un papel como la información de identificación de codificación que indica que un tipo de codificación de una señal de audio es un tipo de codificación de señal de música. La primera información de tipo se utiliza para decodificar una señal de audio de acuerdo con un método y un aparato de decodificación.
Además, si la señal introducida se determina como una señal de voz [S120] , la unidad 100 de clasificación de señales controla la unidad 101 de conmutación para seleccionar un esquema de codificación (por ejemplo, el modelado por predicción lineal mostrado en la FIG. 2) adecuado para la señal de voz y después permite que se realice la codificación de acuerdo con el esquema de codificación seleccionado [S130] . Si la señal introducida se determina como una señal mezclada [S120] , la unidad 100 de clasificación de señales controla la unidad 101 de conmutación para seleccionar un esquema de codificación (por ejemplo, el modelado de señal mezclada mostrado en la FIG. 2) adecuado para la señal mezclada y después permite que se realice la codificación de acuerdo con el esquema de codificación seleccionado [S140] . Posteriormente, la información de control que indica ya sea el tipo de codificación de señal de voz o el tipo de codificación de señal mezclada se configura en el segundo tipo de información. El segundo tipo se transfiere entonces al ser incluido en un flujo de bitios de audio codificado junto con el primer tipo de información. Por lo tanto, el segundo tipo de información juega un papel como la información de identificación de la codificación que indica que un tipo de codificación de una señal de audio es ya sea un tipo de codificación de señal de voz o un tipo de codificación de señal mezclada. El segundo tipo de información se utiliza junto con el primer tipo de información citado anteriormente, para decodificar una señal de audio de acuerdo con un método y un aparato de decodificación.
Haciendo referencia al primer tipo de información y el segundo tipo de información, hay dos casos de acuerdo con las características de las señales de audio introducidas. Es decir, solo se necesita transferir la primera información o tanto el primer tipo de información y el segundo tipo de información necesitan ser transferidos. Por ejemplo, si un tipo de una señal de audio introducida es un tipo de codificación de señal de música, solo se transfiere el primer tipo de información al ser incluido en un flujo de bitios y el segundo tipo de información puede no ser incluido en el flujo de bitios [ (a) de a FIG. 3] . Es decir, el segundo tipo de información se incluye en un flujo de bitios solamente si un tipo de codificación de la señal de audio introducida es un tipo de codificación de señal de voz o un tipo de codificación de señal mezclada. Por lo tanto, se puede evitar un número innecesario de bitios para representar el tipo de codificación de una señal de audio.
Aunque el ejemplo de la presente invención enseña que el primer tipo de información indica la presencia o la no presencia de un tipo de señal de música, esto solo es ejemplificante. Y, es aparente que el primer tipo de información se puede usar como la información que indica un tipo de codificación de señal de voz o un tipo de codificación de señal mezclada. Por lo tanto, al utilizar un tipo de codificación de audio que tenga la probabilidad de frecuencia de aparición alta de acuerdo con un ambiente de codificación al cual se aplica la presente invención, se puede reducir un número total de bitios de un flujo de bitios.
La FIG. 3 es un diagrama para un ejemplo de una estructura del flujo de bitios codificada de acuerdo con la presente invención.
Haciendo referencia a inciso (a) de la FIG. 3, una señal de audio introducida corresponde a una señal de música.
Solamente el primer tipo de información 301 se incluye en un flujo de bitios pero el segundo tipo de información no se incluye en el mismo. Dentro del flujo de bitios, se incluyen los datos de audio codificados mediante un tipo de codificación correspondiente a 1 primer tipo de información 301 (por ejemplo, el flujo de bitios AAC 302) .
Haciendo referencia al inciso (b) de la FIG. 3, una señal de audio introducida corresponde a una señal de voz.
Tanto el primer tipo 311 de información y el segundo tipo 312 de información se incluyen en un flujo de bitios. Dentro del flujo de bitios se incluyen los datos de audio codificados mediante un tipo de codificación correspondiente al segundo tipo 312 de información (por ejemplo, un flujo de bitios AMR 313) .
Haciendo referencia al inciso (c) de la FIG. 3, una señal de audio introducida corresponde a una señal mezclada. Tanto el primer tipo 321 de información y el segundo tipo 322 de información se incluyen en un flujo de bitios. Dentro del flujo de bitios se incluyen los datos de audio codificados mediante un tipo de codificación correspondiente al segundo tipo 322 de información (por ejemplo, el flujo de bitios 323 AAC aplicado a TCX) .
Con respecto a esta descripción, la información incluida en un flujo de audio codificado por la presente invención se muestra de manera ejemplificante en los incisos (a) a (c) de la FIG. 3. y es aparente que son posibles varias aplicaciones dentro del rango de la presente invención. Por ejemplo, en la presente invención, los ejemplos de AMR y AAC se toman como ejemplos de los esquemas de codificación al agregar información para identificar los esquemas de codificación correspondientes. Además, varios esquemas de codificación son aplicables y la información de identificación de la codificación para identificar los varios esquemas de codificación también están disponibles de diversas maneras. Además, la presente invención mostrada en los incisos (a) a (c) de la FIG. 3 es aplicable a un super cuadro, un cuadro unitario y sub cuadros. Es decir, la presente invención puede proporcionar información del tipo de codificación de la señal por unidad de cuadro pre-configurada .
Como una etapa de pre-procesamiento de un proceso de codificación de una señal de entrada usando la unidad 110 de modelado por predicción lineal, la unidad 120 de modelo psicoacústico y la unidad 130 de modelado de señales mezcladas, se puede llevar a cabo un proceso de extensión de la banda de frecuencia (no se muestra en el dibujo) . Como ejemplo del proceso de extensión de la banda de frecuencia, se puede usar SBR (replicado de banda espectral) y HBE (extensión de banda alta) para generar un componente de alta frecuencia en una unidad de decodificación por extensión de ancho9 de banda usando un componente de baja frecuencia.
Como una etapa de pre-procesamiento de un proceso de codificación de una señal de entrada usando la unidad 110 de modelado por predicción lineal, la unida 120 de modelo psicoacústico, y la unidad 130 de modelado de señales mezcladas, se puede llevar a cabo un proceso de extensión del canal (no se muestra en el dibujo). El proceso de extensión del canal puede reducir el tamaño de asignación de bitios al codificar la información del canal de una señal de audio en la información secundaria. Por un ejemplo del proceso de extensión del canal, existe una unidad de extensión del canal tal como PS (estereofonía paramétrica) . En este caso, la estereofonía paramétrica es un esquema de codificación de una señal estereofónica en una manera en que se aplica mezclado descendente de una señal a una señal monoaural.
De acuerdo con una modalidad, si una señal estereofónica de 48 kHz se transfiere usando SBR y PS (estereofonía paramétrica) , a través de SBR/PS se obtiene una señal monoaural de 24 kHz. Esta señal monoaural puede ser codificada por un codificador. Por lo tanto, la señal de entrada del codificador tiene 24kHz. Esto ser debe a que un componente de alta frecuencia se codifica por SBE y se sub-muestrea a la mitad de una frecuencia previa. Por lo tanto, la señal de entrada se vuelve la señal monoaural. Esto se debe a que una señal estereofónica se extrae como un parámetro a través de PS (estereofonía paramétrica) para ser cambiada en una suma de la señal monoaural y un audio adicional.
Un proceso para codificar una señal de música usando una unidad de modelo psicoacustico se explica con referencia a los dibujos anexos, como sigue.
La FIG. 4 es un diagrama de bloques de un aparato de codificación de audio que usa un modelo psicoacústico de acuerdo con una modalidad de la presente invención.
Haciendo referencia a la FIG. 4, un aparato de codificación de audio que usa un moldeo psicoacústico de acuerdo con una modalidad de la presente invención incluye un banco 401 de filtros (banco de filtros de análisis), una unidad 402 de modelo psicoacústico, una unidad 403 de cuantificación y asignación de bitios, una unidad 404 de codificación de entropía y un multiplexor 405.
El banco 401 de filtros transforma una señal de audio a una señal en el eje de la frecuencia al realizar la MDCT (transformada de coseno discreto modificada) para codificar una señal de audio introducida que es una señal en el eje del tiempo .
La unidad 402 de modelo psicoacústico determina el tamaño de un ruido máximo permisible de cuantificación por-frecuencia, requerido para un proceso de asignación de bitios, al analizar una característica sensorial de una señal de audio introducida. El ruido máximo permisible de cuantificación por-frecuencia puede ser diagramado en una referencia de conformación del ruido. En particular, ya que la unidad 402 de modelo psicoacústico analiza una característica sensorial de una señal de entrada en un eje de la frecuencia, un proceso de transformación de la frecuencia para una señal de entrada es innecesario. Aunque se realice la transformación de la frecuencia por el banco 401 de filtros en un proceso de codificación de la señal de audio, ya que los resultados de prueba de la teoría psicoacústica se producen en su mayor parte sobre el eje DFT (Transformada Discreta de Fourier) , es preferible que se realice la FFT (Transformada Rápida de Fourier) . Después que se ha completado el proceso de transformación de la señal en el eje de la frecuencia, en la manera de arriba, se puede obtener una referencia de conformación del ruido en un modelo psicoacústico que por la convolución entre un espectro de frecuencia y una función de propagación correspondiente a cada componente de la frecuencia. Se cuantifica un espectro de la señal de audio al calcular la diferencia entre la eferencia de modelado del ruido obtenida por el modelo psicoacústico y el espectro de una señal de entrada en la entropía sensorial y después de asignan bitios de manera apropiada.
La unidad 403 de cuantificación cuantifica el objeto resultante generado a través de 'codificación por pérdida' para eliminar el tamaño del ruido de cuantificación asignado debajo de la referencia de conformación del ruido determinado por la unidad 402 de modelo psicoacustico en la señal de audio transformada en la señal en el eje de la frecuencia por el banco 401 de filtros. La unidad 403 de cuantificación también asigna bitios a la señal cuantificada . El proceso de asignación de bitios se optimiza en una manera tal que el ruido de cuantificación generado por el proceso de cuantificación se vuelve menor que el tamaño del ruido máximo permisible obtenido del modelo psicoacústico a una tasa de bitios dada.
La unidad 404 de codificación de entropía maximiza una relación de compresión de una señal de audio al asignar un código a la señal de audio cuantificada y con asignación de bitios por la unidad 403 de cuantificación de acuerdo con una frecuencia usada. En particular, la eficiencia de la compresión se maximiza al asignar un código de una manera la cual permite que una longitud promedio del código sea la más cercana a la entropía. El principio básico se basa en que un tamaño total de los datos se reduce al representar cada símbolo o símbolos consecutivos como un código de una longitud apropiada de acuerdo con una frecuencia estadística de aparición de los símbolos de datos. Un tamaño promedio de la información llamado ^entropía' se determina de acuerdo con la probabilidad de aparición de los símbolos de datos. Un objeto con una codificación de entropía permitiría que una longitud promedio del código por símbolo esté más cerca de la entropía.
El multiplexor 405 recibe los datos de audio comprimidos con alta eficiencia y la información secundaria desde la unidad 404 de codificación de entropía y después transfiere un flujo de datos de audio a un decodificador de un lado de recepción .
La FIG. 5 es un diagrama de bloques de un aparato de codificación de audio que usa un modelo psicoacústico de acuerdo con otra modalidad de la presente invención.
Haciendo referencia a la FIG. 5, un aparato de codificación de audio que usa un modelo psicoacústico de acuerdo con otra modalidad de la presente invención incluye un banco 501 de filtros (banco de filtros de análisis) , una unidad 502 de modelo psicoacústico, una unidad 503 de cuantificación y asignación de bitios, y una unidad 504 de codificación de entropía y un multiplexor 505. Específicamente, la unidad 502 de modelo psicoacústico incluye una unidad 502a de generación de coeficientes y una unidad 502b de determinación de la referencia de conformación del ruido .
Con el fin de de eliminar la redundancia estadística de una señal de audio, el banco 501 de filtros transforma una señal de audio a una muestra de sub-banda. El banco 501 de filtros transforma una señal de audio en una señal del eje de la frecuencia al realizar la MDCT (transformada de coseno discreto modificada) para codificar una señal de audio introducida que es una señal del eje del tiempo.
La unidad 502 del modelo psicoacústico determina el tamaño de un ruido de cuantificación máximo permisible por-frecuencia para un proceso de asignación de bitios, al analizar una característica sensorial de una señal de audio introducida. Por lo general, se realiza un proceso de cuantificación en el curso de la codificación de una señal de audio para convertir una señal analógica en una señal digital. En este proceso de cuantificación, el valor del error generado por el redondeado de un valor continuo se llama un ruido de cuantificación . Este ruido de cuantificación varía de acuerdo con la extensión de la asignación de bitios. Con el fin de expresar numéricamente el ruido de cuantificación, se usa una relación de señal a ruido de cuantificación (SQNR) . La relación de señal a ruido de cuantificación se expresa como '20 x N log 2 = 6.02 x N (dB) ' . En este caso, ??' indica el número de bitios asignados por muestra. El ruido máximo permisible de cuantificación por-frecuencia puede ser diagramado en una referencia de conformación del ruido. En consecuencia, si el valor de asignaron de bitios se eleva, el ruido de cuantificación se reduce y se eleva la probabilidad de que el ruido de cuantificación sea reducido por debajo de la regencia de conformación del ruido.
La unidad 502 del modelo psicoacústico incluye la unidad 502a de generación de coeficientes configurada para generar un coeficiente predictivo lineal al realizar un análisis predictivo lineal y para generar un coeficiente predictivo de conformación al aplicar un peso a al coeficiente predictivo lineal y la unidad 502b de referencia de conformación del ruido que usa el coeficiente predictivo de conformación generado. La referencia de conformación del ruido se genera usando un coeficiente predictivo de conformación generado por la codificación de ponderación sensorial para proporcionar un peso a un coeficiente predictivo lineal derivado a través de la codificación de predicción lineal.
La unidad 503 de cuantificación cuantifica un objeto resultante generado a través de codificación de pérdida' para eliminar el tamaño del ruido de cuantificación asignado por debajo de la referencia de conformación del ruido determinado por las unidad 502 del modelo psicoacústico en la señal de audio transformada en la señal del eje de la frecuencia por el banco 501 de filtros. La unidad 503 de cuantificación también asigna bitios a la señal cuantificada . El proceso de asignación de bitios se Otilia en manera tal que el ruido de cuantificación generado por el proceso de cuantificación se vuelve menor que el tamaño del ruido máximo permisible de una referencia de conformación del ruido reciente configurada en una tasa de bitios dada. En particular, los bitios de cuantificación del espectro MDCT se asignan para permitir que el ruido de cuantificación sea enmascarado por una señal basada en la referencia de conformación del ruido en cada cuadro. Por ejemplo, la señal de audio con transformación de la frecuencia se divide en una pluralidad de señales de sub-banda . Y, se puede cuantificar cada una de las señales se sub-banda usando la referencia de conformación del ruido basado en el coeficiente predictivo de conformación, correspondiente a cada una de las señales de sub-banda.
La unidad 504 de codificación de entropía maximiza la relación de compresión de una señal de audio al asignar un código a la señal de audio cuantificada y con bitios asignados por la unidad 403 de cuantificación de acuerdo con una frecuencia usada. En particular, la eficiencia de compresión se maximiza asignando un código de una manera la cual permite que la longitud promedio de un código sea la más cercana a la entropía. Es decir, el tamaño de los datos se optimiza de una manera en que se representa cada uno de los símbolos o símbolos consecutivos como un código de una longitud apropiada de acuerdo con una frecuencia estadística de aparición de los símbolos de datos. El tamaño promedio de la información llamado 'entropía' se determina de acuerdo con la probabilidad de aparición del símbolo de datos. Un objeto de codificación de entropía permitiría que una longitud promedio del código por símbolo esté más cerca de la entropía. Para realizar la codificación de entropía, la unidad 504 de codificación de entropía no está limitada por un método específico y puede adoptar la codificación de Fuman, codificación aritmética, codificación LZW, o los similares, de acuerdo con una selección realizada por aquellas personas con experiencia en la técnica.
El multiplexor 505 recibe los datos de audio comprimidos con alta eficiencia y la información secundaria de la unidad t04 de codificación de entropía y después transfiere un flujo de datos de audio a un decodificador del lado de recepción.
Entretanto, los datos de audio codificados mediante el método de codificación de audio de la presente invención pueden ser decodificados a través de un decodificador, de la siguiente manera.
Antes que nada, se recibe una señal de audio cuantificada a través de un desmultiplexor de un decodificador . Una señal de audio se reconstruye a partir de la señal de audio cuantificada. En este caso, la señal de audio cuantificada se genera usando una referencia de conformación de ruido para una señal de audio transformada por la frecuencia. Y, la referencia de conformación del ruido se puede determinar usando un coeficiente predictivo de conformación generado al aplicar un peso a un coeficiente predictivo lineal de la señal de audio.
La FIG. 6 es un diagrama de las variaciones de un valor de referencia modificado por el ruido que usa una unidad de modelo psicoacústico de acuerdo con otra modalidad de la presente invención.
Haciendo referencia a la FIG. 6, el eje horizontal indica la frecuencia y el eje vertical indica la intensidad de una señal (dB) . La línea sólida F indica un espectro de una señal de audio de entrada. La linea discontinua © indica la energía de una señal de audio de entrada. La línea sólida © indica la referencia previa de conformación del ruido. Y, la línea discontinua © indica la referencia de conformación del ruido recién generada usando un coeficiente predictivo lineal calculado por el análisis predictivo lineal y un coeficiente predictivo de conformación generado al aplicar un peso dado al coeficiente predictivo lineal.
Considerando una forma de onda de una señal de audio de entrada sobre una gráfica, un punto superior de una forma de onda se conoce como un formante y un punto inferior de la forma de onda se conoce como un valle. Por ejemplo, un punto A mostrado en la FIG. 6 se vuelve un formante y un punto B se vuelve un valle. En el caso de la codificación de voz, con base en el hecho de que las características audibles humanas son sensibles al ruido de cuantificación en una región valle de un espectro de frecuencias, un número de bitios relativamente más grande se asigna a la región valle en la codificación de señales de audio, para cancelar el ruido de cuantificación en la región valle. Y, el número de bitios relativamente menor se asigna a una región formante al aumentar una referencia de conformación del ruido de la región formante que tiene una energía relativamente mayor. Por lo tanto, se mantiene una relación de compresión y se puede implementar una calidad de sonido mejorada. En particular, la referencia de conformación del ruido del punto A se ajusta más alto que el de una previa y un valor de la curva de enmascaramiento del punto B se ajusta más bajo que el de uno relacionado. Por lo tanto, se puede elevar la eficiencia de codificación sobre una señal de voz. Es decir, en la etapa de cuantificación de una señal de audio transformada por frecuencia, el peso es aplicable en la dirección de aumento del ruido de cuantificación de una señal de audio correspondiente a una región formante de un espectro de frecuencia para un coeficiente predictivo lineal pero de reducción del ruido de cuantificación de la señal de audio correspondiente a una región valle.
Para esto, la unidad 502a de generación de coeficientes mostrado en la FIG. 5 puede encontrar una función de transferencia construida con coeficientes predictivos lineales a través de análisis predictivo lineal. Un espectro de frecuencia de esta función de transferencia se diagrama en una envoltura de un espectro de frecuencia para una señal de entrada. Esta función de transferencia se conoce como un coeficiente predictivo lineal, el cual muestra una forma similar a una referencia de conformación del ruido del modelo psicoacústico (PAM) usado por un proceso de codificación de audio de la técnica relacionada. Usando esta característica, se deriva la función de transferencia encontrada por la unidad 502a de generación de coeficientes, es decir, un coeficiente lineal. Al ajustar una referencia de conformación del ruido encontrada experimentalmente en la técnica relacionada con base en el coeficiente predictivo lineal, se puede atenuar el ruido de cuantificación de manera más eficiente, de acuerdo con una reducción de la tasa de bitios. Y, se puede reducir la cantidad de operaciones. Además, la unidad 502a de generación de coeficientes genera un coeficiente predictivo de conformación al implementar un filtro de ponderación de una manera en la cual se aplica un coeficiente de ponderación apropiado a los coeficientes predictivos lineales. Por lo tanto, se pueden ajustar los pesos sobre las regiones formante y valle de un espectro en una manera simple, usando el coeficiente predictivo de conformación.
Si este esquema de aplica a un proceso de codificación de audio, más bitios se asignan a una región valle de un espectro, en la cual, la influencia del ruido de cuantificación es sensible en lo referente al aspecto audible, al reducir la referencia de conformación del ruido y el número de bitios asignado a una región formante que tiene una influencia relativamente menor de los errores se reduce al elevar la referencia de conformación del ruido. Por lo tanto, se puede aumentar la eficiencia de codificación en el aspecto audible. Al hacerlo asi, la eficiencia de codificación se puede aumentar adicionalmente al ajustar de manera adaptativa un coeficiente de ponderación para ajusfar la ponderación sensorial de acuerdo con tal característica de la señal de entrada como la planicidad de un espectro, en lugar de aplicar idénticamente el coeficiente de ponderación. Por lo tanto, para mejorar una referencia de conformación del ruido usando la predicción lineal y el peso, es ventajoso que una referencia de conformación del ruido pueda ser derivada ala aplicar la ponderación sensorial a un modelo psicoacústico son el análisis de envoltura sobre un espectro.
La FIG. 7 es un diagrama de flujo para un método de generación de un valor de referencia modificada del ruido usando una unidad de modelo psicoacústico de acuerdo con otra modalidad de la presente invención.
Haciendo referencia a la FIG. 7, si se introduce una señal de audio a la unidad 502 de modelo psicoacústico, la unidad 502a de generación de coeficientes genera una función de transferencia construida con coeficientes predictivos lineales usando una codificación de predicción lineal [S200] .
Un espectro de frecuencia de la función de transferencia se diagrama como una envoltura de un espectro de frecuencia para una señal de entrada. Esta función se transferencia se llama un coeficiente predictivo lineal y tiene una forma similar a aquella de una referencia de conformación del ruido del modelo psicoacústico (PA ) usado por un proceso de codificación de audio de la técnica relacionada. La unidad 502a de generación de coeficientes recibe la entrada de la señal de audio y después determina un coeficiente de ponderación adecuado para los coeficientes predictivos lineales [S210] . Posteriormente, la unidad 502b de determinación de la referencia de conformación del ruido genera una envoltura corregida aplicando el coeficiente de ponderación determinado en la etapa S210 a la envoltura anterior de la función de transferencia construida con los coeficientes predictivos lineales encontrados en la etapa S200 [S220] . La unidad 502b de determinación de la referencia de conformación del ruido calcuela entonces una respuesta de impulso de la envoltura generada en la etapa S220 [S230] . En este caso, la respuesta del impulso juega un papel como un tipo de filtrado. La unidad 502b de determinación de la referencia de conformación del ruido transforma una señal del eje del tiempo a una señal del eje de la frecuencia al realizar el FFT sobre la envoltura filtrada en la etapa S230 [S240] . La unidad 502b de determinación de la referencia de conformación del ruido determina el nivel de enmascaramiento para configurar una referencia de conformación del ruido para la envoltura transformada en la señal del eje de la frecuencia [S250] . Finalmente, la unidad 502b de determinación de la referencia de conformación del ruido divide entonces una relación de señal a ruido (SMR) por sub-banda [S260] .
A través del proceso de arriba, se implementa un filtrado de ponderación al aplicar un coeficiente de ponderación a los coeficientes psicoacústicos . En comparación con la referencia de conformación del ruido de la técnica previa, un valor de una región formante de una referencia de conformación del ruido se eleva sobre un espectro de frecuencia y el valor de una región valle se reduce. Por lo tanto, se puede asignar un número mayor de bitios a la región valle relativamente.
Entretanto, se puede aumentar la eficiencia de codificación usando codificación predictiva lineal deformada (análisis LP deformado) en lugar de usar la codificación predictiva lineal (análisis predictivo lineal) en la etapa S200. En particular, la codificación predictiva linear deformada se realiza para reducir una tasa de datos en un codificador de audio de alta eficiencia en una manera que se comprime una señal mediante un esquema de codificación de audio principal para aplicar un modelo psicoacústico de la presente invención hasta una banda de baja frecuencia y aplicando extensión de ancho de banda o replicacion de banda espectral (SBR) para el resto de los componentes de alta frecuencia usando información de baja frecuencia. En el caso de este codificador de alta frecuencia, una referencia de conformación del ruido basada en el modelo psicoacústico es necesaria hasta una banda de baja frecuencia solamente. En caso de usar la codificación predictiva linea deformada, esta puede ser capaz de aumentar la eficiencia del modelado de envoltura al aumentar la resolución de frecuencia de una banda de frecuencia especifica.
El codificador de señales de audio mostrado en la FIG. 4 o la FIG. 5 se puede manejar en un dispositivo cargado con un codificador de señales de música y un codificador de señales de audio ambos. En el caso de que una característica de música sea dominante en un cuadro o segmento específico de una señal de mezclado descendente, el codificador de señales de audio codifica la señal de mezclado descendente de acuerdo con un esquema de codificación de música. En este caso, el codificador de señales de música puede corresponder a un codificador de transformada discreta modificada (MDCT) .
En caso de que una característica de voz sea dominante en un cuadro o segmento específico de una señal de mezclado descendente, el codificador de señales de audio codifica la señal de mezclado descendente de acuerdo con un esquema de codificación de voz. Entretanto, se puede mejorar un esquema de codificación predictivo lineal usado para un codificador de señales de voz en un esquema propuesto por la presente invención, en el caso de que una señal harmónica tenga alta redundancia en el eje del tiempo, esta se puede modelar por predicción lineal para predecir una señal actual a partir de una señal pasada. En este caso, se puede elevar la eficiencia de la codificación si se aplica un esquema de codificación predictiva lineal. Entretanto, el codificador de señales de voz puede corresponder a un codificador del dominio del tiempo.
La FIG. 8 es un diagrama de bloques de un aparato de decodificación de audio de acuerdo con una modalidad de la presente invención.
Haciendo referencia a la FIG. 8, un aparato de decodificación es capaz de reconstruir una señal a partir de un flujo de bitios introducido al realizar un proceso inverso al proceso de decodificación realizado por el aparato de codificación descrito con referencia a la FIG. 1. en particular, el aparato de decodificación puede incluir un desmultiplexor 210, una unidad 220 de determinación del decodificador, una unidad 230 de decodificación y una unidad 240 de sintetizado. La unidad 230 de decodificación puede incluir una pluralidad de unidades 231, 232, y 233 de decodificación para realizar la decodificación mediante diferentes esquemas, respectivamente. Y, estos se manejan bajo el control de la unidad 220 de determinación del decodificador . Más particularmente, la unidad 230 de decodificación puede incluir una unidad 231 de decodificación de predicción lineal, una unidad 232 de decodificación psicoacústica y una unidad 233 de decodificación de señales mezcladas. Además, la unidad 233 de decodificación de señales mezcladas puede incluir una unidad 234 de extracción de información, una unidad 235 de transformación de frecuencias y una unidad 236 de predicción lineal.
El desmultiplexor 210 extrae una pluralidad de señales codificadas y la información secundaria de un flujo de bitios introducido. En este caso, la información secundaria se extrae para reconstruir las señales. El desmultiplexor 210 extrae la información secundaria, la cual se incluye en el flujo de bitios, por ejemplo, el primer tipo de información y el segundo tipo de información (incluida solo si es necesario) y después transfiere la información secundaria extraída a la unidad 220 de determinación del decodificador .
La unidad 220 de determinación del decodificador determina uno de los esquemas de decodificación dentro de las unidades 231, 232 y 233 de decodificación, a partir del primer tipo de información recibida y la información de segundo tipo recibida (incluida solo si es necesario) . Aunque la unidad 220 de determinación del decodificador puede determinar el esquema de decodificación usando la información secundaria extraída del flujo de bitios, si la información secundaria no existe dentro del flujo de bitios, la unidad 220 de determinación del decodificador puede determinar el esquema mediante un método de determinación independiente. Este método de determinación puede ser realizado en una manera que utiliza las características de la unidad de clasificación de señales citado anteriormente (véase ?100' en la FIG. 1) .
El decodificador 231 de predicción lineal dentro de la unidad 230 de decodificación puede decodificar un tipo de señal de voz de una señal de audio. El decodificador 233 psicoacústico decodifica un tipo de señal de música de una señal de audio, y, el decodificador 233 de señales mezcladas decodifica un tipo de señal mezclada de voz y música de una señal de audio. En particular, el decodificador 233 de señales mezcladas incluye una unidad 234 de extracción de información que extrae los datos espectrales y el coeficiente predictivo lineal de una señal de audio, una unidad 235 de transformación de frecuencias que genera una señal residual para la predicción lineal por transformación inversa de los datos espectrales, y una unidad 236 de predicción lineal que genera una señal de salida realizando la codificación predictiva lineal sobre el coeficiente predictivo lineal y la señal residual .
Las señales decodificadas se reconstruyen en la señal de audio original al ser sintetizadas juntas por la unidad 240 de sintetizado .
En la siguiente descripción se explica en detalle un método de decodificación de acuerdo con la presente invención, de acuerdo con un diagrama de flujo mostrado en la FIG. 11.
Antes que nada, el desmultiplexor 210 extrae el primer tipo de información y el segundo tipo de información (si es necesario) a partir de un flujo de bitios introducido. La unidad 220 de determinación del decodificador determina el tipo de codificación de una señal de audio recibida, usando el primer tipo de información de la información en el primer lugar [S1000]. Si se recibe una señal de música, se utiliza la unidad 232 de decodificación psicoacustica dentro de la unidad 230 de decodificación. Un esquema de codificación aplicado por cuado o sub-cuadro, se determinad de acuerdo con el primer tipo de información. La decodificación se realiza entonces aplicando un esquema de codificación adecuado [S1100] .
Si se determina que un tipo de codificación de la señal de audio recibida no es un tipo de codificación de señal de música, usando el primer tipo de información, la unidad 220 de determinación del decodificador determina si el tipo de codificación del la señal de audio recibida es un tipo de codificación de señal de voz o un tipo de codificación de señal mezclada, usando el segundo tipo de información [S1200] .
Si el segundo tipo de información denota el tipo de codificación de señal de voz, el esquema de codificación aplicado por cuadro o sub-cuadro se determina utilizando la información de identificación de codificación extraída del flujo de bitios en una manera que utiliza la unidad 231 de decodificación de predicción lineal dentro de la unidad 230 de decodificación. La decodificación se realiza entonces aplicando un esquema de codificación adecuado [S1300] .
Si el segundo tipo de información denota el tipo de codificación de señal mezclada, el esquema de codificación aplicado por cuadro o sub-cuadro se determina utilizando la información de identificación de codificación extraída del flujo de bitios, en una manera que utiliza la unidad 233 de decodificación de señales mezcladas dentro de la unidad 230 de decodificación. La decodificación se realiza entonces aplicando un esquema de codificación adecuado [S1400] .
Además, como un post-procesamiento del proceso de decodificación de al señal de audio usando la unidad 231 de decodificación de predicción lineal, la unidad 232 de decodificación psicoacustica y la unidad 233 de decodificación de señales mezcladas, una unidad de decodificación de extensión de banda de frecuencia realiza un proceso de extensión de banda de frecuencia [no se muestra en el dibujo] . El proceso de extensión de banda de frecuencia se realiza en la una manera en que la unidad de decodificación de extensión de ancho de banda genera datos espectrales de una banda diferente (por ejemplo, una banda de alta frecuencia) a partir de una porción de los datos espectrales o los datos espectrales completos al decodificar la información de extensión de ancho de banda incluidos en un flujo de bitios de la señal de audio. Al hacerlo asi, las unidades que tienen características similares pueden ser agrupadas en un bloque para extender la banda de frecuencia. Este es el mismo método para generar una región de envoltura al agrupar los tipos de franjas (o, muestras) que tienen una envoltura (o una característica de envoltura) común.
La FIG. 9 es un diagrama de una configuración de un producto implementado con un aparato de decodificación de audio de acuerdo con una modalidad de la presente invención. Y, la FIG. 10 es un diagrama de un ejemplo de las relaciones entre los productos implementados con un aparato de decodificación de audio de acuerdo con una modalidad de la presente invención.
Haciendo referencia a la FIG. 9, una unidad 910 de comunicación por cable/inalámbrica recibe un flujo de bitios a través de un sistema de comunicación por cable/inalámbrica. En particular, la unidad 910 de comunicación por cable/inalámbrica puede incluir al menos una de una unidad 910A de comunicación por · cable, una unidad 910B de comunicación IR (infrarroja) , una unidad 910C Bluetooth y una unidad 910D de comunicación LAN inalámbrica.
Una unidad 920 de autentificación de usuarios recibe una entrada de información del usuario y después realiza la autentificación del usuario. La unidad 920 de autentificación de usuarios puede incluir al menos una de una unidad 920A de reconocimiento de huellas digitales, una unidad 920B de reconocimiento de iris, una unidad 920C de reconocimiento de rostros, y una unidad 920D de reconocimiento de voz. La unidad 920 de autentificación de usuarios puede realizar la autentificación del usuario en una manera que introduce la información de la huella digital/iris/contorno del rostro/voz a la unidad de reconocimiento correspondiente 920A/920B/920C/920D, que convierte la información introducida en la información del usuario y que determina después si la información del usuario corresponde a los datos del usuario registrados previamente.
Una unidad 930 de entrada es un dispositivo de entrada para permitir que un usuario introduzca varios tipos de comandos. La unidad 930 de entrada puede incluir al menos uno de una unidad 930A de teclado numérico, una unidad 930B de almohadilla táctil y una unidad 930C de controlador remoto, a las cuales no se limita la presente invención. Una unidad 940 de decodificación de señales puede incluir un aparato 945 de decodificación de audio el cual puede ser el aparato de decodificación de audio descrito con referencia a la FIG. 8. el aparato 945 de decodificación de audio decide al menos uno de los diferentes esquemas y realiza la decodificación usando al menos una de la unidad de decodificación de predicción lineal, una unidad de decodificación psicoacústica y una unidad de decodificación de señales mezcladas. La unidad 940 de decodificación de señales transmite una señal de salida al decodificar una señal usando una unidad de decodificación correspondiente a la característica de la señal.
Una unidad 950 de control recibe las señales de entrada de los dispositivos de entrada y controla todos los procesos de la unidad 940 de decodificación de señales y una unidad 960 de salida. Y, la unidad 960 de salida es un elemento para transmitir la señal de salida generada por la unidad 940 de decodificación de señales o las similares. La unidad 960 de salida puede incluir una unidad 960A de altavoz y una unidad 960B de pantalla. Si una señal de salida es una señal de audio esta se puede transmitir a un altavoz. Si una señal de salida es una señal de video, esta se transmite vía una pantalla.
La FIG. 10 muestra las relaciones entra una terminal y un servidor correspondientes a los productos mostrados en la FIG. 9. Haciendo referencia al inciso (A) de la FIG. 10, se puede observar que una primera terminal 1001 y una segunda terminal 1002, son capaces de comunicarse de manera bidireccional entre si vía una unidad de comunicación por cable/inalámbrica para intercambiar datos y/o flujos de bitios. Haciendo referencia al inciso (B) de la FIG. 10, se puede observar que un servidor 1003 y una primera terminal 1001 son capaces de realizar comunicaciones por cable/inalámbricas .
Un método de procesamiento de señales de audio de acuerdo con la presente invención puede ser implementado en un programa para ser corrido en una computadora y puede ser almacenado en un medio de registro legible por computadora. Y, los datos multimedios que tienen una estructura de datos de acuerdo con la presente invención pueden ser almacenados también en un medio de registro legible por computadora. Los medios legibles por computadora incluyen todfos los tipos de dispositivos de registro en los cuales se almacenan los datos legibles por un sistema computarizado . Los medios legibles por computadora incluyen ROM, RAM, CD-ROM, cintas magnéticas, discos flexibles, dispositivos ópticos de almacenamiento de datos, y los similares, por ejemplo, y también incluyen implementaciones de tipo portadores de ondas (por ejemplo, Internet por medio de transmisiones) . Además, un flujo de bitios generado por el método de codificación se almacena en un medio de registro legible por computadora o puede ser transmitido vía la red de comunicación por cable/inalámbrica.
Por consiguiente, la presente invención proporciona los siguientes efectos y ventajas.
Antes que nada, la presente invención clasifica las señales de audio en dos diferentes tipos y proporciona un esquema de codificación de audio adecuado para las características de las señales de audio clasificadas, permitiendo con ello una compresión y reconstrucción más eficientes de una señal de audio.
Aunque la presente invención ha sido descrita de ilustrada aquí con referencia a las modalidades preferidas de la misma, será aparente para aquellas personas con experiencia en la técnica que se puede hacer varias modificaciones y variaciones en las mismas sin apartarse del espíritu y el ámbito de la invención. Por lo tanto, se pretende que la presente invención cubra las modificaciones y variaciones de esta invención que están dentro del ámbito de las reivindicaciones anexas y sus equivalentes.

Claims (15)

REIVINDICACIONES
1. En un aparato de procesamiento de señales de audio que incluye un decodificador de audio, un método para el procesamiento de una señal de audio que comprende las etapas de : identificar si un tipo de codificación de la señal de audio es un tipo de codificación de señal de música, usando el primer tipo de información; si el tipo de codificación de la señal de audio no es el tipo de codificación de señal de música, identificar si el tipo de codificación de la señal de audio es un tipo de codificación de señal de voz o un tipo de codificación de señal mezclada usando el segundo tipo de información; si el tipo de codificación de la señal de audio es el tipo de codificación de señal mezclada, extraer los datos espectrales y un coeficiente predictivo lineal de la señal de audio; generar una señal residual para la predicción lineal al realizar una conversión de frecuencia inversa sobre los datos espectrales; y reconstruir la señal de audio al realizar la codificación de predicción lineal sobre el coeficiente predictivo lineal y la señal residual, en donde, si el tipo de codificación de la señal de audio es el tipo de codificación de señal de música, se usa solamente el primer tipo de información y en donde, si el tipo de codificación de la señal de audio es el tipo de codificación de señal de voz o el tipo de codificación de señal mezclada, se usa tanto el primer tipo de información y el segundo tipo de información.
2. El método de la reivindicación 1, caracterizado porque, comprende además las etapas de: si el tipo de codificación de la señal de audio es el tipo de codificación de señal mezclada, reconstruir una señal de banda de alta frecuencia usando una señal de banda de baja frecuencia de la señal de audio reconstruida; y generar una pluralidad de canales aplicando mezclado ascendente a la señal de audio reconstruida.
3. El método de la reivindicación 1, caracterizado porque, la señal de audio incluye una pluralidad de sub-cuadros y en donde el segundo tipo de información existe por una unidad el sub-cuadro.
4. El método de la reivindicación 1, caracterizado porque, si el tipo de codificación de la señal de audio es el tipo de codificación de señal de música, la señal de audio comprende una señal del dominio de frecuencia, en donde si el tipo de codificación de la señal de audio es el tipo de codificación de señal de voz, la señal de audio comprende una señal del domino del tiempo, y en donde, si el tipo de codificación de la señal de audio es el tipo de codificación de señal mezclada, la señal de audio comprende una señal del dominio de MDCT .
5. El método de la reivindicación 1, caracterizado porque, la etapa de extracción del coeficiente predictivo lineal comprende las etapas de: extraer un modo del coeficiente predictivo lineal; y extraer el coeficiente predictivo lineal que tenga un tamaño de bitios variable correspondiente al modo del coeficiente predictivo lineal extraído.
6. Un aparato para el procesamiento de una señal de audio, caracterizado porque comprende: un desmultiplexor que extrae el primer tipo de información y el segundo tipo de información del flujo de bitios ; una unidad de determinación del decodificador que identifica si un tipo de codificación de la señal de audio es un tipo de codificación de señal de música usando el primer tipo de información, el decodificador, si el tipo de la señal de audio no es el tipo de codificación de señal de música, que identifica si el tipo de codificación de la señal de audio es un tipo de codificación de señal de voz o un tipo de codificación de señal mezclada usando el segundo tipo de información, el decodificador que determina después un esquema de decodificación; una unidad de extracción de información, si el tipo de codificación de la señal de audio es el tipo de codificación de señal mezclada, que extrae los datos espectrales y un coeficiente predictivo lineal de la señal de audio; una unidad de transformación de frecuencia que genera una señal residual para la predicción lineal al realizar la conversión inversa de frecuencia sobre los datos espectrales; y una unidad de predicción lineal que reconstruye la señal de audio al realizar la codificación de predicción lineal sobre el coeficiente predictivo lineal y la señal residual, en donde, si el tipo de codificación de la señal de audio es el tipo de codificación de señal de música, se usa solamente el primer tipo de información, y en donde, si el tipo de codificación de la señal de audio es el tipo de codificación de señal de voz o el tipo de codificación de señal mezclada, se usa tanto el primer tipo de información y el segundo tipo de información.
7. El aparato de la reivindicación 6, caracterizado porque comprende además: una unidad de decodificación de extensión de ancho de banda, si el tipo de codificación de la señal de audio es el tipo de codificación se señal mezclada, reconstruir una señal de banda de alta frecuencia usando una señal de banda de baja frecuencia de la señal de audio reconstruida; y una unidad de decodificación de extensión del canal que genera una pluralidad de canales aplicando mezclado ascendente a la señal de audio reconstruida.
8. El aparato de la reivindicación 6, caracterizado porque, la señal de audio incluye una pluralidad de sub-cuadros y en donde el segundo tipo de información existe por una unidad del sub-cuadro.
9. El aparato de la reivindicación 6, caracterizado porque, si el tipo de codificación de la señal de audio es el tipo de codificación de señal de música la señal de audio comprende una señal de dominio de la frecuencia, en donde si el tipo de codificación de la señal de audio es el tipo de codificación de señal de voz, la señal de audio comprende una señal del dominio del tiempo, y en donde si el tipo de codificación de la señal de audio es el tipo de codificación de señal mezclada la señal de audio comprende una señal del dominio de MDCT .
10. El aparato de la reivindicación 6, caracterizado porque, la unidad de extracción de información que extrae el coeficiente predictivo lineal verifica un modo del coeficiente predictivo lineal y después extrae el coeficiente predictivo lineal que tiene un tamaño de bitios variable correspondiente al modo del coeficiente predictivo lineal extraído.
11. En un aparato de procesamiento de señales de audio que incluye un codificador de audio para el procesamiento de una señal de audio, un método para el procesamiento de la señal de audio, que comprende las etapas de: determinar un tipo de codificación de la señal de audio; si la señal de audio es una señal de música, generar el primer tipo de información que indica que la señal de audio está codificada en un tipo de codificación de señal de música; si la señal de audio no es la señal de música, generar la información del segundo tipo que indica que la señal de audio está codificada ya sea en un tipo de codificación de señal de voz o un tipo de codificación de señal mezclada; si el tipo de codificación de la señal de audio es el tipo de codificación de señal mezclada, generar un coeficiente predictivo lineal al realizar la codificación de predicción lineal sobre la señal de audio; generar una señal residual por la codificación de predicción lineal; generar un coeficiente espectral por transformación de la frecuencia de la señal residual; y generar un flujo de bitios de audio que incluye el primer tipo de información, el segundo tipo de información, el coeficiente predictivo lineal y la señal residual, en donde, si el tipo de codificación de la señal de audio es el tipo de codificación de señal de música, se genera solamente el primer tipo de información y en donde si el tipo de codificación de la señal de audio es ya sea el tipo de codificación de señal de voz o el tipo de codificación de señal mezclada, se genera tanto el primer tipo de información como el segundo tipo de información.
12. El método de la reivindicación 11, caracterizado porque, la señal de audio incluye una pluralidad de sub-cuadros y en donde el segundo tipo de información se genera por el sub-cuadro.
13. Un aparato para procesar la señal de audio, caracterizado porque comprende: una unidad de clasificación de señales que determina un tipo de codificación de la señal de audio, la unidad de clasificación de la señal de audio, si la señal de audio es una señal de música, que genera el primer tipo de información que indica que la señal de audio está codificada en un tipo de codificación de señal de música, la unidad de clasificación de señales, si la señal de audio no es la señal de música, que genera el segundo tipo de información que indica que la señal de audio está codificada ya sea en un tipo de codificación de señal de voz o un tipo de codificación de señal mezclada; una unidad de modelado de predicción lineal, si el tipo de codificación de la señal de audio es el tipo de codificación de señal mezclada, que genera un coeficiente predictivo lineal al realizar la codificación de predicción linear sobre la señal de audio; una unidad de extracción de señales residuales que genera una señal residual para la codificación de predicción lineal; y una unidad de transformación de frecuencia que genera un coeficiente espectral por transformación de la frecuencia de la señal residual, en donde, si el tipo de codificación de la señal de audio es el tipo de codificación de señal de música, se genera solamente el primer tipo de información y en donde si el tipo de codificación de la señal de audio es el tipo de codificación de señal de voz o el tipo de codificación de señal mezclada, se genera tanto el primer tipo de información y el segundo tipo de información.
14. El aparato de la reivindicación 13, caracterizado porque, la señal de audio incluye una pluralidad de sub-cuadros y en donde el segundo tipo de información se genera por cada sub-cuadro.
15. El aparato de la reivindicación 13, caracterizado porque, comprende: una unidad de generación de coeficientes, si el tipo de codificación de la señal de audio es la codificación de señal de música, que genera el coeficiente predictivo lineal usando la codificación de predicción lineal, la unidad de generación de coeficientes que proporciona un peso al coeficiente predictivo lineal; y una unidad de determinación de referencias que genera una referencia de conformación del ruido usando el coeficiente predictivo lineal al que se proporciona un peso.
MX2010009571A 2008-03-03 2009-03-03 Metodo y aparato para el procesamiento de señales de audio. MX2010009571A (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US3303208P 2008-03-03 2008-03-03
PCT/KR2009/001050 WO2009110738A2 (ko) 2008-03-03 2009-03-03 오디오 신호 처리 방법 및 장치

Publications (1)

Publication Number Publication Date
MX2010009571A true MX2010009571A (es) 2011-05-30

Family

ID=41056471

Family Applications (1)

Application Number Title Priority Date Filing Date
MX2010009571A MX2010009571A (es) 2008-03-03 2009-03-03 Metodo y aparato para el procesamiento de señales de audio.

Country Status (11)

Country Link
US (1) US7991621B2 (es)
EP (1) EP2259253B1 (es)
JP (1) JP5266341B2 (es)
KR (1) KR101221919B1 (es)
CN (1) CN101965612B (es)
AU (1) AU2009220321B2 (es)
BR (1) BRPI0910285B1 (es)
CA (1) CA2716817C (es)
MX (1) MX2010009571A (es)
RU (1) RU2455709C2 (es)
WO (1) WO2009110738A2 (es)

Families Citing this family (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101434198B1 (ko) * 2006-11-17 2014-08-26 삼성전자주식회사 신호 복호화 방법
US9343079B2 (en) * 2007-06-15 2016-05-17 Alon Konchitsky Receiver intelligibility enhancement system
KR101380170B1 (ko) * 2007-08-31 2014-04-02 삼성전자주식회사 미디어 신호 인코딩/디코딩 방법 및 장치
ES2464722T3 (es) * 2008-03-04 2014-06-03 Lg Electronics Inc. Método y aparato para procesar una señal de audio
CA2715432C (en) * 2008-03-05 2016-08-16 Voiceage Corporation System and method for enhancing a decoded tonal sound signal
CN101567203B (zh) * 2008-04-24 2013-06-05 深圳富泰宏精密工业有限公司 自动搜寻及播放音乐的系统及方法
EP2301028B1 (en) * 2008-07-11 2012-12-05 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. An apparatus and a method for calculating a number of spectral envelopes
WO2010003545A1 (en) * 2008-07-11 2010-01-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e. V. An apparatus and a method for decoding an encoded audio signal
KR101569702B1 (ko) * 2009-08-17 2015-11-17 삼성전자주식회사 레지듀얼 신호 인코딩 및 디코딩 방법 및 장치
EP2481048B1 (en) * 2009-09-25 2017-10-25 Nokia Technologies Oy Audio coding
JP5754899B2 (ja) 2009-10-07 2015-07-29 ソニー株式会社 復号装置および方法、並びにプログラム
CA2778368C (en) 2009-10-20 2016-01-26 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Audio encoder, audio decoder, method for encoding an audio information, method for decoding an audio information and computer program using an iterative interval size reduction
MY153845A (en) 2010-01-12 2015-03-31 Fraunhofer Ges Forschung Audio encoder, audio decoder, method for encoding and audio information, method for decoding an audio information and computer program using a hash table describing both significant state values and interval boundaries
KR102011793B1 (ko) * 2010-04-09 2019-08-19 돌비 인터네셔널 에이비 Mdct-기반의 복소수 예측 스테레오 코딩
JP5609737B2 (ja) 2010-04-13 2014-10-22 ソニー株式会社 信号処理装置および方法、符号化装置および方法、復号装置および方法、並びにプログラム
JP5850216B2 (ja) 2010-04-13 2016-02-03 ソニー株式会社 信号処理装置および方法、符号化装置および方法、復号装置および方法、並びにプログラム
JP6075743B2 (ja) 2010-08-03 2017-02-08 ソニー株式会社 信号処理装置および方法、並びにプログラム
JP5707842B2 (ja) 2010-10-15 2015-04-30 ソニー株式会社 符号化装置および方法、復号装置および方法、並びにプログラム
US20130066638A1 (en) * 2011-09-09 2013-03-14 Qnx Software Systems Limited Echo Cancelling-Codec
WO2013043393A1 (en) * 2011-09-23 2013-03-28 Digimarc Corporation Context-based smartphone sensor logic
CN103889335B (zh) * 2011-10-28 2016-06-22 皇家飞利浦有限公司 用于处理针对听诊的心音的设备与方法
LT2774145T (lt) * 2011-11-03 2020-09-25 Voiceage Evs Llc Nekalbinio turinio gerinimas mažos spartos celp dekoderiui
US9111531B2 (en) * 2012-01-13 2015-08-18 Qualcomm Incorporated Multiple coding mode signal classification
WO2013141638A1 (ko) 2012-03-21 2013-09-26 삼성전자 주식회사 대역폭 확장을 위한 고주파수 부호화/복호화 방법 및 장치
US9123328B2 (en) * 2012-09-26 2015-09-01 Google Technology Holdings LLC Apparatus and method for audio frame loss recovery
KR102446441B1 (ko) * 2012-11-13 2022-09-22 삼성전자주식회사 부호화 모드 결정방법 및 장치, 오디오 부호화방법 및 장치와, 오디오 복호화방법 및 장치
MX347080B (es) * 2013-01-29 2017-04-11 Fraunhofer Ges Forschung Llenado con ruido sin informacion secundaria para celp (para codificadores tipo celp).
PT3070713T (pt) * 2013-01-29 2018-04-24 Fraunhofer Ges Forschung Codificador de áudio, descodificador de áudio, método para fornecer uma informação de áudio codificada, método para fornecer uma informação de áudio descodificada, programa de computador e representação codificada utilizando uma extensão da largura de banda adaptável ao sinal
US9601125B2 (en) * 2013-02-08 2017-03-21 Qualcomm Incorporated Systems and methods of performing noise modulation and gain adjustment
US9311640B2 (en) 2014-02-11 2016-04-12 Digimarc Corporation Methods and arrangements for smartphone payments and transactions
US9854377B2 (en) 2013-05-29 2017-12-26 Qualcomm Incorporated Interpolation for decomposed representations of a sound field
RU2665279C2 (ru) 2013-06-21 2018-08-28 Фраунхофер-Гезелльшафт Цур Фердерунг Дер Ангевандтен Форшунг Е.Ф. Устройство и способ, реализующие улучшенные концепции для tcx ltp
EP2830058A1 (en) 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Frequency-domain audio coding supporting transform length switching
CN103413553B (zh) * 2013-08-20 2016-03-09 腾讯科技(深圳)有限公司 音频编码方法、音频解码方法、编码端、解码端和系统
US9666202B2 (en) * 2013-09-10 2017-05-30 Huawei Technologies Co., Ltd. Adaptive bandwidth extension and apparatus for the same
JP6531649B2 (ja) 2013-09-19 2019-06-19 ソニー株式会社 符号化装置および方法、復号化装置および方法、並びにプログラム
CN103500580B (zh) * 2013-09-23 2017-04-12 广东威创视讯科技股份有限公司 混音处理方法及系统
CN105723452B (zh) 2013-10-18 2020-01-31 弗劳恩霍夫应用研究促进协会 音频信号的频谱的频谱系数的解码方法及解码器
CA2934602C (en) 2013-12-27 2022-08-30 Sony Corporation Decoding apparatus and method, and program
KR102354331B1 (ko) * 2014-02-24 2022-01-21 삼성전자주식회사 신호 분류 방법 및 장치, 및 이를 이용한 오디오 부호화방법 및 장치
CN111312277B (zh) 2014-03-03 2023-08-15 三星电子株式会社 用于带宽扩展的高频解码的方法及设备
WO2015133795A1 (ko) * 2014-03-03 2015-09-11 삼성전자 주식회사 대역폭 확장을 위한 고주파 복호화 방법 및 장치
EP2922054A1 (en) 2014-03-19 2015-09-23 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus, method and corresponding computer program for generating an error concealment signal using an adaptive noise estimation
EP2922055A1 (en) 2014-03-19 2015-09-23 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus, method and corresponding computer program for generating an error concealment signal using individual replacement LPC representations for individual codebook information
EP2922056A1 (en) 2014-03-19 2015-09-23 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus, method and corresponding computer program for generating an error concealment signal using power compensation
EP3125242B1 (en) * 2014-03-24 2018-07-11 Nippon Telegraph and Telephone Corporation Encoding method, encoder, program and recording medium
KR20240046298A (ko) 2014-03-24 2024-04-08 삼성전자주식회사 고대역 부호화방법 및 장치와 고대역 복호화 방법 및 장치
CN105096958B (zh) * 2014-04-29 2017-04-12 华为技术有限公司 音频编码方法及相关装置
US10770087B2 (en) 2014-05-16 2020-09-08 Qualcomm Incorporated Selecting codebooks for coding vectors decomposed from higher-order ambisonic audio signals
JP6398607B2 (ja) * 2014-10-24 2018-10-03 富士通株式会社 オーディオ符号化装置、オーディオ符号化方法、オーディオ符号化プログラム
WO2016142002A1 (en) * 2015-03-09 2016-09-15 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Audio encoder, audio decoder, method for encoding an audio signal and method for decoding an encoded audio signal
CN105070304B (zh) * 2015-08-11 2018-09-04 小米科技有限责任公司 实现对象音频录音的方法及装置、电子设备
KR102398124B1 (ko) * 2015-08-11 2022-05-17 삼성전자주식회사 음향 데이터의 적응적 처리
US10186276B2 (en) * 2015-09-25 2019-01-22 Qualcomm Incorporated Adaptive noise suppression for super wideband music
JP6876924B2 (ja) * 2015-12-08 2021-05-26 ソニーグループ株式会社 送信装置、送信方法、受信装置および受信方法
US10991379B2 (en) * 2018-06-22 2021-04-27 Babblelabs Llc Data driven audio enhancement
FR3085785B1 (fr) * 2018-09-07 2021-05-14 Gracenote Inc Procedes et appareil pour generer une empreinte numerique d'un signal audio par voie de normalisation
KR20220017221A (ko) * 2020-08-04 2022-02-11 삼성전자주식회사 전자 장치 및 그의 오디오 데이터를 출력하는 방법

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE2952113C2 (de) * 1979-12-22 1983-05-19 Matth. Hohner Ag, 7218 Trossingen String-Chorus-Schaltung
US4628529A (en) * 1985-07-01 1986-12-09 Motorola, Inc. Noise suppression system
DE4202140A1 (de) * 1992-01-27 1993-07-29 Thomson Brandt Gmbh Verfahren zur uebertragung digitaler audio-signale
US5285498A (en) * 1992-03-02 1994-02-08 At&T Bell Laboratories Method and apparatus for coding audio signals based on perceptual model
US5692102A (en) * 1995-10-26 1997-11-25 Motorola, Inc. Method device and system for an efficient noise injection process for low bitrate audio compression
JP3707116B2 (ja) * 1995-10-26 2005-10-19 ソニー株式会社 音声復号化方法及び装置
US5778335A (en) * 1996-02-26 1998-07-07 The Regents Of The University Of California Method and apparatus for efficient multiband celp wideband speech and music coding and decoding
US6092041A (en) * 1996-08-22 2000-07-18 Motorola, Inc. System and method of encoding and decoding a layered bitstream by re-applying psychoacoustic analysis in the decoder
JPH1084284A (ja) * 1996-09-06 1998-03-31 Sony Corp 信号再生方法および装置
CA2233896C (en) * 1997-04-09 2002-11-19 Kazunori Ozawa Signal coding system
ES2247741T3 (es) * 1998-01-22 2006-03-01 Deutsche Telekom Ag Metodo para conmutacion controlada por señales entre esquemas de codificacion de audio.
US6424938B1 (en) * 1998-11-23 2002-07-23 Telefonaktiebolaget L M Ericsson Complex signal activity detection for improved speech/noise classification of an audio signal
SG98418A1 (en) * 2000-07-10 2003-09-19 Cyberinc Pte Ltd A method, a device and a system for compressing a musical and voice signal
US6658383B2 (en) * 2001-06-26 2003-12-02 Microsoft Corporation Method for coding speech and music signals
EP1688917A1 (en) * 2003-12-26 2006-08-09 Matsushita Electric Industries Co. Ltd. Voice/musical sound encoding device and voice/musical sound encoding method
FI118835B (fi) * 2004-02-23 2008-03-31 Nokia Corp Koodausmallin valinta
US7596486B2 (en) * 2004-05-19 2009-09-29 Nokia Corporation Encoding an audio signal using different audio coder modes
US7813380B2 (en) * 2005-10-05 2010-10-12 Lg Electronics Inc. Method of processing a signal and apparatus for processing a signal
CN101086845B (zh) * 2006-06-08 2011-06-01 北京天籁传音数字技术有限公司 声音编码装置及方法以及声音解码装置及方法
EP2062255B1 (en) * 2006-09-13 2010-03-31 Telefonaktiebolaget LM Ericsson (PUBL) Methods and arrangements for a speech/audio sender and receiver
KR20070017378A (ko) * 2006-11-16 2007-02-09 노키아 코포레이션 서로 다른 코딩 모델들을 통한 오디오 인코딩
CN101025918B (zh) * 2007-01-19 2011-06-29 清华大学 一种语音/音乐双模编解码无缝切换方法
KR101513028B1 (ko) * 2007-07-02 2015-04-17 엘지전자 주식회사 방송 수신기 및 방송신호 처리방법

Also Published As

Publication number Publication date
BRPI0910285A2 (pt) 2015-09-29
RU2455709C2 (ru) 2012-07-10
WO2009110738A2 (ko) 2009-09-11
KR101221919B1 (ko) 2013-01-15
AU2009220321A1 (en) 2009-09-11
EP2259253A4 (en) 2013-02-20
EP2259253A2 (en) 2010-12-08
JP2011513788A (ja) 2011-04-28
KR20100134576A (ko) 2010-12-23
BRPI0910285B1 (pt) 2020-05-12
US7991621B2 (en) 2011-08-02
CA2716817A1 (en) 2009-09-11
EP2259253B1 (en) 2017-11-15
RU2010140362A (ru) 2012-04-10
WO2009110738A3 (ko) 2009-10-29
CN101965612B (zh) 2012-08-29
CN101965612A (zh) 2011-02-02
AU2009220321B2 (en) 2011-09-22
JP5266341B2 (ja) 2013-08-21
CA2716817C (en) 2014-04-22
US20100070284A1 (en) 2010-03-18

Similar Documents

Publication Publication Date Title
EP2259253B1 (en) Method and apparatus for processing audio signal
AU2009220341B2 (en) Method and apparatus for processing an audio signal
US8972270B2 (en) Method and an apparatus for processing an audio signal
US9117458B2 (en) Apparatus for processing an audio signal and method thereof
KR102299193B1 (ko) 상부 주파수 대역에서 검출된 피크 스펙트럼 영역을 고려하여 오디오 신호를 부호화하는 오디오 인코더, 오디오 신호를 부호화하는 방법, 및 컴퓨터 프로그램
CN102089817A (zh) 用于计算频谱包络数目的装置与方法
KR102105044B1 (ko) 낮은 레이트의 씨이엘피 디코더의 비 음성 콘텐츠의 개선
IL201469A (en) Formulation of a temporary envelope for spatial drilling using WIENER DOMAIN filter for frequency
MX2008016163A (es) Codificador de audio, decodificador de audio y procesador de audio con caracteristicas de warping variable de manera dinamica.
JP4021124B2 (ja) デジタル音響信号符号化装置、方法及び記録媒体
CN107077855A (zh) 信号编码方法和装置以及信号解码方法和装置
WO2024051412A1 (zh) 语音编码、解码方法、装置、计算机设备和存储介质
KR101108955B1 (ko) 오디오 신호 처리 방법 및 장치
CN105122358B (zh) 用于处理编码信号的装置和方法与用于产生编码信号的编码器和方法
CN116114016A (zh) 音频量化器和音频去量化器以及相关方法
TWI841856B (zh) 音頻量化器和音頻去量化器及相關方法以及電腦程式
CN117751405A (zh) 用于去除不期望的听觉粗糙度的装置和方法

Legal Events

Date Code Title Description
FG Grant or registration
GB Transfer or rights