ES2203101T3 - Procedimiento y aparato para procesar informacion de audio utilizando bloques de alineamiento en tiempo de audio codificado en aplicaciones de video/audio para facilitar la conmutacion de audio. - Google Patents

Procedimiento y aparato para procesar informacion de audio utilizando bloques de alineamiento en tiempo de audio codificado en aplicaciones de video/audio para facilitar la conmutacion de audio.

Info

Publication number
ES2203101T3
ES2203101T3 ES99913844T ES99913844T ES2203101T3 ES 2203101 T3 ES2203101 T3 ES 2203101T3 ES 99913844 T ES99913844 T ES 99913844T ES 99913844 T ES99913844 T ES 99913844T ES 2203101 T3 ES2203101 T3 ES 2203101T3
Authority
ES
Spain
Prior art keywords
audio
video
information
blocks
audio information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
ES99913844T
Other languages
English (en)
Inventor
Craig Campbell Todd
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dolby Laboratories Licensing Corp
Original Assignee
Dolby Laboratories Licensing Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dolby Laboratories Licensing Corp filed Critical Dolby Laboratories Licensing Corp
Application granted granted Critical
Publication of ES2203101T3 publication Critical patent/ES2203101T3/es
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23602Multiplexing isochronously with the video sync, e.g. according to bit-parallel or bit-serial interface formats, as SDI
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/233Processing of audio elementary streams
    • H04N21/2335Processing of audio elementary streams involving reformatting operations of audio signals, e.g. by converting from one coding standard to another
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23614Multiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2368Multiplexing of audio and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/242Synchronization processes, e.g. processing of PCR [Program Clock References]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4341Demultiplexing of audio and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4342Demultiplexing isochronously with video sync, e.g. according to bit-parallel or bit-serial interface formats, as SDI
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/434Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
    • H04N21/4348Demultiplexing of additional data and video streams

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Television Signal Processing For Recording (AREA)
  • Television Systems (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Time-Division Multiplex Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

Un método para procesar información de audio que comprende: - recibir una señal de audio de entrada que transporta dicha información de audio - recibir referencias de tramas de vídeo que indican las referencias de tiempo de una secuencia de tramas de vídeo, - generar bloques de información de audio codificada a partir de dicha información de audio en un formato de velocidad binaria reducida mediante la aplicación de un proceso de codificación de bloques a dicha señal de audio de entrada y la compresión en el tiempo de dichos bloques de información de audio codificada, y - juntar dichos bloques comprimidos en el tiempo en un tren de audio codificado que comprende una pluralidad de secuencias de dichos bloques comprimidos en el tiempo de forma que un bloque inicial de una secuencia determinada esté separado de un bloque final de una secuencia anterior por una separación que está alineada en el tiempo con una respectiva referencia de trama de vídeo.

Description

Procedimiento y aparato para procesar información de audio utilizando bloques de alineamiento en tiempo de audio codificado en aplicaciones de vídeo/audio para facilitar la conmutación de audio.
Campo de la invención
La presente invención se refiere en general a procesamiento de señales de audio en aplicaciones de vídeo/audio. Más en concreto, la presente invención se refiere a métodos de codificación de bloques para codificar secuencias de bloques de información de audio separados por bandas de guarda o separaciones de forma que las variaciones normales en los retardos en el procesamiento de las señales no rompa el alineamiento de la información de vídeo y de audio.
Antecedentes de la invención
Se han desarrollado varios estándares internacionales que definen diversos aspectos de la incorporación de información digital de audio en tramas de información de vídeo. Por ejemplo, el estándar SMPTE 259M publicado por la Society of Motion Picture and Televisión Engineers (SMPTE) define una SDI (Serial Digital Interface, interfaz digital serie) en la que pueden incorporarse hasta cuatro canales de información digital de audio en las señales digitales componentes y compuestas de vídeo en serie. El estándar SMPTE 272M proporciona una definición completa de cómo ha de incorporarse la información digital de audio en espacios de datos auxiliares dentro de las tramas de la información de vídeo.
La propia transmisión en serie de la información digital de audio es el objeto de diversos estándares internacionales. Por ejemplo, el estándar AES3 (ANSI S4.40), publicado por la Audio Engineering Society (AES), define la transmisión en serie de las señales digitales de audio de dos canales representadas en un formato PCM (Pulse Code Modulation, modulación por impulsos codificados) lineal. De acuerdo con este estándar, las muestras PCM de dos canales se intercalan y se transportan en pares.
Una actividad común en casi todas las aplicaciones de radiodifusión y grabación es la edición o corte de trenes de información con vídeo/audio incorporado y la unión de los trenes de información cortados para formar un nuevo tren único. Actividades similares generan un tren de información mediante la mezcla de múltiples trenes de información o mediante la conmutación entre varios trenes. La información de vídeo es normalmente la referencia principal de sincronización, de forma que un punto de edición o de corte se alinea, normalmente, con una trama de vídeo.
Estándares tales como AES11 definen prácticas recomendadas para sincronizar equipos digitales de audio en operaciones en estudio. El estándar AES11 se dirige a controlar las incertidumbres de temporización producidas por la inestabilidad de fase o por retardos en el procesamiento y proporciona medios para alinear la información de las tramas de vídeo con las tramas de dos muestras de los trenes de información digital de audio AES3. Los equipos y métodos que cumplen este estándar pueden asegurar que señales sincronizadas tienen el mismo número de tramas en un periodo de tiempo dado y contienen muestras que tienen una temporización común. Desafortunadamente, no existen actualmente estándares o prácticas que definan un alineamiento entre la información de vídeo e intervalos mayores de información de audio. Como resultado, equipos procedentes de diferentes fabricantes, e incluso del mismo fabricante, tienen variaciones en la temporización y en los retardos de procesamiento que introducen un importante nivel de incertidumbre en el alineamiento relativo de la información de vídeo y de audio.
Esta incertidumbre en el alineamiento tiene pequeñas consecuencias en aplicaciones que utilizan representaciones lineales de la información de audio, tales como las definidas en el estándar AES3. Debido a que los puntos de edición solamente pueden producirse entre las tramas de dos muestras de la información de audio, cualquier incertidumbre en el alineamiento del audio y del vídeo no dará como resultado la pérdida de información de audio. Solamente afectará a la temporización relativa del sonido y de la imagen que se presentan a una persona, que es improbable que se aprecie.
Sin embargo, existe un número creciente de aplicaciones que utilizan técnicas de codificación de reducción de la velocidad de transmisión binaria para incorporar mayor número de canales de audio en un tren de datos de vídeo/audio. Estas técnicas de codificación se aplican a menudo a bloques de muestras de 128 o más muestras de audio para generar bloques de información codificada. Estos bloques de muestras representan, típicamente, información de audio que abarca un intervalo de 3 a 12 ms. Cada bloque de información codificada generada por estos procesos de codificación representa la mínima unidad de información de la que puede recuperarse una réplica razonablemente exacta de un segmento de la información de audio original. Las técnicas de codificación de bandas divididas reducen la velocidad de transmisión binaria mediante la aplicación a las representaciones de las sub-bandas de frecuencias de una señal de audio de una codificación basada en la psicoacústica. Las representaciones de las sub-bandas de frecuencias pueden generarse mediante la aplicación de una pluralidad de filtros pasabanda o una o más transformadas. Para facilitar la descripción, estas técnicas de codificación de bandas divididas se describen aquí suponiendo la aplicación de un banco de filtros para generar las señales de las sub-bandas.
La incertidumbre en el alineamiento mencionado anteriormente es importante en estas aplicaciones de codificación de bloques porque un punto de edición que caiga dentro de los límites de un bloque codificado dará como resultado el que parte de dicho bloque sea separado del resto de la señal. La pérdida parcial de un bloque codificado se manifestará en una pérdida en la señal recuperada de una duración típicamente de 3 ms o mayor. Es probable que una pérdida de este tipo sea perceptible por el sistema auditivo humano.
Este problema puede evitarse utilizando un proceso de post-procesamiento en el que se recupera una representación PCM de las señales de audio originales al aplicar un proceso de decodificación a la señal codificada, editar la representación PCM recuperada de la forma necesaria, y generar una nueva representación codificada mediante la aplicación de un proceso de codificación a la información de audio PCM editada. Esta solución no es atractiva debido a los costes adicionales y a la degradación en la calidad del audio que se produce por los procesos de decodificación/nueva codificación. Además, por razones que se entenderán mejor tras la lectura de la descripción realizada a continuación, el post-procesamiento no es atractivo porque los procesos de decodificación/nueva codificación introducen retardos adicionales en el tren de información de audio.
Descripción de la invención
Es un objeto de la presente invención el proporcionar medios para el procesamiento de trenes de información de vídeo/audio incorporado que permitan actividades como edición y conmutación evitando los problemas anteriormente mencionados.
De acuerdo con las enseñanzas de un aspecto de la presente invención, un método recibe una señal de audio de entrada que transporta información de audio, recibe referencias de tramas de vídeo que indican las referencias de tiempo de una secuencia de tramas de vídeo, genera bloques de información de audio codificada a partir de la información de audio en un formato de velocidad de transmisión binaria reducida mediante la aplicación de un proceso de codificación de bloques a la señal de audio de entrada y la comprensión en el tiempo de los bloques de información de audio codificada, y junta los bloques comprimidos en el tiempo en un tren de audio codificado que comprende una pluralidad de secuencias de los bloques comprimidos en el tiempo de forma que un bloque inicial de una secuencia determinada esté separado de un bloque final de una secuencia anterior por una separación que está alineada en el tiempo con una respectiva referencia de trama de vídeo.
Las diversas características de la presente invención y sus realizaciones preferidas pueden entenderse mejor con referencia a la siguiente descripción y a los dibujos que la acompañan en los que idénticas referencias numéricas se refieren a elementos idénticos en las diversas figuras. El contenido de la siguiente descripción y los dibujos se muestran solamente como ejemplos y no deben entenderse como limitaciones del alcance de la presente invención.
Breve descripción de los dibujos
La figura 1 es un diagrama de bloques funcionales de una realización de un sistema de grabación y de encaminamiento de múltiples trenes de datos de vídeo/audio.
Las figuras 2A a 2C son representaciones gráficas de señales de audio hipotéticas que tienen diversos alineamientos con referencias de tramas de vídeo.
La figura 3 es un diagrama de bloques funcionales de una realización de un dispositivo para procesar señales de vídeo con información de audio incorporada.
La figura 4 es un diagrama de bloques funcionales de una realización de un procesador de señales de audio codificadas de acuerdo con diversos aspectos de la presente invención.
Las figuras 5A a 5C son representaciones gráficas de señales de audio hipotéticas procesadas de acuerdo con la presente invención y que tienen diversos alineamientos con referencias de tramas de vídeo.
La figura 6 es una representación esquemática gráfica de bloques de información de audio que se solapan pesados por funciones ventana.
Modos de llevar a la práctica la invención Visión general de un sistema
La figura 1 muestra una realización de un sistema de grabación y de encaminamiento de múltiples trenes de datos de vídeo/audio y representa un ejemplo de un sistema que puede emplear ventajosamente aspectos de la presente invención. Por claridad, esta figura, así como todas las demás figuras, no muestra los caminos de señal para transportar las señales del reloj maestro utilizadas para sincronizar el equipo. En esta descripción se asume que señales como las generadas en los caminos 21, 22, 23 y 24 cumplen los estándares SMPTE 259M y SMPTE 272M; sin embargo, no se necesita ningún estándar o formato de señal concreto para llevar a la práctica la presente invención. Por ejemplo, en una realización alternativa del sistema, señales separadas transportando cada una respectiva información de vídeo y de audio se generan en los caminos 21 a 24 y el router 31 incluye circuitería para encaminar de forma separada información de vídeo y de audio. En tal realización, un desinsertador SDI se interpone entre el insertador SDI 12 y el router 31. Esta realización alternativa se menciona aquí para mostrar que no es obligatorio ningún formato de señal concreto para llevar a la práctica la presente invención.
El vídeo 16 recibe información de vídeo por el camino 1 e información de audio por el camino 2 y graba esta información de vídeo/audio en una cinta magnética. Posteriormente, el vídeo 16 lee la información de vídeo/audio grabada en la cinta magnética y genera en el camino 21 una señal de reproducción que transporta la información de vídeo con información de audio incorporada. De una manera similar, el vídeo 17 graba la información de vídeo recibida por los caminos 3 y 4, respectivamente, y posteriormente genera en el camino 22 una señal de reproducción que transporta la información de vídeo con información de audio incorporada.
Los vídeos 16, 17 y 18 incluyen circuitos, tales como un insertador SDI (Serial Digital Interface, interfaz digital serie) para incorporar información de audio en la información de vídeo durante la reproducción.
El insertador SDI 11 recibe información de vídeo y de audio por los caminos 5 y 6, respectivamente, y genera en el camino 14 una señal que transporta información digital de vídeo con información digital de audio incorporada. El vídeo 18, que incluye circuitos, tal como un desinsertador SDI, extrae la información de audio de la señal de datos de vídeo/audio y graba en cinta magnética la información de vídeo y de audio de forma separada. Posteriormente, el vídeo 18 recupera la información de vídeo y de audio de la cinta magnética y utiliza circuitos, tal como un insertador SDI, para generar en el camino 23 una señal de reproducción que transporta la información de vídeo con el audio incorporado. Sin embargo, si el vídeo 18 es sustituido por un grabador de datos digital no se requiere en el equipo grabador ni insertador ni desinsertador ya que el propio tren de datos de vídeo/audio puede ser grabado y reproducido.
El insertador SDI 12 recibe información de vídeo y de audio por los caminos 7 y 8, y genera en el camino 24 una señal que transporta información digital de vídeo que incorpora información digital de audio.
El router SDI 31 recibe señales de vídeo/audio por los caminos 21, 22, 23 y 24 y encamina o conmuta selectivamente estas señales al camino 34 hacia el dispositivo de grabación/reproducción 41. El número de señales recibidas por el router SDI 31 no es importante. El dispositivo de grabación/reproducción 41 representa un dispositivo arbitrario que utiliza la señal que pasa por el camino 34. Por ejemplo, puede ser un dispositivo de grabación, tal como un vídeo, o un dispositivo de reproducción, tal como un aparato de televisión. Además, el dispositivo de grabación/reproducción 41 puede estar situado remotamente con respecto al insertador SDI 31, en cuyo caso el camino 34 representa un canal de comunicaciones o de teledifusión.
Desplazamientos en el alineamiento entre vídeo y audio
Los retardos de los circuitos en los vídeos 16, 17, 18 y en los insertadores SDI 11 y 12 pueden alterar el alineamiento relativo de las informaciones de vídeo y de audio. Como resultado, el alineamiento de la información de vídeo/audio en la señal de reproducción 21, por ejemplo, puede estar desplazado con respecto al alineamiento entre las informaciones de vídeo y de audio recibidas por los caminos 1 y 2, respectivamente. El valor del cambio en el alineamiento varía entre equipos de diferentes fabricantes, puede variar entre diferentes equipos procedentes del mismo fabricante, e incluso puede variar dentro de un equipo dado en función, por ejemplo, del estado de inicialización de las memorias intermedias.
Con referencia a la figura 2A, la señal 111 representa una información de audio que tiene un alineamiento concreto con las referencias de tramas de vídeo 101 y 102. Cada una de estas referencias de tramas de vídeo indica un punto de referencia concreto en una respectiva trama de vídeo. Por ejemplo, un punto de referencia común para información de vídeo en el sistema NTSC coincide con la información de vídeo para la línea 10 de cada trama. Un punto de referencia común para información de vídeo en el sistema PAL coincide con la línea 1 de cada trama. Ningún alineamiento concreto es crítico para llevar a la práctica la presente invención.
En la figura 2B, la señal 121 representa la misma información de audio que la transportada por la señal 111 pero retrasada con respecto a la señal 111. Como resultado, el alineamiento entre la señal 121 y las referencias de tramas de vídeo está desplazado con respecto al alineamiento para la señal 111. En la figura 2C, la señal 131 representa la misma información de audio que la transportada por la señal 111 pero adelantada con respecto a la señal 111; por consiguiente, el alineamiento entre la señal 131 y las referencias de las tramas de vídeo está desplazado de una manera opuesta al desplazamiento en el alineamiento de la señal 121.
Con referencia a la figura 1, supongamos que la información de audio y el alineamiento representado en la figura 2A se transporta por los caminos 1/2, 3/4, 5/6 y 7/8. Diferentes desplazamientos en el alineamiento, como los mostrados en las figuras 2A a 2C, existirán probablemente en las señales generadas en los caminos 21 a 24. Supongamos además que los alineamientos mostrados en las figuras 2A a 2C existen en las señales generadas en los caminos 21 a 23, respectivamente. Cuando el router SDI 31 conmuta entre señales recibidas de estos tres caminos se producirá una pequeña discontinuidad en la información de audio introducida en la señal que pasa por el camino 34. Si la información de audio se representa en una forma lineal, tal como PCM, esta discontinuidad probablemente no pueda ser percibida por un oyente humano porque la discontinuidad es solamente de unas pocas muestras. El discernir una discontinuidad entre dos señales que tienen diferente contenido de audio sería especialmente difícil.
Efectos de la codificación
Sin embargo, como se explicó anteriormente, existe un interés creciente en introducir mayor número de canales de audio en un tren de datos de vídeo/audio. Cuando la capacidad de información en este mayor número de canales de audio excede la capacidad del espacio disponible para la información de audio, se emplea alguna forma de compresión del ancho de banda o de la velocidad de transmisión binaria. Un ejemplo de una compresión de este tipo es la codificación de audio basada en principios psicoacústicos.
Estas técnicas de codificación se aplican a menudo a bloques de muestras de audio para generar bloques de información codificada. Estos bloques de muestras representan, típicamente, información de audio que cubre un intervalo de 3 a 12 ms. Cada bloque de información codificada generada por estos procesos de codificación representa la menor unidad de información de la que puede recuperarse una réplica razonablemente exacta de un segmento de la información de audio original.
En la figura 2A se representa una secuencia de bloques de información codificada 112 como un tren de impulsos. La información transportada por estos bloques es una representación codificada de la información de audio de la señal 111. La forma y el tamaño de los impulsos no es importante. El tren de impulsos sólo intenta sugerir una secuencia de bloques que transportan información codificada correspondiente a bloques de muestras de audio que pueden estar contiguos unos a otros o, preferiblemente, solaparse unos con otros. En el ejemplo mostrado en la figura 2A, la información de audio que abarca el intervalo entre referencias de tramas de vídeo adyacentes se representa por seis bloques de información codificada. Diversas consideraciones para mejorar la calidad de la codificación de audio en aplicaciones de vídeo/audio se describen en la patente WO-A 99/21187.
Cuando se utilizan técnicas de codificación de bloques en el sistema de la figura 1, las señales que el router SDI 31 recibe de los caminos 21 a 24 contienen información de audio codificada en bloques. Como se comentó anteriormente, pueden ocurrir desplazamientos variables en el alineamiento entre los bloques de información codificada y las referencias de las tramas de vídeo. Esto se demuestra por los diferentes alineamientos entre la referencia 101 de la trama de vídeo, por ejemplo, y los bloques 112, 122 y 132 mostrados en las figuras 2A, 2B y 2C, respectivamente. Supongamos, como se comentó anteriormente, que los alineamientos mostrados en las figuras 2A a 2C existen en las señales generadas en los caminos 21 a 23, respectivamente. Cuando el router SDI 31 conmuta en la referencia 101 de la trama de vídeo desde la señal recibida por el camino 22, mostrada en la figura 2B, a la señal recibida por el camino 23, mostrada en la figura 2C, una parte importante de la información de audio en el punto de conmutación no puede recuperarse de la señal encaminada por el camino 23. La información de audio transportada en el bloque 123 anterior al punto de conmutación no puede recuperarse porque, por una parte, se necesita el bloque completo para recuperar la información de audio pero, por otra parte, se ha perdido la parte de dicho bloque posterior al punto de conmutación. De forma similar, la información de audio transportada por el bloque 133 posterior al punto de conmutación no puede recuperarse porque se ha perdido la parte del bloque 133 anterior al punto de conmutación.
Este problema no existe sólo en el tipo de sistema mostrado en la figura 1. Por ejemplo, el problema también se produce con ediciones de cintas magnéticas o doblado de audio con un único vídeo.
Como se explicará más en detalle después, la presente invención resuelve este problema formando bandas de guarda o separaciones en el tren de audio codificado de forma que pueden tolerarse variaciones considerables en el alineamiento del vídeo/audio sin pérdida de información de audio.
Procesador de señal codificada
La figura 3 muestra un procesador de señal de vídeo/audio que puede incorporarse de diversas formas en un sistema tal como el mostrado en la figura 1. En la realización mostrada, una pluralidad de señales que transportan información de vídeo con información de audio incorporada se reciben procedentes de los caminos de señal de entrada 61-1, 61-2 y 61-3. En la figura se muestran tres caminos de señal de entrada; sin embargo, realizaciones de la presente invención pueden tener caminos de señal para esencialmente cualquier número de señales de entrada. El distribuidor de señales 62 representa una amplia gama de procesos de distribución de señales incluyendo conmutación, mezcla, edición, empalme y almacenamiento/recuperación. Por simplicidad, el dibujo y la descripción en este documento asumen que el distribuidor de señales 62 recibe una pluralidad de señales de vídeo/audio y procesa y/o distribuye dichas señales de alguna manera para generar en el camino 63 una señal única que transporta información de vídeo con información de audio incorporada. El desformateador 64 recibe la información de vídeo/audio por el camino 63, extrae la información de audio incorporada y la pasa al camino 65. La información de vídeo puede pasarse al camino 69. El procesador de señales de audio 66 recibe información de audio por el camino 65 y aplica un proceso de codificación de bloques a la información de audio para generar en el camino 67 bloques de información codificada. El formateador 68 recibe los bloques de información codificada por el camino 67 y genera en el camino 70 una señal de salida que comprende una pluralidad de secuencias de bloques de información codificada con bandas de guarda o separaciones entre un bloque inicial de una secuencia y un bloque final de una secuencia anterior. Utilizando una señal de referencia, tal como una señal del reloj maestro, la banda de guarda o separación se alinea en el tiempo con la información de vídeo.
Como se mencionó anteriormente, las figuras no muestran los caminos de señal para transportar las señales del reloj maestro utilizadas para sincronizar el equipo. En una realización preferida, el procesador de señales de audio 66 forma bloques de muestras de audio que están alineadas con la señal del reloj maestro. Este alineamiento se muestra en la figura 2A en la que los límites entre bloques adyacentes de muestras coinciden con las referencias de tramas de vídeo 101 y 102; no obstante, pueden utilizarse otros alineamientos.
Con referencia a la figura 5A, la secuencia de bloques 112-2 transporta información codificada que representa el segmento de señal 111-2, que es una representación hipotética comprimida en el tiempo de la parte de la señal 111 entre las referencias de tramas de vídeo 101 y 102. De forma similar, la secuencia de bloques 112-1 transporta información codificada que representa el segmento de señal 111-1 y la secuencia de bloques 112-3 transporta información codificada que representa el segmento de señal 111-3. El procesador de señales de audio 66 y el formateador 68 generan secuencias de bloques que transportan una representación codificada de la información de audio en la que, por ejemplo, se ha formado una banda de guarda o separación entre el bloque final de la secuencia 112-1 y el bloque inicial de la secuencia 112-2.
Los desplazamientos en el alineamiento mostrados en las figuras 2A a 2C se muestran también en las figuras 5A a 5C. En estas figuras, la información codificada de las secuencias 122-1, 122-2, 122-3, 132-1, 132-2 y 132-3 transporta información codificada que representa los segmentos de señal 121-1, 121-2, 121-3, 131-1, 131-2 y 131-3, respectivamente. Como puede verse en las figuras 5B y 5C, no se produce pérdida de información de audio como consecuencia de desplazamientos en el alineamiento porque los puntos potenciales de conmutación en las referencias de tramas de vídeo 101 y 102 caen dentro de una banda de guarda.
El procesador de señales mostrado en la figura 3 puede incorporarse, por ejemplo, en un router SDI para procesar señales de vídeo que contienen incorporada información de audio PCM ó AES3. Una realización que no contenga el distribuidor de señales 62 puede incorporarse en un vídeo o insertador SDI. Otra realización que no contenga el desformateador 64 puede incorporarse en un vídeo o en los circuitos de entrada de un insertador SDI.
La figura 4 muestra una realización de un procesador de señales de audio codificadas que es adecuado para su incorporación en la realización mostrada en la figura 3 y que tiene también utilidad de forma independiente, como se explicará después. De acuerdo con esta realización, el procesador de señales de audio 66 comprende una pluralidad de bancos de filtros 71, 72 y 73. El banco de filtros 71 genera una pluralidad de señales de sub-bandas de frecuencias en los caminos 75-1 a 75-3 en respuesta a la señal recibida por el camino 65-1. El banco de filtros 72 genera una pluralidad de señales de sub-bandas de frecuencias en los caminos 76-1 a 76-3 en respuesta a la señal recibida por el camino 65-2. El banco de filtros 73 genera una pluralidad de señales de sub-bandas de frecuencias en los caminos 77-1 a 77-3 en respuesta a la señal recibida por el camino 65-3. Los bancos de filtros 71, 72 y 73 pueden implementarse de diversas formas incluyendo un banco de filtros pasabanda, un conjunto de filtros con división de banda en serie, y una o más transformadas del dominio del tiempo al dominio de la frecuencia. Solamente se muestran tres bancos de filtros y para cada banco de filtros solamente se muestran tres señales de sub-bandas; no obstante, una realización puede incluir muchos más bancos de filtros que generen cada uno veinticuatro o más señales de sub-bandas, representando cada una sub-bandas de frecuencias que tienen anchuras de banda que corresponden a o menores que las anchuras de banda críticas del sistema auditivo humano. El codificador 79 aplica un proceso de codificación de bloques a las señales de las sub-bandas y genera en el camino 67 una secuencia de bloques que representa, de forma codificada, la información de audio recibida por los caminos 65-1, 65-2 y 65-3.
La codificación de bandas divididas no es esencial para llevar a la práctica la presente invención. Pueden utilizarse otras formas de codificación tales como PCM o modulación delta comprimida-expandida en cada bloque.
En una realización práctica, un procesador de señal de audio codificada recibe ocho canales de información de audio en formato PCM lineal o, alternativamente, cuatro trenes de datos AES3, y utiliza ocho bancos de filtros y un codificador que aplica un proceso de codificación de bloques para generar bloques de información codificada con bandas de guarda que pueden transportarse en un espacio o anchura de banda no mayor que la necesaria para transportar dos canales de información de audio en formato PCM lineal o, alternativamente, un tren de datos AES3.
Bloques que se solapan y funciones ventana
El tren de impulsos utilizado en las figuras para representar bloques de información sugiere que los bloques adyacentes se tocan pero no se solapan unos con otros. Aunque no es crítica ninguna disposición concreta de los bloques para llevar a la práctica la presente invención, las realizaciones preferidas procesan bloques que se solapan unos con otros. En general, los bloques solapados de información de audio se pesan o modulan mediante una función ventana de forma que la suma de las muestras solapadas en bloques adyacentes sea sustancialmente igual a una constante.
La figura 6 muestra una secuencia de bloques. El bloque inicial 141 de la secuencia solapa al bloque adyacente 142. Todos los bloques de la secuencia se representan mediante una envolvente que tiene la forma de una función ventana utilizada para pesar la correspondiente información de audio en el dominio del tiempo. El bloque final 146 de la secuencia solapa el bloque anterior y un bloque posterior no mostrado en la figura. El nivel de solapamiento y la elección de la función ventana pueden tener efectos importantes en el rendimiento de la codificación, pero ninguna función ventana o nivel de solapamiento concreto es crítico para la presente invención. En realizaciones preferidas, el nivel de solapamiento es igual a la mitad de la longitud del bloque y la función ventana se deriva de la función de Kaiser-Bessel.
Como se explicó anteriormente, el procesador de señales de audio 66 genera información de audio que está alineada con las referencias de las tramas de vídeo. En realizaciones que generan secuencias de bloques de información de audio, el alineamiento puede ser tal que una referencia de trama de vídeo sea coincidente con básicamente cualquier punto de cualquier bloque de la secuencia. En el ejemplo mostrado en la figura 6, el comienzo del bloque inicial 141 coincide con la referencia de la trama de vídeo 100.
En algunas aplicaciones, el punto exacto de coincidencia puede variar de trama de vídeo a trama de vídeo. Por ejemplo, en aplicaciones que combinan información digital de audio con información de vídeo del sistema NTSC, las sucesivas tramas de vídeo pueden tener números variables de muestras de audio debido a que la velocidad de muestreo de audio no es un múltiplo entero de la frecuencia de la trama de vídeo.
Diversas consideraciones sobre longitud del bloque, función ventana y alineamiento del vídeo/audio se describen en la patente WO-A 99/21187, ya referenciada.

Claims (12)

1. Un método para procesar información de audio que comprende:
- recibir una señal de audio de entrada que transporta dicha información de audio
- recibir referencias de tramas de vídeo que indican las referencias de tiempo de una secuencia de tramas de vídeo,
- generar bloques de información de audio codificada a partir de dicha información de audio en un formato de velocidad binaria reducida mediante la aplicación de un proceso de codificación de bloques a dicha señal de audio de entrada y la compresión en el tiempo de dichos bloques de información de audio codificada, y
- juntar dichos bloques comprimidos en el tiempo en un tren de audio codificado que comprende una pluralidad de secuencias de dichos bloques comprimidos en el tiempo de forma que un bloque inicial de una secuencia determinada esté separado de un bloque final de una secuencia anterior por una separación que está alineada en el tiempo con una respectiva referencia de trama de vídeo.
2. Un método de acuerdo con la reivindicación 1, en el que dicho proceso de codificación de bloques codifica dicha información de audio en un formato que contiene menos redundancia y/o menos irrelevancia perceptiva.
3. Un método de acuerdo con la reivindicación 2 en el que dicho proceso de codificación de bloques comprende:
- aplicar un banco de filtros pasabanda o una o más transformadas a dicha señal de audio de entrada para generar una pluralidad de representaciones de sub- bandas de frecuencias de dicha señal de audio de entrada, y
- generar dichos bloques de información de audio codificada mediante la asignación adaptativa de bits a dichas representaciones de sub-bandas de frecuencias de acuerdo con principios psicoacústicos.
4. Un método de acuerdo con una cualquiera de las reivindicaciones 1 a 3, en el que dichas tramas de vídeo comprenden información de vídeo organizada en una pluralidad de líneas de vídeo y cada una de dichas separaciones tiene una duración mayor que la de tres líneas de vídeo.
5. Un método de acuerdo con una cualquiera de las reivindicaciones 1 a 3, en el que cada una de dichas tramas de vídeo tiene una duración igual a un intervalo de trama y la duración de dichas separaciones está dentro de un margen comprendido entre alrededor del uno por ciento de dicho intervalo de trama y alrededor del veinte por ciento de dicho intervalo de trama.
6. Un método de acuerdo con una cualquiera de las reivindicaciones 1 a 5 que aplica dicho proceso de codificación de bloques a bloques de dicha información de audio que se solapan.
7. Un aparato para procesar información de audio que comprende:
- medios para recibir una señal de audio de entrada que transporta dicha información de audio,
- medios para recibir referencias de tramas de vídeo que indican las referencias de tiempo de una secuencia de tramas de vídeo,
- medios para generar bloques de información de audio codificada a partir de dicha información de audio en un formato de velocidad binaria reducida mediante la aplicación de un proceso de codificación de bloques a dicha señal de audio de entrada y la compresión en el tiempo de dichos bloques de información de audio codificada, y
- medios para juntar dichos bloques comprimidos en el tiempo en un tren de audio codificado que comprende una pluralidad de secuencias de dichos bloques comprimidos en el tiempo de forma que un bloque inicial de una secuencia determinada esté separado de un bloque final de una secuencia anterior por una separación que está alineada en el tiempo con una respectiva referencia de trama de vídeo.
8. Un aparato de acuerdo con la reivindicación 7, en el que dicho proceso de codificación de bloques codifica dicha información de audio en un formato que contiene menos redundancia y/o menos irrelevancia perceptiva.
9. Un aparato de acuerdo con la reivindicación 8, en el que dicho proceso de codificación de bloques comprende:
- medios para aplicar un banco de filtros pasabanda o una o más transformadas a dicha señal de audio de entrada para generar una pluralidad de representaciones de sub-bandas de frecuencias de dicha señal de audio de entrada, y
- medios para generar dichos bloques de información de audio codificada mediante la asignación adaptativa de bits a dichas representaciones de sub- bandas de frecuencias de acuerdo con principios psicoacústicos.
10. Un aparato de acuerdo con una cualquiera de las reivindicaciones 7 a 9, en el que dichas tramas de vídeo comprenden información de vídeo organizada en una pluralidad de líneas de vídeo y cada una de dichas separaciones tiene una duración mayor que la de tres líneas de vídeo.
11. Un aparato de acuerdo con una cualquiera de las reivindicaciones 7 a 9, en el que cada una de dichas tramas de vídeo tiene una duración igual a un intervalo de trama y la duración de dichas separaciones está dentro de un margen comprendido entre alrededor del uno por ciento de dicho intervalo de trama y alrededor del veinte por ciento de dicho intervalo de trama.
12. Un aparato de acuerdo con una cualquiera de las reivindicaciones 7 a 11, en el que los medios para generar dichos bloques de información de audio codificada aplican dicho proceso de codificación de bloques a bloques de dicha información de audio que se solapan.
ES99913844T 1998-03-13 1999-03-11 Procedimiento y aparato para procesar informacion de audio utilizando bloques de alineamiento en tiempo de audio codificado en aplicaciones de video/audio para facilitar la conmutacion de audio. Expired - Lifetime ES2203101T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US42367 1998-03-13
US09/042,367 US6085163A (en) 1998-03-13 1998-03-13 Using time-aligned blocks of encoded audio in video/audio applications to facilitate audio switching

Publications (1)

Publication Number Publication Date
ES2203101T3 true ES2203101T3 (es) 2004-04-01

Family

ID=21921528

Family Applications (1)

Application Number Title Priority Date Filing Date
ES99913844T Expired - Lifetime ES2203101T3 (es) 1998-03-13 1999-03-11 Procedimiento y aparato para procesar informacion de audio utilizando bloques de alineamiento en tiempo de audio codificado en aplicaciones de video/audio para facilitar la conmutacion de audio.

Country Status (17)

Country Link
US (1) US6085163A (es)
EP (1) EP1062816B1 (es)
JP (1) JP4402834B2 (es)
KR (1) KR100675562B1 (es)
CN (1) CN1172536C (es)
AR (2) AR014716A1 (es)
AT (1) ATE247363T1 (es)
AU (1) AU760400B2 (es)
BR (1) BR9909247B1 (es)
CA (1) CA2323564C (es)
DE (1) DE69910360T2 (es)
DK (1) DK1062816T3 (es)
ES (1) ES2203101T3 (es)
HK (1) HK1036721A1 (es)
MY (1) MY125807A (es)
TW (1) TW473702B (es)
WO (1) WO1999046938A1 (es)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6188987B1 (en) * 1998-11-17 2001-02-13 Dolby Laboratories Licensing Corporation Providing auxiliary information with frame-based encoded audio information
US6690428B1 (en) * 1999-09-13 2004-02-10 Nvision, Inc. Method and apparatus for embedding digital audio data in a serial digital video data stream
US8503650B2 (en) * 2001-02-27 2013-08-06 Verizon Data Services Llc Methods and systems for configuring and providing conference calls
US7277427B1 (en) * 2003-02-10 2007-10-02 Nvision, Inc. Spatially distributed routing switch
CN101036329B (zh) * 2004-10-07 2011-06-08 汤姆逊许可公司 音频/视频路由器
PL2052548T3 (pl) 2006-12-12 2012-08-31 Fraunhofer Ges Forschung Koder, dekoder oraz sposoby kodowania i dekodowania segmentów danych reprezentujących strumień danych w dziedzinie czasu
US8750295B2 (en) * 2006-12-20 2014-06-10 Gvbb Holdings S.A.R.L. Embedded audio routing switcher
EP2232843A4 (en) * 2007-12-19 2011-07-27 Colin Simon DIGITAL VIDEO AND AUDIO FLOW SYNCHRONIZATION DEVICE AND METHOD FOR MULTIMEDIA PRESENTATION DEVICES
WO2009088258A2 (ko) * 2008-01-09 2009-07-16 Lg Electronics Inc. 프레임 타입 식별 방법 및 장치
TWI643187B (zh) 2009-05-27 2018-12-01 瑞典商杜比國際公司 從訊號的低頻成份產生該訊號之高頻成份的系統與方法,及其機上盒、電腦程式產品、軟體程式及儲存媒體
US11657788B2 (en) 2009-05-27 2023-05-23 Dolby International Ab Efficient combined harmonic transposition

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4532556A (en) * 1983-05-20 1985-07-30 Dolby Laboratories Licensing Corporation Time-base correction of audio signals in video tape recorders
US5632005A (en) * 1991-01-08 1997-05-20 Ray Milton Dolby Encoder/decoder for multidimensional sound fields
JP3329076B2 (ja) * 1994-06-27 2002-09-30 ソニー株式会社 ディジタル信号伝送方法、ディジタル信号伝送装置、ディジタル信号受信方法及びディジタル信号受信装置
EP0734021A3 (en) * 1995-03-23 1999-05-26 SICAN, GESELLSCHAFT FÜR SILIZIUM-ANWENDUNGEN UND CAD/CAT NIEDERSACHSEN mbH Method and apparatus for decoding of digital audio data coded in layer 1 or 2 of MPEG format
US5819215A (en) * 1995-10-13 1998-10-06 Dobson; Kurt Method and apparatus for wavelet based data compression having adaptive bit rate control for compression of digital audio or other sensory data
US5946352A (en) * 1997-05-02 1999-08-31 Texas Instruments Incorporated Method and apparatus for downmixing decoded data streams in the frequency domain prior to conversion to the time domain
US5860060A (en) * 1997-05-02 1999-01-12 Texas Instruments Incorporated Method for left/right channel self-alignment

Also Published As

Publication number Publication date
ATE247363T1 (de) 2003-08-15
AU760400B2 (en) 2003-05-15
CA2323564C (en) 2008-05-13
AU3183099A (en) 1999-09-27
AR021444A2 (es) 2002-07-17
DE69910360D1 (de) 2003-09-18
HK1036721A1 (en) 2002-01-11
BR9909247B1 (pt) 2014-08-26
JP2002507101A (ja) 2002-03-05
EP1062816B1 (en) 2003-08-13
WO1999046938A1 (en) 1999-09-16
TW473702B (en) 2002-01-21
MY125807A (en) 2006-08-30
CA2323564A1 (en) 1999-09-16
AR014716A1 (es) 2001-03-28
BR9909247A (pt) 2000-11-28
CN1292979A (zh) 2001-04-25
DE69910360T2 (de) 2004-06-24
CN1172536C (zh) 2004-10-20
KR100675562B1 (ko) 2007-01-29
EP1062816A1 (en) 2000-12-27
JP4402834B2 (ja) 2010-01-20
KR20010040826A (ko) 2001-05-15
DK1062816T3 (da) 2003-11-03
US6085163A (en) 2000-07-04

Similar Documents

Publication Publication Date Title
EP1142346B1 (en) Encoding auxiliary information with frame-based encoded audio information
ES2203101T3 (es) Procedimiento y aparato para procesar informacion de audio utilizando bloques de alineamiento en tiempo de audio codificado en aplicaciones de video/audio para facilitar la conmutacion de audio.
KR100495545B1 (ko) 수신시스템 및 디지털 방송시스템
KR100933469B1 (ko) 오디오 코딩
KR100417552B1 (ko) 음성다중표시를갖는디지탈오디오채널
DE59304003D1 (de) Verfahren zur übertragung und/oder speicherung digitaler signale mehrerer kanäle
KR100263603B1 (ko) 재기록성 기록 매체상에서 및 그로부터 디지탈 신호를 레코딩 및 재생하는 시스템
US5982447A (en) System and method for combining two data streams while maintaining the continuous phase throughout the combined data stream
GB2321577A (en) Compression decoding and re-encoding
EP0757491B1 (en) Data encoding and/or decoding apparatus and methods
EP0540329B1 (en) Method for storing a multichannel audio signal on a compact disc
KR100287868B1 (ko) 디지털 저장 매체의 신호 기록재생장치
US6091555A (en) Digital audio signal processing method and apparatus with offset addition and extraction
MXPA00008964A (es) Metodo y aparato para procesar informacion de audio usando bloques de alineacion de tiempo de audio codificado en aplicaciones de video/audio para facilitar la conmutacion de audio
JP4680444B2 (ja) 蓄積型データ放送システム
EP0574071B1 (en) System for recording and reproducing a digital signal on/from a re-recordable record carrier
JPS6345931A (ja) デジタル信号伝送方式
JPH08329605A (ja) デイジタルオーデイオ信号処理方法、デイジタルオーデイオ信号処理装置及び記録再生装置
KR19980013771A (ko) Mpeg-2 오디오의 에러 검출 장치 및 방법