ES2390217T3 - Compresión y expansión de datos de una señal de información digital - Google Patents

Compresión y expansión de datos de una señal de información digital Download PDF

Info

Publication number
ES2390217T3
ES2390217T3 ES02790597T ES02790597T ES2390217T3 ES 2390217 T3 ES2390217 T3 ES 2390217T3 ES 02790597 T ES02790597 T ES 02790597T ES 02790597 T ES02790597 T ES 02790597T ES 2390217 T3 ES2390217 T3 ES 2390217T3
Authority
ES
Spain
Prior art keywords
signal
probability
digital information
data compression
information signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
ES02790597T
Other languages
English (en)
Inventor
Renatus J. Van Der Vleuten
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips Electronics NV filed Critical Koninklijke Philips Electronics NV
Application granted granted Critical
Publication of ES2390217T3 publication Critical patent/ES2390217T3/es
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
    • H03M7/40Conversion to or from variable length codes, e.g. Shannon-Fano code, Huffman code, Morse code
    • H03M7/4006Conversion to or from arithmetic code
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
    • H03M7/40Conversion to or from variable length codes, e.g. Shannon-Fano code, Huffman code, Morse code

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)

Abstract

Aparato de compresión de datos para someter a compresión de datos una señal de información digital,comprendiendo el aparato de compresión de datos- medios (1) de entrada para recibir la señal de información digital,- medios (156) de determinación de señal de probabilidad para determinar una señal de probabilidad apartir de la señal de información digital,- medios (10) de codificación por entropía para codificar por entropía la señal de información digital enrespuesta a dicha señal de probabilidad de modo que se obtiene una señal de información digital sometidaa compresión de datos, y- medios (14) de salida para suministrar la señal de información digital 15 sometida a compresión de datos,en el que los medios de determinación de señal de probabilidad están adaptados para determinar un nuevovalor de dicha señal de probabilidad a partir de la señal de información digital y al menos un valordeterminado previamente de dicha señal de probabilidad, y caracterizado porque los medios dedeterminación de señal de probabilidad están adaptados para realizar el siguiente cálculo:donde las estimaciones de probabilidad Pk+1(1) y Pk(1) son números enteros sin signo en el rango 0...2m y bkes el bit de entrada más nuevo con un valor de 0 ó 1, e i es un número entero en el rango 0 <= i <= m/2 y m esun número entero > 1.

Description

Compresión y expansión de datos de una señal de información digital.
5 La invención se refiere a un aparato de compresión de datos para someter a compresión de datos una señal de información digital. El aparato de compresión de datos comprende
-
medios de entrada para recibir la señal de información digital,
-
medios de determinación de señal de probabilidad para determinar una señal de probabilidad a partir de la señal de información digital,
-
medios de codificación por entropía para codificar por entropía la señal de información digital en respuesta a dicha señal de probabilidad de modo que se obtiene una señal de información digital sometida a compresión de datos, y
15 -medios de salida para suministrar la señal de información digital sometida a compresión de datos.
La invención se refiere además a un método de compresión de datos, un transmisor que comprende el aparato de compresión de datos, un aparato de grabación que comprende el aparato de compresión de datos, un soporte de grabación que tiene la señal de información digital sometida a compresión de datos grabada en el mismo en una pista de dicho soporte de grabación, a un aparato de expansión de datos para someter a expansión de datos una señal de información digital sometida a compresión de datos, a un método de expansión de datos, un receptor que comprende el aparato de expansión de datos y a un aparato de reproducción que comprende el aparato de expansión de datos.
25 En la técnica se conocen bien la compresión de datos en una señal de información digital. Se hace referencia a este respecto al documento WO98/16014. El documento describe un aparato de compresión de datos para someter a compresión de datos una señal de audio. La señal de audio está en forma de una señal de flujo de bits. El aparato comprende un codificador aritmético y una unidad de determinación de probabilidad. La unidad de determinación de probabilidad determina un valor de probabilidad que indica la probabilidad de que un bit en la señal de flujo de bits recibida tenga un valor lógico predeterminado, tal como ‘1’. El codificador aritmético codifica la señal de flujo de bits en una señal de flujo de bits sometida a compresión de datos en respuesta a valores de probabilidad p suministrados a su entrada. Otro ejemplo de un codificador aritmético se describe en “A New Fast Approximate Arithmetic Coder” por Abbie Barbir, System Theory, 1996, Proceedings of the 28th Southesteam Symposium on
35 Baton Rouge, LA, USA, IEEE, XP010158627.
La codificación aritmética es una técnica bien conocida para codificar por entropía. Para una introducción a la codificación aritmética, el lector puede consultar por ejemplo [Moff98, Penn93, Witt87, Lang84]. Cuando se facilita un símbolo de entrada e información de probabilidad asociada, el codificador aritmético puede comprimir el símbolo de entrada muy cerca del límite inferior teórico, conocido como entropía. Se han realizado muchas investigaciones sobre la implementación eficaz de la codificación aritmética, intentando encontrar el mejor equilibrio entre la complejidad de la implementación y la eficacia de compresión (es decir cómo de cerca está la eficacia al límite teórico). Se facilitó una solución de baja complejidad particularmente eficaz en [Vleu00, Vleu99].
45 La información de probabilidad mencionada anteriormente se obtiene a partir del modelo. Basándose en ciertas suposiciones sobre los símbolos de entrada que van a comprimirse, el modelo deriva las distribuciones de probabilidad de los símbolos y proporciona la información de probabilidad junto con el símbolo al codificador aritmético (y decodificador). Por ejemplo, se facilitan modelos para el caso de compresión de señal de audio binaria en [Vleu98b, Vleu98a, Vleu01].
Un modelo popular para datos binarios generales, usado por ejemplo en [Dutt95, Moff98] es estimar la probabilidad como
donde P(0) es la probabilidad de que el siguiente bit sea un cero, C(0) es el número de bits cero que se han observado, C(1) es el número de bits uno que se han observado, y L es una constante para proporcionar una estimación inicial cuando aún no se han observado datos; normalmente L = 0,5 o L = 1. La estimación de (1) asume implícitamente que la secuencia de bits que va a comprimirse es estacionaria. En la práctica, sin embargo, la estadística cambiará dependiendo de la posición en la secuencia de bits. Por tanto, a menudo se aplica un cambio de escala a los recuentos de bits C(0) y C(1) [Dutt95]. Por ejemplo, cuando o bien C(0) o bien C(1) o bien C(0) + C(1) alcanza un cierto valor, tanto C(0) como C(1) pueden simplemente dividirse entre dos. Mediante la elección particular del valor que provoca el cambio de escala puede realizarse un compromiso entre una adaptación más rápida y más lenta para cambiar la estadística y la precisión de la estimación de probabilidad. Finalmente, una implementación práctica de la codificación aritmética a menudo usa múltiples contextos (véase por ejemplo [Dutt95]); las probabilidades se determinan entonces por separado para cada contexto diferente usando diferentes contadores C(0) y C(1) para cada contexto y usando estos recuentos según (1) para obtener una P(0) separada para cada contexto.
Por tanto, tal como se aclara a partir de (1), obtener la probabilidad estimada requiere una división. Esto aumenta significativamente la complejidad de la implementación de la codificación aritmética, en particular en hardware. De hecho, se han realizado muchas investigaciones sobre implementaciones libres de multiplicación de la codificación aritmética (véase por ejemplo [Vleu00]) y la complejidad de una división es incluso mucho mayor que la complejidad de una multiplicación. Por tanto, eliminar esta división es esencial para obtener una implementación eficaz.
Una solución conocida para eliminar la división es integrar la estimación de probabilidad y el motor de codificación aritmética, tal como se hace para el codificador Q [Penn88, Dutt95]. Sin embargo, la desventaja de este enfoque es que sólo puede usarse un conjunto limitado de probabilidades (para limitar el tamaño de las tablas de consulta necesarias para implementar el modelo), lo que afecta a la eficacia de compresión de la implementación de codificación aritmética. Además, hace que el modelo sea inflexible. En otra solución conocida, que usa los recuentos de símbolos (de modo que el modelo aún es flexible) pero aún aproxima las probabilidades, se describe en [Riss89, Mohi87]. Sin embargo, la aproximación de probabilidades reduce la eficacia del método de compresión.
La invención tiene como objetivo proporcionar un aparato de compresión/expansión de datos para someter a compresión/expansión de datos una señal de información digital que tiene una implementación eficaz.
El aparato de compresión de datos según la invención caracterizado porque los medios de determinación de señal de probabilidad están adaptados para determinar un nuevo valor P de la señal de probabilidad a partir de la señal de información digital y al menos un valor determinado previamente de la señal de probabilidad en el que determinar la señal de probabilidad comprende realizar el siguiente cálculo:
donde las estimaciones de probabilidad Pk+1(1) y Pk(1) son números enteros sin signo en el rango 0...2m y bk es el bit de entrada más nuevo con un valor de 0 ó 1, e i es un número entero en el rango 0 : i : m/2 y m es un número entero > 1.
Usando al menos un valor determinado previamente p de la señal de probabilidad para determinar un nuevo valor P puede eliminarse una división compleja. Una división compleja es una división entre una variable o una división entre una constante que tiene un valor f 2m, siendo m un número entero > 0. La idea básica es calcular la estimación de probabilidad mediante una operación de filtro de “promedio de ejecución” en lugar de contando las frecuencias de símbolo. Este cálculo puede implementarse usando sencillas operaciones de desplazamiento y adición y está por tanto libre de divisiones complejas. El método para determinar el valor de probabilidad P según la invención puede combinarse fácilmente con muchas implementaciones de codificación aritmética y se ajusta particularmente bien a la solución previa para codificación aritmética libre de multiplicación [Vleu00]. Cuando se combinan las dos soluciones, se obtiene una implementación de codificación aritmética adaptativa eficaz que está libre de multiplicaciones y divisiones.
Otra ventaja del método según la invención es que no se necesita filtro de predicción tal como se da a conocer en el documento WO 98/16014.
Estos y otros aspectos de la invención resultarán evidentes a partir de, y se aclararán adicionalmente con referencia a, las realizaciones descritas en la siguiente descripción de figuras, en las que
la figura 1 muestra una primera realización del aparato de compresión de datos,
la figura 2 muestra una primera realización del aparato de expansión de datos,
la figura 3 muestra una segunda realización del aparato de compresión de datos,
la figura 4 muestra una segunda realización del aparato de expansión de datos,
la figura 5 muestra una tercera realización del aparato de compresión de datos,
la figura 6 muestra una tercera realización del aparato de expansión de datos, la figura 7 muestra el aparato de compresión de datos incorporado en un aparato de grabación para grabar la señal sometida a compresión de datos en un soporte de grabación,
la figura 8 muestra el aparato de compresión de datos incorporado en un aparato de transmisión para transmitir la señal sometida a compresión de datos por medio de un medio de transmisión,
la figura 9 muestra el aparato de expansión de datos incorporado en un aparato de reproducción para reproducir la señal sometida a compresión de datos a partir de un soporte de grabación,
la figura 10 muestra el aparato de expansión de datos incorporado en un aparato de recepción para recibir la señal sometida a compresión de datos a partir de un medio de transmisión,
la figura 11 muestra una realización adicional del aparato de grabación dotado además de un codificador por corrección de errores y un codificador por canal, y
la figura 12 muestra una realización adicional del aparato de reproducción dotado además de un decodificador por canal y una unidad de corrección de errores.
La figura 1 muestra una realización del aparato de compresión de datos, que comprende un terminal 1 de entrada para recibir la señal de información digital. La señal de información digital puede ser cualquier señal digital que puede comprimirse mediante codificación aritmética, tal como una señal de vídeo digital o una señal de audio digital. La señal de información digital está preferiblemente en forma de una señal de flujo de bits. El terminal 1 de entrada está acoplado a una primera entrada 8 de una unidad 10 de compresión de datos que comprende un codificador aritmético. Una salida 12 de la unidad 10 de compresión de datos está acoplada a un terminal 14 de salida. Además la señal de información digital también es una entrada de una unidad 156 de determinación de probabilidad. El terminal 1 de entrada está acoplado a una primera entrada 16 de una unidad 156 de determinación de probabilidad. El codificador 10 aritmético codifica la señal de flujo de bits para dar una señal sometida a compresión de datos en respuesta a valores de probabilidad P suministrados a su entrada 192. La salida de la unidad 156 de determinación de probabilidad está acoplada a una segunda entrada 18 de la unidad 156 de determinación de probabilidad. La unidad 156 de determinación de probabilidad determina un valor de probabilidad que indica la probabilidad de que un bit en la señal de flujo de bits suministrada por la unidad 4 convertidora tenga un valor lógico predeterminado, tal como ‘1’. Este valor de probabilidad, indicado P en la figura 1, se suministra al codificador 10 aritmético de modo que permite la compresión de datos de la señal de flujo de bits en el codificador 10 aritmético. La unidad 156 de determinación de probabilidad determina un nuevo valor de probabilidad a partir de la señal de información digital y valores de probabilidad determinados previamente. El codificador 10 aritmético puede someter a compresión de datos la señal de flujo de bits en una base trama a trama.
El funcionamiento del aparato de la figura 1 es el siguiente. La señal de información digital en la presente implementación en forma de una señal de flujo de bits se suministra a la unidad 156 de determinación de probabilidad. Se determina cuál es la probabilidad de que el bit correspondiente en la señal de flujo de bits sea por ejemplo un bit ’1’. A continuación en el presente documento se describirán implementaciones según la invención. Las probabilidades así obtenidas para los diversos valores en la señal de entrada digital se suministran posteriormente como la señal de probabilidad P al codificador 10 aritmético. La señal sometida a compresión de datos se suministra por el codificador 10 aritmético a un terminal 14 de salida, para su transmisión por medio de un medio de transmisión TRM o un soporte de grabación.
Ahora se describirán los cálculos realizados en la unidad de determinación de probabilidad. El presente ejemplo describe el caso binario y después se comentará una extensión al caso de alfabeto más grande. Además, se asume que el valor de probabilidad que va a proporcionarse al motor de codificación aritmética es un número entero en el rango lineal de 0... 2n. Un valor de probabilidad de número entero de este tipo se usa por la implementación del motor de codificación aritmética libre de multiplicación [Vleu99, Vleu00]. Por ejemplo, para n = 6, una probabilidad de 1 se representa por 64, y una probabilidad de 1/2 se representa por 32. Cuando se requiere para una implementación de codificación aritmética diferente, la probabilidad “verdadera” que se encuentra en el intervalo [0,1] se obtiene dividiendo el número entero que se deriva a partir de la probabilidad en una implementación de motor de codificación aritmética entre 2n (o, en una implementación de codificación aritmética práctica que usa números enteros, la división puede realizarse simplemente entre un desplazamiento a la derecha de n bits).
Una manera de determinar la probabilidad es calcular el promedio en ejecución, es decir almacenar los 2n bits previos y simplemente sumar sus valores. El promedio en ejecución puede actualizarse a medida que se recibe cada nuevo bit mediante tan sólo una única sustracción y adición: el valor del bit más antiguo se sustrae de la suma y el valor del bit más nuevo se añade a la suma. Una desventaja de este método es que requiere almacenar potencialmente muchos bits previos (e incluso más información para alfabetos más grandes). Por tanto, según la invención se implementa un cálculo recursivo que no requiere el almacenamiento de bits recibidos, tal como se explicará a continuación. El cálculo también ofrece flexibilidad adicional para intercambiar rápidamente la precisión para la velocidad de adaptación.
La forma general del cálculo de probabilidad recursivo es
donde c0.....u y d0...v son constantes (números reales) y los números enteros u y v determinan cuántas entradas b o salidas P(1) pasadas se tienen en cuenta. La ecuación (2) produce generalmente números reales (coma flotante). Para disminuir la complejidad de la implementación, se prefiere a menudo calcular con números enteros (coma fija). En este caso se asume que los valores de probabilidad no oscilan entre 0 y 1 sino que sólo adoptan valores enteros desde 0 hasta 2m, donde el valor de probabilidad real se cambia de escala linealmente mediante 2m .
Para calcular la estimación de probabilidad, una realización preferida es el siguiente cálculo recursivo:
donde Pk+1(1) y Pk(1) son números enteros sin signo en el rango 0 ...2m y bk es el bit de entrada más nuevo con un
valor de 0 ó 1, e i (0 : i : m/2) es un número entero que determina la velocidad de adaptación de la estimación de probabilidad, tal como se explicará a continuación en el presente documento. (L xˆ produce el número entero más grande no mayor que x, es decir redondea x hacia abajo al valor entero más cercano en el caso de que no fuera ya un número entero). La estimación de probabilidad Pk+1(1) se usa por el codificador aritmético para comprimir el bit bk+1 y por el decodificador aritmético para decodificar este bit. El valor inicial, P0(1) (que usa para comprimir el primer bit, b0) puede fijarse para corresponder a cualquier valor de probabilidad deseado en [0,1] multiplicándolo por 2m;por ejemplo una probabilidad de 1/2 corresponde a inicializar como P0(1) = 2m-1. El cálculo de LPk(1)·2-i se realiza en la práctica desplazando a la derecha el valor de Pk (1) en i posiciones, es decir sin una división real. La multiplicación de bk por 2m-i se realiza por supuesto desplazando a la izquierda su valor en m-i posiciones. Puesto que (3) usa sólo una adición y una sustracción (y algunos desplazamientos) tiene una complejidad de implementación mucho menor que (1), que requiere una división (la complejidad de dividir es mucho mayor que la de añadir o sustraer y desplazar).
Un valor estimado de precisión inferior para P(1), en el rango 0 ... 2n (n < m) puede obtenerse desplazando a la derecha Pk+1 (1) en m -n posiciones. Los valores típicos son por ejemplo m = 12 y n = 8. Por supuesto, en lugar del truncamiento obtenido mediante el desplazamiento a la derecha simple, el valor para P(1) también puede obtenerse mediante el redondeo o “redondeo parcial” (que se presenta en [Vleu99, Vleu00]) de Pk+1 (1)/2m-n. Este cálculo más preciso puede mejorar significativamente la precisión para valores pequeños de n (por ejemplo n < 5).
En la realización descrita anteriormente, la velocidad de adaptación del valor de probabilidad estimado se determina mediante el número entero i (0 : i : m/2). Cuanto mayor sea el valor de i, menor será la velocidad de adaptación.
Normalmente, i se cambiará dependiendo del número de bits que se han observado o la velocidad a la que cambian las probabilidades de entrada para b. Por ejemplo, inicialmente cuando aún no se han recibido muchos datos, puede usarse una velocidad de adaptación superior para obtener un comportamiento de lectura más rápido y reducirla más tarde cuando se han recibido más datos para obtener una estimación de precisión mayor.
Para realizar un seguimiento de estadísticas de cambio, también puede monitorizarse el valor de probabilidad estimado y aumentar la precisión cuando parece estar estable y aumentar la velocidad de adaptación cuando parece cambiar. Para medir el cambio o la estabilidad, puede calcularse la varianza de la estimación para un cierto número de bits, o puede tomarse una decisión basada por ejemplo en la magnitud de la diferencia entre el valor de probabilidad estimado mayor y menor para un cierto número de bits.
El valor de m depende por tanto no sólo de la precisión requerida de la estimación de probabilidad (es decir de n) sino también de la velocidad de adaptación mínima requerida (valor máximo para i), puesto que la velocidad de adaptación mínima se determina mediante el requisito de que i :m=2
En el caso de múltiples contextos (véase por ejemplo [Dutt95]), cada contexto usa su propio estimador de probabilidad independiente. Por tanto, la precisión y velocidad de adaptación también pueden ser diferentes para cada contexto (es decir cada contexto puede tener sus propios valores para m y/o i; véanse los párrafos anteriores).
La interfaz con el motor de codificación está basada en la precisión ocurrente mayor de las estimaciones de probabilidad (es decir el valor máximo de m en todos los contextos). Si ciertos valores de probabilidad tienen una precisión menor, necesitarán cambiarse de escala a la precisión más alta. Este cambio de escala puede implementarse simplemente mediante un desplazamiento a la izquierda del valor de probabilidad estimado. Por ejemplo, si la precisión de una estimación es de 6 bits y el motor acepta 8 bits, el valor estimado puede simplemente desplazarse a la izquierda dos bits (lo que significa que se añadirán dos bits cero a la estimación).
En el caso no binario, cuando existen N > 2 símbolos diferentes, se estima por separado una probabilidad para N -1 olos N símbolos (en el último caso, se ajusta la probabilidad del símbolo más probable de modo que la probabilidad total es igual a 1). La estimación aún usa (3), pero ahora se usa el valor b = 0 cuando el símbolo ocurrente no es igual al símbolo para el que se estima la probabilidad y se usa el valor b = 1 cuando el símbolo ocurrente es igual al símbolo para el que se estima la probabilidad. Por ejemplo, cuando existen 4 símbolos (y se estiman 4 probabilidades), se usa el valor b = 0 para tres de ellos y se usa b = 1 para el símbolo que se produce realmente. Los valores estimados de probabilidad para N -1olos N símbolos tienen que determinarse por la unidad (156) de determinación de probabilidad. En este caso el nuevo valor de la señal de probabilidad comprende el valor de probabilidad estimado para N-1o los N símbolos. En el caso de que sólo se estiman los valores de probabilidad para N-1 símbolos se conoce implícitamente la probabilidad para los N-ésimos símbolos y pueden calcularse a partir de los N-1 valores de probabilidad estimados.
La figura 2 muestra un aparato de expansión de datos correspondiente para decodificar la señal sometida a compresión de datos, recibida en el terminal 50 de entrada. El aparato de expansión de datos de la figura 2 comprende un decodificador 172 por entropía, que recibe la señal sometida a compresión de datos por medio de una entrada 174. En el presente ejemplo, el decodificador 172 por entropía está en forma de un decodificador aritmético que lleva a cabo una etapa de decodificación aritmética en la señal sometida a compresión de datos bajo la influencia de una señal de probabilidad P, suministrada a una entrada 176 de modo que genera una réplica de la señal de información digital original que se suministra a una salida 178. La réplica se suministra a un terminal 64 de salida del aparato de expansión de datos.
Además, una unidad 180 de suministro de probabilidad está presente para suministrar la señal de probabilidad P al decodificador 172 aritmético. La señal de probabilidad P puede obtenerse de diferentes maneras, dependiendo de cómo se ha derivado la señal de probabilidad en el codificador. La realización dada a conocer deriva la señal de probabilidad P de una manera adaptativa a partir de la señal de salida.
Además, el aparato de la figura 1 puede generar parámetros que describen las constantes usadas en la fórmula para determinar la señal de probabilidad P. Tales parámetros se incluyen en la información secundaria y se transmiten a la unidad 180 de suministro de probabilidad, de modo que permite la regeneración de la señal de probabilidad P en el aparato de la figura 2.
El codificador por entropía usado en la realización de la figura 1 está adaptado para codificar la señal de flujo de bits usando una señal de probabilidad para obtener la señal sometida a compresión de datos. Un codificador por entropía de este tipo es el codificador aritmético descrito anteriormente. Otro tipo de tal codificador por entropía es, como ejemplo, el codificador de estado finito bien conocido. El decodificador por entropía usado en la realización de la figura 2 está adaptado para codificar la señal sometida a compresión de datos usando una señal de probabilidad para obtener una réplica de la señal de información digital. Un decodificador por entropía de este tipo es el decodificador aritmético descrito anteriormente. Otro tipo de tal decodificador por entropía es, como ejemplo, el decodificador de estado finito bien conocido.
Una segunda realización de un aparato de compresión de datos se muestra en la figura 3. En el aparato de compresión de datos de la figura 3, la señal de flujo de bits se suministra a una entrada 8 de un codificador sin pérdidas, que está en forma de un codificador por entropía, tal como un codificador 154 aritmético. Además la señal de flujo de bits también es una entrada de una unidad 152 de filtro de predicción. Una salida de la unidad 152 de filtro de predicción está acoplada a una entrada de una unidad 156 de determinación de probabilidad. El codificador 154 aritmético codifica la señal de flujo de bits para dar una señal de flujo de bits sometida a compresión de datos en respuesta a valores de probabilidad p suministrados a su entrada 192. La unidad 156 de determinación de probabilidad determina un valor de probabilidad que indica la probabilidad de que un bit en la señal de flujo de bits suministrada por la unidad 4 convertidora tenga un valor lógico predeterminado, tal como ‘1’. Este valor de probabilidad, indicado p en la figura 10, se suministra al codificador 154 aritmético de modo que permite la compresión de datos de la señal de flujo de bits en el codificador 154 aritmético. La unidad 156 de determinación determina este valor de probabilidad a partir de la señal de salida del filtro 152 de predicción y un valor determinado previamente de la señal de probabilidad. El codificador 154 aritmético puede someter a compresión de datos la señal de flujo de bits en una base trama a trama.
El funcionamiento del aparato de la figura 3 es el siguiente. El filtro 152 de predicción realiza un filtrado de predicción en la señal de flujo de bits de modo que se obtiene una señal de salida de múltiples bits. La señal de salida de múltiples bits tiene una pluralidad de niveles dentro de un rango de por ejemplo +3 y -3. Además, para cada uno de una pluralidad de subintervalos en el rango de valores de la señal de salida de múltiples bits, se determina cuál es la probabilidad de que el bit correspondiente en la señal de flujo de bits sea por ejemplo un bit ’1’. Esto puede realizarse contando el número de ‘unos’ y ‘ceros’ que ocurren en la señal de flujo de bits durante un intervalo de tiempo específico, cuando la señal de salida de múltiples bits se encuentra dentro de uno de tales rangos. Además se tiene en cuenta al menos un valor determinado previamente de la señal de probabilidad según una de las formulas dadas anteriormente. Las probabilidades así obtenidas para los diversos valores en la señal de salida de múltiples bits se suministran posteriormente como la señal de probabilidad p al codificador 154 aritmético. La señal de flujo de bits sometida a compresión de datos se suministra por el codificador 154 aritmético a una línea 158 de salida, para su transmisión por medio de un medio de transmisión TRM o un soporte de grabación.
La figura 4 muestra un aparato de expansión de datos correspondiente para decodificar la señal de flujo de bits sometida a compresión de datos, generada mediante un aparato de compresión de la figura 3. El aparato de procesamiento de datos de la figura 4 comprende un decodificador 172 por entropía, que recibe la señal de flujo de bits sometida a compresión de datos por medio de una entrada 174. En el presente ejemplo, el decodificador 172 por entropía está en forma de un decodificador aritmético que lleva a cabo una etapa de decodificación aritmética en la señal de flujo de bits sometida a compresión de datos bajo la influencia de una señal de probabilidad p, suministrada a una entrada 176 de modo que genera una réplica de la señal de flujo de bits original que se suministra a una salida 178. La réplica se suministra a una entrada 58 de la unidad 60 reconvertidora.
Además, una unidad 180 de suministro de probabilidad está presente para suministrar la señal de probabilidad p al decodificador 172 aritmético. La señal de probabilidad p puede obtenerse de diferentes maneras, dependiendo de cómo se ha derivado la señal de probabilidad en el codificador. Una manera es derivar la señal de probabilidad p de una manera adaptativa a partir de la señal de salida de un filtro 181 de predicción y un valor determinado previamente de la señal de probabilidad. En esta realización, el filtro 181 de predicción es equivalente al filtro 152 de predicción en el codificador y la unidad 180 de suministro de probabilidad es equivalente a la unidad 156 de determinación de probabilidad en el codificador de la figura 3. Otra manera de generar la señal de probabilidad p es usando información secundaria recibida por medio del medio de transmisión TRM, tal como se explicará a continuación en el presente documento.
Puede generarse información secundaria mediante el aparato de la figura 3 para su transmisión al aparato de la figura 4. Tal información secundaria puede incluir los coeficientes de filtro para el filtro 152 que se determinan en una base trama a trama, coeficientes que se transmiten al filtro de predicción correspondiente incluido en la unidad 180.
Además, el aparato de la figura 3 puede generar parámetros que describen la conversión de la señal de salida de múltiples bits del filtro 152 de predicción en la señal de probabilidad p. Tales parámetros se incluyen también en la información secundaria y se transmiten a la unidad 180 de suministro y al filtro 181, de modo que permite la regeneración de la señal de probabilidad p en el aparato de la figura 4 basándose en la señal de salida de múltiples bits proporcionada mediante el filtro 181 de predicción.
El codificador por entropía usado en la realización de la figura 3 está adaptado para codificar la señal de flujo de bits usando una señal de probabilidad para obtener la señal de flujo de bits sometida a compresión de datos. Un codificador por entropía de este tipo es el codificador aritmético descrito anteriormente. Otro tipo de tal codificador por entropía es, como ejemplo, el codificador de estado finito bien conocido. El decodificador por entropía usado en la realización de la figura 4 está adaptado para codificar la señal de flujo de bits sometida a compresión de datos usando una señal de probabilidad para obtener una réplica de la señal de flujo de bits. Un decodificador por entropía de este tipo es el decodificador aritmético descrito anteriormente. Otro tipo de tal decodificador por entropía es, como ejemplo, el decodificador de estado finito bien conocido.
Una tercera realización de un aparato de procesamiento de datos se muestra en la figura 5. En el aparato de procesamiento de datos de la figura 5, una señal de flujo de bits se suministra a la entrada 44 de la unidad 42 de combinación de señal, y por medio de un filtro 181 de predicción y un cuantificador Q a la entrada 40 de la unidad 42 de combinación de señal. El cuantificador Q en la realización actual convierte la señal de salida de múltiples bits del filtro de predicción en una señal binaria. El aparato está dotado además de una unidad 150’ de compresión de datos que comprende un codificador 154 por entropía y una unidad 156 de determinación de probabilidad. En el presente ejemplo, el codificador 154 por entropía está en forma de un codificador aritmético para codificar la señal de flujo de bits residual para dar una señal de flujo de bits residual sometida a compresión de datos en respuesta a valores de probabilidad p suministrados a su entrada 192. La unidad 156 de determinación de probabilidad determina un valor de probabilidad que indica la probabilidad de que un bit en la señal de flujo de bits residual suministrada mediante la unidad 42 de combinación tenga un valor lógico predeterminado, tal como ‘1’. Este valor de probabilidad, indicado p en la figura 5, se suministra al codificador 154 aritmético de modo que permite la compresión de datos de la señal de flujo de bits residual en el codificador 154 aritmético. La unidad 156 de determinación determina este valor de probabilidad a partir de la señal de salida del filtro 181 de predicción. Cuando se usa un codificador aritmético en la unidad 150 de compresión, la unidad 156 de probabilidad puede derivar el valor de probabilidad a partir de la propia señal de flujo de bits residual. Sin embargo, en la realización de la figura 5 la unidad 156 de determinación de probabilidad deriva el valor de probabilidad a partir de la señal de salida generada por el filtro 181 de predicción y un valor determinado previamente de la señal de probabilidad. Esto tiene una ventaja, porque puede obtenerse una tasa de compresión mayor con el codificador 154 aritmético. El codificador 154 aritmético puede someter a compresión de datos la señal de flujo de bits residual en una base de trama.
El funcionamiento del aparato de la figura 5 es el siguiente. El filtro 181 de predicción realiza un filtrado de predicción en la señal de flujo de bits de modo que se obtiene una señal de salida de múltiples bits. La señal de salida de múltiples bits tiene una pluralidad de niveles dentro de un rango de por ejemplo +3 y -3. Un cuantificador Q recibe la señal de salida de múltiples bits y genera una señal de flujo de bits a partir de la misma, por ejemplo asignando un bit de valor lógico ‘1’ si la señal de salida de múltiples bits tiene un valor positivo y asignando un bit de valor lógico ‘0’ si la señal de salida de múltiples bits tiene un calor negativo. Además, para cada uno de una pluralidad de subintervalos en el rango de valores de la señal de salida de múltiples bits, se determina la probabilidad de que el bit correspondiente en la señal residual sea por ejemplo un bit ‘1’. Esto puede realizarse contando el número de ‘unos’ y ‘ceros’ que ocurren en la señal de flujo de bits residual durante un intervalo de tiempo específico, cuando la señal de salida de múltiples bits se encuentra dentro de uno de tales rangos. Además, para determinar un nuevo valor de la señal de probabilidad se tiene en cuenta un valor determinado previamente del valor de probabilidad según las formulas dadas anteriormente. Las probabilidades así obtenidas para los diversos valores en la señal de salida de múltiples bits se suministran posteriormente como la señal de probabilidad p al codificador 154 aritmético. La señal de flujo de bits residual sometida a compresión de datos se suministra mediante el codificador 154 aritmético a una línea 158 de salida, para su transmisión por medio de un medio de transmisión TRM.
La figura 6 muestra un aparato de procesamiento de datos correspondiente para decodificar la señal de flujo de bits residual sometida a compresión de datos, generada mediante un aparato de compresión de datos según la figura 5. El aparato de procesamiento de datos de la figura 6 comprende un decodificador 172 por entropía, que recibe la señal de flujo de bits residual sometida a compresión de datos por medio de una entrada 174. En el presente ejemplo, el decodificador 172 por entropía está en forma de un decodificador aritmético que lleva a cabo una etapa de decodificación aritmética en la señal de flujo de bits sometida a compresión de datos bajo la influencia de una señal de probabilidad p, suministrada a una entrada 176 de modo que genera una réplica de la señal de flujo de bits residual original que se suministra a una salida 178. La réplica se suministra a una entrada 86 de la unidad 88 de combinación de señal. La unidad 88 de combinación de señal recibe además una versión prevista de la señal de flujo de bits por medio de la entrada 101 y genera la réplica de la señal de flujo de bits original en su salida 76. La salida 76 está acoplada por medio de un filtro 181 de predicción y un cuantificador Q a la entrada 101 de la unidad 88 de combinación de señal. El funcionamiento del filtro 74’ de predicción y el cuantificador Q puede ser idéntico al funcionamiento del filtro 10’ de predicción y el cuantificador Q en la figura 5, es decir: el filtro 181 de predicción deriva sus coeficientes de filtro a partir de la señal de entrada que recibe por medio de su entrada 72. En otra realización, el filtro 181 de predicción recibe los coeficientes de filtro a partir de la información secundaria recibida por medio del medio de transmisión TRM del aparato codificador de la figura 5, tal como se explicará a continuación.
Además, una unidad 180 de generación de probabilidad está presente para suministrar la señal de probabilidad p al decodificador 172 aritmético. La señal de probabilidad p puede obtenerse de diferentes maneras. Una manera es derivar la señal de probabilidad p a partir de la señal de salida del filtro 181 de predicción, de la misma manera que la unidad 156 de determinación de probabilidad determina entonces señal de probabilidad p del filtro 152 de predicción en la figura 5. En tal situación, la unidad 180 de suministro en la figura 6 puede ser idéntica a la unidad 156 de determinación en la figura 5, y la unidad 180 de suministro tiene una entrada acoplada a la salida del filtro 181 de predicción. Otra manera de generar la señal de probabilidad p, es usando la información secundaria recibida por medio del medio de transmisión TRM, tal como se explicará a continuación en el presente documento.
Puede generarse información secundaria mediante el aparato de la figura 5 para la transmisión al aparato de la figura 6. Tal información secundaria puede incluir los coeficientes de filtro para el filtro 152 que se determinan en una base trama a trama, coeficientes que se transmiten al filtro 181 para configurar la característica de filtro correcta del filtro 181. Además, el aparato de la figura 5 puede generar parámetros que describen la conversión de la señal de salida de múltiples bits del filtro 152 de predicción en la señal de probabilidad p. Tales parámetros también se incluyen en la información secundaria y se transmiten a la unidad 180 de determinación de probabilidad, de modo que permite la regeneración de la señal de probabilidad p en el aparato de la figura 6.
El codificador por entropía usado en la realización de la figura 5 está adaptado para codificar la señal de flujo de bits residual usando una señal de probabilidad para obtener la señal de flujo de bits residual sometida a compresión de datos. Uno de tal codificador por entropía es el codificador aritmético descrito anteriormente. Otro tipo de tal codificador por entropía es, como ejemplo, el codificador de estado finito bien conocido. El decodificador por entropía usado en la realización de la figura 20 está adaptado para decodificar la señal de flujo de bits residual sometida a compresión de datos usando una señal de probabilidad para obtener una réplica de la señal de flujo de bits residual. Uno de tal decodificador por entropía es el decodificador aritmético descrito anteriormente. Otro tipo de tal decodificador por entropía es, como ejemplo, el decodificador de estado finito bien conocido.
La figura 7 muestra una realización de un aparato de grabación que comprende el aparato de compresión de datos mostrado en la figura 1, 3 ó 5. El aparato de grabación comprende además una unidad 30 de escritura para escribir la señal sometida a compresión de datos en una pista en el soporte 32 de grabación. En el presente ejemplo, el soporte 32 de grabación es un soporte de grabación magnético, de modo que la unidad 30 de escritura comprende al menos un cabezal 34 magnético para escribir la señal sometida a compresión de datos en el soporte 32 de grabación. Sin embargo, el soporte de grabación puede ser un soporte de grabación óptico, tal como un disco CD o un disco DVD.
La figura 8 muestra una realización de un transmisor para transmitir una señal de información digital por medio de un medio de transmisión TRM, que comprende el aparato de compresión de datos tal como se muestra en la figura 1, 3 ó 5. El transmisor comprende además una unidad 36 de transmisión para aplicar la señal sometida a compresión de datos al medio de transmisión TRM. La unidad 36 de transmisión puede comprender una antena 38.
La transmisión por medio de un medio de transmisión, tal como un enlace de radiofrecuencia o un soporte de grabación, requiere generalmente una codificación por corrección de errores y una codificación por canal llevadas a cabo en la señal sometida a compresión de datos que va a transmitirse. La figura 11 muestra tales etapas de procesamiento de señal llevadas a cabo en la señal sometida a compresión de datos para la disposición de grabación de la figura 7. La disposición de grabación de la figura 11 comprende por tanto un codificador 80 por corrección de errores, bien conocido en la técnica, y un codificador 82 por canal, también bien conocido en la técnica.
La figura 9 muestra el aparato de expansión de datos de la figura 2, 4 ó 6 incorporado en un aparato de reproducción. El aparato de reproducción comprende además una unidad 52 de lectura para leer la señal sometida a compresión de datos a partir de una pista en el soporte 32 de grabación. En el presente ejemplo, el soporte 32 de grabación es un soporte de grabación magnético, de modo que la unidad 52 de lectura comprende al menos un cabezal 54 magnético para leer la señal sometida a compresión de datos del soporte 32 de grabación. Sin embargo, el soporte de grabación puede ser un soporte de grabación óptico, tal como un disco CD o un disco DVD de modo que la unidad de lectura es una unidad de captación óptica.
La figura 10 muestra una realización de un receptor para recibir una señal de información digital por medio de un medio de transmisión TRM, que comprende el aparato de expansión de datos tal como se muestra en la figura 2, 4 ó
6. El receptor comprende además una unidad 56 de recepción para recibir la señal sometida a compresión de datos a partir del medio de transmisión TRM. La unidad 56 de recepción puede comprender una antena 57.
Tal como se ha explicado anteriormente, la transmisión por medio de un medio de transmisión, tal como un enlace de radiofrecuencia o un soporte de grabación, requiere generalmente una codificación por corrección de errores y una codificación por canal llevadas a cabo en la señal sometida a compresión de datos que va a transmitirse, de modo que una decodificación por canal y una corrección de errores correspondientes pueden llevarse a cabo tras la recepción. La figura 8 muestra las etapas de procesamiento de señal de decodificación por canal y corrección de errores llevadas a cabo en la señal recibida, recibida por los medios 56 de lectura para la disposición de reproducción de la figura 9. La disposición de reproducción de la figura 12 comprende por tanto un decodificador 90 por canal, bien conocido en la técnica, y una unidad 92 de corrección de errores, también bien conocida en la técnica, de modo que se obtiene una réplica de la señal sometida a compresión de datos.
Las realizaciones dadas están adaptadas para procesar una señal de flujo de bits. Debe observarse que la invención también puede usarse en aparatos para compresión/expansión de datos de una señal de información de n niveles. El filtro de predicción realiza entonces una predicción en una señal de información de n niveles de modo que se obtiene una señal de salida de múltiples valores. El cuantificador está adaptado para cuantificar la señal de salida de múltiples valores de modo que se obtiene una señal de información cuantificada de n niveles. La unidad de combinación de señal, si está presente, está adaptada para combinar la señal de información de n niveles y la señal cuantificada de n niveles de modo que se obtiene una señal de información residual de n niveles. La combinación puede implementarse añadiendo o sustrayendo las dos señales de información de n niveles recibidas en las entradas correspondientes. La unidad de determinación de probabilidad genera una indicación de valor de probabilidad de la probabilidad de que un valor de la señal de información residual tenga un valor predeterminado, tal como ‘+2’. Esta probabilidad se suministra al codificador aritmético de modo que permite la compresión de datos de la señal de información de n niveles, que puede ser una señal residual, en el codificador aritmético. En esta realización un valor de la señal de probabilidad consiste en un valor para cada uno de los n valores posibles de la señal de información de n niveles. Una señal de información de n niveles con 256 niveles puede representarse mediante una señal de información de 8 bits.
Aunque la invención se ha descrito en referencia a realizaciones preferidas de la misma, ha de entenderse que éstas no son ejemplos limitativos. Por tanto, diversas modificaciones pueden resultar evidentes para los expertos en la técnica, sin apartarse del alcance de la invención, tal como se define mediante las reivindicaciones. Cuando la señal de información digital se suministra de forma digital, tal como muestreada a 44,1 kHz y las muestras se expresan en por ejemplo 16 bits, el aparato puede comprender medios de conversión adaptados para sobremuestrear la señal de audio digital por ejemplo con la frecuencia de 64 x 44,1 kHz de modo que se obtiene la señal de flujo de bits de 1 bit.
Debe observarse además que la invención también se aplica a una realización en la que la señal de flujo de bits, tal como se suministra mediante el convertidor 4 se ha sometido a una etapa de procesamiento de señal adicional que da como resultado una señal de flujo de bits de 1 bit procesada que se suministra al codificador 10 por entropía y la unidad 156 de determinación de probabilidad. Tal etapa de procesamiento de señal adicional puede incluir fusionar un componente de señal izquierdo y derecho de una señal de audio estéreo, en forma de flujo de bits de 1 bit, para dar una señal de flujo de bits de 1 bit procesada.
Además, la invención se encuentra en todas y cada una de las características novedosas o combinación de características.
Lista de documentos relacionados
[Dutt95]
D. L. Duttweiler and C. Chamzas, “Probability estimation in arithmetic and adaptive-Huffman entropy coders,” IEEE Trans. Image Processing, vol. 4, pp. 237-246, Mar. 1995.
[Lang84]
G. G. Langdon, Jr., “An introduction to arithmetic coding,” IBM J. Res. Develop., vol. 28, pp. 135149, Mar. 1984.
[Moff98]
A. Moffat, R. M. Neal, and I. H. Witten, “Arithmetic coding revisited,” ACM Trans. Information Systems, vol. 16, pp. 256-294, July 1998.
[Mohi87]
K. M. A. Mohiuddin and J. J. Rissanen, Multiplication-free multi-alphabet arithmetic code, 1987. U. S. Patent 4,652,856.
[Penn88]
W. B. Pennebaker, J. L. Mitchell, G. G. Langdon, Jr., and R. B. Arps, “An overview of the basic principles of the Q-Coder adaptive binary arithmetic coder,” IBM J. Res. Develop., vol. 32, pp. 717726, Nov. 1988.
[Penn93]
W. B. Pennebaker and J. L. Mitchell, JPEG Still Image Data Compression Standard. New York, NY: Van Nostrand Reinhold, 1993.
[Riss89]
J. Rissanen and K. M. Mohiuddin, “A multiplication-free multialphabet arithmetic code,” IEEE Trans. Commun., vol. 37, pp. 93-98, Feb. 1989.
[Vleu98a]
R. J. van der Vleuten and F. Bruekers, “Lossless compression of binary audio signals,” in Data Compression Conference (DCC ’98), (Snow-bird, UT), p. 579, Mar. 30-Apr. 1, 1998.
[Vleu98b]
R. J. van der Vleuten and A. A. M. L. Bruekers, “Modeling binary audio signals for lossless compression,” in Nineteenth Symp. Inform. Theory in the Benelux, (Veldhoven, The Netherlands), pp. 135-142, May 28-29, 1998.
[Vleu99]
R. J. van der Vleuten, “New methods for multiplication-free arithmetic coding,” in Data Compression Conference (DCC ’99), (Snow-bird, UT), p. 555, Mar. 29-31, 1999.
[Vleu00]
R. J. van der Vleuten, Arithmetic encoding and decoding of an information signal, 2000. U.S. Patent 6,144,320.
[Vleu01]
R. J. van der Vleuten, A. A. M. L. Bruekers, and A. W. J. Oomen, Data Processing of a bitstream signal, 2001. Patent US 6,289,306 B1.
[Witt87]
I. H. Witten, R. M. Neal, and J. G. Cleary, “Arithmetic coding for data compression,” Communications ACM, vol. 30, pp. 520-540, June 1987.

Claims (14)

  1. REIVINDICACIONES
    1. Aparato de compresión de datos para someter a compresión de datos una señal de información digital, comprendiendo el aparato de compresión de datos
    -
    medios (1) de entrada para recibir la señal de información digital,
    -
    medios (156) de determinación de señal de probabilidad para determinar una señal de probabilidad a partir de la señal de información digital,
    -
    medios (10) de codificación por entropía para codificar por entropía la señal de información digital en respuesta a dicha señal de probabilidad de modo que se obtiene una señal de información digital sometida a compresión de datos, y
    -
    medios (14) de salida para suministrar la señal de información digital sometida a compresión de datos,
    en el que los medios de determinación de señal de probabilidad están adaptados para determinar un nuevo valor de dicha señal de probabilidad a partir de la señal de información digital y al menos un valor determinado previamente de dicha señal de probabilidad, y caracterizado porque los medios de determinación de señal de probabilidad están adaptados para realizar el siguiente cálculo:
    donde las estimaciones de probabilidad Pk+1(1) y Pk(1) son números enteros sin signo en el rango 0...2m y bk es el bit de entrada más nuevo con un valor de 0 ó 1, e i es un número entero en el rango 0 : i : m/2 y m es un número entero > 1.
  2. 2.
    Transmisor para transmitir una señal de información digital por medio de un medio de transmisión, que comprende el aparato de compresión de datos según la reivindicación 1, comprendiendo el transmisor además
    -medios de transmisión para aplicar la señal de información digital sometida a compresión de datos al medio de transmisión.
  3. 3.
    Aparato de grabación para grabar una señal de información digital en un soporte de grabación, que comprende el aparato de compresión de datos según la reivindicación 1, comprendiendo el aparato de grabación además
    -medios de escritura para escribir la señal sometida a compresión de datos en una pista en el soporte de grabación.
  4. 4.
    Aparato de grabación según la reivindicación 3, en el que el soporte de grabación es un soporte de grabación óptico o magnético.
  5. 5.
    Transmisor según la reivindicación 2, comprendiendo el transmisor además medios de codificación por corrección de errores y/o medios de codificación por canal, para codificar por corrección de errores y/o codificar por canal la señal de información digital sometida a compresión de datos antes de aplicar la señal de información digital sometida a compresión de datos al medio de transmisión.
  6. 6.
    Aparato de grabación según la reivindicación 3, que comprende además medios de codificación por corrección de errores y/o medios de codificación por canal, para codificar por corrección de errores y/o codificar por canal la señal de información digital sometida a compresión de datos antes de escribir la señal de información digital sometida a compresión de datos en el soporte de grabación.
  7. 7.
    Método para someter a compresión de datos una señal de información digital, comprendiendo el método las etapas de:
    -
    recibir la señal de información digital,
    -
    determinar una señal de probabilidad a partir de la señal de información digital,
    -
    codificar por entropía la señal de información digital en respuesta a dicha señal de probabilidad de modo que se obtiene una señal de información digital sometida a compresión de datos, y
    -
    suministrar la señal de información digital sometida a compresión de datos,
    en el que la etapa de determinar la probabilidad está adaptada para determinar un nuevo valor de dicha señal de probabilidad a partir de la señal de información digital y al menos un valor determinado previamente de dicha señal de probabilidad; y caracterizado porque determinar la señal de probabilidad comprende realizar el siguiente cálculo:
    donde las estimaciones de probabilidad Pk+1(1) y Pk(1) son números enteros sin signo en el rango 0...2m y bk es el bit de entrada más nuevo con un valor de 0 ó 1, e i es un número entero en el rango 0 : i : m/2 y m es un número entero > 1.
  8. 8.
    Soporte de grabación que tiene una señal de información digital sometida a compresión de datos grabada en el mismo en una pista de dicho soporte de grabación, obteniéndose la señal de información digital sometida a compresión de datos mediante el método según la reivindicación 7.
  9. 9.
    Aparato de expansión de datos para someter a expansión de datos una señal de información digital sometida a compresión de datos de modo que se obtiene una réplica de una señal de información digital original, comprendiendo el aparato de expansión de datos
    -
    medios (50) de entrada para recibir la señal de información digital sometida a compresión de datos,
    -
    medios (172) de decodificación por entropía para decodificar por entropía la señal de información digital sometida a compresión de datos en respuesta a una señal de probabilidad de modo que se obtiene dicha réplica,
    -
    medios (180) de determinación de señal de probabilidad para generar dicha señal de probabilidad a partir de dicha réplica,
    -
    medios (64) de salida para suministrar la réplica,
    en el que dichos medios de determinación de señal de probabilidad están adaptados para determinar un nuevo valor de dicha señal de probabilidad a partir de la réplica y al menos un valor determinado previamente de dicha señal de probabilidad; y caracterizado porque los medios de determinación de señal de probabilidad están adaptados para realizar el siguiente cálculo:
    donde las estimaciones de probabilidad Pk+1(1) y Pk(1) son números enteros sin signo en el rango 0...2m y bk es el bit de entrada más nuevo con un valor de 0 ó 1, e i es un número entero en el rango 0 : i : m/2 y m es un número entero > 1.
  10. 10.
    Receptor para recibir una señal de información digital por medio de un medio de transmisión, que comprende el aparato de expansión de datos según la reivindicación 9, comprendiendo el receptor además
    -medios de recepción para recuperar la señal sometida a compresión de datos a partir del medio de transmisión.
  11. 11.
    Aparato de reproducción para reproducir una señal de información digital a partir de un soporte de grabación, que comprende el aparato de expansión de datos según la reivindicación 9, comprendiendo el aparato de reproducción además
    -medios de lectura para leer la señal sometida a compresión de datos a partir de una pista en el soporte de grabación.
  12. 12.
    Receptor según la reivindicación 10, comprendiendo el receptor además medios de decodificación por canal y/o medios de corrección de errores, para decodificar por canal y/o corregir errores de la señal recuperada a partir del medio de transmisión de modo que se obtiene dicha señal sometida a compresión de datos
  13. 13.
    Aparato de reproducción según la reivindicación 11, que comprende además medios de decodificación por
    canal y/o medios de corrección de errores, para decodificar por canal y/o corregir la señal leída a partir del soporte de grabación de modo que se obtiene dicha señal sometida a compresión de datos.
  14. 14.
    Método de expansión de datos para someter a expansión de datos una señal de información digital sometida a compresión de datos de modo que se obtiene una réplica de una señal de información digital original, comprendiendo el método de expansión de datos las etapas de:
    -
    recibir la señal de información digital sometida a compresión de datos,
    -
    decodificar por entropía la señal de información digital sometida a compresión de datos en respuesta a una señal de probabilidad de modo que se obtiene dicha réplica,
    -
    generar dicha señal de probabilidad a partir de dicha réplica,
    -
    suministrar la réplica,
    en el que dicha etapa de determinación de señal de probabilidad está adaptada para determinar un nuevo valor de dicha señal de probabilidad a partir de la réplica y al menos un valor determinado previamente de dicha señal de probabilidad; y caracterizado porque dicha etapa de determinación de señal probabilidad comprende realizar el siguiente cálculo:
    donde las estimaciones de probabilidad Pk+1(1) y Pk(1) son números enteros sin signo en el rango 0...2m y bk es el bit de entrada más nuevo con un valor de 0 ó 1, e i es un número entero en el rango 0 : i : m/2 y m es un número entero > 1.
ES02790597T 2002-01-23 2002-12-18 Compresión y expansión de datos de una señal de información digital Expired - Lifetime ES2390217T3 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP02075298 2002-01-23
EP02075298 2002-01-23
PCT/IB2002/005511 WO2003063359A1 (en) 2002-01-23 2002-12-18 Data compression and expansion of a digital information signal

Publications (1)

Publication Number Publication Date
ES2390217T3 true ES2390217T3 (es) 2012-11-07

Family

ID=27589135

Family Applications (1)

Application Number Title Priority Date Filing Date
ES02790597T Expired - Lifetime ES2390217T3 (es) 2002-01-23 2002-12-18 Compresión y expansión de datos de una señal de información digital

Country Status (10)

Country Link
US (1) US7421138B2 (es)
EP (1) EP1472793B1 (es)
JP (1) JP2005516455A (es)
KR (1) KR20040075944A (es)
CN (1) CN1615590A (es)
DK (1) DK1472793T3 (es)
ES (1) ES2390217T3 (es)
MY (1) MY135268A (es)
TW (1) TW200306079A (es)
WO (1) WO2003063359A1 (es)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040075944A (ko) * 2002-01-23 2004-08-30 코닌클리케 필립스 일렉트로닉스 엔.브이. 디지털 정보신호의 데이터 압축 및 압축해제
KR100829558B1 (ko) * 2005-01-12 2008-05-14 삼성전자주식회사 스케일러블 오디오 데이터 산술 복호화 방법 및 장치와스케일러블 오디오 비트스트림 절단 방법
WO2008129883A1 (ja) * 2007-04-18 2008-10-30 Mitsubishi Electric Corporation 符号化装置、復号装置、符号変換装置及びプログラム
US8537038B1 (en) * 2010-10-22 2013-09-17 Smith Micro Software, Inc. Efficient compression method for sorted data representations
US8456333B1 (en) * 2010-10-22 2013-06-04 Smith Micro Software, Inc. Advanced solid block splitting for lossless data compression
US10412387B2 (en) * 2014-08-22 2019-09-10 Qualcomm Incorporated Unified intra-block copy and inter-prediction
US9712830B1 (en) 2016-09-15 2017-07-18 Dropbox, Inc. Techniques for image recompression
JP6963182B2 (ja) * 2018-05-22 2021-11-05 日本電信電話株式会社 光通信システム、光送信機及び光受信機
KR102195239B1 (ko) 2019-11-29 2020-12-24 숭실대학교산학협력단 대역폭을 고려한 하둡의 데이터 압축 전송 방법, 이를 수행하기 위한 기록 매체 및 장치
CN116369868B (zh) * 2023-06-07 2023-08-11 青岛大学附属医院 基于大数据的睡眠分期监测方法及装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4652856A (en) * 1986-02-04 1987-03-24 International Business Machines Corporation Multiplication-free multi-alphabet arithmetic code
US6269338B1 (en) * 1996-10-10 2001-07-31 U.S. Philips Corporation Data compression and expansion of an audio signal
US6778965B1 (en) * 1996-10-10 2004-08-17 Koninklijke Philips Electronics N.V. Data compression and expansion of an audio signal
AU763060B2 (en) * 1998-03-16 2003-07-10 Koninklijke Philips Electronics N.V. Arithmetic encoding/decoding of a multi-channel information signal
KR20040075944A (ko) * 2002-01-23 2004-08-30 코닌클리케 필립스 일렉트로닉스 엔.브이. 디지털 정보신호의 데이터 압축 및 압축해제

Also Published As

Publication number Publication date
EP1472793B1 (en) 2012-07-25
JP2005516455A (ja) 2005-06-02
US20050073449A1 (en) 2005-04-07
WO2003063359A1 (en) 2003-07-31
DK1472793T3 (da) 2012-10-01
US7421138B2 (en) 2008-09-02
TW200306079A (en) 2003-11-01
MY135268A (en) 2008-03-31
CN1615590A (zh) 2005-05-11
KR20040075944A (ko) 2004-08-30
EP1472793A1 (en) 2004-11-03

Similar Documents

Publication Publication Date Title
ES2251743T3 (es) Procesamiento de datos de una señal de flujo de bits.
JP5736032B2 (ja) 算術符号化のための適応型2値化
JP4221503B2 (ja) パリティチェックデコーダで使用するノードプロセサ
ES2378462T3 (es) Codificación entrópica por adaptación de codificación entre modalidades de nivel y de longitud/nivel de cadencia
KR100446878B1 (ko) 입력심볼인코딩방법및장치와채널코드워드생성방법및장치
Marcellin et al. Predictive trellis coded quantization of speech
JP2005506733A5 (es)
JP2006126810A (ja) 後方適応規則を用いた整数データの無損失適応Golomb−Rice符号化および復号化
CN107135004B (zh) 一种对地震数据流的自适应实时无损压缩方法
CN112398484B (zh) 一种编码方法及相关设备
ES2390217T3 (es) Compresión y expansión de datos de una señal de información digital
AU2003298253A1 (en) Method and device for calculating the bit error rate of received signal
ES2333492T3 (es) Codificacion y decodificacion aritmetica de una señal de informacion.
JPH0548546A (ja) 信号伝送装置
JP6426212B2 (ja) 制限されたキャリー演算による算術コーディングを遂行するための方法及び装置
RU2214679C2 (ru) Способ квантования для итеративного декодера в системе связи
US9251845B2 (en) Multi-level enumerative encoder and decoder
JP2006129467A (ja) 整数データの無損失適応符号化・復号化
JP2020077969A (ja) 符号化装置、復号装置、符号列のデータ構造、符号化方法、復号方法、符号化プログラム、復号プログラム
Rissanen et al. Coding and compression: A happy union of theory and practice
Heinen et al. Robust speech transmission over noisy channels employing non-linear block codes
CN120452458A (zh) 一种音频数据实时压缩的传输方法、装置、设备、介质及产品
JPH0470125A (ja) 音声信号の符号化方法
JPH11163737A (ja) 情報源の符号化及び復号化の高速化装置
MXPA98005510A (es) Procesamiento de datos de una señal de cadena de bits