ES2416065T3 - Procedimiento y dispositivo para la cuantificación de cocientes de probabilidad - Google Patents

Procedimiento y dispositivo para la cuantificación de cocientes de probabilidad Download PDF

Info

Publication number
ES2416065T3
ES2416065T3 ES09764705T ES09764705T ES2416065T3 ES 2416065 T3 ES2416065 T3 ES 2416065T3 ES 09764705 T ES09764705 T ES 09764705T ES 09764705 T ES09764705 T ES 09764705T ES 2416065 T3 ES2416065 T3 ES 2416065T3
Authority
ES
Spain
Prior art keywords
quantification
values
probability
signal processing
intervals
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES09764705T
Other languages
English (en)
Inventor
Wolfgang Rave
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Vodafone Holding GmbH
Original Assignee
Vodafone Holding GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vodafone Holding GmbH filed Critical Vodafone Holding GmbH
Application granted granted Critical
Publication of ES2416065T3 publication Critical patent/ES2416065T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L25/00Baseband systems
    • H04L25/02Details ; arrangements for supplying electrical power along data transmission lines
    • H04L25/06Dc level restoring means; Bias distortion correction ; Decision circuits providing symbol by symbol detection
    • H04L25/067Dc level restoring means; Bias distortion correction ; Decision circuits providing symbol by symbol detection providing soft decisions, i.e. decisions together with an estimate of reliability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L1/00Arrangements for detecting or preventing errors in the information received
    • H04L1/004Arrangements for detecting or preventing errors in the information received by using forward error control
    • H04L1/0045Arrangements at the receiver end
    • H04L1/0047Decoding adapted to other signal detection operation
    • H04L1/005Iterative decoding, including iteration between signal detection and decoding operation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L1/00Arrangements for detecting or preventing errors in the information received
    • H04L1/004Arrangements for detecting or preventing errors in the information received by using forward error control
    • H04L1/0056Systems characterized by the type of code used
    • H04L1/0064Concatenated codes
    • H04L1/0066Parallel concatenated codes

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Power Engineering (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Complex Calculations (AREA)
  • Error Detection And Correction (AREA)

Abstract

Procedimiento de procesamiento de señales para la cuantificación de coeficientes de probabilidad devariables aleatorias binarias, siendo éstos probabilidades cuantificadas, transmitiéndose loscoeficientes entre dos o más unidades de procesamiento de señales, caracterizado pormaximizar (10) la información mutua entre las variables aleatorias binarias y lascorrespondientes cuantificadas en una distribución de probabilidad predeterminada de loscoeficientes de probabilidad mediante la variación de los intervalos de cuantificación y de los valoresde cuantificación, y determinar los intervalos de cuantificación y los valores de cuantificación de la informaciónmutua máxima, y cuantificar (18) los coeficientes de probabilidad utilizando el intervalo de cuantificación y losvalores de cuantificación de la de información mutua máxima.

Description

PROCEDIMIENTO Y DISPOSITIVO PARA LA CUANTIFICACIÓN DE COCIENTES DE PROBABILIDAD
Campo técnico
La invención se refiere a un procedimiento de procesamiento de señales para la cuantificación del cociente de probabilidad aleatoria binaria en una transmisión entre dos o más unidades de procesamiento de señales.
Además, la invención se refiere a un dispositivo de procesamiento de señales para la cuantificación del cociente de probabilidad aleatoria binaria en una transmisión entre dos o más unidades de procesamiento de señales.
Estado de la técnica
Son conocidos diversos procedimientos de procesamiento de señales donde las unidades de procesamiento de las señales conectadas intercambian valores de probabilidad para realizar determinadas tareas en una cadena de procesamiento de señales o para facilitar un procesamiento de señales iterativo. Un ejemplo conocido en la técnica de tal tipo de procesamiento de señales es la codificación de “código turbo” que se emplea en redes de telefonía móvil de tercera generación (por ejemplo UMTS). En este ejemplo, dos decodificadores generan cada uno una hipótesis en relación con un patrón de utilización de bit recibido. Para ello se derivan y se utilizan probabilidades, los denominados valores de probabilidad. Los decodificadores intercambian los valores de probabilidad y generan cada uno una nueva hipótesis teniendo en cuenta los valores de probabilidad del otro decodificador. Este procedimiento se repite de forma iterativa las veces necesarias para que ambos decodificadores proporcionen la misma hipótesis para el patrón de utilización de bits.
A menudo se generan los denominados cocientes de probabilidad log y se intercambian como valores de probabilidad entre las diferentes unidades de procesamiento de señales. El cociente de probabilidad log de una variable aleatoria binaria X ∈ {+1, -1} se define como:
donde PX (x) describe la probabilidad de que la variable aleatoria X adopte el valor x. Las variables aleatorias como X o L(X) se identifican aquí con su letra mayúscula y su valor x, l con su letra minúscula. Por “log” se entiende el logaritmo natural. El cociente de probabilidad log L(X) también se denomina en lo que sigue valor L o LLR (Log-Likelihood-Ratio) de la variable aleatoria X. El rango de valores de L (X) va desde -∞ hasta + ∞.
El signo de L(X) determina si x = +1 ó x = -1. Esta determinación se llama también Hard-Decision. El valor |L(X)| describe la fiabilidad de esta determinación.
La distribución de los valores L en el rango de valores ± ∞ o bien la densidad de los valores L depende del ruido que aparece en un canal utilizado para la transmisión de los valores x. Para un canal gaussiano los valores L siguen una distribución gaussiana bimodal.
Debido a que para el valor medio μ y la varianza σ2 se aplica la relación μL = σL2/2, la densidad LLR pL (l) depende únicamente de un valor σL o σL2 a partir de:
La suposición de un canal gaussiano se aplica al AWGN (ruido gaussiano adicional blanco) o a los canales 40 planos Rayleigh y en general, por aproximación, a bloques de datos de grandes longitud.
Los valores L deben transmitirse con una exactitud finita entre las diferentes unidades de procesamiento de señales para su procesamiento digital. El necesario paso de cuantificación genera inevitables ruidos de cuantificación, que son equivalentes a una pérdida de información del sistema de procesado. En general una cuantificación escalar genera valores L continuos en un conjunto limitado de valores r¡ discretos de R, denominados valores de cuantificación, nivel de cuantificación o niveles de reconstrucción. Para ello, se determinan los valores límite D (= R + 1) o los niveles de determinación di en el rango de valores ± ∞ de L. Un valor L en un intervalo [di, di+1) se plasma en el correspondiente nivel de reconstrucción ri. En lo que sigue se utilizan las denominaciones nivel de reconstrucción y nivel de determinación.
Aumentando el número R del nivel de reconstrucción ri, se reduce la pérdida de información en la tarea de transmisión de datos y de procesado adicional. Por este motivo se limita el número R de niveles de reconstrucción ri. Se puede reducir aún más la pérdida de información mediante una determinación adecuada de los niveles de reconstrucción ri y de los niveles de determinación di. Por otro lado, la cuantificación adecuada facilita una reducción ventajosa de la tasa de datos.
Para una distribución gaussiana bimodal de los valores L, una cuantificación uniforme a intervalos uniformes [di, di+1] y niveles de reconstrucción ri en el centro de estos intervalos conlleva considerables errores o bien un alto ruido de cuantificación. Muchos valores L diferentes en los niveles de reconstrucción ri generan menos intervalos, mientras que otros niveles de reconstrucción ri rara vez se utilizan. En particular, no se considera la distribución de probabilidad de los valores L y el contenido de información de los valores L. Los errores de cuantificación se mantienen especialmente durante el procesado iterativo de señales e influyen negativamente en el conjunto del procesado de señales.
Un procedimiento de cuantificación no uniforme conocido para valores escalares es la cuantificación Lloyd Max, según S. Lloyd, "Least squares quantization in PCM," (unpubl Bell Lab. Techn. Note, 1957) IEEE Trans. Inf. Theory, vol. IT-28, pp. 129 -137, 1982 y J. Max, "Quantizing for minimum distortion", IEEE Trans. Inf. Theory, vol. 6, pp. 7-12, 1960. En esta cuantificación se minimiza el error cuadrático medio (MSE: Mean Square Error) entre las densidades de probabilidad de los valores continuos y cuantificados. Para ello, se adaptan a varios pasos iterativos los niveles de determinación di y los niveles de reconstrucción ri. Cuando se trata de cocientes de probabilidad logarítmicos, este procedimiento tiene la desventaja de utilizar muchos niveles de valores L de gran tamaño para mantener el error cuadrático medio en valores pequeños, aunque una modificación de la fiabilidad ya es muy pequeña para estos valores L.
En el artículo de S. Khattak, W. Rave y G. Fettweis, "Distributed Iterative Multiuser Detection through Base Station Cooperation", EURASIP J. on Wireless Comm. and Networking Volume 2008, Article ID 390489, se describe una cuantificación no uniforme para cocientes de probabilidad logarítmicos. Para generar los valores L se usan los denominados "Soft-Bits" A(X) = E{X} = tanh(L(X)/2). Con esta transformación se limita el rango de valores a [-1, 1] y se consigue una saturación con creciente fiabilidad o una alta magnitud para los valores
L. La cuantificación Lloyd Max se aplica ahora a una expresión para la densidad "Soft-Bit" para determinar los niveles de determinación di y los niveles de reconstrucción ri adecuados. Con esta medida se adaptan mejor los niveles di y ri a una distribución existente y a un contenido de información de los valores L.
Sin embargo, sigue existiendo la necesidad de un procedimiento optimizado para la cuantificación de cocientes de probabilidad log para minimizar los errores durante el procesado de señales y el esfuerzo necesario. Especialmente el error cuadrático medio entre los cocientes de probabilidad log continuos y cuantificados no es un criterio óptimo para determinar los niveles de determinación di y los niveles de reconstrucción ri.
Descripción de la invención
Así un objetivo de la invención es evitar las desventajas del estado de la técnica actual y optimizar la sintonización mutua de la tasa de datos y de la exactitud de la cuantificación de cocientes de probabilidad durante una transmisión.
Según la invención, este objetivo se alcanza mediante un procedimiento según la reivindicación 1 y mediante un dispositivo de cuantificación según la reivindicación 6.
La información mutua entre las variables binarias y los cocientes de probabilidad cuantificados se puede obtener como función de los niveles de reconstrucción y de determinación cuando existe una distribución de probabilidad y una densidad de probabilidad predeterminadas. Según la invención, se maximiza la información mutua antes de una cuantificación de los cocientes de probabilidad mediante la variación de los niveles de reconstrucción y de determinación. Para ello se puede utilizar, por ejemplo, un procedimiento de descenso más inclinado y otro procedimiento de optimización numérica adecuado. Los niveles optimizados se utilizan a continuación para cuantificar los cocientes de probabilidad.
Mediante tal optimización directa de los niveles de reconstrucción y de determinación en cuanto a la información máxima mutua tras el procedimiento según la invención y con el dispositivo según la invención, se minimiza la pérdida de información mutua durante la cuantificación. Cuando se transmiten los cocientes de probabilidad cuantificados entre las unidades de procesado de señales se producen ventajosamente menor ruido de cuantificación. Con la misma tasa de datos, la pérdida de información mutua es inferior y el procedimiento de procesado de señales se puede llevar a cabo con mayor exactitud. Por otro lado, se facilita la reducción de la tasa de datos mediante un nivel más bajo con la misma pérdida de información mutua, pudiendo realizar el procesado de señales con más rapidez y menor esfuerzo.
En una realización preferente del procedimiento según la invención, para determinar los niveles de determinación y de reconstrucción se procesan las señales para cuantificar los cocientes de probabilidad teniendo en cuenta la varianza de los cocientes de probabilidad antes de la cuantificación. La varianza es adecuada, por ejemplo, para una distribución gaussiana bimodal, como ocurre en los canales AWGN o en los canales planos Rayleigh, para describir la distribución de probabilidad o la densidad de probabilidad de los cocientes de probabilidad. Para la cuantificación se pueden determinar de forma óptima los niveles de reconstrucción y de determinación adecuados adaptados a una varianza determinada del cociente de probabilidad. La pérdida de información mutua se minimiza correspondientemente gracias a una cuantificación adaptada a la varianza existente.
Otra realización preferente del procedimiento de la invención prevé la adaptación de una función de aproximación como función de varianza a los niveles de reconstrucción o de determinación determinados en diferentes varianzas y determinar los niveles de reconstrucción y de determinación durante la cuantificación mediante la función de aproximación. Por ejemplo, se utiliza una función de aproximación correspondiente para uno, varios o todos los niveles de reconstrucción y de determinación. Con esta medida se facilita la determinación rápida y sencilla de los niveles óptimos correspondientes a una varianza determinada. Así, no es necesaria una maximización laboriosa y complicada de la información mutua mediante un procedimiento adecuado de optimización para cada cuantificación.
Para la aplicación del procedimiento según la invención preferentemente se utiliza una tabla de valores y/o una interpolación cuando se determinan los niveles de reconstrucción o de determinación. Esto es posible de forma adicional o alternativa a la función de aproximación. Así, se pueden realizar también determinación de niveles óptimos en el sentido de la información mutua máxima de forma rápida y sin laboriosos procedimientos de optimización.
Además, en una realización ventajosa del procedimiento según la invención, se lleva a cabo una codificación entrópica de los niveles de reconstrucción. Al realizar una cuantificación con maximización de la información mutua se consiguen niveles de reconstrucción que se utilizan con diferentes probabilidades. Con esta codificación entrópica a los niveles de reconstrucción se les adjudica los denominadores de nivel o patrones de bits de diferente longitud. Para ello se utiliza un código sin prefijo y los niveles de reconstrucción más frecuentes tienen un denominador de nivel más corto. Como codificación entrópica se utiliza por ejemplo la codificación Huffman. De esta forma se consigue una compresión de datos en los niveles de reconstrucción a transmitir. Esto conlleva una reducción eficaz de la tasa de datos cuando se transmiten los cocientes cuantificados de probabilidad.
Una realización preferente del dispositivo de cuantificación según la invención en un procesado de señales para cuantificar los cocientes de probabilidad se consigue proporcionando medios de aproximación para adaptar una función de aproximación como función de varianza a los niveles de reconstrucción o de determinación determinados en diferentes varianzas y un generador de nivel para determinar los niveles de reconstrucción y de determinación cuando se aplica la cuantificación con la función de aproximación. Como en la realización correspondiente del procedimiento según la invención, con esto se evita una maximización laboriosa de muchos recursos de la información mutua mediante los procedimientos de optimización. Se determinan los niveles óptimos dependiendo de la varianza predeterminada de forma rápida y fácil.
Otras realizaciones del dispositivo de cuantificación según la invención se corresponden respectivamente con una realización ya descrita del procedimiento según la invención y disponen de determinadas ventajas que se deducen del objeto de las reivindicaciones dependientes.
A continuación se ilustra un ejemplo de realización de la invención con referencia a las figuras adjuntas.
Breve descripción de las figuras
Fig. 1: diagrama de flujo esquemático de un ejemplo de realización del procedimiento de la
invención. Fig. 2: una comparación de los niveles de reconstrucción ri y de los niveles de decisión di para R =
5 niveles de reconstrucción que, mediante un procedimiento para la maximización de la
información mutua, se optimizan directamente según un procedimiento Max-Lloyd utilizando los valores L y según un procedimiento Max-Lloyd utilizando los valores L en “soft bits”.
Fig. 3: una comparación de la pérdida de información mutua Δl entre los valores L cuantificados y los valores L no cuantificados como función de la información mutua media IC para los niveles de reconstrucción R = 2 – 8. Se comparan además los cuantificaciones con la maximización de la información mutua por cuantificación directa de los valores L y por cuantificación “soft bits” de los valores L respectivamente según el procedimiento de Max Lloyd.
Fig. 4: tabla de los coeficientes adaptados a, b y c de la función de aproximación
para los niveles de reconstrucción y los niveles de decisión en los niveles de reconstrucción R = 2, 3, 4, 5, 6, 8.
Fig. 5: porcentaje de error en bit de una decodificación Log-Map de un código PCC (G = [1,5/7], longitud de bloque N = 2000, canal AWGN) cuando se emplea una cuantificación para maximizar información mutua en comparación con un la utilización de una cuantificación directa del valor L según Lloyd-Max.
Fig. 6: muestra la entropía de los valores L, que se cuantifica con la maximización de información mutua Lq(X;L) como función de σ2L (líneas continuas) y la longitud de identificador media (grados) alcanzable con una codificación tridimensional de Huffman.
Ejemplo de realización preferente
A continuación se explican en detalle los fundamentos y las expresiones matemáticas para posteriormente describir un procedimiento a modo de ejemplo de cualificación de los cocientes de probabilidad junto con su correspondiente ajuste.
La información mutua o trans-información es una cantidad conocida por los expertos de la teoría de la información, e indica la fuerza de un contexto estadístico entre dos variables aleatorias. La información mutua 1(X, L) entre dos variables X y L describe la disminución media de la incertidumbre de x cuando se conoce l yviceversa. Ésta se describe, por ejemplo, en Thomas M. Cover, Joy A. Thomas, Elements of Information Theory; segunda edición, John Wiley & Sons, 2006. Se utiliza aquí la información mutua para determinar el promedio de pérdida de información de datos binarios en una cuantificación de los correspondientes valores
L. Con un conjunto determinado de niveles de reconstrucción ri y niveles de decisión di se calcula la información mutua 1(X, L) entre las variables binarias X ∈ {1, -1} y la correspondiente densidad discreta cuantificada del valor L, así como la densidad del valor L continua no cuantificada. La información mutua para una densidad continua es:
Para un canal gaussiano, la integración es factible en caso cuantificable discreto. La información mutua entre X y el correspondiente cociente de probabilidad log cuantificado con la suma de los dos posibles valores bit de la información bit X ∈ {+1, -1} se puede representar como:
En lugar de la función de error erf(x), también puede utilizarse la distribución normal estándar. Con “ld” se describe el logaritmo en base 2. Con μL = σL2 /2 se describe la ecuación, en el número predeterminado R de los niveles de reconstrucción y la varianza predeterminada σL2 o la desviación estándar μL de los valores L, la información mutua Iq (X,L) en función de los niveles de reconstrucción ri y de los niveles de decisión di.
La diferencia Δl = lc-lq entre las dos informaciones mutuas representa la pérdida de información por cuantificación. Las derivadas con respecto a los niveles de reconstrucción ri para 1 ≤ i≤R son:
Las derivadas con respecto a los niveles de decisión di para 1 ≤ i ≤ R+1 son:
Para minimizar la pérdida de información Δl, la información mutua Iq debe maximizar la densidad del valor L
5 cuantificado. Para una varianza predeterminada σL2 y un número predeterminado R de niveles de reconstrucción, la maximización de la información mutua Iq se obtiene mediante el correspondiente ajuste de los niveles de reconstrucción ri y de decisión di.
La Fig. 1 muestra un diagrama de flujo esquemático de un ejemplo de realización. En una primera etapa del procedimiento de descenso inclinado u otro procedimiento de optimización numérico adecuado, para
10 maximizar la información mutua Iq se emplea un rectángulo 10. Además, para el ajuste de cuantificación correspondiente se proporcionan medios para determinar los niveles de reconstrucción y de decisión mediante la maximización de la información mutua. Con la maximización de la información mutua Iq se obtiene como resultado una mínima pérdida de información Δl con respecto a los niveles de reconstrucción optimizados ri y los de decisión di.
15 En los diagramas de la Fig. 2 se representa tal maximización para niveles de reconstrucción determinados ri y para los niveles de decisión di ejemplificados para R = 5 y ciertas varianzas como puntos huecos (°) y con “máx. MI” la “Información Mutua Máxima”. Para niveles de reconstrucción R = 5, los niveles de decisión d1y dR+1 tienen los valores σL2, mientras que los cuatro niveles de decisión restantes tienen valores finitos. Por motivos de simetría aparecen tanto en los niveles de reconstrucción como en los niveles de decisión dos
20 pares de niveles, cuyos valores sólo se diferencian en el signo. Asimismo, en la Fig. 2 sólo se representan los niveles positivos. Además, el nivel de reconstrucción R = 5 es independiente de la varianza de valor L, que siempre es igual a cero. Para la comparación se muestran en la Fig. 2 los correspondientes niveles de reconstrucción y de decisión según una cuantificación Lloyd-Max directa de los valores L (LLR cuant.) y una cuantificación Lloyd-Max de “soft bits” (bitcuant. soft).
25 En la Fig. 2 se observa claramente una saturación del nivel esperado después de la cuantificación soft-bit con una varianza creciente σL2 y, por tanto, una mayor cantidad de valores L. Está menos marcado en la maximización de la información mutua. Junto con la optimización ventajosa de los niveles directamente por la expresión no lineal, con esta cuantificación para la información mutua se obtiene, por una optimización independiente de los niveles de decisión, un nuevo grado de libertad a utilizar. Los niveles de decisión no
30 deben estar en el centro entre dos niveles de reconstrucción. Así se consigue una reducción significativa de la pérdida de información mutua durante la cuantificación.
En la Fig. 3 se muestra la disminución de la información mutua Δl entre valores L cuantificados y no cuantificados en función de la información mutua media de los valores L para los niveles de reconstrucción R = 2, 3, 4, 5, 6, 8. En el diagrama se compara la cuantificación mediante la maximización de información 35 mutua (máx MI cuant.) con la cuantificación directa de los valores L (LLR cuant.). Claramente se observa la gran reducción de la pérdida de información mutua cuando se sustituye la cuantificación basada en LLR por la maximización de la información mutua. La reducción disminuye al aumentar el número R de niveles. El otro diagrama de la Fig. 3 compara la cuantificación mediante la maximización de la información mutua (máx. MI cuant.) con la cuantificación “soft-bit” (bitcuant. soft). Con la cuantificación “soft-bit” ya se obtiene una 40 reducción significativa de la disminución de la información mutua frente a la cuantificación LLR directa. En una comparación de los dos diagramas se debe tener en cuenta la diferente escala del eje Y. Sin embargo, la pérdida de información mutua se redujo gracias a la cuantificación por maximización de información mutua frente a la cuantificación “soft bit” de nuevo en ¼. En particular, se debe atribuir a la optimización independiente de los niveles de decisión, como se puede ver en el caso R = 2. En R = 2 no se produce este
grado de libertad adicional, con lo que ambos procedimientos de cuantificación son esencialmente equivalentes.
En otra etapa del procedimiento, rectángulo 12, se ajusta una función de aproximación adecuada de la varianza o de la desviación estándar de algunos σL2 mediante la maximización de la información mutua de determinados valores de un nivel de reconstrucción ri o de decisión di para diferentes varianzas σL2. Para ello,
para todos los niveles en el ejemplo de realización. En la Fig. 2 se representan los dos niveles de reconstrucción y los dos niveles de decisión de acuerdo con las funciones ajustadas f(σL) como líneas. En el ajuste se determinan los coeficientes apropiados a, b y c para un nivel. En un número predeterminado R de niveles de reconstrucción y R+1 de niveles de decisión no es necesario determinar los coeficientes a, b y c debido a la simetría de cada nivel, sino que se reduce a la mitad el número de ajustes necesarios. Además se aplica d1 = -∞, dR+1= +∞, r(R+1)/2 = 0 para R impar y dR/2+1= 0 para R par, independientemente de la varianza σL2 .
En la Tabla de la Fig. 4 se muestran todos los coeficientes necesarios a, b y c para los niveles de reconstrucción R = 2, 3, 4, 5, 6, 8. Con la ayuda de las funciones de aproximación para cada nivel de reconstrucción y de decisión, se observa una determinación rápida y fácil de los niveles óptimos en respuesta a una varianza predeterminada. Así, no siempre es necesario realizar, antes de cada cuantificación, una lenta y larga maximización de la información mutua Iq mediante un procedimiento de optimización adecuado, por ejemplo un procedimiento de descenso más inclinado.
En una realización alternativa, en lugar de la función de aproximación f(σ2)con los respectivos coeficientes se prevé la utilización de una tabla de valores para todos los niveles de reconstrucción y de decisión para el mayor número posible de varianzas diferentes σL2 y una interpolación adecuada. También así es posible la determinación del nivel óptimo en términos de información mutua máxima de σL2y en función de un procedimiento de optimización rápido y fácil antes de la cuantificación.
Antes de la cuantificación de los valores L primero se determina la varianza o la desviación estándar σL2 de los valores L en una unidad de recogida, rectángulo 14. Con la ayuda la función de aproximación f(σ2) y los correspondientes coeficientes a, b, y c se fijan los niveles de reconstrucción óptimos ri y los niveles de decisión di, dependiendo de σL2 o de σL, con respecto a la información mutua mediante un generador de nivel, rectángulo 16. Por último, se realiza una cuantificación, rectángulo 18, de los valores L empleando los niveles de reconstrucción ri y los de decisión di mediante una unidad de cuantificación. Las etapas de procedimiento 14, 16 y 18 se realizan de nuevo, por ejemplo, en un procesamiento de señal iterativo en toda cuantificación para producir los valores L.
A continuación se ilustran las etapas del procedimiento mediante ejemplos de decodificación turbo de un código convolucional paralelo concadenado (PCCC: código convolucional concatenado). Además también se muestra la comparación de una cuantificación directa de los valores L utilizados según Lloyd-Max y la influencia de un procedimiento de cuantificación para valores L en un proceso de procesamiento de señal.
Como código PCC se utiliza un PCCC simple sistemático recursivo con generadores G = [1,5/7], longitud de bloque N= 2000 y un intercalador de probabilidad con puntuación para conseguir una tasa ½. Tal código es conocido por los expertos, por ejemplo, de Thomas M. Cover, Joy A. Thomas, Elements of Information Theory; segunda edición, John Wiley & Sons, 2006. Para la decodificación se utiliza un algoritmo BCJR, donde la aproximación máxima Log-Map (MAP: máxima probabilidad a posteriori) conduce básicamente a los mismos resultados que la versión Log-Map exacta. Aquí se intercambia la información extrínseca existente en una salida de decodificador entre dos decodificadores que trabajan conjuntamente. Para ello, es necesaria una cuantificación de los valores L de la información extrínseca.
En primer lugar, se determina la varianza de los valores L de forma adaptada a la salida del decodificador MAP con el medio de recogida. Para ello, la varianza de |L(X)|, del valor absoluto L de los bits de código, se representa como varianza σL2 . Con ayuda de la función de aproximación y de los correspondientes coeficientes válidos a, b y c (véase Fig. 3) se determinan, a partir de la varianza determinada, los niveles de reconstrucción ri y los niveles de decisión di. Para ello, se utiliza en el ajuste de cuantificación el generador de nivel. Por tanto, los niveles determinados se optimizan para maximizar la información mutua en función de la varianza. Por último, se cuantifican los valores L con los niveles de reconstrucción ri y con los niveles de decisión di determinados mediante la unidad de cuantificación. Este procedimiento se aplica en cada iteración de decodificación. Para varianzas superiores a σL2= 100 se utilizan los niveles para este valor y se escala la distribución del valor L actual para obtener información a partir del valor relativo entre los valores L de forma correspondiente. En este punto es posible interrumpir la iteración.
Para la comparación se realizan las codificaciones con los diferentes R (número de niveles de reconstrucción) en la cuantificación y, además de cuantificación por maximización de información mutua, se lleva a cabo también una cuantificación directa de los valores L según el procedimiento de Lloyd-Max. En la Fig. 5 se representa la frecuencia de error de bit (BER: tasa de error de bits) de la codificación individual como función de la energía de bit de las relaciones de densidad de potencia/ruido Eb/N0. La relación de la energía empleada Eb para un bit de información con respecto a la densidad de potencia de ruido espectral N0 se refiere a la relación ruido/señal de un bit de información. Al aumentar el ruido, es decir, disminuir Eb/N0, en general se incrementa la tasa de error de bit. En el diagrama superior se representan las tasas de error de bit para diferentes R y Eb/N0 utilizando la cuantificación con la maximización de la información mutua (máx. MI cuantificada). Se reconoce claramente una disminución de la tasa de error de bit con el aumento de R. Como referencia (no cuant.) se utiliza la representación no cuantificada de la información a priori. El diagrama inferior muestra las tasas de error de bit para los correspondientes R y Eb/N0 cuando se emplea la cuantificación directa de Lloyd-Max para los valores L. Esta cuantificación generalmente conduce a una tasa de error de bit más elevada que la máx. cuantificación MI.
En otro ejemplo de realización se lleva a cabo adicionalmente la codificación de entropía, rectángulo 20, de los niveles de reconstrucción mediante un codificador de entropía del ajuste de cuantificación. Las codificaciones de entropía son conocidas por los expertos, por ejemplo, de A. Gersho, R. M. Gray, Vector Quantization and Signal Compression, Boston, MA, Kluwer, 1992, y de Thomas M. Cover, Joy A. Thomas, Elements of Information Theory; segunda edición, John Wiley & Sons, 2006. La cuantificación para maximizar la información mutua, así como la cuantificación “soft-bit” proporcionan niveles de reconstrucción que se utilizan con diferentes probabilidades. Las áreas bajo la curva de densidad gaussiana bimodal para cada nivel de reconstrucción son diferentes. Los niveles de reconstrucción clasifican identificadores de nivel o patrones de bits de diferentes longitudes. Para ello, se utiliza un código de prefijo libre y a menudo los niveles de reconstrucción utilizados obtienen un identificador de nivel más corto. De esta forma, se logra una compresión de datos y, en consecuencia, una reducción efectiva de la tasa de datos.
Se calcula un límite inferior de la longitud media del identificador necesaria mediante la entropía de los niveles de reconstrucción:
En la Fig. 6, HR(Lq) se representa como función de la varianza σL2 de diferentes R (número de niveles de reconstrucción) con líneas continuas. La codificación de entropía se realiza, por ejemplo, mediante una codificación tridimensional de Huffman. Para ello, los tres valores L se representan conjuntamente en términos de una cuantificación vectorial. La longitud media del identificador se representa para diferentes R y σL2 en la Fig. 6, respectivamente, como función de paso sobre la curva de entropía. Sin embargo, también es posible utilizar una dimensión diferente u otro procedimiento de codificación. Por ejemplo, se observa una cuantificación de la distribución de valor L-gaussiana bimodal con niveles de reconstrucción R = 4 mediante la maximización de la información mutua. Para σL2 = 10, la entropía supone la probabilidad de nivel bits H = 1,743, una codificación de Huffman mono, bi o tridimensional conduce a una longitud media del identificador de 1,816; 1,775; y 1,746 bits. Si aumenta la varianza de los valores L en σL2= 20, se reduce la entropía a bits H =1,340, que se aproxima mediante una codificación de Huffman mono, bi o tridimensional a los correspondientes bits 1,595; 1,368 y 1,363. También son posibles dimensiones superiores para los correspondientes libros de códigos.

Claims (9)

  1. REIVINDICACIONES
    1. Procedimiento de procesamiento de señales para la cuantificación de coeficientes de probabilidad de variables aleatorias binarias, siendo éstos probabilidades cuantificadas, transmitiéndose los coeficientes entre dos o más unidades de procesamiento de señales, caracterizado por
    maximizar (10) la información mutua entre las variables aleatorias binarias y las correspondientes cuantificadas en una distribución de probabilidad predeterminada de los coeficientes de probabilidad mediante la variación de los intervalos de cuantificación y de los valores de cuantificación, y
    determinar los intervalos de cuantificación y los valores de cuantificación de la información mutua máxima, y
    cuantificar (18) los coeficientes de probabilidad utilizando el intervalo de cuantificación y los valores de cuantificación de la de información mutua máxima.
  2. 2.
    Procedimiento de procesamiento de señales para la cuantificación de coeficientes de probabilidad según la reivindicación 1, caracterizado porque se calcula (14) una varianza del cociente de probabilidad antes de la cuantificación para determinar los mencionados intervalos de cuantificación y los valores de cuantificación.
  3. 3.
    Procedimiento de procesamiento de señales para la cuantificación de coeficientes de probabilidad según la reivindicación 2, caracterizado porque se ajusta (12) una función de aproximación como función de la varianza de los valores de cuantificación determinados o de los intervalos de cuantificación en diferentes varianzas de los mencionados coeficientes de probabilidad y se determinan (16) los valores de cuantificación y los intervalos de cuantificación en la cuantificación mediante dicha función de aproximación.
  4. 4.
    Procedimiento de procesamiento de señales para la cuantificación de coeficientes de probabilidad según las reivindicaciones 1 a 3, caracterizado porque se emplea una tabla de valores y/o una interpolación en la determinación de los citados valores de cuantificación o intervalos de cuantificación.
  5. 5.
    Procedimiento de procesamiento de señales para la cuantificación de coeficientes de probabilidad según las reivindicaciones 1 a 4, caracterizado porque se lleva a cabo una codificación entrópica
    (20) de los valores de cuantificación.
  6. 6.
    Dispositivo de cuantificación para el procesamiento de señales para la cuantificación de los coeficientes de probabilidad de variables aleatorias binarias, donde los citados coeficientes de probabilidad cuantificados se trasmiten entre dos o más unidades de procesamiento de señales, caracterizado porque
    se proporcionan medios (10) para maximizar la información mutua entre las variables binarias y los correspondientes coeficientes de probabilidad cuantificados para una densidad de probabilidad dada de los coeficientes de probabilidad mediante la variación de los intervalos de cuantificación y de los valores de cuantificación, y
    medios para determinar los intervalos de cuantificación y los valores de cuantificación de la información mutua máxima y
    medios para cuantificar (18) los coeficientes de probabilidad utilizando los intervalos de cuantificación y los valores de cuantificación de la información mutua máxima.
  7. 7.
    Dispositivo de cuantificación para el procesamiento de señales para la cuantificación de los coeficientes de probabilidad según la reivindicación 6, caracterizado porque se proporciona una unidad de registro para registrar una varianza de los coeficientes de probabilidad antes de la cuantificación para determinar los mencionados intervalos de cuantificación y los valores de cuantificación.
  8. 8.
    Dispositivo de cuantificación para el procesamiento de señales para la cuantificación de los coeficientes de probabilidad según la reivindicación 7, caracterizado porque incluye medios de aproximación para ajustar una función de aproximación como función de la varianza en los intervalos de cuantificación determinados o en los valores de cuantificación para diferentes varianzas de los
    mencionados coeficientes de probabilidad y un generador para determinar los valores de cuantificación y los intervalos de cuantificación en la cuantificación con la función de aproximación.
    5
    9. Dispositivo de cuantificación para el procesamiento de señales para la cuantificación de los coeficientes de probabilidad según las reivindicaciones 6 a 8, caracterizado porque el ajuste de cuantificación dispone de una memoria con una tabla de valores y/o una unidad de interpolación para determinar los valores de cuantificación o los intervalos de cuantificación.
  9. 10.
    Dispositivo de cuantificación para el procesamiento de señales para la cuantificación de los coeficientes de probabilidad según las reivindicaciones 6 a 9, caracterizado porque se proporciona un codificador entrópico para los valores de cuantificación.
    Entropía H(σ2L), longitud identificador media
ES09764705T 2008-09-26 2009-09-25 Procedimiento y dispositivo para la cuantificación de cocientes de probabilidad Active ES2416065T3 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP08165233 2008-09-26
EP08165233 2008-09-26
PCT/DE2009/075053 WO2010034309A2 (de) 2008-09-26 2009-09-25 Verfahren und einrichtung zur quantisierung von likelihood-quotienten

Publications (1)

Publication Number Publication Date
ES2416065T3 true ES2416065T3 (es) 2013-07-30

Family

ID=42060157

Family Applications (1)

Application Number Title Priority Date Filing Date
ES09764705T Active ES2416065T3 (es) 2008-09-26 2009-09-25 Procedimiento y dispositivo para la cuantificación de cocientes de probabilidad

Country Status (4)

Country Link
US (1) US8798174B2 (es)
EP (1) EP2332301B1 (es)
ES (1) ES2416065T3 (es)
WO (1) WO2010034309A2 (es)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018106155A1 (en) * 2016-12-05 2018-06-14 Telefonaktiebolaget Lm Ericsson (Publ) Methods, encoder and decoder for handling a data stream for transmission between a remote unit and a base unit of a base station system
US10069519B1 (en) * 2018-01-23 2018-09-04 Mitsubishi Electric Research Laboratories, Inc. Partition based distribution matcher for probabilistic constellation shaping

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7299089B2 (en) * 2004-08-20 2007-11-20 Duke University Methods, systems, and computer program products for neural channel selection in a multi-channel system
US8243756B2 (en) * 2007-07-12 2012-08-14 Nokia Corporation Methods, computer program products and apparatus providing improved quantization
CN102017499B (zh) * 2008-04-25 2013-10-16 美国博通公司 用于为2×2多入多出无线系统中的最大似然检测预测信道质量指数值的方法和系统
ES2540916T3 (es) * 2008-05-09 2015-07-14 Vodafone Holding Gmbh Procedimiento y sistema de comunicación de datos

Also Published As

Publication number Publication date
EP2332301B1 (de) 2013-03-13
WO2010034309A2 (de) 2010-04-01
EP2332301A2 (de) 2011-06-15
US8798174B2 (en) 2014-08-05
WO2010034309A3 (de) 2010-11-11
US20110206166A1 (en) 2011-08-25

Similar Documents

Publication Publication Date Title
Vangala et al. A comparative study of polar code constructions for the AWGN channel
US10312946B2 (en) Soft-output decoding of codewords encoded with polar code
ES2894999T3 (es) Selección del tamaño del código madre para la codificación polar
US8650451B2 (en) Stochastic stream decoding of binary LDPC codes
JP5506878B2 (ja) 低密度パリティ検査符号のパリティ検査行列生成方法
Phamdo et al. Quantization of memoryless and Gauss-Markov sources over binary Markov channels
ES2664496T3 (es) Aparato y procedimiento para codificar y decodificar canales en un sistema de comunicación usando códigos de verificación de paridad de baja densidad
Mathar et al. Threshold optimization for capacity-achieving discrete input one-bit output quantization
ES2416065T3 (es) Procedimiento y dispositivo para la cuantificación de cocientes de probabilidad
Phakphisut et al. EXIT chart analysis of nonbinary protograph LDPC codes for partial response channels
US8009773B1 (en) Low complexity implementation of a Viterbi decoder with near optimal performance
CN101964665B (zh) turbo解码中基于Log-MAP的译码方法及其译码装置
JP2022541691A (ja) マルチレベルポーラ符号化変調送信及び受信のための方法及びデバイス
Chen et al. Zero-delay joint source-channel coding for the Gaussian Wyner-Ziv problem
ES2283853T3 (es) Turbo-descodificacion con estimacion iterativa de parametros de canal.
Tian et al. The achievable distortion region of bivariate Gaussian source on Gaussian broadcast channel
JP6155959B2 (ja) 復号化装置、及び、復号化方法
McEliece et al. Truncation effects in Viterbi decoding
CN106921396B (zh) 一种用于ldpc码的混合译码方法
Zhai et al. Stochastic resonance in parallel concatenated turbo code decoding
WO2024084554A1 (ja) 推定装置、設計支援装置、推定方法、設計支援方法及びコンピュータープログラム
CN103701475A (zh) 移动通信系统中8比特运算字长Turbo码的译码方法
Gupta et al. A comparative study of Viterbi and Fano decoding algorithm for convolution codes
Janvars et al. Hard decision decoding of single parity turbo product code with N-level quantization
Wang et al. Efficient early termination criterion for admm penalized ldpc decoder