FR2884661A1 - Procede et dispositif de decodage d'un code a longueur variable prenant en compte une information de probabilite a priori - Google Patents

Procede et dispositif de decodage d'un code a longueur variable prenant en compte une information de probabilite a priori Download PDF

Info

Publication number
FR2884661A1
FR2884661A1 FR0503818A FR0503818A FR2884661A1 FR 2884661 A1 FR2884661 A1 FR 2884661A1 FR 0503818 A FR0503818 A FR 0503818A FR 0503818 A FR0503818 A FR 0503818A FR 2884661 A1 FR2884661 A1 FR 2884661A1
Authority
FR
France
Prior art keywords
decoding
priori
information
probability information
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
FR0503818A
Other languages
English (en)
Inventor
Pierre Siohan
Valerian Mannoni
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Orange SA
Original Assignee
France Telecom SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by France Telecom SA filed Critical France Telecom SA
Priority to FR0503818A priority Critical patent/FR2884661A1/fr
Priority to PCT/EP2006/061237 priority patent/WO2006108768A1/fr
Publication of FR2884661A1 publication Critical patent/FR2884661A1/fr
Withdrawn legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/03Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words
    • H03M13/05Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words using block codes, i.e. a predetermined number of check bits joined to a predetermined number of information bits
    • H03M13/11Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words using block codes, i.e. a predetermined number of check bits joined to a predetermined number of information bits using multiple parity bits
    • H03M13/1102Codes on graphs and decoding on graphs, e.g. low-density parity check [LDPC] codes
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/03Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words
    • H03M13/05Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words using block codes, i.e. a predetermined number of check bits joined to a predetermined number of information bits
    • H03M13/11Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words using block codes, i.e. a predetermined number of check bits joined to a predetermined number of information bits using multiple parity bits
    • H03M13/1102Codes on graphs and decoding on graphs, e.g. low-density parity check [LDPC] codes
    • H03M13/1105Decoding
    • H03M13/1111Soft-decision decoding, e.g. by means of message passing or belief propagation algorithms
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/63Joint error correction and other techniques
    • H03M13/6312Error control coding in combination with data compression
    • H03M13/6318Error control coding in combination with data compression using variable length codes

Landscapes

  • Physics & Mathematics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Error Detection And Correction (AREA)

Abstract

Procédé de décodage de données numériques reçues correspondant à des données numériques émises codées à l'aide d'un code à longueur variable représenté par un arbre à nombre d'états fini, associant un symbole source distinct à chacun des mots de code d'un alphabet, comprenant les étapes suivantes :- détermination (54), pour au moins un élément binaire constituant chacun desdits symboles, d'une information de probabilité a priori de la valeur dudit élément binaire, en fonction d'au moins un élément binaire précédent et/ou suivant et dudit code à longueur variable ;- estimation (53) de la valeur dudit élément binaire, tenant compte de ladite information de probabilité a priori.

Description

2884661 2
proposant différentes alternatives par rapport à un décodeur classique dit tandem. L'art antérieur du décodage des VLC, de type Huffman, transmis avec codage canal à travers des canaux bruités peut se classer en deux catégories: - a) décodage itératif source canal conjoint: ce schéma de DCSC utilise le principe "turbo" entre le décodeur canal et le décodeur source à savoir qu'une itération de décodage est composée d'une itération de décodage canal (SISO, pour Soft Input Soft Output , ou entrée douce sortie douce ) suivie d'une itération de décodage source (SISO) avec échange d'informations extrinsèques entre ces deux décodeurs; - b) décodage source canal conjoint contrôlé par la source: cette méthode de décodage consiste à décoder le code canal en y insérant les probabilités a priori binaires calculées à partir de la structure du CLV et des probabilités d'occurrences de chaque symbole source. Ce type de décodeur DCSC a été développé uniquement pour des codes de canal définis par des treillis.
3. Inconvénients de ces techniques de l'art antérieur Les méthodes du premier type présente une grande complexité. En effet, si l'utilisation du principe turbo permet de réduire la complexité par un rapport à un système optimal, le coût opératoire s'avère encore être très important, et donc difficile à mettre en application.
Un inconvénient de la méthode du second type est qu'elle est utilisable uniquement pour des codes correcteurs d'erreurs définis par des treillis. Or tous les codes correcteurs d'erreurs ne se représentent pas par des treillis, et en particulier parmi ceux-ci certains codes pseudoaléatoires présentant d'excellentes performances, nommés code de Tanner (tels que les codes LDPC, les codes de Tanner Tail-Biting , ...). Pour cette famille de code, il n'est pas possible, à l'aide des connaissances actuelles, d'effectuer du décodage canal contrôlé par la source.
4. Objectifs de l'invention L'invention a notamment pour objectif de pallier ces inconvénients de l'art antérieur.
2884661 3 Plus précisément, un objectif de l'invention est de fournir une technique de décodage de données codées par un code à longueur variable représentable sous la forme d'une machine à nombre fini d'états (code de type b)) qui soit plus efficace que les techniques connues.
Notamment, un objectif de l'invention est de fournir une telle technique de décodage adaptée au cas où le code canal est un code de Tanner et où la source est codée par un CLV.
L'invention a également pour objectif de fournir une telle technique, permettant d'atteindre, ou au moins d'approcher, les performances optimales de décodage au sens du MAP (maximum de vraisemblance a posteriori).
Un autre objectif de l'invention est de fournir une telle technique, présentant une complexité de réalisation acceptable pour des systèmes de réception grand public, par exemple un mobile recevant un signal vidéo. 5. Caractéristiques principales de l'invention Ces objectifs, ainsi que d'autres qui apparaîtront plus clairement par la suite, sont atteints à l'aide d'un procédé de décodage de données numériques reçues correspondant à des données numériques émises codées à l'aide d'un code à longueur variable représenté par un arbre à nombre d'états fini, associant un symbole source distinct à chacun des mots de code d'un alphabet.
Selon l'invention, ce procédé comprend les étapes suivantes: détermination, pour au moins un élément binaire constituant chacun desdits symboles, d'une information de probabilité a priori de la valeur dudit élément binaire, en fonction d'au moins un élément binaire précédent et/ou suivant et dudit code à longueur variable; - estimation de la valeur dudit élément binaire, tenant compte de ladite information de probabilité a priori.
Ainsi, l'estimation est optimisée, du fait que l'on prend en compte non seulement le signal reçu, mais également la source. En tenant compte de la source, notamment de ses statistiques et/ou de sa structure, la qualité du décodage peut se rapprocher des performances optimales, de façon relativement simple et efficace.
2884661 4 Il est notamment avantageux de tenir compte à la fois du passé et du futur (considérant un instant t), toujours pour améliorer l'efficacité du décodage.
De façon préférentielle, ladite étape de détermination d'une information de probabilité a priori tient compte de probabilités d'occurrences desdits symboles source, lesdites probabilités étant connues et/ou estimées.
Cette approche est relativement simple à mettre en oeuvre, et présente une bonne efficacité.
Avantageusement, à chacun desdits symboles sont associés des éléments binaires d'information et des éléments binaires de redondance, et une information de probabilité a priori est déterminée pour chaque élément binaire d'information.
Selon un mode de réalisation particulier, ladite étape de détermination d'une information de probabilité a priori utilise des informations de vraisemblance.
D'autres modes de calcul sont bien sûr envisageables.
Avantageusement, le procédé de l'invention met en oeuvre un graphe de décodage comprenant des noeuds de données et des noeuds fonctionnels, et comprend au moins une itération des passes suivantes: - une passe de donnée, dans laquelle un noeud de donnée q délivre un premier message de sortie sous la forme suivante: v(i) - uo.q + z9(-i) + un,niq') bq 1, K q.p > , )\p où u est un message venant d'un noeud fonctionnel; z représente le log rapport a priori; q est l'indice d'un noeud de donnée; 1 est l'indice d'itération; n est l'indice d'un noeud fonctionnel (pour un message d'entrée) ; p est l'indice d'un noeud fonctionnel (pour un message de sortie) ; K est le nombre de bits d'information; V(n) est l'ensemble des indices de noeuds fonctionnels; 30 2884661 5 - une passe de contrôle, dans laquelle un noeud fonctionnel délivre un second message de sortie u;tq fonction des messages provenant des noeuds de données.
Dans ce cas, après N itérations, la décision finale sur la valeur binaire de 5 chacun desdits noeuds de donnée peut valoir: b(l) = q 1 -sign(wq( ) dq =1,..., N. ) = -1) -1) Où wq - u0,q + Zql + un(1,q d q = 1, ..., K, nE n) pour les bits d'information, et wql) =uoq+ un'q) dq=K+1,... ,N. nE n)
pour les bits de redondance, où N est la taille du mot code; K est le nombre de bit d'information.
De façon avantageuse, le critère d'arrêt desdites itérations appartient au groupe comprenant: - un nombre maximum d'itérations; - une convergence vers un mot de code.
Selon un aspect avantageux de l'invention, on met en oeuvre une étape de 20 seuillage appliquée auxdites informations de probabilité a priori.
Cette approche permet de lutter contre les risques de désynchronisation et de propagation d'erreurs. Il est à noter qu'elle peut être mise en oeuvre dans d'autres types de décodage correcteur d'erreurs.
Selon un mode de réalisation préférentielle, ladite étape de seuillage borne 25 en valeur absolue un log-rapport a priori calculé de la façon suivante: -Kz si zgl) < -Kz z(l = zl si -K s z(l) s q 9 K z q z KZ si zql> > K. 2884661 6 où K, est la valeur maximale que peut atteindre le log rapport a priori en valeur absolue pour un niveau maximum de dégradation des performances prédéterminé ; bq est la valeur binaire du noeud de donnée d'indice q.
L'invention concerne également les dispositifs de décodage de données numériques mettant en oeuvre le procédé décrit ci-dessus. Un tel dispositif comprend notamment: - des moyens de détermination, pour au moins un élément binaire constituant chacun desdits symboles, d'une information de probabilité a priori de la valeur dudit élément binaire, en fonction d'au moins un élément binaire précédent et/ou suivant et dudit code à longueur variable; - des moyens d'estimation de la valeur dudit élément binaire, tenant compte de ladite information de probabilité a priori.
L'invention concerne encore les programmes informatiques mettant en oeuvre le procédé de décodage présenté ci-dessus.
6. Liste des figures D'autres caractéristiques et avantages de l'invention apparaîtront plus clairement à la lecture de la description suivante d'un mode de réalisation préférentiel de l'invention, donnée à titre de simple exemple illustratif et non limitatif, et des dessins annexés parmi lesquels: - la figure 1 est un organigramme simplifié du principe d'un décodage LDPC itératif, en une passe de donnée et une passe de contrôle; la figure 2 illustre schématiquement un décodeur conjoint source-canal selon l'invention; - la figure 3 présente un exemple d'arbre d'un code CLV de Huffman; - la figure 4 illustre le calcul d'une probabilité binaire généralisée; - la figure 5 est un exemple de graphe factoriel du décodeur de la figure 2, prenant en compte des probabilités a priori binaires de la source; 2884661 7 - la figure 6 illustre, pour une source sans mémoire, le mécanisme de calcul des probabilités a priori pour le décodeur de la figure 2; la figure 7 présente la structure générale d'un dispositif de décodage selon l'invention.
7. Description d'un mode de réalisation préférentiel L'invention propose donc une nouvelle technique de décodage de données codées à l'aide d'un code à longueur variable (VLC, en anglais: Variable Length Code ) représentables sous forme de machine à nombre fini d'états. Cette technique offre la possibilité de mettre en oeuvre le décodage des codes de Tanner contrôlé par la source, et propose une méthode dont la complexité de réalisation est relativement faible, notamment par rapport aux méthodes de l'état de l'art antérieur de catégorie a).
7.1 Codage Le codage utilisé dans le cadre de l'invention est connu en soi. Les étapes principales de mise en oeuvre de celui-ci sont les suivantes: - les données (symboles sources avec ou sans mémoire) sont codées par un code à longueur variable, représentable par une machine à nombre d'états fini (par exemple de type Huffman) ; - la séquence binaire résultante est alors protégée par un code canal de la famille des codes de Tanner (par exemple, un code LDPC où la contrainte correspond à un ensemble d'équations de vérification de parité, ou un code de Tanner Tail-Biting où la contrainte se réalise par un ensemble de petits codes convolutifs associés, ...).
Les données codées sont ensuite transmises sur un canal qui peut introduire des distorsions.
7.2 Décodage Le principe du décodage selon l'invention est illustré en figure 1. Il comprend les opérations suivantes: dans un premier temps, un décodage itératif du code canal est effectué. Ce décodage des données est réalisé en tenant compte de la source (décodage 2884661 8 canal contrôlé par la source), c'est-à-dire en exploitant la statistique de celle-ci ainsi que sa structure. Cette information provenant de la source est injectée sous forme de probabilités a priori binaires, ou de rapports de vraisemblance, qui sont calculées à partir des probabilités d'occurrences des symboles de la source (supposées connues ou estimées à la réception). Une itération 11 de ce décodage canal contrôlé par la source est séquencée en deux étapes, à savoir: ^ une première étape 111, nommée passe de donnée, correspond à une mise à jour des messages (log rapport de vraisemblance) lorsqu'ils 10 passent par un noeud de donnée: É un message sortant d'un noeud de donnée (représentant un bit d'information) et se dirigeant vers un noeud fonctionnel est la somme du log-rapport de vraisemblance observé en sortie du canal, des messages provenant des noeuds fonctionnels connectés au noeuds de données traités sauf celui où se dirige le message en cours de traitement, et du log-rapport a priori fonction des caractéristiques suivantes de la source: ses statistiques et sa structure; É Pour calculer le log-rapport a priori, il est tout d'abord nécessaire d'effectuer l'estimation du mot de code à chaque itération. Ainsi, le log-rapport a priori de la source injecté à l'itération courante sera fonction du mot de code décidé à l'itération précédente. Cette approche est nouvelle. En effet, dans les codes de l'art antérieur l'information est injectée uniquement dans l'itération courante, sans avoir à décider du mot de code. Ce log-rapport a priori injecté est donc fonction de la statistique de la source, de la structure du codeur source et est calculé en tenant compte des bits précédents et suivants le bit courant, comme cela est détaillé par la suite; É Pour les noeuds de données représentant les bits de redondance l'étape de passe de donnée reste identique à celle présentée dans le 20 25 30 2884661 9 document Factor Graphs and the Sum-product Algorithm , IEEE Transaction on Information Theory, vol.47, n 2, pp. 498-519, Feb. 2001, par F.R. Kschichang, B.J. Frey and H.-A. Loeligler.
^ Une deuxième étape 112, nommée passe de contrôle, correspond à la mise à jour des messages lorsqu'ils passent par un noeud de contrôle.
Elle est identique à celle présentée dans le document sus-mentionné.
On itère (12) les deux étapes précédentes jusqu'à un critère d'arrêt 13 qui peut être un nombre maximum d'itérations, la convergence vers un mot de code (syndrome nul), ...
Avantageusement, un seuillage des log-rapports a priori source que l'on injecte lors de la passe de donnée est prévu (comme expliqué par la suite) .
Finalement, les bits décodés par le décodeur canal sont ensuite décodés par un décodeur source dit "dur" c'est-à-dire que la séquence binaire provenant du décodeur canal est transformée en une séquence de symboles sources suivant la
table de codage VLC.
7.3 Chaîne de communication La chaîne de communication d'un exemple de mise en oeuvre de l'invention est représentée sur la figure 2. Les symboles sources ck sont convertis par un codeur de Huffman 21 en un bloc de M bits d, , 1=J,...,K, lesquels sont à nouveau codés par un codeur LDPC 22 pour former le mot de code b,,...,b,, (n=l,...,N) de taille N, qui assure ensuite la mise sur constellation par une MDP2 (modulation de phase à deux états), la séquence x,, est émise à travers un canal 23 BABG (bruit additif blanc Gaussien). Au niveau du récepteur, le signal reçu y,, est alors envoyé au décodeur LDPC 24 auquel on ajoute selon l'inventeur un complément d'information correspondant aux probabilités a priori binaires 25 provenant du codeur source. La séquence de symboles estimés ck est finalement obtenue après le décodage "dur" 26 source.
7.4 Décodage source canal conjoint La figure 7 illustre schématiquement un décodeur selon l'invention. Ce codeur comprend des moyens de traitement 71, recevant des coefficients à 2884661 10 décoder 72, et délivrant des données décodées 73, en tenant compte des probabilités a priori. Le procédé de décodage est stocké dans une mémoire de programme 74. Une mémoire vive 75 permet la mémorisation des données intermédiaires et des données de reconstruction du signal original.
Le décodeur source-canal conjoint de l'invention se présente sous la forme d'une concaténation d'un décodeur canal, dont on injecte les probabilités a priori binaires provenant du codeur source, avec un décodeur source "dur". Les probabilités a priori binaires injectées lors du décodage canal ne correspondent pas à des probabilités "statiques" d'apparitions de "0" ou de "1" sur l'ensemble du bloc mais a des probabilités "dynamiques" calculées localement sur chacun des bits en fonction de la structure de la source. On suppose que les probabilités d'occurrences des symboles sont parfaitement connues, sachant qu'elles peuvent être estimées par un turbo estimateur robuste tel que décrit dans le document FR-0450593. Pour présenter l'intérêt d'exploiter cette connaissance lors du décodage des codes LDPC, il est d'abord nécessaire de dériver les probabilités des symboles source au niveau bit pour qu'elles puissent être associées aux vraisemblances du canal dans le cadre d'un décodage de codes LDPC. Dans ce nouveau contexte, pour pouvoir tirer meilleur parti de l'information a priori, le calcul des probabilités tel qu'il a été proposé dans le document Joint Source- Channel Decoding of Variable Length Codes for Convolutional Codes and Turbo codes , IEEE Transactions on Communications, vol. 53, n 1, pp. 10- 15, Jan. 2005, par M. Jeanne, J.-C. Carlach and P. Siohan, pour les codes convolutifs et les turbo codes doit être fortement revu. En effet, dans cette méthode de calcul, la séquence de bits est décodée séquentiellement et seuls le bit courant et les bits précédents influent dans la modification apportée au calcul des métriques. Cependant, dans le cadre de l'utilisation de codes en blocs tel que les codes LDPC et du décodage de ceux-ci par propagation de croyance il devient possible d'insérer à chaque itération de décodage des probabilités a priori calculées à partir de la séquence binaire précédent le bit considéré ainsi que de la séquence suivant ce bit.
7.4.1 Calcul des probabilités a priori binaires des mots de codes CLV Dans le présent mode de réalisation, on utilise un CLV de type Huffman. Les codes de Huffman peuvent être représentés par un arbre à nombre de noeuds Ni fini tel que représenté sur la figure 3. Notons par C = Il c 1 l'ensemble des symboles sources où chaque symbole c' EC a pour expression binaire c' _ [c'(l),...,c'(i),...] avec c' (i) la valeur du ième bit définissant le symbole c' . Les paramètres du code de Huffman représenté par l'arbre de la figure 2 sont alors Nc = card (C) = 5, c' = [0, 0, 0], c2 = [0, 0, l], c3 = [0,1], c4 = [1,0] et c5 = [1, l].
Dans le document susmentionné, on a naturellement proposé de calculer les probabilités a priori binaires en exploitant l'information provenant de la séquence binaire précédent le bit traité. Pour effectuer ce calcul, il est tout d'abord nécessaire de poser = {n E N tai < k,c" (i) =c '(i)} comme étant l'ensemble des indices de tous les mots de code possédant les mêmes k-1 premiers bits que le mot de code c. Par convention, on fixe I; _ {1,...,C} . La probabilité du symbole c' et celle du bit c' (i) seront notées respectivement P(c') et P (c' (i) ). La probabilité de chaque branche de l'arbre représentant le code CLV (correspondant chacune à une probabilité binaire) peut être exprimée à l'aide des probabilités des symboles source et par exploitation de la structure de l'arbre. Si on utilise uniquement l'information causale soit la séquence binaire précédent le bit traité, la probabilité de chaque branche dans le cas d'une source sans mémoire peut s'exprimer par la relation suivante: (bq) =P(e'(k)e'(1),...,c'(k 1)) P(c" ) nElk lc' (k) =c'(k) (1) P(cn) nEIA où bq est le bit dont on cherche la probabilité a priori et la séquence binaire précédent ce bit permettant de déterminer, sous hypothèse de synchronisation, lequel des symboles sources on traite, soit ici ci. Notons que l'indice j peut être, indifféremment, l'indice de n'importe quel symbole source à condition que ce symbole soit atteignable par la séquence binaire 12 [c' (1),..., cf {k -1), cJ (k), . Si l'on considère par exemple la probabilité correspondant à la branche de l'arbre comprise entre les noeuds N, et N3, soit la probabilité P(c1(2) 1 ci(1)) (tel qu'illustré en figure 3) : P(ci(2) cl(1)) P(Nz Ni) = P(c) + P(c2) s P(c) + P(c) + P(c) De par la structure en bloc des codes LDPC et du fait que la plupart des algorithmes permettant de les décoder fournissent à chaque itération une estimation de l'ensemble de la séquence binaire émise, on peut généraliser le calcul des probabilités a priori binaires de la source en y insérant, en plus de l'information provenant de la séquence binaire précédent le bit traité (information causale), celle venant du ou des bits suivants (information non causale). Toute cette information est disponible à l'itération précédente de décodage.
La probabilité a priori binaire généralisée à partir des probabilités d'occurrences de chaque symbole (supposées parfaitement connues) ainsi que de la structure de l'arbre CLV constituant la source peut alors s'exprimer à l'aide des relations suivantes. D'après l'équation (1), on a: (8) P(bq =0 b1,...,bq-1,b(1+i,...,bq+ )= P(c k) = 0 c'(1),...,c'(k 1), bq+,...,bq+rA'h, ), (3) où N,,,,, désigne le nombre de bits constituant la séquence binaire "non causale".
La méthode de calcul de cette probabilité consiste à évaluer les probabilités de chacune des deux trajectoires sur l'arbre définissant le code CLV, tel qu'illustré en figure 4, correspondants à celle où bq=0 (ou c'(k)=0) et celle où b,/=1 (ou ci(k)=l) et ensuite à les normaliser. Ainsi, on pose: 2884661 13 P(6q=0,...,bq+;v,,,,, )=P(c'(k)=0 c'(1),.,., c'(k 1),bq+,,,..,bq+,h,,, ) p,,, (c' (k) = 0 ' c' (1), ..., c' (k -1), bq+ ,, ..., bq+,tiN,, ) c'(1),,..,e'(k 1),bq+,,...,bq+;v)+P, , (c'(k) =1 c'(l) ,.., k -1), bq+,, ..., bq+ ) (4) où (c'(k) = 0( c'(1),...,c'(k-1), bq+,,... ,b,/+,v) représente la probabilité "non normalisée" que c'(k) = 0 connaissant la séquence binaire précédant et suivant le bit considéré soit la séquence [c'(1),...,c'(k-1),bq+,,...,b<<+,n] . Cette probabilité P,,,, (c' (k) =0) est constituée d'un produit de deux probabilités à savoir celle correspondant à l'information "causale" avec celle "non causale" et s'exprime par: P(c") :v, P (c'(k)=01c'(l) c'(k-1)b) ='EI(k-k)=O flP(b 1) ) nn,... , q+,,..., y+tVh P(c") +y (5) De la même manière que pour le développement de l'équation (1), on peut réécrire l'équation (5) : Pn (cJ(k) = 0 1 c'(1),...,c'(k-1),bq+,,...,bq+:vh)= P(cn) ,vh,, nElàc"(k)=c k)=O p(c'(Y)(o) cJ(Y)(1) cJ(Y)(O-1)) P(en) ,..., L)J YnEI (6) où la synchronisation sur le mot de code c'(Y) est effectuée à partir de la connaissance de la séquence [b,,...,bq = 0,...,bq+Y_,,bq+Y] ce qui permet d'avoir c (0) = bq+Y. Finalement, cette probabilité non normalisée aura pour expression Pn (c'(k) = 0 (c'(k) = O1 c'(1),..., c'(k 1),b00+>,...,bq+A,.,P(c") P(c s) Elk'c"(k)=c'(k)=0 pE4'1c" ((88) =c 'Y'(0) P(c'') Gr P(cs) 1El A (7) Si l'on prend à nouveau l'exemple du calcul de la probabilité 5 correspondant à la branche de l'arbre comprise entre les noeuds N, et N3 mais en tenant compte ici de la connaissance du bit bq+, ce qui correspond à la probabilité P (c' (2) =1 c' (1),bq+,) (Cf. figure 2). Si b<<+1=1, cette probabilité peut alors s'écrire: P(cl(2)=1I c(l),bq+1 =1) = P(N31 N, ,bq+. =1) P(N31 N1)P(N7 1 N3) P(N3 I N,)P(N71 N3)+P(N41 NI)P(N,1 No) (P(cI)+P(c')) P(c') P(c')+P(c2) (P(c')+ P(c2)) 1 P, +(P(c')+P(c2))(P(c')+P(c2)+P(c3)) P(c) + + P(c- ) (8) La figure 4 illustre le calcul de cette probabilité a priori binaire. généralisée. Dans le cas où les symboles de la source présentent une relation markovienne d'ordre 1, les calculs des différentes probabilités binaires doivent être revus en considérant chaque symbole comme un symbole précédent possible. Ainsi, l'équation (1) définissant la probabilité a priori binaire dans le cas causal se développe comme suit: P(b9)= P(bq), (9) où la séquence définie par (a) permet de déterminer le symbole précédent que l'on notera c"' et de se synchroniser sur le noeud N, (soit sur le début du mot de code du symbole source traité, noté c'). La séquence (b) quant à elle définit les k-1 premiers du mot de code du symbole ci. Par conséquence, cette probabilité a priori peut s'écrire: P (bq b, , ..., bq_, )=P(c'(k)1 ci (1), ..., c' (k -1), c"' ) P(cn cm) nElk Ic' (k)=c k) (10) P(cn nElk On calcule maintenant cette probabilité dans le cas où l'on dispose de l'information binaire non causale, soit la probabilité : P(b9 1b,,...,b)= P(b b,,...,b k,b k+,,...,b9- b)É (11) On applique le même raisonnement que pour le passage de l'équation (3) à (4) soit: P(bq =01b,,..,,bq)=P(C](k)=OCi(1),,.,,Ci(k_l),C)7),bq+I,.,,bq+\) p,, ,(c'(k)=01c'(1),...,c'(k-1),cn, bq+,,..,,bq+) P,(c'(k)=0 c'(1),.,.,c'(k1) c ' bq+I,)+P,,,,(è(k)=k-1," bq+ .,.,bq+\',,::) (12) où P,,,,(c'(k) =0(c'(1) ,...,e'(k 1),c"',bq+,) est la probabilité "non normalisée" de c'(k) = 0 dans le cas où la source présente mémoire markovienne d'ordre 1. De la même façon que pour le cas "causal", on obtient la relation suivante: ) ICm (c'(k) = O1 c'(1),...,c'(k 1),cln bq+l,...,b9+Yh < )= p(c cDl) Vhnc nelic"(k)=cP(k)=o p(c'0')(6)1 ci(Y)(1) ci(r)(6 -1)c'n(Y) ) P(cn 1 ci") Y Y,EI (13) où c"'( représente le symbole précédent à cm et est déterminé par la séquence binaire [b,,...,bf = b(1+y] . Ainsi, on peut écrire: P n (c' (k) = 0 c' (1), ..., c' (k -1), c ' b9+1, ..., bq+:, h P(cn Cn,) P(c1 cm(Y)) E nli l c"(k)=c (k)=0 Vnno pel4(Y);cP(9)=c' (9) P(cn cln) 0 P(cP cm())) nEI/ .6E0 (14) 7.4.2 Introduction des probabilités a priori binaires lors du décodage de codes
LDPC
Après avoir développé la méthode de calcul des probabilités a priori binaires, on explique maintenant comment l'invention procède pour injecter cette probabilité lors du décodage itératif de codes de Tanner et plus particulièrement ici lors du décodage itératif de codes LDPC. On présente un exemple d'application de l'invention qui consiste en l'injection des probabilités binaires lors du décodage par propagation de croyance de codes LDPC. Cependant, l'invention est directement applicable à d'autres décodeurs de codes LDPC tel que ceux connus sous les désignations anglaises suivantes: le BP-based algorithm , 1 < APP algorithm , 1 < APP-based algorithm , le X min algorithm , ?ç- min* algorithm ... Elle est également directement applicable aux codes de Tanner de type Tail-biting .
Le graphe factoriel du décodeur LDPC contrôlé par la source (DCSC) est représenté sur la figure 5. L'algorithme de décodage résultant est donc basé sur tin algorithme de propagation de croyance tel que décrit dans le document Kschischang déjà cité, à l'intérieur duquel l'étape de mise à jour des messages lors de leur passage par un noeud de donnée (soit la passe de donnée) a été modifiée, et ce uniquement pour les bits d'information 51 qui sont les seuls à contenir une information provenant de la source (contrairement aux bits de redondance 52).
Ainsi, on injecte (54) les probabilités a priori binaires de la source. La relation définissant la mise à jour des messages lors de leur passage par un noeud de donnée 53 pour les bits d'information s'écrit: V(I) =Il + z(' ') + u(1-') vq 1, , K q,p 0,q q n,9 > n)\p P(b = 0I b('-'' b(-', b(I-1) b(-I) ) OU Z(1 ' =log q 1 ' 2,..., q-I ' q+l,..., q P(b =1 b('-') b(<-') q 1 1, 2,..., q-I, q+l) log-rapport a priori et bi' la valeur du jième bit d'information décidé à l'itération 1-1 de décodage. A la première itération de décodage, l'information provenant de la source n'est pas disponible ainsi z(i ) = 0. Pour les bits de redondance 52, on a toujours: Vq, p = u0,q + Zfn,q bq = K + 1,..., N. (16) rie (n)\p La figure 6 illustre un exemple pour une source sans mémoire du 20 mécanisme de calcul des probabilités a priori pour notre décodeur source-canal conjoint, où Nb =1, c'est-à-dire que l'on cherche dans cet exemple à calculer la probabilité P(bq 1bl,_1 b;',+1 ). L'estimation des bits à l'itération précédente est indiquée à l'intérieur de chaque noeud de donnée. En fonction de la valeur de bq dont on cherche à calculer la probabilité a priori, deux "trajectoires" sont à explorer à savoir celle où bq=0 correspondant aux noeuds Ni 61 encadrés par des pointillés (uniquement à partir du noeud de donnée symbolisant le bit bq) et celle où bq=l correspondant aux noeuds laissés en trait plein. Ainsi, à partir des équations (4) et (7), on peut écrire: (15) représente le 2884661 18 P(N3 I N1)P(N7 I N3)+P(N4 I NI)P(NI I No) (P(c') + P(c ) ,P(c) Z P(c) + P(c)(P(c')+P(c')) P(c) +(P(c')+P(c'))(P(c')+P(c')+P(c3)) P(c) + p(c) (17) P(bq =1(11(1-1) 62(1-1),...,b(l-I),b(+11)) = P(N4 I N1)P(N1 No) P(N3I NI) P(N7 I N3)+P(N41 NI)P(NI I No) (P(c1)+P(c2))(P(cI)+P(c2)+P(c3)) (18) Ce qui permet finalement de déduire le log-rapport a priori du bit bel à 10 l'itération l de décodage: P(b = 01 È,(1-1) 1;'(I-I) b(I-1) 21-1) = log q 1 2 q-1 ' bq(+1-I 1) ) q P(b = l I b(1 1) [(1 1) b(1-1) b(1-1) q 1, 2,..., q-I ' q+1) La mise à jour des messages lors de leur passage par un noeud de contrôle reste inchangée par rapport à celle présentée précédemment. Afin de déterminer les bits d'information dj('-I) à chaque itération, il est nécessaire de calculer le log- rapport a posteriori à chaque itération. Comme pour l'étape de passe de donnée, la relation définissant le log-rapport a posteriori dans le cadre du DCSC est dérivée de celle définie précédemment et ne change que pour les bits d'information, soit: ) (1-1) (1-1) wq = uo c1 + zq + 21,4, V q = 1,..., K, (20) nE (n) P(N3 N, ) P(N7 N3) p(bq = 0 b'-1) b(1-1) bo-l) &(1-1)) = et (P(c1) + P(c2)) , P(c) + (P(c') + P(c2))(P(c') + P(c2) + P(c3) P(c) + p(c2) p(c1) (19) = log (P(c' } + P(c' (P(c1) + p(c2) + P(c3) ).
et pour les bits de redondance: w(t) = uo,9 + ZfnIq1' , d q = K + 1,..., N. (21) nE (n) Ainsi, le mot de code décidé à l'itération 1 s'obtient par: 1- sign(w( ) bqr) = q Vq =1, ..., N. 2 (22) Les bits d'informations obtenus à l'itération 1, lesquels sont nécessaires lors du calcul des probabilités a priori source, sont alors: dql> =b(l), dq=1,. ..,K. (23) 7.4.3 Seuillage des log-rapports a priori Une faiblesse du codage à longueur variable est qu'il présente potentiellement un risque de propagation d'erreur. Pour limiter le risque de désynchronisation, on découpe le train de bits générés par la source en paquets. Les méthodes de DCSC où le décodeur canal est contrôlé par la source supposent donc une mise en paquets avec, dans le cas des codes LDPC, des blocs de la taille d'un mot de code. Dès lors qu'une erreur survient dans l'estimation des bits d'information le calcul des log-rapports a priori devient erroné injectant ainsi une mauvaise information source et ce jusqu'à une éventuelle resynchronisation à l'intérieur du bloc.
La désynchronisation, lorsqu'elle se produit, a généralement pour conséquence de détériorer les performances, le terme "généralement" venant du fait que cette dégradation n'est pas systématique et qu'elle est fonction d'une part du code canal utilisé et d'autre part des valeurs des log-rapports a priori injectés (en valeur absolue) et donc des probabilités d'occurrences des symboles sources.
En effet, en cas de désynchronisation, il est plus facile pour le code correcteur d'erreurs de compenser l'injection de mauvais log-rapports a priori à condition qu'ils soient de faible valeur absolue (équation (15)). Etant donné que les codes LDPC étaient plus sensibles à ce phénomène de désynchronisation, il est avantageux de modifier l'algorithme de décodage source canal conjoint en limitant la "confiance" accordée à ces messages provenant de la source. Pour ce faire, il suffit de borner en valeur absolue les log-rapports a priori injectés lors du décodage, soit: K_ si z(l) < Kz z(') = zc') si K s z(') s K q - q, K, si z'> > Kz où K. représente la valeur maximale que peut atteindre le log-rapport a priori en valeur absolue pour ne pas engendrer trop de dégradation des performances. Le choix de ce coefficient peut être effectué expérimentalement, en fonction de la source choisie et éventuellement du rapport signal à bruit.
Ce seuillage des log-rapports a priori (ou des probabilités a priori) de la source injectés lors du décodage canal contrôlé par la source peut être d'une manière générale appliqué à n'importe quelle famille de codes correcteurs d'erreurs et ce, que ce soit dans un contexte de codage source effectué par un CLV ou bien par un code à longueur fixe (CLF). Ainsi, pour une source codée par un code CLF et protégée par un code convolutif tel que présenté dans le document Source-Controlled channel decoding , IEEE Transactions on Communications, vol. 43, n 9, pp. 2249- 2457, sept. 1995, il suffit d'appliquer le seuillage défini par l'équation (24) sur le log-rapport a priori injecté dans l'équation (21) de [ Hagenauer95 [. Pour le cas d'une source codée par un CLV et protégée soit par un code convolutif soit par un turbo-code introduit dans le document Jeanne et al déjà cité, on réécrit l'équation (24) dans le domaine des "probabilités", soit pour la probabilité a priori p(bq) : Kp si p(bq) < Kp p(bq) = p(bq) si Kp s p(bq) s 1 Kp (25) 1 Ki, si p(bq) >1 Kp (24) 2884661 21 où KK est ici une probabilité de seuillage comprise entre 0 et 0,5. On peut ainsi appliquer cette transformation aux probabilités a priori injectées dans l'équation (4) du document Jeanne et al. dans la cas d'un code convolutif et dans les équations (11), (12) et (14) de ce document dans le cas du turbo-code.
2884661 22

Claims (11)

REVENDICATIONS
1. Procédé de décodage de données numériques reçues correspondant à des données numériques émises codées à l'aide d'un code à longueur variable représenté par un arbre à nombre d'états fini, associant un symbole source distinct à chacun des mots de code d'un alphabet, caractérisé en ce qu'il comprend les étapes suivantes: - détermination (54), pour au moins un élément binaire constituant chacun desdits symboles, d'une information de probabilité a priori de la valeur dudit élément binaire, en fonction d'au moins un élément binaire précédent et/ou suivant et dudit code à longueur variable; estimation (53) de la valeur dudit élément binaire, tenant compte de ladite information de probabilité a priori.
2. Procédé de décodage selon la revendication 1, caractérisé en ce que ladite étape de détermination (54) d'une information de probabilité a priori tient compte de probabilités d'occurrences desdits symboles source, lesdites probabilités étant connues et/ou estimées.
3. Procédé de décodage selon l'une quelconque des revendications 1 et 2, caractérisé en ce qu'à chacun desdits symboles sont associés des éléments binaires d'information (51) et des éléments binaires de redondance (52), et en ce qu'une information de probabilité a priori est déterminée (54) pour chaque élément binaire d'information.
4. Procédé de décodage selon l'une quelconque des revendications 1 à 3, caractérisé en ce que ladite étape de détermination (54) d'une information de probabilité a priori utilise des informations de vraisemblance.
5. Procédé de décodage selon l'une quelconque des revendications 1 à 4, caractérisé en ce qu'il met en oeuvre un graphe de décodage comprenant des noeuds de données et des noeuds de fonctionnel, et en ce qu'il comprend au moins une itération des passes suivantes: une passe de donnée (111), dans laquelle un noeud de donnée q délivre un premier message de sortie sous la forme suivante: vil) = u + z(1-1) + ) U fl,q V 1 K q,P 0,q q n,q, CÎ = , É É, , (15) nn)\P où u est un message venant d'un noeud fonctionnel; z représente le log rapport a priori; q est l'indice d'un noeud de donnée; 1 est l'indice d'itération; n est l'indice d'un noeud fonctionnel (pour un message d'entrée) ; p est l'indice d'un noeud fonctionnel (pour un message de sortie) ; K est le nombre de bits d'information; V(n) est l'ensemble des indices de noeuds fonctionnels; une passe de contrôle (112), dans laquelle un noeud fonctionnel délivre un second message de sortie u(nl9 fonction des messages provenant des noeuds de données.
6. Procédé de décodage selon la revendication 5, caractérisé en ce que la décision sur la valeur binaire de chacun desdits noeuds de donnée vaut: bel) = 1 sign(wg1)) dq =1, ..., N. q 2 où W(1) = Uo + Z(1-1) + ne U(1-1) q q n,9 n) pour les bits d'information, et wql) =uoq+ ) u,, lq), b'q=K+1,. ..,N.
pour les bits de redondance où N est la taille du mot code, K est le nombre de bit d'information.
7. Procédé de décodage selon l'une quelconque des revendications 5 et 6, caractérisé en ce qu'il met en oeuvre un critère d'arrêt desdites itérations appartenant au groupe comprenant: 10 (22) Vq =1,...,K, 2884661 24 - un nombre maximum d'itérations; une convergence vers un mot de code.
8. Procédé de décodage selon l'une quelconque des revendications 1 à 7, caractérisé en ce qu'il met en oeuvre une étape de seuillage appliquée auxdites informations de probabilité a priori.
9. Procédé de décodage selon la revendication 8, caractérisé en ce que ladite étape de seuillage borne en valeur absolue un log-rapport a priori calculé de la façon suivante: K2 si z(l) < Kz z(1) = z(l) si K z(l) s K 9 9 z q z Kz si zgl Kz où KZ est la valeur maximale que peut atteindre le log rapport a priori en valeur absolue pour un niveau maximum de dégradation des performances prédéterminé ; bq est la valeur binaire du noeud de donnée d'indice q.
10. Dispositif de décodage de données numériques reçues correspondant à des données numériques émises codées à l'aide d'un code à longueur variable représenté par un arbre à nombre d'états fini, associant un symbole source distinct à chacun des mots de code d'un alphabet, caractérisé en ce qu'il comprend: - des moyens de détermination, pour au moins un élément binaire constituant chacun desdits symboles, d'une information de probabilité a priori de la valeur dudit élément binaire, en fonction d'au moins un élément binaire précédent et/ou suivant et dudit code à longueur variable; des moyens d'estimation de la valeur dudit élément binaire, tenant compte de ladite information de probabilité a priori.
11. Programme informatique comprenant des instructions de code de programme pour l'exécution des étapes du procédé de décodage selon l'une quelconque des revendications 1 à 9 lorsque ledit programme est exécuté par un microprocesseur.
FR0503818A 2005-04-15 2005-04-15 Procede et dispositif de decodage d'un code a longueur variable prenant en compte une information de probabilite a priori Withdrawn FR2884661A1 (fr)

Priority Applications (2)

Application Number Priority Date Filing Date Title
FR0503818A FR2884661A1 (fr) 2005-04-15 2005-04-15 Procede et dispositif de decodage d'un code a longueur variable prenant en compte une information de probabilite a priori
PCT/EP2006/061237 WO2006108768A1 (fr) 2005-04-15 2006-03-31 Procédé et dispositif de décodage d'un code à longueur variable prenant en compte une information de probabilité a priori

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR0503818A FR2884661A1 (fr) 2005-04-15 2005-04-15 Procede et dispositif de decodage d'un code a longueur variable prenant en compte une information de probabilite a priori

Publications (1)

Publication Number Publication Date
FR2884661A1 true FR2884661A1 (fr) 2006-10-20

Family

ID=34955313

Family Applications (1)

Application Number Title Priority Date Filing Date
FR0503818A Withdrawn FR2884661A1 (fr) 2005-04-15 2005-04-15 Procede et dispositif de decodage d'un code a longueur variable prenant en compte une information de probabilite a priori

Country Status (2)

Country Link
FR (1) FR2884661A1 (fr)
WO (1) WO2006108768A1 (fr)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015101203B4 (de) 2015-01-28 2021-06-17 Seereal Technologies S.A. Lichtmodulationsvorrichtung und holographische Anzeigevorrichtung
EP3451561A1 (fr) * 2017-08-28 2019-03-06 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Décodeur hybride pour aloha crénelé codé
CN108733924B (zh) * 2018-05-21 2022-05-10 东南大学 一种数字编码超材料单元的智能化设计方法
CN114301545B (zh) * 2021-12-03 2024-04-19 网络通信与安全紫金山实验室 信号检测方法、装置、电子设备及存储介质

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
BOND J W ET AL: "Decoding low-density generator matrix codes with the aid of comma-free source codes", INFORMATION THEORY WORKSHOP, 1998 KILLARNEY, IRELAND 22-26 JUNE 1998, NEW YORK, NY, USA,IEEE, US, 22 June 1998 (1998-06-22), pages 75 - 76, XP010297356, ISBN: 0-7803-4408-1 *
GUIVARCH L ET AL: "Joint source-channel soft decoding of Huffman codes with turbo-codes", DATA COMPRESSION CONFERENCE, 2000. PROCEEDINGS. DCC 2000 SNOWBIRD, UT, USA 28-30 MARCH 2000, LOS ALAMITOS, CA, USA,IEEE COMPUT. SOC, US, 28 March 2000 (2000-03-28), pages 83 - 92, XP010377348, ISBN: 0-7695-0592-9 *
JÖRG KLIEWER AND RAGNAR THOBABEN: "Combining FEC and optimal soft-input source decoding for the reliable transmission of correlated variable-length encoded signals", DATA COMPRESSION CONFERENCE, 2002. PROCEEDINGS. DCC 2002, 4 April 2002 (2002-04-04), XP002338985 *
LIUGUO YIN, JIANHUA LU, YOUSHOU WU: "Combined hidden Markov source estimation and low-density parity-check coding: a novel joint source-channel coding scheme for multimedia communications", WIRELESS COMMUNICATIONS COMMUNICATIONS AND MOBILE COMPUTING, vol. 2, no. 6, 30 October 2002 (2002-10-30), XP002338939 *
WEI XIANG: "Joint Source-Channel Coding for Image Transmission and Related Topics", PHD THESIS, December 2003 (2003-12-01), XP002338938, Retrieved from the Internet <URL:http://www.library.unisa.edu.au/adt-root/uploads/approved/adt-SUSA-04112004-175228/public/02whole.pdf> [retrieved on 20050802] *

Also Published As

Publication number Publication date
WO2006108768A1 (fr) 2006-10-19

Similar Documents

Publication Publication Date Title
EP0808538B1 (fr) Dispositif de reception de signaux numeriques a structure iterative, module et procede correspondants
FR2909499A1 (fr) Procede et dispositif de decodage pour codes ldpc, et appareil de communication comprenant un tel dispositif
EP2806565B1 (fr) Procede de decodage d&#39;un code correcteur, par exemple un turbo-code, par analyse du spectre etendu des mots du code
EP3443678B1 (fr) Methode de décodage d&#39;un code polaire avec inversion de bits peu fiables
FR2905209A1 (fr) Procede et dispositif de decodage de blocs encodes avec un code ldpc
WO1997038495A1 (fr) Procede et dispositif de codage convolutif de blocs de donnees, et procede et dispositif de decodage correspondants
FR2765749A1 (fr) Decodeur a base de syndrome a decision ponderee pour codes a convolution
FR2778289A1 (fr) Decodage iteratif de codes produits
WO2009044031A1 (fr) Procede et dispositif d&#39;encodage de symboles avec un code du type a contrôle de parite et procede et dispositif correspondants de decodage
EP2661814A1 (fr) Procédé de décodage et décodeur
EP1728330A1 (fr) Procede de decodage conjoint source-canal et decodeur conjoint source-canal associe
FR2912574A1 (fr) Procede de decodage a passage de messages et a convergence forcee.
FR2884661A1 (fr) Procede et dispositif de decodage d&#39;un code a longueur variable prenant en compte une information de probabilite a priori
EP1128589A1 (fr) Critère d&#39;interruption pour un décodeur turbo
EP2833555B1 (fr) Procede ameliore de decodage d&#39;un code correcteur avec passage de message, en particulier pour le decodage de codes ldpc ou codes turbo
EP2661815A1 (fr) Procédé de correction de messages contenant des bits de bourrage
FR2891419A1 (fr) Decodage d&#39;une pluralite de flux d&#39;informations codees selon un algorithme de codage par blocs.
EP0774840A1 (fr) Procédé de transmission d&#39;une séquence de bits d&#39;information avec protection sélective contre les erreurs de transmission, procédés de codage et de correction pouvant être mis en oeuvre dans un tel procédé de transmission
EP1481480A2 (fr) Procede de traitement d un signal mettant en oeuvre un algorithme de type map approche et applications correspondantes.
WO2008129195A1 (fr) Codage et decodage de signaux de donnees de rendements variables
EP2262116B1 (fr) Décodeur Viterbi avec deux memoires adapté aux signaux GNSS
FR2829636A1 (fr) Procede de qualification de codes correcteurs d&#39;erreurs, procede d&#39;optimisation, codeur, decodeur et application correspondants
Jégou Robust codes and joint source-channel codes for multimedia transmission over mobile channels
FR2835666A1 (fr) Module acs dans un decodeur
EP1475895A1 (fr) Dispositif et procédé d&#39;addition-comparaison-sélection-ajustement dans un décodeur

Legal Events

Date Code Title Description
ST Notification of lapse

Effective date: 20061230