FR2944167A1 - Procede de decodage par re-encodage, dispositif et programme d'ordinateur correspondants - Google Patents
Procede de decodage par re-encodage, dispositif et programme d'ordinateur correspondants Download PDFInfo
- Publication number
- FR2944167A1 FR2944167A1 FR0952162A FR0952162A FR2944167A1 FR 2944167 A1 FR2944167 A1 FR 2944167A1 FR 0952162 A FR0952162 A FR 0952162A FR 0952162 A FR0952162 A FR 0952162A FR 2944167 A1 FR2944167 A1 FR 2944167A1
- Authority
- FR
- France
- Prior art keywords
- alternative
- data
- decoding
- redundancy
- vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 34
- 238000004590 computer program Methods 0.000 title claims description 4
- 239000013598 vector Substances 0.000 claims abstract description 122
- 230000009897 systematic effect Effects 0.000 claims abstract description 21
- 238000012545 processing Methods 0.000 claims abstract description 12
- 238000004891 communication Methods 0.000 claims description 2
- 238000007476 Maximum Likelihood Methods 0.000 description 9
- 230000005540 biological transmission Effects 0.000 description 9
- 238000004422 calculation algorithm Methods 0.000 description 7
- 101000828739 Homo sapiens SPATS2-like protein Proteins 0.000 description 5
- 102100023521 SPATS2-like protein Human genes 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 5
- 239000011159 matrix material Substances 0.000 description 5
- 238000010276 construction Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 101100210170 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) VRP1 gene Proteins 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 229940050561 matrix product Drugs 0.000 description 1
- 238000004080 punching Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03M—CODING; DECODING; CODE CONVERSION IN GENERAL
- H03M13/00—Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
- H03M13/37—Decoding methods or techniques, not specific to the particular type of coding provided for in groups H03M13/03 - H03M13/35
- H03M13/45—Soft decoding, i.e. using symbol reliability information
- H03M13/451—Soft decoding, i.e. using symbol reliability information using a set of candidate code words, e.g. ordered statistics decoding [OSD]
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03M—CODING; DECODING; CODE CONVERSION IN GENERAL
- H03M13/00—Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
- H03M13/37—Decoding methods or techniques, not specific to the particular type of coding provided for in groups H03M13/03 - H03M13/35
- H03M13/3776—Decoding methods or techniques, not specific to the particular type of coding provided for in groups H03M13/03 - H03M13/35 using a re-encoding step during the decoding process
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03M—CODING; DECODING; CODE CONVERSION IN GENERAL
- H03M13/00—Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
- H03M13/03—Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words
- H03M13/05—Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words using block codes, i.e. a predetermined number of check bits joined to a predetermined number of information bits
- H03M13/13—Linear codes
- H03M13/15—Cyclic codes, i.e. cyclic shifts of codewords produce other codewords, e.g. codes defined by a generator polynomial, Bose-Chaudhuri-Hocquenghem [BCH] codes
- H03M13/1505—Golay Codes
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03M—CODING; DECODING; CODE CONVERSION IN GENERAL
- H03M13/00—Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
- H03M13/03—Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words
- H03M13/05—Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words using block codes, i.e. a predetermined number of check bits joined to a predetermined number of information bits
- H03M13/13—Linear codes
- H03M13/19—Single error correction without using particular properties of the cyclic codes, e.g. Hamming codes, extended or generalised Hamming codes
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03M—CODING; DECODING; CODE CONVERSION IN GENERAL
- H03M13/00—Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
- H03M13/03—Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words
- H03M13/23—Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words using convolutional codes, e.g. unit memory codes
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03M—CODING; DECODING; CODE CONVERSION IN GENERAL
- H03M13/00—Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
- H03M13/29—Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes combining two or more codes or code structures, e.g. product codes, generalised product codes, concatenated codes, inner and outer codes
- H03M13/2906—Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes combining two or more codes or code structures, e.g. product codes, generalised product codes, concatenated codes, inner and outer codes using block codes
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03M—CODING; DECODING; CODE CONVERSION IN GENERAL
- H03M13/00—Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
- H03M13/29—Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes combining two or more codes or code structures, e.g. product codes, generalised product codes, concatenated codes, inner and outer codes
- H03M13/2957—Turbo codes and decoding
- H03M13/296—Particular turbo code structure
- H03M13/2963—Turbo-block codes, i.e. turbo codes based on block codes, e.g. turbo decoding of product codes
Landscapes
- Physics & Mathematics (AREA)
- Probability & Statistics with Applications (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Error Detection And Correction (AREA)
Abstract
L'invention concerne un procédé de décodage de données reçues représentatives de données source et de redondance, obtenues par un code de base systématique de rendement ½, délivrant des mots de code, mettant en oeuvre un traitement des données reçues, délivrant des vecteurs reçus, dont chaque composante comprend une estimation de la donnée source ou de redondance correspondante. Selon l'invention, un tel procédé comprend, pour au moins un desdits vecteurs reçus, les étapes : - identification d'au moins une estimation de données source considérée douteuse; - construction d'au moins un vecteur de données alternatif ; - codage de chacun desdits vecteurs de données alternatifs délivrant un mot de code alternatif ; - calcul d'une distance entre ledit vecteur de données reçues et chacun desdits mots de code alternatifs ; - sélection du mot de code alternatif pour lequel la distance est la plus faible.
Description
Procédé de décodage par ré-encodage, dispositif et programme d'ordinateur correspondants. 1. Domaine de l'invention Le domaine de l'invention est celui du codage de données numériques appartenant à une séquence de données source destinée à être transmise, ou diffusée, notamment en présence de bruit de transmission, et du décodage des données codées ainsi transmises. L'invention trouve des applications dans tous les cas où il est nécessaire de transmettre des informations numériques avec un certain degré de fiabilité. Un domaine d'application privilégié de l'invention est celui de la transmission numérique sur des canaux très bruités. L'invention s'applique notamment, mais non exclusivement, au décodage de données codées par des codes de base systématiques de rendement ces codes de base pouvant être des codes en bloc linéaires ou convolutifs. 2. Art antérieur De façon connue, le décodage de données numériques codées peut être réalisé à l'aide d'un algorithme à maximum de vraisemblance, par exemple l'algorithme de Viterbi, dont les décisions peuvent éventuellement être pondérées. Ce type d'algorithme prend des décisions en tenant compte d'un nombre important de données reçues, et la décision est d'autant plus fiable que le nombre de données reçues prises en compte est élevé. En revanche, plus le nombre de données reçues prises en compte est élevé, et plus la complexité du décodeur est importante. De même, la place mémoire nécessaire et les temps de calcul deviennent également très importants.
De plus, la complexité du décodeur augmente également avec le pouvoir de correction du code, c'est-à-dire le nombre de symboles corrigés par bloc de données. 3. Objectifs de l'invention L'invention a notamment pour objectif de pallier ces inconvénients de l'art 30 antérieur.
Plus précisément, un objectif de l'invention, selon au moins un mode de réalisation, est de proposer une technique de décodage offrant des résultats proches de ceux obtenus par des algorithmes à maximum de vraisemblance. Un autre objectif de l'invention, selon au moins un mode de réalisation, est de fournir une telle technique de décodage moins complexe et peu coûteuse à mettre en oeuvre. 4. Exposé de l'invention L'invention propose une solution nouvelle qui ne présente pas l'ensemble de ces inconvénients de l'art antérieur, sous la forme d'un décodage de données reçues (R) représentatives de données source (D) et de données de redondance (P) correspondantes, obtenues à l'aide d'un code de base systématique de rendement 1/2 délivrant des mots de code, issus d'un alphabet, mettant en oeuvre un traitement des données reçues, délivrant des vecteurs reçus [R], dont chaque composante comprend une estimation de la donnée source, ou de la donnée de redondance correspondante, en lui associant une valeur binaire et une information de confiance. Selon l'invention, un tel procédé comprend, pour au moins un desdits vecteurs reçus, une phase de décodage, comprenant les étapes suivantes : - identification, parmi lesdites estimations de données source, d'au moins une estimation de données source considérée douteuse, au vu desdites informations de confiance ; - construction d'au moins un vecteur de données alternatif, par modification de la valeur binaire d'au moins une desdites estimations douteuses ; - codage de chacun desdits vecteurs de données alternatifs, à l'aide dudit code de base systématique de rendement délivrant un mot de code alternatif, comprenant ledit vecteur de données alternatif et un vecteur de redondance alternatif correspondant, obtenu par ledit codage ; - calcul d'une distance entre ledit vecteur de données reçues et chacun desdits mots de code alternatifs ; - sélection, en tant que représentant le plus probable des données source, du mot de code alternatif pour lequel la distance est la plus faible. Ainsi, l'invention repose sur une approche nouvelle et inventive du décodage de données, permettant d'obtenir des résultats de décodage optimaux (proches de ceux obtenus par un décodage mettant en oeuvre un algorithme à maximum de vraisemblance), avec une mise en oeuvre de complexité réduite. En effet, le procédé selon l'invention repose sur un ré-encodage de certaines estimations de données reçues, en fonction d'une information de confiance qui leur est associée à la suite d'un premier traitement, puis sur un calcul de distance entre ces données estimées ré-encodées et les données reçues. Ainsi, les données estimées considérées comme douteuses sont ré-encodées, après inversion de leur signe, afin d'être évaluées pour déterminer la donnée décodée la meilleure. En particulier, l'invention s'applique au décodage de données codées par 15 un code de base systématique de rendement Il existe des techniques bien connues de l'homme du métier permettant de modifier les mots de code issus d'un code de base, avant de les transmettre sur le canal de transmission, et de transmettre finalement des données codées par un code de rendement inférieur ou supérieur à'/z. 20 La technique de bourrage permet de ne pas transmettre certaines données du mot de code qui constituent une suite de bits connus, par exemple une suite de plusieurs zéros, et d'obtenir également un code de rendement inférieur à'/z. Le poinçonnage des bits de parité permet quant à lui d'obtenir un code de rendement supérieur à '/z, en ne transmettant pas certains bits de parité d'un mot 25 de code. Selon une caractéristique particulière de l'invention, ledit procédé comprend, préalablement à ladite étape de calcul d'un distance, les étapes suivantes, pour au moins un desdits vecteurs reçus : - identification, parmi lesdites estimations de données de redondance, d'au moins une estimation considérée douteuse, au vu desdites informations de confiance ; - construction d'au moins un vecteur de redondance alternatif, par modification de la valeur binaire d'au moins une desdites estimations douteuses ; - codage, inverse dudit code systématique, de chacun desdits vecteurs de redondance alternatifs, délivrant un mot de code alternatif, comprenant ledit vecteur de redondance alternatif et un vecteur de données alternatif correspondant, obtenu par ledit codage inverse. Ainsi, le procédé de décodage selon ce mode de réalisation de l'invention met en oeuvre un double ré-encodage, à la fois des estimations des données source et des estimations des données de redondance. Le premier ré-encodage permet d'obtenir un vecteur de redondance alternatif à partir d'un vecteur de données alternatif préalablement construit par inversion de certaines valeurs binaires d'une estimation de données douteuse, et le second ré-encodage permet d'obtenir un vecteur de données alternatif à partir d'un vecteur de redondance alternatif préalablement construit par inversion de certaines valeurs binaires d'une estimation de redondance douteuse.
De cette manière, le procédé prend non seulement en considération d'éventuelles erreurs sur les données source estimées, mais également d'éventuelles erreurs sur les données de redondance, ou de parité, estimées. Selon un aspect particulier de l'invention, ladite phase de décodage est mise en oeuvre lorsque ledit vecteur reçu n'est pas un mot de code.
Ainsi, le procédé de décodage selon l'invention ne met en oeuvre le ou les ré-encodages de données estimées que lorsque les données reçues ne forment pas un mot de code, issu d'un alphabet connu de mots de code. En effet, si le vecteur de données reçues est un mot de code, on suppose alors que celui-ci est le bon mot de code. En revanche, si le vecteur de données reçues ne correspond pas à un mot de code, le procédé selon l'invention permet de déterminer le mot de code le plus probable, avec un minimum de complexité. En particulier, ladite étape d'identification sélectionne des estimations dont les informations de confiance correspondantes sont inférieures à un seuil de sélection. Ainsi, selon ce mode de réalisation, les estimations obtenues par le premier traitement des données reçues sont associées à des informations de confiance, donnant des indications sur leur fiabilité. On peut donc ensuite sélectionner les estimations obtenues en fonction de leur fiabilité, en comparant les informations de confiance à un seuil de sélection : les estimations dont les informations de confiance sont inférieures à ce seuil sont considérées comme douteuses, ou non fiables, et les autres sont considérées comme fiables. Cette sélection détermine ensuite le nombre d'estimations à ré-encoder 15 pour la suite du procédé de décodage selon l'invention. Selon un autre aspect de l'invention, ladite étape d'identification sélectionne un nombre prédéterminé d'estimations. Le tri des estimations en deux catégories, fiables ou douteuses, peut également se faire en fonction d'un nombre prédéterminé d'estimations que l'on 20 souhaite ré-encoder, en prenant par exemple les mfd estimations ayant les informations de confiance associées les plus faibles. Selon une caractéristique particulière de l'invention, la valeur dudit seuil de sélection et/ou la valeur dudit nombre prédéterminé est variable. Ainsi, on peut sélectionner un nombre variable d'estimations considérées 25 comme douteuses, en fonction par exemple du nombre total d'estimations considérées comme douteuses : par exemple, on sélectionne un nombre restreint d'estimations douteuses si elles représentent la plus de la moitié des estimations obtenues. Ou bien, on peut faire varier le seuil de sélection, en fonction des valeurs 30 des informations de confiance : par exemple, on détermine un seuil de sélection faible, lorsque les informations de confiance sont relativement élevées, cela permet de tenir compte d'un maximum d'estimations considérées douteuses. Par contre, on peut déterminer un seuil de sélection plus élevé lorsque les informations de confiance sont relativement faibles, afin d'éviter une sélection trop importante d'estimations considérées douteuses et donc d'éviter un trop grand nombre de calculs ultérieurement. Par exemple, ladite distance est une distance euclidienne. Selon un mode de réalisation particulier de l'invention, ledit procédé comprend au moins une deuxième phase de décodage, comprenant les étapes 10 suivantes : - pondération dudit mot de code alternatif sélectionné, délivrant un mot de code pondéré ; - identification, parmi les données de redondance dudit mot de code pondéré, d'au moins une donnée de redondance pondérée considérée 15 douteuse, au vu desdites informations de confiance ; - construction d'au moins un vecteur de redondance alternatif, par modification de la valeur binaire d'au moins une desdites données de redondance pondérées douteuses ; - codage, inverse dudit code systématique, de chacun desdits vecteurs de 20 redondance alternatifs, délivrant un second mot de code alternatif, comprenant ledit vecteur de redondance alternatif et un vecteur de données alternatif correspondant, obtenu par ledit codage inverse ; - calcul d'une distance entre ledit vecteur de données reçues et chacun desdits seconds mots de code alternatifs ; 25 - sélection, en tant que représentant le plus probable des données source, du second mot de code alternatif pour lequel la distance est la plus faible. Ainsi, un mode de réalisation de l'invention met en oeuvre une première phase de décodage, suivie d'une ou plusieurs phases supplémentaires de décodage, permettant notamment d'obtenir de bons résultats, tout en réduisant la 30 complexité du décodage grâce au processus itératif.
Selon ce mode de réalisation particulier de l'invention, une décision de décodage, c'est-à-dire un mot de code alternatif obtenu selon l'invention, est pondérée, pour servir à nouveau de base à un décodage selon l'invention. Par exemple, un premier décodage délivre un premier mot de code alternatif, obtenu à partir d'estimations de données source. Ce premier mot de code alternatif sert ensuite de base à un second décodage, mis en oeuvre quant à lui à partir d'estimations de données de redondance du premier mot de code alternatif. Ce second décodage délivre un second mot de code alternatif, pouvant servir de décision de décodage, après pondération, ou de base à un troisième décodage, et ainsi de suite. Le premier décodage peut être appelé < décodage aller > et le second décodage < décodage retour >, comme décrit plus loin selon un exemple de réalisation. La pondération utilisée dans ce mode de réalisation peut être mise en oeuvre en utilisant une technique connue décrite notamment dans le document écrit par R.Pyndiah, A.Glavieux, A.Picard et S.Jacq intitulé < Near Optimum decoding of product codes >, IEEE proc.of GLOBECOM'94, San Fransisco, Nov.1994. L'invention concerne également un dispositif de décodage réalisant une ou 20 plusieurs itérations du procédé de décodage décrit précédemment. Selon l'invention, un tel dispositif de décodage de données reçues (R) représentatives de données source (D) et de données de redondance (P) correspondantes, obtenues à l'aide d'un code de base systématique de rendement 1/2 délivrant des mots de code, issus d'un alphabet, met en oeuvre des premiers 25 moyens de traitement des données reçues, délivrant des vecteurs reçus [R], dont chaque composante comprend une estimation de la donnée source, ou de la donnée de redondance correspondante, en lui associant une valeur binaire et une information de confiance. Selon l'invention, un tel dispositif comprend, pour au moins un desdits 30 vecteurs reçus, des moyens de décodage, comprenant : - des moyens d'identification, parmi lesdites estimations de données source, d'au moins une estimation de données source considérée douteuse, au vu desdites informations de confiance ; - des moyens de construction d'au moins un vecteur de données alternatif, par modification de la valeur binaire d'au moins une desdites estimations douteuses ; - des moyens de codage de chacun desdits vecteurs de données alternatifs, à l'aide dudit code de base systématique de rendement délivrant un mot de code alternatif, comprenant ledit vecteur de données alternatif et un vecteur de redondance alternatif correspondant ; - des moyens de calcul d'une distance entre ledit vecteur de données reçues et chacun desdits mots de code alternatifs ; - des moyens de sélection, en tant que représentant le plus probable des données source, du mot de code alternatif pour lequel la distance est la plus faible.
Un tel dispositif de décodage peut notamment être réalisé sous la forme d'un circuit intégré. Enfin, l'invention concerne un produit programme d'ordinateur téléchargeable depuis un réseau de communication et/ou enregistré sur un support lisible par ordinateur et/ou exécutable par un processeur, comprenant des instructions de code de programme pour la mise en oeuvre du procédé de décodage tel que décrit précédemment, lorsque ledit programme est exécuté sur un ordinateur. 5. Liste des figures D'autres caractéristiques et avantages de l'invention apparaîtront plus clairement à la lecture de la description suivante d'un mode de réalisation particulier, donné à titre de simple exemple illustratif et non limitatif, et des dessins annexés, parmi lesquels : - la figure 1 illustre les principales étapes du procédé de décodage selon un premier mode de réalisation de l'invention ; - la figure 2 illustre les principales étapes du procédé de décodage selon un deuxième mode de réalisation de l'invention ; - la figure 3 présente un exemple de module de codage linéaire systématique de rendement selon l'art antérieur ; - la figure 4 présente un exemple de module de décodage de données, codées selon le module de codage de la figure 3, selon un mode de réalisation de l'invention ; - les figures 5a à 5f présentent des courbes de résultat de taux d'erreurs binaires pour un canal gaussien, une modulation de type MDP2, et différents codes de base. 6. Description d'un mode de réalisation de l'invention 6.1 Principe général Le principe général de l'invention repose sur le ré-encodage de certaines estimations de données (et/ou de redondance) reçues, pour obtenir une décision de décodage, lorsque les données reçues après codage et transmission ne correspondent pas à un mot de code, issu d'un alphabet. Ainsi, en fonction de l'information de confiance associée aux estimations obtenues à la suite d'un premier traitement des données reçues, certaines de ces estimations sont inversées puis ré-encodées, avec le même code que celui utilisé pour coder les données numériques d'origine avant leur transmission sur un canal de transmission, de façon à délivrer des estimations correspondant à des mots de code. Ensuite, ces estimations ré-encodées sont comparées avec les données reçues, par un calcul de distance, de façon à choisir la plus probable d'entres elles comme décision de décodage.
Ces différents aspects de l'invention sont décrits plus précisément en relation avec différents modes de réalisation de l'invention. 6.2 Description d'un premier mode de réalisation Les principales étapes du procédé de décodage selon un premier mode de réalisation de l'invention sont illustrées en figure 1.
On considère des données numériques (D), destinées à être codées, par un code de base systématique de rendement , puis transmises via un canal de transmission. Un code linéaire, dont la matrice génératrice possède pour K premières colonnes une matrice identité, est dit systématique. La figure 3 présente un exemple de codeur implémentant un tel code, avec en entrée des données numériques pouvant être représentées sous la forme d'un vecteur [D], de dimension K, et en sortie, des données pouvant être représentées sous la forme de deux vecteurs [D] et [P], de dimension K également, représentatifs respectivement des données source et de données de redondance, ou de parité. En sortie du canal de transmission, et donc en entrée du décodeur, ces données reçues (R), sont décodées une première fois, lors d'une étape 10 de traitement, consistant en une démodulation des données reçues (R), puis un seuillage des données démodulées, délivrant une pluralité de vecteurs reçus, notés [R], associés chacun à une information de confiance, notée Ic. Chacun de ces vecteurs reçus comprend N symboles pondérés, dont K symboles pondérés représentatifs de données source et K symboles pondérés représentatifs de données de redondance correspondantes, dans le cas d'un code de rendement . Pour un vecteur reçu [R] donné, le seuillage binaire des symboles pondérés représentatifs de données source, appelés estimations des données source, peut s'écrire sous la forme d'un vecteur noté [SGND] et le seuillage binaire des symboles pondérés représentatifs de données de redondance, appelés estimations des données de redondance, peut s'écrire sous la forme d'un vecteur noté [SGNP]. Chaque composante des vecteurs [SGND] et [SGNP] est associée à une information de confiance, notée Ic. Une phase 11 de décodage est mise en oeuvre selon ce mode de réalisation de l'invention, à partir des données issues du premier traitement, en approchant des résultats d'un algorithme à maximum de vraisemblance, tout en ayant une complexité minimum. On prend en considération dans ce mode de réalisation des erreurs éventuelles pour les estimations des données source. On verra par la suite, dans un deuxième mode de réalisation, qu'on peut également prendre en considération d'éventuelles erreurs sur les estimations des données de redondance. À partir du vecteur [SGND] issu du premier traitement du vecteur reçu [R], on identifie, lors d'une étape 110, la ou les estimations de données source que l'on considère peu fiables, ou douteuses.
Cette identification s'effectue à partir des informations de confiance le associées à chacune des estimations, et en fonction d'un seuil de sélection et/ou d'un nombre prédéterminé d'estimations à identifier. Par exemple, l'identification peut consister à sélectionner toutes les estimations de données source dont l'information de confiance est inférieure à un seuil de sélection. Ou bien, l'identification peut consister à sélectionner les mfd (moins fiables données) estimations de données source d'informations de confiance les plus faibles. À partir des mfd estimations sélectionnées lors de l'étape 110 d'identification (en fonction d'un seuil ou d'un nombre prédéterminé), une étape de construction 111 d'au plus 2mfd vecteurs de données dits < alternatifs > est mise en oeuvre. Pour une estimation sélectionnée, cette étape de construction consiste à inverser, dans le vecteur [SGND], le bit correspondant à l'estimation sélectionnée, délivrant ainsi un vecteur [SGND] modifié et noté [VAD].
Un tel vecteur de données alternatif [VAD] est construit pour chacune des estimations sélectionnées. De plus, des vecteurs de données alternatifs sont également construits pour toutes les combinaisons possibles d'inversion des bits correspondants aux estimations sélectionnées. On obtient alors au maximum 2mfd vecteurs de données alternatifs [VAD].
Lors d'une étape suivante 112 de codage, chacun des 2mfd vecteurs de données alternatifs [VAD] précédemment construits est codé à l'aide du code utilisé pour coder les données d'origine, délivrant ainsi 2mfd mots de code alternatifs.
Un tel code est par exemple un code de base systématique de rendement , bien connu de l'homme du métier et non décrit ici. Par exemple, un tel code de base est un code en bloc linéaire de Golay (24,12,8), un code en bloc linéaire de Hamming (8,4,4) ou un code convolutif. L'étape 113 de calcul de distances est mise en oeuvre pour permettre la sélection ultérieure, lors d'une étape 114 de sélection, du mot de code alternatif le plus probable comme décision de décodage. Ainsi, lors de l'étape 113, les distances entre chacun des mots de code alternatifs, obtenus lors de l'étape 112 de codage, et le vecteur reçu [R] considéré, sont calculées.
Cette distance calculée est par exemple la distance euclidienne, bien connue de l'homme du métier et non décrite ici. Une fois ces distances calculées, une étape de sélection 114 du mot de code alternatif le plus probable est mise en oeuvre, en sélectionnant le mot de code alternatif dont la distance avec le vecteur reçu [R] est la plus faible.
La figure 5a présente une courbe de résultats de taux d'erreurs binaires, pour un code de base Hadamard (16, 8, 4), et un décodage à vraisemblance maximale (courbe 1), un décodage selon ce mode de réalisation de l'invention avec, respectivement, 4 vecteurs alternatifs (courbe 2), 8 vecteurs alternatifs (courbe 3) et 16 vecteurs alternatifs (courbe 4). 6.3 Description d'un deuxième mode de réalisation On présente maintenant, en relation avec la figure 2, un deuxième mode de réalisation de l'invention, ajoutant des étapes supplémentaires aux principales étapes décrites dans le premier mode de réalisation.
En particulier, les étapes 10 et 110 à 114 ont déjà été décrites, en relation avec la figure 1 et le premier mode de réalisation, et ne sont pas détaillées dans ce paragraphe. Dans ce mode de réalisation, la phase de décodage 21 prend en considération, à partir des données issues du premier traitement 10, des erreurs éventuelles pour les estimations des données source (étapes 110 à 112 identiques à celles de la figure 1) ainsi que d'éventuelles erreurs sur les estimations des données de redondance (étapes 210 à 212). Ainsi, l'étape 210 consiste à identifier, à partir du vecteur [SGNP] issu du 10 traitement du vecteur reçu [R], la ou les estimations de données de redondance que l'on considère peu fiables, ou douteuses. Comme pour l'étape 110, cette identification s'effectue à partir des informations de confiance le associées à chacune des estimations, et en fonction d'un seuil de sélection et/ou d'un nombre prédéterminé d'estimations à identifier. 15 Par exemple, l'identification peut consister à sélectionner toutes les estimations de données de redondance dont l'information de confiance est inférieure à un seuil de sélection. Ou bien, l'identification peut consister à sélectionner les mfp (moins fiables parité) estimations de données de redondance d'informations de confiance les plus faibles. 20 À partir des mfp estimations sélectionnées lors de l'étape 210 d'identification, une étape de construction 211 d'au plus 2m vecteurs de redondance dits < alternatifs > est mise en oeuvre. Pour une estimation sélectionnée, cette étape de construction consiste à inverser, dans le vecteur [SGNP], le bit correspondant à l'estimation sélectionnée, 25 délivrant ainsi un vecteur [SGNP] modifié et noté [VAP]. Un tel vecteur de redondance alternatif [VAP] est construit pour chacune des estimations sélectionnées. De plus, des vecteurs de redondance alternatifs sont également construits pour toutes les combinaisons possibles d'inversion des bits correspondants aux estimations sélectionnées. On obtient alors au maximum 2m vecteurs de redondance alternatifs [VAP]. Lors d'une étape suivante 212 de codage inverse, chacun des 2m vecteurs de redondance alternatifs [VAD] précédemment construits est codé à l'aide du code inverse de celui utilisé pour coder les données d'origine, délivrant ainsi 2m mots de code alternatifs. Un tel code est par exemple un code en bloc linéaire systématique de rendement , présentant la propriété de posséder une matrice [Q] de génération de parité inversible.
Un tel code peut être représenté sous la forme d'un produit matriciel < . >, comme suit : [D1P] = [G]. [D], où [G] = [I1Q]. On a donc : [P] = [Q]. [D] d'où [D] = [Q-1]. [P], avec les matrices [D] et [P] de dimension K, les matrices [I], [Q] et [Q-1] 15 de dimension K*K, et la matrice [G] de dimension K*2K. On peut donc obtenir le code inverse d'un tel code systématique de rendement , présentant la propriété de posséder une matrice [Q] de génération de parité inversible, et donc obtenir le vecteur [D] à partir du vecteur [P]. D'une autre manière, si l'on considère f la fonction qui permet d'obtenir 20 [P] à partir de [D], soit : [P] =f ([D]), et la fonction inverse f -1 qui permet d'obtenir [D] à partir de [P,] soit : [D] = f ([P]), alors f doit être bijective. Un code de base utilisé peut également être un code convolutif. Dans ce cas, son code dual est utilisé pour encoder la parité et obtenir les données. L'étape 212 de codage inverse permet donc d'obtenir 2m.ÎP mots de code 25 alternatifs. L'étape 113 de calcul de distances est mise en oeuvre pour chacun des mots de code alternatifs issus des étapes 112 et 212, et calcule les distances entre chacun de mots de code alternatifs et le vecteur reçu [R] considéré. Cette distance calculée est par exemple la distance euclidienne, bien 30 connue de l'homme du métier et non décrite ici.
Une fois ces distances calculées, une étape de sélection 114 du mot de code alternatif le plus probable est mise en oeuvre, en sélectionnant le mot de code alternatif dont la distance avec le vecteur reçu [R] est la plus faible. Selon une variante de ce mode de réalisation, cette décision de décodage peut également être pondérée, en utilisant une technique connue décrite notamment dans le document écrit par P.Pyndiah, A.Glavieux, A.Picard et S.Jacq intitulé < Near Optimum decoding of product codes >, IEEE proc.of GLOBECOM'94, San Fransisco, Nov.1994. Selon une autre variante, le décodage peut être itératif, et mettre en oeuvre 10 par exemple : - un décodage, appelé décodage < aller >, permettant d'obtenir les données de redondance à partir des données source, selon ce mode de réalisation de l'invention, délivrant une décision de décodage, c'est-à-dire un premier mot de code le plus probable ; 15 - une pondération de la décision de décodage obtenue précédemment, délivrant un premier mot de code pondéré ; - un second décodage, appelé décodage < retour >, appliqué sur le mot de code pondéré obtenu précédemment, permettant d'obtenir les données source à partir des données de redondance, selon ce mode de réalisation de 20 l'invention, délivrant une décision de décodage, c'est-à-dire un deuxième mot de code le plus probable ; - une pondération de la décision de décodage obtenue précédemment, délivrant un deuxième mot de code pondéré. La décision définitive de décodage peut être ce deuxième mot de code 25 pondéré, ou bien le résultat d'une ou plusieurs itérations supplémentaires. La figure 5b présente des courbes de résultats de taux d'erreurs binaires pour un code de base Hamming (8, 4, 4), et un décodage à vraisemblance maximale (courbe 1), un décodage selon ce mode de réalisation de l'invention avec, respectivement, deux vecteurs alternatifs (courbe 2), quatre vecteurs 30 alternatifs (courbe 3) et huit vecteurs alternatifs (courbe 4).
On peut noter que les performances du décodage selon ce mode de réalisation de l'invention, avec quatre et huit vecteurs, sont identiques aux performances du décodage à vraisemblance maximale. La figure 5c présente quant à elle des courbes de résultats de taux d'erreurs binaires pour un code de base Golay (24, 12, 8), et un décodage à vraisemblance maximale (courbe 1), un décodage selon ce mode de réalisation de l'invention avec, respectivement, huit vecteurs alternatifs (courbe 2), seize vecteurs alternatifs (courbe 3) et trente deux vecteurs alternatifs (courbe 4), ainsi qu'une courbe de résultats correspondant à la borne théorique appelée < borne de l'Union > (courbe 5). On peut noter que les performances du décodage selon ce mode de réalisation de l'invention, avec trente deux vecteurs, sont identiques aux performances du décodage à vraisemblance maximale, et très proches des performances théoriques de la borne de l'Union.
Ces courbes montrent que le nombre de vecteurs alternatifs peut être ajusté à la taille du code, pour de meilleurs résultats. Les courbes 5d et 5e présentent des courbes de résultats de taux d'erreurs binaires, respectivement pour un code de base (32, 16, 8) et un code de base (48, 24,8).
Sur la figure 5d, les courbes 1 à 7 représentent les résultats pour un décodage selon ce mode de réalisation de l'invention, avec, respectivement : - courbe 1 : trente deux vecteurs alternatifs et mfd = 4 ; - courbe 2 : soixante quatre vecteurs alternatifs et mfd = 5 ; - courbe 3 : soixante quatre vecteurs alternatifs et mfd = 8 ; - courbe 4 : cent vingt-huit vecteurs alternatifs et mfd = 6 ; - courbe 5 : deux cent cinquante six vecteurs alternatifs et mfd = 7 ; - courbe 6 : cinq cent douze vecteurs alternatifs et mfd = 8 ; - courbe 7 : mille vingt quatre vecteurs alternatifs et mfd = 9. Sur la figure 5e, les courbes 1 à 7 représentent les résultats pour un décodage selon ce mode de réalisation de l'invention, avec, respectivement : - courbe 1 : seize vecteurs alternatifs et mfd = 3 ; - courbe 2 : trente deux vecteurs alternatifs et mfd = 7 ; - courbe 3 : soixante quatre vecteurs alternatifs et mfd = 7 ; - courbe 4 : cent vingt-huit vecteurs alternatifs et mfd = 6 ; - courbe 5 : deux cent cinquante six vecteurs alternatifs et mfd = 7 ; - courbe 6 : cinq cent douze vecteurs alternatifs et mfd = 8 ; - courbe 7 : mille vingt quatre vecteurs alternatifs et mfd = 9. Les courbes 8 et 9 représentent les résultats correspondant respectivement à un décodage mettant en oeuvre un algorithme à propagation de probabilités ( < Belief Propagation > en anglais), et à la borne théorique appelée < borne de l'Union >. La courbe 5f présente des courbes de résultats de taux d'erreurs binaires, pour un code de base Golay, un décodage selon ce mode de réalisation de l'invention avec trente deux vecteurs alternatifs (courbe 1), et un décodage selon la variante de ce mode de réalisation de l'invention comprenant 4 itérations et soixante quatre vecteurs alternatifs (courbe 2), ainsi qu'une courbe de résultats correspondant à la borne théorique appelée < borne de l'Union > (courbe 3). 6.4 Description d'un dispositif de décodage On présente maintenant, en relation avec la figure 4, un exemple de dispositif de décodage selon un mode de réalisation de l'invention, prenant en entrée des données codées, par exemple par un codeur tel que celui illustré en figure 3 et déjà décrit, et transmises sur un canal de transmission, représentées par deux vecteurs [D] et [P] de dimension K, et délivrant en sortie un mot de code M de dimension N=2K, correspondant aux données d'origine décodées.25
Claims (10)
- REVENDICATIONS1. Procédé de décodage de données reçues (R) représentatives de données source (D) et de données de redondance (P) correspondantes, obtenues à l'aide d'un code de base systématique de rendement 1/2 délivrant des mots de code, issus d'un alphabet, mettant en oeuvre un traitement des données reçues, délivrant des vecteurs reçus [R], dont chaque composante comprend une estimation de la donnée source, ou de la donnée de redondance correspondante, en lui associant une valeur binaire et une information de confiance, caractérisé en ce qu'il comprend, pour au moins un desdits vecteurs reçus, une phase de décodage, comprenant les étapes suivantes : - identification, parmi lesdites estimations de données source, d'au moins une estimation de données source considérée douteuse, au vu desdites informations de confiance ; - construction d'au moins un vecteur de données alternatif, par modification de la valeur binaire d'au moins une desdites estimations douteuses ; - codage de chacun desdits vecteurs de données alternatifs, à l'aide dudit code de base systématique de rendement délivrant un mot de code alternatif, comprenant ledit vecteur de données alternatif et un vecteur de redondance alternatif correspondant, obtenu par ledit codage ; - calcul d'une distance entre ledit vecteur de données reçues et chacun desdits mots de code alternatifs ; - sélection, en tant que représentant le plus probable des données source, du mot de code alternatif pour lequel la distance est la plus faible.
- 2. Procédé de décodage de données reçues (R) selon la revendication 1, caractérisé en ce qu'il comprend, préalablement à ladite étape de calcul d'un distance, les étapes suivantes, pour au moins un desdits vecteurs reçus : - identification, parmi lesdites estimations de données de redondance, d'au moins une estimation considérée douteuse, au vu desdites informations de confiance ;- construction d'au moins un vecteur de redondance alternatif, par modification de la valeur binaire d'au moins une desdites estimations douteuses ; - codage, inverse dudit code systématique, de chacun desdits vecteurs de redondance alternatifs, délivrant un mot de code alternatif, comprenant ledit vecteur de redondance alternatif et un vecteur de données alternatif correspondant, obtenu par ledit codage inverse.
- 3. Procédé de décodage de données reçues (R) selon l'une quelconque des revendications 1 et 2, caractérisé en ce que ladite phase de décodage est mise en 10 oeuvre lorsque ledit vecteur reçu n'est pas un mot de code.
- 4. Procédé de décodage de données reçues (R) selon l'une quelconque des revendications 1 à 3, caractérisé en ce que ladite étape d'identification sélectionne des estimations dont les informations de confiance correspondantes sont inférieures à un seuil de sélection. 15
- 5. Procédé de décodage de données reçues (R) selon l'une quelconque des revendications 1 à 4, caractérisé en ce que ladite étape d'identification sélectionne un nombre prédéterminé d'estimations.
- 6. Procédé de décodage de données reçues (R) selon l'une quelconque des revendications 4 et 5, caractérisé en ce que la valeur dudit seuil de sélection et/ou 20 la valeur dudit nombre prédéterminé est variable.
- 7. Procédé de décodage de données reçues (R) selon l'une quelconque des revendications 1 à 6, caractérisé en ce que ladite distance est une distance euclidienne.
- 8. Procédé de décodage de données reçues (R) selon la revendication 1, 25 caractérisé en ce qu'il comprend au moins une deuxième phase de décodage, comprenant les étapes suivantes : - pondération dudit mot de code alternatif sélectionné, délivrant un mot de code pondéré ;- identification, parmi les données de redondance dudit mot de code pondéré, d'au moins une donnée de redondance pondérée considérée douteuse, au vu desdites informations de confiance ; - construction d'au moins un vecteur de redondance alternatif, par modification de la valeur binaire d'au moins une desdites données de redondance pondérées douteuses ; - codage, inverse dudit code systématique, de chacun desdits vecteurs de redondance alternatifs, délivrant un second mot de code alternatif, comprenant ledit vecteur de redondance alternatif et un vecteur de données alternatif correspondant, obtenu par ledit codage inverse ; - calcul d'une distance entre ledit vecteur de données reçues et chacun desdits seconds mots de code alternatifs ; - sélection, en tant que représentant le plus probable des données source, du second mot de code alternatif pour lequel la distance est la plus faible.
- 9. Dispositif de décodage de données reçues (R) représentatives de données source (D) et de données de redondance (P) correspondantes, obtenues à l'aide d'un code de base systématique de rendement 1/2 délivrant des mots de code, issus d'un alphabet, mettant en oeuvre des premiers moyens de traitement des données reçues, délivrant des vecteurs reçus [R], dont chaque composante comprend une estimation de la donnée source, ou de la donnée de redondance correspondante, en lui associant une valeur binaire et une information de confiance, caractérisé en ce qu'il comprend, pour au moins un desdits vecteurs reçus, des moyens de décodage, comprenant : - des moyens d'identification, parmi lesdites estimations de données source, d'au moins une estimation de données source considérée douteuse, au vu desdites informations de confiance ; - des moyens de construction d'au moins un vecteur de données alternatif, par modification de la valeur binaire d'au moins une desdites estimations douteuses ;- des moyens de codage de chacun desdits vecteurs de données alternatifs, à l'aide dudit code de base systématique de rendement délivrant un mot de code alternatif, comprenant ledit vecteur de données alternatif et un vecteur de redondance alternatif correspondant, obtenu par ledit codage ; - des moyens de calcul d'une distance entre ledit vecteur de données reçues et chacun desdits mots de code alternatifs ; - des moyens de sélection, en tant que représentant le plus probable des données source, du mot de code alternatif pour lequel la distance est la plus faible.
- 10. Produit programme d'ordinateur téléchargeable depuis un réseau de communication et/ou enregistré sur un support lisible par ordinateur et/ou exécutable par un processeur, caractérisé en ce qu'il comprend des instructions de code de programme pour la mise en oeuvre du procédé de décodage selon l'une au moins des revendications 1 à 8, lorsque ledit programme est exécuté sur un ordinateur.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR0952162A FR2944167B1 (fr) | 2009-04-02 | 2009-04-02 | Procede de decodage par re-encodage, dispositif et programme d'ordinateur correspondants |
PCT/EP2010/054469 WO2010112607A1 (fr) | 2009-04-02 | 2010-04-02 | Procédé de décodage par ré-encodage, dispositif et programme d'ordinateur correspondants |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR0952162A FR2944167B1 (fr) | 2009-04-02 | 2009-04-02 | Procede de decodage par re-encodage, dispositif et programme d'ordinateur correspondants |
Publications (2)
Publication Number | Publication Date |
---|---|
FR2944167A1 true FR2944167A1 (fr) | 2010-10-08 |
FR2944167B1 FR2944167B1 (fr) | 2014-03-28 |
Family
ID=41136943
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR0952162A Expired - Fee Related FR2944167B1 (fr) | 2009-04-02 | 2009-04-02 | Procede de decodage par re-encodage, dispositif et programme d'ordinateur correspondants |
Country Status (2)
Country | Link |
---|---|
FR (1) | FR2944167B1 (fr) |
WO (1) | WO2010112607A1 (fr) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6460162B1 (en) * | 1998-05-04 | 2002-10-01 | Alcatel | Product code iterative decoding |
-
2009
- 2009-04-02 FR FR0952162A patent/FR2944167B1/fr not_active Expired - Fee Related
-
2010
- 2010-04-02 WO PCT/EP2010/054469 patent/WO2010112607A1/fr active Application Filing
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6460162B1 (en) * | 1998-05-04 | 2002-10-01 | Alcatel | Product code iterative decoding |
Non-Patent Citations (3)
Title |
---|
CLARK G.C AND CAIN J.B.: "Error Correction for Digital Communication", part Information Set Decoding & Information-Set-Decoding Algorithms 1981, PLENUM PRESS, NEW YORK, article "Chapter 3, Section 3.2 and Chapter 4, Section 4.5", pages: 102-130, - 172-180, XP009124739 * |
FOSSORIER M P C ET AL: "Soft-Input Soft-Output List-Based Decoding Algorithm", IEEE TRANSACTIONS ON COMMUNICATIONS, IEEE SERVICE CENTER, PISCATAWAY, NJ, US, vol. 52, no. 2, 1 February 2004 (2004-02-01), pages 252 - 262, XP011108424, ISSN: 0090-6778 * |
SWEENEY P ET AL: "Iterative soft-decision decoding of linear block codes", IEE PROCEEDINGS : COMMUNICATIONS, INSTITUTION OF ELECTRICAL ENGINEERS, GB, vol. 147, no. 3, 16 June 2000 (2000-06-16), pages 133 - 136, XP006013968, ISSN: 1350-2425 * |
Also Published As
Publication number | Publication date |
---|---|
FR2944167B1 (fr) | 2014-03-28 |
WO2010112607A1 (fr) | 2010-10-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP0654910B1 (fr) | Procédé de décodage itératif de codes en blocs concaténés | |
EP0827285B1 (fr) | Procédé de transmission de bits d'information avec codage correcteur d'erreurs, codeur et décodeur pour la mise en oeuvre de ce procédé | |
EP0827284B1 (fr) | Procédé de transmission de bits d'information avec codage correcteur d'erreurs, codeur et décodeur pour la mise en oeuvre de ce procédé | |
EP3443678B1 (fr) | Methode de décodage d'un code polaire avec inversion de bits peu fiables | |
EP0995272B1 (fr) | Decodage iteratif de codes produits | |
FR2675970A1 (fr) | Procede de codage convolutif correcteur d'erreurs pseudo-systematique, procede de decodage et dispositifs correspondants. | |
EP1932241A2 (fr) | Procede d'amelioration de decodage iteratif de codes | |
EP1959572B1 (fr) | Procédé de décodage à passage de messages et à convergence forcée | |
WO2005066936A1 (fr) | Transcodage entre indices de dictionnaires multi-impulsionnels utilises en codage en compression de signaux numeriques | |
EP1905157B1 (fr) | Procede et systeme d'encodage d'une sequence de donnees | |
FR2950209A1 (fr) | Procede de mise a jour elementaire d'un noeud de controle lors d'un decodage d'un bloc encode avec un code ldpc non binaire, et decodeur correspondant. | |
FR2952252A1 (fr) | Procede et dispositif de decodage, produit programme d'ordinateur, moyen de stockage correspondants et noeud destination correspondants | |
EP2833555B1 (fr) | Procede ameliore de decodage d'un code correcteur avec passage de message, en particulier pour le decodage de codes ldpc ou codes turbo | |
EP1527521A2 (fr) | Dispositif et procede de decodage robuste de codes arithmetiques | |
FR3064436A1 (fr) | Procede de codage et codeur a code polaire | |
EP1525663B1 (fr) | Compression de donnees numeriques robuste au bruit de transmission | |
FR2944167A1 (fr) | Procede de decodage par re-encodage, dispositif et programme d'ordinateur correspondants | |
WO2012001263A1 (fr) | Traitement de donnees pour l'encodage et le decodage d'un message | |
FR2972878A1 (fr) | Procede d'encodage correcteur d'erreur, procede de decodage et dispositifs associes. | |
WO2018115648A1 (fr) | Codage et de décodage de paquets de données dans un corps de galois | |
FR3022651A1 (fr) | Procedes et dispositifs de codage et de decodage correcteur d'erreurs, et programme d'ordinateur correspondant. | |
EP1217752A2 (fr) | Procédé de décodage itératif associé à toutes concaténations d'un nombre déterminé de codes en blocs ou assimilés | |
FR2808390A1 (fr) | Procede et dispositif de modulation turbocodee par treillis parallele | |
FR3145073A1 (fr) | Procédé de mise en forme de la distribution probabiliste en amplitude de symboles de modulation, produit programme d’ordinateur et dispositif correspondants. | |
EP2786498B1 (fr) | Decodeur de faible complexite pour codage convolutif |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PLFP | Fee payment |
Year of fee payment: 7 |
|
ST | Notification of lapse |
Effective date: 20161230 |