EP1749361A1 - Method for error correction coding comprising local error detection codes, corresponding decoding method, transmitting, receiving and storage device and program - Google Patents

Method for error correction coding comprising local error detection codes, corresponding decoding method, transmitting, receiving and storage device and program

Info

Publication number
EP1749361A1
EP1749361A1 EP05772910A EP05772910A EP1749361A1 EP 1749361 A1 EP1749361 A1 EP 1749361A1 EP 05772910 A EP05772910 A EP 05772910A EP 05772910 A EP05772910 A EP 05772910A EP 1749361 A1 EP1749361 A1 EP 1749361A1
Authority
EP
European Patent Office
Prior art keywords
code
codes
local
coding
words
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
EP05772910A
Other languages
German (de)
French (fr)
Inventor
Jean-Pierre Tillich
Iryna Andriyanova
Jean-Claude Carlac'h
Emmanuel Cadic
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Orange SA
Original Assignee
France Telecom SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by France Telecom SA filed Critical France Telecom SA
Publication of EP1749361A1 publication Critical patent/EP1749361A1/en
Ceased legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/29Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes combining two or more codes or code structures, e.g. product codes, generalised product codes, concatenated codes, inner and outer codes
    • H03M13/2957Turbo codes and decoding
    • H03M13/296Particular turbo code structure
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/03Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words
    • H03M13/05Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words using block codes, i.e. a predetermined number of check bits joined to a predetermined number of information bits
    • H03M13/11Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words using block codes, i.e. a predetermined number of check bits joined to a predetermined number of information bits using multiple parity bits
    • H03M13/1102Codes on graphs and decoding on graphs, e.g. low-density parity check [LDPC] codes
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/03Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words
    • H03M13/05Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words using block codes, i.e. a predetermined number of check bits joined to a predetermined number of information bits
    • H03M13/11Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words using block codes, i.e. a predetermined number of check bits joined to a predetermined number of information bits using multiple parity bits
    • H03M13/1102Codes on graphs and decoding on graphs, e.g. low-density parity check [LDPC] codes
    • H03M13/1105Decoding
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/37Decoding methods or techniques, not specific to the particular type of coding provided for in groups H03M13/03 - H03M13/35
    • H03M13/39Sequence estimation, i.e. using statistical methods for the reconstruction of the original codes
    • H03M13/3972Sequence estimation, i.e. using statistical methods for the reconstruction of the original codes using sliding window techniques or parallel windows
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L1/00Arrangements for detecting or preventing errors in the information received
    • H04L1/004Arrangements for detecting or preventing errors in the information received by using forward error control
    • H04L1/0041Arrangements at the transmitter end
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L1/00Arrangements for detecting or preventing errors in the information received
    • H04L1/004Arrangements for detecting or preventing errors in the information received by using forward error control
    • H04L1/0056Systems characterized by the type of code used
    • H04L1/0057Block codes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L1/00Arrangements for detecting or preventing errors in the information received
    • H04L1/004Arrangements for detecting or preventing errors in the information received by using forward error control
    • H04L1/0056Systems characterized by the type of code used
    • H04L1/0061Error detection codes
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/37Decoding methods or techniques, not specific to the particular type of coding provided for in groups H03M13/03 - H03M13/35
    • H03M13/39Sequence estimation, i.e. using statistical methods for the reconstruction of the original codes
    • H03M13/3905Maximum a posteriori probability [MAP] decoding or approximations thereof based on trellis or lattice decoding, e.g. forward-backward algorithm, log-MAP decoding, max-log-MAP decoding
    • H03M13/3938Tail-biting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L1/00Arrangements for detecting or preventing errors in the information received
    • H04L1/08Arrangements for detecting or preventing errors in the information received by repeating transmission, e.g. Verdan system

Definitions

  • An error correction encoding method comprising local error-detecting codes, decoding method, transmitting, receiving and storing devices, and corresponding program.
  • TECHNICAL FIELD The field of the invention is that of the coding of digital data, in particular with a view to their transmission or storage. More specifically, the invention relates to error correcting codes. The invention can find applications in all areas where it is necessary, or at least desirable, to have an error correcting code. Thus, the invention can notably be applied to: protection against errors due to the noise and interference inherent in the physical transmission channels (conventional error correction coding and space-time codes for multi-antenna systems), example for applications in wireless telecommunications systems DECT, GSM, UMST, local and home automation networks, satellite telecommunications ...
  • the turbo-codes encode (that is to say calculate a block of the redundancy bits Y1) a first time a block of information (block of bits X) by a convolutional encoder 11 described by a lattice with a small number of states (8 or 16 in general), then interchange or interleave the information block in another order (12) to encode them again (13) to provide the block of redundancy bits Y2.
  • the transmitted encoded block is therefore composed of X, Y1 and Y2, or even other permuted blocks 14-encoded with additional redundancies Yi.
  • FIG. 1 Another representation of the LDPC codes is their bipartite Tanner graph which represents the variables by nodes (or vertices) placed on the left in a graph and the control equations (or constraints) by exclusive OR represented by nodes placed on the right in this graph and connected to the binary variables by branches (or edges).
  • Figure 2 shows the bipartite Tanner graph corresponding to the matrix above.
  • the degrees may vary from one variable to another and the codes may be different.
  • the constraints "exclusive OR" are replaced by small codes called “local” the overall code is said to Tanner.
  • Figure 3 shows the architecture of Tanner codes more general than that of LDPC codes.
  • the codes Ci 31 can be much more complex codes than a simple parity code realized by an exclusive OR as in the LDPC codes. 3.
  • Disadvantages of these prior techniques Turbo codes, LDPC codes or their variants offer performance, in terms of error correction, remarkable for large block sizes, of at least a few thousand or tens of thousands of bits information, but for computation complexity at high decoding, which however remains compatible with the constantly increasing computing capabilities of current microprocessors.
  • turbo-codes have a minimum distance ⁇ TM at best logarithmic length, and LDPC codes that approach the channel capacity are also at best logarithmic in the length of the code: n ⁇ ⁇ A code family is said to be asymptotically good (AB) if the minimum distance
  • an object of the invention is to provide an error correction coding technique that is simpler to implement than known codes, in particular codes of the turbo-code or LDPC type, and more efficient.
  • an objective of the invention is to provide such a coding technique, making it possible to reduce the complexity of the codes (and therefore of the corresponding decoding), in particular in order to reduce the silicon surface used on the components, and the consumption of necessary energy.
  • the object of the invention is to enable the construction of codes offering a better compromise between complexity and error correction capabilities than the best current correction codes.
  • One of the goals pursued is therefore to obtain error-correcting codes that further improve the error correction performance of the best LDPC codes and existing turbo-codes for a smaller complexity, by optimizing their information transmission capabilities for given channels: symmetrical binary channel (BSC), erasing channel (BEC), Gaussian channel, ...
  • Another objective of the invention is to provide such a coding technique, which has very good correction qualities. errors, as close as possible to the theoretical limits.
  • an object of the invention is to provide effective error correcting codes even for small size blocks.
  • an object of the invention is to make it possible to construct very good short error-correcting codes by practically eliminating the phenomenon of "error-floor" by increasing the minimum distances of the error. min .
  • error-floor means that the bit error rate (BER) curve decreases less rapidly for high signal-to-noise ratios than for low signal-to-noise ratios, part of the BER curve also known as “water- fall "(" waterfall "). 5.
  • BER bit error rate
  • said local codes are detectors codes but not error correctors on a predetermined coding alphabet, and in that said local codes are interconnected by their status words, so as to form at least one lattice of coding, each trellis defining a basic code.
  • said invention is effective for many types of codes, including short error correcting codes, strongly limiting the so-called "error floor” phenomenon.
  • said permutations are applied to said label words, and not to said status words. This results in a simplified system, reducing the number of variables processed.
  • said local codes are binary codes, represented by trellises with 2 or 4 states.
  • said local codes are defined on a coding alphabet with 2 n elements, and represented by lattices with 2 n , 2 n + 1 or 2 n + 2 states (n integer greater than 2) .
  • a 4-element coding it may be represented by 4, 8 or 16-state trellis.
  • each of said basic codes delivers codewords of length m symbols, each of which is at least one bit, of a coding alphabet defined in such a way that: the number of weight code words 2 is smaller or equal to m / 2; the number of code words of weight 3 is non-zero, the weight of a code word being the number of non-zero symbols that it contains.
  • This structure makes it possible to obtain very good coding results.
  • at least one of said basic codes is formed of at least two sections of code. According to the invention, it is also possible to implement punching on at least one of said basic codes. This punching can be applied to variables and / or code branches.
  • At least one of the lattices is a cyclic lattice. At least one of the lattices may also be a lattice whose input state and output state are forced to predetermined values.
  • at least one of said local codes is a 2-state code (6, 4, 2), associating an output state bit with an input state bit, based on 6 label bits, where: - 6 is the length of said local code, or its number of tag bits; - 4 is the dimension of said local code; - 2 is the minimum distance from said base code.
  • said base code is advantageously formed of three sections of said code (6, 4, 2).
  • At least one of said local codes is a 2-state code (4, 3, 2), associating an output state bit with an input state bit, according to 4 label bits, where: - 4 is the length of said local code, or its number of tag bits; - 3 is the dimension of said local code; - 2 is the minimum distance from said base code.
  • said base code is advantageously formed of two sections of said code (4, 3, 2).
  • At least one of said local codes is a 2-state code (6, 5, 2), associating an output state bit with an input state bit, based on 6 label bits, where: - 6 is the length of said local code, or its number of tag bits; - 5 is the dimension of said local code; - 2 is the minimum distance from said base code.
  • said base code is advantageously formed of three sections of said code (6, 5, 2).
  • At least one of said local codes is a 4-state code (8, 7, 2), associating an output state bit with an input state bit, according to 8 label bits, where: - 8 is the length of said local code, or its number of tag bits; - 7 is the dimension of said local code; - 2 is the minimum distance from said local code.
  • at least one of said local codes is a code (8, 7, 2) with 2 states, associating an input state bit with an input state bit, according to 8 label bits, where: - 8 is the length of said local code, or its number of tag bits; - 7 is the dimension of said local code; - 2 is the minimum distance from said local code.
  • said base code is advantageously said basic code is formed of eight sections of said code (8, 7, 2).
  • the invention also relates to a method of decoding coded data using the coding method described above.
  • Such a decoding method implements, in a manner symmetrical to the coding, a plurality of local codes, associating at least one input state word with at least one output status word, as a function of at least one label word, and permutations applied to at least some of said words, said local codes being detector codes but not correcting errors on a predetermined coding alphabet, and said local codes being interconnected by their status words, to form at least one coding trellis, each trellis defining a basic code.
  • the invention also relates to the coded data transmission devices implementing the coding method described above, the data receiving devices coded using this coding method, implementing decoding means acting symmetrically to the coding, and the encoded data storage devices, comprises coding and / or decoding means according to the above-mentioned methods.
  • the invention also relates to computer programs implementing the coding and / or decoding methods described above. 6. List of Figures Other features and advantages of the invention will appear more clearly on reading the following description of a preferred embodiment of the invention, given as a simple illustrative and non-limiting example, and attached drawings, among which: - Figure 1, discussed in the preamble, schematically illustrates the principle of a turbo-code; FIG.
  • FIG. 2 is a representation using a Tanner graph of an LDPC code (4, 2);
  • FIG. 4 is a Tanner graph illustrating the principle of an error correcting code according to the invention;
  • FIG. 6 is a Tanner graph of another exemplary code according to the invention, with trellis of the basic code split into 2 sub-trellises, one with state ending at 0 and the other loopback (or in tail-biting);
  • FIG. 7 shows the decomposition of a first local code (6, 4, 2) usable in a global code according to the invention, into three trellis sections each carrying two tag bits;
  • FIGS. 8A, 8B and 8C respectively illustrate the three sections of the local code (6, 4, 2) of FIG. 7;
  • Fig. 9 is the basic code information transfer curve constructed with a lattice of two-state trellis code sections (6, 4, 2);
  • FIG. 10 shows the decomposition of a second local code (4, 3, 2) usable in a global code according to the invention, into two trellis sections each carrying two tag bits; - Figures HA and HB respectively illustrate the two sections of the local code (4, 3, 2) of Figure 10; Fig. 12 is the basic code information transfer curve constructed with a lattice of two-state trellis code sections (4, 3, 2); FIG. 13 shows the decomposition of a third local code (6, 5, 2) usable in a global code according to the invention, into two trellis sections each carrying three tag bits; FIGS. 14A and 14B respectively illustrate the two sections of the local code (6, 5, 2) of FIG. 13; Fig.
  • FIG. 15 is the basic code information transfer curve constructed with a lattice of two-state trellis code sections (6, 5, 2);
  • FIG. 16 shows an "exploded" lattice, not sectioned, of a fourth four-state local code (8, 7, 2), usable in a global code according to the invention;
  • FIG. 17 shows the decomposition of a fifth local code (8, 7, 2) usable in a global code according to the invention, into two trellis sections each carrying four tag bits;
  • FIGS. 18A and 18B respectively illustrate the two sections of the local code (8, 7, 2) of FIG. 17; Fig.
  • FIG. 19 is the basic code information transfer curve constructed with a trellis of four-state code sections (8, 7, 2); - Figure 20 shows another decomposition of the local code (8, 7, 2) in 2 sections of lattice each carrying 4 tag bits;
  • FIGS. 21A and 21B illustrate the two sections of the trellis of the local code of FIG. 20;
  • Fig. 22 is the basic code information transfer curve constructed with a lattice of two-state code sections (8, 7, 2);
  • - Figure 23 shows the decomposition of a sixth local code (4, 3, 2) to 4 states on Z4;
  • FIGS. 24A and 24B show the two lattice sections of FIG. 23.
  • the invention is based on a new approach to error correcting codes. , implementing very simple local codes, only error detectors, combined to provide a final overall code simpler and more efficient than known codes.
  • the codes of the invention are distinguished by a reduction of the complexity, by the use of binary lattices with low numbers of states (2 and 4 states).
  • states binary lattices with low numbers of states (2 and 4 states).
  • the resulting codes offer, despite the low complexity of their trellises, a better compromise between complexity, error correction capability and error-floor of the best turbo-codes and current LDPC codes, since these new codes have at least as well good performance in error rate and "error-floor" as little inconvenient in practice.
  • the table below summarizes the performance and complexities of some codes obtained, described in more detail later.
  • the parameters of a local code are: (number of label bits, dimension, d min max limit of the base code built with this code).
  • the code is constructed as follows: the state bits of the local codes are interconnected; at least the majority of the variable bits (which comprise both the information bits and the redundancy bits) are repeated and connected to the code of base via a permutation that changes the order of these bits of repeated variables (not new).
  • An advantageous approach of the invention consists in retaining particular local code sections to meet the following criteria: the number of basic codewords (large lattice) of length m bits of weight 2 is less than or equal to m divided by 2; the number of basic codeword of length m bits of weight 3 is non-zero. This approach has been applied for the 6 local codes described below.
  • An essential technical element is therefore the use of a trellis composed of small C local codes J connected as described in Figure 4.
  • Q This local code sequence J 41 forms the basic code 42 described by a trellis and it is said that the lattice is cyclic, or tail-biting, if it forms a loop.
  • the "tail-biting" lattice can be reduced to a conventional non-cyclic lattice if one or more of the "state" bits between the local codes Ci are "forced” to 0 by construction.
  • This 0-state trellis termination technique is a well-known technique for simplifying decoding. As illustrated in FIG. 6, the division of a trellis into several sub-trusses 61 and 62 is possible. This makes it possible to parallelize the decoding calculations on each of the sub-lattices (before synthesizing these calculations performed in parallel) and is done without significant loss of performance by taking a sufficient number of sections in each of the sub-lattices.
  • the schematic notation of the trellis section means that the transition from the input state 0 to the output state 0 can occur if the tag bits are 00 or 11. It is said that it is a branch of double label.
  • the labels of the same branch are placed in braces on the same line corresponding to the same input state and the successive braces correspond in the same order to the successive arrival states.
  • the transition from the input state 0 to the output state 0 can be carried out if the tag bits are equal to 00 or 11, and the transition of the state 0 input to the output state 1 can be achieved if the tag bits are 01 or 10.
  • FIG. 12 shows, according to the same principle as explained above, the decomposition of the local code (4,3,2) into 2 sections of trellis each carrying 2 bits of label, and Figures HA and HB the 2 sections of the lattice of the local code (4,3,2) with 2 corresponding states.
  • FIG. 15 shows, according to the same principle as explained above, the decomposition of the local code (6, 3, 2) into 2 sections of trellis each carrying 3 bits of tag, and FIGS. 14A and 14B the 2 sections of the trellis of the local code (6,3,2) with 2 corresponding states.
  • FIG. 15 shows that the information transfer curve below tangents the straight line with 30% of slope at the origin, which reflects a correction capacity of 30% of global code erasures for a theoretical maximum of 33.33% for a 2/3 performance code.
  • Figure 16 describes the "exploded" trellis in 8 sections each having a tag bit.
  • the bits ( ⁇ o , ⁇ j , è 2 , è 3 ) and the bits (b 4 , b 5 , b 6 , b 7 ) can be grouped into 2 sections which each have 4 input states and 4 output states as shown in Figures 17, 18A and 18B.
  • FIG. 22 8.5 trellis section of the 2-state local code (8.7.2)
  • Figure 20 shows, according to the same principle as explained above, the decomposition of the local code (8, 7, 2) into 2 trellis sections carrying each 4 bits of tag, and Figs. 21A and 21B the 2 sections of the trellis of the local code (6,3,2) with 2 corresponding states.
  • example code (4, 3, 2) with 4 states on Z4 Z4 is the set of integers ⁇ 0,1,2,3 ⁇ with the addition modulo 4.
  • This code example is easily generalizable to other alphabets because it suffices to replace the law "addition on Z4" by the law of addition on the new alphabet considered.
  • the labels of a multiple branch are obtained from this code repetitively by adding a word of the same length ("coset leader" or side class representative).
  • a multiple branch (or multibranch) 01 will have labels ⁇ 01,12,23,30 ⁇ .
  • Bibliography [1] Gallager, “Low Density Parity Check Codes,” Ph.D.Thesis, MIT, July 1963. [2] RMTanner, "A recursive aproach to low complexity codes, "IEEE Transactions on Information Theory, vol IT-27, pp.533-547, Sept. 1981. [3J C.Berrou, A.Glacreme and P.Thitimajshima,” Near Shannon limit error-correcting coding and decoding: Turbo codes, pp.1064-1070, Proceedings of the International Communications Conference (ICC), May 1993, Gene goes.

Abstract

The invention relates to a coding method for associating redundant and source data and for carrying out a plurality of local codes associating at least one input status word and at least one output status word according to at least one label word and permutations applicable on at least certain of said words, wherein the local codes are embodied in the form of detection codes and not error correction codes on a predetermined coding alphabet and said local codes are interconnected by the status words in such a way that at least one coding matrix is formed, each of which defining a base code.

Description

Procédé de codage correcteur d'erreurs comprenant des codes locaux détecteurs d'erreurs, procédé de décodage, dispositifs d'émission, de réception et de stockage, et programme correspondants. 1. domaine technique : Le domaine de l'invention est celui du codage de données numériques, en vue notamment de leur transmission ou de leur stockage. Plus précisément, l'invention concerne les codes correcteurs d'erreurs. L'invention peut trouver des applications dans tous les domaines où il est nécessaire, ou à tout le moins souhaitable, de disposer d'un code correcteur d'erreur. Ainsi, l'invention peut notamment s'appliquer à : - la protection contre des erreurs dues aux bruits et interférences inhérents aux canaux physiques de transmission (codage correcteur d'erreurs classique et codes spatio-temporels pour des systèmes multi-antennes), par exemple pour des applications dans les systèmes de télécommunications sans fil DECT, GSM, UMST, les réseaux locaux et domotiques, les télécommunications par satellites... - le codage CDMA ; - la compression de signaux issus de sources d'informations : images, sons, signaux, données... - la protection contre les erreurs dans le stockage des données sur des mémoires de masse, telles que les disques d'ordinateurs ou les microprocesseurs. 2. état de l'art : De nombreuses techniques de codage permettant la correction d'erreurs sont déjà connues. Les premières études sur le sujet remontent aux années 1940. C'est en effet à cet époque que Shannon a fondé la théorie de l'information actuellement encore utilisée. De nombreuses familles de codage ont ensuite été proposées. L'état de l'art actuel en codes correcteurs d'erreurs est bien représenté par les plus récents turbo-codes et les codes LDPC. Les turbo-codes ont été inventés en 1991 par Berrou et Glavieux [3j (les références citées sont regroupées à la fin de la description, au paragraphe 9). Comme illustré en figure 1, les turbo-codes encodent (c'est-à-dire calculent un bloc des bits de redondance Yl) une première fois un bloc d'information (bloc de bits X) par un codeur convolutif 11 décrit par un treillis ayant un petit nombre d'états (8 ou 16 en général) , puis permutent ou entrelacent le bloc d'information dans un autre ordre (12) pour les encoder une nouvelle fois (13) pour fournir le bloc de bits de redondance Y2. Le bloc encodé transmis est donc composé de X, Yl et Y2, voire d'autres blocs permutés 14-encodés 15 de redondances supplémentaires Yi. La publication des turbo-codes et la découverte de leurs performances pour une faible complexité de décodage compatible avec la technologie des puces électroniques grand-public des années 1990 a provoqué l'écriture d'une grande quantité d'articles sur les codes correcteurs d'erreurs et leurs décodages itératifs à décision douce. Enfin il devenait possible de s'approcher de la limite de Shannon publiée en 1948 pour transmettre un débit d'information s'approchant de la capacité maximale limite du canal utilisé, qu'il s'agisse d'une liaison par câble électrique ou optique, ou une liaison radio. Ce renouveau du domaine de la théorie de l'information s'est traduit en 1995 par la redécouverte des codes LDPC (« Low-Density Parity Check » en anglais, pour « contrôle de parité faible densité ») [1] inventés par Gallager en 1960, et des travaux de Tanner [2] généralisant ces codes en 1981, puis par la publication d'une variante des codes LDPC : les codes RA [4] (« Repeat-Accumulate » en anglais, pour « répétition-accumulation ») de Divsalar et McEliece en 1998 . Les codes LDPC sont définis par une matrice H de contrôle de parité « creuse » c'est-à-dire comportant très peu de « 1 » et beaucoup de « 0 » (pour des codes binaires). Pour des codes LDPC non-binaires comme par quaternaire comme l'anneau Z4 des entiers modulo comportera beaucoup de « 0 » et très peu de symboles Pour des raisons de simplicité de définition de la matrice, les LDPC binaires initiaux ou « LDPC réguliers » ont été définis par une matrice de contrôle de parité creuse ayant des nombres de « 1 » c par ligne et v par colonne comme dans l'exemple de code LDPC (4,2) ci-dessous, de paramètres L" = 12>^ = 8>^min = 2 J (c'est-à-dire un code de longueur 12 avec une matrice de contrôle ayant 4 « 1 » sur chaque ligne et 2 « 1 » sur chaque colonne) :An error correction encoding method comprising local error-detecting codes, decoding method, transmitting, receiving and storing devices, and corresponding program. TECHNICAL FIELD The field of the invention is that of the coding of digital data, in particular with a view to their transmission or storage. More specifically, the invention relates to error correcting codes. The invention can find applications in all areas where it is necessary, or at least desirable, to have an error correcting code. Thus, the invention can notably be applied to: protection against errors due to the noise and interference inherent in the physical transmission channels (conventional error correction coding and space-time codes for multi-antenna systems), example for applications in wireless telecommunications systems DECT, GSM, UMST, local and home automation networks, satellite telecommunications ... - CDMA coding; - the compression of signals from information sources: images, sounds, signals, data ... - protection against errors in the storage of data on mass memories, such as computer disks or microprocessors. 2. State of the art: Many coding techniques for correcting errors are already known. The first studies on the subject go back to the 1940s. It was at this time that Shannon founded the information theory currently still used. Many coding families were then proposed. The current state of the art error correction codes is well represented by the latest turbo codes and LDPC codes. Turbo-codes were invented in 1991 by Berrou and Glavieux [3] (the references cited are grouped at the end of the description, in paragraph 9). As illustrated in FIG. 1, the turbo-codes encode (that is to say calculate a block of the redundancy bits Y1) a first time a block of information (block of bits X) by a convolutional encoder 11 described by a lattice with a small number of states (8 or 16 in general), then interchange or interleave the information block in another order (12) to encode them again (13) to provide the block of redundancy bits Y2. The transmitted encoded block is therefore composed of X, Y1 and Y2, or even other permuted blocks 14-encoded with additional redundancies Yi. The publication of turbo-codes and the discovery of their performance for a low decoding complexity compatible with the technology of consumer electronics chips of the 1990s has caused the writing of a large amount of articles on the correction codes of errors and their iterative decoding with soft decision. Finally, it became possible to approach the Shannon limit published in 1948 to transmit a flow of information approaching the maximum capacity limit of the channel used, whether it is an electrical or optical cable connection , or a radio link. This revival of the field of information theory was translated in 1995 by the rediscovery of the LDPC codes ("Low-Density Parity Check" in English, for "control of low density parity") [1] invented by Gallager in 1960, and Tanner's work [2] generalizing these codes in 1981, then by the publication of a variant of the LDPC codes: the codes RA [4] ("Repeat-Accumulate" in English, for "repetition-accumulation") from Divsalar and McEliece in 1998. The LDPC codes are defined by a "hollow" parity check matrix H, that is to say with very few "1" and many "0" (for binary codes). For non-binary and quaternary LDPC codes such as the Z4 ring of integers modulo will have many "0's" and very few symbols For simplicity of matrix definition, the initial binary LDPCs or "regular LDPCs" were defined by a hollow parity check matrix having numbers of "1" c per line and v per column as in the example LDPC code (4.2) below, parameters L "= 12> = 8 ^> ^ 2 J min = (c 'es t ie a code of length 12 with a check matrix having 4" 1 "on each line and 2" 1 "on each column):
Une autre représentation des codes LDPC est leur graphe de Tanner biparti qui représente les variables par des nœuds (ou sommets) placés à gauche dans un graphe et les équations de contrôle (ou contraintes) par des OU exclusifs représentés par des noeuds placés à droite dans ce graphe et reliées aux variables binaires par des branches (ou arêtes). La figure 2 présente le graphe de Tanner biparti correspondant à la matrice ci- dessus. Les sommets des 12 variables *' avec ι = 0^"-'1 1 sont représentés par des points C noirs 21. Les 6 contraintes 22 (somme modulo 2) sont placées à droite et notées J pour J = U,1,J— >-> â Les permutations 23 sont illustrées par les branches interconnectant les variables et les contraintes. On remarque que le nombre de « 1 » égal à 4 sur une ligne de la matrice H de contrôle du code est aussi le nombre d'entrées de chaque contrainte OU exclusif, ce nombre est aussi appelé degré de la contrainte ou du code local et noté c . De même le nombre de « 1 » égal à 2 sur une colonne de la matrice H de contrôle du code est aussi le nombre de répétition de chaque variable, ce nombre est aussi appelé degré de la variable et noté v . Le rendement du code global r = k/n est borné inférieurement par : k Λ dv r = — ≥ l — ^ n dc Another representation of the LDPC codes is their bipartite Tanner graph which represents the variables by nodes (or vertices) placed on the left in a graph and the control equations (or constraints) by exclusive OR represented by nodes placed on the right in this graph and connected to the binary variables by branches (or edges). Figure 2 shows the bipartite Tanner graph corresponding to the matrix above. The vertices of the 12 variables * 'with ι = 0 ^ "-' 1 1 are represented by black C points 21. The 6 constraints 22 (sum modulo 2) are placed on the right and noted J for J = U, 1, J ->. -> L are permutations 23 are illustrated by the branches interconnecting the variables and constraints note that the number of "1" equal to 4 on a line of code control matrix H is also the number of For each exclusive OR constraint, this number is also referred to as the degree of the constraint or the local code and noted C. Similarly, the number of "1" equals 2 on a column of the code control matrix H is also the number of each variable, this number is also called the degree of the variable and noted v . The efficiency of the global code r = k / n is lower bounded by: k Λ dv r = - ≥ l - ^ nd c
Dans le cas général, les degrés peuvent varier d'une variable à une autre et les codes peuvent être différents. Dans le cas où les contraintes « OU exclusif » sont remplacées par de petits codes dits « locaux » le code global est dit de Tanner. La figure 3 montre l'architecture des codes de Tanner plus générale que celle des codes LDPC. Les codes Ci 31 peuvent être des codes bien plus complexes qu'un code de parité simple réalisé par un OU exclusif comme dans les codes LDPC . 3. Inconvénients des ces techniques antérieures Les turbo-codes, les codes LDPC ou leurs variantes offrent des performances, en terme de correction d'erreurs, remarquables pour de grandes tailles de bloc, d'au moins quelques milliers ou dizaines de milliers de bits d'information, mais pour une complexité de calcul au décodage élevée, qui reste cependant compatible avec les capacités de calcul en constante augmentation des microprocesseurs actuels. Une diminution importante de la complexité de décodage est néanmoins fortement souhaitée par les fabricants de composants réalisant ces fonctions de codage-décodage de correction d'erreurs, car elle permettrait de diminuer la surface de silicium des puces électroniques implémentant ces fonctions et donc leurs coûts de production, d'où finalement un coût final moindre pour le consommateur. Cette diminution de complexité est aussi souhaitée par tous les consommateurs car elle se traduit aussi par une consommation moindre de puissance électrique fournie par exemple par les batteries des téléphones mobiles ou des ordinateurs portables connectés à des réseaux de télécommunication mobiles radios et donc par une autonomie du terminal portable plus grande ou par un terminal plus léger. Les turbo-codes usuels ont une distance minimale ∞™ au mieux logarithmique en la longueur, et les codes LDPC qui s'approchent de la capacité du canal sont aussi au mieux logarithmique en la longueur du code : n→∞ Une famille de code est dite asymptotiquement bonne (AB) si la distance minimaleIn the general case, the degrees may vary from one variable to another and the codes may be different. In the case where the constraints "exclusive OR" are replaced by small codes called "local" the overall code is said to Tanner. Figure 3 shows the architecture of Tanner codes more general than that of LDPC codes. The codes Ci 31 can be much more complex codes than a simple parity code realized by an exclusive OR as in the LDPC codes. 3. Disadvantages of these prior techniques Turbo codes, LDPC codes or their variants offer performance, in terms of error correction, remarkable for large block sizes, of at least a few thousand or tens of thousands of bits information, but for computation complexity at high decoding, which however remains compatible with the constantly increasing computing capabilities of current microprocessors. A significant decrease in the decoding complexity is nevertheless strongly desired by the component manufacturers performing these error correction encoding-decoding functions, since it would make it possible to reduce the silicon surface of the chips. implementing these functions and therefore their production costs, resulting in a lower final cost for the consumer. This reduction in complexity is also desired by all consumers because it also translates into a lower consumption of electrical power supplied for example by the batteries of mobile phones or laptops connected to mobile radio telecommunications networks and therefore by a battery life. larger portable terminal or a lighter terminal. The usual turbo-codes have a minimum distance ∞ ™ at best logarithmic length, and LDPC codes that approach the channel capacity are also at best logarithmic in the length of the code: n → ∞ A code family is said to be asymptotically good (AB) if the minimum distance
des codes croît linéairement comme la longueur du code : »n Les performances des codes actuels connus ne sont donc pas optimales et peuvent encore être améliorées tant en terme de capacité de correction d'erreurs qu'en terme de diminution de complexité de décodage. De plus, les structures connues des codes actuels sont trop peu performantes en correction d'erreurs pour des petites tailles de bloc, de l'ordre de la centaine ou du millier de bits. La très forte demande actuelle des transmissions numériques de communications par petits paquets est à l'origine de l'intérêt pour ces codes de petites longueurs. Une augmentation des performances en taux d'erreurs binaires peut se traduire notamment par une augmentation de la qualité des services fournis à l'usager : - portée améliorée des stations de base ; - transmission de données moins bruitées ; - débit d'information maximal disponible plus élevé ; - nombre d'usagers simultanés plus élevés dans une même zone couverte par une station de base. 4. objectifs de l'invention L'invention a notamment pour objectif de pallier ces différents inconvénients de l'art antérieur. Plus précisément, un objectif de l'invention est de fournir une technique de codage correcteur d'erreurs, qui soit plus simple à mettre en œuvre que les codes connus, notamment les codes de type turbo-code ou LDPC, et plus efficace. Ainsi, un objectif de l'invention est de fournir une telle technique de codage, permettant de réduire la complexité des codes (et donc du décodage correspondant), de façon notamment à réduire la surface de silicium utilisé sur les composants, et la consommation d'énergie nécessaire. Notamment, l'invention a pour objectif de permettre la construction de codes offrant un meilleur compromis complexité/capacités de correction d'erreurs que les meilleurs codes correcteurs actuels. Un des buts poursuivis est donc d'obtenir des codes correcteurs d'erreurs améliorant encore les performances de correction d'erreurs des meilleurs codes LDPC et des turbo-codes existants pour une complexité plus petite, en optimisant leurs capacités de transmission d'information pour des canaux donnés : canal binaire symétrique (BSC), canal à effacement (BEC) , canal gaussien ,... Un autre objectif de l'invention est de fournir une telle technique de codage, qui présente de très bonnes qualités de correction d'erreurs, se rapprochant le plus possible des limites théoriques. Notamment, un objectif de l'invention est de fournir des codes correcteurs d'erreurs efficaces mêmes pour des blocs de taille réduite. Ainsi, un objectif de l'invention est de permettre de construire de très bons codes correcteurs d'erreurs courts en faisant disparaître en pratique le phénomène d' « error-floor » (« plancher d'erreur ») en augmentant les distances minimales dmin . Le terme «error- floor » signifie que la courbe de taux d'erreur binaire (TEB) décroît moins rapidement pour de forts rapports signal/bruit que pour de faibles rapports signal/bruit , partie de la courbe de TEB appelée aussi « water-fall » (« chute d'eau »). 5. caractéristiques principales de l'invention Ces objectifs, ainsi que d'autres qui apparaîtront plus clairement par la suite, sont atteints à l'aide d'un procédé de codage associant des données de redondance à des données source, et mettant en œuvre une pluralité de codes locaux, associant à au moins un mot d'état d'entrée au moins un mot d'état de sortie, en fonction d'au moins un mot d'étiquette, et des permutations appliquées sur au moins certains desdits mots. Selon l'invention, lesdits codes locaux sont des codes détecteurs mais non correcteurs d'erreurs sur un alphabet de codage prédéterminé, et en ce que lesdits codes locaux sont interconnectés par leurs mots d'état, de façon à former au moins un treillis de codage, chaque treillis définissant un code de base. Cette approche nouvelle et inventive, reposant sur l'utilisation de codes de base très simples va à rencontre des a priori de l'homme du métier. Il n'est en effet pas évident d'utiliser des codes simples, seulement détecteurs d'erreur, pour construire un code global correcteur d'erreur. Cette approche contre-intuitive permet cependant d'obtenir, de façon surprenante, de très bons résultats, meilleurs que les codes connus décrits précédemment, tout en présentant une complexité réduite. Comme on le verra par la suite, l'invention permet en effet de s'approcher de la limite de Shannon. En outre, l'invention est efficace pour de nombreux types de codes, et notamment les codes correcteurs d'erreurs courts, en limitant fortement le phénomène dit d' « error- floor ». De façon avantageuse, lesdites permutations sont appliquées sur lesdits mots d'étiquette, et non sur lesdits mots d'état. On obtient ainsi un système simplifié, réduisant le nombre de variables traitées. Selon un premier mode de mise en œuvre, lesdits codes locaux sont des codes binaires, représentés par des treillis à 2 ou 4 états. Selon un second mode de mise en œuvre, lesdits codes locaux sont définis sur un alphabet de codage à 2n éléments, et représentés par des treillis à 2n, 2n+1 ou 2n+2 états (n entier supérieur à 2). Par exemple, pour un codage à 4 éléments, il pourra être représenté par des treillis à 4, 8 ou 16 états. Dans les deux cas, on note qu'il s'agit de codes locaux très simples, et donc très faciles à mettre en œuvre. De façon préférentielle, chacun desdits codes de base délivre des mots de code de longueur m symboles, de chacun au moins un bit, d'un alphabet de codage définis de façon que : - le nombre de mots de code de poids 2 est inférieur ou égal à m/2 ; - le nombre de mots de code de poids 3 est non nul, le poids d'un mot de code étant le nombre de symboles différents de zéro qu'il contient. Cette structure permet d'obtenir de très bons résultats de codage. Avantageusement, au moins un desdits codes de base est formé d'au moins deux sections de code. Selon l'invention, on peut également mettre en œuvre un poinçonnage sur au moins un desdits codes de base. Ce poinçonnage peut s'appliquer sur les variables et/ou sur les branches du code. Selon un aspect avantageux de l'invention, au moins un des treillis est un treillis cyclique. Au moins un des treillis peut également être un treillis dont l'état d'entrée et l'état de sortie sont forcées à des valeurs prédéterminées. Selon un premier mode de réalisation de l'invention, au moins un desdits codes locaux est un code (6, 4, 2) à 2 états, associant à un bit d'état d'entrée un bit de d'état de sortie, en fonction de 6 bits d'étiquettes, où : - 6 est la longueur dudit code local, ou son nombre de bits d'étiquette ; - 4 est la dimension dudit code local ; - 2 est la distance minimale dudit code de base. Dans ce cas, ledit code de base est avantageusement formé de trois sections dudit code (6, 4, 2). Selon un deuxième mode de réalisation de l'invention, au moins un desdits codes locaux est un code (4, 3, 2) à 2 états, associant à un bit d'état d'entrée un bit de d'état de sortie, en fonction de 4 bits d'étiquettes, où : - 4 est la longueur dudit code local, ou son nombre de bits d'étiquette ; - 3 est la dimension dudit code local ; - 2 est la distance minimale dudit code de base. Dans ce cas, ledit code de base est avantageusement formé de deux sections dudit code (4, 3, 2). Selon un troisième mode de réalisation de l'invention, au moins un desdits codes locaux est un code (6, 5, 2) à 2 états, associant à un bit d'état d'entrée un bit de d'état de sortie, en fonction de 6 bits d'étiquettes, où : - 6 est la longueur dudit code local, ou son nombre de bits d'étiquette ; - 5 est la dimension dudit code local ; - 2 est la distance minimale dudit code de base. Dans ce cas, ledit code de base est avantageusement formé de trois sections dudit code (6, 5, 2). Selon un quatrième mode de réalisation de l'invention, au moins un desdits codes locaux est un code (8, 7, 2) à 4 états, associant à un bit d'état d'entrée un bit de d'état de sortie, en fonction de 8 bits d'étiquettes, où : - 8 est la longueur dudit code local, ou son nombre de bits d'étiquette ; - 7 est la dimension dudit code local ; - 2 est la distance minimale dudit code local. Selon un cinquième mode de réalisation de l'invention, au moins un desdits codes locaux est un code (8, 7, 2) à 2 états, associant à un bit d'état d'entrée un bit de d'état de sortie, en fonction de 8 bits d'étiquettes, où : - 8 est la longueur dudit code local, ou son nombre de bits d'étiquette ; - 7 est la dimension dudit code local ; - 2 est la distance minimale dudit code local. Dans ces deux derniers cas, ledit code de base est avantageusement ledit code de base est formé de huit sections dudit code (8, 7, 2). L'invention concerne également un procédé de décodage de données codées à l'aide du procédé de codage décrit ci-dessus. Un tel procédé de décodage met en œuvre, de façon symétrique au codage, une pluralité de codes locaux, associant à au moins un mot d'état d'entrée au moins un mot d'état de sortie, en fonction d'au moins un mot d'étiquette, et des permutations appliquées sur au moins certains desdits mots, lesdits codes locaux étant des codes détecteurs mais non correcteurs d'erreurs sur un alphabet de codage prédéterminé, et lesdits codes locaux étant interconnectés par leurs mots d'état, de façon à former au moins un treillis de codage, chaque treillis définissant un code de base. L'invention concerne encore les dispositifs d'émission de données codées mettant en œuvre le procédé de codage décrit ci-dessus, les dispositifs de réception de données codées à l'aide de ce procédé de codage, mettant en œuvre des moyens de décodage agissant de façon symétrique au codage, et les dispositifs de stockage de données codées, comprend des moyens de codage et/ou de décodage selon les procédés sus-mentionnés. L'invention concerne également les programmes d'ordinateur mettant en œuvre les procédés de codage et/ou de décodage décrits ci-dessus. 6. Liste des figures D'autres caractéristiques et avantages de l'invention apparaîtront plus clairement à la lecture de la description suivante d'un mode de réalisation préférentiel de l'invention, donnée à titre de simple exemple illustratif et non limitatif, et des dessins annexés, parmi lesquels : - la figure 1, discutée en préambule, illustre schématiquement le principe d'un turbo-code ; - la figure 2, également discutée en préambule, est une représentation à l'aide d'un graphe de Tanner d'un code LDPC (4, 2) ; - la figure 3, également discutée en préambule, illustre de façon générale un code de Tanner, à l'aide d'un graphe de Tanner ; - la figure 4 est un graphe de Tanner illustrant le principe d'un code correcteur d'erreurs selon l'invention ; - la figure 5 est un graphe de Tanner d'un exemple de code selon l'invention, de longueur n = 8 bits de variables de degré 2 constant avec code de base de longueur m=16 bits décomposé en 4 sections de treillis de codes locaux à 4 bits d'étiquette ; - la figure 6 est un graphe de Tanner d'un autre exemple de code selon l'invention, avec treillis du code de base scindé en 2 sous-treillis, l'un à terminaison par états à 0 et l'autre rebouclé (ou en « tail-biting ») ; - la figure 7 présente la décomposition d'un premier code local (6, 4, 2) utilisable dans un code global selon l'invention, en trois sections de treillis portant chacun deux bits d'étiquettes ; - les figures 8A, 8B et 8C illustrent respectivement les trois sections du code local (6, 4, 2) de la figure 7 ; - la figure 9 est la courbe de transfert d'information du code de base construit avec un treillis de sections de codes (6, 4, 2) à treillis à deux états ; - la figure 10 présente la décomposition d'un deuxième code local (4, 3, 2) utilisable dans un code global selon l'invention, en deux sections de treillis portant chacun deux bits d'étiquettes ; - les figures HA et HB illustrent respectivement les deux sections du code local (4, 3, 2) de la figure 10 ; - la figure 12 est la courbe de transfert d'information du code de base construit avec un treillis de sections de codes (4, 3, 2) à treillis à deux états ; - la figure 13 présente la décomposition d'un troisième code local (6, 5, 2) utilisable dans un code global selon l'invention, en deux sections de treillis portant chacun trois bits d'étiquettes ; - les figures 14A et 14B illustrent respectivement les deux sections du code local (6, 5, 2) de la figure 13 ; - la figure 15 est la courbe de transfert d'information du code de base construit avec un treillis de sections de codes (6, 5, 2) à treillis à deux états ; - la figure 16 présente un treillis « éclaté », non sectionnalisé, d'un quatrième code local (8, 7, 2) à quatre états, utilisable dans un code global selon l'invention ; - la figure 17 présente la décomposition d'un cinquième code local (8, 7, 2) utilisable dans un code global selon l'invention, en deux sections de treillis portant chacun quatre bits d'étiquettes ; - les figures 18A et 18B illustrent respectivement les deux sections du code local (8, 7, 2) de la figure 17 ; - la figure 19 est la courbe de transfert d'information du code de base construit avec un treillis de sections de codes (8, 7, 2) à quatre états ; - la figure 20 présente une autre décomposition du code local (8, 7, 2) en 2 sections de treillis portant chacune 4 bits d'étiquette ; - les figures 21A et 21B illustrent les deux sections du treillis du code local de la figure 20 ; - la figure 22 est la courbe de transfert d'information du code de base construit avec un treillis de sections de codes (8, 7, 2) à deux états ; - la figure 23 présente la décomposition d'un sixième code local (4, 3, 2) à 4 états sur Z4 ; - les figures 24A et 24B présentent les deux sections de treillis de la figure 23. 7. description de modes de réalisation préférentiels de l'invention 7.1 introduction Comme indiqué plus haut, l'invention repose sur une nouvelle approche des codes correcteurs d'erreur, mettant en œuvre des codes locaux très simples, uniquement détecteurs d'erreurs, combinés de façon à fournir un code global final plus simple et plus efficace que les codes connus. Ainsi, les codes de l'invention se distinguent par une diminution de la complexité, par l'utilisation de treillis binaires à faibles nombres d'états (2 et 4 états). On peut estimer que l'ordre de grandeur du facteur de réduction de complexité d'un code construit avec ces treillis à 2 (respectivement 4) états est de 8 (respectivement 4) par rapport aux turbo-codes à 16 états et des codes LDPC équivalents déjà dans des normes. Les codes obtenus offrent, malgré la faible complexité de leurs treillis, un meilleur compromis complexité, capacité de correction d'erreurs et « error-floor » des meilleurs turbo-codes et des codes LDPC actuels, car ces nouveaux codes ont au moins d'aussi bonnes performances en taux d'erreur et des « error-floor » aussi peu gênant dans la pratique. Le tableau ci-dessous résume les performances et les complexités de quelques codes obtenus, décrits plus en détails par la suite. Les paramètres d'un code local sont : (nombre de bits d'étiquettes, dimension, dmin limite max du code base construit avec ce code).codes grow linearly as the length of the code: "→n The performance of current known codes are not optimal and can be improved in terms of both error correction capability and in terms of decoding complexity reduction. In addition, the known structures of the current codes are too inefficient in error correction for small block sizes of the order of one hundred or thousand bits. The current high demand for digital communications in small packets is at the origin of the interest for these codes of short lengths. An increase in performance in bit error rates can be reflected in particular by an increase in the quality of services provided to the user: - improved range of base stations; - less noisy data transmission; - higher available information rate; - number of simultaneous users higher in the same area covered by a base station. 4. OBJECTIVES OF THE INVENTION The invention aims in particular to overcome these various disadvantages of the prior art. More precisely, an object of the invention is to provide an error correction coding technique that is simpler to implement than known codes, in particular codes of the turbo-code or LDPC type, and more efficient. Thus, an objective of the invention is to provide such a coding technique, making it possible to reduce the complexity of the codes (and therefore of the corresponding decoding), in particular in order to reduce the silicon surface used on the components, and the consumption of necessary energy. In particular, the object of the invention is to enable the construction of codes offering a better compromise between complexity and error correction capabilities than the best current correction codes. One of the goals pursued is therefore to obtain error-correcting codes that further improve the error correction performance of the best LDPC codes and existing turbo-codes for a smaller complexity, by optimizing their information transmission capabilities for given channels: symmetrical binary channel (BSC), erasing channel (BEC), Gaussian channel, ... Another objective of the invention is to provide such a coding technique, which has very good correction qualities. errors, as close as possible to the theoretical limits. In particular, an object of the invention is to provide effective error correcting codes even for small size blocks. Thus, an object of the invention is to make it possible to construct very good short error-correcting codes by practically eliminating the phenomenon of "error-floor" by increasing the minimum distances of the error. min . The term "error-floor" means that the bit error rate (BER) curve decreases less rapidly for high signal-to-noise ratios than for low signal-to-noise ratios, part of the BER curve also known as "water- fall "(" waterfall "). 5. Main features of the invention These and other objectives, which will become clearer later, are achieved by means of a coding method associating redundancy data with source data, and implementing a plurality of local codes, associating at least one input status word with at least one output status word, based on at least one tag word, and permutations applied to at least some of said words . According to the invention, said local codes are detectors codes but not error correctors on a predetermined coding alphabet, and in that said local codes are interconnected by their status words, so as to form at least one lattice of coding, each trellis defining a basic code. This new and inventive approach, based on the use of very simple basic codes goes against the a priori of the skilled person. It is indeed not obvious to use simple codes, only error detectors, to build an overall error-correcting code. This counter-intuitive approach, however, provides, surprisingly, very good results, better than the known codes described above, while having a reduced complexity. As will be seen later, the invention makes it possible to approach the Shannon limit. In addition, the invention is effective for many types of codes, including short error correcting codes, strongly limiting the so-called "error floor" phenomenon. Advantageously, said permutations are applied to said label words, and not to said status words. This results in a simplified system, reducing the number of variables processed. According to a first mode of implementation, said local codes are binary codes, represented by trellises with 2 or 4 states. According to a second mode of implementation, said local codes are defined on a coding alphabet with 2 n elements, and represented by lattices with 2 n , 2 n + 1 or 2 n + 2 states (n integer greater than 2) . For example, for a 4-element coding, it may be represented by 4, 8 or 16-state trellis. In both cases, we note that they are very simple local codes, and therefore very easy to implement. Preferably, each of said basic codes delivers codewords of length m symbols, each of which is at least one bit, of a coding alphabet defined in such a way that: the number of weight code words 2 is smaller or equal to m / 2; the number of code words of weight 3 is non-zero, the weight of a code word being the number of non-zero symbols that it contains. This structure makes it possible to obtain very good coding results. Advantageously, at least one of said basic codes is formed of at least two sections of code. According to the invention, it is also possible to implement punching on at least one of said basic codes. This punching can be applied to variables and / or code branches. According to an advantageous aspect of the invention, at least one of the lattices is a cyclic lattice. At least one of the lattices may also be a lattice whose input state and output state are forced to predetermined values. According to a first embodiment of the invention, at least one of said local codes is a 2-state code (6, 4, 2), associating an output state bit with an input state bit, based on 6 label bits, where: - 6 is the length of said local code, or its number of tag bits; - 4 is the dimension of said local code; - 2 is the minimum distance from said base code. In this case, said base code is advantageously formed of three sections of said code (6, 4, 2). According to a second embodiment of the invention, at least one of said local codes is a 2-state code (4, 3, 2), associating an output state bit with an input state bit, according to 4 label bits, where: - 4 is the length of said local code, or its number of tag bits; - 3 is the dimension of said local code; - 2 is the minimum distance from said base code. In this case, said base code is advantageously formed of two sections of said code (4, 3, 2). According to a third embodiment of the invention, at least one of said local codes is a 2-state code (6, 5, 2), associating an output state bit with an input state bit, based on 6 label bits, where: - 6 is the length of said local code, or its number of tag bits; - 5 is the dimension of said local code; - 2 is the minimum distance from said base code. In this case, said base code is advantageously formed of three sections of said code (6, 5, 2). According to a fourth embodiment of the invention, at least one of said local codes is a 4-state code (8, 7, 2), associating an output state bit with an input state bit, according to 8 label bits, where: - 8 is the length of said local code, or its number of tag bits; - 7 is the dimension of said local code; - 2 is the minimum distance from said local code. According to a fifth embodiment of the invention, at least one of said local codes is a code (8, 7, 2) with 2 states, associating an input state bit with an input state bit, according to 8 label bits, where: - 8 is the length of said local code, or its number of tag bits; - 7 is the dimension of said local code; - 2 is the minimum distance from said local code. In the latter two cases, said base code is advantageously said basic code is formed of eight sections of said code (8, 7, 2). The invention also relates to a method of decoding coded data using the coding method described above. Such a decoding method implements, in a manner symmetrical to the coding, a plurality of local codes, associating at least one input state word with at least one output status word, as a function of at least one label word, and permutations applied to at least some of said words, said local codes being detector codes but not correcting errors on a predetermined coding alphabet, and said local codes being interconnected by their status words, to form at least one coding trellis, each trellis defining a basic code. The invention also relates to the coded data transmission devices implementing the coding method described above, the data receiving devices coded using this coding method, implementing decoding means acting symmetrically to the coding, and the encoded data storage devices, comprises coding and / or decoding means according to the above-mentioned methods. The invention also relates to computer programs implementing the coding and / or decoding methods described above. 6. List of Figures Other features and advantages of the invention will appear more clearly on reading the following description of a preferred embodiment of the invention, given as a simple illustrative and non-limiting example, and attached drawings, among which: - Figure 1, discussed in the preamble, schematically illustrates the principle of a turbo-code; FIG. 2, also discussed in the preamble, is a representation using a Tanner graph of an LDPC code (4, 2); FIG. 3, also discussed in the preamble, generally illustrates a Tanner code, using a Tanner graph; FIG. 4 is a Tanner graph illustrating the principle of an error correcting code according to the invention; FIG. 5 is a Tanner graph of an exemplary code according to the invention, of length n = 8 bits of variables of constant degree 2 with base code of length m = 16 bits broken down into 4 sections of code trellis local 4-bit label; FIG. 6 is a Tanner graph of another exemplary code according to the invention, with trellis of the basic code split into 2 sub-trellises, one with state ending at 0 and the other loopback (or in tail-biting); FIG. 7 shows the decomposition of a first local code (6, 4, 2) usable in a global code according to the invention, into three trellis sections each carrying two tag bits; FIGS. 8A, 8B and 8C respectively illustrate the three sections of the local code (6, 4, 2) of FIG. 7; Fig. 9 is the basic code information transfer curve constructed with a lattice of two-state trellis code sections (6, 4, 2); FIG. 10 shows the decomposition of a second local code (4, 3, 2) usable in a global code according to the invention, into two trellis sections each carrying two tag bits; - Figures HA and HB respectively illustrate the two sections of the local code (4, 3, 2) of Figure 10; Fig. 12 is the basic code information transfer curve constructed with a lattice of two-state trellis code sections (4, 3, 2); FIG. 13 shows the decomposition of a third local code (6, 5, 2) usable in a global code according to the invention, into two trellis sections each carrying three tag bits; FIGS. 14A and 14B respectively illustrate the two sections of the local code (6, 5, 2) of FIG. 13; Fig. 15 is the basic code information transfer curve constructed with a lattice of two-state trellis code sections (6, 5, 2); FIG. 16 shows an "exploded" lattice, not sectioned, of a fourth four-state local code (8, 7, 2), usable in a global code according to the invention; FIG. 17 shows the decomposition of a fifth local code (8, 7, 2) usable in a global code according to the invention, into two trellis sections each carrying four tag bits; FIGS. 18A and 18B respectively illustrate the two sections of the local code (8, 7, 2) of FIG. 17; Fig. 19 is the basic code information transfer curve constructed with a trellis of four-state code sections (8, 7, 2); - Figure 20 shows another decomposition of the local code (8, 7, 2) in 2 sections of lattice each carrying 4 tag bits; FIGS. 21A and 21B illustrate the two sections of the trellis of the local code of FIG. 20; Fig. 22 is the basic code information transfer curve constructed with a lattice of two-state code sections (8, 7, 2); - Figure 23 shows the decomposition of a sixth local code (4, 3, 2) to 4 states on Z4; FIGS. 24A and 24B show the two lattice sections of FIG. 23. DESCRIPTION OF PREFERRED EMBODIMENTS OF THE INVENTION 7.1 Introduction As indicated above, the invention is based on a new approach to error correcting codes. , implementing very simple local codes, only error detectors, combined to provide a final overall code simpler and more efficient than known codes. Thus, the codes of the invention are distinguished by a reduction of the complexity, by the use of binary lattices with low numbers of states (2 and 4 states). We can estimate that the order of magnitude of the complexity reduction factor of a code built with these lattices at 2 (respectively 4) states is 8 (respectively 4) with respect to the turbo-codes with 16 states and LDPC codes. already equivalent in standards. The resulting codes offer, despite the low complexity of their trellises, a better compromise between complexity, error correction capability and error-floor of the best turbo-codes and current LDPC codes, since these new codes have at least as well good performance in error rate and "error-floor" as little inconvenient in practice. The table below summarizes the performance and complexities of some codes obtained, described in more detail later. The parameters of a local code are: (number of label bits, dimension, d min max limit of the base code built with this code).
II faut noter aussi que les gains de correction d'effacements donnés pour un canal à effacements (BEC : « Binary Erasure Channel » pour canal à effacement binaire) se traduisent par des gains non négligeables sur un canal gaussien. 7.2 Eléments techniques importants de l'invention La construction d'un code selon l'invention repose sur un « code de base » de longueurs décrit par un treillis obtenu par concaténation de sections de treillis à très faibles nombres d'états de petits codes Cj dits « codes locaux ». Pour éviter toute ambiguïté de notation le code construit est appelé « code global ». Pour cela on construit le code de la façon suivante: - les bits d'états des codes locaux sont reliés entre eux ; - au moins la majorité des bits de variables (qui comprennent à la fois les bits d'information et les bits de redondance) sont répétés et connectés au code de base par l'intermédiaire d'une permutation qui change l'ordre de ces bits de variables répétées (pas nouveau). Une approche avantageuse de l'invention consiste à retenir des sections de code locaux particuliers pour répondre aux critères suivants : - le nombre de mots de code de base (grand treillis) de longueur m bits de poids 2 est inférieur ou égal à m divisé par 2; - le nombre de mot de code de base de longueur m bits de poids 3 est non nul. Cette approche a été appliquée pour les 6 codes locaux décrits ci-après. Une explication de ces bonnes performances est la suivante: il faut prendre des codes correcteurs d'erreur de très faible distance (ce qui est contre intuitif), le minimum étant 2. Dans ce cas, les codes ne sont même pas correcteurs, et peuvent détecter une seule erreur. Ils ont donc un seuil d'extraction d'information le plus bas possible en présence de bruit de transmission. Un grand nombre de mots de poids trois permet d'obtenir des codes correcteurs "globaux" de grande distance minimale. On obtient donc des codes correcteurs d'erreur qui peuvent atteindre la capacité limite de Shannon du canal et dont la distance minimale peut croître linéairement en fonction de la longueur du code. Il s'agit donc de concaténer des petits codes uniquement détecteurs.It should also be noted that the erase correction gains given for a Binary Erasure Channel (BEC) result in significant gains on a Gaussian channel. 7.2 Important Technical Elements of the Invention The construction of a code according to the invention is based on a "base code" of lengths described by a lattice obtained by concatenation of lattice sections with very small numbers of states of small C codes. j called "local codes". To avoid any ambiguity of notation the built code is called "global code". For this, the code is constructed as follows: the state bits of the local codes are interconnected; at least the majority of the variable bits (which comprise both the information bits and the redundancy bits) are repeated and connected to the code of base via a permutation that changes the order of these bits of repeated variables (not new). An advantageous approach of the invention consists in retaining particular local code sections to meet the following criteria: the number of basic codewords (large lattice) of length m bits of weight 2 is less than or equal to m divided by 2; the number of basic codeword of length m bits of weight 3 is non-zero. This approach has been applied for the 6 local codes described below. An explanation of these good performances is the following: it is necessary to take error correcting codes of very short distance (which is counterintuitive), the minimum being 2. In this case, the codes are not even correctors, and can detect a single error. They therefore have an information extraction threshold as low as possible in the presence of transmission noise. A large number of words of weight three makes it possible to obtain "global" correcting codes of great minimum distance. Thus, error correcting codes are obtained which can reach the Shannon limit capacitance of the channel and whose minimum distance can increase linearly as a function of the length of the code. It is therefore concatenate small codes only detectors.
Chaque code local J a un petit nombre de bits d'étiquette J L'ordre de ces m bits est modifié par une permutation de m bits puis fusionnés pour former les bits de variables x> , Q = 0^' n ~ 1^ de degrés dx> . Un élément technique essentiel est donc l'utilisation d'un treillis composé de petits C codes locaux J connectés comme le décrit la Figure 4. Q Cette suite de code locaux J 41 forme le code de base 42 décrite par un treillis et on dit que le treillis est cyclique, ou « tail-biting », s'il forme une boucle. Les n bits de code 43 appelées aussi variables x' , ^ = ' 'n ~ ' sont classiquement placées à gauche du graphe de Tanner du code décrit par la figure 4. Ces variables sont répétées avec des degrés dx ' pouvant être très différents les uns des autres : le vecteur de ces degrés dx ' est appelé profil de répétition des variables. La permutation 44 change l'ordre de ces bits comme dans les turbo codes, les codes LDPC et les codes RA. A droite de la permutation de la figure 4 est placé le treillis du code C dC de base 42 composé des codes locaux ' possédant un nombre J de symboles d'étiquette et υ> bits d'état d'entrée et w'+1 bits d'état de sortie. La figure 5 est un graphe de Tanner d'un exemple d'un tel code « global » de l'invention, de longueur n=8 bits de variables de degré 2 constant avec code de base de longueur m=16 bits décomposé en 4 sections de treillis de codes locaux à 4 bits d'étiquette. Le treillis rebouclé (« tail-biting ») peut se ramener à un treillis classique non- cyclique si une ou plusieurs des bits « d'état » entre les codes locaux Ci sont « forcés » à 0 par construction. Cette technique de terminaison de treillis à l'état 0 est une technique bien connue permettant de simplifier le décodage. Comme illustré en figure 6, la division d'un treillis en plusieurs sous-treillis 61 et 62 est possible. Cela permet de paralléliser les calculs de décodage sur chacun des sous- treillis (avant de faire la synthèse de ces calculs effectués en parallèle) et se fait sans perte significative de performance en prenant un nombre suffisant de sections dans chacune des sous-treillis. La figure 6 décrit donc un code « global » dont le code de base est divisé en 2 sous- treillis 61 et 62 : celui du haut (codes locaux CO à Cj) 61 est un treillis dit classique dont les états de terminaison 611, 612 sont égaux à 0, et le sous-treillis du bas (codes locaux Cj+1 à Cnc-1) 62 est un treillis « tail-biting » dont la condition de terminaison est que l'état de départ doit être égal à l'état d'arrivée. Un élément important de construction est l'obtention de permutations performantes c'est-à-dire donnant des codes de grandes distances minimales. Ces permutations utilisent des propriétés particulières des « motifs » (ou « patterns », en anglais, ou sous-ensembles de bits invariants par rapport à leur position dans le mots de codes) des petits codes locaux Each local code J has a small number of label bits J The order of these m bits is modified by a permutation of m bits and then merged to form the bits of variables x >, Q = 0 ^ ' n ~ 1 ^ of degrees dx >. An essential technical element is therefore the use of a trellis composed of small C local codes J connected as described in Figure 4. Q This local code sequence J 41 forms the basic code 42 described by a trellis and it is said that the lattice is cyclic, or tail-biting, if it forms a loop. The n bits of code 43 called also variables x ', ^ = '' n ~ ' are classically placed on the left of the Tanner graph of the code described in FIG. 4. These variables are repeated with degrees dx 'which can be very different one of the others: the vector of these degrees dx 'is called the repetition profile of the variables. The permutation 44 changes the order of these bits as in turbo codes, LDPC codes and RA codes. To the right of the permutation of FIG. 4 is placed the trellis of the base code C dC 42 composed of local codes 'having a number J of label symbols and υ > input state bits and w ' +1 bits output status. FIG. 5 is a Tanner graph of an example of such a "global" code of the invention, of length n = 8 bits of variables of constant degree 2 with base code of length m = 16 bits decomposed into 4 4-bit local code lattice sections. The "tail-biting" lattice can be reduced to a conventional non-cyclic lattice if one or more of the "state" bits between the local codes Ci are "forced" to 0 by construction. This 0-state trellis termination technique is a well-known technique for simplifying decoding. As illustrated in FIG. 6, the division of a trellis into several sub-trusses 61 and 62 is possible. This makes it possible to parallelize the decoding calculations on each of the sub-lattices (before synthesizing these calculations performed in parallel) and is done without significant loss of performance by taking a sufficient number of sections in each of the sub-lattices. FIG. 6 thus describes a "global" code whose basic code is divided into 2 sub-lattices 61 and 62: the upper one (local codes CO to Cj) 61 is a so-called conventional lattice whose termination states 611, 612 are equal to 0, and the bottom sub-lattice (local codes Cj + 1 to Cnc-1) 62 is a tail-biting lattice whose termination condition is that the initial state must be equal to state of arrival. An important element of construction is the obtaining of high-performance permutations that is to say giving codes of great minimum distances. These permutations use particular properties of "patterns" (or "patterns", or "subsets" of invariant bits with respect to their position in codewords) of small local codes.
La combinaison de cette structure particulière de graphe de Tanner avec un treillis de petits codes locaux à très petits nombres d'états (2 ou 4 états pour des symboles binaires) et ces permutations associées donne des codes correcteurs d'erreurs offrant un meilleur compromis {complexité, performance de correction d'erreurs} que tous les meilleurs codes concurrents. 8. Exemple de codes locaux 8.1 sections de treillis du code local (6.4.2) à 2 états La section décrite à la figure 7 représente l'ensemble des mots de code du code local de paramètres par un ensemble de chemins allant d'un des états de départ vers un des états d'arrivée en passant par les branches étiquetées par des bits. Le code local (6,4,2) 71 est donc décomposé en 3 sections de treillis 72, 73 et 74 portant chacune 2 bits d'étiquette. Les figures 8A à 8C présente respectivement ces trois sections, selon une présentation classique. La notation schématique de la section de treillis signifie que la transition de l'état 0 d'entrée à l'état de sortie 0 peut se réaliser si les bits d'étiquette valent 00 ou 11. On dit que c'est une branche d'étiquette double. Les étiquettes d'une même branche (multiple ou non) sont placées dans des accolades sur une même ligne correspondant au même état d'entrée et les accolades successives correspondent dans le même ordre aux états d'arrivée successifs. Pour expliciter encore la section de treillis de la figure 8B : la transition de l'état 0 d'entrée à l'état de sortie 0 peut se réaliser si les bits d'étiquette valent 00 ou 11, et la transition de l'état 0 d'entrée à l'état de sortie 1 peut se réaliser si les bits d'étiquette valent 01 ou 10. Réalisées avec 2 états seulement, ces sections de treillis permettent un décodage itératif à décision douce de très faible complexité. De plus, les propriétés algébriques de transition de poids font que pris séparément ce code ne peut corriger aucune erreur mais seulement en détecter une, mais assemblés collectivement en treillis, ces codes s'avèrent constituer d'excellent codes avec des permutations adaptées à leurs patterns de poids de Hamming. La figure 9 présente la courbe de transfert d'information de ce code de base construit avec un treillis de sections de codes (6,4,2) à treillis à 2 états. 8.2 sections de treillis du code local (4.3,2) à 2 états La figure 10 présente, selon le même principe qu'explicité ci-dessus, la décomposition du code local (4,3,2) en 2 sections de treillis portant chacune 2 bits d'étiquette, et les figures HA et HB les 2 sections du treillis du code local (4,3,2) à 2 états correspondants. Comme on peut le noter sur la figure 12, la courbe de transfert d'information tangente la droite de 45.3% de pente à l'origine ce qui traduit une capacité de correction de 45.3% d'effacements du code global pour un maximum théorique possible de 50% pour un code de rendement 1/2. 8.3 section de treillis du code local (6.5.2) à 2 états La figure 13 présente, selon le même principe qu'explicité ci-dessus, la décomposition du code local (6, 3, 2) en 2 sections de treillis portant chacune 3 bits d'étiquette, et les figures 14A et 14B les 2 sections du treillis du code local (6,3,2) à 2 états correspondants. A nouveau, on note sur la figure 15 que la courbe de transfert d'information ci- dessous tangente la droite de 30% de pente à l'origine ce qui traduit une capacité de correction de 30% d'effacements du code global pour un maximum théorique possible de 33.33% pour un code de rendement 2/3. 8.4 section de treillis du code local (8,7,2) à 4 états La Figure 16 décrit le treillis « éclaté » en 8 sections ayant chacune un bit d'étiquette. On peut regrouper les bits (όoj23 ) et les bits (b4,b5,b6,b7 ) en 2 sections qui ont chacune 4 états d'entrée et 4 états de sortie comme le montre les figures 17, 18A et 18B. La courbe de transfert d'information de la figure 19 tangente la droite de 21.5% de pente à l'origine ce qui traduit une capacité de correction de 21.5% d'effacements du code global pour un maximum théorique possible de 25% pour un code de rendement 3/4 = 0.75. C'est moins que les 22.15% du code local (8,7,2) à 2 états, mais cette famille de code est asymptotiquement bonne « AB ». 8.5 section de treillis du code local (8.7,2) à 2 états La figure 20 présente, selon le même principe qu'explicité ci-dessus, la décomposition du code local (8, 7, 2) en 2 sections de treillis portant chacune 4 bits d'étiquette, et les figures 21A et 21B les 2 sections du treillis du code local (6,3,2) à 2 états correspondants. La courbe de transfert d'information de la figure 22 tangente la droite de 22.15% de pente à l'origine ce qui traduit une capacité de correction de 22.15% d'effacements du code global pour un maximum théorique possible de 25% pour un code de rendement 3/4 = 0.75. 8.6 Combinaisons de sections de treillis pour composer d'autres codes locaux (n.k.2) Comme indiqué dans les paragraphes qui décrivent respectivement les sections de treillis à 2 états composant les treillis des codes de paramètres (6,4,2) et (4,3,2), on remarque que les sections 1 sont identiques dans les deux codes et identiques aussi à la section 3 du code (4,3,2), de même les sections 2 sont identiques dans les 2 codes. On peut donc utiliser l'ensemble des sections composant les différents codes déjà décrits et la possibilité de poinçonner ou de dupliquer des bits d'étiquettes sur ces sections pour construire de nouveaux codes locaux de paramètres (n,k,2) permettant une grande variété de choix de rendements pour le code global. 8.7 exemple de code (4, 3, 2) à 4 états sur Z4 Z4 est l'ensemble des entiers {0,1,2,3} doté de l'addition modulo 4. Cet exemple de code est facilement généralisable à d'autres alphabets car il suffit de remplacer la loi « addition sur Z4 » par la loi d'addition sur le nouvel alphabet considéré. La méthode de construction consiste à partir du code à répétition sur l'alphabet, ici Z4 : Code à répétition sur Z4 = {00,11,22,33} La figure 23, illustre la décomposition de ce code en deux sections, et les figures 24A et 24B présentent les deux sections correspondantes. Les étiquettes d'une branche multiple sont obtenues de ce code à répétition en additionnant un mot de même longueur (« coset leader », ou représentant de classe latéral). Par exemple, une branche multiple (ou multibranches) 01 aura pour étiquettes {01,12,23,30}. On peut bien sûr appliquer la même généralisation à Z8, Z16,... 9. Bibliographie [1] Gallager, « Low Density Parity Check codes », Ph.D.Thesis, MIT, JuIy 1963. [2] R.M.Tanner, « A recursive aproach to low complexity codes », IEEE Transactions on Information Theory, vol IT-27, pp.533-547, Sept 1981. [3J C.Berrou, A.Glavieux and P.Thitimajshima, « Near Shannon limit error- correcting coding and decoding: Turbo codes », pp.1064-1070, Proceedings of the International Communications Conférence (ICC), May 1993, Gène va. [4J D.Divsalar and R.J.McEliece, « Coding theorems for turbo-like codes », Proceedings of the Allerton Conférence (Allerton, Illinois,USA), pp.201-210, Sept.1998. [51 T. Richardson and R. Urbanke, "The Capacity of Low-Density Parity Check Codes under Message-Passing Decoding," IEEE Transactions on Information Theory, vol.47, pp.599-681, February 2001. [6J T. Richardson, A. Shokrollahi and R. Urbanke, "Design of Capacity Approaching Irregular Low-Density Parity Check Codes," IEEE Transactions on Information Theory, vol.47, pp.619-637, February 2001. The combination of this particular Tanner graph structure with a lattice of small local codes with very small numbers of states (2 or 4 states for binary symbols) and these associated permutations gives error-correcting codes offering a better compromise { complexity, error correction performance} than all the best competing codes. 8. Example of local codes 8.1 trellis sections of the local code (6.4.2) with 2 states The section described in Figure 7 represents the set of code words of the local parameter code by a set of paths ranging from from start states to one of the arrival states through the branches labeled with bits. The local code (6,4,2) 71 is therefore broken down into 3 mesh sections 72, 73 and 74 each carrying 2 tag bits. FIGS. 8A to 8C present respectively these three sections, according to a conventional presentation. The schematic notation of the trellis section means that the transition from the input state 0 to the output state 0 can occur if the tag bits are 00 or 11. It is said that it is a branch of double label. The labels of the same branch (multiple or not) are placed in braces on the same line corresponding to the same input state and the successive braces correspond in the same order to the successive arrival states. To further explain the trellis section of FIG. 8B: the transition from the input state 0 to the output state 0 can be carried out if the tag bits are equal to 00 or 11, and the transition of the state 0 input to the output state 1 can be achieved if the tag bits are 01 or 10. Realized with 2 states only, these lattice sections allow iterative decoding soft decision of very low complexity. Moreover, the weight transition algebraic properties make that taken separately this code can not correct any error but only to detect one, but collectively assembled in lattice, these codes prove to constitute excellent codes with permutations adapted to their patterns of Hamming weight. Figure 9 shows the information transfer curve of this basic code constructed with a lattice of 2-state trellis code sections (6,4,2). 8.2 trellis sections of the local code (4.3.2) with 2 states Figure 10 shows, according to the same principle as explained above, the decomposition of the local code (4,3,2) into 2 sections of trellis each carrying 2 bits of label, and Figures HA and HB the 2 sections of the lattice of the local code (4,3,2) with 2 corresponding states. As can be noted in FIG. 12, the information transfer curve tangents the straight line with 45.3% of slope at the origin, which indicates a correction capacity of 45.3% of overall code erasures for a theoretical maximum possible. 50% for a 1/2 yield code. 8.3 trellis section of the local code (6.5.2) with 2 states Figure 13 shows, according to the same principle as explained above, the decomposition of the local code (6, 3, 2) into 2 sections of trellis each carrying 3 bits of tag, and FIGS. 14A and 14B the 2 sections of the trellis of the local code (6,3,2) with 2 corresponding states. Again, it is noted in FIG. 15 that the information transfer curve below tangents the straight line with 30% of slope at the origin, which reflects a correction capacity of 30% of global code erasures for a theoretical maximum of 33.33% for a 2/3 performance code. 8.4 trellis section of the 4-state local code (8,7,2) Figure 16 describes the "exploded" trellis in 8 sections each having a tag bit. The bits (ό o , ό j , è 2 , è 3 ) and the bits (b 4 , b 5 , b 6 , b 7 ) can be grouped into 2 sections which each have 4 input states and 4 output states as shown in Figures 17, 18A and 18B. The information transfer curve of FIG. 19 tangents the straight line with 21.5% of slope at the origin, which shows a correction capacity of 21.5% of erasings of the global code for a possible theoretical maximum of 25% for a code. yield 3/4 = 0.75. This is less than the 22.15% of the local 2-state code (8,7,2), but this code family is asymptotically good "AB". 8.5 trellis section of the 2-state local code (8.7.2) Figure 20 shows, according to the same principle as explained above, the decomposition of the local code (8, 7, 2) into 2 trellis sections carrying each 4 bits of tag, and Figs. 21A and 21B the 2 sections of the trellis of the local code (6,3,2) with 2 corresponding states. The information transfer curve of FIG. 22 tangents the straight line with 22.15% of slope at the origin, which reflects a correction capacity of 22.15% of global code erasures for a possible theoretical maximum of 25% for a code. yield 3/4 = 0.75. 8.6 Combinations of Trellis Sections to Compose Other Local Codes (nk2) As described in the paragraphs which describe respectively the trellis 2-state sections composing the trellis of the parameter codes (6.4.2) and (4.3 , 2), we note that the sections 1 are identical in the two codes and also identical to section 3 of the code (4,3,2), likewise the sections 2 are identical in the 2 codes. It is therefore possible to use all the sections composing the various codes already described and the possibility of punching or duplicating tag bits on these sections to construct new local codes of parameters (n, k, 2) allowing a wide variety Choice of returns for the overall code. 8.7 example code (4, 3, 2) with 4 states on Z4 Z4 is the set of integers {0,1,2,3} with the addition modulo 4. This code example is easily generalizable to other alphabets because it suffices to replace the law "addition on Z4" by the law of addition on the new alphabet considered. The method of construction consists of starting from the repetition code on the alphabet, here Z4: Code with repetition on Z4 = {00,11,22,33} Figure 23, illustrates the decomposition of this code in two sections, and the Figures 24A and 24B show the two corresponding sections. The labels of a multiple branch are obtained from this code repetitively by adding a word of the same length ("coset leader" or side class representative). For example, a multiple branch (or multibranch) 01 will have labels {01,12,23,30}. One can of course apply the same generalization to Z8, Z16, ... 9. Bibliography [1] Gallager, "Low Density Parity Check Codes," Ph.D.Thesis, MIT, July 1963. [2] RMTanner, "A recursive aproach to low complexity codes, "IEEE Transactions on Information Theory, vol IT-27, pp.533-547, Sept. 1981. [3J C.Berrou, A.Glavieux and P.Thitimajshima," Near Shannon limit error-correcting coding and decoding: Turbo codes, pp.1064-1070, Proceedings of the International Communications Conference (ICC), May 1993, Gene goes. [4J D.Divsalar and RJMcEliece, "Coding theorems for turbo-like codes," Proceedings of the Allerton Conference (Allerton, Illinois, USA), pp.201-210, Sept.1998. [51 T. Richardson and R. Urbanke, "The Capacity of Low-Density Parity Check Codes under Message-Passing Decoding," IEEE Transactions on Information Theory, vol.47, pp.599-681, February 2001. [6] T. Richardson, A. Shokrollahi and R. Urbanke, "Design of Capacity Approaching Irregular Low-Density Parity Check Codes," IEEE Transactions on Information Theory, vol.47, pp.619-637, February 2001.

Claims

REVENDICATIONS 1. Procédé de codage associant des données de redondance à des données source, et mettant en œuvre une pluralité de codes locaux, associant à au moins un mot d'état d'entrée au moins un mot d'état de sortie, en fonction d'au moins un mot d'étiquette, et des permutations appliquées sur au moins certains desdits mots, caractérisé en ce que lesdits codes locaux sont des codes détecteurs mais non correcteurs d'erreurs sur un alphabet de codage prédéterminé, et en ce que lesdits codes locaux sont interconnectés par leurs mots d'état, de façon à former au moins un treillis de codage, chaque treillis définissant un code de base. 2. Procédé de codage selon la revendication 1, caractérisé en ce que lesdites permutations sont appliquées sur lesdits mots d'étiquette, et non sur lesdits mots d'état. 3. Procédé de codage selon l'une quelconque des revendications 1 et 2, caractérisé en ce que lesdits codes locaux sont des codes binaires, représentés par des treillis à 2 ou 4 états. 4. Procédé de codage selon l'une quelconque des revendications 1 et 2, caractérisé en ce que lesdits codes locaux sont définis sur un alphabet de codage à 2n éléments, et représentés par des treillis à 2n, 2n+1 ou 2n+2 états. 5. Procédé de codage selon l'une quelconque des revendications 1 à 4, caractérisé en ce que chacun desdits codes de base délivre des mots de code de longueur m symboles, de chacun au moins un bit, d'un alphabet de codage définis de façon que : - le nombre de mots de code de poids 2 est inférieur ou égal à m/2 ; - le nombre de mots de code de poids 3 est non nul, le poids d'un mot de code étant le nombre de symboles différents de zéro qu'il contient. 6. Procédé de codage selon l'une quelconque des revendications 1 à 5, caractérisé en ce qu'au moins un desdits codes de base est formé d'au moins deux sections de code. 7. Procédé de codage selon l'une quelconque des revendications 1 à 6, caractérisé en ce qu'on met en œuvre un poinçonnage sur au moins un desdits codes de base. 8. Procédé de codage selon l'une quelconque des revendications 1 à 7, caractérisé en ce qu'au moins un des treillis est un treillis cyclique. 9. Procédé de codage selon l'une quelconque des revendications 1 à 8, caractérisé en ce qu'au moins un des treillis est un treillis dont l'état d'entrée et l'état de sortie sont forcées à des valeurs prédéterminées. 10. Procédé de codage selon l'une quelconque des revendications 1 à 9, caractérisé en ce qu'au moins un desdits codes locaux est un code (6, 4, 2) à 2 états, associant à un bit d'état d'entrée un bit de d'état de sortie, en fonction de 6 bits d'étiquettes, où : - 6 est la longueur dudit code local, ou son nombre de bits d'étiquette ; - 4 est la dimension dudit code local ; - 2 est la distance minimale dudit code de base. 11. Procédé de codage selon la revendication 10, caractérisé en ce que ledit code de base est formé de trois sections dudit code (6, 4, 2). 12. Procédé de codage selon l'une quelconque des revendications 1 à 9, caractérisé en ce qu'au moins un desdits codes locaux est un code (4, 3, 2) à 2 états, associant à un bit d'état d'entrée un bit de d'état de sortie, en fonction de 4 bits d'étiquettes, où : - 4 est la longueur dudit code local, ou son nombre de bits d'étiquette ; - 3 est la dimension dudit code local ; - 2 est la distance minimale dudit code de base. 13. Procédé de codage selon la revendication 12, caractérisé en ce que ledit code de base est formé de deux sections dudit code (4, 3, 2). 14. Procédé de codage selon l'une quelconque des revendications 1 à 9, caractérisé en ce qu'au moins un desdits codes locaux est un code (6, 5, 2) à 2 états, associant à un bit d'état d'entrée un bit de d'état de sortie, en fonction de 6 bits d'étiquettes, où : - 6 est la longueur dudit code local, ou son nombre de bits d'étiquette ; - 5 est la dimension dudit code local ; - 2 est la distance minimale dudit code de base. 15. Procédé de codage selon la revendication 14, caractérisé en ce que ledit code de base est formé de trois sections dudit code (6, 5, T). 16. Procédé de codage selon l'une quelconque des revendications 1 à 9, caractérisé en ce qu'au moins un desdits codes locaux est un code (8, 7, 2) à 4 états, associant à un bit d'état d'entrée un bit de d'état de sortie, en fonction de 8 bits d'étiquettes, où : - 8 est la longueur dudit code local, ou son nombre de bits d'étiquette ; - 7 est la dimension dudit code local ; - 2 est la distance minimale dudit code local. 17. Procédé de codage selon l'une quelconque des revendications 1 à 9, caractérisé en ce qu'au moins un desdits codes locaux est un code (8, 7, 2) à 2 états, associant à un bit d'état d'entrée un bit de d'état de sortie, en fonction de 8 bits d'étiquettes, où : - 8 est la longueur dudit code local, ou son nombre de bits d'étiquette ; - 7 est la dimension dudit code local ; - 2 est la distance minimale dudit code local. 18. Procédé de codage selon l'une quelconque des revendications 16 et 17, caractérisé en ce que ledit code de base est formé de huit sections dudit code (8, 7, 2). 19. Procédé de décodage de données codées à l'aide du procédé de codage selon l'une quelconque des revendications 1 à 18, caractérisé en ce qu'il met en œuvre de façon symétrique au codage une pluralité de codes locaux, associant à au moins un mot d'état d'entrée au moins un mot d'état de sortie, en fonction d'au moins un mot d'étiquette, et des permutations appliquées sur au moins certains desdits mots, lesdits codes locaux étant des codes détecteurs mais non correcteurs d'erreurs sur un alphabet de codage prédéterminé, et lesdits codes locaux étant interconnectés par leurs mots d'état, de façon à former au moins un treillis de codage, chaque treillis définissant un code de base. 20. Dispositif d'émission de données codées, caractérisé en ce qu'il comprend des moyens de codage selon le procédé de codage selon l'une quelconque des revendications 1 à 18, mettant en œuvre une pluralité de codes locaux, associant à au moins un mot d'état d'entrée au moins un mot d'état de sortie, en fonction d'au moins un mot d'étiquette, et des moyens de permutation appliquées sur au moins certains desdits mots, lesdits codes locaux étant des codes détecteurs mais non correcteurs d'erreurs sur un alphabet de codage prédéterminé, et lesdits codes locaux étant interconnectés par leurs mots d'état, de façon à former au moins un treillis de codage, chaque treillis définissant un code de base. 21. Dispositif de réception de données codées à l'aide du procédé de codage selon l'une quelconque des revendications 1 à 18, caractérisé en ce qu'il met en œuvre des moyens de décodage agissant de façon symétrique au codage, à l'aide d'une pluralité de codes locaux, associant à au moins un mot d'état d'entrée au moins un mot d'état de sortie, en fonction d'au moins un mot d'étiquette, et de moyens de permutation appliquées sur au moins certains desdits mots, lesdits codes locaux étant des codes détecteurs mais non correcteurs d'erreurs sur un alphabet de codage prédéterminé, et lesdits codes locaux étant interconnectés par leurs mots d'état, de façon à former au moins un treillis de codage, chaque treillis définissant un code de base. 22. Dispositif de stockage de données codées, caractérisé en ce qu'il comprend des moyens de codage et/ou de décodage selon le procédé de l'une quelconque des revendications 1 à 19, mettant en œuvre une pluralité de codes locaux, associant à au moins un mot d'état d'entrée au moins un mot d'état de sortie, en fonction d'au moins un mot d'étiquette, et des moyens de permutation appliquées sur au moins certains desdits mots, lesdits codes locaux étant des codes détecteurs mais non correcteurs d'erreurs sur un alphabet de codage prédéterminé, et lesdits codes locaux étant interconnectés par leurs mots d'état, de façon à former au moins un treillis de codage, chaque treillis définissant un code de base. 23. Produit programme d'ordinateur caractérisé en ce qu'il comprend des instructions de programme pour le codage et/ou le décodage selon le procédé de l'une quelconque des revendications 1 à 19, mettant en œuvre une pluralité de codes locaux, associant à au moins un mot d'état d'entrée au moins un mot d'état de sortie, en fonction d'au moins un mot d'étiquette, et des moyens de permutation appliquées sur au moins certains desdits mots, lesdits codes locaux étant des codes détecteurs mais non correcteurs d'erreurs sur un alphabet de codage prédéterminé, et lesdits codes locaux étant interconnectés par leurs mots d'état, de façon à former au moins un treillis de codage, chaque treillis définissant un code de base. CLAIMS 1. A coding method associating redundancy data with source data, and implementing a plurality of local codes, associating at least one input status word with at least one output status word, based on at least one tag word, and permutations applied to at least some of said words, characterized in that said local codes are detecting codes but not correcting errors on a predetermined coding alphabet, and in that said Local codes are interconnected by their status words, so as to form at least one coding trellis, each trellis defining a basic code. 2. Encoding method according to claim 1, characterized in that said permutations are applied to said label words, and not on said status words. 3. coding method according to any one of claims 1 and 2, characterized in that said local codes are binary codes, represented by trellises with 2 or 4 states. 4. coding method according to any one of claims 1 and 2, characterized in that said local codes are defined on a coding alphabet with 2 n elements, and represented by lattices to 2 n , 2 n + 1 or 2 n + 2 states. 5. coding method according to any one of claims 1 to 4, characterized in that each of said basic codes delivers code words of length m symbols, each of which is at least one bit, of a defined coding alphabet of so that: - the number of weight code words 2 is less than or equal to m / 2; the number of code words of weight 3 is non-zero, the weight of a code word being the number of non-zero symbols that it contains. 6. coding method according to any one of claims 1 to 5, characterized in that at least one of said basic codes is formed of at least two sections of code. 7. coding method according to any one of claims 1 to 6, characterized in that implements punching on at least one of said basic codes. 8. coding method according to any one of claims 1 to 7, characterized in that at least one of the lattice is a cyclic lattice. 9. encoding method according to any one of claims 1 to 8, characterized in that at least one of the lattice is a lattice whose input state and the output state are forced to predetermined values. 10. Coding method according to any one of claims 1 to 9, characterized in that at least one of said local codes is a code (6, 4, 2) with 2 states, associating with a status bit of inputting an output state bit, according to 6 label bits, where: - 6 is the length of said local code, or its number of tag bits; - 4 is the dimension of said local code; - 2 is the minimum distance from said base code. 11. coding method according to claim 10, characterized in that said basic code is formed of three sections of said code (6, 4, 2). 12. Encoding method according to any one of claims 1 to 9, characterized in that at least one of said local codes is a code (4, 3, 2) with 2 states, associating with a status bit of inputting an output state bit, according to 4 label bits, where: - 4 is the length of said local code, or its number of tag bits; - 3 is the dimension of said local code; - 2 is the minimum distance from said base code. 13. Coding method according to claim 12, characterized in that said basic code is formed of two sections of said code (4, 3, 2). 14. Coding method according to any one of claims 1 to 9, characterized in that at least one of said local codes is a code (6, 5, 2) with 2 states, associating with a status bit of inputting an output state bit, according to 6 label bits, where: - 6 is the length of said local code, or its number of tag bits; - 5 is the dimension of said local code; - 2 is the minimum distance from said base code. 15. Coding method according to claim 14, characterized in that said basic code is formed of three sections of said code (6, 5, T). 16. Coding method according to any one of claims 1 to 9, characterized in that at least one of said local codes is a code (8, 7, 2) with 4 states, associating with a status bit of inputting an output state bit, according to 8 label bits, where: - 8 is the length of said local code, or its number of tag bits; - 7 is the dimension of said local code; - 2 is the minimum distance from said local code. 17. Coding method according to any one of claims 1 to 9, characterized in that at least one of said local codes is a code (8, 7, 2) with 2 states, associating with a status bit of inputting an output state bit, according to 8 label bits, where: - 8 is the length of said local code, or its number of tag bits; - 7 is the dimension of said local code; - 2 is the minimum distance from said local code. 18. Coding method according to any one of claims 16 and 17, characterized in that said basic code is formed of eight sections of said code (8, 7, 2). 19. A method of decoding coded data using the coding method according to any one of claims 1 to 18, characterized in that it implements in a symmetrical manner to the coding a plurality of local codes, associating with at least one input status word at least one output status word, as a function of at least one tag word, and permutations applied to at least some of said words, said local codes being detector codes but non-error correctors on a predetermined coding alphabet, and said local codes being interconnected by their status words, so as to form at least one coding trellis, each trellis defining a basic code. Coded data transmission device, characterized in that it comprises encoding means according to the coding method according to any one of claims 1 to 18, implementing a plurality of local codes, associating with at least an input status word at least one output status word, as a function of at least one label word, and permutation means applied to at least some of said words, said local codes being detector codes but not error correctors on a predetermined coding alphabet, and said local codes being interconnected by their status words, so as to form at least one coding trellis, each trellis defining a basic code. 21. Device for receiving coded data by means of the coding method according to any one of claims 1 to 18, characterized in that it implements decoding means acting symmetrically to the coding, to the using a plurality of local codes, associating at least one input status word with at least one output status word, based on at least one tag word, and with permutation means applied to at least some of said words, said local codes being detector codes but not correcting errors on a predetermined coding alphabet, and said local codes being interconnected by their status words, so as to form at least one coding trellis, each trellis defining a basic code. 22. A coded data storage device, characterized in that it comprises coding and / or decoding means according to the method of any one of the Claims 1 to 19, implementing a plurality of local codes, associating at least one input status word with at least one output status word, according to at least one tag word, and permutation means applied to at least some of said words, said local codes being detecting codes but not correcting errors on a predetermined coding alphabet, and said local codes being interconnected by their status words, so as to form at least a coding trellis, each trellis defining a basic code. 23. Computer program product characterized in that it comprises program instructions for coding and / or decoding according to the method of any one of claims 1 to 19, implementing a plurality of local codes, associating at least one input status word at least one output status word, as a function of at least one label word, and permutation means applied to at least some of said words, said local codes being detector codes but not error correctors on a predetermined coding alphabet, and said local codes being interconnected by their status words, so as to form at least one coding trellis, each trellis defining a basic code.
EP05772910A 2004-05-28 2005-05-17 Method for error correction coding comprising local error detection codes, corresponding decoding method, transmitting, receiving and storage device and program Ceased EP1749361A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR0405847 2004-05-28
PCT/FR2005/001238 WO2006000666A1 (en) 2004-05-28 2005-05-17 Method for error correction coding comprising local error detection codes, corresponding decoding method, transmitting, receiving and storage device and program

Publications (1)

Publication Number Publication Date
EP1749361A1 true EP1749361A1 (en) 2007-02-07

Family

ID=34945612

Family Applications (1)

Application Number Title Priority Date Filing Date
EP05772910A Ceased EP1749361A1 (en) 2004-05-28 2005-05-17 Method for error correction coding comprising local error detection codes, corresponding decoding method, transmitting, receiving and storage device and program

Country Status (5)

Country Link
US (1) US7836384B2 (en)
EP (1) EP1749361A1 (en)
JP (1) JP4988563B2 (en)
CN (1) CN1961517B (en)
WO (1) WO2006000666A1 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2037586A1 (en) * 2007-09-14 2009-03-18 France Télécom Encoding method and device for Tail-biting Trellis LDPC codes
US8370711B2 (en) 2008-06-23 2013-02-05 Ramot At Tel Aviv University Ltd. Interruption criteria for block decoding
US8181084B1 (en) * 2008-08-14 2012-05-15 Marvell International Ltd. Detecting insertion/deletion using LDPC code
CN101854242B (en) * 2009-04-01 2012-05-30 电子科技大学 Method for constructing wire-tap channel I by using feedback and LDPC codes
WO2012038963A1 (en) 2010-09-22 2012-03-29 Ramot At Tel-Aviv University Ltd. An acid addition salt of a nortriptyline-gaba conjugate and a process of preparing same
CN102571263B (en) * 2010-12-24 2015-04-22 中国移动通信集团公司 Decoding method and device
CN103414477B (en) * 2013-07-12 2015-04-22 西安电子科技大学 Method for structuring state transition graph and grid graph of quantum convolutional codes
CN107608817B (en) * 2016-07-12 2020-11-10 深圳大心电子科技有限公司 Decoding method, memory storage device and memory control circuit unit
CN106059713B (en) * 2016-07-25 2019-01-29 河南科技大学 A method of first kind tapping channel is constructed by BSBC

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2157958C (en) * 1994-10-11 2000-01-18 Lee-Fang Wei Trellis coded modulation employing lower dimensionality convolutional encoder
US5691993A (en) * 1995-06-07 1997-11-25 Seagate Technology, Inc. Rate 4/5 trellis code for PR4 channels with improved error propagation
US6233271B1 (en) * 1997-12-31 2001-05-15 Sony Corporation Method and apparatus for decoding trellis coded direct sequence spread spectrum communication signals
US6772391B1 (en) * 1998-10-13 2004-08-03 Interdigital Technology Corporation Hybrid interleaver for turbo codes
FR2796780B1 (en) * 1999-07-21 2003-09-19 Groupe Ecoles Telecomm METHOD AND DEVICE FOR CODING WITH AT LEAST TWO CODING IN PARALLEL AND IMPROVED PERMUTATION, AND METHOD AND CORRESPONDING DECODING DEVICE
US6795947B1 (en) * 1999-10-07 2004-09-21 The Regents Of The University Of California Parity check outer code and runlength constrained outer code usable with parity bits
US6769089B1 (en) * 1999-12-24 2004-07-27 Ensemble Communicatioins, Inc. Method and apparatus for concatenated channel coding in a data transmission system
US7243294B1 (en) * 2000-01-13 2007-07-10 California Institute Of Technology Serial turbo trellis coded modulation using a serially concatenated coder
US7234100B1 (en) * 2000-09-28 2007-06-19 Intel Corporation Decoder for trellis-based channel encoding
JP2002314433A (en) * 2001-04-04 2002-10-25 Daewoo Electronics Co Ltd Error correctable channel coding method
US7000167B2 (en) * 2001-08-01 2006-02-14 International Business Machines Corporation Decoding low density parity check codes
BRPI0309327B1 (en) * 2002-04-16 2017-12-12 Thomson Licensing S. A "Apparatus and method for providing transformer-decoded data in a system for processing of video data"
US6976203B2 (en) * 2002-09-30 2005-12-13 Seagate Technology Llc Turbo decoder architecture with mini-trellis SISO

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See references of WO2006000666A1 *

Also Published As

Publication number Publication date
US20080201631A1 (en) 2008-08-21
JP2008501266A (en) 2008-01-17
JP4988563B2 (en) 2012-08-01
CN1961517A (en) 2007-05-09
WO2006000666A1 (en) 2006-01-05
CN1961517B (en) 2011-08-24
US7836384B2 (en) 2010-11-16

Similar Documents

Publication Publication Date Title
EP1749361A1 (en) Method for error correction coding comprising local error detection codes, corresponding decoding method, transmitting, receiving and storage device and program
Abbasfar et al. Accumulate-repeat-accumulate codes
Costello et al. Channel coding: The road to channel capacity
FR2909499A1 (en) Low density parity check code word decoding method for communication apparatus, involves determining messages, from variable node to control node, relative to set of symbols such that minimal value is null
WO2008141453A1 (en) Method for implementing stochastic equality nodes
Guilloud Generic architecture for LDPC codes decoding
Rege et al. Practical dirty paper coding with sum codes
Sun et al. Near-capacity dirty-paper code designs based on TCQ and IRA codes
Boutros et al. Geometric shaping: low-density coding of Gaussian-like constellations
Zhao et al. Partially block Markov superposition transmission of a Gaussian source with nested lattice codes
Ouzan et al. Moderate-density parity-check codes
Lin et al. A low latency coding scheme: semi-random block oriented convolutional code
EP1471647B1 (en) Encoding and decoding of trellis codes comprising trellis sections constructed on block codes with good distance.
Guilloud Architecture générique de décodeur de codes LDPC
Klaimi Study of non-binary turbo codes for future communication and broadcasting systems
Zhao et al. Concatenated polar-coded multilevel modulation
Zhang et al. CRC-aided adaptive belief propagation decoding of NR LDPC codes
Rani et al. Comparative Analysis of Turbo and LDPC Codes for Reduced Storage and Retrieval of Data
Cheng et al. Iterative soft-decision Reed-Solomon decoding on partial response channels
Jooshin et al. Reliability Analysis of the Sum-Product Decoding Algorithm for the PSK Modulation Scheme
Bourduge et al. Non Binary LDPC Coded Orthogonal Modulation Schemes based on Non Binary Multilevel Coding
Li et al. Low-rate repeat-zigzag-Hadamard codes
Mani et al. Symbolic stochastic Chase decoding of Reed-Solomon and BCH codes
RU2741062C1 (en) Method for injector decoding of convolution codes
Tahir Construction and performance of polar codes for transmission over the awgn channel

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20061020

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LI LT LU MC NL PL PT RO SE SI SK TR

RIN1 Information on inventor provided before grant (corrected)

Inventor name: CADIC, EMMANUEL

Inventor name: CARLAC'H, JEAN-CLAUDE

Inventor name: ANDRIYANOVA, IRYNA

Inventor name: TILLICH, JEAN-PIERRE

17Q First examination report despatched

Effective date: 20070514

DAX Request for extension of the european patent (deleted)
REG Reference to a national code

Ref country code: DE

Ref legal event code: R003

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION HAS BEEN REFUSED

18R Application refused

Effective date: 20130209