WO2004066506A1 - データ受信方法及び装置 - Google Patents

データ受信方法及び装置 Download PDF

Info

Publication number
WO2004066506A1
WO2004066506A1 PCT/JP2004/000533 JP2004000533W WO2004066506A1 WO 2004066506 A1 WO2004066506 A1 WO 2004066506A1 JP 2004000533 W JP2004000533 W JP 2004000533W WO 2004066506 A1 WO2004066506 A1 WO 2004066506A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
puncture rate
length
decoding
bits
Prior art date
Application number
PCT/JP2004/000533
Other languages
English (en)
French (fr)
Inventor
Taku Nagase
Noboru Oki
Original Assignee
Sony Ericsson Mobile Communications Japan, Inc.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Ericsson Mobile Communications Japan, Inc. filed Critical Sony Ericsson Mobile Communications Japan, Inc.
Priority to EP04704345A priority Critical patent/EP1587218B1/en
Priority to DE602004019758T priority patent/DE602004019758D1/de
Priority to US10/508,470 priority patent/US7096410B2/en
Publication of WO2004066506A1 publication Critical patent/WO2004066506A1/ja

Links

Classifications

    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/29Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes combining two or more codes or code structures, e.g. product codes, generalised product codes, concatenated codes, inner and outer codes
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/37Decoding methods or techniques, not specific to the particular type of coding provided for in groups H03M13/03 - H03M13/35
    • H03M13/39Sequence estimation, i.e. using statistical methods for the reconstruction of the original codes
    • H03M13/3972Sequence estimation, i.e. using statistical methods for the reconstruction of the original codes using sliding window techniques or parallel windows
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/29Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes combining two or more codes or code structures, e.g. product codes, generalised product codes, concatenated codes, inner and outer codes
    • H03M13/2957Turbo codes and decoding
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/37Decoding methods or techniques, not specific to the particular type of coding provided for in groups H03M13/03 - H03M13/35
    • H03M13/39Sequence estimation, i.e. using statistical methods for the reconstruction of the original codes
    • H03M13/3905Maximum a posteriori probability [MAP] decoding or approximations thereof based on trellis or lattice decoding, e.g. forward-backward algorithm, log-MAP decoding, max-log-MAP decoding
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/37Decoding methods or techniques, not specific to the particular type of coding provided for in groups H03M13/03 - H03M13/35
    • H03M13/39Sequence estimation, i.e. using statistical methods for the reconstruction of the original codes
    • H03M13/41Sequence estimation, i.e. using statistical methods for the reconstruction of the original codes using the Viterbi algorithm or Viterbi processors
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/65Purpose and implementation aspects
    • H03M13/6502Reduction of hardware complexity or efficient processing
    • H03M13/6505Memory efficient implementations
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/65Purpose and implementation aspects
    • H03M13/6508Flexibility, adaptability, parametrability and configurability of the implementation

Definitions

  • the present invention relates to a data receiving method and apparatus for receiving data encoded and transmitted as a turbo code in which a convolutional code and an interleave process are combined.
  • FIG. 1 is a diagram illustrating an example of a configuration of a turbo encoder that performs turbo encoding on a transmission side.
  • the input data is supplied as a systematic bit to the parallel / serial conversion unit 11, and is also supplied to a first convolutional coding unit 20, and is further passed through an interleaver 12.
  • 2 is supplied to the convolutional encoder 30.
  • the first convolutional encoder 20 is configured to perform a convolution process using adders 21 and 25 and D flip-flops 22, 23 and 24, and performs parity bit processing.
  • a is generated, and the generated parity bit a is supplied to the parallel / serial conversion unit 11.
  • the second convolutional encoder 30 is configured to perform a convolution process using the adders 31 and 35 and the D flip-flops 32, 33 and 34. Generates bit b and supplies the generated parity bit b to the parallel / serial converter 11.
  • the parallel / serial conversion unit 11 converts the supplied organization bit and parity bit a into serial data in a predetermined order, and outputs the data as turbo-coded data. .
  • the receiving side of the signal that has been turbo-encoded and transmitted in this way performs decoding using, for example, the turbo decoder shown in FIG.
  • a received signal is supplied to a serial / parallel conversion unit 41, where it is separated into a systematic bit and parity bits a and b.
  • the separation in the serial / parallel conversion section 41 is executed at the timing specified by the timing control circuit 49.
  • the soft output decoding algorithm unit 42 uses the separated systematic bits, the parity bit a, and the output signal of the data entry and memory 46 as a soft algorithm called a map algorithm. Perform decryption processing using the output decryption algorithm.
  • the data decoded by the soft-output decoding algorithm section 42 is supplied to an interleaving memory 43 and subjected to an interleaving process, and the interleaved data and the serial /
  • the parity bit b separated by the parallel conversion unit 41 is supplied to a soft-output decoding algorithm unit 44.
  • the soft-output decoding algorithm unit 44 also performs decoding processing using the map algorithm, and supplies the decoded output to the soft-output decoding algorithm unit 42 via the deinterleave memory 46. Therefore, in the decoding process in the soft-output decoding algorithm unit 42 and the decoding process in the soft-output decoding algorithm unit 44, the respective outputs are supplied to each other and iteratively decoded.
  • the data interleaved by the interleaving memory 43 and the decoded output of the soft-output decoding algorithm section 44 are supplied to an adder 45 to be added, and the added output is provided. It is supplied to the hard decision section 47.
  • the hard decision section 47 is a circuit for obtaining a final decoding result.
  • the result of the decision (decoding) by the hard decision section 47 is supplied to a memory for deinterleaving 48, which is subjected to deinterleaving processing. Output as the decryption result.
  • Each of the soft-output decoding algorithms 42, 44 and the interleave The memory 43 and the memories for interleaving 46 and 48 are given processing timing by a timing control circuit 49.
  • turbo code is a block code
  • the coding process and the decoding process are performed with a block consisting of a predetermined number of bits N. Performed in units. This block unit is called a code block here.
  • the required number of bits of the memory for the interleave and the memory for the interleave are each equal to the number of bits of one code block.
  • the soft output decoding algorithm unit 44 operates.
  • the output of the parity bit b and the memory 43 for interleaving is supplied to the soft output decoding algorithm unit 44.
  • the decoded output of the soft output decoding unit 44 is stored in the memory for interleaving 46.
  • the above is the outline of one decoding process in the iterative decoding process.
  • Memory for interleave 4 3 and memory for interleave 4 6 The information sent to each of the soft-output decoding algorithm units 44 and 42 is called pre-likelihood information.
  • the hard decision result (sine bit) of the output added by the adder 45 is obtained by the hard decision unit 47, and the result is obtained.
  • the final decoded result is supplied to the memory for interleaving 48 and the bit order is restored.
  • This map algorithm is based on the paper by LR Bahl, J. Cocke, F. Jelinek, J. Raviv, Optimal Decoding of Liner Codes for Minimizing Symbol Error Rate, IEEE Transaction on Information Theory, Vol. IT- 20, March 1974, pp. 2 8 4-7.
  • a soft decision output is obtained for each bit position of the code block.
  • forward and backward recursive operations are required to obtain the state metric on the train.
  • these processes must be executed continuously from the beginning to the end in units of one block. That is, it is necessary to store the state metric for each state by recursive operation in memory over the entire N-stage code block, and then process the state metric.
  • the capacity is about 40 k words.
  • the details of the decoding process using the above-described slide window will be described in the embodiment of the invention.
  • the arithmetic processing is performed on a window-by-window basis. If the window length is L and the time of a window is t, the recursive operation in the backward direction starts at time t + 2L, and the state metric by the recursive operation in the backward direction is time t The section from + L to time t is stored in memory.
  • the interval from time t + 2L to time t + L is a process for sufficiently increasing the reliability of the recursive operation divided into windows, and this interval is referred to as a learning interval here.
  • the length of the learning section is P
  • next window is the same as t + L with the top position of the window increased by L. Process. Thereafter, the process is continued while increasing the window start position by L (while sliding) until the end of the train is reached. In the recursive operation performed from the end of the trellis, no learning interval is provided.
  • the required memory amount is reduced from N * M mode to L * M mode. Increases by a factor of two.
  • the length P of the learning section is determined in consideration of an allowable increase in the amount of computation and performance degradation. In order to reduce the amount of computation, it was necessary to reduce the length of the learning interval as much as possible.However, depending on the state of the transmitted turbo code, an appropriate learning interval length is not always set. I could't say it.
  • the present invention has been made in view of the above points, and has an object to enable the length of a learning section to be set optimally when a turbo code is received and decoded by an operation using a slide window. And Disclosure of the invention
  • the data receiving apparatus of the present invention is a data receiving apparatus that receives and decodes a turbo code coded in units of blocks each having a predetermined number of bits.
  • Judging means interpolating means for interpolating bits thinned out at the determined puncture rate, interleaving means for interleaved data as the original array, interpolating means and interleaving means
  • the data of the sliding window and the data of the learning section following the data of the sliding window while variably setting the length of the learning section according to the puncture rate detected by the puncture rate judgment means And turbo decoding means for decoding the data in the slide window by recursive operation.
  • the length of the learning section is variably set according to the puncturing rate of the received data, so that the effective received signal included in the learning section is kept almost constant even if the puncturing rate changes. This will be possible. Therefore, it is possible to always set the learning section to the minimum length, and it is not necessary to perform an excessive calculation when calculating the map algorithm using the slide window, and the calculation speed is increased. This has the effect that the power consumption can be reduced and unnecessary power consumption can be suppressed.
  • FIG. 1 is a block diagram illustrating a configuration example of a turbo encoder.
  • FIG. 2 is a block diagram illustrating a configuration example of a turbo decoder.
  • FIG. 3 is an explanatory diagram schematically showing a processing procedure of a conventional map algorithm.
  • FIG. 4 is a block diagram illustrating a configuration example of a receiving device according to an embodiment of the present invention.
  • FIG. 5 is a flowchart showing a processing example of the map algorithm according to the embodiment of the present invention.
  • FIG. 6 is an explanatory diagram showing a processing procedure of a map algorithm using a slide window according to an embodiment of the present invention.
  • FIG. 4 is a diagram showing the overall configuration of the receiving device.
  • the signal received by antenna 1 is supplied to low noise amplifier 2 and amplified.
  • the output signal of the low noise amplifier 2 is supplied to the reception RF section 3, frequency-converted, and supplied to the demodulation section 4.
  • the received signal demodulated by the demodulation unit 4 is supplied to a deinterleaving / depuncturing unit 5, where the interleaving process reverse to the interleaving process performed at the time of transmission is performed, and the original data arrangement is performed.
  • a depuncturing process is performed to insert 0 bits into the decimated data position at the time of transmission and restore the original data length.
  • the position and length of the 0-bit insertion are variably set in the interleave / depuncture section 5 in accordance with the puncture rate determined by the central control unit 7 to determine which puncture rate. It is designed to be able to cope with the case of receiving data. Further, the central control unit 7 performs control to variably set the length of the learning section when performing decoding processing using a slide window in the turbo decoder 6 according to the determined puncture rate. It is.
  • FIG. 5 is a flowchart showing an example of turbo code decoding processing using the map algorithm of the present example.
  • the tarpo code is a block code
  • decoding by the turbo decoder is performed in a block unit (code block) having a predetermined number N of bits.
  • the flowchart in Figure 5 illustrates this one block process.
  • the central control unit 7 determines whether or not the puncture rate has changed from the previous reception processing (step S11). If it is determined that the puncture rate has changed, the length of the learning section is reset according to the puncture rate at that time and stored in the central control unit 7 (step S12). ).
  • step S13 If there is no change in the puncture rate in step S11, or if the puncture rate changes in step S12 and resetting is completed, [1 window length of window] + [learning] Is input to the turbo decoder 6 (step S13). Then, a recursive operation in the reverse direction using the input data is performed (step S14), and after the recursive operation is completed, one window of data (i.e., except for the learning section) Is stored in the memory provided in the mapping algorithm section in the turbo decoder 6 (step S15), the data stored in the memory is read (step S16), and the read data is read out. The forward calculation and output likelihood calculation are performed (step S17). When the processing up to this point is completed, it is determined whether or not the processing has been performed up to the end of the data of one block (step S18). If not, the processing returns to step S13.
  • FIG. 6 is a diagram showing an example of a processing procedure of the map algorithm using the slide window of this example.
  • the decoding trellis is continuous from the beginning to the end of one block of data, as shown in (a) of Fig. 6.
  • the processing in the first step 1 is based on the puncture rate and the data length L of one window, which is a predetermined fixed length.
  • Learning interval which is a variable length
  • the recursive operation is performed in the reverse direction from the position added by the length of, and as a result of the operation, one window of data is stored in the memory as shown in (c) of FIG. .
  • step 2 the data stored in the memory is read out as shown in (d) of FIG. 6, and the read data is used as shown in (e) of FIG. Then, the calculation is performed in the forward direction, and the output likelihood calculation is performed. This is the process of one block.
  • the read position is slid by a length corresponding to one window, and as shown in (f) of FIG.
  • a recursive operation is performed in the reverse direction from the position obtained by adding the length of the learning section that is variably set to the data length L of the window, and the operation result is as shown in (g) of Fig. 6.
  • one window of data is stored in the memory.
  • step 4 the data stored in the memory is read out as shown in (h) of FIG. 6, and the read data is read out as shown in (i) of FIG. Use it to perform calculations in the forward direction and calculate output likelihood.
  • the decoding is performed by the map algorithm while performing the sliding for each window in the same manner.
  • the data of the last one window is used (that is, the state where there is no learning section). )
  • Perform a recursive operation in the backward direction store the data in memory ((o) in Fig. 6), read the memory ((P) in Fig. 6), and perform a forward operation ((q) in Fig. 6). ) To end all the processing in one block.
  • Decoding the turbo code in this way has the effect of enabling turbo decoding with a sliding window while always setting the optimal learning section length. That is, when the puncturing rate, which is the rate at which data is thinned out, is changed on the transmitting side, the dinning in the receiving apparatus of this example is performed. The position and length at which 0 bits are inserted are variably set in the tare-leave depuncturing section 5 so that the original data length of the depunctured received data is restored. Then, the length of the learning section is changed by a length corresponding to the number of bits decimated by the puncture rate, so that the number of valid data bits included in the learning section is changed. However, since the puncture rate is kept constant even if it changes, the reverse recursive calculation process is always performed using a fixed amount of valid data, and decoding with a fixed performance is performed. Will be possible.
  • the length of the learning section is always set appropriately, if the length of the learning section is fixed as in the past, the length of the learning section is longer than necessary to ensure performance. Although it is necessary to set, such a thing disappears, and it becomes possible to minimize the amount of calculation processing in the turbo decoder. Further, since there is no need to perform useless calculations, the decoding processing speed can be increased, and the power consumption required for the calculation processing can be reduced.
  • the series of processes described so far can be realized by hardware, but can also be realized by software.
  • a program that configures the software is installed in a data processing device such as a computer device, and the program is executed by a computer device or the like.
  • the above-described receiving device is functionally realized.
  • the length of the learning section when the length of the learning section is variably set, the number of bits thinned out by the puncturing process and the number of bits that change the length of the learning section are determined. Although it has been described that they are almost completely matched, the data amount thinned out by the puncturing process and the variable setting amount of the length of the learning section may be changed in a state corresponding to some extent. In such cases, the length of the learning section If you can afford, it does not affect the decoding accuracy much

Landscapes

  • Physics & Mathematics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Error Detection And Correction (AREA)
  • Detection And Prevention Of Errors In Transmission (AREA)

Abstract

受信データのパンクチャ率を検出するパンクチャ率検出手段と、検出したパンクチャ率で間引かれたビットを補間する補間手段と、インターリーブされたデータを元の配列とするデインターリーブ手段と、補間手段及びデインターリーブ手段で処理が施されたデータに対して、パンクチャ率検出手段で検出したパンクチャ率に応じて学習区間の長さを可変設定させながら、スライド窓のデータと、そのスライド窓のデータに続く学習区間のデータとを入力させて、再帰的演算でスライド窓のデータを復号するターボ復号手段とを備えて、学習区間に含まれる有効な受信信号を、パンクチャ率が変化してもほぼ一定に保つようにした。

Description

明 細 書
データ受信方法及び装置 技術分野
本発明は、 畳み込み符号とインター'リーブ処理とが組み合わさ れたターボ符号に符号化されて送信されたデータを受信するデー タ受信方法及び装置に関する。 背景技術
従来、 ターボ符号と称される符号化を行ってデータを効率良く 伝送するこ とが行われている。 図 1 は、 送信側でターボ符号化を 行う ターボエンコーダの構成の一例を示した図である。 入力デー タは、 組織ビッ ト と してパラ レル/シリ アル変換部 1 1 に供給さ れる と共に、 第 1 の畳み込み符号化部 2 0 に供給され、 さ らにィ ンターリーバ 1 2を介して第 2 の畳み込み符号化部 3 0に供給さ れる。 第 1 の畳み込み符号化部 2 0 は、 加算器 2 1, 2 5 と Dフ リ ップフロ ップ 2 2, 2 3 , 2 4を使用した畳み込み処理を行う よ う に構成され、 パリ ティ ビッ ト a を生成し、 その生成されたパ リ ティ ビッ ト a をパラ レル/シリ アル変換部 1 1 に供給する。 第 2の畳み込み符号化部 3 0では、 加算器 3 1 , 3 5 と Dフ リ ップ フロ ップ 3 2 , 3 3, 3 4を使用した畳み込み処理を行う よ う に 構成され、 パリ ティ ビッ ト b を生成し、 その生成されたパリティ ビッ ト b をパラ レル/シ リ アル変換部 1 1 に供給する。
パラ レル /シ リ 了ル変換部 1 1 は、 供給される組織ビッ ト とパ リティ ビッ ト a, を所定の順序でシリ アルデータに変換して、 ターボ符号化されたデータ と して出力する。
このよ う にターボ符号化されて伝送された信号を受信する側で は、例えば図 2に示すターボデコーダを使用して復号が行われる。 図 2 に示したターボデコーダの構成について説明する と、 受信信 号は、 シリ アル パラ レル変換部 4 1 に供給されて、 組織ビッ ト とパリ ティ ビッ ト a, b とに分離される。 このシリ アル パラ レ ル変換部 4 1 での分離は、 タイ ミ ング制御回路 4 9 から指示され たタイ ミ ングで実行される。
軟出力復号アルゴリ ズム部 4 2 は、 分離された組織ビッ ト と、 パリ ティ ビッ ト a と、 データイ ンターリ ー 、用メモリ 4 6 の出力 信号と を使用 して、 マップアルゴリ ズム と称される軟出力復号ァ ルゴリ ズムで復号処理を行う。 軟出力復号アルゴリ ズム部 4 2で 復号されたデータは、 イ ンターリ ーブ用メモリ 4 3 に供給されて ィ ンターリ ーブ処理が施され、 そのィ ンター リ ーブされたデータ と、 シリ アル/パラ レル変換部 4 1 で分離されたパリ ティ ビッ ト b とが、 軟出力復号アルゴリ ズム部 4 4 に供給される。 軟出力復 号アルゴリ ズム部 4 4 でも、 マップアルゴリ ズムで復号処理を行 い、 その復号出力をディ ンターリ ーブ用メモリ 4 6 を介して軟出 カ復号アルゴリ ズム部 4 2 に供給する。 従って、 軟出力復号アル ゴリ ズム部 4 2での復号処理と、 軟出力復号アルゴリ ズム部 4 4 での復号処理は、 それぞれの出力が相互に供給されて反復復号さ れ ·ο o
そして、 イ ンターリ ーブ用メモ リ 4 3 でイ ンターリ ーブされた データ と、 軟出力復号アルゴリ ズム部 4 4 の復号出力 と を、 加算 器 4 5 に供給して加算し、 その加算出力を硬判定部 4 7 に供給す る。 硬判定部 4 7 は、 最終的な復号結果を得る回路である。 この 硬判定部 4 7での判定 (復号) 結果は、 ディ ンターリ ーブ用メモ リ 4 8 に供給されてディ ンターリ ーブ処理がされ、 そのディ ンタ 一リ ーブされたデータを、 ターボ符号の復号結果と して出力させ る。
各軟出力復号アルゴリ ズム部 4 2, 4 4 とイ ンターリ ーブ用メ モリ 4 3 とディンターリーブ用メモリ 4 6, 4 8 は、 タイ ミ ング 制御回路 4 9によ り処理タイ ミ ングが与えられる。
この図 2に示すターボデコーダの復号処理状態について説明す る と、 ターボ符号はブロ ック符号であるので、 符号化処理及ぴ復 号化処理は定められたビッ ト数 Nからなるブロ ック単位で行われ る。 このブロ ック単位を、 ここではコー ドブロ ック と呼ぶ。 イ ン ターリーブ用のメモリ及ぴディンターリーブ用のメモリ の所要ヮ 一ド数は、 それぞれ 1 コードブロ ックのビッ ト数に等しい。
2つの軟出力復号アルゴリ ズム部 4 2, 4 4での反復復号は、 例えば、 数回から数十回転程度反復される。 反復復号を開始させ る前に、 軟出力復号アルゴリ ズム部 4 2は初期値 ( 0 ) で初期化 をしておく。 ここで反復復号処理における 1 回の処理の概要につ いて説明する と、 まず 1 回の処理の前半では、 軟出力復号ァルゴ リ ズム部 4 2が動作する。 軟出力復号アルゴリ ズム部 4 2 には、 組織ビッ ト、 ノ リ ティ ビッ ト a及びディ ンターリーブ用メモリ 4 6 の出力が供給される。軟出力復号アルゴリ ズム部 4 2 の出力は、 イ ンターリーブ用メモリ 4 3に蓄積される。 なお、 反復処理の 1 回目の時点では、 ディ ンターリーブ用メモリ 4 6 にも情報が蓄積 されていないので、 初期値 ( 0 ) が用いられる。
1 回目の処理の後半では、 軟出力復号アルゴリ ズム部 4 4が動 作する。 軟出力復号アルゴリ ズム部 4 4には、 パリ ティ ビッ ト b 及ぴインターリーブ用メモリ 4 3の出力が供給される。 なお、 軟 出力復号アルゴリ ズム部 4 4で復号されるマップアルゴリ ズム b に対応した組織ビッ トについては、 ここでは送信されない構成と してあり、 0 を入力とする。 この軟出力復号アルゴリ ズム部 4 4 の復号出力は、 ディンターリーブ用メモリ 4 6 に蓄積される。 こ こまでが反復復号処理における 1回の復号処理の概要である。 ィ ンターリーブ用メモリ 4 3及ぴディンターリーブ用メモリ 4 6か ら各軟出力復号アルゴリ ズム部 4 4、 4 2に送られる情報は、 事 前尤度情報と呼ばれる。
この 1 回の処理を、予め決められた回数だけ反復して行った後、 加算器 4 5で加算された出力の硬判定結果 (サインビッ ト) を硬 判定部 4 7で得て、 その結果をディンターリーブ用メ モ リ 4 8に 供給して、 ビッ ト順序を復元したものを、 最終的な復号結果とす る。
次に、 軟出力復号アルゴリ ズム部 4 2, 4 4での復号処理に使 用されるマップアルゴリ ズムの動作について、 図 3 を参照して説 明する 。 こ の マ ッ プ ア ル ゴ リ ズ ム は 、 L. R. Bahl, J. Cocke, F. Jelinek, J. Ravi vによる論文 Optimal Decoding of Liner Codes for Minimizing Symbol Error Rate ,, IEEE Transact ion on Information Theory, Vol. IT- 20, March 1974, pp. 2 8 4〜 7で説 明されている。
マ ップアルゴリ ズムでは、 コー ドブロ ックの各ビッ ト位置につ いて軟判定出力を求める。 こ の際に、 ト レ リ ス上でステー トメ ト リ ックを求めるための、 順方向及び逆方向の再帰演算を必要とす る。 これらの処理は、 図 3 に示したよ う に、 1 ブロ ック単位で先 頭から終端まで、 連続して実行させる必要がある。 即ち、 再帰的 演算による各ステー ト毎のステー トメ ト リ ックを、 Nステージの コー ドブロ ック全体に渡ってメ モ リ に格納してから、 処理する必 要がある。 このよ う な処理を行うためには、 大量のデータが格納 できるメモリ を必要とする。 例えば、 W— C D MA方式と称され る無線電話システムに適用されている処理 (コ一 ドブロ ック長 N - 5 1 1 4 , ステー ト数] VI = 8 ) の場合には、 必要なメモリ容量 は約 4 0 k ワー ドにもなる。
このため、 マ ップアルゴリ ズムの所要メ モ リ量を削減する技術 と して、 文献 1及ぴ 2に記載された、 ス ライ ド窓を用いた処理が 提案されている。
[文献 1 ]
S. Pietrobon, S. Barbulescu の餘文 A Simplification of the Modified Bahl et al. Decoding Algorithm for systematic Convolutional Codes " int. Symp. On Inform. Theory and its Applications, Sydney, Australia, pp.1073 - 7, Nov.1994, revised Jan.4, 1996
は献 2 ]
S. Pietrobon の餘文 Efficient Implementation of Continuous MAP Decodersand a Synchronisation Technique for Turbo Decoders int. Symp. On Inform. Theory ana its
Applications, Victoria, B. C. , Canada, pp.586-9, September 1996 上述したスライ ド窓を用いた復号処理の詳細については、 発明 の実施の形態の中で説明するが、 簡単に述べる と、 再帰的演算処 理を窓単位で実行するものである。 窓の長さを L、 ある窓の時刻 を t とする と、 逆方向の再帰的演算は時刻 t + 2 Lから開始し、 逆方向の再帰的演算によるステー トメ ト リ ックは、 時刻 t + Lか ら時間 t までの区間がメモ リ に格納される。
時刻 t + 2 Lから時刻 t + Lまでの区間は、 窓単位に分割され た再帰的演算の信頼度を十分に高めるための処理で、 こ こではこ の区間を学習区間と呼ぶ。 学習区間の長さを P とする と、 上記非 特許文献では P = L となるこ とが記載されているが、 必ずしもそ うである必要はない。 学習区間の長さ Pを短くするこ とで、 演算 量の増加を抑えるこ とができるが、 その一方で性能の劣化が生じ るので、 Pの値は注意深く決める必要があり、 ある程度の余裕を 持たせる必要があった。順方向の再帰的演算及び出力尤度計算は、 時刻 t から時刻 t + Lの区間で実行される。
次の窓は、 窓の先頭位置を Lだけ増やした t + L と して、 同様 な処理を行う。 以後、 窓の先頭位置を Lずつ増やしながら (ス ラ ィ ドさせながら)、 ト レ リ スの終端に達するまで処理を続ける。 な お、 ト レリ スの終端から行う再帰的演算においては、 学習区間は 設けない。
このよ うなスライ ド窓を用いた演算を行う こ とで 所要メ モ リ 量は N * Mヮー ドから L * Mヮー ドまで軽減される 伹し演算量 は、 逆方向の再帰的演算の部分が 2倍に増加する。
こ のよ う に学習区間の長さ Pは、許容できる演算量の増加分と、 性能の劣化を考慮して決められる。演算量を少なくするためには、 なるべく 学習区間の長さを小さ くする必要があつたが、 伝送され るターボ符号の状態によっては、 必ずしも適切な学習区間の長さ が設定されている とは言えない状況であった。
本発明はかかる点に鑑みてなされたものであり、 ターボ符号を 受信してスライ ド窓を用いた演算で復号する場合に、 学習区間の 長さが最適に設定できるよ う にすることを目的とする。 発明の開示
本発明のデータ受信方法は、 所定のビッ ト数からなるブロ ック 単位で、 畳み込み符号による符号化とイ ンターリーブとが組み合 わされて符号化される と共に、 所定のパンクチヤ率によ り必要に よ り 間引かれて送信されたターボ符号を受信して復号するデータ 受信方法において、受信データ のパンクチャ率を判断する処理と、 パンク チヤ率で間引かれたビッ トを補間する補間処理と、 イ ンタ ーリ ーブされたデータを元の配列とするディンターリ ーブ処理と 補間処理及びディンターリーブ処理が施されたデータに対して、 パンクチヤ率判断処理で判断したパンクチヤ率に応じて学習区間 の長さを可変設定させながら、 スライ ド窓のデータ と、 そのスラ イ ド窓のデータに続く前記学習区間のデータ とを入力させて、 再 帰的演算でスライ ド窓のデータを復号するターポ復号処理とを行 う よ う にしたものである。
また本発明のデータ受信装置は、 所定のビッ ト数からなるプロ ック単位で符号化されたターボ符号を受信して復号するデータ受 信装置において、 受信データのパンクチヤ率を検出するパンクチ ャ率判断手段と、 判断したパンクチヤ率で間引かれたビッ トを補 間する捕間手段と、 インターリーブされたデータを元の配列とす るディンターリーブ手段と、 補間手段及びディンターリーブ手段 で処理が施されたデータに対して、 パンクチヤ率判断手段で検出 したパンクチヤ率に応じて学習区間の長さを可変設定させながら スライ ド窓のデータ と、 そのスライ ド窓のデータに続く学習区間 のデータ とを入力させて、 再帰的演算でス ライ ド窓のデータを復 号するターボ復号手段とを備えたものである。
本発明による と、 受信データのパンクチヤ率に応じて学習区間 の長さを可変設定するよ う にしたので、 学習区間に含まれる有効 な受信信号を、 パンクチヤ率が変化してもほぼ一定に保つこ とが 可能になる。 従って、 学習区間と して、 常に最低限の長さ とする こ とが可能になり、 スライ ド窓を使用したマップアルゴリ ズムの 演算時に、 過剰な演算を行う必要がなく なり、 演算速度を高速化 でき、 また無駄な電力消費を抑えるこ とができる という効果を有 する。
特に、 パンクチヤ率に応じて可変設定される学習区間の長さ と して、 パンクチヤ率で間引かれたビッ ト数に相当する長さだけ変 化させるこ とで、 学習区間に含まれる有効な受信データ のビッ ト 数を、 ほぼ完全に一定とできるよ う になり、 効率の良い復号処理 が可能になる。 図面の簡単な説明 図 1 は、 ターボエンコーダの構成例を示すブロ ック図である。 図 2は、 ターボデコーダの構成例を示すプロ ック図である。 図 3は、 従来のマップアルゴ リ ズムの処理手順を模式的に示す 説明図である。
図 4は、 本発明の一実施の形態による受信装置の構成例を示す プロ ック図である。
図 5は、 本発明の一実施の形態によるマップアルゴリ ズムの処 理例を示すフローチヤ一トである。
図 6は、 本発明の一実施の形態によるスライ ド窓を用いたマツ プアルゴリ ズムの処理手順を示した説明図である。 発明を実施するための最良の形態
以下、 図 4〜図 6 を参照して本発明の一実施の形態について説 明する。
本例においては、 ターボ符号と して符号化されたデータを受信 する受信装置に適用したものである。 図 4は、 受信装置の全体構 成を示した図である。 アンテナ 1 で受信した信号は、 低雑音ァン プ 2 に供給され増幅される。 低雑音アンプ 2の出力信号は、 受信 R F部 3 に供給され周波数変換されて、 復調部 4に供給される。 復調部 4で復調された受信信号は、 ディンターリーブ · デパンク チヤ部 5 に供給され、 送信時に施されたイ ンターリーブ処理と逆 のディンターリーブ処理を行って、元のデータ配置とする と共に、 送信時に間引かれたデータ位置に 0 ビッ トを揷入して、 元のデー タ長に復元するデパンクチヤ処理が施される。
そして、 デパンクチヤ処理で元のデータ長と されたデータは、 ターボデコーダ 6 に供給されて復号され、 受信データを得る。 こ の場合、 本例のターボデコーダでは、 従来技術の欄で既に説明し たスライ ド窓を使用した復号処理を行う よ う にしてある。 ディンターリーブ · デパンクチヤ部 5, ターボデコーダ 6など での受信処理については、 中央制御ユニッ ト ( C P U ) 7 の制御 で実行される。
なお、 ここではパンクチヤ率については、 そのときのデータな どによって可変設定されるよ う にしてあり、 そのパンクチヤ率の データは、 伝送されるデータに制御データなどと して付加してあ る。このパンクチヤ率のデータなどの受信制御に必要なデータは、 復調部 4から中央制御ュニッ ト 7に供給するよ う にしてあり、 中 央制御ュニッ ト 7でそのデータからパンクチヤ率を判断するこ と ができる。
そして本例の場合には、 中央制御ュニッ ト 7で判断したパンク チヤ率に応じて、 ディンターリ ーブ · デパンクチヤ部 5で 0 ビッ トを挿入する位置や長さを可変設定させて、 どのパンクチヤ率の データを受信した場合にも対処できるよ う にしてある。 さ らに中 央制御ユニッ ト 7は、 判断したパンクチヤ率に応じて、 ターボデ コーダ 6 でスライ ド窓を使用した復号処理を行う際に、 学習区間 の長さを可変設定する制御を行う よ うにしてある。
このパンクチヤ率に応じて可変設定される学習区間の長さは、 例えば、 中央制御ュニッ ト 7でのパンクチヤ率の判断によ り、 そ のパンクチヤ率で間引かれたビッ ト数に相当する長さだけ変化さ せられ、 学習区間の中に含まれる実データ (即ちデパンクチヤ処 理で揷入された 0 ビッ トを除いたデータ) のビッ ト数が、 パンク チヤ率が変化しても一定となるよ う にしてある。
図 5は、 本例のマップアルゴリ ズムによるターボ符号の復号処 理例を示したフローチャー トである。 既に説明したよ う に、 ター ポ符号はブロ ック符号であり、 ターボデコーダでの復号は、 定め られたビッ ト数 Nからなるブロ ック単位 (コー ドブロ ック) で行 われる。 図 5のフローチャー トは、 この 1ブロ ックの処理を示し た図である。
まず、 1 ブロ ックの処理が開始される と、 中央制御ユニッ ト 7 は、 パンクチヤ率が前回の受信処理から変化しているか否か判断 する (ステップ S 1 1 )。 ここで、 パンクチヤ率が変化したと判断 した場合には、 学習区間の長さは、 そのと きのパンクチヤ率に応 じて再設定され、 中央制御ユニッ ト 7 に記憶される (ステップ S 1 2 )。
そして、 ステップ S 1 1 でパンクチヤ率の変化がない場合、 或 いはステップ S 1 2 でパンクチヤ率が変化して再設定が完了する と、 〔 1 ウィ ン ドウの窓の長さ〕 + 〔学習区間のデータ〕 をターボ デコーダ 6 に入力する (ステップ S 1 3 )。 そして、 その入力され たデータを使用 した逆方向の再帰的演算を行う (ステップ S 1 4 ) , そして、 その再帰的演算の終了後に、 1 ウィ ン ドウのデータ (即 ち学習区間の部分を除いたデータ) を、 ターボデコーダ 6 内のマ ップアルゴリ ズム部が備えるメモ リ に格納し (ステップ S 1 5 )、 メモリ に格納されたデータを読み出し (ステップ S 1 6 )、 その読 み出されたデータの順方向の演算及ぴ出力尤度計算を行う (ステ ップ S 1 7 )。 ここまでの処理が終了する と、 1 ブロ ックのデータ の終端まで処理したか否か判断し (ステップ S 1 8 )、 終端でない 場合には、 ステップ S 1 3 に戻る。
そ して、 終端である と判断した場合には、 こ こでの 1 ブロ ック の処理を終了する。
図 6 は、 本例のスライ ド窓を用いたマツプアルゴリ ズムの処理 手順の例を示した図である。復号 ト レリ スについては、図 6 の ( a ) に示すよ う に、 1 ブロ ックのデータの先頭から終端まで連続して いる。 こ こで、 最初の手順 1 での処理と しては、 図 6 の ( b ) に 示すよ う に、 予め決められた固定長である 1 ウィ ン ドウのデータ 長 Lに、 パンクチヤ率によ り 可変設定される長さである学習区間 の長さだけ加算した位置から、 逆方向に再帰的演算を行い、 その 演算結果と して、 図 6の ( c ) に示すよ う に、 1 ウィ ン ドウのデ ータをメモリ に格納させる。 次に、 手順 2 と して、 図 6 の ( d ) に示すよ うに、 そのメモリ に格納されたデータを読み出し、 図 6 の ( e ) に示すよ う に、 その読み出されたデータを使用して、 順 方向に演算を行う と共に、 出力尤度計算を行う。 ここまでが 1 ブ 口 ックの処理である。
次のブロ ックの処理と しては、 1 ウイ ン ドウに相当する長さだ け読み出し位置をスライ ドさせて、 図 6 の ( f ) に示すよ う に、 手順 3 と して、 1 ウィ ン ドウのデータ長 Lに、 可変設定される学 習区間の長さだけ加算した位置から、逆方向に再帰的演算を行い、 その演算結果と して、 図 6の ( g ) に示すよ う に、 1 ウィ ン ドウ のデータをメモリ に格納させる。次に、手順 4 と して、図 6 の( h ) に示すよ う に、 そのメモリ に格納されたデータを読み出し、 図 6 の ( i ) に示すよ う に、 その読み出されたデータを使用して、 順 方向に演算を行う と共に、 出力尤度計算を行う。
以下、 同様に 1 ウィ ン ドウ毎のスライ ドを行いながらのマップ アルゴリ ズムによる復号を実行して行く。 そして、 1 ブロ ックの 最後の 1 ウィ ン ドウを処理する場合には、 図 6 の ( n ) に示すよ う に、 最後の 1 ウィ ン ドウのデータを使用した (即ち学習区間の ない状態で)、 逆方向の再帰的演算を行い、 そのデータのメモリ格 納 (図 6 の ( o ))、 メモリ読み出し (図 6の ( P ))、 順方向の演 算 (図 6 の ( q ) ) を行って、 1 ブ口 ック内の全ての処理を終了さ せる。
このよ う にしてターボ符号の復号を行う こ とで、 常に最適な学 習区間の長さの設定を行いながらの、 スライ ド窓によるターボ復 号が行える効果を有する。 即ち、 送信側でデータを間引く 率であ るパンクチヤ率が可変した場合には、 本例の受信装置内のディ ン ターリ ーブ · デパンクチヤ部 5で 0 ビッ トを挿入する位置や長さ を可変設定させて、 デパンクチヤされた受信データについては、 元のデータ長が復元されるよ う にしてある。 そして、 パンクチヤ 率で間引かれたビッ ト数に相当する長さだけ、 学習区間の長さを 変化させるよ う にしたことで、 学習区間の中に含まれる有効なデ ータのビッ ト数が、 パンクチヤ率が変化しても一定となるよ う に してあるので、 常に一定量の有効なデータを使用した逆方向の再 帰的な演算処理が行われ、 一定の性能での復号が可能になる。
また、 学習区間の長さが常に適切に設定されることで、 従来の よ う に学習区間の長さを固定した場合には、 性能確保のために必 要以上に長く学習区間の長さを設定する必要があつたが、 そのよ う なこ とがなく なり 、 ターボデコーダでの演算処理量を最低限に 抑えることが可能になる。 また、 無駄な演算を行う必要がないの で、 復号の処理速度を高速化でき、 演算処理に要する消費電力の 低減も図れる。
なお、 ここまで説明した一連の処理は、 ハー ドウェアによ り実 現させるこ ともできるが、 ソフ ト ウエアによ り実現させるこ と も できる。 一連の処理をソフ ト ウェアによ り実現する場合には、 そ のソフ トウェアを構成するプログラムをコンピュータ装置などの データ処理装置にイ ンス トールして、 そのプログラムをコンビュ ータ装置などで実行することで、 上述した受信装置が機能的に実 現される。
また、 上述した実施の形態では、 学習区間の長さを可変設定す る場合に、 パンクチヤ処理で間引かれたビッ ト数の数と、 学習区 間の長さを変化させるビッ ト数とを、 ほぼ完全に一致させる と述 ベたが、 パンクチヤ処理で間引かれたデータ量と、 学習区間の長 さの可変設定量とを、 ある程度対応した状態で変化させるよ うに しても良い。 そのよ う な場合でも、 学習区間の長さにある程度の 余裕があれば、 それほど復号精度には影響しない

Claims

請 求 の 範 囲
1 . 所定のビッ ト数からなるブロ ック単位で、 畳み込み符号によ る符号化とインターリーブとが組み合わされて符号化されると共 に、 所定のパンクチヤ率によ り必要によ り間引かれて送信された ターボ符号を受信して復号するデータ受信方法において、
前記受信データ のパンク チヤ率を判断する処理と、
前記パンクチャ率で間引かれたビッ トを補間する補間処理と、 前記インターリ ーブされたデータを元の配列とするディンター リ ーブ処理と、
前記補間処理及び前記ディ ンターリーブ処理が施されたデータ に対して、 前記パンクチヤ率検出処理で判断したパンクチヤ率に 応じて学習区間の長さを可変設定させながら、 スライ ド窓のデー タ と、 そのスライ ド窓のデータに続く前記学習区間のデータとを 入力させて、 再帰的演算でスライ ド窓のデータを復号するターボ 復号処理とを行う
データ受信方法。
2 . 請求の範囲第 1項記載のデータ受信方法において、
前記パンクチヤ率に応じて可変設定される学習区間の長さは、 前記パンクチヤ率を判断する処理で判断されたパンクチヤ率で間 引かれたビッ ト数に相当する長さだけ変化させる
データ受信方法。
3 . 所定のビッ ト数からなるブロ ック単位で符号化されたターボ 符号を受信して復号するデータ受信装置において、
前記受信データのパンクチヤ率を判断するパンクチヤ率判断手 段と、
前記検出したパンク チヤ率で間引かれたビッ トを補間する補間 手段と、
前記インターリ ーブされたデータを元の配列とするディ ンター リーブ手段と、
前記補間手段及び前記ディンターリーブ手段で処理が施された データに対して、 前記パンクチヤ率判断手段で判断したパンクチ ャ率に応じて学習区間の長さを可変設定させながら、 スライ ド窓 のデータと、 そのスライ ド窓のデータに続く前記学習区間のデー タ とを入力させて、 再帰的演算でスライ ド窓のデータを復号する ターボ復号手段とを備えた
データ受信装置。
4 . 請求の範囲第 3項記載のデータ受信装置におい'て、
前記ターボ復号手段でパンクチヤ率に応じて可変設定される学 習区間の長さは、 前記パンクチヤ率判断手段でパンクチヤ率で間 引かれたビッ ト数に相当する長さだけ変化させる
データ受信装置。
PCT/JP2004/000533 2003-01-23 2004-01-22 データ受信方法及び装置 WO2004066506A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP04704345A EP1587218B1 (en) 2003-01-23 2004-01-22 Data receiving method and apparatus
DE602004019758T DE602004019758D1 (de) 2003-01-23 2004-01-22 Datenempfangsverfahren und vorrichtung
US10/508,470 US7096410B2 (en) 2003-01-23 2004-01-22 Turbo-code decoding using variably set learning interval and sliding window

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003-15286 2003-01-23
JP2003015286A JP3845822B2 (ja) 2003-01-23 2003-01-23 データ受信方法及び装置

Publications (1)

Publication Number Publication Date
WO2004066506A1 true WO2004066506A1 (ja) 2004-08-05

Family

ID=32767437

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/000533 WO2004066506A1 (ja) 2003-01-23 2004-01-22 データ受信方法及び装置

Country Status (7)

Country Link
US (1) US7096410B2 (ja)
EP (1) EP1587218B1 (ja)
JP (1) JP3845822B2 (ja)
KR (1) KR20050083565A (ja)
CN (1) CN100557985C (ja)
DE (1) DE602004019758D1 (ja)
WO (1) WO2004066506A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8261163B2 (en) * 2006-08-22 2012-09-04 Panasonic Corporation Soft output decoder, iterative decoder, and soft decision value calculating method
CN101212401B (zh) * 2006-12-29 2010-06-09 中兴通讯股份有限公司 面向网格的可配置数据传输方法及系统
JP2011114567A (ja) * 2009-11-26 2011-06-09 Tohoku Univ ターボ復号方法及び復号器
KR102412695B1 (ko) * 2015-07-28 2022-06-24 삼성전자주식회사 데이터 수신을 제어하기 위한 장치 및 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0846655A (ja) * 1994-07-29 1996-02-16 Toshiba Corp 重み付け伝送方式及びその装置
WO2001054286A1 (de) * 2000-01-18 2001-07-26 Infineon Technologies Ag Verfahren zur decodierung eines datensignals
JP2002319869A (ja) * 2001-04-20 2002-10-31 Yozan Inc 復号装置
JP2002540713A (ja) * 1999-03-31 2002-11-26 クゥアルコム・インコーポレイテッド 高並列map復号器

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5978365A (en) * 1998-07-07 1999-11-02 Orbital Sciences Corporation Communications system handoff operation combining turbo coding and soft handoff techniques
US6014411A (en) * 1998-10-29 2000-01-11 The Aerospace Corporation Repetitive turbo coding communication method
US6484285B1 (en) * 2000-02-07 2002-11-19 Ericsson, Inc. Tailbiting decoder and method
US6901117B1 (en) * 2000-02-10 2005-05-31 Motorola, Inc. Soft output decoder for convolutional codes
US6307901B1 (en) * 2000-04-24 2001-10-23 Motorola, Inc. Turbo decoder with decision feedback equalization
US6829313B1 (en) * 2000-07-17 2004-12-07 Motorola, Inc. Sliding window turbo decoder
US6952457B2 (en) * 2000-12-29 2005-10-04 Motorola, Inc. Method and system for adapting a training period in a turbo decoding device
FR2834146A1 (fr) * 2001-12-20 2003-06-27 St Microelectronics Sa Turbo-decodeur compact a haute efficacite
JP3735579B2 (ja) * 2002-02-26 2006-01-18 株式会社東芝 ディスク記憶装置及びデータ記録再生方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0846655A (ja) * 1994-07-29 1996-02-16 Toshiba Corp 重み付け伝送方式及びその装置
JP2002540713A (ja) * 1999-03-31 2002-11-26 クゥアルコム・インコーポレイテッド 高並列map復号器
WO2001054286A1 (de) * 2000-01-18 2001-07-26 Infineon Technologies Ag Verfahren zur decodierung eines datensignals
JP2002319869A (ja) * 2001-04-20 2002-10-31 Yozan Inc 復号装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1587218A4 *

Also Published As

Publication number Publication date
DE602004019758D1 (de) 2009-04-16
CN1698273A (zh) 2005-11-16
EP1587218A1 (en) 2005-10-19
KR20050083565A (ko) 2005-08-26
US20050172200A1 (en) 2005-08-04
JP3845822B2 (ja) 2006-11-15
EP1587218A4 (en) 2007-09-05
CN100557985C (zh) 2009-11-04
US7096410B2 (en) 2006-08-22
JP2004266324A (ja) 2004-09-24
EP1587218B1 (en) 2009-03-04

Similar Documents

Publication Publication Date Title
US8443265B2 (en) Method and apparatus for map decoding and turbo decoder using the same
US6885711B2 (en) Turbo decoder with multiple scale selections
US6829313B1 (en) Sliding window turbo decoder
JP3610329B2 (ja) 大最小距離を用いたターボ符号化方法及びそれを実現するシステム
US7657819B2 (en) Method and apparatus for termination of iterative turbo decoding
JP2009525009A (ja) 双方向スライディングウィンドウアーキテクチャを有するmap復号器
JP4227481B2 (ja) 復号装置および復号方法
JP3670520B2 (ja) ターボ復号器およびターボ復号装置
EP1471677A1 (en) Method of blindly detecting a transport format of an incident convolutional encoded signal, and corresponding convolutional code decoder
US8358713B2 (en) High throughput and low latency map decoder
US8793561B2 (en) Iterative decoding of signals received over a noisy channel using forward and backward recursions with warm-up initialization
KR19990081470A (ko) 터보복호기의 반복복호 종료 방법 및 그 복호기
JP2005109771A (ja) 最大事後確率復号方法及び装置
WO2004066506A1 (ja) データ受信方法及び装置
JP2004349901A (ja) ターボ復号器及びそれに用いるダイナミック復号方法
Kim et al. A new list decoding algorithm for short-length TBCCs with CRC
US7634703B2 (en) Linear approximation of the max* operation for log-map decoding
JP2008136006A (ja) 誤り訂正復号器及びそれに用いる誤り訂正復号方法並びにそのプログラム
US20070157063A1 (en) Method for iterative decoding in a digital system and apparatus implementing the method
CN113765622B (zh) 分支度量初始化方法、装置、设备及存储介质
KR100305293B1 (ko) 터보 복호기에서 최소 메모리를 이용하여 대수 근사화 확률비를구하는 방법
JP3514213B2 (ja) 直接連接畳込み符号器、及び、直接連接畳込み符号化方法
KR20060040789A (ko) 터보 부호의 복호화 장치 및 방법

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

WWE Wipo information: entry into national phase

Ref document number: 10508470

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 1020047015030

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 2004704345

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 20048001422

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWP Wipo information: published in national office

Ref document number: 1020047015030

Country of ref document: KR

WWP Wipo information: published in national office

Ref document number: 2004704345

Country of ref document: EP