WO2005055433A1 - 復号装置及び復号方法 - Google Patents

復号装置及び復号方法 Download PDF

Info

Publication number
WO2005055433A1
WO2005055433A1 PCT/JP2004/017284 JP2004017284W WO2005055433A1 WO 2005055433 A1 WO2005055433 A1 WO 2005055433A1 JP 2004017284 W JP2004017284 W JP 2004017284W WO 2005055433 A1 WO2005055433 A1 WO 2005055433A1
Authority
WO
WIPO (PCT)
Prior art keywords
probability
backward
decoding
window
backward probability
Prior art date
Application number
PCT/JP2004/017284
Other languages
English (en)
French (fr)
Inventor
Jifeng Li
Original Assignee
Matsushita Electric Industrial Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co., Ltd. filed Critical Matsushita Electric Industrial Co., Ltd.
Priority to EP20040819763 priority Critical patent/EP1677423A1/en
Priority to US10/581,032 priority patent/US20070113144A1/en
Publication of WO2005055433A1 publication Critical patent/WO2005055433A1/ja

Links

Classifications

    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/37Decoding methods or techniques, not specific to the particular type of coding provided for in groups H03M13/03 - H03M13/35
    • H03M13/39Sequence estimation, i.e. using statistical methods for the reconstruction of the original codes
    • H03M13/3905Maximum a posteriori probability [MAP] decoding or approximations thereof based on trellis or lattice decoding, e.g. forward-backward algorithm, log-MAP decoding, max-log-MAP decoding
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/29Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes combining two or more codes or code structures, e.g. product codes, generalised product codes, concatenated codes, inner and outer codes
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/37Decoding methods or techniques, not specific to the particular type of coding provided for in groups H03M13/03 - H03M13/35
    • H03M13/39Sequence estimation, i.e. using statistical methods for the reconstruction of the original codes
    • H03M13/3972Sequence estimation, i.e. using statistical methods for the reconstruction of the original codes using sliding window techniques or parallel windows
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/37Decoding methods or techniques, not specific to the particular type of coding provided for in groups H03M13/03 - H03M13/35
    • H03M13/39Sequence estimation, i.e. using statistical methods for the reconstruction of the original codes
    • H03M13/41Sequence estimation, i.e. using statistical methods for the reconstruction of the original codes using the Viterbi algorithm or Viterbi processors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L1/00Arrangements for detecting or preventing errors in the information received

Definitions

  • the present invention relates to a decoding device and a decoding method, and is suitably applied to, for example, a decoding device and a decoding method that perform turbo decoding.
  • VSF-OF and DM Very spreading Factor-Orthogonal frequency and ode Division Multiplexing
  • VSF-OF CDM Very spreading Factor-Orthogonal frequency and ode Division Multiplexing
  • the turbo codec system is characterized in that convolutional coding and interleaving are used in combination for transmission data and decoding is performed repeatedly during decoding. It is known that by performing iterative decoding processing, excellent error correction capability is exhibited not only for random errors but also for burst errors.
  • turbo decoding likelihood information L (d) is calculated, and the calculated likelihood information L (d) is compared with a threshold "0".
  • the likelihood information L (d) is a forward probability ⁇ and a backward k k k probability j8
  • can be represented by the following equations.
  • k represents the input to the decoder at time point k
  • ⁇ ( ⁇ ⁇ ⁇ ) represents the transition probability of the discrete Gaussian memoryless channel.
  • q corresponds to 0 or 1
  • is the state transition probability of the trellis.
  • turbo decoding information bits d are decoded by performing such an operation.
  • the turbo decoding processing procedure includes calculation of the forward probability ⁇ (hereinafter, referred to as “ ⁇ operation”), calculation of the backward probability ⁇ 8 (hereinafter, “ ⁇ operation” t, ⁇ ), and likelihood information L ( d) Calculation
  • the sliding window which can be roughly divided into k, is a method for efficiently performing the A operation and the B operation.
  • the sliding window method is This method divides the entire series of data into predetermined window units and sets a training section in each window to calculate the backward probability that the last force of the series must also be calculated from the mid-stream force. According to this sliding window method, it is sufficient to accumulate backward probabilities in units of windows and windows. The memory capacity is greatly reduced compared to the case where all backward probabilities at time point k-1 are accumulated. Can be.
  • FIG. 1 is a schematic diagram conceptually showing a conventional repetition process of the B operation.
  • the window size is set to 32, and the explanation is made using three windows for convenience of explanation.
  • the window at time 0-31 is B # 0
  • the window at time 32-63 is B # l
  • the window at time 64-95 is B # 2.
  • the training interval is extrapolated to the last point of each window, and is generally at least 415 times the constraint length.
  • the initial value of each training section is initialized to "0" for each iterative decoding, and the operation is performed using the reliability information for each window obtained in the previous decoding processing. Do.
  • Non-Patent Document 1 Claude Berrou, Near Optimum Error Correcting Coding Ana Decoding: Turbo-Codes, "IEEE Trans. On Communications, Vol.44, NolO, Oct. 1996.
  • the conventional sliding window method has a problem in that the training period is long, so that the amount of computation and the memory capacity of the turbo decoder are large.
  • the length of the training section is fixed, if the coding ratio is high, there is a possibility that the deterioration of the characteristics will increase, and in order to maintain the characteristics, the training section must be lengthened. There is a problem.
  • An object of the present invention is to provide a decoding device and a decoding method that reduce the amount of calculation and the memory capacity and that prevent deterioration of characteristics even when the coding rate is high.
  • the decoding device of the present invention divides a data sequence into a plurality of windows, and uses the backward probability calculated at a predetermined point in time in the previous iterative decoding as an initial value in the current iterative decoding for each window.
  • Backward probability calculating means for calculating the backward probability calculated by the backward probability calculating means, storing means for storing the backward probability at a predetermined time, and likelihood information using the backward probability calculated by the backward probability calculating means.
  • a likelihood calculating means for calculating the likelihood.
  • the backward probability at a predetermined point in time calculated in the previous iterative decoding is used as the initial value in the current iterative decoding to calculate the backward probability. Therefore, the amount of calculation and the memory capacity can be reduced, and the characteristics can be prevented from deteriorating even if the coding ratio is high.
  • FIG. 1 is a schematic diagram conceptually showing a conventional repetition process of a B operation.
  • FIG. 2 is a block diagram showing a configuration of a turbo decoder according to Embodiment 1 of the present invention.
  • FIG. 3 is a block diagram showing the internal configuration of the element decoder
  • FIG. 4 is a schematic diagram conceptually showing a repetition process of a B operation according to the first embodiment of the present invention.
  • FIG. 5 is a diagram showing decoding characteristics of the turbo decoder according to Embodiment 1 of the present invention.
  • FIG. 6 is a schematic diagram conceptually showing a repetition process of a B operation according to the second embodiment of the present invention.
  • FIG. 2 is a block diagram showing a configuration of the turbo decoder according to Embodiment 1 of the present invention.
  • an element decoder 101 decodes a systematic bit sequence Y1 and a parity bit sequence Y2 together with a priori value Lai, which is reliability information transmitted from the dingleaver 105, and outputs an external value Lei to the interleaver 102.
  • the extrinsic value indicates the increase in the reliability of the symbol by the element decoder.
  • the interleaver 102 rearranges the external value Lei output from the element decoder 101 and outputs the rearranged value to the element decoder 104 as a prior value La2. By the way, in the first repetition, Since decoding is not performed in the encoder 104, "0" is substituted for the prior value.
  • Element decoder 104 receives a sequence obtained by rearranging systematic bit sequence Y1 in interleaver 103, a knowledge bit sequence Y3, and a priori value La2, performs a decoding process, and performs an external value Le2 in Output to
  • Dinter liver 105 performs an operation of returning the rearrangement by the interleaver to external value Le2, and outputs the result to element decoder 101 as prior value Lai. Thereby, iterative decoding is performed. After several dozen iterations, the element decoder 104 calculates a posterior value L2 defined as a log posterior probability ratio, and outputs the calculation result to the ding liver 106. Din taller 106 tallies the calculation result output from element decoder 104, and outputs the sequence after the delta leaving to hard decision section 107.
  • a posterior value L2 defined as a log posterior probability ratio
  • Hard decision section 107 outputs a decoded bit sequence by performing a hard decision on the sequence after the dent leave.
  • Error detection section 108 performs error detection on the decoded bit sequence and outputs a detection result
  • FIG. 3 is a block diagram showing an internal configuration of the element decoder 101. It is assumed that the element decoder 104 also has the same internal configuration as the element decoder 101. Also, the following decoding operation is performed in window units of a predetermined size.
  • the systematic bit Yl, the knowledge bit ⁇ 2, and the prior value Lai obtained from the previous decoding result are input to the transition probability calculation unit 201, and the transition probability ⁇ is calculated.
  • the calculated transition probability ⁇ is output to forward probability calculating section 202 and backward probability calculating section 203.
  • the forward probability calculating unit 202 performs the operation of the above equation (3) on the data sequence divided for each window using the transition probability ⁇ output from the transition probability calculating unit 201, and calculates the forward probability a (m) is calculated.
  • the calculated a (m) is output to likelihood calculating section 205.
  • the backward probability calculation unit 203 uses the transition probability ⁇ output from the transition probability calculation unit 201 and the value stored in the memory 204, which will be described later, to calculate the above-described equation for the data sequence divided for each window. Perform the operation of (4) ( ⁇ operation) to calculate the backward probability
  • the backward probability ⁇ (m) is output to likelihood calculating section 205.
  • the backward probability used as the value is output to the memory 204.
  • the memory 204 stores the backward probability at a predetermined point in time output from the backward probability calculation unit 203.
  • the backward probability calculation unit 203 temporarily stores the backward probability, it outputs the stored backward probability at a predetermined point in time of the previous decoding to the backward probability calculation unit 203.
  • the predetermined time point corresponds to a time point at which calculation of each window is started in the next iterative decoding.
  • Likelihood calculation section 205 calculates forward probability a (m) output from forward probability calculation section 202 and
  • FIG. 4 is a schematic diagram conceptually showing the repetition processing of the B operation according to the first embodiment of the present invention.
  • the window size is set to 32, and three windows are used for convenience of explanation.
  • the window at time 0-31 is B # 0
  • the window at time 32-63 is B # l
  • the window at time 64-95 is B # 2.
  • the size of the training section is set to 4 and extrapolated at the end of each window.
  • the calculation is started from the training section for each window, and the calculation is advanced in the direction in which the higher force at the time goes back. Then, the backward probability at the time point 36 of the window B # l is stored in the memory 204, and the backward probability at the time point 68 of the window B # 2 is stored in the memory 204.
  • the backward probability at the time point 36 stored in the memory 204 with the number of repetitions 1 is used as the initial value of the training section of the window B # 0, and the backward probability at the time point 68 is the training section of the window B # 1.
  • the initial value of. As described above, by using the backward probability obtained in the previous decoding as the current initial value, it is considered that the previous decoding process corresponds to the current training interval, and decoding accuracy can be improved.
  • window size of window B # 0 is increased by one, and the time point is set to 0-3, window B # 1 and B # 2 are advanced by one time point, and window B # 1 is Time point 33-64, window B # 2 is time point 65-96.
  • the time of the training section also changes.
  • the backward probability at a predetermined point in time of the number of repetitions (i 1) is used as the initial value of the training interval of each window, and window B # 0 is set at the time i Increase the number of minutes behind, shift the windows B # l, B # 2, ... backward to the point Fen, and perform the B operation.
  • FIG. 5 is a diagram showing decoding characteristics of the turbo decoder according to Embodiment 1 of the present invention.
  • the vertical axis is the bit error rate (BER)
  • the horizontal axis is EbZNO.
  • the solid line shows the decoding characteristics of the turbo decoder according to the present embodiment
  • the dotted line shows the decoding characteristics of the conventional turbo decoder.
  • the simulation specifications are as follows.
  • AWGN Additional White Gaussian Noise
  • the solid line indicates that the turbo decoder of the present embodiment has excellent decoding characteristics.
  • good decoding characteristics can be obtained even though the encoding ratio is set as high as 5Z6, so that deterioration of the characteristics can be prevented even at a high encoding ratio.
  • the same decoding characteristics as the solid line can be obtained. This can also prevent the characteristics from deteriorating.
  • the backward probability at a predetermined point in time of each window in the previous decoding is set as the initial value of the current training section, and the position of the window is shifted backward each time decoding is repeated.
  • the accuracy of the initial value is improved with each repetition, so that the training interval can be shortened, and the amount of calculation and memory capacity can be reduced. Further, even if the coding ratio is high, it is possible to prevent the deterioration of the characteristics.
  • Embodiment 2 of the present invention describes a case where no training section is provided.
  • the configuration of the turbo decoder according to the present embodiment is the same as that of FIG. 2, and the configuration of the elementary decoder is the same as that of FIG. 3, so that FIG. 2 and FIG. FIG. 6 is a schematic diagram conceptually showing the repetition processing of the B operation according to Embodiment 2 of the present invention.
  • the window size is set to 32, and three windows are used for convenience of explanation. In this figure, at the number of repetitions 1, the window at time 0-31 is B # 0, the window at time 32-63 is B # l, and the window at time 64-95 is B # 2.
  • the operation is performed for each window in the backward direction at a higher point in time, the backward probability at time 32 of window B # 1 is stored in the memory 204, and the window B # 2 The backward probability at time point 64 is stored in the memory 204.
  • the backward probability at the time 32 stored in the memory 204 with the number of repeats 1 is set as the initial value of the training interval of the window B # 0
  • the backward probability at the time 64 is the training interval of the window B # l.
  • the window size of window B # 0 is increased by one, and the time is set to 0-32, windows B #l and B # 2 are advanced by one time, window B # l is set to time 33-64, and window B # 2 is 65-96 at the time.
  • B operation is performed by using the backward probability at the predetermined time point in 1), increasing the window B # 0 backward by the time point i, and shifting the windows B # 1, B # 2,... Backward by the time point i.
  • the backward probability of each window at a predetermined time point in the previous decoding is set as the initial value of the current operation, and the position of the window is shifted backward each time decoding is repeated.
  • the accuracy of the initial value is improved with each repetition, so that the characteristics can be prevented from deteriorating without providing a training section, and the calculation amount and the memory capacity can be reduced.
  • the forward probability may be used as the initial value to calculate the forward probability, whereby the training interval used for calculating the forward probability can be shortened, and the calculation amount and the memory capacity can be reduced.
  • the amount by which the window is shifted is shifted by the time i when the number of repetitions is i.
  • the present invention is not limited to this.
  • the shift amount may be used.
  • j is a positive number except 0.
  • the data sequence is divided into a plurality of windows, and the backward probability at a predetermined time point calculated in the previous iterative decoding is used as an initial value in the current iterative decoding, and the backward probability is determined for each window.
  • Backward probability calculating means for calculating the probability
  • storage means for storing the backward probability at a predetermined time calculated by the backward probability calculating means, and likelihood using the backward probability calculated by the backward probability calculating means.
  • a likelihood calculating means for calculating information.
  • a second aspect of the present invention is the decoding apparatus according to the above aspect, wherein the backward probability calculation means shifts the position of the window backward according to the number of decoding iterations to calculate the backward probability. is there.
  • the backward probability at a predetermined time point calculated in the previous iterative decoding is used as the initial value in the current iterative decoding to calculate the backward probability for each window. Since the accuracy of the initial value is improved, the training interval can be shortened, thereby reducing the amount of calculation and the memory capacity. In addition, even if the code ratio is high, deterioration of characteristics can be prevented.
  • the storage means stores the starting point in the next iterative decoding in response to the backward probability calculating means shifting the position of the window backward.
  • This is a decoding device that stores backward probabilities.
  • the storage means stores the backward probability at the start time in the next iterative decoding, that is, the initial value. Therefore, even when the window shifts and the calculation start position changes at each iteration, a highly accurate initial value is used, and the training interval can be shortened, so that the amount of calculation and memory capacity can be reduced. Can be.
  • the data sequence is divided into a plurality of windows, and the forward probability at a predetermined point in time calculated in the previous iterative decoding is used as an initial value in the current iterative decoding, and the forward probability is determined for each window.
  • the forward probability calculating means for calculating the probability and the forward probability calculating means calculate And a likelihood calculating means for calculating likelihood information using the forward probability calculated by the forward probability calculating means. is there.
  • the forward probability at a predetermined time point calculated in the previous iterative decoding is used as an initial value in the current iterative decoding to calculate the forward probability for each window, so that the number of repetitions increases. Since the accuracy of the initial value is improved, the training section can be shortened, and thereby the amount of calculation and the memory capacity can be reduced. Further, even if the coding ratio is high, it is possible to prevent the deterioration of the characteristics.
  • the data sequence is divided into a plurality of windows, and the backward probability at a predetermined time point calculated in the previous iterative decoding is used as an initial value in the current iterative decoding, and the backward probability is determined for each window.
  • This is a decoding method for calculating a probability.
  • the backward probability at a predetermined time point calculated in the previous iterative decoding is used as the initial value in the current iterative decoding to calculate the backward probability for each window. Since the accuracy of the initial value is improved, the training section can be shortened, and thereby the amount of calculation and the memory capacity can be reduced. Further, even if the coding ratio is high, it is possible to prevent the deterioration of the characteristics.
  • the decoding device calculates the backward probability using the backward probability at a predetermined time calculated in the previous iterative decoding as an initial value in the current iterative decoding, thereby reducing the amount of computation and the memory capacity.
  • the coding ratio is high, it has an effect of preventing deterioration of characteristics, and can be applied to a turbo decoder and the like.

Landscapes

  • Physics & Mathematics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Error Detection And Correction (AREA)
  • Detection And Prevention Of Errors In Transmission (AREA)

Abstract

 演算量及びメモリ容量を削減すると共に、符号化率が高くても特性の劣化を防ぐことができる復号装置を開示する。この復号装置では、移行確率算出部(201)はシステマチックビットY1、パリティビットY2、及び、事前値La1から移行確率を算出し、前方確率算出部(202)はデータ系列を複数のウィンドウに分割し、前方確率をウィンドウ毎に算出する。メモリ(204)には、前回の繰り返し復号で算出した所定時点の後方確率が記憶されており、後方確率算出部(203)は、データ系列を複数のウィンドウに分割し、メモリ(204)に記憶された後方確率を今回の繰り返し復号で初期値として用いてウィンドウ毎に後方確率を算出する。算出された前方確率及び後方確率を用いて尤度算出部(205)において尤度情報が算出される。  

Description

復号装置及び復号方法
技術分野
[0001] 本発明は、復号装置及び復号方法に関し、例えば、ターボ復号を行う復号装置及 び復号方法に適用して好適なものである。
背景技術
[0002] 近年、第四世代移動体通信に採用される方式の最も有力な候補として、 VSF-OF し DM (Variable spreading Factor-Orthogonal frequency andし ode Division Multiplexing:可変拡散率直交周波数'符号分割多重)が注目されて 、る。 VSF— OF CDMが採用された場合には、およそ 50— 100MHzの帯域幅を用いて、 100Mbps 以上の最大伝送速度を実現することが可能となる。このような超高速な通信方式には 、誤り訂正方式としてターボ符復号を採用することが有効である。
[0003] ターボ符復号方式は、送信データに対して、畳み込み符号化とインタリーブを併用 し、復号時に繰り返し復号することを特徴としている。繰り返し復号処理をすることによ り、ランダム誤りはもちろんのこと、バースト誤りに対しても優れた誤り訂正能力を示す ことが知られている。
[0004] ここで、ターボ復号のアルゴリズムについて式を用いて簡単に説明する。ターボ復 号では、尤度情報 L (d )が算出され、算出された尤度情報 L (d )が閾値" 0"と比較さ k k
れる。比較の結果、尤度情報 L (d )が" 0"以上であれば、時点 kで送信されたシステ k
マチックビット d = 1と硬判定され、尤度情報 L (d )が" 0"未満であれば、時点 kで送 k k
信されたシステマチックビット d = 0と硬判定される。
k
[0005] そこで、尤度情報 L (d )につ 、て説明する。尤度情報 L (d )は前方確率 α と後方 k k k 確率 j8
kの積で定義される確率え kを用いると以下の式で表すことができる。
[0006] [数 1] ) = · · · ( 1 )
Figure imgf000003_0001
[0007] [数 2] Xk =ak{m)-fik{m) · · · (2) ただし、 mは状態遷移トレリス上における状態を示す。前方確率 α及び後方確率
k
β はそれぞれ以下の式で表すことができる。
[0008] [数 3]
Figure imgf000004_0001
[0009] [数 4]
Figure imgf000004_0002
なお、 m'も状態遷移トレリス上における状態を示し、移行確率 γ;は以下の式で表さ れる。
[0010] [数 5]
Yi
Figure imgf000004_0003
■q{dk = i/Sk =m,Sk_] =n/)- {Sk = mlSk_l = ') . · . (5)
ここで、 R
kは時点 kにおける復号器への入力を表し、 ρ(·Ζ·)は離散ガウス型メモリ レス通信路の遷移確率を表している。また、 qは 0又は 1に相当し、 πはトレリスの状態 遷移確率である。
[0011] ターボ復号では、このような演算を行うことにより情報ビット dの復号を行っているが
k
、膨大なメモリ容量を必要とする。そこで考えられたのが、スライディングウィンドウ法と 呼ばれる方法である。
[0012] このスライディングウィンドウ法を用いることにより、メモリ容量を大幅に削減すること ができる。ターボ復号の処理手順は、上述したように前方確率 αの算出(以下、「Α演 算」という)、後方確率 ι8の算出 (以下、「Β演算」 t 、う)、及び尤度情報 L (d )の算出
k に大きく分けられるが、スライディングウィンドウは、 A演算及び B演算を効率的に行う 方法である。
[0013] 以下、スライディングウィンドウにつ 、て説明する。スライディングウィンドウ法は、デ 一タの全系列を所定のウィンドウ単位に分割し、各ウィンドウにトレーニング区間を設 けることにより、系列の最後方力も計算しなければならない後方確率を、系列の途中 力ら計算する方法である。このスライディングウィンド、ゥ法〖こよれば、ウィンド、ゥ単位で 後方確率を蓄積すれば良ぐ時点 k一 1のすベての後方確率を蓄積する場合に比べ てメモリ容量を大幅に削減することができる。
[0014] ここでは、さらに具体的に B演算を行う場合のスライディングウィンドウ法について図 を用いて説明する。図 1は、従来の B演算の繰り返し処理を概念的に示す模式図で ある。ここでは、ウィンドウサイズを 32とし、説明の便宜上 3つのウィンドウを用いて説 明する。この図において、時点 0— 31のウィンドウを B # 0とし、時点 32— 63のウィン ドウを B # lとし、時点 64— 95のウィンドウを B # 2とする。また、 B演算は時点を遡る 方向に演算を進めていくため、トレーニング区間は各ウィンドウの最後の時点に外挿 され、一般に、拘束長の 4一 5倍以上の長さである。
[0015] 従来の B演算の繰り返し処理は、各トレーニング区間の初期値を繰り返し復号毎に "0"に初期化し、前回の復号処理で得られたウィンドウ毎の信頼度情報を用いて演 算を行う。
非特干文献 1: Claude Berrou, Near Optimum Error Correcting Coding Ana Decoding: Turbo-Codes," IEEE Trans. On Communications, Vol.44, NolO, Oct. 1996.
発明の開示
発明が解決しょうとする課題
[0016] しかしながら、従来のスライディングウィンドウ法では、トレーニング区間が長いため 、ターボ復号器の演算量及びメモリ容量が大きいという問題がある。また、トレーニン グ区間の長さを固定しているので、符号ィ匕率が高くなると特性の劣化が大きくなる可 能性があり、特性を維持するためには、トレーニング区間を長くしなければならないと いう問題がある。
[0017] 本発明の目的は、演算量及びメモリ容量を削減すると共に、符号化率が高くても特 性の劣化を防ぐ復号装置及び復号方法を提供することである。
課題を解決するための手段 [0018] 本発明の復号装置は、データ系列を複数のウィンドウに分割し、前回の繰り返し復 号で算出した所定時点の後方確率を今回の繰り返し復号で初期値として用いてウイ ンドウ毎に後方確率を算出する後方確率算出手段と、前記後方確率算出手段が算 出した所定時点の後方確率を記憶する記憶手段と、前記後方確率算出手段によつ て算出された後方確率を用いて尤度情報を算出する尤度算出手段と、を具備する構 成を採る。
発明の効果
[0019] 本発明によれば、前回の繰り返し復号で算出した所定時点の後方確率を今回の繰 り返し復号で初期値として用いて後方確率を算出することにより、トレーニング区間を 短くしても特性を向上させることができるので、演算量及びメモリ容量を削減すること ができ、また、符号ィ匕率が高くても特性の劣化を防ぐことができる。
図面の簡単な説明
[0020] [図 1]従来の B演算の繰り返し処理を概念的に示す模式図
[図 2]本発明の実施の形態 1に係るターボ復号器の構成を示すブロック図
[図 3]要素復号器の内部構成を示すブロック図
[図 4]本発明の実施の形態 1における B演算の繰り返し処理を概念的に示す模式図
[図 5]本発明の実施の形態 1に係るターボ復号器の復号特性を示す図
[図 6]本発明の実施の形態 2における B演算の繰り返し処理を概念的に示す模式図 発明を実施するための最良の形態
[0021] 以下、本発明の実施の形態について、図面を参照して詳細に説明する。
[0022] (実施の形態 1)
図 2は、本発明の実施の形態 1に係るターボ復号器の構成を示すブロック図である 。この図において、要素復号器 101は、組織ビット系列 Y1及びパリティビット系列 Y2 を、ディンタリーバ 105から伝えられた信頼度情報である事前値 Laiと共に復号処理 し、外部値 Leiをインタリーバ 102に出力する。外部値とは、要素復号器によるシンポ ルの信頼度の増分を表す。
[0023] インタリーバ 102は、要素復号器 101から出力された外部値 Leiを並べ替え、事前 値 La2として要素復号器 104に出力する。ちなみに、 1回目の繰り返しでは、要素復 号器 104での復号が行なわれていないので、事前値には" 0"が代入される。
[0024] 要素復号器 104は、組織ビット系列 Y1がインタリーバ 103で並べ替えられた系列と 、 ノ リティビット系列 Y3と、事前値 La2とが入力され、復号処理を行い、外部値 Le2を ディンタリーバ 105に出力する。
[0025] ディンタリーバ 105は、外部値 Le2に対してインタリーバによる並べ替えを戻す操作 を行い、事前値 Laiとして要素復号器 101に出力する。これにより、繰り返し復号が 行われる。数回力 十数回の繰り返し後、要素復号器 104は、対数事後確率比とし て定義される事後値 L2を計算し、計算結果をディンタリーバ 106に出力する。ディン タリーバ 106は要素復号器 104から出力された計算結果をディンタリーブし、ディン タリーブ後の系列を硬判定部 107に出力する。
[0026] 硬判定部 107は、ディンタリーブ後の系列を硬判定することで、復号ビット系列を出 力する。誤り検出部 108が復号ビット系列の誤り検出を行って、検出結果を出力する
[0027] 図 3は、要素復号器 101の内部構成を示すブロック図である。なお、要素復号器 10 4も要素復号器 101と同様の内部構成を有しているものとする。また、以下の復号動 作は、所定サイズのウィンドウ単位で行われるものとする。
[0028] まず、システマチックビット Yl、 ノ リティビット Υ2、及び、前回の復号結果から得られ る事前値 Laiが移行確率算出部 201へ入力され、移行確率 γが算出される。算出さ れた移行確率 γは、前方確率算出部 202及び後方確率算出部 203へ出力される。
[0029] 前方確率算出部 202は、移行確率算出部 201から出力された移行確率 γを用い て、ウィンドウ毎に分割したデータ系列について上述した式(3)の演算を行って、前 方確率 a (m)を算出する。算出された a (m)は尤度算出部 205に出力される。
k k
[0030] 後方確率算出部 203は、移行確率算出部 201から出力された移行確率 γと、後述 するメモリ 204に記憶された値とを用いて、ウィンドウ毎に分割したデータ系列につい て上述した式 (4)の演算 (Β演算)を行って、後方確率 |8 (m)算出する。算出された
k
後方確率 β (m)は尤度算出部 205に出力される。また、次回の繰り返し復号に初期
k
値として用いる後方確率をメモリ 204に出力する。
[0031] メモリ 204は、後方確率算出部 203から出力された所定時点における後方確率を 一時記憶し、後方確率算出部 203が繰り返し復号を行う際に、記憶している前回の 復号時の所定時点における後方確率を後方確率算出部 203に出力する。なお、所 定時点とは、次回の繰り返し復号で各ウィンドウの演算開始時点に相当する。
[0032] 尤度算出部 205は、前方確率算出部 202から出力された前方確率 a (m)及び後
k
方確率算出部 203から出力された後方確率 |8 (m)を用いて、上述した式(1)の演
k
算を行って、尤度情報を算出する。
[0033] 次に、ターボ復号器の B演算を行う場合のスライディングウィンドウ法について説明 する。図 4は、本発明の実施の形態 1における B演算の繰り返し処理を概念的に示す 模式図である。ここでは、ウィンドウサイズを 32とし、説明の便宜上 3つのウィンドウを 用いて説明する。この図において、繰り返し数 1では、時点 0— 31のウィンドウを B # 0 とし、時点 32— 63のウィンドウを B # lとし、時点 64— 95のウィンドウを B # 2とする。 また、トレーニング区間はそのサイズを 4とし、各ウィンドウの最後の時点に外挿されて いる。
[0034] 繰り返し数 1の B演算では、各ウィンドウについてトレーニング区間から演算を開始 し、時点の高い方力も遡る方に演算を進める。そして、ウィンドウ B # lの時点 36にお ける後方確率をメモリ 204に記憶し、また、ウィンドウ B # 2の時点 68における後方確 率をメモリ 204に記憶する。
[0035] 繰り返し数 2では、繰り返し数 1でメモリ 204に記憶した時点 36における後方確率を ウィンドウ B # 0のトレーニング区間の初期値とし、また、時点 68における後方確率を ウィンドウ B # 1のトレーニング区間の初期値とする。このように、前回の復号で得られ た後方確率を今回の初期値として用いることにより、前回の復号処理が今回のトレー ニング区間に相当するものと考えられ、復号精度を向上させることができる。
[0036] また、繰り返し数 2では、ウィンドウ B # 0のウィンドウサイズを 1つ大きくし、時点 0— 3 2とし、ウィンドウ B # 1及び B # 2は時点を 1つ繰り上げ、ウィンドウ B # 1は時点 33— 64とし、ウィンドウ B # 2は時点 65— 96とする。これに伴いトレーニング区間の時点も 変わる。
[0037] 繰り返し数を iとして一般的に表すと、各ウィンドウのトレーニング区間の初期値に繰 り返し数 (i 1)の所定時点における後方確率を用いると共に、ウィンドウ B # 0を時点 i 分後方に増やし、ウィンドウ B # l, B # 2,…を時点汾後方にシフトして、 B演算を行
[0038] 次に、上述したスライディングウィンドウ法を用いた場合の復号特性について説明 する。図 5は、本発明の実施の形態 1に係るターボ復号器の復号特性を示す図であ る。この図において、縦軸をビットエラーレート(BER)で、横軸を EbZNOで表す。ま た、実線は本実施の形態に係るターボ復号器の復号特性を示し、点線は従来のター ボ復号器の復号特性を示す。ただし、シミュレーション諸元は以下の通りである。
[0039] 変調方式 (データ) : QPSK
符号化率 :5Z6
拡散率 :16
チャネルモデル : AWGN (Additive White Gaussian Noise)
トレーニング区間 :32
この図からも明らかなように、実線が示す本実施の形態のターボ復号器の復号特 性が優れていることが分かる。ここでは、符号ィ匕率を 5Z6と高く設定しているにもかか わらず良好な復号特性が得られることから、高 、符号ィ匕率でも特性の劣化を防ぐこと ができる。
[0040] また、ここではトレーニング区間を 32として比較している力 上述したようにトレー- ング区間を 4とした場合でも、実線と同様の復号特性が得られるため、トレーニング区 間を短くしても特性の劣化を防ぐことができる。
[0041] このように本実施の形態によれば、前回の復号で各ウィンドウの所定時点における 後方確率を今回のトレーニング区間の初期値とすると共に、復号を繰り返す毎にウイ ンドウの位置を後方にシフトすることにより、繰り返しの度に初期値の精度が向上する のでトレーニング区間を短くすることができ、演算量及びメモリ容量を削減することが できる。また、符号ィ匕率が高くても特性の劣化を防ぐことができる。
[0042] (実施の形態 2)
本発明の実施の形態 2では、トレーニング区間を設けない場合について説明する。 なお、本実施の形態に係るターボ復号器の構成は図 2と同じであり、要素復号器の 構成は図 3と同じなので、図 2及び図 3を援用し、その詳しい説明は省略する。 [0043] 図 6は、本発明の実施の形態 2における B演算の繰り返し処理を概念的に示す模 式図である。ここでは、ウィンドウサイズを 32とし、説明の便宜上 3つのウィンドウを用 いて説明する。この図において、繰り返し数 1では、時点 0— 31のウィンドウを B # 0と し、時点 32— 63のウィンドウを B # lとし、時点 64— 95のウィンドウを B # 2とする。
[0044] 繰り返し数 1の B演算では、各ウィンドウについて時点の高い方力 遡る方に演算を 行い、ウィンドウ B # 1の時点 32における後方確率をメモリ 204に記憶し、また、ウィン ドウ B # 2の時点 64における後方確率をメモリ 204に記憶する。
[0045] 繰り返し数 2では、繰り返し数 1でメモリ 204に記憶した時点 32における後方確率を ウィンドウ B # 0のトレーニング区間の初期値とし、また、時点 64における後方確率を ウィンドウ B # lのトレーニング区間の初期値とする。さらに、ウィンドウ B # 0のウィンド ゥサイズを 1つ大きくし、時点 0— 32とし、ウィンドウ B # l及び B # 2は時点を 1つ繰り 上げ、ウィンドウ B # lは時点 33— 64とし、ウィンドウ B # 2は時点 65— 96とする。
[0046] 繰り返し数を iとして一般的に表すと、各ウィンドウの演算開始初期値に繰り返し数 (i
1)の所定時点における後方確率を用いると共に、ウィンドウ B # 0を時点 i分後方に 増やし、ウィンドウ B # l, B # 2,…を時点 i分後方にシフトして、 B演算を行う。
[0047] 上述したスライディングウィンドウ法を用いた場合の復号特性は、実施の形態 1で示 した図 5の実線とほぼ同様の特性を示し、トレーニング区間を設けなくても特性の劣 化を防ぐことができる。
[0048] このように本実施の形態によれば、前回の復号で各ウィンドウの所定時点における 後方確率を今回の演算の初期値とすると共に、復号を繰り返す毎にウィンドウの位置 を後方にシフトすることにより、繰り返しの度に初期値の精度が向上するのでトレー- ング区間を設けなくても特性の劣化を防ぐことができ、演算量及びメモリ容量を削減 することができる。
[0049] なお、上述した各実施の形態では、後方確率を算出する場合について説明したが 、本発明はこれに限らず、前回の繰り返し復号で算出した所定時点の前方確率を今 回の繰り返し復号で初期値として用 、て前方確率を算出するようにしてもよぐこれに より、前方確率算出に用いるトレーニング区間を短くすることができ、演算量及びメモ リ容量を削減することができる。 [0050] また、上述した各実施の形態では、ウィンドウをシフトする量は、繰り返し数を iとした ときに時点 i分シフトすると説明した力 本発明はこれに限らず、(i 1) Xjをシフト量と してもよい。ただし、 jは 0を除く正数とする。
[0051] 本発明の第 1の態様は、データ系列を複数のウィンドウに分割し、前回の繰り返し 復号で算出した所定時点の後方確率を今回の繰り返し復号で初期値として用いてゥ インドウ毎に後方確率を算出する後方確率算出手段と、前記後方確率算出手段が算 出した所定時点の後方確率を記憶する記憶手段と、前記後方確率算出手段によつ て算出された後方確率を用いて尤度情報を算出する尤度算出手段と、を具備する復 号装置である。
[0052] 本発明の第 2の態様は、上記態様において、前記後方確率算出手段が、復号の繰 り返し回数に応じてウィンドウの位置を後方にシフトして後方確率を算出する復号装 置である。
[0053] これらの構成によれば、前回の繰り返し復号で算出した所定時点の後方確率を今 回の繰り返し復号で初期値として用いてウィンドウ毎に後方確率を算出することにより 、繰り返し回数が増えるにつれて初期値の精度が向上するので、トレーニング区間を 短くすることができ、これにより、演算量及びメモリ容量を削減することができる。また、 符号ィ匕率が高くても特性の劣化を防ぐことができる。
[0054] 本発明の第 3の態様は、上記態様において、前記記憶手段が、前記後方確率算出 手段がウィンドウの位置を後方にシフトすることに応じて、次回の繰り返し復号におけ る開始時点の後方確率を記憶する復号装置である。
[0055] この構成によれば、後方確率算出手段がウィンドウの位置を後方にシフトすることに 応じて、次回の繰り返し復号における開始時点の後方確率、すなわち、初期値を記 憶手段が記憶することにより、ウィンドウがシフトして演算開始位置が繰り返しのたび に異なる場合でも、精度の高い初期値を用いることになり、トレーニング区間を短くす ることができるので、演算量及びメモリ容量を削減することができる。
[0056] 本発明の第 4の態様は、データ系列を複数のウィンドウに分割し、前回の繰り返し 復号で算出した所定時点の前方確率を今回の繰り返し復号で初期値として用いてゥ インドウ毎に前方確率を算出する前方確率算出手段と、前記前方確率算出手段が算 出した所定時点の前方確率を記憶する記憶手段と、前記前方確率算出手段によつ て算出された前方確率を用いて尤度情報を算出する尤度算出手段と、を具備する復 号装置である。
[0057] この構成によれば、前回の繰り返し復号で算出した所定時点の前方確率を今回の 繰り返し復号で初期値として用いてウィンドウ毎に前方確率を算出することにより、繰 り返し回数が増えるにつれて初期値の精度が向上するので、トレーニング区間を短く することができ、これにより、演算量及びメモリ容量を削減することができる。また、符 号ィ匕率が高くても特性の劣化を防ぐことができる。
[0058] 本発明の第 5の態様は、データ系列を複数のウィンドウに分割し、前回の繰り返し 復号で算出した所定時点の後方確率を今回の繰り返し復号で初期値として用いてゥ インドウ毎に後方確率を算出する復号方法である。
[0059] この方法によれば、前回の繰り返し復号で算出した所定時点の後方確率を今回の 繰り返し復号で初期値として用いてウィンドウ毎に後方確率を算出することにより、繰 り返し回数が増えるにつれて初期値の精度が向上するので、トレーニング区間を短く することができ、これにより、演算量及びメモリ容量を削減することができる。また、符 号ィ匕率が高くても特性の劣化を防ぐことができる。
[0060] 本明細書は、 2003年 12月 1日出願の特願 2003— 402218に基づくものである。こ の内容は全てここに含めておく。
産業上の利用可能性
[0061] 本願発明にかかる復号装置は、前回の繰り返し復号で算出した所定時点の後方確 率を今回の繰り返し復号で初期値として用いて後方確率を算出することにより、演算 量及びメモリ容量を削減し、また、符号ィ匕率が高くても特性の劣化を防ぐという効果を 有し、ターボ復号器等に適用できる。

Claims

請求の範囲
[1] データ系列を複数のウィンドウに分割し、前回の繰り返し復号で算出した所定時点 の後方確率を今回の繰り返し復号で初期値として用いてウィンドウ毎に後方確率を 算出する後方確率算出手段と、
前記後方確率算出手段が算出した所定時点の後方確率を記憶する記憶手段と、 前記後方確率算出手段によって算出された後方確率を用いて尤度情報を算出す る尤度算出手段と、
を具備する復号装置。
[2] 前記後方確率算出手段は、復号の繰り返し回数に応じてウィンドウの位置を後方に シフトして後方確率を算出する請求項 1に記載の復号装置。
[3] 前記記憶手段は、前記後方確率算出手段がウィンドウの位置を後方にシフトするこ とに応じて、次回の繰り返し復号における開始時点の後方確率を記憶する請求項 2 に記載の復号装置。
[4] データ系列を複数のウィンドウに分割し、前回の繰り返し復号で算出した所定時点 の前方確率を今回の繰り返し復号で初期値として用いてウィンドウ毎に前方確率を 算出する前方確率算出手段と、
前記前方確率算出手段が算出した所定時点の前方確率を記憶する記憶手段と、 前記前方確率算出手段によって算出された前方確率を用いて尤度情報を算出す る尤度算出手段と、
を具備する復号装置。
[5] データ系列を複数のウィンドウに分割し、前回の繰り返し復号で算出した所定時点 の後方確率を今回の繰り返し復号で初期値として用いてウィンドウ毎に後方確率を 算出する復号方法。
PCT/JP2004/017284 2003-12-01 2004-11-19 復号装置及び復号方法 WO2005055433A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP20040819763 EP1677423A1 (en) 2003-12-01 2004-11-19 Decoder apparatus and decoding method
US10/581,032 US20070113144A1 (en) 2003-12-01 2004-11-19 Decoding apparatus and decoding method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003-402218 2003-12-01
JP2003402218A JP2005167513A (ja) 2003-12-01 2003-12-01 復号装置及び復号方法

Publications (1)

Publication Number Publication Date
WO2005055433A1 true WO2005055433A1 (ja) 2005-06-16

Family

ID=34650007

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/017284 WO2005055433A1 (ja) 2003-12-01 2004-11-19 復号装置及び復号方法

Country Status (6)

Country Link
US (1) US20070113144A1 (ja)
EP (1) EP1677423A1 (ja)
JP (1) JP2005167513A (ja)
KR (1) KR20060096089A (ja)
CN (1) CN1883120A (ja)
WO (1) WO2005055433A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4227481B2 (ja) * 2003-07-11 2009-02-18 パナソニック株式会社 復号装置および復号方法
CN102484484B (zh) * 2009-08-25 2014-08-20 富士通株式会社 发送机、编码装置、接收机以及解码装置
GB0915135D0 (en) * 2009-08-28 2009-10-07 Icera Inc Decoding signals received over a noisy channel
US20130142057A1 (en) * 2011-12-01 2013-06-06 Broadcom Corporation Control Channel Acquisition
US9197365B2 (en) * 2012-09-25 2015-11-24 Nvidia Corporation Decoding a coded data block
CN108400788A (zh) * 2018-01-24 2018-08-14 同济大学 Turbo译码的硬件实现方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001267938A (ja) * 2000-01-31 2001-09-28 Texas Instr Inc <Ti> パラレル化されたスライディングウィンドウ処理によるmapデコーディング
JP2002314437A (ja) * 2001-04-17 2002-10-25 Nec Corp ターボ復号方式及びその方法
JP2002367291A (ja) * 2001-06-11 2002-12-20 Fujitsu Ltd 情報記録再生装置及び方法並びに信号復号回路

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6563877B1 (en) * 1998-04-01 2003-05-13 L-3 Communications Corporation Simplified block sliding window implementation of a map decoder
EP1156588B1 (en) * 1999-03-01 2007-05-09 Fujitsu Limited Method and apparatus for maximum a posteriori probability decoding
JP3846527B2 (ja) * 1999-07-21 2006-11-15 三菱電機株式会社 ターボ符号の誤り訂正復号器、ターボ符号の誤り訂正復号方法、ターボ符号の復号装置およびターボ符号の復号システム
SG97926A1 (en) * 2000-08-29 2003-08-20 Oki Techno Ct Singapore Pte Soft-in soft-out decoder used for an iterative error correction decoder
KR100390416B1 (ko) * 2000-10-16 2003-07-07 엘지전자 주식회사 터보 디코딩 방법
JP4185314B2 (ja) * 2002-06-07 2008-11-26 富士通株式会社 情報記録再生装置、光ディスク装置及び、データ再生方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001267938A (ja) * 2000-01-31 2001-09-28 Texas Instr Inc <Ti> パラレル化されたスライディングウィンドウ処理によるmapデコーディング
JP2002314437A (ja) * 2001-04-17 2002-10-25 Nec Corp ターボ復号方式及びその方法
JP2002367291A (ja) * 2001-06-11 2002-12-20 Fujitsu Ltd 情報記録再生装置及び方法並びに信号復号回路

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
BERROU ET AL.: "Near optimun error correcting coding and decoding: turbo codes.", IEEE TRANSACTIONS ON COMUNICATIONS., vol. 44, no. 10, October 1996 (1996-10-01), pages 1261 - 1271, XP000919139 *
OHBUCHI K. ET AL.: "Turbo fugo ni okeru sub-log-map no kairo kibo sakugen hoshiki.", THE INSTITUTE OF ELECTRONICS, INFORMATION AND COMMUNICATION ENGINEERS HGIYUTSU KENKYU HOKOKU., vol. 99, no. 140, 25 June 1999 (1999-06-25), pages 1 - 6, XP002990220 *

Also Published As

Publication number Publication date
EP1677423A1 (en) 2006-07-05
US20070113144A1 (en) 2007-05-17
JP2005167513A (ja) 2005-06-23
KR20060096089A (ko) 2006-09-05
CN1883120A (zh) 2006-12-20

Similar Documents

Publication Publication Date Title
EP1383246B1 (en) Modified Max-LOG-MAP Decoder for Turbo Decoding
US8443265B2 (en) Method and apparatus for map decoding and turbo decoder using the same
US8457219B2 (en) Self-protection against non-stationary disturbances
JP4227481B2 (ja) 復号装置および復号方法
US20020091973A1 (en) Pre-decoder for a turbo decoder, for recovering punctured parity symbols, and a method for recovering a turbo code
JP2004531116A (ja) ターボデコーダ用インタリーバ
US8358713B2 (en) High throughput and low latency map decoder
CN108134612B (zh) 纠正同步与替代错误的级联码的迭代译码方法
WO2005055433A1 (ja) 復号装置及び復号方法
US7634703B2 (en) Linear approximation of the max* operation for log-map decoding
JP2004349901A (ja) ターボ復号器及びそれに用いるダイナミック復号方法
KR100738250B1 (ko) Llr의 부호 비교를 이용한 터보 복호기의 반복복호제어장치 및 방법
WO2012123514A1 (en) State metrics based stopping criterion for turbo-decoding
US7055102B2 (en) Turbo decoder using parallel processing
JP2006507736A (ja) Fec復号化における消失判定手順
KR100776910B1 (ko) 비이진부호에서의 scr/sdr을 이용한 반복 복호 장치및 그 동작 방법
JP4991481B2 (ja) 反復復号装置及び反復復号方法
KR20100027631A (ko) 무선통신 시스템에서 데이터 복호 방법
KR20080035404A (ko) 블록 부호를 사용하는 통신 시스템에서 신호 송수신 장치및 방법
Pukkila Source and Channel Encoder and Decoder Modeling
KR20110096222A (ko) 터보 코드 복호기 및 이를 위한 방법

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200480034409.X

Country of ref document: CN

AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2004819763

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2007113144

Country of ref document: US

Ref document number: 10581032

Country of ref document: US

Ref document number: 1020067010607

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 3151/DELNP/2006

Country of ref document: IN

NENP Non-entry into the national phase

Ref country code: DE

WWW Wipo information: withdrawn in national office

Ref document number: DE

WWP Wipo information: published in national office

Ref document number: 2004819763

Country of ref document: EP

WWW Wipo information: withdrawn in national office

Ref document number: 2004819763

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 1020067010607

Country of ref document: KR

WWP Wipo information: published in national office

Ref document number: 10581032

Country of ref document: US