WO2005006564A1 - 復号装置および復号方法 - Google Patents

復号装置および復号方法 Download PDF

Info

Publication number
WO2005006564A1
WO2005006564A1 PCT/JP2004/009846 JP2004009846W WO2005006564A1 WO 2005006564 A1 WO2005006564 A1 WO 2005006564A1 JP 2004009846 W JP2004009846 W JP 2004009846W WO 2005006564 A1 WO2005006564 A1 WO 2005006564A1
Authority
WO
WIPO (PCT)
Prior art keywords
probability
backward
processing systems
decoding
calculated
Prior art date
Application number
PCT/JP2004/009846
Other languages
English (en)
French (fr)
Inventor
Jifeng Li
Original Assignee
Matsushita Electric Industrial Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co., Ltd. filed Critical Matsushita Electric Industrial Co., Ltd.
Priority to DE602004012417T priority Critical patent/DE602004012417T2/de
Priority to EP04747314A priority patent/EP1655846B1/en
Priority to US10/563,559 priority patent/US7539256B2/en
Publication of WO2005006564A1 publication Critical patent/WO2005006564A1/ja

Links

Classifications

    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/37Decoding methods or techniques, not specific to the particular type of coding provided for in groups H03M13/03 - H03M13/35
    • H03M13/39Sequence estimation, i.e. using statistical methods for the reconstruction of the original codes
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/37Decoding methods or techniques, not specific to the particular type of coding provided for in groups H03M13/03 - H03M13/35
    • H03M13/39Sequence estimation, i.e. using statistical methods for the reconstruction of the original codes
    • H03M13/395Sequence estimation, i.e. using statistical methods for the reconstruction of the original codes using a collapsed trellis, e.g. M-step algorithm, radix-n architectures with n>2
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/29Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes combining two or more codes or code structures, e.g. product codes, generalised product codes, concatenated codes, inner and outer codes
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/29Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes combining two or more codes or code structures, e.g. product codes, generalised product codes, concatenated codes, inner and outer codes
    • H03M13/2957Turbo codes and decoding
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/37Decoding methods or techniques, not specific to the particular type of coding provided for in groups H03M13/03 - H03M13/35
    • H03M13/3723Decoding methods or techniques, not specific to the particular type of coding provided for in groups H03M13/03 - H03M13/35 using means or methods for the initialisation of the decoder
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/37Decoding methods or techniques, not specific to the particular type of coding provided for in groups H03M13/03 - H03M13/35
    • H03M13/39Sequence estimation, i.e. using statistical methods for the reconstruction of the original codes
    • H03M13/3905Maximum a posteriori probability [MAP] decoding or approximations thereof based on trellis or lattice decoding, e.g. forward-backward algorithm, log-MAP decoding, max-log-MAP decoding
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/37Decoding methods or techniques, not specific to the particular type of coding provided for in groups H03M13/03 - H03M13/35
    • H03M13/39Sequence estimation, i.e. using statistical methods for the reconstruction of the original codes
    • H03M13/3972Sequence estimation, i.e. using statistical methods for the reconstruction of the original codes using sliding window techniques or parallel windows

Definitions

  • the present invention relates to a decoding device and a decoding method, and more particularly, to a decoding device and a decoding method for performing turbo decoding using a Max-Log-MAP algorithm.
  • VSF-OF Variable Spreading actor— Orthogonal Frequency and Mode Division Division Multiplexing.
  • DM Variable Spreading actor— Orthogonal Frequency and Mode Division Division Multiplexing
  • the turbo codec system is characterized in that convolutional coding and interleaving are used in combination for transmission data and decoding is performed repeatedly during decoding. It is known that by performing iterative decoding processing, excellent error correction capability is exhibited not only for random errors but also for burst errors.
  • the processing procedure of turbo decoding is roughly divided into forward probability calculation, backward probability calculation, and likelihood information calculation.
  • Equation (1) loga indicates the forward probability in the logarithmic domain
  • k indicates the time point
  • m and m ' indicate the states on the state transition trellis. That is, the left side of Equation (1) indicates the forward probability in state m at time point k by natural logarithm.
  • 1 og y is the transition probability in the logarithmic domain
  • m ′ (m ′ ⁇ m) is all states that can transition to state m
  • b is a combination of transmission signals, that is, systematic Bits and parity bits The possible combinations are shown.
  • the forward probability ⁇ is equal to the forward probability ⁇ at the previous time point (k-1).
  • the calculation method is almost the same as the forward probability, but the major difference is that the backward probability is calculated at the later k points (k + 1). That is, the forward probability is
  • the backward probability is calculated in the reverse direction on the time axis, while the calculation in the forward direction on the intermediate axis.
  • Equation 4 log ⁇ e A + e B ) ⁇ max (A, B) + log (l + e ⁇ A ) ⁇ ⁇ , Equation (4) Using Equation (4), Equations (1) and (4) By transforming equation (2), the following equations (5) and (6) are obtained, respectively.
  • the likelihood information L (u) calculated using equation (7) is compared with a threshold 0, and the likelihood information L (u) If is greater than or equal to 0, the hour
  • the backward probability is first calculated for the time point k-1 and stored in the memory.
  • a forward probability is calculated for each time point, and likelihood information is sequentially calculated from the forward probability and the backward probability calculated earlier.
  • the calculated forward probabilities are immediately used for calculating the likelihood information. Therefore, the forward probabilities are not accumulated, and the amount of memory can be reduced by the accumulated forward probabilities.
  • Non-Patent Document 1 As a method of reducing the amount of memory for accumulating backward probabilities, for example, the entire sequence disclosed in Non-Patent Document 1 is divided into predetermined window units, and a training section is provided in each window, so that the sequence end is reduced. This method calculates backward probabilities that must be calculated from the middle of the series. According to the sliding window method, the amount of memory can be greatly reduced as compared with the case where all backward probabilities at time point k ⁇ 11 are accumulated if backward probabilities are accumulated in window units.
  • the calculation of the probability value and the likelihood information is performed in parallel.
  • the speed of the operation can be increased. That is, as shown in FIG. 1A, for example, when data having a total sequence length of nW is divided into n windows, the processing can be speeded up by processing the windows in parallel.
  • FIG. 1B by performing calculations in parallel by two processing systems # 1 and # 2, the calculation time can be halved.
  • the probability value required to calculate the likelihood information L (u) is calculated in each window.
  • FIGS. 2A to 2C show the case where the window size of the sliding window method is 64.
  • FIG. 2A shows the timing of calculating the backward probability
  • FIG. 2B shows the timing of calculating the forward probability ⁇ kk
  • FIG. 2C shows the timing of calculating the likelihood information L (u).
  • Each training section is provided.
  • the beginning of the training interval (here, ⁇ and i3) is always assumed to be 0, and the calculation of the above equation (6) is performed within the training interval.
  • the processing system # 1 can calculate the likelihood information L (u).
  • Processing system # 2 calculates the likelihood information L (u)
  • likelihood information L (u) and L (u) are calculated from processing system # 1 from Tokii ijTl, and likelihood information L is calculated from processing system # 2 from Tokii IJT2. (u) -L (u)
  • An object of the present invention is to provide a decoding device and a decoding method capable of calculating likelihood information at high speed while suppressing increases in the processing amount and the circuit scale.
  • the decoding device of the present invention provides a plurality of processing systems for a window of a predetermined size in parallel.
  • a decoding device for performing a decoding operation the forward probability calculating means for sequentially calculating a forward probability at the present time from a forward probability at a time preceding by the plurality of processing systems in the window, and a forward probability calculating means in the window.
  • Backward probability calculating means for sequentially calculating the current backward probability from the backward probability at the time later by the plurality of processing systems, and likelihood calculating means for calculating likelihood information using the forward probability and the backward probability, Is adopted.
  • the decoding method of the present invention is a decoding method for performing a decoding operation on a window of a predetermined size in a plurality of processing systems in parallel, and in the window, the number of processing systems behind the window by the number of the plurality of processing systems. Sequentially calculating the current backward probabilities from the probabilities; sequentially calculating the current forward probabilities from the forward probabilities at the time preceding the plurality of processing systems in the window; and calculating the forward probabilities each time the forward probabilities are calculated. Calculating the likelihood information using the forward probability and the backward probability.
  • FIG. 1 Diagram for explaining processing using a window
  • FIG. 2 is a diagram showing an example of a timing of a decoding operation by a sliding window method.
  • FIG. 3 is a block diagram showing an overall configuration of a decoding device according to one embodiment of the present invention.
  • FIG. 4 is a block diagram showing an internal configuration of a decoder according to one embodiment.
  • FIG. 5 is a diagram showing an example of a timing of a decoding operation according to the embodiment.
  • FIG. 6 is a diagram showing another example of the timing of the decoding operation according to the embodiment.
  • FIG. 3 is a block diagram showing an overall configuration of a decoding device according to one embodiment of the present invention.
  • the decoding device shown in FIG. 1 includes an interleaver 100, a decoder 110, an interleaver 120, a decoder 130, a dinterleaver 140, a dinterleaver 150, a hard decision section 160, and an error detection section 170.
  • the decoding device shown in FIG. 3 uses information obtained by turbo coding.
  • the systematic bit X which is the information bit itself, is obtained by convolutionally encoding the information bit.
  • Parity bit X and information bits are interleaved and convolutionally coded.
  • Interleaver 100 interleaves systematic bits y. Interleaver 100
  • the decoder 110 is a soft-input soft-output decoder, performs decoding using the prior information likelihood L obtained from the previous decoding result, the systematic bits y, and the parity bits y, and performs decoding.
  • the result is output to interleaver 120.
  • the decoding by the decoder 110 will be described later in detail.
  • Interleaver 120 interleaves the decoding result of decoder 110. Interleaving by interleaver 120 is performed in the same manner as interleaving on the encoding side.
  • Decoder 130 is a soft-input / soft-output decoder, and performs decoding using prior information likelihood output from interleaver 120, systematic bits y and parity bits yac output from interleaver 100. Then, the decryption result is output to Dinter Lever 140 and Dinter Lever 150.
  • Dinter liver 140 and dent liver 150 deinterleave the decoding result of decoder 130.
  • the interleave by the interleaver 140 or the interleaver 120 is performed by the interleave by the interleaver 140 or the interleaver 120.
  • the hard decision unit 160 makes a hard decision on the likelihood information output from the dinter river 150,
  • hard decision section 160 compares the likelihood information output from dinter liver 150 with a threshold value of 0, and outputs 1 as a hard decision value if the likelihood information is 0 or more, If the degree information is less than 0, 0 is output as the hard decision value.
  • Error detection section 170 performs error detection using an error detection code such as CRC (Cyclic Redundancy Check) added to the hard decision result, and outputs decoded data.
  • CRC Cyclic Redundancy Check
  • FIG. 4 is a block diagram showing the internal configuration of decoder 110.
  • the decoder 110 includes a transition probability calculation unit 111, a backward probability calculation unit 112, a forward probability calculation unit 113, a storage unit 114, and a likelihood calculation unit 115. It is assumed that decoder 130 also has the same internal configuration as decoder 110. The following decoding operation is performed in units of windows of a predetermined size.
  • the e a and the parity bit y are input to the transition probability calculation unit 111, and the transition probability is calculated. Less than
  • transition probability of transition from the state on the state transition trellis to state m at time k is denoted as ⁇ (m ', m).
  • the calculated transition probability ⁇ (m ', m) is calculated using the backward probability calculation unit 112 and the forward probability calculation.
  • the backward probability and the forward probability are calculated respectively.
  • the backward probability in state m at time k is denoted as / 3 (m)
  • the forward probability in state m at time k is
  • Equations (5) and (6) can be transformed into the following equations (8) and (9), respectively.
  • Equation (10) calculates the forward probability ⁇ at the time point k as the forward probability force at the time point (k-1 2).
  • Equation (11) shows that the backward probability j3 at the time point k is calculated as the backward probability j3 force at the time point (k + 2) k k + 2
  • the backward probability calculation unit 112 and the forward probability calculation unit 113 calculate the backward probability and the forward probability in parallel in two processing systems using equations (10) and (11), respectively. That is, for example, in the calculation of the backward probability in the backward probability calculation unit 112, while one processing system calculates the backward probability ⁇ force the backward probability ⁇ , the other processing system concurrently calculates the backward probability k + 2 k
  • the calculated backward probabilities are stored in the storage unit 114 in window units. Similarly to the backward probability, the forward probability a and the forward probability ⁇ are calculated in parallel in the forward probability calculation unit 113 by two processing systems. When the forward probability is calculated, the likelihood calculation unit 11 k k + 1
  • the forward probability and the backward probability stored in the storage unit 114 are used, and likelihood information is calculated by the above equation (7).
  • the two processing systems in the forward probability calculation unit 113 calculate the forward probability and the forward probability ⁇ in parallel, so that the likelihood k k + 1
  • the likelihood information can be calculated at times.
  • FIG. 5A shows the backward probabilities by two processing systems # 1 and # 2 in backward probability calculation section 112. Is shown. As shown in the figure, the processing system # 1 calculates successively the backward probability ⁇ -1 ⁇ with the time point k being an even number, using — ⁇ as the k 190 128 training interval.
  • processing system # 2 has ⁇
  • FIG. 5B shows the calculation timing of forward probability a by forward processing unit 113 using two processing systems # 1 and # 2. As shown in the figure, processing system # 1 starts at time T1 and ends at k
  • System # 2 sequentially calculates the forward probabilities for which the time point k is odd from time T1.
  • FIG. 5C shows the timing of calculation of likelihood information L (u) k by two processing systems # 1 and # 2 in likelihood calculating section 115.
  • processing system # 1 calculates likelihood information L (u) at time T1.
  • processing system # 2 has a forward probability at time T1.
  • the processing system # 2 does not wait for the calculation of the likelihood information L (u).
  • the calculation for calculating the current probability value from the probability value at the time before or after the number of processing systems is performed in parallel in each processing system. Therefore, it is possible to calculate likelihood information at high speed while suppressing an increase in a processing amount and a circuit scale in which there is no processing delay in calculation of likelihood information using a probability value.
  • the size of the training section is set to 32 and the window size is set to 64.
  • the present invention is not limited to these sizes.
  • the size of the training area should be about 20 or more.
  • the number of processing systems may be any number as long as it is two or more.
  • the forward and backward probabilities are changed by the number of processing systems before and after the number of processing systems in the same way as in Equations (10) and (11).
  • An expression represented by the forward probability and the backward probability at the time may be used. That is, if the number of processing systems is m (m is an integer of 2 or more), the forward probability ⁇ and the backward probability
  • the probability value may be calculated using an expression represented by the probability ⁇ and the backward probability.
  • the decoding device of the present invention is a decoding device that performs a decoding operation on a window of a predetermined size in parallel with a plurality of processing systems, and in the window, the number of processing systems ahead of the time point by the number of processing systems.
  • Forward probability calculating means for sequentially calculating the current forward probability from the probability
  • backward probability calculating means for sequentially calculating the current backward probability from the backward probability at a time later by the number of processing systems in the window
  • a likelihood calculating means for calculating likelihood information using the probability and the backward probability.
  • a plurality of processing systems can execute the probability value in parallel in each window.
  • the calculation can be performed, and every time the probability value is calculated, the likelihood calculation is performed in the subsequent stage, and the likelihood information can be calculated at high speed while suppressing an increase in the processing amount and the circuit scale.
  • the decoding device of the present invention employs a configuration in which the backward probability calculating means calculates backward probability at the current time using data at a time after the window as training data.
  • the backward probability at the current time is calculated using the data at the time point after the window to be processed as training data, so that the backward probability calculation process can be performed for an arbitrary window.
  • the decoding device of the present invention employs a configuration in which the backward probability calculation means uses training data common to the plurality of processing systems.
  • a base station apparatus of the present invention employs a configuration including any of the decoding devices described above. [0073] According to this configuration, the same operation and effect as those of any of the above-described decoding devices can be realized by the base station device.
  • a mobile station device of the present invention employs a configuration including any of the decoding devices described above.
  • the decoding method of the present invention is a decoding method for performing a decoding operation on a window of a predetermined size in a plurality of processing systems in parallel, and in the window, behind the time point after the number of the plurality of processing systems. Sequentially calculating the current backward probabilities from the probabilities; sequentially calculating the current forward probabilities from the forward probabilities at the time prior to the plurality of processing systems in the window; and Calculating the likelihood information using the forward probability and the backward probability.
  • a plurality of processing systems can perform the probability value calculation in parallel in each window.
  • the calculation can be performed, and every time the probability value is calculated, the likelihood calculation is performed in the subsequent stage, and the likelihood information can be calculated at high speed while suppressing an increase in the processing amount and the circuit scale.

Landscapes

  • Physics & Mathematics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Error Detection And Correction (AREA)
  • Detection And Correction Of Errors (AREA)

Abstract

 処理量および回路規模の増大を抑制しつつ、高速に尤度情報を算出することができる復号装置。この装置は、後方確率演算部(112)における後方確率の演算においては、一方の処理系統が後方確率βk+2から後方確率βkを算出する間に、他方の処理系統が並行して後方確率βk+1から後方確率βk-1を算出する。具体的にk=1の場合を考えると、2つの処理系統によって、後方確率β1および後方確率β0が並行して算出されることになる。算出された後方確率は、ウィンドウ単位で記憶部(114)へ記憶される。また、後方確率と同様に、前方確率演算部(113)においても、2つの処理系統によって、前方確率αkと前方確率αk+1が並行して算出される。前方確率が算出されると、尤度演算部(115)によって、前方確率および記憶部(114)に記憶されている後方確率が用いられ、尤度情報が算出される。

Description

明 細 書
復号装置および復号方法
技術分野
[0001] 本発明は、復号装置および復号方法に関し、特に、 Max— Log— MAPアルゴリズム を用いたターボ復号を行う復号装置および復号方法に関する。
背景技術
[0002] 近年、第四世代移動体通信に採用される方式の最も有力な候補として、 VSF-OF し DM (Variable Spreading actor— Orthogonal Frequency andし ode Division Multiplexing :可変拡散率直交周波数 ·符号分割多重)が注目されている。 VSF-OF CDMが採用された場合には、およそ 50—l OOMHzの帯域幅を用いて、 100Mbps 以上の最大伝送速度を実現することが可能となる。このような超高速な通信方式には 、誤り訂正方式としてターボ符復号の適用が有効である。
[0003] ターボ符復号方式は、送信データに対して、畳み込み符号化とインタリーブを併用 し、復号時に繰り返し復号することを特徴としている。繰り返し復号処理をすることによ り、ランダム誤りはもちろんのこと、バースト誤りに対しても優れた誤り訂正能力を示す ことが知られている。
[0004] 以下、ターボ復号の手順について簡単に説明する。
[0005] ターボ復号の処理手順は、大きく前方確率算出、後方確率算出、および尤度情報 算出に分けられる。
[0006] 前方確率ひの算出は、下記の式(1 )により状態ごとに行われる。
[0007] [数 1]
log " /w) = log y eloga"(m')+log^(*) · · ·式 (1 )
m'ョ (ffl'→ )
上式(1 )におレ、て、 log aは対数領域での前方確率、 kは時点、 mおよび m' は状 態遷移トレリス上における状態をそれぞれ示している。すなわち、式(1 )の左辺は、時 点 kの状態 mにおける前方確率を自然対数で示している。また、上式(1 )において、 1 og yは対数領域での移行確率、 m' ョ(m' →m)は状態 mへ遷移可能なすべての 状態 、 bは送信信号の組み合わせ、すなわちシステマチックビットとパリティビット の取り得る組み合わせを示してレ、る。
[0008] 式(1)から明ら力なように、前方確率 α は、前時点(k一 1)における前方確率 α か
k k - 1 ら算出される。
[0009] 次に、後方確率 の算出は、下記の式(2)により状態ごとに行われる。
[0010] [数 2]
log A (w) = log J °gん" +1°g^(fc) · · ·式 (2)
'3
計算法は前方確率とほぼ同様であるが、大きく異なる点は、後方確率 は、後時 k 点(k+ 1)における後方確率 β 力 算出される点である。つまり、前方確率は、時
k+1
間軸上の順方向に計算していくのに対して、後方確率は、時間軸上の逆方向に計算 していくことになる。
[0011] 次に、尤度情報 L(u )の算出は、下記の式(3)によって行われる。
k
[0012] [数 3]
e loS (m1 )+log A Cm)+log yk (b)
) = log " °elog¾_l(m.)+logA(m)+log (i) . . .式 (3) 式(3)において、分子は送信信号中のシステマチックビット u =0となるすべての状 k
態遷移の組み合わせにおける演算を表し、分母は u =1となるすべての状態遷移の k
組み合わせにおける演算を表す。
[0013] 上式(1)一(3)の計算は、非常に煩雑であるため、ターボ復号の 1つのアルゴリズム である Max— Log—ΜΑΡアルゴリズムにおいては、式(4)に示す近似式が用いられる
[0014] [数 4] log\eA +eB)^ max(A, B) + log (l + e^A ) · · ,式 (4) 式 (4)を用いて式(1)および式(2)を変形すると、それぞれ以下の式(5)および式( 6)のようになる。
[0015] [数 5]
ak (m) · · '式 (5)
k{rn) . · · ·式 (6)
Figure imgf000004_0001
さらに、これらの式(5) , (6)を用いて式(3)を変形すると、以下の式(7)のようにな る c
[0016] [数 6] 式 ( 7 )
Figure imgf000005_0001
Max—Log— MAPアルゴリズムを用いたターボ復号にぉレ、ては、式(7)を用いて算 出された尤度情報 L (u )が閾値 0と比較され、尤度情報 L (u )が 0以上であれば、時
k k
点 kで送信されたシステマチックビット u = 1と硬判定され、尤度情報 L (u )が 0未満
k k
であれば、時点 kで送信されたシステマチックビット u = 0と硬判定される。
k
[0017] ここで、式(7)に示したように、時点 kにおける尤度情報算出のためには、時点(k一 1 )における前方確率 a 、ならびに時点 kにおける後方確率 β および移行確率 γ
k-1 k k が必要となる。このとき、時点 1一 kにおける各時点での前方確率および後方確率を それぞれ算出し、その後、尤度情報を算出する場合は、全状態の全時点での確率値 を記憶する必要があるため、メモリ量は膨大なものとなる。
[0018] このメモリ量を削減するためには、例えば以下のような算出手順を取ることが考えら れる。すなわち、まず後方確率を時点 k一 1について算出し、メモリへ蓄積する。次に 時点ごとに前方確率を算出し、この前方確率および先に算出した後方確率より、尤 度情報を逐次的に算出する。この方法によれば、算出された前方確率が即座に尤度 情報の算出に用いられるため、前方確率の蓄積は行われず、前方確率の蓄積の分 だけメモリ量を削減することができる。
[0019] また、後方確率を蓄積するためのメモリ量の削減方法として、例えば非特許文献 1 の全系列を所定のウィンドウ単位に分割し、各ウィンドウにトレーニング区間を設ける ことにより、系列の最後方から計算しなければならない後方確率を、系列の中途から 計算する方法である。このスライディングウィンドウ法によれば、ウィンドウ単位で後方 確率を蓄積すれば良ぐ時点 k一 1のすベての後方確率を蓄積する場合に比べてメ モリ量を大幅に削減することができる。
[0020] さらに、スライディングウィンドウ法において、確率値および尤度情報の演算をパラ レルに行うことにより、演算の高速化を図ることができる。すなわち、例えば図 1Aに示 すように、全系列長 nWのデータが n個のウィンドウに分割される場合、このウィンドウ を並列に処理することにより、演算の高速化を図ることができる。例えば図 1Bに示す ように、 # 1および # 2の 2つの処理系統によって並列に演算を行うことにより、演算 時間を半分にすることができる。
[0021] 特午文献 1: Andrew J. Viterbi, An Intuitive Justification and a Simplified
Implementation of the MAP Decoder for Convolutionalし odes , IEEE J. Sel. Areas Commun., vol.16, no.2, pp.260 - 264, Feb.1998
発明の開示
発明が解決しょうとする課題
[0022] し力、しながら、上述のようにパラレルにスライディングウィンドウ法を行う場合でも、ゥ インドウサイズに対応する処理遅延が生じるという問題がある。特に、 Max-Log-M APアルゴリズムを用いて尤度情報 L (u )を算出する場合、時点 kが小さい方から順
k
に算出する必要があるが、尤度情報 L (u )の算出に必要な確率値は、各ウィンドウ内
k
ではシリアルに算出されるため、ウィンドウを並列に処理しても、結局尤度情報 L (u ) k の算出には遅延が生じることになる。
[0023] この問題について、図 2Aから図 2Cを参照して具体的に説明する。
[0024] 図 2Aから図 2Cは、スライディングウィンドウ法のウィンドウサイズが 64である場合に
、 2つの処理系統 # 1, # 2によって尤度情報 L (u )を算出するタイミングの例を示す
k
図である。図 2Aは、後方確率 を算出するタイミングを示し、図 2Bは、前方確率 α k k を算出するタイミングを示し、図 2Cは、尤度情報 L (u )を算出するタイミングを示して
k
いる。
[0025] 図 2Aにおいて、後方確率 一 および後方確率
127一 β を算出するために、
63 0 64
それぞれトレーニング区間が設けられている。トレーニング区間の先頭(ここでは、 β および i3 )は、常に 0と仮定され、トレーニング区間内で上記の式 (6)の演算が行
95 159
われることにより、ウィンドウ内の後方確率 i3 — および後方確率
63 0 127一 β を正し
64 く算出することができる。したがって、トレーニング区間としては、少なくとも 20程度の サイズが必要となる。 [0026] 図 2Aにおいては、時亥 IJT1で後方確率 , β の算出が完了する。各処理系統 #
0 64
1 , # 2は、引き続き後方確率 —β および後方確率 —β を算出する。
191 128 255 192
[0027] そして、図 2Βに示すように、時刻 T1から前方確率ひ の算
0一 α およびひ —a
63 64 127 出が開始される。このとき、前方確率ひ 関しては、 ひ を 0と仮定し、
64一ひ の算出に
127 32
- 力トレーニング区間となっている。
32 63
[0028] 一方、図 2Cに示すように、時刻 T1から尤度情報 L (u )— L (u )の算出が開始され
0 63
る。時刻 T1においては、後方確率 ひも
0一 j3 は既に算出されており、前方確率
63 0 算出されるため、処理系統 # 1は、尤度情報 L (u )を算出することができる。
0
[0029] しかし、時亥 IJT1において、後方確率 j3
64一 β が既に算出されており、前方確率ひ 127
も算出されているにも拘わらず、処理系統 # 2は、尤度情報 L (u )を算出すること
64 64
ができずに待機する。これは、上述したように尤度情報 L (u )は、時点 kが小さい方か k
ら順に算出される必要があるが、時亥 1JT1においては、尤度情報 L (u )が算出される
0
のみであり、尤度情報 L (u )は後になって処理系統 # 1によって算出されるためであ
63
る。
[0030] したがって、図 2Cに示すように、時亥 ijTlから処理系統 # 1によって尤度情報 L (u ) 一 L (u )が算出され、時亥 IJT2から処理系統 # 2によって尤度情報 L (u ) -L (u )
63 64 127 が順次算出される。
[0031] つまり、後方確率および前方確率の算出は完了しているにも拘わらず、尤度情報の 算出に際して並列処理を行うことができず、ウィンドウサイズに対応する処理遅延が 生じてしまう。この処理遅延を小さくするためには、ウィンドウサイズを小さくすれば良 いが、ウィンドウサイズを小さくした場合には、ウィンドウ数が増加することになり、これ に伴ってトレーニング区間に対する処理量が増大する。トレーニング区間は、実際の 復号には寄与しない区間であるため、トレーニング区間に対する処理量が増大すれ ば、全体の処理量は増大し、結果として回路規模が増大することがある。
[0032] 本発明の目的は、処理量および回路規模の増大を抑制しつつ、高速に尤度情報 を算出することができる復号装置および復号方法を提供することである。
課題を解決するための手段
[0033] 本発明の復号装置は、所定サイズのウィンドウに対して複数の処理系統で並列に 復号演算を行う復号装置であって、前記ウィンドウ内において前記複数の処理系統 数だけ前の時点の前方確率から現時点の前方確率を順次演算する前方確率演算 手段と、前記ウィンドウ内にぉレ、て前記複数の処理系統数だけ後の時点の後方確率 から現時点の後方確率を順次演算する後方確率演算手段と、前記前方確率および 前記後方確率を用いて尤度情報を演算する尤度演算手段と、を有する構成を採る。
[0034] 本発明の復号方法は、所定サイズのウィンドウに対して複数の処理系統で並列に 復号演算を行う復号方法であって、前記ウィンドウ内において前記複数の処理系統 数だけ後の時点の後方確率から現時点の後方確率を順次演算するステップと、前記 ウィンドウ内において前記複数の処理系統数だけ前の時点の前方確率から現時点 の前方確率を順次演算するステップと、前記前方確率が演算されるごとに前記前方 確率および前記後方確率を用いて尤度情報を演算するステップと、を有するようにし た。
発明の効果
[0035] 本発明によれば、処理量および回路規模の増大を抑制しつつ、高速に尤度情報を 算出することができる。
図面の簡単な説明
[0036] [図 1]ウィンドウを用いた処理を説明するための図
[図 2]スライディングウィンドウ法による復号動作のタイミングの例を示す図
[図 3]本発明の一実施の形態に係る復号装置の全体構成を示すブロック図
[図 4]一実施の形態に係る復号器の内部構成を示すブロック図
[図 5]—実施の形態に係る復号動作のタイミングの例を示す図
[図 6]—実施の形態に係る復号動作のタイミングの他の例を示す図
発明を実施するための最良の形態
[0037] 以下、本発明の一実施の形態について、図面を参照して詳細に説明する。
[0038] 図 3は、本発明の一実施の形態に係る復号装置の全体構成を示すブロック図であ る。同図に示す復号装置は、インタリーバ 100、復号器 110、インタリーバ 120、復号 器 130、ディンタリーバ 140、ディンタリーバ 150、硬判定部 160、および誤り検出部 170を有している。なお、図 3に示す復号装置は、ターボ符号化によって得られる情 報ビットそのものであるシステマチックビット X、情報ビットを畳み込み符号化して得ら
a
れるパリティビット X、および情報ビットをインタリーブ後に畳み込み符号ィ匕して得られ
b
るパリティビット Xに、それぞれ通信路における雑音が付加されたシステマチックビット y、ノ リティビット y、およびパリティビット yを復号するものとする。
a b c
[0039] インタリーバ 100は、システマチックビット yをインタリーブする。インタリーバ 100に
a
よるインタリーブは、符号ィ匕側におけるインタリーブと同様にして行われる。
[0040] 復号器 110は、軟入力軟出力の復号器であり、前回の復号結果から得られる事前 情報尤度 Lとシステマチックビット yとパリティビット yとを用いて復号を行い、復号結
e a b
果をインタリーバ 120へ出力する。復号器 110による復号については、後に詳述する
[0041] インタリーバ 120は、復号器 110の復号結果をインタリーブする。インタリーバ 120 によるインタリーブは、符号ィ匕側におけるインタリーブと同様にして行われる。
[0042] 復号器 130は、軟入力軟出力の復号器であり、インタリーバ 120から出力される事 前情報尤度とインタリーバ 100から出力されるシステマチックビット yとパリティビット y a c とを用いて復号を行い、復号結果をディンタリーバ 140およびディンタリーバ 150へ 出力する。
[0043] ディンタリーバ 140およびディンタリーバ 150は、復号器 130の復号結果をデインタ リーブする。ディンタリーバ 140およびディンタリーバ 150によるディンタリーブは、ィ ンタリーバ 100またはインタリーバ 120によるインタリーブを元に戻すようにして行われ る。
[0044] 硬判定部 160は、ディンタリーバ 150から出力される尤度情報を硬判定し、 0または
1の硬判定値を出力する。具体的には、硬判定部 160は、ディンタリーバ 150から出 力される尤度情報を閾値である 0と比較し、尤度情報が 0以上であれば硬判定値とし て 1を出力し、尤度情報が 0未満であれば硬判定値として 0を出力する。
[0045] 誤り検出部 170は、硬判定結果に付加されている CRC (Cyclic Redundancy Check )などの誤り検出符号を用いて誤り検出を行い、復号データを出力する。
[0046] 次いで、図 4および図 5Aから図 5Cを用いて、上記のように構成された復号装置に おける復号器の動作について具体的に説明する。 [0047] 図 4は、復号器 110の内部構成を示すブロック図である。同図に示すように、復号 器 110は、移行確率演算部 111、後方確率演算部 112、前方確率演算部 113、記 憶部 114、および尤度演算部 115を有している。なお、復号器 130も復号器 110と同 様の内部構成を有しているものとする。また、以下の復号動作は、所定サイズのウイ ンドウ単位で行われるものとする。
[0048] まず、前回の復号結果から得られる事前情報尤度 L、システマチックビット y、およ
e a びパリティビット yが移行確率演算部 111へ入力され、移行確率が演算される。以下
b
では、時点 kにおいて状態遷移トレリス上の状態 から状態 mへ移行する移行確 率を γ (m' , m)と表記する。
k
[0049] 算出された移行確率 γ (m' , m)は、後方確率演算部 112および前方確率演算
k
部 113へ出力され、それぞれ後方確率および前方確率が算出される。以下では、時 点 kの状態 mにおける後方確率を /3 (m)と表記し、時点 kの状態 mにおける前方確
k
率を ct (m)と表記する。
k
[0050] ここで、後方確率演算部 112および前方確率演算部 113による確率値の算出につ いて説明する。
[0051] 上述したように、前方確率 a (m)および後方確率 (m)は、式(5) , (6)によって
k k
算出される。式(5) , (6)は、それぞれ以下の式 (8) , (9)のように変形することができ る。
[0052] [数 7]
(m) = max (<¾_2 (m') + rk_2 (m', m)) · · ·式 ( 8 )
A+i (m) = ma {fik+2 (m') + yk+2 {m m)) · · ·式 (9 ) これらの式 (8), (9)を再度式(5), (6)へ代入すると、以下の式(10), (11)が得ら れる。
[0053] 園 ak (m) = max max (ak_2 (m") + yk_2 (m", m')) + yk_x (m m)
= max ock_2 {m") + max 2 (m",m') + yk^ ( ', m))
«' ノ
= max {ok i + k (m"> m)) · ♦ ·式 ( 1 0)
ただし、 t— , ^— ,, 十 ^ , ) k (m) = max max {βΜ {m') + yk+2 (m", m')) + yk+1 (m', m) )
= max Λ ( + max (τ*+2 « m') + i (w', m))
= max (βΜ (m") + %+2 (m m)) · ■ ·式 (1 1 )
ただし、 (m m) = ma /k+2 + yk+l (m1, m)) 式(10)は、時点 kの前方確率 α を時点(k一 2)の前方確率ひ 力 算出することを k k-2
示し、式(11)は、時点 kの後方確率 j3 を時点(k + 2)の後方確率 j3 力 算出する k k+2
ことを示している。
[0054] 後方確率演算部 112および前方確率演算部 113は、それぞれ式(10), (11)を用 いて、 2つの処理系統で並列に後方確率および前方確率を演算する。つまり、例え ば後方確率演算部 112における後方確率の演算においては、一方の処理系統が後 方確率 β 力 後方確率 β を算出する間に、他方の処理系統が並行して後方確率 k+2 k
β から後方確率 を算出する。具体的に k=lの場合を考えると、 2つの処理系 k+1 k-1
統によって、後方確率 i3 および後方確率 が並行して算出されることになる。
1 0
[0055] 算出された後方確率は、ウィンドウ単位で記憶部 114へ記憶される。また、後方確 率と同様に、前方確率演算部 113においても、 2つの処理系統によって、前方確率 a と前方確率 α が並行して算出される。前方確率が算出されると、尤度演算部 11 k k+1
5によって、前方確率および記憶部 114に記憶されている後方確率が用いられ、上 述した式(7)によって尤度情報が算出される。
[0056] このとき、従来とは異なり、前方確率演算部 113における 2つの処理系統は、前方 確率ひ および前方確率 α を並行して算出するため、時点 kが小さい方から順に尤 k k+1
度情報 L(u )を算出する場合に、双方の処理系統によって算出される前方確率を同 k
時に用いて尤度情報を算出することができる。
[0057] 以下、図 5Aから図 5Cを参照して、尤度情報を算出するタイミングについて、具体 的に説明する。
[0058] 図 5Aは、後方確率演算部 112における 2つの処理系統 # 1, #2による後方確率 の算出タイミングを示している。同図に示すように、処理系統 # 1は、 —β を k 190 128 トレーニング区間として、後方確率 β 一 β のうち時点 kが偶数であるものを順次算
126 0
出していく。同様に、処理系統 # 2は、 β
191一 β をトレーニング区間として、後方確 129
率 /3 一 β のうち時点 kが奇数であるものを順次算出していく。そして、時刻 T1にお
127 1
いて、後方確率 /3 および後方確率 が算出される。
0 1
[0059] 図 5Bは、前方確率演算部 113における 2つの処理系統 # 1 , # 2による前方確率 a の算出タイミングを示している。同図に示すように、処理系統 # 1は、時刻 T1から k
前方確率ひ一ひ のうち時点 kが偶数であるものを順次算出していく。同様に、処理
126
系統 # 2は、時刻 T1から前方確率ひ一ひ のうち時点 kが奇数であるものを順次算
1 127
出していく。
[0060] 図 5Cは、尤度演算部 115における 2つの処理系統 # 1 , # 2による尤度情報 L (u ) k の算出タイミングを示している。同図に示すように、処理系統 # 1は、時刻 T1におい て尤度情報 L (u )を算出する。そして、処理系統 # 2は、時刻 T1において前方確率
0
a および既に記憶部 114に記憶されている後方確率 を用いて尤度情報 L (u )を
0 1 1 算出する。
[0061] このように従来とは異なり、処理系統 # 2は尤度情報 L (u )の算出を待機することが k
無ぐ並行処理を行うことができる。このため、図 2Cと図 5Cとを比較すれば明らかな ように、尤度情報 L (u )の演算を大幅に高速化することができる。
k
[0062] このように、本実施の形態によれば、処理系統数 (ここでは 2)だけ前または後の時 点の確率値から現時点での確率値を算出する演算を、各処理系統で並列に行うた め、確率値を用いた尤度情報の算出における処理遅延が無ぐ処理量および回路 規模の増大を抑制しつつ、高速に尤度情報を算出することができる。
[0063] なお、本実施の形態においては、トレーニング区間のサイズを 32とし、ウィンドウサ ィズを 64として説明した力 本発明はこれらのサイズに限定されない。トレーニング区 間のサイズとしては、約 20程度以上であれば良い。
[0064] また、本実施の形態においては、 2つの処理系統で並列に演算する場合について 説明したが、処理系統数は 2以上であればいくつでも良い。この場合には、式(10) , (11)と同様の考え方で、前方確率および後方確率を処理系統数だけ前および後の 時点の前方確率および後方確率で表す式を用いれば良い。すなわち、処理系統数 を m (mは 2以上の整数)とすれば、前方確率 α および後方確率 をそれぞれ前方
k k
確率 α および後方確率 で表す式を用いて確率値を演算すれば良い。
k m k+m
[0065] また、例えば図 6に示すように、トレーニング区間についてはいずれ力、 1つの処理系 統のみにおいて連続した演算を行レ、、このトレーニング結果をすベての処理系統で 共通して用いることにより、装置全体の演算量をさらに削減することができる。
[0066] 本発明の復号装置は、所定サイズのウィンドウに対して複数の処理系統で並列に 復号演算を行う復号装置であって、前記ウィンドウ内において前記複数の処理系統 数だけ前の時点の前方確率から現時点の前方確率を順次演算する前方確率演算 手段と、前記ウィンドウ内において前記複数の処理系統数だけ後の時点の後方確率 から現時点の後方確率を順次演算する後方確率演算手段と、前記前方確率および 前記後方確率を用いて尤度情報を演算する尤度演算手段と、を有する構成を採る。
[0067] この構成によれば、処理系統数だけ前後の時点の前方確率および後方確率から 現時点の前方確率および後方確率を演算するため、各ウィンドウ内においても複数 の処理系統が並列に確率値の演算を行うことができ、確率値が演算されるごとに後 段の尤度演算を行って、処理量および回路規模の増大を抑制しつつ、高速に尤度 情報を算出することができる。
[0068] 本発明の復号装置は、前記後方確率演算手段は、前記ウィンドウより後の時点の データをトレーニングデータとして現時点の後方確率を演算する構成を採る。
[0069] この構成によれば、処理対象のウィンドウより後の時点のデータをトレーニングデー タとして現時点の後方確率を演算するため、任意のウィンドウに関して後方確率の演 算処理を行うことができる。
[0070] 本発明の復号装置は、前記後方確率演算手段は、前記複数の処理系統で共通の トレーニングデータを用いる構成を採る。
[0071] この構成によれば、複数の処理系統で共通のトレーニングデータを用いるため、ト レーニングデータに必要な演算量を削減することができ、装置全体の処理量をさらに 肖 ij減すること力 Sできる。
[0072] 本発明の基地局装置は、上記のいずれかに記載の復号装置を有する構成を採る。 [0073] この構成によれば、上記のいずれかに記載の復号装置と同様の作用効果を基地 局装置にぉレ、て実現することができる。
[0074] 本発明の移動局装置は、上記のいずれかに記載の復号装置を有する構成を採る。
[0075] この構成によれば、上記のいずれかに記載の復号装置と同様の作用効果を移動 局装置にぉレ、て実現することができる。
[0076] 本発明の復号方法は、所定サイズのウィンドウに対して複数の処理系統で並列に 復号演算を行う復号方法であって、前記ウィンドウ内において前記複数の処理系統 数だけ後の時点の後方確率から現時点の後方確率を順次演算するステップと、前記 ウィンドウ内において前記複数の処理系統数だけ前の時点の前方確率から現時点 の前方確率を順次演算するステップと、前記前方確率が演算されるごとに前記前方 確率および前記後方確率を用いて尤度情報を演算するステップと、を有するようにし た。
[0077] この方法によれば、処理系統数だけ前後の時点の前方確率および後方確率から 現時点の前方確率および後方確率を演算するため、各ウィンドウ内においても複数 の処理系統が並列に確率値の演算を行うことができ、確率値が演算されるごとに後 段の尤度演算を行って、処理量および回路規模の増大を抑制しつつ、高速に尤度 情報を算出することができる。
[0078] 本明細書は、 2003年 7月 11日出願の特願 2003—273378に基づく。この内容は すべてここに含めておく。

Claims

請求の範囲
[1] 所定サイズのウィンドウに対して複数の処理系統で並列に復号演算を行う復号装置 であって、
前記ウィンドウ内において前記複数の処理系統数だけ前の時点の前方確率から現 時点の前方確率を順次演算する前方確率演算手段と、
前記ウィンドウ内において前記複数の処理系統数だけ後の時点の後方確率から現 時点の後方確率を順次演算する後方確率演算手段と、
前記前方確率および前記後方確率を用いて尤度情報を演算する尤度演算手段と を有する復号装置。
[2] 前記後方確率演算手段は、
前記ウィンドウより後の時点のデータをトレーニングデータとして現時点の後方確率 を演算する請求項 1記載の復号装置。
[3] 前記後方確率演算手段は、
前記複数の処理系統で共通のトレーニングデータを用いる請求項 2記載の復号装 置。
[4] 請求項 1に記載の復号装置を有する基地局装置。
[5] 請求項 1に記載の復号装置を有する移動局装置。
[6] 所定サイズのウィンドウに対して複数の処理系統で並列に復号演算を行う復号方法 であって、
前記ウィンドウ内において前記複数の処理系統数だけ後の時点の後方確率から現 時点の後方確率を順次演算するステップと、
前記ウィンドウ内において前記複数の処理系統数だけ前の時点の前方確率から現 時点の前方確率を順次演算するステップと、
前記前方確率が演算されるごとに前記前方確率および前記後方確率を用いて尤 度情報を演算す;
を有する復号方法。
PCT/JP2004/009846 2003-07-11 2004-07-09 復号装置および復号方法 WO2005006564A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE602004012417T DE602004012417T2 (de) 2003-07-11 2004-07-09 Dekodierungsvorrichtung und dekodierungsverfahren
EP04747314A EP1655846B1 (en) 2003-07-11 2004-07-09 Decoding apparatus and decoding method
US10/563,559 US7539256B2 (en) 2003-07-11 2004-07-09 Decoding device and decoding method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003-273378 2003-07-11
JP2003273378A JP4227481B2 (ja) 2003-07-11 2003-07-11 復号装置および復号方法

Publications (1)

Publication Number Publication Date
WO2005006564A1 true WO2005006564A1 (ja) 2005-01-20

Family

ID=34056018

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/009846 WO2005006564A1 (ja) 2003-07-11 2004-07-09 復号装置および復号方法

Country Status (7)

Country Link
US (1) US7539256B2 (ja)
EP (1) EP1655846B1 (ja)
JP (1) JP4227481B2 (ja)
KR (1) KR100671619B1 (ja)
CN (1) CN100547935C (ja)
DE (1) DE602004012417T2 (ja)
WO (1) WO2005006564A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009525009A (ja) * 2006-01-27 2009-07-02 クゥアルコム・インコーポレイテッド 双方向スライディングウィンドウアーキテクチャを有するmap復号器

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7571683B2 (en) * 2001-03-27 2009-08-11 General Electric Company Electrical energy capture system with circuitry for blocking flow of undesirable electrical currents therein
US8194760B2 (en) * 2006-06-01 2012-06-05 Ntt Docomo, Inc. Method and apparatus for distributed space-time coding in wireless radio networks
US8027407B2 (en) * 2006-11-06 2011-09-27 Ntt Docomo, Inc. Method and apparatus for asynchronous space-time coded transmission from multiple base stations over wireless radio networks
US8059732B2 (en) 2006-11-28 2011-11-15 Ntt Docomo, Inc. Method and apparatus for wideband transmission from multiple non-collocated base stations over wireless radio networks
US8861356B2 (en) * 2007-03-13 2014-10-14 Ntt Docomo, Inc. Method and apparatus for prioritized information delivery with network coding over time-varying network topologies
US20090285323A1 (en) * 2008-05-15 2009-11-19 Sundberg Carl-Erik W Adaptive soft output m-algorithm receiver structures
US8064548B2 (en) * 2007-05-18 2011-11-22 Ntt Docomo, Inc. Adaptive MaxLogMAP-type receiver structures
US20090075686A1 (en) * 2007-09-19 2009-03-19 Gomadam Krishna S Method and apparatus for wideband transmission based on multi-user mimo and two-way training
US8325840B2 (en) * 2008-02-25 2012-12-04 Ntt Docomo, Inc. Tree position adaptive soft output M-algorithm receiver structures
US8279954B2 (en) * 2008-03-06 2012-10-02 Ntt Docomo, Inc. Adaptive forward-backward soft output M-algorithm receiver structures
US8565329B2 (en) * 2008-06-03 2013-10-22 Ntt Docomo, Inc. Soft output M-algorithm receiver structures with generalized survivor selection criteria for MIMO systems
US8229443B2 (en) * 2008-08-13 2012-07-24 Ntt Docomo, Inc. Method of combined user and coordination pattern scheduling over varying antenna and base-station coordination patterns in a multi-cell environment
US8705484B2 (en) * 2008-08-15 2014-04-22 Ntt Docomo, Inc. Method for varying transmit power patterns in a multi-cell environment
US8451951B2 (en) * 2008-08-15 2013-05-28 Ntt Docomo, Inc. Channel classification and rate adaptation for SU-MIMO systems
US8542640B2 (en) * 2008-08-28 2013-09-24 Ntt Docomo, Inc. Inter-cell approach to operating wireless beam-forming and user selection/scheduling in multi-cell environments based on limited signaling between patterns of subsets of cells
US8855221B2 (en) * 2008-09-15 2014-10-07 Ntt Docomo, Inc. Method and apparatus for iterative receiver structures for OFDM/MIMO systems with bit interleaved coded modulation
US9048977B2 (en) * 2009-05-05 2015-06-02 Ntt Docomo, Inc. Receiver terminal driven joint encoder and decoder mode adaptation for SU-MIMO systems
US8514961B2 (en) * 2010-02-04 2013-08-20 Ntt Docomo, Inc. Method and apparatus for distributed space-time coding in wireless radio networks
US20130142057A1 (en) * 2011-12-01 2013-06-06 Broadcom Corporation Control Channel Acquisition
KR101674724B1 (ko) 2014-08-25 2016-11-09 주식회사 엔케이 단열블록 고정턱이 형성된 서포트 구조체 및 이를 이용한 2중벽 탱크
US20190064223A1 (en) * 2017-08-25 2019-02-28 Keysight Technologies, Inc. Method and Apparatus for Detecting the Start of an Event in the Presence of Noise

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000052833A1 (fr) * 1999-03-01 2000-09-08 Fujitsu Limited Procede et appareil de decodage de probabilite maximale a posteriori
JP2001267938A (ja) * 2000-01-31 2001-09-28 Texas Instr Inc <Ti> パラレル化されたスライディングウィンドウ処理によるmapデコーディング
JP2003163599A (ja) * 2001-11-27 2003-06-06 Matsushita Electric Ind Co Ltd 誤り訂正復号装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5933462A (en) * 1996-11-06 1999-08-03 Qualcomm Incorporated Soft decision output decoder for decoding convolutionally encoded codewords
JP3244121B2 (ja) 1999-04-07 2002-01-07 株式会社ワイ・アール・ピー移動通信基盤技術研究所 復号装置
FI109162B (fi) 2000-06-30 2002-05-31 Nokia Corp Menetelmä ja järjestely konvoluutiokoodatun koodisanan dekoodaamiseksi
US6952457B2 (en) * 2000-12-29 2005-10-04 Motorola, Inc. Method and system for adapting a training period in a turbo decoding device
US7027531B2 (en) * 2000-12-29 2006-04-11 Motorola, Inc. Method and system for initializing a training period in a turbo decoding device
SG125061A1 (en) * 2001-12-07 2006-09-29 Oki Techno Ct Singapore Pte A turbo decoder, and a map decoder component of the turbo decoder
FI20020108A0 (fi) * 2002-01-21 2002-01-21 Nokia Corp Menetelmõ ja laite polkumetriikoiden muodostamiseksi trelliksessõ
US7246295B2 (en) * 2003-04-14 2007-07-17 Agere Systems Inc. Turbo decoder employing simplified log-map decoding
JP2005167513A (ja) * 2003-12-01 2005-06-23 Matsushita Electric Ind Co Ltd 復号装置及び復号方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000052833A1 (fr) * 1999-03-01 2000-09-08 Fujitsu Limited Procede et appareil de decodage de probabilite maximale a posteriori
JP2001267938A (ja) * 2000-01-31 2001-09-28 Texas Instr Inc <Ti> パラレル化されたスライディングウィンドウ処理によるmapデコーディング
JP2003163599A (ja) * 2001-11-27 2003-06-06 Matsushita Electric Ind Co Ltd 誤り訂正復号装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1655846A4 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009525009A (ja) * 2006-01-27 2009-07-02 クゥアルコム・インコーポレイテッド 双方向スライディングウィンドウアーキテクチャを有するmap復号器

Also Published As

Publication number Publication date
US7539256B2 (en) 2009-05-26
JP4227481B2 (ja) 2009-02-18
EP1655846B1 (en) 2008-03-12
JP2005033705A (ja) 2005-02-03
DE602004012417D1 (de) 2008-04-24
US20060176945A1 (en) 2006-08-10
KR100671619B1 (ko) 2007-01-19
CN1823474A (zh) 2006-08-23
CN100547935C (zh) 2009-10-07
EP1655846A1 (en) 2006-05-10
DE602004012417T2 (de) 2008-06-19
EP1655846A4 (en) 2006-07-19
KR20060035743A (ko) 2006-04-26

Similar Documents

Publication Publication Date Title
WO2005006564A1 (ja) 復号装置および復号方法
US6982659B2 (en) Method and apparatus for iterative decoding
JP3857320B2 (ja) 並列連結のテイルバイティング・コンボルーション・コード及びその復号器
JP2001503588A (ja) 畳み込み符号化された符号語を復号化するためのソフト判定出力
US6813743B1 (en) Sliding window technique for map decoders
CN108199723B (zh) 一种基于双递归的分组马尔可夫叠加编码方法
US8358713B2 (en) High throughput and low latency map decoder
US6732327B1 (en) Scaled-feedback turbo decoder
JP3741616B2 (ja) 畳込み符号用のソフト判定出力デコーダ
CN110730011B (zh) 一种基于部分叠加的递归分组马尔可夫叠加编码方法
JP2004343716A (ja) 畳み込み符号化信号の伝送形式をブラインド検出する方法および復号器
US7003041B2 (en) Device and method for decoding turbo codes
Holland et al. Soft combining for hybrid ARQ
US7634703B2 (en) Linear approximation of the max* operation for log-map decoding
CN1129257C (zh) 串行回溯的最大似然解码方法及其使用该方法的解码器
US7031406B1 (en) Information processing using a soft output Viterbi algorithm
JP2005167513A (ja) 復号装置及び復号方法
Osman et al. Performance of multilevel turbo codes with group partitioning over satellite channels
Zhang et al. Research and improvement on stopping criterion of Turbo iterative decoding
TWI569584B (zh) 採用動態調整因子的解碼方法
WO2004066506A1 (ja) データ受信方法及び装置
Liu et al. New iterative super-trellis decoding with source a priori information for VLCs with turbo codes
KR20050045470A (ko) 터보코드 복호의 비트 단위 조기정지장치 및 방법
KR20060040789A (ko) 터보 부호의 복호화 장치 및 방법
Karthik et al. Low Complexity Decoder for CCSDS Turbo codes

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200480019988.0

Country of ref document: CN

AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2004747314

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 36/MUMNP/2006

Country of ref document: IN

WWE Wipo information: entry into national phase

Ref document number: 1020067000682

Country of ref document: KR

ENP Entry into the national phase

Ref document number: 2006176945

Country of ref document: US

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 10563559

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 1020067000682

Country of ref document: KR

WWP Wipo information: published in national office

Ref document number: 2004747314

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 10563559

Country of ref document: US

WWG Wipo information: grant in national office

Ref document number: 1020067000682

Country of ref document: KR

WWG Wipo information: grant in national office

Ref document number: 2004747314

Country of ref document: EP