JP2008182442A - Decoding device - Google Patents
Decoding device Download PDFInfo
- Publication number
- JP2008182442A JP2008182442A JP2007013831A JP2007013831A JP2008182442A JP 2008182442 A JP2008182442 A JP 2008182442A JP 2007013831 A JP2007013831 A JP 2007013831A JP 2007013831 A JP2007013831 A JP 2007013831A JP 2008182442 A JP2008182442 A JP 2008182442A
- Authority
- JP
- Japan
- Prior art keywords
- data
- probability
- time
- memory
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Detection And Correction Of Errors (AREA)
- Error Detection And Correction (AREA)
Abstract
Description
本発明は、復号装置に関し、特に、軟値のデータである入力軟値データを、他の軟値のデータである出力軟値データに復号する、軟入力軟出力の復号装置の回路規模を小さくすることができるようにする復号装置に関する。 The present invention relates to a decoding device, and in particular, reduces the circuit scale of a soft input / soft output decoding device that decodes input soft value data, which is soft value data, into output soft value data, which is other soft value data. The present invention relates to a decoding device that can perform the above.
ディスク等の記録媒体にデータを記録する場合には、誤り訂正等のために、データは、符号化されて記録される。 When data is recorded on a recording medium such as a disk, the data is encoded and recorded for error correction or the like.
図1は、従来の光ディスク装置の一例の構成を示している。 FIG. 1 shows an example of the configuration of a conventional optical disc apparatus.
図1の光ディスク装置においては、データの記録時には、図示せぬ光ディスクに記録する記録対象のデータが、リードソロモン符号器11に供給される。
In the optical disc apparatus of FIG. 1, data to be recorded to be recorded on an optical disc (not shown) is supplied to the Reed-Solomon
ここで、記録対象のデータは、ビット列であり、各ビットは、0又は1のうちのいずれかの値をとる。 Here, the data to be recorded is a bit string, and each bit takes a value of 0 or 1.
リードソロモン符号器11は、記録対象のデータをリードソロモン符号に符号化し、0又は1のうちのいずれかの値をとるビット列としてのリードソロモン符号を、変調符号器12に供給する。
The Reed-Solomon
変調符号器12は、リードソロモン符号器11からのリードソロモン符号を、例えば、17PP符号(Parity Preserve/Prohibit Repeated Minimum Transition Runlength)等の変調符号に変調符号化し、その変調符号として、0又は1のうちのいずれかの値をとるビット列としての17PP符号を、NRZI(Non Return to Zero Inversion)変換器13に供給する。
The
ここで、変調符号器12での変調符号化は、例えば、リードソロモン符号と17PP符号とを対応付けた変換テーブルを用いて行うことができる。
Here, the modulation encoding by the
また、17PP符号は、1と1との間に、1ないし7の範囲のいずれかの個数の0が現れ、1が連続しない符号(Run Length Limited Code(1,7))である。 The 17PP code is a code in which any number of 0s in the range of 1 to 7 appears between 1 and 1, and 1s are not consecutive (Run Length Limited Code (1, 7)).
NRZI変換器13は、変調符号器12からの17PP符号をNRZI変換し、その結果得られるNRZI信号が、記録再生系14に供給される。記録再生系14は、NRZI変換器13からのNRZI信号を、図示せぬ光ディスクにピットの形で書き込む。
The NRZI
ここで、NRZI変換では、NRZI変換器13に対する入力が0である場合には、直前の出力が、そのままNRZI信号として出力され、入力が1である場合には、直前の出力が反転されて、NRZI信号として出力される。
Here, in the NRZI conversion, when the input to the
したがって、NRZI変換器13に対する入力が、17PP符号のように、1と1との間に、少なくとも1個の0が入るビット列ではない、例えば、1が連続したビット列11111111である場合には、NRZI変換器13の出力は、ビット列10101010となって、そのビット列10101010に対応するピットが、光ディスクに形成される。そして、ビット列10101010に対応するピットに対して、光ディスクから再生される再生信号は、1ビットに相当する短い周期で、H(High)レベルとL(Low)レベルとが切り換わる、振幅の小さい信号となるため、再生信号の信号レベルを検出しにくくなる。
Therefore, when the input to the
一方、NRZI変換器13に対する入力が、1と1との間に、少なくとも1個の0が入る17PP符号であり、例えば、1と0とが交互に並んだ10101010である場合には、NRZI変換器13の出力は、11001100となって、そのビット列11001100に対応するピットが、光ディスクに形成される。そして、ビット列11001100に対応するピットに対して、光ディスクから再生される再生信号は、2ビットに相当するある程度長い周期で、HレベルとLレベルとが切り換わる、振幅がある程度大きい信号となるため、再生信号の信号レベルを検出しやすくなる。
On the other hand, when the input to the
なお、NRZI変換器13に対する入力が、0が長期に亘って連続するビット列である場合には、光ディスクから再生される再生信号は、長期間に亘って、レベルの変化が緩やかな信号となって、光ディスク装置の各ブロックの動作に必要なクロック信号を生成するPLL(Phase Lock Loop)のロックに時間を要する、あるいはPLLがロックしない、といった問題が生じるので、NRZI変換器13に対する入力は、17PP符号のように、0が連続する最大の個数も、ある程度の値に制限される。
When the input to the
次に、図1の光ディスク装置においては、データの再生時には、記録再生系14が、光ディスクから再生信号を再生する。記録再生系14は、図示せぬA/D(Analog/Digital)変換器や等化器等を有し、光ディスクからの再生信号をA/D変換し、さらに、波形等化等の処理を施して、軟値のデータを出力する。なお、記録再生系14は、その他、図示せぬPLL回路を有し、PLL回路では、再生信号に基づいて、光ディスク装置の各ブロックを動作させるためのクロック信号が生成される。
Next, in the optical disc apparatus of FIG. 1, when reproducing data, the recording / reproducing
記録再生系14が出力する軟値のデータは、ビタビ復号器16に供給される。
The soft value data output from the recording /
ここで、図1の光ディスク装置において、光ディスクに対する記録再生を行う記録再生系14は、PR121チャネル、PR1221チャネル、又はPR12221チャネルなどのPR(Partial Response)チャネルと、AWGN(Additive White Gaussian Noise)チャネルとから構成されると考えることができる。
Here, in the optical disk apparatus of FIG. 1, the recording / reproducing
したがって、NRZI変換器13が出力するNRZI信号は、記録再生系14において、PRチャネルを介し、さらに、AWGNチャネルを介することにより、ノイズが付加され、軟値のデータとして出力される。
Therefore, the NRZI signal output from the
PRチャネルは、時間の経過にしたがって遷移する状態(ステート)と、ある時刻t-1の状態から次の時刻tの状態への遷移を表す枝とで表現されるトレリスで表現することができる。 The PR channel can be represented by a trellis represented by a state (state) that transitions with time and a branch that represents a transition from a state at a certain time t-1 to a state at the next time t.
そして、トレリスで表現することができるPRチャネルに、NRZI変換器13を含めたチャネルsys#11も、トレリスで表現することができる。
The
トレリスで表現することができるチャネルを経由して(介して)読み出しがされた軟値のデータは、最尤復号により硬値のデータに復号することができる。 Soft value data read out via a channel that can be represented by a trellis can be decoded into hard value data by maximum likelihood decoding.
そこで、ビタビ復号器16は、記録再生系14からの軟値のデータを、最尤復号の1つであるビタビ復号によって、硬値のデータである17PP符号に復号し、変調復号器17に供給する。
Therefore, the Viterbi
変調復号器17は、ビタビ復号器16からの、0又は1のうちのいずれかの値をとるビット列である17PP符号を、例えば、リードソロモン符号と17PP符号とを対応付けた変換テーブルを用いて、リードソロモン符号に復号し、リードソロモン復号器18に供給する。
The
リードソロモン復号器18は、変調復号器17からの、0又は1のうちのいずれかの値をとるビット列であるリードソロモン符号を、元の、0又は1のうちのいずれかの値をとるデータ(記録対象のデータ)に復号して出力する。
The Reed-Solomon
ところで、上述のように、ビタビ復号器16は、軟値のデータを、硬値のデータに復号するが、近年、軟値のデータを他の軟値のデータに復号する、軟入力軟出力の復号を行う軟入力軟出力復号装置を採用することの要請が高まってきている。
By the way, as described above, the Viterbi
軟入力軟出力復号装置の実装アルゴリズムには、例えば、BCJR(Bahl-Cocke-Jeinek-Raviv)アルゴリズム、Max-Log-BCJRアルゴリズム、SW-Max-Log-BCJRアルゴリズム等がある。 Examples of the implementation algorithm of the soft input / soft output decoding device include a BCJR (Bahl-Cocke-Jeinek-Raviv) algorithm, a Max-Log-BCJR algorithm, and a SW-Max-Log-BCJR algorithm.
例えば、BCJRアルゴリズムは、畳み込み符号の復号後のシンボル誤り率を最小にする復号法として知られている(例えば、非特許文献1を参照)。
For example, the BCJR algorithm is known as a decoding method that minimizes the symbol error rate after decoding a convolutional code (see Non-Patent
BCJRアルゴリズムでは、復号結果として各シンボルを出力するのではなく、各シンボルの尤度を出力することができる。 The BCJR algorithm can output the likelihood of each symbol instead of outputting each symbol as a decoding result.
このようなシンボルの尤度の出力は、軟出力(soft-output)と呼ばれる。 Such symbol likelihood output is called soft-output.
近年、連接符号の内符号の復号出力や、繰り返し復号法の各繰り返しの復号出力を、軟出力とすることで、シンボル誤り確率を小さくする研究がされており、そのような軟出力を復号出力とする、軟入力軟出力の復号に適した復号法として、BCJRアルゴリズムが注目されるようになった。 In recent years, research has been conducted to reduce the symbol error probability by making the decoding output of the inner code of the concatenated code and the decoding output of each iteration of the iterative decoding method soft, and decoding such soft output As a decoding method suitable for soft input / soft output decoding, the BCJR algorithm has been attracting attention.
図2は、BCJRアルゴリズムを説明する通信路のモデル(通信路モデル)を示している。 FIG. 2 shows a communication channel model (communication channel model) for explaining the BCJR algorithm.
図2の通信路モデルは、畳み込み符号器21、無記憶通信路22、及び復号器23で構成され、ディジタルの情報(データ)を畳み込み符号化し、雑音がある無記憶通信路(チャネル)を介して得られたデータを復号する。
The communication channel model shown in FIG. 2 includes a
すなわち、畳み込み符号器21には、畳み込み符号化の対象の入力データitが供給される。ここで、tは時刻を表し、入力データitは、時刻tに、畳み込み符号器21に供給される畳み込み符号化の対象のデータである。
That is, the
畳み込み符号器21は、そこに供給される入力データitを畳み込み符号化し、入力データitの畳み込み符号化結果としての符号化データXtを出力する。符号化データXtは、無記憶通信路22を経由する(介する)ことにより、軟値のデータである入力軟値データYtとなって、復号器23に供給される。復号器23では、入力軟値データYtを、入力データitの尤度を表す軟値のデータである出力軟値データλtに復号する軟入力軟出力の復号が行われる。
図3は、図2の畳み込み符号器21を表すトレリスを示している。
FIG. 3 shows a trellis representing the
トレリスは、上述したように、時間の経過にしたがって遷移する状態Stと、ある時刻t-1の状態St-1から次の時刻tの状態Stへの遷移を表す枝とで表現される。 Trellis, as described above, is represented by a state S t a transition over time, the branch from state S t-1 of a time t-1 represents a transition to state S t at the next time t The
なお、畳み込み符号器21は、図示せぬシフトレジスタを内蔵し、そのシフトレジスタを用いて畳み込み符号化を行うが、トレリスの状態の個数(時刻tの状態数)Mは、畳み込み符号器21が内蔵するシフトレジスタが取り得る内容の数(シフトレジスタが記憶する値のパターン数)に等しい。
The
図3のトレリスにおいては、時刻t-1の状態St-1が、状態m'(m'=0,1,・・・,M-1)であり、次の時刻tに、入力データitに対して、符号化データXtが観測され、時刻tの状態Stが、状態m(m=0,1,・・・,M-1)に遷移している。 In the trellis shown in FIG. 3, the state S t-1 at time t-1 is the state m ′ (m ′ = 0, 1,..., M−1), and at the next time t, the input data i relative t, is observed coded data X t, the state S t at time t is the state m (m = 0,1, ···, M-1) is a transition to.
ここで、時刻tにおいて、状態m'から状態mに遷移する状態遷移確率pt(m|m')を、式(1)で表す。 Here, at time t, the state transition probability p t (m | m ′) for transitioning from the state m ′ to the state m is expressed by Expression (1).
なお、Pr{A|B}は、事象Bが起こった条件のもので、事象Aが起こる条件付き確率を表す。 Pr {A | B} is a condition under which event B occurs, and represents a conditional probability that event A will occur.
いま、畳み込み符号化が、時刻t=0の状態S0=0から開始され、符号化データXtの系列(時系列)X1 τ=X1,X2,・・・,Xτを出力し、時刻t=τの状態Sτ=0で終了することとする。 Now, convolutional coding starts from state S 0 = 0 at time t = 0, and outputs a sequence (time series) X 1 τ = X 1 , X 2 ,..., X τ of encoded data X t Then, it is assumed that the process ends in the state S τ = 0 at time t = τ.
さらに、無記憶通信路22が、符号化データ(の系列)X1 τの入力に対して、入力軟値データYtの系列Y1 τ=Y1,Y2,・・・,Yτを出力することとする。
Further, the
ここで、雑音がある無記憶通信路22の遷移確率は、すべての時刻t=1,2,・・・,τについて、式(2)を満たす関数R(|)によって定義される。
Here, the transition probability of the
ここで、関数R(Yj|Xj)は、時刻t=jの符号化データXjが、無記憶通信路22を介することにより、入力軟値データYjに変換される変換確率を表す。
Here, the function R (Y j | X j ) represents the conversion probability that the encoded data X j at time t = j is converted into the input soft value data Y j through the
そして、入力データitが取り得る値が、例えば、0又は1であるとすると、入力軟値データ(の系列)Y1 τ(=Y1,Y2,・・・,Yτ)が観測された場合の、時刻tの入力データitの尤度(を表す軟値のデータである出力軟値データ)λtは、入力軟値データY1 τが観測されたときに、入力データitが1である確率Pr{it=1|Y1 τ}と、入力軟値データY1 τが観測されたときに、入力データitが0である確率Pr{it=0|Y1 τ}とを用いて、式(3)で表される。
The possible values for input data i t is, for example, when a is 0 or 1, the input soft value data (series) Y 1 τ (= Y 1 ,
式(3)の出力軟値データλtを求めるために、確率αt(m),βt(m)、及びγt(m',m,i)を、次式で定義する。 In order to obtain the output soft value data λ t of Equation (3), the probabilities α t (m), β t (m), and γ t (m ′, m, i) are defined by the following equations.
式(4)の確率αt(m)は、入力軟値データYtの系列全体Y1 τの先頭の時刻である1から、ある時刻tまでの間において、入力軟値データの系列Y1 t=Y1,Y2,・・・,Ytが観測されたときに、トレリスにおいて、時刻tに、状態mにいる(St=m)確率Pr{St=m;Y1 t}であり、以下、適宜、前向き確率という。なお、Pr{A;B}は、事象AとBとがともに起こる確率を表す。
Equation (4) of the probability alpha t (m) is input soft
式(5)の確率βt(m)は、ある時刻t+1から、入力軟値データYtの系列全体Y1 τの最後の時刻τまでの間において、入力軟値データの系列Yt+1 τ=Yt+1,Yt+2,・・・,Yτが観測されるときに、トレリスにおいて、時刻tに、状態mにいる確率(時刻tに、状態mにいて、その後の時刻t+1から時刻τまでの間に、入力軟値データの系列Yt+1 τ=Yt+1,Yt+2,・・・,Yτが観測される確率)Pr{Yt+1 τ|St=m}であり、以下、適宜、後ろ向き確率という。 The probability β t (m) in the equation (5) is a sequence of input soft value data Y t from a certain time t + 1 to the last time τ of the entire sequence Y 1 τ of the input soft value data Y t. +1 τ = Y t + 1 , Y t + 2 , ..., Y τ When τ is observed, the probability that the trellis is in state m at time t (at time t, in state m and then Of the input soft value data Y t + 1 τ = Y t + 1 , Y t + 2 ,..., Y τ ) from time t + 1 to time τ) Pr {Y t + 1 τ | S t = m}, hereinafter referred to as a backward probability as appropriate.
式(6)の確率γt(m',m,i)は、トレリスにおいて、時刻t-1に、状態m'にいて、次の時刻tの入力データitがある値iであるときに、ある入力軟値データYtが観測され、時刻tに、状態mに遷移する確率(枝メトリック)Pr{St=m;Yt;it=i|St-1=m'}であり、以下、適宜、出力遷移確率という。 The probability γ t (m ′, m, i) in equation (6) is in the state m ′ at time t−1 and the input data it at the next time t is a certain value i in the trellis. , A certain input soft value data Y t is observed, and at time t, the probability of transition to state m (branch metric) Pr {S t = m; Y t ; i t = i | S t-1 = m '} Yes, hereinafter referred to as output transition probability as appropriate.
なお、前向き確率αt(m)は、符号化の開始時(t=0)の状態S0=0から、入力軟値データY1 t=Y1,Y2,・・・,Ytをもとに、時系列順に算出した時刻t-1における各状態0,1,・・・,M-1の通過確率に対応する。
The forward probability α t (m) is calculated from the input soft value data Y 1 t = Y 1 , Y 2 ,..., Y t from the state S 0 = 0 at the start of encoding (t = 0). Based on the passage probability of each
また、後ろ向き確率βt(m)は、符号化の終了時(t=τ)の状態Sτ=0から、入力軟値データの系列Yt+1 τ=Yt+1,Yt+2,・・・,Yτをもとに、時系列の逆順に算出した時刻tにおける各状態0,1,・・・,M-1の通過確率に対応する。
The backward probability β t (m) is determined from the state S τ = 0 at the end of encoding (t = τ), and the sequence of input soft value data Y t + 1 τ = Y t + 1 , Y t + 2 ,..., Y τ , corresponding to the passing probability of each
さらに、出力遷移確率γt(m',m,i)は、時刻tにおける入力軟値データYtと、入力データitが値iである入力確率とをもとに算出した、時刻tに、状態m'から状態mに遷移するトレリスの各枝の出力の受信確率に対応する。 Further, output transition probability γ t (m ', m, i) is an input soft value data Y t at time t, the input data i t is calculated based on the input probability value i, at time t , Corresponding to the reception probability of the output of each branch of the trellis from the state m ′ to the state m.
ここで、図4は、状態の個数Mが4個である場合の、出力遷移確率γt(m',m,i)を示している。 Here, FIG. 4 shows the output transition probability γ t (m ′, m, i) when the number M of states is four.
ここでは、上述したように、入力データitが取り得る値が0又は1の2通りであるので、時刻t-1のある1つの状態St-1から、時刻tの状態Stへの遷移の仕方も2通りある。そして、状態の個数Mが4個であるので、時刻t-1の状態St-1から、時刻tの状態Stへの遷移の仕方、つまり、時刻t-1の状態St-1から、時刻tの状態Stへの枝は、8通り(=2通り×4個)だけあり、出力遷移確率γt(m',m,i)は、その8通りの枝それぞれを通る確率を表す。 Here, as described above, since the possible values for input data i t is 2 kinds of 0 or 1, from one state S t-1 with a time t-1, at time t the state to S t There are two ways of transition. Then, since the number M of states is four, from a state S t-1 at time t-1, how the transition to state S t at time t, that is, from a state S t-1 at time t-1 branch to state S t at the time t is located only ways 8 (= 4 2 types ×), output transition probability γ t (m ', m, i) is the probability of passing through respective branches of the eight To express.
式(3)の出力軟値データλtは、前向き確率αt(m)、後ろ向き確率βt(m)、及び出力遷移確率γt(m',m,i)を用い、式(7)によって計算することができる。 The output soft value data λ t in Expression (3) uses the forward probability α t (m), the backward probability β t (m), and the output transition probability γ t (m ′, m, i). Can be calculated by:
ところで、式(4)の時刻tの前向き確率αt(m)は、その1時刻前の時刻t-1の前向き確率αt-1(m')と、時刻tの入力データitが値iであるときに、時刻t-1の状態St-1=m'から、時刻tの状態St=mに遷移する出力遷移確率γt(m',m,i)とを用いて、式(8)で表すことができる。 Meanwhile, forward probability alpha t (m) at time t in equation (4), and its one time before the time t-1 of the forward probability alpha t-1 (m '), the input data i t at time t is a value when a i, 'from the output transition probability gamma t a transition to a state S t = m at time t (m' state S t-1 = m at time t-1, m, i) and with, It can be expressed by equation (8).
ここで、図2の通信路モデルにおいて、畳み込み符号化は、上述したように、時刻t=0の状態S0=0から開始されるので、時刻t=0の前向き確率α0(m)は、式(9)で表される。 Here, in the channel model of FIG. 2, as described above, the convolutional coding is started from the state S 0 = 0 at time t = 0, so the forward probability α 0 (m) at time t = 0 is And represented by equation (9).
また、式(5)の時刻tの後ろ向き確率βt(m)は、その1時刻後の時刻t+1の後ろ向き確率βt+1(m')と、時刻t+1の入力データit+1が値iであるときに、時刻tの状態St=mから、時刻t+1の状態St+1=m'に遷移する出力遷移確率γt+1(m,m',i)とを用いて、式(10)で表すことができる。
In addition, the backward probability β t (m) at time t in Expression (5) is the backward probability β t + 1 (m ′) at time t + 1 one hour later and the input data i t at
ここで、図2の通信路モデルにおいて、畳み込み符号化は、上述したように、時刻t=τの状態Sτ=0で終了するので、時刻t=τの後ろ向き確率βτ(m)は、式(11)で表される。 Here, in the channel model of FIG. 2, as described above, the convolutional coding ends in the state S τ = 0 at time t = τ, so the backward probability β τ (m) at time t = τ is It is represented by Formula (11).
さらに、式(6)の出力遷移確率γt(m',m,i)は、時刻t-1の状態St-1=m'から、時刻tの状態St=mに遷移する状態遷移確率pt(m|m')(式(1))と、値iの入力データitを畳み込み符号化することにより得られる符号化データ(状態St-1=m'から状態St=mに遷移するときに、畳み込み符号器21が出力する符号化データ)Xが、無記憶通信路22を介することにより、時刻tの入力軟値データYtに変換される変換確率R(Yt|X)とを用いて、式(12)で表される。
Furthermore, expression output transition probability gamma t of (6) (m ', m , i) , the time t-1 of state S t-1 = m' from the state transition to transition to state S t = m at time t probability p t (m | m ') and (equation (1)), coded data (state obtained by convolutionally encoding the input data i t value i S t-1 = m' from a state S t = Conversion probability R (Y t ) in which the encoded data (X) output from the
図2の復号器23では、式(7)の出力軟値データλtが、式(8)ないし式(12)にしたがって求められる。
In the
すなわち、復号器23では、入力軟値データYtを受信するごとに、式(12)にしたがい、出力遷移確率γt(m',m,i)が求められ、さらに、その出力遷移確率γt(m',m,i)を用いて、式(8)(式(9))にしたがい、前向き確率αt(m)が求められる。
That is, every time the input soft value data Y t is received, the
さらに、復号器23は、入力軟値データの系列Y1 τすべてを受信すると、出力遷移確率γt+1(m',m,i)を用いて、式(10)(式(11))にしたがい、後ろ向き確率βt(m)を求める。
Further, when the
そして、復号器23は、すべての時刻t=1,・・・,τと、すべての状態m=0,1,・・・,M-1について求められた前向き確率αt(m)、後ろ向き確率βt(m)、及び出力遷移確率γt(m',m,i)を用いて、式(7)にしたがい、すべての時刻t=1,・・・,τについての出力軟値データλtを求める。
Then, the
BCJRアルゴリズムによれば、以上のようにして、出力軟値データλtが求められる。 According to the BCJR algorithm, the output soft value data λ t is obtained as described above.
ところで、BCJRアルゴリズムでは、積演算を含むために、演算量が大となる。また、BCJRアルゴリズムでは、符号化データが時刻t=τで終結している必要があるために、より長く続く符号化データ(連続データ)を復号することが困難である。 By the way, in the BCJR algorithm, the calculation amount is large because it includes product calculation. Further, in the BCJR algorithm, since the encoded data needs to end at time t = τ, it is difficult to decode encoded data (continuous data) that lasts longer.
そこで、積演算をなくして演算量を削減する軟入力軟出力復号の方法として、Max-Log-BCJRアルゴリズムや、Log-BCJRアルゴリズムが提案されている(例えば、非特許文献2を参照)。なお、非特許文献2では、Max-Log-BCJRアルゴリズム、又はLog-BCJRアルゴリズムは、それぞれ、Max-Log-MAPアルゴリズム、又はlog-MAPアルゴリズムと呼ばれている。
Therefore, Max-Log-BCJR algorithm and Log-BCJR algorithm have been proposed as methods of soft-input / soft-output decoding that eliminate the product operation and reduce the amount of computation (see, for example, Non-Patent Document 2). In
また、連続データを復号する軟入力軟出力復号の方法として、スライディングウインドウ処理を行うSW-BCJRアルゴリズムが提案されている(例えば、特許文献1や非特許文献3を参照)。
Further, as a soft input / soft output decoding method for decoding continuous data, a SW-BCJR algorithm that performs sliding window processing has been proposed (see, for example,
以下、Max-Log-BCJRアルゴリズム、Log-BCJRアルゴリズム、及びSW-BCJRアルゴリズムについて、簡単に説明する。 Hereinafter, the Max-Log-BCJR algorithm, the Log-BCJR algorithm, and the SW-BCJR algorithm will be briefly described.
まず、Max-Log-BCJRアルゴリズムでは、確率を、ネイピア数(Napier's constante)であるeを底とする対数(自然対数)で表し、確率の積演算を、式(13)に示すように、対数の和演算に置き換え、確率の和演算を、式(14)に示すように、対数の最大値演算で近似する。 First, in the Max-Log-BCJR algorithm, the probability is expressed as a logarithm (natural logarithm) with e being the Napier's constante, and the product of the probabilities is expressed as a logarithm as shown in Equation (13). The probability sum operation is approximated by a logarithmic maximum value operation as shown in Expression (14).
なお、max(x,y)は、xとyの中の最大値を選択することを表す。 Note that max (x, y) represents selecting the maximum value among x and y.
いま、前向き確率(を表すデータ)として、式(15)のαt'(m)を、後ろ向き確率(を表すデータ)として、式(16)のβt'(m)を、出力遷移確率(を表すデータ)として、式(17)のγt'(m',m,i)を、それぞれ採用することとする。 Now, α t ′ (m) in Expression (15) is used as the forward probability (data representing), β t ′ (m) in Expression (16) is used as the output probability ( Γ t ′ (m ′, m, i) in the equation (17) is respectively adopted as the data).
この場合、式(15)の前向き確率αt'(m)は、式(15)に式(8)を代入することにより、式(18)で近似することができる。 In this case, the forward probability α t ′ (m) of Equation (15) can be approximated by Equation (18) by substituting Equation (8) into Equation (15).
また、式(16)の後ろ向き確率βt'(m)は、式(16)に式(10)を代入することにより、式(19)で近似することができる。 Further, the backward probability β t ′ (m) of Expression (16) can be approximated by Expression (19) by substituting Expression (10) into Expression (16).
さらに、式(17)の出力遷移確率γt'(m',m,i)は、式(17)に式(12)を代入することにより、式(20)で表すことができる。 Furthermore, the output transition probability γ t ′ (m ′, m, i) of Expression (17) can be expressed by Expression (20) by substituting Expression (12) into Expression (17).
ここで、式(18)及び式(19)において、i=0,1についてのmax(下部に、i=0,1が記載されているmax)は、その後に続く値が、変数iが0のときにとる値と、変数iが1のときにとる値との中の、最大値を選択することを表す。 Here, in Expression (18) and Expression (19), max for i = 0,1 (max where i = 0,1 is described in the lower part) is a value that follows, and variable i is 0. Represents the selection of the maximum value among the value taken when, and the value taken when the variable i is 1.
また、式(18)及び式(19)において、m'についてのmaxは、その後に続く値が、各値の変数m'に対してとる値の中の最大値を選択することを表す。なお、m'についてのmaxは、m'が取り得る値としての状態0,1,・・・,M-1のうちの、入力データit=iがあったときに、状態mへの遷移が存在する状態m'を対象に求められる。 In Expressions (18) and (19), max for m ′ represents that the subsequent value selects the maximum value among the values taken for the variable m ′ of each value. Incidentally, m 'max of about, m' status as possible values for 0, 1, ..., of the M-1, when there is an input data i t = i, a transition to state m It is obtained for the state m ′ in which there exists.
式(15)ないし式(17)と同様に、出力軟値データとして、式(21)のλt'を採用することとすると、式(21)の出力軟値データλt'は、式(21)に、式(7)を代入することにより、式(22)で近似することができる。 Similarly to the equations (15) to (17), if λ t ′ of the equation (21) is adopted as the output soft value data, the output soft value data λ t ′ of the equation (21) By substituting equation (7) into 21), it can be approximated by equation (22).
ここで、式(22)において、m=0,1,・・・,M-1についてのmaxは、その後に続く値が、変数mが0,1,・・・,M-1それぞれのときにとる値の中の最大値を選択することを表す。 Here, in Equation (22), max for m = 0, 1,..., M-1 is the value that follows, when the variable m is 0, 1,. Indicates that the maximum value among the values taken in is selected.
また、式(22)において、m'についてのmaxは、その後に続く値が、各値の変数m'に対してとる値の中の最大値を選択することを表す。なお、式(22)右辺の第1項のm'についてのmaxは、m'が取り得る値としての状態0,1,・・・,M-1のうちの、入力データit=1があったときに、状態mへの遷移が存在する状態m'を対象に求められる。また、第2項のm'についてのmaxは、m'が取り得る値としての状態0,1,・・・,M-1のうちの、入力データit=0があったときに、状態mへの遷移が存在する状態m'を対象に求められる。
In Expression (22), max for m ′ indicates that the subsequent value selects the maximum value among the values taken for the variable m ′ of each value. Note that max for m ′ in the first term on the right side of the equation (22) is that the input data i t = 1 in the
図2の復号器23では、式(22)の出力軟値データλtを、式(18)ないし式(20)を用いて求めることができる。
In the
すなわち、復号器23では、入力軟値データYtを受信するごとに、式(20)にしたがい、出力遷移確率γt'(m',m,i)が求められ、さらに、その出力遷移確率γt'(m',m,i)を用いて、式(18)にしたがい、前向き確率αt'(m)が求められる。
That is, every time the input soft value data Y t is received, the
さらに、復号器23は、入力軟値データの系列Y1 τすべてを受信すると、出力遷移確率γt+1'(m',m,i)を用いて、式(19)にしたがい、後ろ向き確率βt'(m)を求める。
Further, when the
そして、復号器23は、すべての時刻t=1,・・・,τと、すべての状態m=0,1,・・・,M-1について求められた前向き確率αt'(m)、後ろ向き確率βt'(m)、及び出力遷移確率γt'(m',m,i)を用いて、式(22)にしたがい、すべての時刻t=1,・・・,τについての出力軟値データλt'を求める。
The
Max-Log-BCJRアルゴリズムによれば、以上のようにして、出力軟値データλt'が求められる。 According to the Max-Log-BCJR algorithm, the output soft value data λ t ′ is obtained as described above.
Max-Log-BCJRアルゴリズムには、積演算が含まれていないため、BCJRアルゴリズムに比較して、演算量を大幅に減らすことができる。 Since the Max-Log-BCJR algorithm does not include product operation, the amount of calculation can be greatly reduced compared to the BCJR algorithm.
ところで、和演算ex+eyの対数log(ex+ey)については、次式が成り立つ。 By the way, the following equation holds for the logarithm log (e x + e y ) of the sum operation e x + e y .
式(23)右辺のlog(1+e-|x-y|)は、|x-y|を変数とする1次元の関数となるので、各値の変数|x-y|と、その値の変数|x-y|に対する関数log(1+e-|x-y|)の値(関数値)とを対応付けたテーブル(以下、適宜、関数テーブルという)を準備しておけば、和演算ex+eyの対数log(ex+ey)は、関数テーブルを用い、式(23)にしたがって正確に求めることができる。 Since log (1 + e − | xy | ) on the right side of Expression (23) is a one-dimensional function having | xy | as a variable, each value has a variable | xy | and a variable | xy | function log (1 + e - | xy |) values (function values) and the association table (hereinafter referred to as function table) Once you have prepared, the sum operation e x + e y logarithm log ( e x + e y ) can be accurately obtained according to equation (23) using a function table.
Log-BCJRアルゴリズムでは、Max-Log-BCJRアルゴリズムにおいて式(14)で近似される確率の和演算が、式(23)にしたがって正確に求められる。 In the Log-BCJR algorithm, the sum operation of the probabilities approximated by Expression (14) in the Max-Log-BCJR algorithm is accurately obtained according to Expression (23).
したがって、Log-BCJRアルゴリズムでは、Max-Log-BCJRアルゴリズムと比較すると、式(23)右辺のlog(1+e-|x-y|)の加算分の演算量が増加するが、それでも、Max-Log-BCJRアルゴリズムと同様に、積演算は不要であり、さらに、式(22)で求められる出力軟値データλt'は、関数テーブルによって、式(23)右辺のlog(1+e-|x-y|)を求めるときに生じる量子化誤差を無視することができるとすれば、BCJRアルゴリズムで求められる式(7)のλtの対数をとった値に一致する。 Therefore, in the Log-BCJR algorithm, compared with the Max-Log-BCJR algorithm, the amount of calculation for the addition of log (1 + e − | xy | ) on the right side of Expression (23) increases. Similar to the -BCJR algorithm, the product operation is not required, and the output soft value data λ t ′ obtained by the equation (22) is expressed by log (1 + e − | xy on the right side of the equation (23) according to the function table. If it is possible to ignore the quantization error that occurs when obtaining | ), it matches the logarithm of λ t in equation (7) obtained by the BCJR algorithm.
次に、SW-BCJRアルゴリズムについて説明する。 Next, the SW-BCJR algorithm will be described.
BCJRアルゴリズムでは、入力軟値データの系列Y1 τすべてを受信してからでないと、後ろ向き確率βt(m)を求めることができないため、符号化データが時刻t=τで終結している必要があり、そのため、連続データを復号することが困難である。 In the BCJR algorithm, the backward probability β t (m) can be obtained only after the entire input soft value data series Y 1 τ has been received, so the encoded data must be terminated at time t = τ. Therefore, it is difficult to decode continuous data.
そこで、SW-BCJRアルゴリズムでは、ビタビ復号と同様に、打ち切り長Dを導入し、時刻t-Dから打ち切り長Dだけ後の時刻tの後ろ向き確率βt(m)に、初期値として、例えば、1/M(状態の個数M分の1)を与えることで、時刻t-Dの出力軟値データλt-Dが求められる。 Therefore, in the SW-BCJR algorithm, as with Viterbi decoding, a truncation length D is introduced, and the backward probability β t (m) at time t after the truncation length D from time tD is set as an initial value, for example, 1 / By giving M (1 / M number of states), output soft value data λ tD at time tD is obtained.
すなわち、図5は、SW-BCJRアルゴリズムを説明する図である。 That is, FIG. 5 is a diagram for explaining the SW-BCJR algorithm.
SW-BCJRアルゴリズムでは、時刻t=0の前向き確率α0'(m)の初期化が、例えば、BCJRアルゴリズムと同様に、式(9)にしたがって行われた後、入力軟値データYtを受信するごとに、以下の処理が行われ、これにより、連続データにつき、出力軟値データが求められる。 The SW-BCJR algorithm, the initialization of the forward probability alpha 0 at time t = 0 '(m) is, for example, like the BCJR algorithm, after performing in accordance with equation (9), an input soft value data Y t Each time it is received, the following processing is performed, whereby output soft value data is obtained for continuous data.
すなわち、SW-BCJRアルゴリズムでは、時刻tの入力軟値データYtが受信されると、式(12)にしたがい、出力遷移確率γt(m',m,i)が求められる。 That is, in the SW-BCJR algorithm, when the input soft value data Y t at time t is received, the output transition probability γ t (m ′, m, i) is obtained according to the equation (12).
また、後ろ向き確率βt(m)が、式(11)を用いずに、すべての状態m=0,1,・・・,M-1について、1/Mに初期化される。 Further, the backward probability β t (m) is initialized to 1 / M for all states m = 0, 1,..., M−1 without using the equation (11).
そして、時刻tから、打ち切り長Dだけ時間的に遡った時刻(前の時刻)t-Dの後ろ向き確率βt-D(m)が、既に求められている出力遷移確率γt-D+1(m',m,i),γt-D+2(m',m,i),・・・,γt(m',m,i)と、後ろ向き確率βt(m)の初期値1/Mとを用い、式(10)にしたがって求められる。
Then, the backward probability β tD (m) of the time (previous time) tD that is back in time from the time t by the truncation length D is the output transition probability γ t−D + 1 (m ′, m, i), γ t-D + 2 (m ', m, i), ..., γ t (m', m, i) and
さらに、時刻t-Dの後ろ向き確率βt-D(m)、及び、1時刻前の時刻t-1において求められた時刻t-D-1の前向き確率αt-D-1(m)、さらには、打ち切り長Dだけ前の時刻t-Dにおいて時刻t-Dの入力軟値データYt-Dを受信したときに求められた時刻t-Dの出力遷移確率γt-D(m',m,i)を用いて、式(24)にしたがい、時刻t-Dの出力軟値データλt-Dが求められる(図5)。 Furthermore, the backward probability β tD (m) at time tD, the forward probability α tD-1 (m) at time tD-1 obtained at time t-1 one time before, and further, the truncation length D before Using the output transition probability γ tD (m ′, m, i) at the time tD obtained when the input soft value data Y tD at the time tD is received at the time tD, the time tD Output soft value data λ tD is obtained (FIG. 5).
そして、時刻t-D-1の前向き確率αt-D-1(m)と、時刻t-Dの出力遷移確率γt-D(m',m,i)とを用いて、式(8)にしたがい、時刻t-Dの前向き確率αt-D(m)が求められる。この、時刻t-Dの前向き確率αt-D(m)は、次の時刻t+1の入力軟値データYt+1を受信したときに、式(24)により、時刻t-D+1の出力軟値データλt-D+1を求めるのに用いられる。 Then, using the forward probability α tD-1 (m) at time tD-1 and the output transition probability γ tD (m ′, m, i) at time tD, according to the equation (8), the forward probability at time tD The probability α tD (m) is obtained. This forward probability α tD (m) at time tD is calculated by the equation (24) when the input soft value data Y t + 1 at the next time t + 1 is received. Used to obtain value data λ t-D + 1 .
なお、非特許文献3には、SW-BCJRアルゴリズムの他、SW-BCJRアルゴリズムとLog-BCJRアルゴリズムとを組み合わせたSW-Log-BCJRアルゴリズム、及び、SW-BCJRアルゴリズムとMax-Log-BCJRアルゴリズムとを組み合わせたSW-Max-Log-BCJRアルゴリズム(非特許文献3では、SWAL-BCJRアルゴリズムと呼ばれている)も記載されている。
SW-Log-BCJRアルゴリズム、及びSW-Max-Log-BCJRアルゴリズムによれば、積演算なしで、連続データを復号することができる。 According to the SW-Log-BCJR algorithm and the SW-Max-Log-BCJR algorithm, continuous data can be decoded without product operation.
ここで、以下、適宜、出力遷移確率γt(m',m,i)(γt(m',m,i)の対数をとったγt'(m',m,i))も同様)を、単に、γと記載する。同様に、前向き確率αt(m)(αt(m)の対数をとったαt'(m)も同様)を、αと、後ろ向き確率βt(m)(βt(m)の対数をとったβt(m)も同様を、βと、出力軟値データλt(λtの対数をとったλt'も同様)を、λと、それぞれ記載する。 Hereafter, the same applies to the output transition probability γ t (m ′, m, i) (γ t ′ (m ′, m, i) which is the logarithm of γ t (m ′, m, i)). ) Is simply written as γ. Similarly, the logarithm of the forward probability α t (m) (α t (m) α t took the logarithm of the '(m) as well) and, α and, backward probability β t (m) (β t (m) the same applies to beta t (m) took, and beta, output soft value data lambda t a (lambda t logarithm lambda t 'similarly taken in), and lambda, described respectively.
軟入力軟出力の復号を行う場合には、出力軟値データλを求めるのに、過去に求められた出力遷移確率γと後ろ向き確率βをとっておく必要があるため、BCJRアルゴリズム等を実装する復号装置には、出力遷移確率γと後ろ向き確率βを記憶するメモリが必要となる。 When decoding soft inputs and soft outputs, it is necessary to take the output transition probability γ and backward probability β obtained in the past to obtain the output soft value data λ, so implement the BCJR algorithm etc. The decoding device requires a memory for storing the output transition probability γ and the backward probability β.
このようなメモリとしては、一般に、RAM(Random Access Memory)が用いられるが、RAMにおいては、一般に、ワード数が小さいと、データを記憶するメモリセル以外のオーバヘッドが占める割合が大になる。すなわち、ワード数が小さいRAMでは、1ワードあたりのRAMの規模(RAM全体の規模を、RAMのワード数で等分した規模)は、大になる。 As such a memory, a RAM (Random Access Memory) is generally used. However, in a RAM, generally, when the number of words is small, the ratio of overhead other than memory cells storing data increases. That is, in a RAM with a small number of words, the RAM size per word (the size of the entire RAM divided equally by the number of words in the RAM) becomes large.
したがって、復号装置に、例えば、SW-Log-BCJRアルゴリズムやSW-Max-Log-BCJRアルゴリズム等の、打ち切り長Dを用いる軟入力軟出力の復号のアルゴリズムを実装する場合には、打ち切り長Dが小さい(短い)と、ワード数が小さいRAMを用いて復号装置を構成することとなって、復号装置の回路規模が、いわば相対的に大になることになる。 Therefore, when the decoding apparatus is implemented with a soft input / soft output decoding algorithm using the truncation length D, such as the SW-Log-BCJR algorithm or the SW-Max-Log-BCJR algorithm, the truncation length D is If it is small (short), a decoding apparatus is configured using a RAM having a small number of words, and the circuit scale of the decoding apparatus becomes relatively large.
本発明は、このような状況に鑑みてなされたものであり、軟入力軟出力の復号装置の回路規模を小さくすることができるようにするものである。 The present invention has been made in view of such a situation, and makes it possible to reduce the circuit scale of a soft input / soft output decoding apparatus.
本発明の一側面の復号装置は、入力データを符号化した符号化データがチャネルを経由することにより得られる軟値のデータである入力軟値データを、前記入力データの尤度を表す軟値のデータである出力軟値データに復号する復号装置であり、前記入力軟値データから、前記出力軟値データを求める所定の計算を行う計算手段と、前記所定の計算に用いるデータを記憶する記憶手段とを備え、前記記憶手段が、レジスタを用いて構成された、データの書き込みと読み出しとを同時にすることが可能なメモリになっている。 A decoding device according to one aspect of the present invention provides a soft value representing the likelihood of the input data by converting the input soft value data, which is soft value data obtained by encoding the input data through the channel. A decoding device that decodes the output soft value data that is the data of the data, a calculation unit that performs a predetermined calculation for obtaining the output soft value data from the input soft value data, and a memory that stores data used for the predetermined calculation And the storage means is a memory configured by using a register and capable of simultaneously writing and reading data.
かかる一側面の復号装置では、前記入力軟値データから、前記出力軟値データを求める所定の計算に用いるデータを記憶する記憶手段が、レジスタを用いて構成され、データの書き込みと読み出しとが同時に行われる。 In such a decoding device, the storage means for storing data used for the predetermined calculation for obtaining the output soft value data from the input soft value data is configured using a register, and data writing and reading are performed simultaneously. Done.
本発明の一側面によれば、軟入力軟出力の復号装置の回路規模を小さくすることができる。 According to one aspect of the present invention, the circuit scale of a soft input / soft output decoding device can be reduced.
以下に本発明の実施の形態を説明するが、本発明の構成要件と、明細書又は図面に記載の実施の形態との対応関係を例示すると、次のようになる。この記載は、本発明をサポートする実施の形態が、明細書又は図面に記載されていることを確認するためのものである。従って、明細書又は図面中には記載されているが、本発明の構成要件に対応する実施の形態として、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その構成要件に対応するものではないことを意味するものではない。逆に、実施の形態が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。 Embodiments of the present invention will be described below. Correspondences between the constituent elements of the present invention and the embodiments described in the specification or the drawings are exemplified as follows. This description is intended to confirm that the embodiments supporting the present invention are described in the specification or the drawings. Therefore, even if there is an embodiment which is described in the specification or the drawings but is not described here as an embodiment corresponding to the constituent elements of the present invention, that is not the case. It does not mean that the form does not correspond to the constituent requirements. Conversely, even if an embodiment is described here as corresponding to a configuration requirement, that means that the embodiment does not correspond to a configuration requirement other than the configuration requirement. It's not something to do.
本発明の一側面の復号装置は、
入力データ(例えば、入力データitとしてのLDPC符号)を符号化した符号化データ(例えば、符号化データXt)がチャネル(例えば、図6のAWGNチャネル)を経由することにより得られる軟値のデータである入力軟値データ(例えば、入力軟値データYt)を、前記入力データの尤度を表す軟値のデータである出力軟値データ(例えば、出力軟値データλ)に復号する復号装置であり、
前記入力軟値データから、前記出力軟値データを求める所定の計算を行う計算手段(例えば、図10のγ計算部101や、α計算部108、第1β計算部109、第2β計算部110、λ計算部112)と、
前記所定の計算に用いるデータを記憶する記憶手段(例えば、図10の第1γメモリ203や、第2γメモリ204、第3γメモリ205、第4γメモリ206、βメモリ213)と
を備え、
前記記憶手段は、レジスタ(例えば、図11のレジスタ3031ないし303W)を用いて構成された、データの書き込みと読み出しとを同時にすることが可能なメモリである。
A decoding device according to one aspect of the present invention provides:
Input data (e.g., LDPC codes as the input data i t) encoded data was encoded (e.g., encoded data X t) is obtained by passing through the channel (e.g., AWGN channel in Fig. 6) soft value Input soft value data (for example, input soft value data Y t ) is decoded into output soft value data (for example, output soft value data λ) that is soft value data representing the likelihood of the input data. A decryption device,
Calculation means (for example, a
Storage means for storing data used for the predetermined calculation (for example, the
The storage means is a memory configured by using a register (for example, the registers 303 1 to 303 W in FIG. 11) capable of simultaneously writing and reading data.
一側面の復号装置は、
前記記憶手段として、
トレリスにおいて、時刻t-1に、状態m'にいて、次の時刻tの入力データitがある値iであるときに、ある入力軟値データYtが観測され、状態mに遷移する出力遷移確率γt(m',m,i)を表すデータを記憶する4つのγメモリ(例えば、図10の第1γメモリ203、第2γメモリ204、第3γメモリ205、及び第4γメモリ206)と、
ある時刻t+1以降に、前記入力軟値データの系列Yt+1,Yt+2,・・・が観測されるときに、前記トレリスにおいて、時刻tに、状態mにいる後ろ向き確率βt(m)を表すデータを記憶する1つのβメモリ(例えば、図10のβメモリ213)と
を備えることができる。
One aspect of the decoding device is:
As the storage means,
In the trellis, at time t−1, in the state m ′, when the input data it at the next time t is a certain value i, certain input soft value data Y t is observed, and the output transitions to the state m Four γ memories (for example, the
When the input soft value data series Y t + 1 , Y t + 2 ,... Is observed after a certain
一側面の復号装置は、
前記計算手段として、
前記出力遷移確率γt(m',m,i)を表すデータを計算するγ計算部(例えば、図10のγ計算部101)と、
前記出力遷移確率γt(m',m,i)を表すデータを用いて、前記入力軟値データの系列Y1,Y2,・・・,Ytが観測されたときに、前記トレリスにおいて、時刻tに、状態mにいる前向き確率αt(m)を表すデータを計算するα計算部(例えば、図10のα計算部108)と、
時刻tに、状態mにいて、次の時刻t+1に、状態m'に遷移する前記出力遷移確率γt+1(m,m',i)を表すデータを用いて、前記後ろ向き確率βt(m)を表すデータを計算するβ計算部(例えば、図10の第1β計算部109、及び第2β計算部110)と、
前記出力遷移確率γt(m',m,i)、時刻t-1に状態m'にいる前記前向き確率αt-1(m')、及び前記後ろ向き確率βt(m)を表すデータを用いて、時刻tの入力データitがある値iであることの尤度を表す前記出力軟値データλtを計算するλ計算部(例えば、図10のλ計算部112)と
を備えることができる。
One aspect of the decoding device is:
As the calculation means,
A γ calculation unit (for example,
The output transition probability γ t (m ', m, i) using the data representing the said input soft value sequence Y 1 data, Y 2, · · ·, when Y t is observed, in the trellis An α calculation unit (for example,
Using the data representing the output transition probability γ t + 1 (m, m ′, i) that is in the state m at time t and transitions to the state m ′ at the next
Data representing the output transition probability γ t (m ′, m, i), the forward probability α t-1 (m ′) in the state m ′ at time t−1, and the backward probability β t (m) using, lambda calculation unit for calculating the output soft values data lambda t representing the input likelihood that the data i t is a value i at time t (e.g.,
そして、この場合、一側面の復号装置は、
前記γ計算部で計算された前記出力遷移確率γt(m',m,i)を表すデータの書き込みと、前記前向き確率αt(m)を表すデータの計算、及び前記出力軟値データλtの計算に必要な前記出力遷移確率γt(m',m,i)を表すデータの読み出しとが同時に行われるように、前記γメモリに対するデータの書き込みと読み出しとを制御するγメモリ制御部(例えば、図10のγメモリ制御部202)と、
前記β計算部で計算された前記後ろ向き確率βt(m)を表すデータの書き込みと、前記出力軟値データλtの計算に必要な前記後ろ向き確率βt(m)を表すデータの読み出しとが同時に行われるように、前記βメモリに対するデータの書き込みと読み出しとを制御するβメモリ制御部(例えば、図10のβメモリ制御部211)と
をさらに備えることができる。
In this case, the decoding device of one aspect is
Writing of data representing the output transition probability γ t (m ′, m, i) calculated by the γ calculation unit, calculation of data representing the forward probability α t (m), and the output soft value data λ A γ memory control unit that controls writing and reading of data to and from the γ memory so that reading of data representing the output transition probability γ t (m ′, m, i) necessary for calculating t is performed simultaneously. (For example, the γ
Writing data representing the backward probability β t (m) calculated by the β calculating unit and reading data representing the backward probability β t (m) necessary for calculating the output soft value data λ t A β memory control unit (for example, a β
以下、図面を参照して、本発明の実施の形態について説明する。 Embodiments of the present invention will be described below with reference to the drawings.
図6は、本発明が適用される光ディスク装置の構成例を示している。 FIG. 6 shows a configuration example of an optical disc apparatus to which the present invention is applied.
図6の光ディスク装置においては、データの記録時には、図示せぬ光ディスクに記録する記録対象のデータが、リードソロモン符号器61に供給される。
In the optical disk apparatus of FIG. 6, when data is recorded, data to be recorded to be recorded on an optical disk (not shown) is supplied to the Reed-
ここで、記録対象のデータは、ビット列であり、各ビットは、0又は1のうちのいずれかの値をとる。 Here, the data to be recorded is a bit string, and each bit takes a value of 0 or 1.
リードソロモン符号器61は、記録対象のデータをリードソロモン符号に符号化し、0又は1のうちのいずれかの値をとるビット列としてのリードソロモン符号を、LDPC(Low Density Parity Check)符号器62に供給する。
The Reed-
LDPC符号器62は、リードソロモン符号器61からのリードソロモン符号を、LDPC符号に符号化し、その結果得られる、0又は1のうちのいずれかの値をとるビット列としてのLDPC符号を、入力データitとして、変調符号器63に供給する。
The
変調符号器63は、例えば、LDPC符号と17PP符号とを対応付けた変換テーブルを用いて、LDPC符号器62からの入力データitとしてのLDPC符号を、17PP符号等の変調符号に変調符号化し、0又は1のうちのいずれかの値をとるビット列としての17PP符号を、NRZI変換器64に供給する。
NRZI変換器64は、変調符号器63からの17PP符号をNRZI変換し、その結果得られるNRZI信号が、記録再生系65に供給される。記録再生系65は、NRZI変換器64からのNRZI信号を、図示せぬ光ディスクにピットの形で書き込む。
The
次に、図6の光ディスク装置においては、データの再生時には、記録再生系65が、光ディスクから再生信号を再生する。記録再生系65は、図1の記録再生系14と同様に、図示せぬA/D変換器や、等化器、PLL回路等を有し、光ディスクからの再生信号をA/D変換し、さらに、波形等化等の処理を施して、軟値のデータ(Yt)を出力する。なお、記録再生系65が内蔵するPLL回路では、再生信号に基づいて、光ディスク装置の各ブロックを動作させるためのクロック信号が生成される。
Next, in the optical disk apparatus shown in FIG. 6, when reproducing data, the recording / reproducing system 65 reproduces a reproduction signal from the optical disk. As with the recording / reproducing
記録再生系65が出力する軟値のデータは、SISO(Soft In Soft Out)復号器67に供給される。
Soft value data output from the recording / reproducing system 65 is supplied to a SISO (Soft In Soft Out)
ここで、図6の光ディスク装置において、光ディスクに対する記録再生を行う記録再生系65は、PR121チャネル、PR1221チャネル、又はPR12221チャネルなどのPRチャネルと、AWGNチャネルとから構成されると考えることができる。 Here, in the optical disc apparatus of FIG. 6, the recording / reproducing system 65 that performs recording / reproducing with respect to the optical disc can be considered to be composed of a PR channel such as a PR121 channel, a PR1221 channel, or a PR12221 channel, and an AWGN channel.
したがって、NRZI変換器64が出力するNRZI信号は、記録再生系65において、PRチャネルを介することにより、符号間干渉を受けた信号となり、さらに、AWGNチャネルを介することにより、ノイズが付加され、軟値のデータとして出力される。
Therefore, the NRZI signal output from the
PRチャネルは、トレリスで表現することができ、トレリスで表現することができるPRチャネルに、NRZI変換器64を含めたチャネルsys#21も、トレリスで表現することができる。
The PR channel can be represented by a trellis, and the
また、変調符号器63の入力から出力までのチャネルは、有効な枝と無効な枝、つまり、可能な遷移が時刻によって変化する時変トレリスで表現することができる。
Further, the channel from the input to the output of the
そして、トレリスで表現することができるチャネルsys#21に、時変トレリスで表現することができる変調符号器63を含めたチャネルsys#22も、トレリス(時変トレリス)で表現することができる。
A
トレリスで表現することができるチャネルを経由して(介して)得られた軟値のデータは、最尤復号により硬値のデータに復号することができるが、図6の光ディスク装置では、リードソロモン符号器61の直後に、LDPC符号器62が設けられており、このため、リードソロモン符号を復号する直前に、LDPC符号を復号する必要がある。そこで、図6の光ディスク装置には、LDPC符号を復号する、後述するLDPC復号器68が設けられている。
Soft value data obtained via (via) a channel that can be represented by a trellis can be decoded into hard value data by maximum likelihood decoding. However, in the optical disc apparatus of FIG. An
LDPC復号器68でのLDPC符号の復号は、LDPC符号の尤度を表す軟値を入力として行われるので(軟入力(Soft-Input)を対象に行われるので)、LDPC復号器68には、LDPC符号の尤度を表す軟値、すなわち、ここでは、LDPC符号器62から変調符号器63への入力データitとしてのLDPC符号の尤度を表す軟値(λt)を入力として与える必要がある。
Since decoding of the LDPC code in the
このため、SISO復号器67では、記録再生系65からの軟値のデータ(入力軟値データYt)を、後段のLDPC復号器68に与える軟値のデータ(出力軟値データλt)に復号する軟入力軟出力の復号が行われ、その復号によって得られる軟値のデータが、LDPC復号器68に供給される。なお、SISO復号器67は、例えば、SW-Log-BCJRアルゴリズム、又はSW-Max-Log-BCJRアルゴリズムにしたがって、軟入力軟出力の復号を行う。
Therefore, the
ここで、SISO復号器67は、図2の復号器23に相当し、記録再生系65のAWGNチャネルは、図2の無記憶通信路22に相当する。そして、変調符号器63、NRZI変換器64、及び記録再生系65のPRチャネルで構成され、トレリスで表現されるチャネルsys#22は、図2の畳み込み符号器21に相当する。したがって、チャネルsys#22は、入力データitとしてのLDPC符号を、符号化データXtに符号化する符号器(畳み込み符号器)とみなすことができる。
Here, the
LDPC復号器68は、SISO復号器67からの軟値のデータを、0又は1のうちのいずれかの値をとるビット列であるリードソロモン符号に復号し、リードソロモン復号器69に供給する。
The
リードソロモン復号器69は、LDPC復号器68からの、0又は1のうちのいずれかの値をとるビット列であるリードソロモン符号を、元の、0又は1のうちのいずれかの値をとるデータに復号して出力する。
The Reed-
次に、図7は、図6の記録再生系65から供給される軟値のデータを、入力軟値データYtとして、その入力軟値データYtを出力軟値データλtに復号する軟入力軟出力の復号を行うSISO復号器67の構成例を示している。
Next, FIG. 7, the data of the soft values supplied from the recording and reproducing system 65 of FIG. 6, as the input soft value data Y t, soft decrypting the input soft value data Y t to output soft values data lambda t The example of a structure of the
図7のSISO復号器67では、出力遷移確率γと後ろ向き確率βを記憶するメモリとして、シングルポートのRAMが採用されている。そして、出力遷移確率γを記憶するメモリとして、5個(5バンク)のシングルポートのRAMである第1γRAM103、第2γRAM104、第3γRAM105、第4γRAM106、及び第5γRAM107が設けられているとともに、後ろ向き確率βを記憶するメモリとして、2個(2バンク)のシングルポートのRAMである第1βRAM113、及び第2βRAM114が設けられている。
In the
すなわち、図7のSISO復号器67は、制御部100、γ計算部101、γRAM制御部102、第1γRAM103、第2γRAM104、第3γRAM105、第4γRAM106、第5γRAM107、α計算部108、第1β計算部109、第2β計算部110、βRAM制御部111、λ計算部112、第1βRAM113、及び第2βRAM114から構成されており、例えば、SW-Max-Log-BCJRアルゴリズムにしたがい、入力軟値データYtに対して、その入力軟値データYtの復号結果としての出力軟値データλを、打ち切り長Dの4倍の遅延時間4Dで出力する。
That is, the
ここで、出力遷移確率γを記憶するメモリとして、5バンクのシングルポートのRAMを採用するとともに、後ろ向き確率βを記憶するメモリとして、2バンクのシングルポートのRAMを採用し、入力軟値データYtに対して、その入力軟値データYtの復号結果としての出力軟値データλを、打ち切り長Dの4倍の遅延時間4Dで出力する復号装置は、例えば、T. Miyauchi, K. Yamamoto, T. Yokokawa, M. Kan, Y. Mizutani, and M. Hattori, "High-Performance Programmable SISO Decoder VLSI Implementation for Decoding Turbo Codes", in Global Telecommunications Conference, 2001(GLOBECOM'01), San Antonio, TX, USA, vol. 1, 2001, pp. 305-309.に記載されている。 Here, a 5-bank single-port RAM is adopted as a memory for storing the output transition probability γ, and a 2-bank single-port RAM is adopted as a memory for storing the backward probability β. against t, the output soft values data λ as a decoding result of the input soft value data Y t, decoding apparatus for outputting at four times the delay time of 4D terminating length D, for example, T. Miyauchi, K. Yamamoto , T. Yokokawa, M. Kan, Y. Mizutani, and M. Hattori, "High-Performance Programmable SISO Decoder VLSI Implementation for Decoding Turbo Codes", in Global Telecommunications Conference, 2001 (GLOBECOM'01), San Antonio, TX, USA, vol. 1, 2001, pp. 305-309.
図7のSISO復号器67において、制御部100は、γ計算部101、γRAM制御部102、α計算部108、第1β計算部109、第2β計算部110、βRAM制御部111、及びλ計算部112が連携して、入力軟値データYtを出力軟値データλtに復号するための処理を行うように、γ計算部101、γRAM制御部102、α計算部108、第1β計算部109、第2β計算部110、βRAM制御部111、及びλ計算部112を制御する。
In the
γ計算部101には、図6の記録再生系65から、時刻tの入力軟値データYt(D101)が供給される。 Input soft value data Y t (D101) at time t is supplied from the recording / reproducing system 65 of FIG.
γ計算部101は、時刻tの入力軟値データYtに対して、例えば、式(20)にしたがい、トレリスの時刻tの枝すべて、つまり、時刻t-1の状態St-1から時刻tの状態Stへの遷移を表す枝すべてに対する出力遷移確率γ(の集合)を計算し、データD102として、γRAM制御部102に供給する。
For the input soft value data Y t at time t, for example, the
ここで、データD102のビット幅は、SISO復号器67が対象とするトレリスの枝数と、1つの枝に対する出力遷移確率γのビット数との積[ビット]である。
Here, the bit width of the data D102 is the product [bits] of the number of branches of the trellis targeted by the
γRAM制御部102は、γ計算部101から供給される出力遷移確率γを、所定の順序で、第1γRAM103、第2γRAM104、第3γRAM105、第4γRAM106、又は第5γRAM107に書き込む書き込み制御と、その第1γRAM103ないし第5γRAM107から、出力遷移確率γを、所定の順で読み出す読み出し制御を行う。
The
すなわち、γRAM制御部102は、第1γRAM103に対して、出力遷移確率γを、データD103として読み書きする読み書き制御を行う。同様に、γRAM制御部102は、第2γRAM104に対して、出力遷移確率γを、データD104として読み書きする読み書き制御を、第3γRAM105に対して、出力遷移確率γを、データD105として読み書きする読み書き制御を、第4γRAM106に対して、出力遷移確率γを、データD106として読み書きする読み書き制御を、第5γRAM107に対して、出力遷移確率γを、データD107として読み書きする読み書き制御を、それぞれ行う。
That is, the
そして、第1γRAM103ないし第5γRAM107は、γRAM制御部102の制御にしたがって、出力遷移確率γを記憶する。
Then, the
ここで、データD103ないしD107のビット幅は、いずれも、トレリスの枝数と、1つの枝に対する出力遷移確率γのビット数との積[ビット]である。 Here, each of the bit widths of the data D103 to D107 is a product [bits] of the number of branches of the trellis and the number of bits of the output transition probability γ for one branch.
また、第1γRAM103ないし第5γRAM107は、1ワードが、トレリスの枝数と、1つの枝に対する出力遷移確率γのビット数との積[ビット]で、打ち切り長Dに等しいワード数だけの記憶容量を有する。
In the
γRAM制御部102は、第1γRAM103ないし第5γRAM107から読み出した出力遷移確率γを、データD108,D109,D110、又はD115として、α計算部108、第1β計算部109、第2β計算部110、又はλ計算部112に供給する。
The
ここで、データD108,D109,D110、及びD115のビット幅は、いずれも、トレリスの枝数と、1つの枝に対する出力遷移確率γのビット数との積[ビット]である。 Here, the bit widths of the data D108, D109, D110, and D115 are all the products [bits] of the number of branches of the trellis and the number of bits of the output transition probability γ for one branch.
また、γRAM制御部102から、α計算部108に供給されるデータD108と、λ計算部112に供給されるデータD115とは、トレリスの、ある時刻tαの枝すべてに対する出力遷移確率γである。
The data D108 supplied from the
さらに、γRAM制御部102から、第1β計算部109に供給されるデータD109は、トレリスの、ある時刻tβ1+1の枝すべてに対する出力遷移確率γであり、γRAM制御部102から、第2β計算部110に供給されるデータD110は、トレリスの、ある時刻tβ2+1の枝すべてに対する出力遷移確率γである。
Further, the data D109 supplied from the
α計算部108は、γRAM制御部102からのトレリスの時刻tαの枝すべてに対する出力遷移確率γ(D108)を用い、例えば、式(18)にしたがって、トレリスの時刻tαの状態すべてに対する前向き確率α(の集合)を計算し、データD116として、λ計算部112に供給する。
ここで、データD116のビット幅は、トレリスの状態(1時刻の状態)の個数Mと、1つの状態に対する前向き確率αのビット数との積[ビット]である。 Here, the bit width of the data D116 is the product [bits] of the number M of trellis states (states at one time) and the number of bits of the forward probability α for one state.
一方、第1β計算部109は、γRAM制御部102からのトレリスの時刻tβ1+1の枝すべてに対する出力遷移確率γ(D109)を用い、例えば、式(19)にしたがって、トレリスの時刻tβ1の状態すべてに対する後ろ向き確率β(の集合)を計算し、データD111として、βRAM制御部111に供給する。
On the other hand, the first
同様に、第2β計算部110も、γRAM制御部102からのトレリスの時刻tβ2+1の枝すべてに対する出力遷移確率γ(D110)を用い、式(19)にしたがって、トレリスの時刻tβ2の状態すべてに対する後ろ向き確率β(の集合)を計算し、データD112として、βRAM制御部111に供給する。
Similarly, the
ここで、データD111及びD112のビット幅は、トレリスの状態の個数Mと、1つの状態に対する後ろ向き確率βのビット数との積[ビット]である。 Here, the bit width of the data D111 and D112 is the product [bits] of the number M of trellis states and the number of bits of the backward probability β for one state.
βRAM制御部111は、第1β計算部109と第2β計算部110それぞれから供給される後ろ向き確率βを、所定の順序で、第1βRAM113、又は第2βRAM114に書き込む書き込み制御と、その第1βRAM113又は第2βRAM114から、後ろ向き確率βを、所定の順で読み出す読み出し制御を行う。
The
すなわち、βRAM制御部111は、第1βRAM113に対して、後ろ向き確率βを、データD113として読み書きする読み書き制御を行う。同様に、βRAM制御部111は、第2βRAM114に対して、後ろ向き確率βを、データD114として読み書きする読み書き制御を、それぞれ行う。
That is, the
そして、第1βRAM113と第2βRAM114は、βRAM制御部111の制御にしたがって、後ろ向き確率βを記憶する。
Then, the
ここで、データD113とD114のビット幅は、いずれも、トレリスの状態の個数Mと、1つの状態に対する後ろ向き確率βのビット数との積[ビット]である。 Here, the bit widths of the data D113 and D114 are both the product [bits] of the number M of trellis states and the number of bits of the backward probability β for one state.
また、第1βRAM113と第2βRAM114は、1ワードが、トレリスの状態の個数Mと、1つの状態に対する後ろ向き確率βのビット数との積[ビット]で、打ち切り長Dに等しいワード数だけの記憶容量を有する。
The
βRAM制御部111は、第1βRAM113、又は第2βRAM114から読み出した後ろ向き確率βを、データD117として、λ計算部112に供給する。
The
ここで、データD117のビット幅は、トレリスの状態の個数Mと、1つの状態に対する後ろ向き確率βのビット数との積[ビット]であり、そのデータD117として、βRAM制御部111からλ計算部112に供給される後ろ向き確率βは、トレリスの時刻tαの状態すべてに対する後ろ向き確率β(の集合)である。
Here, the bit width of the data D117 is the product [bits] of the number M of trellis states and the number of bits of the backward probability β for one state. As the data D117,
λ計算部112は、γRAM制御部102から供給される時刻tの出力遷移確率γ(D115)、α計算部108から供給される時刻t-1の前向き確率α(D116)、及びβRAM制御部111から供給される時刻tの後ろ向き確率βを用い、例えば、式(22)にしたがって、時刻tの出力軟値データλを求めて、データD118として、LDPC復号器68(図6)に供給する。
The
ここで、データD118のビット幅は、1時刻の入力データitのビット数と、出力軟値データλのビット数との積[ビット]である。 Here, the bit width of the data D118 includes a number of bits of one time of the input data i t, which is the product [bit] of the number of bits of the output soft values data lambda.
次に、図8を参照して、図7のγRAM制御部102による第1γRAM103ないし第5γRAM107に対する読み書き制御(メモリマネジメント)の処理と、βRAM制御部111による第1βRAM113及び第2βRAM114に対する読み書き制御の処理とについて説明する。
Next, referring to FIG. 8, read / write control (memory management) processing for the
ここで、上述したように、第1γRAM103ないし第5γRAM107と、第1βRAM113及び第2βRAM114とは、すべてシングルポートのRAMであり、1時刻においては、データの書き込み、又は読み出しのうちの一方しかすることができない。
Here, as described above, the
時刻t=0ないしD-1では、ステップS11の処理として、γRAM制御部102は、γ計算部101から供給される出力遷移確率γ(D102)を、時刻順に、第1γRAM103のアドレスの小さいワードから大きいワードに書き込む。
From time t = 0 to
時刻t=Dないし2D-1では、ステップS12の処理として、γRAM制御部102は、γ計算部101から供給される出力遷移確率γ(D102)を、時刻順に、第2γRAM104のアドレスの小さいワードから大きいワードに書き込む。
From time t = D to 2D−1, as the processing of step S12, the
時刻t=2Dないし3D-1では、ステップS13の処理として、γRAM制御部102は、γ計算部101から供給される出力遷移確率γ(D102)を、時刻順に、第3γRAM105のアドレスの小さいワードから大きいワードに書き込む。
From time t = 2D to 3D-1, as the process of step S13, the
さらに、ステップS13の処理として、γRAM制御部102は、第2γRAM104のアドレスの大きいワードから小さいワードの順に、出力遷移確率γを読み出し、つまり、時刻を遡る順(過去に向かう方向)に、出力遷移確率γを読み出し、データD109として、第1β計算部109に供給する。
Further, as the processing of step S13, the
第1β計算部109では、γRAM制御部102からの出力遷移確率γを用いて、後ろ向き確率βが計算される。なお、第1β計算部109は、時刻t=2Dないし3D-1において、後ろ向き確率βを計算するにあたり、時刻t=2Dにおいて、後ろ向き確率β(時刻3Dの後ろ向き確率β3D(m))を、1/Mに初期化する。
The first
時刻t=3Dないし4D-1では、ステップS14の処理として、γRAM制御部102は、γ計算部101から供給される出力遷移確率γ(D102)を、時刻順に、第4γRAM106のアドレスの小さいワードから大きいワードに書き込む。
From time t = 3D to 4D−1, as the processing of step S14, the
さらに、ステップS14の処理として、γRAM制御部102は、第3γRAM105のアドレスの大きいワードから小さいワードの順に、時刻を遡る順の出力遷移確率γを読み出し、データD110として、第2β計算部110に供給する。
Further, as the processing of step S14, the
第2β計算部110では、γRAM制御部102からの出力遷移確率γを用いて、後ろ向き確率βが計算される。なお、第2β計算部110は、時刻t=3Dないし4D-1において、後ろ向き確率βを計算するにあたり、時刻t=3Dにおいて、後ろ向き確率β(時刻4Dの後ろ向き確率β4D(m))を、1/Mに初期化する。
The second
さらに、また、ステップS14の処理として、γRAM制御部102は、第1γRAM103のアドレスの大きいワードから小さいワードの順に、時刻を遡る順の出力遷移確率γを読み出し、データD109として、第1β計算部109に供給する。
Further, as the processing of step S14, the
第1β計算部109では、γRAM制御部102からの出力遷移確率γ(と、ステップS13において、第1β計算部109で求められた後の時刻の後ろ向き確率βと)を用いて、後ろ向き確率βが計算され、βRAM制御部111に供給される。
The first
βRAM制御部111は、第1β計算部109からの後ろ向き確率βを、データD113として、第1βRAM113に供給し、その後ろ向き確率βを、時間を遡る順に、第1βRAM113のアドレスの大きいワードから小さいワードに書き込む。
The
時刻t=4Dないし5D-1では、ステップS15の処理として、γRAM制御部102は、γ計算部101から供給される出力遷移確率γ(D102)を、時刻順に、第5γRAM107のアドレスの小さいワードから大きいワードに書き込む。
From time t = 4D to 5D−1, as the processing of step S15, the
さらに、ステップS15の処理として、γRAM制御部102は、第4γRAM106のアドレスの大きいワードから小さいワードの順に、出力遷移確率γを読み出し、データD109として、第1β計算部109に供給する。
Further, as the processing of step S15, the
第1β計算部109は、γRAM制御部102からの出力遷移確率γを用いて後ろ向き確率を計算する。なお、第1β計算部109は、時刻t=4Dないし5D-1において、後ろ向き確率βを計算するにあたり、時刻t=4Dにおいて、後ろ向き確率β(時刻5Dの後ろ向き確率β5D(m))を、1/Mに初期化する。
The first
さらに、また、ステップS15の処理として、γRAM制御部102は、第2γRAM104のアドレスの大きいワードから小さいワードの順に、出力遷移確率γを読み出し、データD110として、第2β計算部110に供給する。
Further, as the processing of step S15, the
第2β計算部110では、γRAM制御部102からの出力遷移確率γ(と、ステップS14において、第2β計算部110で求められた後の時刻の後ろ向き確率βと)を用いて、後ろ向き確率βが計算され、βRAM制御部111に供給される。
The second
βRAM制御部111は、第2β計算部110からの後ろ向き確率βを、データD114として、第2βRAM114に供給し、その後ろ向き確率βを、時間を遡る順に、第2βRAM114のアドレスの大きいワードから小さいワードに書き込む。
The
同時に、γRAM制御部102は、第1γRAM103のアドレスの小さいワードから大きいワードの順に、出力遷移確率γを読み出し、データD108として、α計算部108に供給するとともに、データD115として、λ計算部112に供給する。
At the same time, the
α計算部108は、γRAM制御部102からデータD108として供給される出力遷移確率γを用いて、前向き確率αを計算し、データD116として、λ計算部112に供給する。
The
また、このとき、βRAM制御部111は、第1βRAM113のアドレスの小さいワードから大きいワードの順に、後ろ向き確率βを読み出し、つまり、時刻順に、後ろ向き確率βを読み出し、データD117として、λ計算部112に供給する。
At this time, the
λ計算部112は、γRAM制御部102からデータD115として供給される出力遷移確率γ、α計算部108からデータD116として供給される前向き確率α、及び、βRAM制御部111からデータD117として供給される後ろ向き確率βを用いて、出力軟値データλを計算し、データD118として出力する。
The
時刻t=5Dないし6D-1では、ステップS16の処理として、γRAM制御部102は、γ計算部101から供給される出力遷移確率γ(D102)を、時刻順に、第1γRAM103のアドレスの小さいワードから大きいワードに書き込む。
From time t = 5D to 6D−1, as the processing of step S16, the
さらに、ステップS16の処理として、γRAM制御部102は、第5γRAM107のアドレスの大きいワードから小さいワードの順に、時刻を遡る順の出力遷移確率γを読み出し、データD110として、第2β計算部110に供給する。
Further, as the processing of step S16, the
第2β計算部110は、γRAM制御部102からの出力遷移確率γを用いて、後ろ向き確率βを計算する。なお、第2β計算部110は、時刻t=5Dないし6D-1において、後ろ向き確率βを計算するにあたり、時刻t=5Dにおいて、後ろ向き確率βを、1/Mに初期化する。
The second
さらに、また、ステップS16の処理として、γRAM制御部102は、第3γRAM105のアドレスの大きいワードから小さいワードの順に、時刻を遡る順の出力遷移確率γを読み出し、データD109として、第1β計算部109に供給する。
Further, as the processing of step S16, the
第1β計算部109では、γRAM制御部102からの出力遷移確率γを用いて、後ろ向き確率βが計算され、βRAM制御部111に供給される。
In the first
βRAM制御部111は、第1β計算部109からの後ろ向き確率βを、データD113として、第1βRAM113に供給し、その後ろ向き確率βを、時間を遡る順に、第1βRAM113のアドレスの大きいワードから小さいワードに書き込む。
The
同時に、γRAM制御部102は、第2γRAM104のアドレスの小さいワードから大きいワードの順に、出力遷移確率γを読み出し、データD108として、α計算部108に供給するとともに、データD115として、λ計算部112に供給する。
At the same time, the
α計算部108は、γRAM制御部102からデータD108として供給される出力遷移確率γを用いて、前向き確率αを計算し、データD116として、λ計算部112に供給する。
The
また、このとき、βRAM制御部111は、第2βRAM114のアドレスの小さいワードから大きいワードの順に、時刻順の後ろ向き確率βを読み出し、データD117として、λ計算部112に供給する。
At this time, the
λ計算部112は、γRAM制御部102からデータD115として供給される出力遷移確率γ、α計算部108からデータD116として供給される前向き確率α、及び、βRAM制御部111からデータD117として供給される後ろ向き確率βを用いて、出力軟値データλを計算し、データD118として出力する。
The
以下、同様にして、第1γRAM103ないし第5γRAM107に対する読み書き制御の処理と、第1βRAM113及び第2βRAM114に対する読み書き制御の処理とが行われる。
Thereafter, similarly, read / write control processing for the
すなわち、5以上の整数値の変数jについて、時刻t=j×Dないし(j+1)×D-1では、γ計算部101で求められた時刻順の出力遷移確率γ(D102)が、第1γRAM103ないし第5γRAM107のアドレスの小さいワードから大きいワードに書き込まれる。
That is, for a variable j having an integer value of 5 or more, at time t = j × D or (j + 1) × D−1, the output transition probability γ (D102) in time order obtained by the
ここで、出力遷移確率γの書き込みの対象となるのは、変数j=5では、第1γRAM103であり、変数j=6では、第2γRAM104であり、変数j=7では、第3γRAM105であり、変数j=8では、第4γRAM106であり、変数j=9では、第5γRAM107であり、変数j=10では、第1γRAM103である。以下、同様のパターンが繰り返される。
Here, the target of writing of the output transition probability γ is the
また、同時に、第1γRAM103ないし第5γRAM107のアドレスの大きいワードから小さいワードの順に、時刻を遡る順の出力遷移確率γが読み出され、その出力遷移確率γを用い、第1β計算部109、又は第2β計算部110で、第1βRAM113、及び第2βRAM114に記憶されない後ろ向き確率β(以下、適宜、後ろ向き確率β1と記載する)が計算される。なお、後ろ向き確率β1のを計算にあたり、時刻t=(i+5)×Dにおいて、後ろ向き確率β1は、1/Mに初期化される。
At the same time, output transition probabilities γ are read out in order from the largest address to the smallest word in the
ここで、後ろ向き確率β1の計算に用いられる出力遷移確率γの読み出しの対象となるのは、変数j=5では、第5γRAM107であり、変数j=6では、第1γRAM103であり、変数j=7では、第2γRAM104であり、変数j=8では、第3γRAM105であり、変数j=9では、第4γRAM106であり、変数j=10では、第5γRAM107である。以下、同様のパターンが繰り返される。
Here, the output transition probability γ used for the calculation of the backward probability β1 is the target of reading the
また、後ろ向き確率β1の計算を行うのは、変数j=5では、第2β計算部110であり、変数j=6では、第1β計算部109であり、変数j=7では、第2β計算部110である。以下、同様のパターンが繰り返される。
The backward probability β1 is calculated by the second
時刻t=j×Dないし(j+1)×D-1では、さらに、第1γRAM103ないし第5γRAM107のアドレスの大きいワードから小さいワードの順に、時刻を遡る順の出力遷移確率γが読み出され、その出力遷移確率γを用い、第1β計算部109、又は第2β計算部110で、第1βRAM113、及び第2βRAM114に記憶される後ろ向き確率β(以下、適宜、後ろ向き確率β2と記載する)が計算される。
At time t = j × D to (j + 1) × D−1, the output transition probability γ in the order of going back in time is read out in the order from the word with the largest address in the
さらに、後ろ向き確率β2は、第1βRAM113、又は第2βRAM114のアドレスの大きいワードから小さいワードに、時間を遡る順に書き込まれる(記憶される)。
Further, the backward probability β2 is written (stored) in the order of going back in time from the word having the larger address in the
ここで、後ろ向き確率β2の計算に用いられる出力遷移確率γの読み出しの対象となるのは、変数j=5では、第3γRAM105であり、変数j=6では、第4γRAM106であり、変数j=7では、第5γRAM107であり、変数j=8では、第1γRAM103であり、変数j=9では、第2γRAM104であり、変数j=10では、第3γRAM105である。以下、同様のパターンが繰り返される。
Here, the output transition probability γ used for the calculation of the backward probability β2 is the target of reading the
また、後ろ向き確率β2の計算を行うのは、変数j=5では、第1β計算部109であり、変数j=6では、第2β計算部110であり、変数j=7では、第1β計算部109である。以下、同様のパターンが繰り返される。
The backward probability β2 is calculated by the first
さらに、後ろ向き確率β2の書き込みの対象となるのは、変数j=5では、第1βRAM113であり、変数j=6では、第2βRAM114であり、変数j=7では、第1βRAM113である。以下、同様のパターンが繰り返される。
Further, the writing probability of the backward probability β2 is the
また、同時に、第1γRAM103ないし第5γRAM107のアドレスの小さいワードから大きいワードの順に、時刻順の出力遷移確率γが読み出され、データD108として、α計算部108に供給されるとともに、データD115として、λ計算部112に供給される。
At the same time, the output transition probability γ in the order of time is read from the
α計算部108は、データD108として供給される出力遷移確率γを用いて、前向き確率αを計算し、データD116として、λ計算部112に供給する。
The
また、このとき、第1βRAM113、又は第2βRAM114のアドレスの小さいワードから大きいワードの順に、時刻順の後ろ向き確率β2が読み出され、データD117として、λ計算部112に供給される。
At this time, the backward probability β2 in the order of time is read in the order from the word with the smallest address in the
λ計算部112では、データD115として供給される出力遷移確率γ、データD116として供給される前向き確率α、及び、データD117として供給される後ろ向き確率β2を用いて、出力軟値データλが計算され、データD118として出力される。
The
ここで、前向き確率αと出力軟値データλの計算に用いられる出力遷移確率γの読み出しの対象となるのは、変数j=5では、第2γRAM104であり、変数j=6では、第3γRAM105であり、変数j=7では、第4γRAM106であり、変数j=8では、第5γRAM107であり、変数j=9では、第1γRAM103であり、変数j=10では、第2γRAM104である。以下、同様のパターンが繰り返される。
Here, the target of reading the output transition probability γ used for the calculation of the forward probability α and the output soft value data λ is the
また、後ろ向き確率β2の読み出しの対象となるのは、変数j=5では、第2βRAM114であり、変数j=6では、第1βRAM113であり、変数j=7では、第2βRAM114である。以下、同様のパターンが繰り返される。
The target of reading the backward probability β2 is the
次に、図9を参照して、第1γRAM103ないし第5γRAM107に対する読み書き制御と、第1βRAM113及び第2βRAM114に対する読み書き制御について、さらに説明する。
Next, with reference to FIG. 9, read / write control for the
図9左から1番目は、出力遷移確率γ、前向き確率α、後ろ向き確率β(β1とβ2)、及び出力軟値データλの計算の進行状況を示している。 The first from the left in FIG. 9 shows the progress of calculation of the output transition probability γ, the forward probability α, the backward probability β (β1 and β2), and the output soft value data λ.
すなわち、図9左から1番目において、横軸は、左から右方向を、トレリスの時刻の進行方向として、出力遷移確率γ、前向き確率α、後ろ向き確率β(β1とβ2)、及び出力軟値データλが計算されるトレリスのセクション(位置)を表し、縦軸は、時刻(上から下方向が時刻の進行方向)を表している。 That is, in the first from the left in FIG. 9, the horizontal axis indicates the output transition probability γ, the forward probability α, the backward probability β (β1 and β2), and the output soft value, with the left to right direction as the direction of travel of the trellis time. The section (position) of the trellis where the data λ is calculated is represented, and the vertical axis represents the time (the downward direction from the top is the traveling direction of the time).
図9左から1番目において、ラインL11は、出力遷移確率γの計算の進行状況を示している。 In the first line from the left in FIG. 9, the line L11 indicates the progress of calculation of the output transition probability γ.
出力遷移確率γについては、時刻tの経過にしたがって、その時刻tの出力遷移確率γが計算される。 For the output transition probability γ, the output transition probability γ at the time t is calculated as the time t elapses.
図9左から1番目において、ラインL12及びL13は、後ろ向き確率βの計算の進行状況を示している。 In the first from the left in FIG. 9, lines L12 and L13 indicate the progress of calculation of the backward probability β.
後ろ向き確率βは、出力遷移確率γの計算が開始されたタイミング(時刻t=0)から、打ち切り長Dの2倍の時間2×Dだけ待って開始され、初期値を1/Mとして、時刻t=2Dから、時刻を遡る順に、時間2D分だけ求められる。
The backward probability β starts after waiting for a
そして、時間2D分の後ろ向き確率βのうちの、時刻を遡る順で、最初の時間D分の後ろ向き確率β(例えば、時刻t=0ないし2D-1の後ろ向き確率βであれば、時刻t=Dないし2D-1の後ろ向き確率)は、確からしさが低いものとして、第1βRAM113及び第2βRAM114に書き込まれずに破棄され、したがって、出力軟値データλの計算に用いられない。
Then, the backward probability β for the first time D in the backward probability β for the
一方、時間2D分の後ろ向き確率βのうちの、時刻を遡る順で、後の時間D分の後ろ向き確率β(例えば、時刻t=0ないし2D-1の後ろ向き確率βであれば、時刻t=0ないしD-1の後ろ向き確率)は、出力軟値データλの計算に用いるために、第1βRAM113、又は第2βRAM114に書き込まれる。
On the other hand, in the backward probability β for the
なお、ラインL12は、後ろ向き確率βのうちの、第1βRAM113及び第2βRAM114に書き込まれない後ろ向き確率β1の計算の進行状況を示しており、ラインL13は、第1βRAM113、又は第2βRAM114に書き込まれる後ろ向き確率β2の計算の進行状況を示している。
The line L12 indicates the progress of calculation of the backward probability β1 of the backward probability β that is not written to the
初期値を1/Mとした後ろ向き確率β1及びβ2の計算は、ラインL12及びL13として示すように、打ち切り長Dずつ開始のタイミングをずらして(スライディングして)行われる(スライディングウインドウ処理)。 The backward probabilities β1 and β2 with an initial value of 1 / M are calculated by shifting (sliding) the start timing by the cutoff length D (sliding window processing) as shown by lines L12 and L13.
図9左から1番目において、ラインL14は、前向き確率αと、出力軟値データλとの計算の進行状況を示している。 In the first line from the left in FIG. 9, the line L14 indicates the progress of calculation of the forward probability α and the output soft value data λ.
前向き確率αと、出力軟値データλとの計算は、出力軟値データλの計算に必要な後ろ向き確率β(β2)が求められた直後に開始される。 The calculation of the forward probability α and the output soft value data λ is started immediately after the backward probability β (β2) necessary for calculating the output soft value data λ is obtained.
図9左から2番目は、第1γRAM103ないし第5γRAM107に対するデータの読み書きの進行状況を示している。
The second from the left in FIG. 9 shows the progress of data reading / writing from the
図9左から2番目において、横軸は、第1γRAM103ないし第5γRAM107のアドレスを表しており、縦軸は、図9左から1番目と同様に、時刻を表している。
In the second from the left in FIG. 9, the horizontal axis represents the addresses of the
図9左から2番目において、ラインL21は、第1γRAM103ないし第5γRAM107に対する出力遷移確率γの書き込みの進行状況を示している。
In the second line from the left in FIG. 9, a line L21 indicates the progress of writing the output transition probability γ to the
出力遷移確率γは、時刻順に、第1γRAM103ないし第5γRAM107のアドレスの小さいワードから大きいワードに書き込まれていく。
The output transition probability γ is written from the
図9左から2番目において、ラインL22及びL23は、後ろ向き確率βの計算に用いられる出力遷移確率γの、第1γRAM103ないし第5γRAM107からの読み出しの進行状況を示している。
In the second line from the left in FIG. 9, lines L22 and L23 indicate the progress of reading from the
後ろ向き確率βの計算に用いられる出力遷移確率γの、第1γRAM103ないし第5γRAM107からの読み出しは、出力遷移確率γの計算が開始されたタイミング(時刻t=0)から、打ち切り長Dの2倍の時間2×Dだけ待って開始される。
Reading the output transition probability γ used for the calculation of the backward probability β from the
そして、後ろ向き確率βの計算に用いられる出力遷移確率γの読み出しは、時刻を遡る順、すなわち、第1γRAM103ないし第5γRAM107のアドレスの大きいワードから小さいワードに向かって行われ、時間2D分の出力遷移確率γが読み出される。
Then, the reading of the output transition probability γ used for the calculation of the backward probability β is performed in the order of going back in time, that is, from the
図9左から2番目において、ラインL22は、時間2D分の出力遷移確率γのうちの、時刻を遡る順で、最初の時間D分の出力遷移確率γ(例えば、時刻t=0ないし2D-1の出力遷移確率γであれば、時刻t=Dないし2D-1の出力遷移確率)の読み出しの進行状況を示しており、この最初の時間D分の出力遷移確率γは、図9左から1番目のラインL12で説明した後ろ向き確率β1の計算に用いられる。
In the second line from the left in FIG. 9, the line L22 indicates the output transition probability γ for the first time D in the order of going back in time among the output transition probabilities γ for the
また、ラインL23は、時間2D分の後ろ向き確率βのうちの、時刻を遡る順で、後の時間D分の出力遷移確率γ(例えば、時刻t=0ないし2D-1の出力遷移確率γであれば、時刻t=0ないしD-1の出力遷移確率)の読み出しの進行状況を示しており、この後の時間D分の出力遷移確率γは、図9左から1番目のラインL13で説明した後ろ向き確率β2の計算に用いられる。
Further, the line L23 indicates that the backward transition probability β for the
図9左から2番目において、ラインL24は、前向き確率αと出力軟値データλとの計算に用いられる出力遷移確率γの、第1γRAM103ないし第5γRAM107からの読み出しの進行状況を示している。
In the second line from the left in FIG. 9, a line L24 indicates the progress of reading from the
前向き確率αと出力軟値データλとの計算に用いられる出力遷移確率γの読み出しは、図9左から1番目のラインL14で説明した、前向き確率αと出力軟値データλとを計算するときに、時刻順に、つまり、第1γRAM103ないし第5γRAM107のアドレスの小さいワードから大きいワードに向かって行われる。
The reading of the output transition probability γ used for the calculation of the forward probability α and the output soft value data λ is performed when calculating the forward probability α and the output soft value data λ described in the first line L14 from the left in FIG. In addition, the processing is performed in time order, that is, from the
図9左から3番目(右から1番目)は、第1βRAM113及び第2βRAM114に対するデータの読み書きの進行状況を示している。
The third from the left in FIG. 9 (first from the right) shows the progress of data reading / writing with respect to the
図9左から3番目において、横軸は、第1βRAM113と第2βRAM114のアドレスを表しており、縦軸は、図9左から1番目と同様に、時刻を表している。
In the third from the left in FIG. 9, the horizontal axis represents the addresses of the
図9左から3番目において、ラインL31は、第1βRAM113又は第2βRAM114に対する後ろ向き確率βの書き込みの進行状況を示している。
In the third line from the left in FIG. 9, a line L31 indicates the progress of writing the backward probability β to the
後ろ向き確率βは、時刻を遡る順に、第1βRAM113又は第2βRAM114のアドレスの大きいワードから小さいワードに書き込まれていく。なお、第1βRAM113又は第2βRAM114に書き込まれる後ろ向き確率βは、図9左から1番目のラインL13で説明した後ろ向き確率β2だけである。
The backward probability β is written from the word with the larger address of the
図9左から3番目において、ラインL32は、出力軟値データλの計算に用いられる後ろ向き確率β2の、第1βRAM113又は第2βRAM114からの読み出しの進行状況を示している。
In the third line from the left in FIG. 9, a line L32 indicates the progress of reading from the
出力軟値データλとの計算に用いられる後ろ向き確率β2の読み出しは、図9左から1番目のラインL14で説明した、出力軟値データλを計算するときに、時刻順に、つまり、第1βRAM113又は第2βRAM114のアドレスの小さいワードから大きいワードに向かって行われる。
The backward probability β2 used for the calculation of the output soft value data λ is read in the order of time when calculating the output soft value data λ described in the first line L14 from the left in FIG. 9, that is, the
ここで、上述したように、第1γRAM103ないし第5γRAM107、第1βRAM113、及び第2βRAM114は、シングルポートのRAMであるため、データの書き込みと読み出しとを同時にすることはできず、あるタイミングに注目すれば、データの書き込み、又は読み出しだけが行われる。
Here, as described above, since the
すなわち、図9において、例えば、時刻t=4Dないし5Dに注目すると、図9左から2番目に示したように、第1γRAM103では、前向き確率αと出力軟値データλとの計算に用いられる出力遷移確率γの読み出し(ラインL24)のみが、第2γRAM104では、後ろ向き確率β2の計算に用いられる出力遷移確率γの読み出し(ラインL23)のみが、第4γRAM106では、後ろ向き確率β1の計算に用いられる出力遷移確率γの読み出し(ラインL22)のみが、第5γRAM107では、出力遷移確率γの書き込み(ラインL21)のみが、それぞれ行われている。
That is, in FIG. 9, for example, when attention is paid to time t = 4D to 5D, as shown in the second from the left in FIG. 9, in the
また、図9左から3番目に示したように、第1βRAM113では、出力軟値データλの計算に用いられる後ろ向き確率β2の読み出し(ラインL32)のみが、第2βRAM114では、後ろ向き確率β2の書き込み(ラインL31)のみが、それぞれ行われている。
Further, as shown third from the left in FIG. 9, in the
以上のように、出力軟値データλの計算に用いる出力遷移確率γと後ろ向き確率βを記憶する記憶手段として、RAM(第1γRAM103ないし第5γRAM107、第1βRAM113、及び第2βRAM114)を採用した場合には、前述したように、打ち切り長Dが小さいと、ワード数が小さく、そのために、オーバヘッドが大のRAMを用いて、SISO復号器67を構成することとなり、回路規模が大となる。
As described above, when the RAM (the
そこで、図10は、図6のSISO復号器67の他の構成例を示している。
FIG. 10 shows another configuration example of the
なお、図中、図7の場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。 In the figure, portions corresponding to those in FIG. 7 are denoted by the same reference numerals, and description thereof will be omitted below as appropriate.
すなわち、図10のSISO復号器67は、γ計算部101、α計算部108、第1β計算部109、第2β計算部110、及びλ計算部112が設けられている点で、図7の場合と一致しているが、制御部100に代えて、制御部200が、γRAM制御部102に代えて、γメモリ制御部202が、5個の第1γRAM103ないし第5γRAM107に代えて、4個の第1γメモリ203ないし第4γメモリ206が、βRAM制御部111に代えて、βメモリ制御部211が、2個の第1βRAM113及び第2βRAM114に代えて、1個のβメモリ213が、それぞれ設けられている点で、図7の場合と相違している。
That is, the
したがって、図7では、出力遷移確率γを記憶する記憶手段として、5個のRAM(第1γRAM103ないし第5γRAM107)が必要であったのに対して、図10では、4個のメモリ(第1γメモリ203ないし第4γメモリ206)で、SISO復号器67が構成されている。さらに、図7では、後ろ向き確率βを記憶する記憶手段として、2個のRAM(第1βRAM113及び第2βRAM114)が必要であったのに対して、図10では、1個のメモリ(βメモリ213)で、SISO復号器67が構成されている。
Therefore, in FIG. 7, five RAMs (
以上のように構成される図10のSISO復号器67では、例えば、図7の場合と同様に、SW-Max-Log-BCJRアルゴリズムにしたがい、入力軟値データYtに対して、その入力軟値データYtの復号結果としての出力軟値データλを、打ち切り長Dの4倍の遅延時間4Dで出力する。
In the
すなわち、図10のSISO復号器67において、制御部200は、γ計算部101、α計算部108、第1β計算部109、第2β計算部110、λ計算部112、γメモリ制御部202、及びβメモリ制御部211が連携して、入力軟値データYtを出力軟値データλtに復号するための処理を行うように、γ計算部101、α計算部108、第1β計算部109、第2β計算部110、λ計算部112、γメモリ制御部202、及びβメモリ制御部211を制御する。
That is, in the
γ計算部101には、図6の記録再生系65から、時刻tの入力軟値データYt(D101)が供給される。 Input soft value data Y t (D101) at time t is supplied from the recording / reproducing system 65 of FIG.
γ計算部101は、時刻tの入力軟値データYtに対して、式(20)にしたがい、トレリスの時刻tの枝すべてに対する出力遷移確率γを計算し、データD102として、γメモリ制御部202に供給する。
The
γメモリ制御部202は、γ計算部101から供給される出力遷移確率γを、所定の順序で、第1γメモリ203、第2γメモリ204、第3γメモリ205、又は第4γメモリ206に書き込む書き込み制御と、その第1γメモリ203ないし第4γメモリ206から、出力遷移確率γを、所定の順で読み出す読み出し制御を行う。
The γ
すなわち、γメモリ制御部202は、第1γメモリ203に対して、出力遷移確率γを、データD203として読み書きする読み書き制御を行う。同様に、γメモリ制御部202は、第2γメモリ204に対して、出力遷移確率γを、データD204として読み書きする読み書き制御を、第3γメモリ205に対して、出力遷移確率γを、データD205として読み書きする読み書き制御を、第4γメモリ206に対して、出力遷移確率γを、データD206として読み書きする読み書き制御を、それぞれ行う。
That is, the γ
そして、第1γメモリ203ないし第4γメモリ206は、γメモリ制御部202の制御にしたがって、出力遷移確率γを記憶する。
Then, the
ここで、データD203ないしD206のビット幅は、いずれも、トレリスの枝数と、1つの枝に対する出力遷移確率γのビット数との積[ビット]である。 Here, the bit widths of the data D203 to D206 are all the product [bits] of the number of branches of the trellis and the number of bits of the output transition probability γ for one branch.
また、第1γメモリ203ないし第4γメモリ206は、図7の第1γRAM103ないし第5γRAM107と同様に、1ワードが、トレリスの枝数と、1つの枝に対する出力遷移確率γのビット数との積[ビット]で、打ち切り長Dに等しいワード数だけの記憶容量を有する。
Similarly to the
γメモリ制御部202は、第1γメモリ203ないし第4γメモリ206から読み出した出力遷移確率γを、データD108,D109,D110、又はD115として、α計算部108、第1β計算部109、第2β計算部110、又はλ計算部112に供給する。
The γ
ここで、γメモリ制御部202から、α計算部108に供給されるデータD108と、λ計算部112に供給されるデータD115とは、トレリスの、ある時刻tαの枝すべてに対する出力遷移確率γである。
Here, the data D108 supplied from the γ
また、γメモリ制御部202から、第1β計算部109に供給されるデータD109は、トレリスの、ある時刻tβ1+1の枝すべてに対する出力遷移確率γであり、γメモリ制御部202から、第2β計算部110に供給されるデータD110は、トレリスの、ある時刻tβ2+1の枝すべてに対する出力遷移確率γである。
The data D109 supplied from the γ
α計算部108は、γメモリ制御部202からのトレリスの時刻tαの枝すべてに対する出力遷移確率γ(D108)を用い、式(18)にしたがって、トレリスの時刻tαの状態すべてに対する前向き確率αを計算し、データD116として、λ計算部112に供給する。
The
一方、第1β計算部109は、γメモリ制御部202からのトレリスの時刻tβ1+1の枝すべてに対する出力遷移確率γ(D109)を用い、式(19)にしたがって、トレリスの時刻tβ1の状態すべてに対する後ろ向き確率βを計算し、データD111として、βメモリ制御部211に供給する。
On the other hand, the
同様に、第2β計算部110も、γメモリ制御部202からのトレリスの時刻tβ2+1の枝すべてに対する出力遷移確率γ(D110)を用い、式(19)にしたがって、トレリスの時刻tβ2の状態すべてに対する後ろ向き確率βを計算し、データD112として、βメモリ制御部211に供給する。
Similarly, the
βメモリ制御部211は、第1β計算部109と第2β計算部110それぞれから供給される後ろ向き確率βを、所定の順序で、βメモリ213に書き込む書き込み制御と、そのβメモリ213から、後ろ向き確率βを、所定の順で読み出す読み出し制御を行う。
The β
すなわち、βメモリ制御部211は、βメモリ213に対して、後ろ向き確率βを、データD213として読み書きする読み書き制御を行う。
That is, the β
そして、βメモリ213は、βメモリ制御部211の制御にしたがって、後ろ向き確率βを記憶する。
The
ここで、データD213のビット幅は、トレリスの状態の個数Mと、1つの状態に対する後ろ向き確率βのビット数との積[ビット]である。 Here, the bit width of the data D213 is the product [bits] of the number M of trellis states and the number of bits of the backward probability β for one state.
また、βメモリ213は、図7の第1βRAM113及び第2βRAM114と同様に、1ワードが、トレリスの状態の個数Mと、1つの状態に対する後ろ向き確率βのビット数との積[ビット]で、打ち切り長Dに等しいワード数だけの記憶容量を有する。
Similarly to the
βメモリ制御部211は、βメモリ213から読み出した後ろ向き確率βを、データD117として、λ計算部112に供給する。
The β
ここで、データD117として、βメモリ制御部211からλ計算部112に供給される後ろ向き確率βは、トレリスの時刻tαの状態すべてに対する後ろ向き確率βである。
Here, as the data D117, beta retrospective probability beta is supplied to the
λ計算部112は、γメモリ制御部202から供給される出力遷移確率γ(D115)、α計算部108から供給される前向き確率α(D116)、及びβメモリ制御部211から供給される後ろ向き確率βを用い、式(22)にしたがって、出力軟値データλを求めて、データD118として、LDPC復号器68(図6)に供給する。
The
図10のSISO復号器67において、出力遷移確率γを記憶する記憶手段としての4個の第1γメモリ203ないし第4γメモリ206、及び、後ろ向き確率βを記憶する記憶手段としての1個のβメモリ213は、いずれも、レジスタを用いて構成された、データの書き込みと読み出しとを同時にすることが可能なメモリになっている。
In the
すなわち、図11は、図10の第1γメモリ203の構成例を示している。
That is, FIG. 11 shows a configuration example of the
第1γメモリ203は、アドレス変換器301、W個のセレクタ3021ないし302W、W個のレジスタ3031ないし303W、及びセレクタ304で構成されている。
The
ここで、セレクタ3021ないし302Wの個数Wや、レジスタ3031ないし303Wの個数Wは、打ち切り長Dに等しい。 Here, the number W of the selectors 302 1 to 302 W and the number W of the registers 303 1 to 303 W are equal to the cutoff length D.
アドレス変換器301には、アドレスが供給される。
An address is supplied to the
ここで、アドレスは、γメモリ制御部202(図10)から供給され、γメモリ制御部202は、アドレスを第1γメモリ203に供給することによって、第1γメモリ203に対するデータの読み書きを制御する。
Here, the address is supplied from the γ memory control unit 202 (FIG. 10), and the γ
また、アドレスとしては、0から、打ち切り長D-1に等しいW-1までの範囲の整数値が供給される。したがって、アドレスのビット数は、log2Wビットである。 As an address, an integer value ranging from 0 to W-1 equal to the cutoff length D-1 is supplied. Therefore, the number of bits of the address is log 2 W bits.
アドレス変換器301は、γメモリ制御部202から供給される、log2Wビットのアドレスを、Wビットのビット列であって、そのWビットのうちの1ビットだけが1で、他のビットすべてが0のビット列に変換し、そのWビットのビット列を、ワード選択信号として、そのワード選択信号の最下位ビットからk番目のビット(第kビット)を、セレクタ302k(k=1,2,・・・,W)に供給する。
The
すなわち、log2Wビットのアドレスが表す値を、Aとすると、アドレス変換器301は、最下位ビットからA+1番目のビットだけが1で、他のビットすべてが0の、Wビットのビット列を、ワード選択信号として、そのワード選択信号の第kビットを、セレクタ302kに供給する。
That is, if the value represented by the address of log 2 W bits is A, the
セレクタ302k(k=1,2,・・・,W)には、アドレス変換器301からワード選択信号の第kビットが供給される他、γメモリ制御部202から、第1γメモリ203に書き込む書き込みデータとして、1ワードの出力遷移確率γが供給される。ここで、トレリスの枝数と、1つの枝に対する出力遷移確率γのビット数との積を、Nと表すこととすると、1ワードの出力遷移確率γは、Nビットのビット列で、トレリスの枝数分の出力遷移確率γである。
The selector 302 k (k = 1, 2,..., W) is supplied with the k-th bit of the word selection signal from the
セレクタ302kは、アドレス変換器301からのワード選択信号の第kビットが1である場合には、γメモリ制御部202からの、書き込みデータとしての1ワード(Nビット)の出力遷移確率γを選択し、レジスタ303kに供給する。
When the kth bit of the word selection signal from the
また、セレクタ302kは、アドレス変換器301からのワード選択信号の第kビットが0である場合には、レジスタ303kがラッチしている1ワード(Nビット)の出力遷移確率γを選択し、レジスタ303kに供給する。
The selector 302 k selects the output transition probability γ of one word (N bits) latched by the register 303 k when the k-th bit of the word selection signal from the
レジスタ303kは、1ワード(Nビット)の出力遷移確率γをラッチすることができるだけの個数の、例えば、フリップフロップで構成され、セレクタ302kから供給される1ワードの出力遷移確率γをラッチし、セレクタ302k及びセレクタ304に供給する。
The register 303 k is composed of, for example, flip-flops that can latch the output transition probability γ of one word (N bits), and latch the output transition probability γ of one word supplied from the selector 302 k. And supplied to the selector 302 k and the
したがって、あるアドレスAに対して、アドレス変換器301からセレクタ302kに供給されるワード選択信号の第kビットが1である場合には、セレクタ302kでは、γメモリ制御部202からの、書き込みデータとしての1ワードの出力遷移確率γが選択されて、レジスタ303kに供給され、レジスタ303kにおいて、γメモリ制御部202からの1ワードの出力遷移確率γがラッチされる。すなわち、これにより、アドレスAに、1ワードの出力遷移確率γが書き込まれる。
Therefore, when the k-th bit of the word selection signal supplied from the
一方、あるアドレスAに対して、アドレス変換器301からセレクタ302kに供給されるワード選択信号の第kビットが0である場合には、セレクタ302kでは、レジスタ303kがラッチしている1ワードの出力遷移確率γが選択されて、レジスタ303kに供給され、レジスタ303kにおいて、その1ワードの出力遷移確率γがラッチされる。すなわち、これにより、アドレスA以外のアドレスでは、そのアドレスに記憶されている1ワードの出力遷移確率γが、そのまま維持される。
On the other hand, when the k-th bit of the word selection signal supplied from the
セレクタ304には、レジスタ303kがラッチしている1ワードの出力遷移確率γが供給される。さらに、セレクタ304には、γメモリ制御部202(図10)からアドレス変換器301に供給されるのと同一のアドレスAが供給される。
The
セレクタ304は、W個のレジスタ3031ないし303Wがそれぞれラッチしている1ワードの出力遷移確率γのうちの、アドレスAとしてのレジスタ303A+1がラッチしている1ワードの出力遷移確率γを選択し、アドレスAから読み出した読み出しデータとして、γメモリ制御部202に供給する。
The
以上のように構成される第1γメモリ203では、γメモリ制御部202から、例えば、アドレスAと、書き込みデータとしての1ワードの出力遷移確率γが供給されると、アドレスAは、アドレス変換器301とセレクタ304に供給され、書き込みデータとしての1ワードの出力遷移確率γは、W個のセレクタ3021ないし302Wに供給される。
In the
アドレスAが供給されたセレクタ304は、レジスタ3031ないし303Wのうちの、アドレスAとしてのレジスタ303A+1がラッチしている1ワードの出力遷移確率γを選択し、アドレスAから読み出した読み出しデータとして、γメモリ制御部202に供給する。
The
一方、アドレス変換器301は、アドレスAを、最下位ビットからA+1番目のビットだけが1で、他のビットすべてが0の、Wビットのワード選択信号に変換し、そのワード選択信号の第kビットを、セレクタ302kに供給する。
On the other hand, the
セレクタ3021ないし302Wのうちの、アドレス変換器301から、第kビットが1のワード選択信号が供給されるセレクタ302k、すなわち、セレクタ302A+1では、γメモリ制御部202からの、書き込みデータとしての1ワードの出力遷移確率γが選択されて、レジスタ303A+1に供給される。
Among the selectors 302 1 to 302 W , the selector 302 k to which the word selection signal whose k-th bit is 1 is supplied from the
レジスタ303A+1では、セレクタ302A+1からの1ワードの出力遷移確率γがラッチされ、これにより、アドレスAに、1ワードの出力遷移確率γが書き込まれる。 In the register 303 A + 1 , the output transition probability γ of one word from the selector 302 A + 1 is latched, and thereby, the output transition probability γ of one word is written to the address A.
以上のように、第1γメモリ203では、アドレスAからの、そこに書き込まれていた1ワードの出力遷移確率γの読み出し(セレクタ302A+1がラッチしている1ワードの出力遷移確率γの出力)と、同一のアドレスAへの、1ワードの出力遷移確率γの書き込み(セレクタ302A+1での、書き込みデータとしての1ワードの出力遷移確率γのラッチ)とを、一度のアドレスの指定によって同時に行うことができる。
As described above, the
なお、第1γメモリ203の他の、第2γメモリ204ないし第4γメモリ206、及び、βメモリ213も、第1γメモリ203と同様に構成される。但し、βメモリ213のレジスタ303kは、1ワードの後ろ向き確率βをラッチすることができるだけの個数のフリップフロップで構成される。
The
次に、図12を参照して、図10のγメモリ制御部202による第1γメモリ203ないし第4γメモリ206に対する読み書き制御の処理と、βメモリ制御部211によるβメモリ213に対する読み書き制御の処理とについて説明する。
Next, referring to FIG. 12, read / write control processing for the
ここで、上述したように、第1γメモリ203ないし第4γメモリ206と、βメモリ213とは、すべて、図11に示したように構成され、1時刻において、データの書き込みと読み出しとを同時にする(一度のアドレスの指定によって、そのアドレスからデータを読み出し、その直後に、そのアドレスにデータを書き込む)ことができるリードモディファイライト(read modify write)が可能なメモリである。
Here, as described above, the
時刻t=0ないしD-1では、ステップS31の処理として、γメモリ制御部202は、γ計算部101から供給される出力遷移確率γ(D102)を、時刻順に、第1γメモリ203のアドレスの小さいワードから大きいワードに書き込む。
From time t = 0 to
時刻t=Dないし2D-1では、ステップS32の処理として、γメモリ制御部202は、γ計算部101から供給される出力遷移確率γ(D102)を、時刻順に、第2γメモリ204のアドレスの小さいワードから大きいワードに書き込む。
From time t = D to 2D−1, as the processing of step S32, the γ
時刻t=2Dないし3D-1では、ステップS33の処理として、γメモリ制御部202は、γ計算部101から供給される出力遷移確率γ(D102)を、時刻順に、第3γメモリ205のアドレスの小さいワードから大きいワードに書き込む。
From time t = 2D to 3D−1, as the processing of step S33, the γ
さらに、ステップS33の処理として、γメモリ制御部202は、第2γメモリ204のアドレスの大きいワードから小さいワードの順に、出力遷移確率γを読み出し、つまり、時刻を遡る順(過去に向かう方向)に、出力遷移確率γを読み出し、データD109として、第1β計算部109に供給する。
Further, as the processing of step S33, the γ
第1β計算部109では、γメモリ制御部202からの出力遷移確率γを用いて、時刻を遡る順の後ろ向き確率βが計算される。なお、第1β計算部109は、時刻t=2Dないし3D-1において、後ろ向き確率βを計算するにあたり、時刻t=2Dにおいて、後ろ向き確率β(時刻3Dの後ろ向き確率β3D(m))を、1/Mに初期化する。
The first
時刻t=3Dないし4D-1では、ステップS34の処理として、γメモリ制御部202は、γ計算部101から供給される出力遷移確率γ(D102)を、時刻順に、第4γメモリ206のアドレスの小さいワードから大きいワードに書き込む。
From time t = 3D to 4D−1, as the processing of step S34, the γ
さらに、ステップS34の処理として、γメモリ制御部202は、第3γメモリ205のアドレスの大きいワードから小さいワードの順に、時刻を遡る順の出力遷移確率γを読み出し、データD110として、第2β計算部110に供給する。
Further, as the processing of step S34, the γ
第2β計算部110では、γメモリ制御部202からの出力遷移確率γを用いて、時刻を遡る順の後ろ向き確率βが計算される。なお、第2β計算部110は、時刻t=3Dないし4D-1において、後ろ向き確率βを計算するにあたり、時刻t=3Dにおいて、後ろ向き確率β(時刻4Dの後ろ向き確率β4D(m))を、1/Mに初期化する。
The second
さらに、また、ステップS34の処理として、γメモリ制御部202は、第1γメモリ203のアドレスの大きいワードから小さいワードの順に、出力遷移確率γを読み出し、データD109として、第1β計算部109に供給する。
Further, as the processing of step S34, the γ
第1β計算部109では、γメモリ制御部202からの出力遷移確率γ(と、ステップS33において、第1β計算部109で求められた後ろ向き確率βと)を用いて、ステップS33において、第1β計算部109で求められた後ろ向き確率βからさらに遡った時刻の後ろ向き確率βが計算され、βメモリ制御部211に供給される。
The first
βメモリ制御部211は、第1β計算部109からの後ろ向き確率βを、データD213として、βメモリ213に供給し、その後ろ向き確率βを、時間を遡る順に、βメモリ213のアドレスの大きいワードから小さいワードに書き込む。
The β
時刻t=4Dないし5D-1では、ステップS35の処理として、γメモリ制御部202は、第1γメモリ203のアドレスの小さいワードから大きいワードの順に、時刻順の出力遷移確率γを読み出し、データD108として、α計算部108に供給するとともに、データD115として、λ計算部112に供給し、それと同時に、γ計算部101から供給される出力遷移確率γ(D102)を、時刻順に、第1γメモリ203のアドレスの小さいワードから大きいワードに書き込む。
From time t = 4D to 5D−1, as the processing of step S35, the γ
すなわち、第1γメモリ203において、記憶されている出力遷移確率γを読み出しと、新たに求められた出力遷移確率γの書き込みとを同時に行うリードモディファイライトが行われる。
That is, in the
さらに、ステップS35の処理として、γメモリ制御部202は、第4γメモリ206のアドレスの大きいワードから小さいワードの順に、時刻を遡る順の出力遷移確率γを読み出し、データD109として、第1β計算部109に供給する。
Further, as the processing of step S35, the γ
第1β計算部109は、γメモリ制御部202からの出力遷移確率βを用いて、時刻を遡る順の後ろ向き確率βを計算する。なお、第1β計算部109は、時刻t=4Dないし5D-1において、後ろ向き確率βを計算するにあたり、時刻t=4Dにおいて、後ろ向き確率β(時刻5Dの後ろ向き確率β5D(m))を、1/Mに初期化する。
The first
さらに、また、ステップS35の処理として、γメモリ制御部202は、第2γメモリ204のアドレスの大きいワードから小さいワードの順に、時刻を遡る順の出力遷移確率γを読み出して、データD110として、第2β計算部110に供給する。
Furthermore, as the processing of step S35, the γ
第2β計算部110では、γメモリ制御部202からの出力遷移確率γ(と、ステップS34において、第2β計算部110で求められた後ろ向き確率βと)を用いて、ステップS34において、第2β計算部110で求められた後ろ向き確率βからさらに遡った時刻の後ろ向き確率βが計算され、βメモリ制御部211に供給される。
The second
また、このとき、βメモリ制御部211は、βメモリ213のアドレスの小さいワードから大きいワードの順に、ステップS34で書き込まれた後ろ向き確率βを読み出し、つまり、時刻順に、後ろ向き確率βを読み出して、データD117として、λ計算部112に供給し、それと同時に、第2β計算部110からの時刻を遡る順の後ろ向き確率βを、データD213として、βメモリ213に供給し、その後ろ向き確率βを、時間を遡る順に、βメモリ213のアドレスの小さいワードから大きいワードに書き込む。
At this time, the β
すなわち、βメモリ213において、記憶されている後ろ向き確率βを読み出しと、新たに求められた後ろ向き確率βの書き込みとを同時に行うリードモディファイライトが行われる。
That is, in the
ここで、ステップS35のβメモリ213でのリードモディファイライトでは、新たに求められた、時間を遡る順の後ろ向き確率βが、βメモリ213のアドレスの小さいワードから大きいワードに向かって書き込まれる。この場合、βメモリ213では、より小さいアドレスに、より後の時刻の後ろ向き確率βが記憶される(より大きいアドレスに、より前の時刻の後ろ向き確率βが記憶される)。
Here, in the read-modify-write in the
ステップS35では、さらに、α計算部108において、γメモリ制御部202がリードモディファイライトによって第1γメモリ203から読み出して、データD108として供給してくる出力遷移確率γを用いて、前向き確率αを計算し、データD116として、λ計算部112に供給する。
In step S35, the
λ計算部112は、γメモリ制御部202がリードモディファイライトによって第1γメモリ203から読み出して、データD115として供給してくる出力遷移確率γ、α計算部108からデータD116として供給される前向き確率α、及び、βメモリ制御部211がリードモディファイライトによってβメモリ213から読み出して、データD117として供給してくる後ろ向き確率βを用いて、出力軟値データλを計算し、データD118として出力する。
The
時刻t=5Dないし6D-1では、ステップS36の処理として、γメモリ制御部202は、第2γメモリ204のアドレスの小さいワードから大きいワードの順に、時刻を遡る順の出力遷移確率γを読み出し、データD108として、α計算部108に供給するとともに、データD115として、λ計算部112に供給し、それと同時に、γ計算部101から供給される出力遷移確率γ(D102)を、時刻順に、第2γメモリ204のアドレスの小さいワードから大きいワードに書き込む。
At time t = 5D to 6D−1, as the processing of step S36, the γ
すなわち、第2γメモリ204において、記憶されている出力遷移確率γを読み出しと、新たに求められた出力遷移確率γの書き込みとを同時に行うリードモディファイライトが行われる。
That is, in the
さらに、ステップS36の処理として、γメモリ制御部202は、第1γメモリ203のアドレスの大きいワードから小さいワードの順に、時刻を遡る順の出力遷移確率γを読み出し、データD110として、第2β計算部110に供給する。
Further, as the process of step S36, the γ
第2β計算部110は、γメモリ制御部202からの出力遷移確率βを用いて、時刻を遡る順の後ろ向き確率βを計算する。なお、第2β計算部110は、時刻t=5Dないし6D-1において、後ろ向き確率βを計算するにあたり、時刻t=5Dにおいて、後ろ向き確率β(時刻6Dの後ろ向き確率β6D(m))を、1/Mに初期化する。
The second
さらに、また、ステップS36の処理として、γメモリ制御部202は、第3γメモリ205のアドレスの大きいワードから小さいワードの順に、時刻を遡る順の出力遷移確率γを読み出し、データD109として、第1β計算部109に供給する。
Further, as the processing of step S36, the γ
第1β計算部109では、γメモリ制御部202からの出力遷移確率γ(と、ステップS35において、第1β計算部109で求められた後ろ向き確率βと)を用いて、ステップS35において、第1β計算部109で求められた後ろ向き確率βからさらに遡った時刻の後ろ向き確率βが計算され、βメモリ制御部211に供給される。
The first
また、このとき、βメモリ制御部211は、βメモリ213のアドレスの大きいワードから小さいワードの順に、ステップS35で書き込まれた後ろ向き確率βを読み出して、すなわち、時刻順の後ろ向き確率を読み出して、データD117として、λ計算部112に供給し、それと同時に、第1β計算部109からの時刻を遡る順の後ろ向き確率βを、データD213として、βメモリ213に供給し、その後ろ向き確率βを、時間を遡る順に、βメモリ213のアドレスの大きいワードから小さいワードに書き込む。
At this time, the β
すなわち、βメモリ213において、記憶されている後ろ向き確率βを読み出しと、新たに求められた後ろ向き確率βの書き込みとを同時に行うリードモディファイライトが行われる。
That is, in the
ここで、ステップS36のβメモリ213でのリードモディファイライトでは、新たに求められた、時間を遡る順の後ろ向き確率βが、βメモリ213のアドレスの大きいワードから小さいワードに向かって書き込まれる。この場合、βメモリ213では、より小さいアドレスに、より前の時刻の後ろ向き確率βが記憶される(より大きいアドレスに、より後の時刻の後ろ向き確率βが記憶される)。
Here, in the read-modify-write in the
ステップS36では、さらに、α計算部108において、γメモリ制御部202がリードモディファイライトによって第1γメモリ203から読み出して、データD108として供給してくる出力遷移確率γを用いて、前向き確率αを計算し、データD116として、λ計算部112に供給する。
In step S36, the
λ計算部112は、γメモリ制御部202がリードモディファイライトによって第2γメモリ204から読み出して、データD115として供給してくる出力遷移確率γ、α計算部108からデータD116として供給される前向き確率α、及び、βメモリ制御部211がリードモディファイライトによってβメモリ213から読み出して、データD117として供給してくる後ろ向き確率βを用いて、出力軟値データλを計算し、データD118として出力する。
The
以下、同様にして、第1γメモリ203ないし第4γメモリ206に対する読み書き制御の処理と、βメモリ213に対する読み書き制御の処理とが行われる。
Thereafter, similarly, read / write control processing for the
すなわち、5以上の整数値の変数jについて、時刻t=j×Dないし(j+1)×D-1では、第1γメモリ203ないし第4γメモリ206のアドレスの小さいワードから大きいワードに向かって、前向き確率αの計算、及び出力軟値データλの計算に用いられる時刻順の出力遷移確率γが読み出されて、データD108としてα計算部108に供給されるとともに、データD115としてλ計算部112に供給され、それと同時に、γ計算部101で求められた時刻順の出力遷移確率γ(D102)が、第1γメモリ203ないし第4γメモリ206のアドレスの小さいワードから大きいワードに書き込まれるリードモディファイライトが行われる。
That is, for a variable j having an integer value of 5 or more, from time t = j × D to (j + 1) × D−1, from a word with a smaller address in the
ここで、出力遷移確率γの読み書きを同時に行うリードモディファイライトの対象となるのは、例えば、変数j=5では、第2γメモリ204であり、変数j=6では、第3γメモリ205であり、変数j=7では、第4γメモリ206であり、変数j=8では、第1γメモリ203であり、変数j=9では、第2γメモリ204である。以下、同様のパターンが繰り返される。
Here, for example, the read-modify-write that simultaneously reads and writes the output transition probability γ is the
また、同時に、第1γメモリ203ないし第4γメモリ206のアドレスの大きいワードから小さいワードの順に、時刻を遡る順の出力遷移確率γが読み出され、その出力遷移確率γを用い、第1β計算部109、又は第2β計算部110で、後ろ向き確率βのうちの、βメモリ213に記憶されない後ろ向き確率β1が計算される。なお、後ろ向き確率β1のを計算にあたり、時刻t=(i+5)×Dにおいて、後ろ向き確率β1は、1/Mに初期化される。
At the same time, output transition probabilities γ are read in the order of going back in time from the word with the largest address in the
ここで、後ろ向き確率β1の計算に用いられる出力遷移確率γの読み出しの対象となるのは、例えば、変数j=5では、第1γメモリ203であり、変数j=6では、第2γメモリ204であり、変数j=7では、第3γメモリ205であり、変数j=8では、第4γメモリ206であり、変数j=9では、第1γメモリ203である。以下、同様のパターンが繰り返される。
Here, for example, the output transition probability γ used for the calculation of the backward probability β1 is to be read from the
また、後ろ向き確率β1の計算を行うのは、例えば、変数j=5では、第2β計算部110であり、変数j=6では、第1β計算部109であり、変数j=7では、第2β計算部110である。以下、同様のパターンが繰り返される。
The backward probability β1 is calculated by, for example, the
時刻t=j×Dないし(j+1)×D-1では、さらに、第1γメモリ203ないし第4γメモリ206のアドレスの大きいワードから小さいワードの順に、時刻を遡る順の出力遷移確率γが読み出され、その出力遷移確率γを用い、第1β計算部109、又は第2β計算部110で、後ろ向き確率βのうちの、βメモリ213に記憶される後ろ向き確率β2が計算される。
At time t = j × D to (j + 1) × D−1, the output transition probability γ in the order of going back in time from the word with the largest address in the
ここで、後ろ向き確率β2の計算に用いられる出力遷移確率γの読み出しの対象となるのは、例えば、変数j=5では、第3γメモリ205であり、変数j=6では、第4γメモリ206であり、変数j=7では、第1γメモリ203であり、変数j=8では、第2γメモリ204であり、変数j=9では、第3γメモリ205である。以下、同様のパターンが繰り返される。
Here, for example, the output transition probability γ used for the calculation of the backward probability β2 is the
また、後ろ向き確率β2の計算を行うのは、例えば、変数j=5では、第1β計算部109であり、変数j=6では、第2β計算部110であり、変数j=7では、第1β計算部109である。以下、同様のパターンが繰り返される。
Further, the backward probability β2 is calculated by the first
時刻t=j×Dないし(j+1)×D-1では、また、βメモリ213から、後ろ向き確率β2が読み出されて、データD117として、λ計算部112に供給され、それと同時に、第1β計算部109、又は第2β計算部110で計算された後ろ向き確率β2が、βメモリ213に書き込まれるリードモディファイライトが行われる。
From time t = j × D to (j + 1) × D−1, the backward probability β2 is read from the
ここで、βメモリ213に対する後ろ向き確率β2の読み書きを同時に行うリードモディファイライトでは、例えば、変数jが奇数である場合には、βメモリ213のアドレスの大きいワードから小さいワードの方向に、後ろ向き確率β2の読み書きが行われ、変数jが偶数である場合には、βメモリ213のアドレスの小さいワードから大きいワードの方向に、後ろ向き確率β2の読み書きが行われる。
Here, in the read-modify-write that simultaneously reads / writes the backward probability β2 with respect to the
一方、α計算部108では、データD108として供給される出力遷移確率γを用いて、前向き確率αが計算され、データD116として、λ計算部112に供給される。
On the other hand, the
そして、λ計算部112では、データD115として供給される出力遷移確率γ、データD116として供給される前向き確率α、及び、データD117として供給される後ろ向き確率β2を用いて、出力軟値データλが計算され、データD118として出力される。
Then, the
次に、図13を参照して、第1γメモリ203ないし第4γメモリ206に対する読み書き制御と、βメモリ213に対する読み書き制御について、さらに説明する。
Next, the read / write control for the
図13左から1番目は、出力遷移確率γ、前向き確率α、後ろ向き確率β(β1とβ2)、及び出力軟値データλの計算の進行状況を示している。 The first from the left in FIG. 13 shows the progress of calculation of the output transition probability γ, the forward probability α, the backward probability β (β1 and β2), and the output soft value data λ.
図13左から1番目において、横軸は、左から右方向を、トレリスの時刻の進行方向として、出力遷移確率γ、前向き確率α、後ろ向き確率β(β1とβ2)、及び出力軟値データλが計算されるトレリスのセクションを表し、縦軸は、時刻を表している。 In the first from the left in FIG. 13, the horizontal axis represents the output transition probability γ, the forward probability α, the backward probability β (β1 and β2), and the output soft value data λ, with the direction from left to right as the travel direction of the trellis time. Represents the section of the trellis for which is calculated, and the vertical axis represents the time.
図13左から1番目は、上述した図9左から1番目と同一の図である。 The first from the left in FIG. 13 is the same as the first from the left in FIG.
したがって、図13左から1番目において、ラインL11は、出力遷移確率γの計算の進行状況を、ラインL12は、後ろ向き確率βのうちの、βメモリ213に書き込まれない後ろ向き確率β1の計算の進行状況を、ラインL13は、βメモリ213に書き込まれる後ろ向き確率β2の計算の進行状況を、ラインL14は、前向き確率αと、出力軟値データλとの計算の進行状況を、それぞれ示している。
Therefore, in the first from the left in FIG. 13, the line L11 indicates the progress of the calculation of the output transition probability γ, and the line L12 indicates the progress of the calculation of the backward probability β1 of the backward probability β that is not written in the
図13左から2番目は、第1γメモリ203ないし第4γメモリ206に対するデータの読み書きの進行状況を示している。
The second from the left in FIG. 13 shows the progress of data reading / writing from the
図13左から2番目において、横軸は、第1γメモリ203ないし第4γメモリ206のアドレスを表しており、縦軸は、図13左から1番目と同様に、時刻を表している。
In the second from the left in FIG. 13, the horizontal axis represents the addresses of the
図13左から2番目において、ラインL51は、第1γメモリ203ないし第4γメモリ206に対する出力遷移確率γの書き込みの進行状況を示している。
In the second line from the left in FIG. 13, the line L51 indicates the progress of writing the output transition probability γ to the
出力遷移確率γは、時刻順に、第1γメモリ203ないし第4γメモリ206のアドレスの小さいワードから大きいワードに書き込まれていく。
The output transition probability γ is written in the order of time from the word with the smallest address in the
図13左から2番目において、ラインL52及びL53は、後ろ向き確率βの計算に用いられる出力遷移確率γの、第1γメモリ203ないし第4γメモリ206からの読み出しの進行状況を示している。
In the second line from the left in FIG. 13, lines L52 and L53 indicate the progress of reading from the
後ろ向き確率βの計算に用いられる出力遷移確率γの、第1γメモリ203ないし第4γメモリ206からの読み出しは、出力遷移確率γの計算が開始されたタイミング(時刻t=0)から、打ち切り長Dの2倍の時間2×Dだけ待って開始される。
The output transition probability γ used for calculating the backward probability β is read from the
そして、後ろ向き確率βの計算に用いられる出力遷移確率γの読み出しは、時刻を遡る順、すなわち、第1γメモリ203ないし第4γメモリ206のアドレスの大きいワードから小さいワードに向かって行われ、時間2D分の出力遷移確率γが読み出される。
Then, the reading of the output transition probability γ used for the calculation of the backward probability β is performed in the order of going back in time, that is, from the
図13左から2番目において、ラインL52は、時間2D分の出力遷移確率γのうちの、時刻を遡る順で、最初の時間D分の出力遷移確率γ(例えば、時刻t=0ないし2D-1の出力遷移確率γであれば、時刻t=Dないし2D-1の出力遷移確率)の読み出しの進行状況を示しており、この最初の時間D分の出力遷移確率γは、図13左から1番目のラインL12が表す後ろ向き確率β1の計算に用いられる。
In the second line from the left in FIG. 13, the line L52 indicates the output transition probability γ for the first time D in the order of going back in time among the output transition probabilities γ for
また、ラインL53は、時間2D分の後ろ向き確率βのうちの、時刻を遡る順で、後の時間D分の出力遷移確率γ(例えば、時刻t=0ないし2D-1の出力遷移確率γであれば、時刻t=0ないしD-1の出力遷移確率)の読み出しの進行状況を示しており、この後の時間D分の出力遷移確率γは、図13左から1番目のラインL13が表す後ろ向き確率β2の計算に用いられる。
Further, the line L53 indicates an output transition probability γ for the subsequent time D in the backward probability β for the
図13左から2番目において、ラインL54は、前向き確率αと出力軟値データλとの計算に用いられる出力遷移確率γの、第1γメモリ203ないし第4γメモリ206からの読み出しの進行状況を示している。
In the second line from the left in FIG. 13, a line L54 indicates the progress of reading from the
前向き確率αと出力軟値データλとの計算に用いられる出力遷移確率γの読み出しは、図13左から1番目のラインL14で説明した、前向き確率αと出力軟値データλとを計算するときに、時刻順に、つまり、第1γメモリ203ないし第4γメモリ206のアドレスの小さいワードから大きいワードに向かって行われる。
The reading of the output transition probability γ used for the calculation of the forward probability α and the output soft value data λ is performed when calculating the forward probability α and the output soft value data λ described in the first line L14 from the left in FIG. In addition, the processing is performed in time order, that is, from the
時刻t=4D以降においては、ラインL54が表す第1γメモリ203ないし第4γメモリ206からの出力遷移確率γの読み出しと、ラインL51が表す第1γメモリ203ないし第4γメモリ206に対する出力遷移確率γの書き込みとが同時に行われるリードモディファイライトが行われる。
After time t = 4D, the output transition probability γ is read from the
図13左から3番目(右から1番目)は、βメモリ213に対するデータの読み書きの進行状況を示している。
The third from the left in FIG. 13 (first from the right) shows the progress of reading / writing data to / from the
図13左から3番目において、横軸は、βメモリ213のアドレスを表しており、縦軸は、図13左から1番目と同様に、時刻を表している。
In the third from the left in FIG. 13, the horizontal axis represents the address of the
図13左から3番目において、ラインL61は、βメモリ213に対する後ろ向き確率β(β2)の書き込みの進行状況を示している。
In the third line from the left in FIG. 13, the line L61 indicates the progress of writing the backward probability β (β2) to the
後ろ向き確率β(β2)の、βメモリ213への書き込みは、ラインL61として示したように時刻3Dから開始される
The writing of the backward probability β (β2) to the
そして、後ろ向き確率β(β2)は、時刻を遡る順に、βメモリ213に書き込まれるが、この、時刻を遡る順の後ろ向き確率βの書き込みについては、βメモリ213のアドレスの大きいワードから小さいワードに向かって書き込みを行うことと、逆に、βメモリ213のアドレスの小さいワードから大きいワードに向かって書き込みを行うこととが、打ち切り長Dの周期で交互に繰り返される。
The backward probability β (β2) is written in the
なお、βメモリ213に書き込まれる後ろ向き確率βは、図13左から1番目のラインL13が表す後ろ向き確率β2だけである。
Note that the backward probability β written to the
図13左から3番目において、ラインL62は、出力軟値データλの計算に用いられる後ろ向き確率β2の、βメモリ213からの読み出しの進行状況を示している。
In the third line from the left in FIG. 13, a line L62 indicates the progress of reading from the
後ろ向き確率β2の、βメモリ213からの読み出しは、ラインL62として示したように時刻4Dから開始されるが、このラインL62では、打ち切り長Dだけ前に、βメモリ213に書き込まれた後ろ向き確率β2が読み出される。
Reading of the backward probability β2 from the
時刻t=4D以降においては、ラインL62が表すβメモリ213からの後ろ向き確率β2の読み出しと、ラインL61が表す後ろ向き確率β2の書き込みとが同時に行われるリードモディファイライトが行われる。
After time t = 4D, read-modify-write is performed in which reading of the backward probability β2 from the
なお、ラインL62が表すβメモリ213からの後ろ向き確率β2の読み出しは、その後ろ向き確率β2がβメモリ213に書き込まれたときの書き込み順の逆順で行われ、これにより、後ろ向き確率β2は、時刻順に、λ計算部112に供給される。
The backward probability β2 is read from the
ここで、第1β計算部109、又は第2β計算部110では、時刻を遡る順の後ろ向き確率β2が計算され、この、時刻を遡る順の後ろ向き確率β2については、βメモリ213のアドレスの大きいワードから小さいワードに向かって書き込みを行うことと、逆に、βメモリ213のアドレスの小さいワードから大きいワードに向かって書き込みを行うこととが、交互に繰り返される。
Here, the first
したがって、βメモリ213からの後ろ向き確率β2の読み出しが、その後ろ向き確率β2がβメモリ213に書き込まれたときの書き込み順の逆順で行われることにより、βメモリ213からは、後ろ向き確率β2が、時刻順に読み出される。
Therefore, the backward probability β2 is read from the
以上のように、入力データit(例えば、畳み込み符号器であるチャネル#22への入力となるLDPC符号)を符号化した符号化データXt(例えば、畳み込み符号器であるチャネル#22が出力する符号化データXt)がチャネル(例えば、AWGNチャネル)を経由することにより得られる入力軟値データYtを、入力データitの尤度を表す出力軟値データλtに復号するSISO復号器67において、入力軟値データYtから、出力軟値データλtを求める、例えば、式(18)や、式(19)、式(22)等の所定の計算に用いる出力遷移確率γや、後ろ向き確率βを記憶する記憶手段として、レジスタ3031ないし303Wを用いて構成された、データの書き込みと読み出しとを同時にすること(リードモディファイライト)が可能な第1γメモリ203ないし第4γメモリ206、及びβメモリ213を採用したので、SISO復号器67の回路規模を小さくすることができる。
As described above, encoded data X t (for example,
すなわち、出力遷移確率γを記憶する記憶手段として、レジスタを用いて構成された、リードモディファイライトが可能なメモリを採用することにより、出力遷移確率γを記憶する記憶手段は、図10に示したように、第1γメモリ203ないし第4γメモリ206の4個のメモリで済み、図7に示したシングルポートのRAMを採用した場合に、5個の第1γRAM103ないし第5γRAM107が必要となるのに対して、出力遷移確率γを記憶する記憶手段の個数を、1個だけ少なくすることができる。
That is, the storage means for storing the output transition probability γ by adopting a memory capable of read-modify-write configured using a register as the storage means for storing the output transition probability γ is shown in FIG. As described above, four memories, ie, the
同様に、後ろ向き確率βを記憶する記憶手段として、レジスタを用いて構成された、リードモディファイライトが可能なメモリを採用することにより、後ろ向き確率βを記憶する記憶手段は、図10に示したように、βメモリ213の、1個のメモリだけで済み、図7に示したシングルポートのRAMを採用した場合に、2個の第1βRAM113及び第2βRAM114が必要となるのに対して、後ろ向き確率βを記憶する記憶手段の個数を、1個だけ少なくすることができる。
Similarly, as a storage means for storing the backward probability β, a storage means configured by using a register and capable of read-modify-write is used, so that the storage means for storing the backward probability β is as shown in FIG. Furthermore, only one memory of the
また、ワード数が小さい場合には、シングルポートのRAMは、前述したように、メモリセル以外のオーバヘッドが占める割合が大になるため、同一の記憶容量であれば、シングルポートのRAMより、レジスタを用いて構成された、リードモディファイライトが可能なメモリの方が、回路規模を小さくすることができ、かかる点からも、リードモディファイライトが可能なメモリを採用することにより、SISO復号器67の回路規模を小さくすることができる。
In addition, when the number of words is small, the single-port RAM has a large proportion of overhead other than memory cells, as described above. The memory that can be used for read-modify-write can be reduced in circuit scale, and from this point of view, by adopting a memory that can be used for read-modify-write, the
さらに、図12で説明したように、第1γメモリ203ないし第4γメモリ206からの、前向き確率αの計算、及び出力軟値データλの計算に用いられる出力遷移確率γの読み出し、並びに、γ計算部101で求められた出力遷移確率γの、第1γメモリ203ないし第4γメモリ206への書き込みを、同時に行うリードモディファイライトと、βメモリ213からの、λ計算部112で用いる後ろ向き確率β2の読み出し、及び、第1β計算部109、又は第2β計算部110で計算された後ろ向き確率β2の、βメモリ213への書き込みを、同時に行うリードモディファイライトとが行われるように、第1γメモリ203ないし第4γメモリ206、及びβメモリ213に対する読み書きの制御を行うことにより、図13で説明したように、シングルポートのRAMを採用した図9の場合と同一の処理速度(性能)で、軟入力軟出力の復号を行うことができる。
Further, as described with reference to FIG. 12, the output probability γ used for calculating the forward probability α and the output soft value data λ from the
なお、図10のSISO復号器67では、SW-Max-Log-BCJRアルゴリズムの他、例えば、SW-Log-BCJRアルゴリズム等にしたがって、軟入力軟出力の復号を行うことが可能である。
Note that the
また、本実施の形態では、光ディスクから得られた入力軟値データYtを、出力軟値データλtに復号することとしたが、本発明は、光ディスク等の記録媒体から得られた入力軟値データYtを出力軟値データλtに復号する場合の他、例えば、無線や有線の伝送媒体を介して送信されてきた入力軟値データYtを出力軟値データλtに復号する場合にも適用することができる。 In the present embodiment, the input soft value data Y t obtained from the optical disc is decoded into the output soft value data λ t , but the present invention is applied to the input soft value data obtained from a recording medium such as an optical disc. another case of decoding the value data Y t to output soft values data lambda t, for example, when decoding an input soft value data Y t that is transmitted via a wireless or wired transmission medium to the output soft value data lambda t It can also be applied to.
さらに、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。 Furthermore, the embodiment of the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the present invention.
21 畳み込み符号器, 22 無記憶通信路, 23 復号器, 61 リードソロモン符号器, 62 LDPC符号器, 63 変調符号器, 64 NRZI変換器, 65 記録再生系, 67 SISO復号器, 68 LDPC復号器, 69 リードソロモン復号器, 101 γ計算部, 102 γRAM制御部, 103 第1γRAM, 104 第2γRAM, 105 第3γRAM, 106 第4γRAM, 107 第5γRAM, 108 α計算部, 109 第1β計算部, 110 第2β計算部, 111 βRAM制御部, 112 λ計算部, 113 第1βRAM, 114 第2βRAM, 202 γメモリ制御部, 203 第1γメモリ, 204 第2γメモリ, 205 第3γメモリ, 206 第4γメモリ, 211 βメモリ制御部, 213 βメモリ 21 convolutional encoder, 22 memoryless channel, 23 decoder, 61 Reed-Solomon encoder, 62 LDPC encoder, 63 modulation encoder, 64 NRZI converter, 65 recording / reproducing system, 67 SISO decoder, 68 LDPC decoder , 69 Reed-Solomon decoder, 101 γ calculation unit, 102 γRAM control unit, 103 1st γRAM, 104 2nd γRAM, 105 3rd γRAM, 106 4th γRAM, 107 5th γRAM, 108 α calculation unit, 109 1st β calculation unit, 110 1st 2β calculation unit, 111 βRAM control unit, 112 λ calculation unit, 113 first βRAM, 114 second βRAM, 202 γ memory control unit, 203 first γ memory, 204 second γ memory, 205 third γ memory, 206 fourth γ memory, 211 β Memory control unit, 213 β memory
Claims (4)
前記入力軟値データから、前記出力軟値データを求める所定の計算を行う計算手段と、
前記所定の計算に用いるデータを記憶する記憶手段と
を備え、
前記記憶手段は、レジスタを用いて構成された、データの書き込みと読み出しとを同時にすることが可能なメモリである
復号装置。 Decodes input soft value data, which is soft value data obtained by encoding data encoded through the channel, into output soft value data, which is soft value data representing the likelihood of the input data. In the decoding device
Calculation means for performing a predetermined calculation for obtaining the output soft value data from the input soft value data;
Storage means for storing data used for the predetermined calculation,
The decoding unit is a memory configured by using a register and capable of simultaneously writing and reading data.
請求項1に記載の復号装置。 The decoding device according to claim 1, wherein the calculation means performs calculation according to a SW-Log-BCJR algorithm or a SW-Max-Log-BCJR algorithm.
トレリスにおいて、時刻t-1に、状態m'にいて、次の時刻tの入力データitがある値iであるときに、ある入力軟値データYtが観測され、状態mに遷移する出力遷移確率γt(m',m,i)を表すデータを記憶する4つのγメモリと、
ある時刻t+1以降に、前記入力軟値データの系列Yt+1,Yt+2,・・・が観測されるときに、前記トレリスにおいて、時刻tに、状態mにいる後ろ向き確率βt(m)を表すデータを記憶する1つのβメモリと
を有する
請求項2に記載の復号装置。 As the storage means,
In the trellis, at time t−1, in the state m ′, when the input data it at the next time t is a certain value i, certain input soft value data Y t is observed, and the output transitions to the state m Four γ memories for storing data representing the transition probability γ t (m ′, m, i);
When the input soft value data series Y t + 1 , Y t + 2 ,... Is observed after a certain time t + 1, the backward probability β in the state m at the time t in the trellis. The decoding device according to claim 2, further comprising: one β memory that stores data representing t (m).
前記出力遷移確率γt(m',m,i)を表すデータを計算するγ計算部と、
前記出力遷移確率γt(m',m,i)を表すデータを用いて、前記入力軟値データの系列Y1,Y2,・・・,Ytが観測されたときに、前記トレリスにおいて、時刻tに、状態mにいる前向き確率αt(m)を表すデータを計算するα計算部と、
時刻tに、状態mにいて、次の時刻t+1に、状態m'に遷移する前記出力遷移確率γt+1(m,m',i)を表すデータを用いて、前記後ろ向き確率βt(m)を表すデータを計算するβ計算部と、
前記出力遷移確率γt(m',m,i)、時刻t-1に状態m'にいる前記前向き確率αt-1(m')、及び前記後ろ向き確率βt(m)を表すデータを用いて、時刻tの入力データitがある値iであることの尤度を表す前記出力軟値データλtを計算するλ計算部と
を有し、
前記γ計算部で計算された前記出力遷移確率γt(m',m,i)を表すデータの書き込みと、前記前向き確率αt(m)を表すデータの計算、及び前記出力軟値データλtの計算に必要な前記出力遷移確率γt(m',m,i)を表すデータの読み出しとが同時に行われるように、前記γメモリに対するデータの書き込みと読み出しとを制御するγメモリ制御部と、
前記β計算部で計算された前記後ろ向き確率βt(m)を表すデータの書き込みと、前記出力軟値データλtの計算に必要な前記後ろ向き確率βt(m)を表すデータの読み出しとが同時に行われるように、前記βメモリに対するデータの書き込みと読み出しとを制御するβメモリ制御部と
をさらに備える請求項3に記載の復号装置。 As the calculation means,
A γ calculator that calculates data representing the output transition probability γ t (m ′, m, i);
The output transition probability γ t (m ', m, i) using the data representing the said input soft value sequence Y 1 data, Y 2, · · ·, when Y t is observed, in the trellis An α calculation unit for calculating data representing a forward probability α t (m) in the state m at time t;
Using the data representing the output transition probability γ t + 1 (m, m ′, i) that is in the state m at time t and transitions to the state m ′ at the next time t + 1, the backward probability β a β calculator for calculating data representing t (m);
Data representing the output transition probability γ t (m ′, m, i), the forward probability α t-1 (m ′) in the state m ′ at time t−1, and the backward probability β t (m) used, and a lambda calculating section for calculating the output soft values data lambda t representing the likelihood that the input data i t is a value i at time t,
Writing of data representing the output transition probability γ t (m ′, m, i) calculated by the γ calculation unit, calculation of data representing the forward probability α t (m), and the output soft value data λ A γ memory control unit that controls writing and reading of data to and from the γ memory so that reading of data representing the output transition probability γ t (m ′, m, i) necessary for calculating t is performed simultaneously. When,
Writing data representing the backward probability β t (m) calculated by the β calculating unit and reading data representing the backward probability β t (m) necessary for calculating the output soft value data λ t The decoding device according to claim 3, further comprising: a β memory control unit that controls writing and reading of data to and from the β memory so as to be performed simultaneously.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007013831A JP2008182442A (en) | 2007-01-24 | 2007-01-24 | Decoding device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007013831A JP2008182442A (en) | 2007-01-24 | 2007-01-24 | Decoding device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008182442A true JP2008182442A (en) | 2008-08-07 |
Family
ID=39726013
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007013831A Withdrawn JP2008182442A (en) | 2007-01-24 | 2007-01-24 | Decoding device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008182442A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010135918A (en) * | 2008-12-02 | 2010-06-17 | Nec Corp | Arithmetic unit, decoder, memory control method, and program |
-
2007
- 2007-01-24 JP JP2007013831A patent/JP2008182442A/en not_active Withdrawn
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010135918A (en) * | 2008-12-02 | 2010-06-17 | Nec Corp | Arithmetic unit, decoder, memory control method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6980605B2 (en) | MAP decoding with parallelized sliding window processing | |
US6445755B1 (en) | Two-step soft output viterbi algorithm decoder using modified trace back | |
US9337866B2 (en) | Apparatus for processing signals carrying modulation-encoded parity bits | |
CN1391220A (en) | Information record and reproduction device, method and signal decoding circuit | |
JP2004080508A (en) | Decoding method for error correction code, its program, and its device | |
US5548600A (en) | Method and means for generating and detecting spectrally constrained coded partial response waveforms using a time varying trellis modified by selective output state splitting | |
JP2007510337A (en) | Viterbi / Turbo integrated decoder for mobile communication systems | |
US7180843B2 (en) | Information recording and reproduction apparatus, optical disk apparatus and data reproduction method | |
US20130007568A1 (en) | Error correcting code decoding device, error correcting code decoding method and error correcting code decoding program | |
JP2009095008A (en) | Turbo coder/decoder, turbo coding/decoding method, and communication system | |
JP5075642B2 (en) | Metric calculation for MAP decoding using butterfly structure of trellis diagram | |
EP1143440A2 (en) | Method and apparatus for reproducing data and method and apparatus for recording and/or reproducing data | |
US20010016932A1 (en) | Apparatus and method for performing SISO decoding | |
JP2010073264A (en) | Decoding device and decoding method | |
JP3607683B2 (en) | Disk storage device and data recording / reproducing method | |
JP3823731B2 (en) | Error correction decoder | |
JP2002076921A (en) | Method and apparatus for error correction code decoding | |
JP2008182442A (en) | Decoding device | |
JP2001127647A (en) | Decoder for parallel consecutive code, decoding method, and storage medium recording decoding program | |
CN106209117B (en) | Low-resource-consumption multi-parameter configurable Viterbi decoder | |
JP2001285080A (en) | Decoding device and method and recording medium having decoding program recorded thereon | |
KR100838907B1 (en) | Decoder and decoding method | |
JP2008187496A (en) | Decoder, and decoding method | |
EP1495547A1 (en) | A memory management algorithm for trellis decoders | |
KR100436434B1 (en) | Turbo decoder that have a state metric, and Calculation method by Using it |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20100406 |