JP2008182442A - Decoding device - Google Patents

Decoding device Download PDF

Info

Publication number
JP2008182442A
JP2008182442A JP2007013831A JP2007013831A JP2008182442A JP 2008182442 A JP2008182442 A JP 2008182442A JP 2007013831 A JP2007013831 A JP 2007013831A JP 2007013831 A JP2007013831 A JP 2007013831A JP 2008182442 A JP2008182442 A JP 2008182442A
Authority
JP
Japan
Prior art keywords
data
probability
time
memory
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007013831A
Other languages
Japanese (ja)
Inventor
Mineshi Yokogawa
峰志 横川
Takashi Horiguchi
孝 堀口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2007013831A priority Critical patent/JP2008182442A/en
Publication of JP2008182442A publication Critical patent/JP2008182442A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Detection And Correction Of Errors (AREA)
  • Error Detection And Correction (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To reduce a circuit scale of a decoding device for performing decoding in a soft input and a soft output. <P>SOLUTION: An SISO decoder 67 decodes input soft value data Y<SB>t</SB>being data of a soft value which is obtained when encoding data X<SB>t</SB>obtained by encoding input data i<SB>t</SB>, routed through a channel into output soft value data λ<SB>t</SB>being data of a soft value which expresses the likelihood of the input data i<SB>t</SB>. The decoder 67 adopts a first γ memory 203 to a fourth γ memory 206, and a β memory 213 which are constituted by using registers and simultaneously perform data writing/reading as storage means for storing data used for prescribed calculation to obtain the output soft value data λ<SB>t</SB>from the input soft value data X<SB>t</SB>. The present invention is applicable to an optical disk device, etc., for example. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、復号装置に関し、特に、軟値のデータである入力軟値データを、他の軟値のデータである出力軟値データに復号する、軟入力軟出力の復号装置の回路規模を小さくすることができるようにする復号装置に関する。   The present invention relates to a decoding device, and in particular, reduces the circuit scale of a soft input / soft output decoding device that decodes input soft value data, which is soft value data, into output soft value data, which is other soft value data. The present invention relates to a decoding device that can perform the above.

ディスク等の記録媒体にデータを記録する場合には、誤り訂正等のために、データは、符号化されて記録される。   When data is recorded on a recording medium such as a disk, the data is encoded and recorded for error correction or the like.

図1は、従来の光ディスク装置の一例の構成を示している。   FIG. 1 shows an example of the configuration of a conventional optical disc apparatus.

図1の光ディスク装置においては、データの記録時には、図示せぬ光ディスクに記録する記録対象のデータが、リードソロモン符号器11に供給される。   In the optical disc apparatus of FIG. 1, data to be recorded to be recorded on an optical disc (not shown) is supplied to the Reed-Solomon encoder 11 when data is recorded.

ここで、記録対象のデータは、ビット列であり、各ビットは、0又は1のうちのいずれかの値をとる。   Here, the data to be recorded is a bit string, and each bit takes a value of 0 or 1.

リードソロモン符号器11は、記録対象のデータをリードソロモン符号に符号化し、0又は1のうちのいずれかの値をとるビット列としてのリードソロモン符号を、変調符号器12に供給する。   The Reed-Solomon encoder 11 encodes data to be recorded into a Reed-Solomon code, and supplies a Reed-Solomon code as a bit string that takes one of 0 or 1 to the modulation encoder 12.

変調符号器12は、リードソロモン符号器11からのリードソロモン符号を、例えば、17PP符号(Parity Preserve/Prohibit Repeated Minimum Transition Runlength)等の変調符号に変調符号化し、その変調符号として、0又は1のうちのいずれかの値をとるビット列としての17PP符号を、NRZI(Non Return to Zero Inversion)変換器13に供給する。   The modulation encoder 12 modulation-codes the Reed-Solomon code from the Reed-Solomon encoder 11 into a modulation code such as a 17PP code (Parity Preserve / Prohibit Repeated Minimum Transition Runlength), for example. A 17PP code as a bit string having one of these values is supplied to an NRZI (Non Return to Zero Inversion) converter 13.

ここで、変調符号器12での変調符号化は、例えば、リードソロモン符号と17PP符号とを対応付けた変換テーブルを用いて行うことができる。   Here, the modulation encoding by the modulation encoder 12 can be performed using, for example, a conversion table in which Reed-Solomon codes and 17PP codes are associated with each other.

また、17PP符号は、1と1との間に、1ないし7の範囲のいずれかの個数の0が現れ、1が連続しない符号(Run Length Limited Code(1,7))である。   The 17PP code is a code in which any number of 0s in the range of 1 to 7 appears between 1 and 1, and 1s are not consecutive (Run Length Limited Code (1, 7)).

NRZI変換器13は、変調符号器12からの17PP符号をNRZI変換し、その結果得られるNRZI信号が、記録再生系14に供給される。記録再生系14は、NRZI変換器13からのNRZI信号を、図示せぬ光ディスクにピットの形で書き込む。   The NRZI converter 13 performs NRZI conversion on the 17PP code from the modulation encoder 12, and an NRZI signal obtained as a result is supplied to the recording / reproducing system 14. The recording / reproducing system 14 writes the NRZI signal from the NRZI converter 13 in the form of pits on an optical disk (not shown).

ここで、NRZI変換では、NRZI変換器13に対する入力が0である場合には、直前の出力が、そのままNRZI信号として出力され、入力が1である場合には、直前の出力が反転されて、NRZI信号として出力される。   Here, in the NRZI conversion, when the input to the NRZI converter 13 is 0, the immediately preceding output is output as it is as an NRZI signal, and when the input is 1, the immediately preceding output is inverted, Output as NRZI signal.

したがって、NRZI変換器13に対する入力が、17PP符号のように、1と1との間に、少なくとも1個の0が入るビット列ではない、例えば、1が連続したビット列11111111である場合には、NRZI変換器13の出力は、ビット列10101010となって、そのビット列10101010に対応するピットが、光ディスクに形成される。そして、ビット列10101010に対応するピットに対して、光ディスクから再生される再生信号は、1ビットに相当する短い周期で、H(High)レベルとL(Low)レベルとが切り換わる、振幅の小さい信号となるため、再生信号の信号レベルを検出しにくくなる。   Therefore, when the input to the NRZI converter 13 is not a bit string in which at least one 0 is inserted between 1 and 1 as in a 17PP code, for example, when 1 is a continuous bit string 11111111, NRZI The output of the converter 13 is a bit string 10101010, and pits corresponding to the bit string 10101010 are formed on the optical disc. The reproduction signal reproduced from the optical disc for the pit corresponding to the bit string 10101010 is a signal having a small amplitude that switches between the H (High) level and the L (Low) level in a short cycle corresponding to 1 bit. Therefore, it becomes difficult to detect the signal level of the reproduction signal.

一方、NRZI変換器13に対する入力が、1と1との間に、少なくとも1個の0が入る17PP符号であり、例えば、1と0とが交互に並んだ10101010である場合には、NRZI変換器13の出力は、11001100となって、そのビット列11001100に対応するピットが、光ディスクに形成される。そして、ビット列11001100に対応するピットに対して、光ディスクから再生される再生信号は、2ビットに相当するある程度長い周期で、HレベルとLレベルとが切り換わる、振幅がある程度大きい信号となるため、再生信号の信号レベルを検出しやすくなる。   On the other hand, when the input to the NRZI converter 13 is a 17PP code in which at least one 0 is inserted between 1 and 1, for example, 10101010 in which 1 and 0 are alternately arranged, NRZI conversion The output of the device 13 is 11001100, and pits corresponding to the bit string 11001100 are formed on the optical disc. And, for the pit corresponding to the bit string 11001100, the reproduction signal reproduced from the optical disc becomes a signal with a somewhat large amplitude in which the H level and the L level are switched in a somewhat long cycle corresponding to 2 bits. It becomes easy to detect the signal level of the reproduction signal.

なお、NRZI変換器13に対する入力が、0が長期に亘って連続するビット列である場合には、光ディスクから再生される再生信号は、長期間に亘って、レベルの変化が緩やかな信号となって、光ディスク装置の各ブロックの動作に必要なクロック信号を生成するPLL(Phase Lock Loop)のロックに時間を要する、あるいはPLLがロックしない、といった問題が生じるので、NRZI変換器13に対する入力は、17PP符号のように、0が連続する最大の個数も、ある程度の値に制限される。   When the input to the NRZI converter 13 is a bit string in which 0 is continuous over a long period of time, the reproduction signal reproduced from the optical disc is a signal whose level change is gentle over a long period of time. Since there is a problem that it takes time to lock a PLL (Phase Lock Loop) that generates a clock signal necessary for the operation of each block of the optical disk apparatus or the PLL does not lock, the input to the NRZI converter 13 is 17PP. Like the code, the maximum number of consecutive zeros is also limited to a certain value.

次に、図1の光ディスク装置においては、データの再生時には、記録再生系14が、光ディスクから再生信号を再生する。記録再生系14は、図示せぬA/D(Analog/Digital)変換器や等化器等を有し、光ディスクからの再生信号をA/D変換し、さらに、波形等化等の処理を施して、軟値のデータを出力する。なお、記録再生系14は、その他、図示せぬPLL回路を有し、PLL回路では、再生信号に基づいて、光ディスク装置の各ブロックを動作させるためのクロック信号が生成される。   Next, in the optical disc apparatus of FIG. 1, when reproducing data, the recording / reproducing system 14 reproduces a reproduction signal from the optical disc. The recording / reproducing system 14 includes an A / D (Analog / Digital) converter and an equalizer (not shown), A / D-converts a reproduction signal from the optical disk, and performs processing such as waveform equalization. To output soft data. In addition, the recording / reproducing system 14 includes a PLL circuit (not shown), which generates a clock signal for operating each block of the optical disc apparatus based on the reproduced signal.

記録再生系14が出力する軟値のデータは、ビタビ復号器16に供給される。   The soft value data output from the recording / reproducing system 14 is supplied to the Viterbi decoder 16.

ここで、図1の光ディスク装置において、光ディスクに対する記録再生を行う記録再生系14は、PR121チャネル、PR1221チャネル、又はPR12221チャネルなどのPR(Partial Response)チャネルと、AWGN(Additive White Gaussian Noise)チャネルとから構成されると考えることができる。   Here, in the optical disk apparatus of FIG. 1, the recording / reproducing system 14 that performs recording / reproducing on an optical disk includes a PR (Partial Response) channel such as a PR121 channel, a PR1221 channel, or a PR12221 channel, an AWGN (Additive White Gaussian Noise) channel, and the like. Can be thought of as consisting of

したがって、NRZI変換器13が出力するNRZI信号は、記録再生系14において、PRチャネルを介し、さらに、AWGNチャネルを介することにより、ノイズが付加され、軟値のデータとして出力される。   Therefore, the NRZI signal output from the NRZI converter 13 is added with noise through the PR channel and further through the AWGN channel in the recording / reproducing system 14, and is output as soft value data.

PRチャネルは、時間の経過にしたがって遷移する状態(ステート)と、ある時刻t-1の状態から次の時刻tの状態への遷移を表す枝とで表現されるトレリスで表現することができる。   The PR channel can be represented by a trellis represented by a state (state) that transitions with time and a branch that represents a transition from a state at a certain time t-1 to a state at the next time t.

そして、トレリスで表現することができるPRチャネルに、NRZI変換器13を含めたチャネルsys#11も、トレリスで表現することができる。   The channel sys # 11 including the NRZI converter 13 in the PR channel that can be represented by the trellis can also be represented by the trellis.

トレリスで表現することができるチャネルを経由して(介して)読み出しがされた軟値のデータは、最尤復号により硬値のデータに復号することができる。   Soft value data read out via a channel that can be represented by a trellis can be decoded into hard value data by maximum likelihood decoding.

そこで、ビタビ復号器16は、記録再生系14からの軟値のデータを、最尤復号の1つであるビタビ復号によって、硬値のデータである17PP符号に復号し、変調復号器17に供給する。   Therefore, the Viterbi decoder 16 decodes the soft value data from the recording / reproducing system 14 into a 17PP code which is hard value data by Viterbi decoding which is one of the maximum likelihood decodings, and supplies it to the modulation decoder 17. To do.

変調復号器17は、ビタビ復号器16からの、0又は1のうちのいずれかの値をとるビット列である17PP符号を、例えば、リードソロモン符号と17PP符号とを対応付けた変換テーブルを用いて、リードソロモン符号に復号し、リードソロモン復号器18に供給する。   The modulation decoder 17 uses, for example, a conversion table in which a Reed-Solomon code and a 17PP code are associated with each other, for example, a 17PP code that is a bit string having a value of 0 or 1 from the Viterbi decoder 16. The Reed-Solomon code is decoded and supplied to the Reed-Solomon decoder 18.

リードソロモン復号器18は、変調復号器17からの、0又は1のうちのいずれかの値をとるビット列であるリードソロモン符号を、元の、0又は1のうちのいずれかの値をとるデータ(記録対象のデータ)に復号して出力する。   The Reed-Solomon decoder 18 converts the Reed-Solomon code, which is a bit string having a value of 0 or 1 from the modulation decoder 17, into the original data having a value of 0 or 1. Decode to (data to be recorded) and output.

ところで、上述のように、ビタビ復号器16は、軟値のデータを、硬値のデータに復号するが、近年、軟値のデータを他の軟値のデータに復号する、軟入力軟出力の復号を行う軟入力軟出力復号装置を採用することの要請が高まってきている。   By the way, as described above, the Viterbi decoder 16 decodes soft value data into hard value data. However, in recent years, a soft-input soft-output, which decodes soft-value data into other soft-value data. There is an increasing demand for adopting a soft-input / soft-output decoding device that performs decoding.

軟入力軟出力復号装置の実装アルゴリズムには、例えば、BCJR(Bahl-Cocke-Jeinek-Raviv)アルゴリズム、Max-Log-BCJRアルゴリズム、SW-Max-Log-BCJRアルゴリズム等がある。   Examples of the implementation algorithm of the soft input / soft output decoding device include a BCJR (Bahl-Cocke-Jeinek-Raviv) algorithm, a Max-Log-BCJR algorithm, and a SW-Max-Log-BCJR algorithm.

例えば、BCJRアルゴリズムは、畳み込み符号の復号後のシンボル誤り率を最小にする復号法として知られている(例えば、非特許文献1を参照)。   For example, the BCJR algorithm is known as a decoding method that minimizes the symbol error rate after decoding a convolutional code (see Non-Patent Document 1, for example).

BCJRアルゴリズムでは、復号結果として各シンボルを出力するのではなく、各シンボルの尤度を出力することができる。   The BCJR algorithm can output the likelihood of each symbol instead of outputting each symbol as a decoding result.

このようなシンボルの尤度の出力は、軟出力(soft-output)と呼ばれる。   Such symbol likelihood output is called soft-output.

近年、連接符号の内符号の復号出力や、繰り返し復号法の各繰り返しの復号出力を、軟出力とすることで、シンボル誤り確率を小さくする研究がされており、そのような軟出力を復号出力とする、軟入力軟出力の復号に適した復号法として、BCJRアルゴリズムが注目されるようになった。   In recent years, research has been conducted to reduce the symbol error probability by making the decoding output of the inner code of the concatenated code and the decoding output of each iteration of the iterative decoding method soft, and decoding such soft output As a decoding method suitable for soft input / soft output decoding, the BCJR algorithm has been attracting attention.

図2は、BCJRアルゴリズムを説明する通信路のモデル(通信路モデル)を示している。   FIG. 2 shows a communication channel model (communication channel model) for explaining the BCJR algorithm.

図2の通信路モデルは、畳み込み符号器21、無記憶通信路22、及び復号器23で構成され、ディジタルの情報(データ)を畳み込み符号化し、雑音がある無記憶通信路(チャネル)を介して得られたデータを復号する。   The communication channel model shown in FIG. 2 includes a convolutional encoder 21, a memoryless communication channel 22, and a decoder 23, which convolutionally encodes digital information (data) and passes through a noiseless communication channel (channel) with noise. Decode the data obtained.

すなわち、畳み込み符号器21には、畳み込み符号化の対象の入力データitが供給される。ここで、tは時刻を表し、入力データitは、時刻tに、畳み込み符号器21に供給される畳み込み符号化の対象のデータである。 That is, the convolutional encoder 21, the input data i t of the target convolutional coding is supplied. Here, t represents the time, the input data i t is the time t, the data of the target convolutional coding is supplied to the convolutional encoder 21.

畳み込み符号器21は、そこに供給される入力データitを畳み込み符号化し、入力データitの畳み込み符号化結果としての符号化データXtを出力する。符号化データXtは、無記憶通信路22を経由する(介する)ことにより、軟値のデータである入力軟値データYtとなって、復号器23に供給される。復号器23では、入力軟値データYtを、入力データitの尤度を表す軟値のデータである出力軟値データλtに復号する軟入力軟出力の復号が行われる。 Convolutional encoder 21 performs convolution encoding input data i t supplied thereto, and outputs the encoded data X t as convolutional encoding result of the input data i t. The encoded data X t passes through the memoryless communication path 22 to be input soft value data Y t which is soft value data, and is supplied to the decoder 23. The decoder 23, an input soft value data Y t, decoding the soft-input soft output decoding is performed on the output soft value data lambda t is a data soft values representing the likelihood of the input data i t.

図3は、図2の畳み込み符号器21を表すトレリスを示している。   FIG. 3 shows a trellis representing the convolutional encoder 21 of FIG.

トレリスは、上述したように、時間の経過にしたがって遷移する状態Stと、ある時刻t-1の状態St-1から次の時刻tの状態Stへの遷移を表す枝とで表現される。 Trellis, as described above, is represented by a state S t a transition over time, the branch from state S t-1 of a time t-1 represents a transition to state S t at the next time t The

なお、畳み込み符号器21は、図示せぬシフトレジスタを内蔵し、そのシフトレジスタを用いて畳み込み符号化を行うが、トレリスの状態の個数(時刻tの状態数)Mは、畳み込み符号器21が内蔵するシフトレジスタが取り得る内容の数(シフトレジスタが記憶する値のパターン数)に等しい。   The convolutional encoder 21 includes a shift register (not shown) and performs convolutional encoding using the shift register. The number of trellis states (the number of states at time t) M is determined by the convolutional encoder 21. It is equal to the number of contents that the built-in shift register can take (number of patterns of values stored in the shift register).

図3のトレリスにおいては、時刻t-1の状態St-1が、状態m'(m'=0,1,・・・,M-1)であり、次の時刻tに、入力データitに対して、符号化データXtが観測され、時刻tの状態Stが、状態m(m=0,1,・・・,M-1)に遷移している。 In the trellis shown in FIG. 3, the state S t-1 at time t-1 is the state m ′ (m ′ = 0, 1,..., M−1), and at the next time t, the input data i relative t, is observed coded data X t, the state S t at time t is the state m (m = 0,1, ···, M-1) is a transition to.

ここで、時刻tにおいて、状態m'から状態mに遷移する状態遷移確率pt(m|m')を、式(1)で表す。 Here, at time t, the state transition probability p t (m | m ′) for transitioning from the state m ′ to the state m is expressed by Expression (1).

Figure 2008182442
・・・(1)
Figure 2008182442
... (1)

なお、Pr{A|B}は、事象Bが起こった条件のもので、事象Aが起こる条件付き確率を表す。   Pr {A | B} is a condition under which event B occurs, and represents a conditional probability that event A will occur.

いま、畳み込み符号化が、時刻t=0の状態S0=0から開始され、符号化データXtの系列(時系列)X1 τ=X1,X2,・・・,Xτを出力し、時刻t=τの状態Sτ=0で終了することとする。 Now, convolutional coding starts from state S 0 = 0 at time t = 0, and outputs a sequence (time series) X 1 τ = X 1 , X 2 ,..., X τ of encoded data X t Then, it is assumed that the process ends in the state S τ = 0 at time t = τ.

さらに、無記憶通信路22が、符号化データ(の系列)X1 τの入力に対して、入力軟値データYtの系列Y1 τ=Y1,Y2,・・・,Yτを出力することとする。 Further, the memoryless channel 22 receives the sequence Y 1 τ = Y 1 , Y 2 ,..., Y τ of the input soft value data Y t with respect to the input of the encoded data (sequence) X 1 τ. It will output.

ここで、雑音がある無記憶通信路22の遷移確率は、すべての時刻t=1,2,・・・,τについて、式(2)を満たす関数R(|)によって定義される。   Here, the transition probability of the memoryless communication path 22 with noise is defined by a function R (|) satisfying the expression (2) for all times t = 1, 2,.

Figure 2008182442
・・・(2)
Figure 2008182442
... (2)

ここで、関数R(Yj|Xj)は、時刻t=jの符号化データXjが、無記憶通信路22を介することにより、入力軟値データYjに変換される変換確率を表す。 Here, the function R (Y j | X j ) represents the conversion probability that the encoded data X j at time t = j is converted into the input soft value data Y j through the memoryless communication path 22. .

そして、入力データitが取り得る値が、例えば、0又は1であるとすると、入力軟値データ(の系列)Y1 τ(=Y1,Y2,・・・,Yτ)が観測された場合の、時刻tの入力データitの尤度(を表す軟値のデータである出力軟値データ)λtは、入力軟値データY1 τが観測されたときに、入力データitが1である確率Pr{it=1|Y1 τ}と、入力軟値データY1 τが観測されたときに、入力データitが0である確率Pr{it=0|Y1 τ}とを用いて、式(3)で表される。 The possible values for input data i t is, for example, when a is 0 or 1, the input soft value data (series) Y 1 τ (= Y 1 , Y 2, ···, Y τ) is observed when it is, the lambda t (output soft values data is data soft values representing the) likelihood of the input data i t at time t, when the input soft value data Y 1 tau is observed, the input data i The probability Pr {i t = 1 | Y 1 τ } that t is 1 and the probability Pr {i t = 0 | Y that the input data it is 0 when the input soft value data Y 1 τ is observed 1 τ } and is expressed by Equation (3).

Figure 2008182442
・・・(3)
Figure 2008182442
... (3)

式(3)の出力軟値データλtを求めるために、確率αt(m),βt(m)、及びγt(m',m,i)を、次式で定義する。 In order to obtain the output soft value data λ t of Equation (3), the probabilities α t (m), β t (m), and γ t (m ′, m, i) are defined by the following equations.

Figure 2008182442
・・・(4)
Figure 2008182442
... (4)

Figure 2008182442
・・・(5)
Figure 2008182442
... (5)

Figure 2008182442
・・・(6)
Figure 2008182442
... (6)

式(4)の確率αt(m)は、入力軟値データYtの系列全体Y1 τの先頭の時刻である1から、ある時刻tまでの間において、入力軟値データの系列Y1 t=Y1,Y2,・・・,Ytが観測されたときに、トレリスにおいて、時刻tに、状態mにいる(St=m)確率Pr{St=m;Y1 t}であり、以下、適宜、前向き確率という。なお、Pr{A;B}は、事象AとBとがともに起こる確率を表す。 Equation (4) of the probability alpha t (m) is input soft value data Y 1 is the time at the beginning of the entire sequence Y 1 tau of t, during the period until a certain time t, the input soft value data sequence Y 1 t = Y 1, Y 2, ···, when Y t is observed, in the trellis at time t, being in state m (S t = m) probability Pr {S t = m; Y 1 t} Hereinafter, this is referred to as a forward probability as appropriate. Pr {A; B} represents the probability that events A and B will occur together.

式(5)の確率βt(m)は、ある時刻t+1から、入力軟値データYtの系列全体Y1 τの最後の時刻τまでの間において、入力軟値データの系列Yt+1 τ=Yt+1,Yt+2,・・・,Yτが観測されるときに、トレリスにおいて、時刻tに、状態mにいる確率(時刻tに、状態mにいて、その後の時刻t+1から時刻τまでの間に、入力軟値データの系列Yt+1 τ=Yt+1,Yt+2,・・・,Yτが観測される確率)Pr{Yt+1 τ|St=m}であり、以下、適宜、後ろ向き確率という。 The probability β t (m) in the equation (5) is a sequence of input soft value data Y t from a certain time t + 1 to the last time τ of the entire sequence Y 1 τ of the input soft value data Y t. +1 τ = Y t + 1 , Y t + 2 , ..., Y τ When τ is observed, the probability that the trellis is in state m at time t (at time t, in state m and then Of the input soft value data Y t + 1 τ = Y t + 1 , Y t + 2 ,..., Y τ ) from time t + 1 to time τ) Pr {Y t + 1 τ | S t = m}, hereinafter referred to as a backward probability as appropriate.

式(6)の確率γt(m',m,i)は、トレリスにおいて、時刻t-1に、状態m'にいて、次の時刻tの入力データitがある値iであるときに、ある入力軟値データYtが観測され、時刻tに、状態mに遷移する確率(枝メトリック)Pr{St=m;Yt;it=i|St-1=m'}であり、以下、適宜、出力遷移確率という。 The probability γ t (m ′, m, i) in equation (6) is in the state m ′ at time t−1 and the input data it at the next time t is a certain value i in the trellis. , A certain input soft value data Y t is observed, and at time t, the probability of transition to state m (branch metric) Pr {S t = m; Y t ; i t = i | S t-1 = m '} Yes, hereinafter referred to as output transition probability as appropriate.

なお、前向き確率αt(m)は、符号化の開始時(t=0)の状態S0=0から、入力軟値データY1 t=Y1,Y2,・・・,Ytをもとに、時系列順に算出した時刻t-1における各状態0,1,・・・,M-1の通過確率に対応する。 The forward probability α t (m) is calculated from the input soft value data Y 1 t = Y 1 , Y 2 ,..., Y t from the state S 0 = 0 at the start of encoding (t = 0). Based on the passage probability of each state 0, 1,..., M-1 at time t-1 calculated in time series.

また、後ろ向き確率βt(m)は、符号化の終了時(t=τ)の状態Sτ=0から、入力軟値データの系列Yt+1 τ=Yt+1,Yt+2,・・・,Yτをもとに、時系列の逆順に算出した時刻tにおける各状態0,1,・・・,M-1の通過確率に対応する。 The backward probability β t (m) is determined from the state S τ = 0 at the end of encoding (t = τ), and the sequence of input soft value data Y t + 1 τ = Y t + 1 , Y t + 2 ,..., Y τ , corresponding to the passing probability of each state 0, 1,.

さらに、出力遷移確率γt(m',m,i)は、時刻tにおける入力軟値データYtと、入力データitが値iである入力確率とをもとに算出した、時刻tに、状態m'から状態mに遷移するトレリスの各枝の出力の受信確率に対応する。 Further, output transition probability γ t (m ', m, i) is an input soft value data Y t at time t, the input data i t is calculated based on the input probability value i, at time t , Corresponding to the reception probability of the output of each branch of the trellis from the state m ′ to the state m.

ここで、図4は、状態の個数Mが4個である場合の、出力遷移確率γt(m',m,i)を示している。 Here, FIG. 4 shows the output transition probability γ t (m ′, m, i) when the number M of states is four.

ここでは、上述したように、入力データitが取り得る値が0又は1の2通りであるので、時刻t-1のある1つの状態St-1から、時刻tの状態Stへの遷移の仕方も2通りある。そして、状態の個数Mが4個であるので、時刻t-1の状態St-1から、時刻tの状態Stへの遷移の仕方、つまり、時刻t-1の状態St-1から、時刻tの状態Stへの枝は、8通り(=2通り×4個)だけあり、出力遷移確率γt(m',m,i)は、その8通りの枝それぞれを通る確率を表す。 Here, as described above, since the possible values for input data i t is 2 kinds of 0 or 1, from one state S t-1 with a time t-1, at time t the state to S t There are two ways of transition. Then, since the number M of states is four, from a state S t-1 at time t-1, how the transition to state S t at time t, that is, from a state S t-1 at time t-1 branch to state S t at the time t is located only ways 8 (= 4 2 types ×), output transition probability γ t (m ', m, i) is the probability of passing through respective branches of the eight To express.

式(3)の出力軟値データλtは、前向き確率αt(m)、後ろ向き確率βt(m)、及び出力遷移確率γt(m',m,i)を用い、式(7)によって計算することができる。 The output soft value data λ t in Expression (3) uses the forward probability α t (m), the backward probability β t (m), and the output transition probability γ t (m ′, m, i). Can be calculated by:

Figure 2008182442
・・・(7)
Figure 2008182442
... (7)

ところで、式(4)の時刻tの前向き確率αt(m)は、その1時刻前の時刻t-1の前向き確率αt-1(m')と、時刻tの入力データitが値iであるときに、時刻t-1の状態St-1=m'から、時刻tの状態St=mに遷移する出力遷移確率γt(m',m,i)とを用いて、式(8)で表すことができる。 Meanwhile, forward probability alpha t (m) at time t in equation (4), and its one time before the time t-1 of the forward probability alpha t-1 (m '), the input data i t at time t is a value when a i, 'from the output transition probability gamma t a transition to a state S t = m at time t (m' state S t-1 = m at time t-1, m, i) and with, It can be expressed by equation (8).

Figure 2008182442
・・・(8)
Figure 2008182442
... (8)

ここで、図2の通信路モデルにおいて、畳み込み符号化は、上述したように、時刻t=0の状態S0=0から開始されるので、時刻t=0の前向き確率α0(m)は、式(9)で表される。 Here, in the channel model of FIG. 2, as described above, the convolutional coding is started from the state S 0 = 0 at time t = 0, so the forward probability α 0 (m) at time t = 0 is And represented by equation (9).

Figure 2008182442
・・・(9)
Figure 2008182442
... (9)

また、式(5)の時刻tの後ろ向き確率βt(m)は、その1時刻後の時刻t+1の後ろ向き確率βt+1(m')と、時刻t+1の入力データit+1が値iであるときに、時刻tの状態St=mから、時刻t+1の状態St+1=m'に遷移する出力遷移確率γt+1(m,m',i)とを用いて、式(10)で表すことができる。 In addition, the backward probability β t (m) at time t in Expression (5) is the backward probability β t + 1 (m ′) at time t + 1 one hour later and the input data i t at time t + 1. When +1 is the value i, the output transition probability γ t + 1 (m, m ′, i from the state S t = m at time t to the state S t + 1 = m ′ at time t + 1 ) And can be represented by the formula (10).

Figure 2008182442
・・・(10)
Figure 2008182442
... (10)

ここで、図2の通信路モデルにおいて、畳み込み符号化は、上述したように、時刻t=τの状態Sτ=0で終了するので、時刻t=τの後ろ向き確率βτ(m)は、式(11)で表される。 Here, in the channel model of FIG. 2, as described above, the convolutional coding ends in the state S τ = 0 at time t = τ, so the backward probability β τ (m) at time t = τ is It is represented by Formula (11).

Figure 2008182442
・・・(11)
Figure 2008182442
(11)

さらに、式(6)の出力遷移確率γt(m',m,i)は、時刻t-1の状態St-1=m'から、時刻tの状態St=mに遷移する状態遷移確率pt(m|m')(式(1))と、値iの入力データitを畳み込み符号化することにより得られる符号化データ(状態St-1=m'から状態St=mに遷移するときに、畳み込み符号器21が出力する符号化データ)Xが、無記憶通信路22を介することにより、時刻tの入力軟値データYtに変換される変換確率R(Yt|X)とを用いて、式(12)で表される。 Furthermore, expression output transition probability gamma t of (6) (m ', m , i) , the time t-1 of state S t-1 = m' from the state transition to transition to state S t = m at time t probability p t (m | m ') and (equation (1)), coded data (state obtained by convolutionally encoding the input data i t value i S t-1 = m' from a state S t = Conversion probability R (Y t ) in which the encoded data (X) output from the convolutional encoder 21 at the time of transition to m is converted to the input soft value data Y t at time t through the memoryless communication path 22 | X) is used to express the equation (12).

Figure 2008182442
・・・(12)
Figure 2008182442
(12)

図2の復号器23では、式(7)の出力軟値データλtが、式(8)ないし式(12)にしたがって求められる。 In the decoder 23 of FIG. 2, the output soft value data λ t of the equation (7) is obtained according to the equations (8) to (12).

すなわち、復号器23では、入力軟値データYtを受信するごとに、式(12)にしたがい、出力遷移確率γt(m',m,i)が求められ、さらに、その出力遷移確率γt(m',m,i)を用いて、式(8)(式(9))にしたがい、前向き確率αt(m)が求められる。 That is, every time the input soft value data Y t is received, the decoder 23 obtains the output transition probability γ t (m ′, m, i) according to the equation (12), and further outputs the output transition probability γ. Using t (m ′, m, i), the forward probability α t (m) is obtained according to Equation (8) (Equation (9)).

さらに、復号器23は、入力軟値データの系列Y1 τすべてを受信すると、出力遷移確率γt+1(m',m,i)を用いて、式(10)(式(11))にしたがい、後ろ向き確率βt(m)を求める。 Further, when the decoder 23 receives all of the input soft value data series Y 1 τ , the decoder 23 uses the output transition probability γ t + 1 (m ′, m, i) to obtain the equation (10) (equation (11)). Accordingly, the backward probability β t (m) is obtained.

そして、復号器23は、すべての時刻t=1,・・・,τと、すべての状態m=0,1,・・・,M-1について求められた前向き確率αt(m)、後ろ向き確率βt(m)、及び出力遷移確率γt(m',m,i)を用いて、式(7)にしたがい、すべての時刻t=1,・・・,τについての出力軟値データλtを求める。 Then, the decoder 23 performs the forward probability α t (m) determined for all times t = 1,..., Τ and all states m = 0, 1,. Using the probability β t (m) and the output transition probability γ t (m ′, m, i), the output soft value data for all times t = 1,. Find λt .

BCJRアルゴリズムによれば、以上のようにして、出力軟値データλtが求められる。 According to the BCJR algorithm, the output soft value data λ t is obtained as described above.

ところで、BCJRアルゴリズムでは、積演算を含むために、演算量が大となる。また、BCJRアルゴリズムでは、符号化データが時刻t=τで終結している必要があるために、より長く続く符号化データ(連続データ)を復号することが困難である。   By the way, in the BCJR algorithm, the calculation amount is large because it includes product calculation. Further, in the BCJR algorithm, since the encoded data needs to end at time t = τ, it is difficult to decode encoded data (continuous data) that lasts longer.

そこで、積演算をなくして演算量を削減する軟入力軟出力復号の方法として、Max-Log-BCJRアルゴリズムや、Log-BCJRアルゴリズムが提案されている(例えば、非特許文献2を参照)。なお、非特許文献2では、Max-Log-BCJRアルゴリズム、又はLog-BCJRアルゴリズムは、それぞれ、Max-Log-MAPアルゴリズム、又はlog-MAPアルゴリズムと呼ばれている。   Therefore, Max-Log-BCJR algorithm and Log-BCJR algorithm have been proposed as methods of soft-input / soft-output decoding that eliminate the product operation and reduce the amount of computation (see, for example, Non-Patent Document 2). In Non-Patent Document 2, the Max-Log-BCJR algorithm or the Log-BCJR algorithm is called a Max-Log-MAP algorithm or a log-MAP algorithm, respectively.

また、連続データを復号する軟入力軟出力復号の方法として、スライディングウインドウ処理を行うSW-BCJRアルゴリズムが提案されている(例えば、特許文献1や非特許文献3を参照)。   Further, as a soft input / soft output decoding method for decoding continuous data, a SW-BCJR algorithm that performs sliding window processing has been proposed (see, for example, Patent Document 1 and Non-Patent Document 3).

以下、Max-Log-BCJRアルゴリズム、Log-BCJRアルゴリズム、及びSW-BCJRアルゴリズムについて、簡単に説明する。   Hereinafter, the Max-Log-BCJR algorithm, the Log-BCJR algorithm, and the SW-BCJR algorithm will be briefly described.

まず、Max-Log-BCJRアルゴリズムでは、確率を、ネイピア数(Napier's constante)であるeを底とする対数(自然対数)で表し、確率の積演算を、式(13)に示すように、対数の和演算に置き換え、確率の和演算を、式(14)に示すように、対数の最大値演算で近似する。   First, in the Max-Log-BCJR algorithm, the probability is expressed as a logarithm (natural logarithm) with e being the Napier's constante, and the product of the probabilities is expressed as a logarithm as shown in Equation (13). The probability sum operation is approximated by a logarithmic maximum value operation as shown in Expression (14).

Figure 2008182442
・・・(13)
Figure 2008182442
... (13)

Figure 2008182442
・・・(14)
Figure 2008182442
(14)

なお、max(x,y)は、xとyの中の最大値を選択することを表す。   Note that max (x, y) represents selecting the maximum value among x and y.

いま、前向き確率(を表すデータ)として、式(15)のαt'(m)を、後ろ向き確率(を表すデータ)として、式(16)のβt'(m)を、出力遷移確率(を表すデータ)として、式(17)のγt'(m',m,i)を、それぞれ採用することとする。 Now, α t ′ (m) in Expression (15) is used as the forward probability (data representing), β t ′ (m) in Expression (16) is used as the output probability ( Γ t ′ (m ′, m, i) in the equation (17) is respectively adopted as the data).

Figure 2008182442
・・・(15)
Figure 2008182442
... (15)

Figure 2008182442
・・・(16)
Figure 2008182442
... (16)

Figure 2008182442
・・・(17)
Figure 2008182442
... (17)

この場合、式(15)の前向き確率αt'(m)は、式(15)に式(8)を代入することにより、式(18)で近似することができる。 In this case, the forward probability α t ′ (m) of Equation (15) can be approximated by Equation (18) by substituting Equation (8) into Equation (15).

Figure 2008182442
・・・(18)
Figure 2008182442
... (18)

また、式(16)の後ろ向き確率βt'(m)は、式(16)に式(10)を代入することにより、式(19)で近似することができる。 Further, the backward probability β t ′ (m) of Expression (16) can be approximated by Expression (19) by substituting Expression (10) into Expression (16).

Figure 2008182442
・・・(19)
Figure 2008182442
... (19)

さらに、式(17)の出力遷移確率γt'(m',m,i)は、式(17)に式(12)を代入することにより、式(20)で表すことができる。 Furthermore, the output transition probability γ t ′ (m ′, m, i) of Expression (17) can be expressed by Expression (20) by substituting Expression (12) into Expression (17).

Figure 2008182442
・・・(20)
Figure 2008182442
... (20)

ここで、式(18)及び式(19)において、i=0,1についてのmax(下部に、i=0,1が記載されているmax)は、その後に続く値が、変数iが0のときにとる値と、変数iが1のときにとる値との中の、最大値を選択することを表す。   Here, in Expression (18) and Expression (19), max for i = 0,1 (max where i = 0,1 is described in the lower part) is a value that follows, and variable i is 0. Represents the selection of the maximum value among the value taken when, and the value taken when the variable i is 1.

また、式(18)及び式(19)において、m'についてのmaxは、その後に続く値が、各値の変数m'に対してとる値の中の最大値を選択することを表す。なお、m'についてのmaxは、m'が取り得る値としての状態0,1,・・・,M-1のうちの、入力データit=iがあったときに、状態mへの遷移が存在する状態m'を対象に求められる。 In Expressions (18) and (19), max for m ′ represents that the subsequent value selects the maximum value among the values taken for the variable m ′ of each value. Incidentally, m 'max of about, m' status as possible values for 0, 1, ..., of the M-1, when there is an input data i t = i, a transition to state m It is obtained for the state m ′ in which there exists.

式(15)ないし式(17)と同様に、出力軟値データとして、式(21)のλt'を採用することとすると、式(21)の出力軟値データλt'は、式(21)に、式(7)を代入することにより、式(22)で近似することができる。 Similarly to the equations (15) to (17), if λ t ′ of the equation (21) is adopted as the output soft value data, the output soft value data λ t ′ of the equation (21) By substituting equation (7) into 21), it can be approximated by equation (22).

Figure 2008182442
・・・(21)
Figure 2008182442
... (21)

Figure 2008182442
・・・(22)
Figure 2008182442
(22)

ここで、式(22)において、m=0,1,・・・,M-1についてのmaxは、その後に続く値が、変数mが0,1,・・・,M-1それぞれのときにとる値の中の最大値を選択することを表す。   Here, in Equation (22), max for m = 0, 1,..., M-1 is the value that follows, when the variable m is 0, 1,. Indicates that the maximum value among the values taken in is selected.

また、式(22)において、m'についてのmaxは、その後に続く値が、各値の変数m'に対してとる値の中の最大値を選択することを表す。なお、式(22)右辺の第1項のm'についてのmaxは、m'が取り得る値としての状態0,1,・・・,M-1のうちの、入力データit=1があったときに、状態mへの遷移が存在する状態m'を対象に求められる。また、第2項のm'についてのmaxは、m'が取り得る値としての状態0,1,・・・,M-1のうちの、入力データit=0があったときに、状態mへの遷移が存在する状態m'を対象に求められる。 In Expression (22), max for m ′ indicates that the subsequent value selects the maximum value among the values taken for the variable m ′ of each value. Note that max for m ′ in the first term on the right side of the equation (22) is that the input data i t = 1 in the states 0, 1,..., M−1 as possible values of m ′. When there is a state m ′, a transition to the state m is obtained as a target. Further, 'the max for, m' second term of m states as possible values for 0, 1, ..., of the M-1, when there is an input data i t = 0, the state It is obtained for a state m ′ where a transition to m exists.

図2の復号器23では、式(22)の出力軟値データλtを、式(18)ないし式(20)を用いて求めることができる。 In the decoder 23 of FIG. 2, the output soft value data λ t of the equation (22) can be obtained using the equations (18) to (20).

すなわち、復号器23では、入力軟値データYtを受信するごとに、式(20)にしたがい、出力遷移確率γt'(m',m,i)が求められ、さらに、その出力遷移確率γt'(m',m,i)を用いて、式(18)にしたがい、前向き確率αt'(m)が求められる。 That is, every time the input soft value data Y t is received, the decoder 23 obtains the output transition probability γ t ′ (m ′, m, i) according to the equation (20), and further outputs the output transition probability. Using γ t ′ (m ′, m, i), the forward probability α t ′ (m) is obtained according to equation (18).

さらに、復号器23は、入力軟値データの系列Y1 τすべてを受信すると、出力遷移確率γt+1'(m',m,i)を用いて、式(19)にしたがい、後ろ向き確率βt'(m)を求める。 Further, when the decoder 23 receives all of the input soft value data series Y 1 τ , the decoder 23 uses the output transition probability γ t + 1 ′ (m ′, m, i) to follow the backward probability according to the equation (19). Find β t '(m).

そして、復号器23は、すべての時刻t=1,・・・,τと、すべての状態m=0,1,・・・,M-1について求められた前向き確率αt'(m)、後ろ向き確率βt'(m)、及び出力遷移確率γt'(m',m,i)を用いて、式(22)にしたがい、すべての時刻t=1,・・・,τについての出力軟値データλt'を求める。 The decoder 23 then determines the forward probabilities α t ′ (m) obtained for all times t = 1,..., Τ and all states m = 0, 1,. Using the backward probability β t ′ (m) and the output transition probability γ t ′ (m ′, m, i), the output for all times t = 1,. The soft value data λ t ′ is obtained.

Max-Log-BCJRアルゴリズムによれば、以上のようにして、出力軟値データλt'が求められる。 According to the Max-Log-BCJR algorithm, the output soft value data λ t ′ is obtained as described above.

Max-Log-BCJRアルゴリズムには、積演算が含まれていないため、BCJRアルゴリズムに比較して、演算量を大幅に減らすことができる。   Since the Max-Log-BCJR algorithm does not include product operation, the amount of calculation can be greatly reduced compared to the BCJR algorithm.

ところで、和演算ex+eyの対数log(ex+ey)については、次式が成り立つ。 By the way, the following equation holds for the logarithm log (e x + e y ) of the sum operation e x + e y .

Figure 2008182442
・・・(23)
Figure 2008182442
... (23)

式(23)右辺のlog(1+e-|x-y|)は、|x-y|を変数とする1次元の関数となるので、各値の変数|x-y|と、その値の変数|x-y|に対する関数log(1+e-|x-y|)の値(関数値)とを対応付けたテーブル(以下、適宜、関数テーブルという)を準備しておけば、和演算ex+eyの対数log(ex+ey)は、関数テーブルを用い、式(23)にしたがって正確に求めることができる。 Since log (1 + e − | xy | ) on the right side of Expression (23) is a one-dimensional function having | xy | as a variable, each value has a variable | xy | and a variable | xy | function log (1 + e - | xy |) values (function values) and the association table (hereinafter referred to as function table) Once you have prepared, the sum operation e x + e y logarithm log ( e x + e y ) can be accurately obtained according to equation (23) using a function table.

Log-BCJRアルゴリズムでは、Max-Log-BCJRアルゴリズムにおいて式(14)で近似される確率の和演算が、式(23)にしたがって正確に求められる。   In the Log-BCJR algorithm, the sum operation of the probabilities approximated by Expression (14) in the Max-Log-BCJR algorithm is accurately obtained according to Expression (23).

したがって、Log-BCJRアルゴリズムでは、Max-Log-BCJRアルゴリズムと比較すると、式(23)右辺のlog(1+e-|x-y|)の加算分の演算量が増加するが、それでも、Max-Log-BCJRアルゴリズムと同様に、積演算は不要であり、さらに、式(22)で求められる出力軟値データλt'は、関数テーブルによって、式(23)右辺のlog(1+e-|x-y|)を求めるときに生じる量子化誤差を無視することができるとすれば、BCJRアルゴリズムで求められる式(7)のλtの対数をとった値に一致する。 Therefore, in the Log-BCJR algorithm, compared with the Max-Log-BCJR algorithm, the amount of calculation for the addition of log (1 + e − | xy | ) on the right side of Expression (23) increases. Similar to the -BCJR algorithm, the product operation is not required, and the output soft value data λ t ′ obtained by the equation (22) is expressed by log (1 + e − | xy on the right side of the equation (23) according to the function table. If it is possible to ignore the quantization error that occurs when obtaining | ), it matches the logarithm of λ t in equation (7) obtained by the BCJR algorithm.

次に、SW-BCJRアルゴリズムについて説明する。   Next, the SW-BCJR algorithm will be described.

BCJRアルゴリズムでは、入力軟値データの系列Y1 τすべてを受信してからでないと、後ろ向き確率βt(m)を求めることができないため、符号化データが時刻t=τで終結している必要があり、そのため、連続データを復号することが困難である。 In the BCJR algorithm, the backward probability β t (m) can be obtained only after the entire input soft value data series Y 1 τ has been received, so the encoded data must be terminated at time t = τ. Therefore, it is difficult to decode continuous data.

そこで、SW-BCJRアルゴリズムでは、ビタビ復号と同様に、打ち切り長Dを導入し、時刻t-Dから打ち切り長Dだけ後の時刻tの後ろ向き確率βt(m)に、初期値として、例えば、1/M(状態の個数M分の1)を与えることで、時刻t-Dの出力軟値データλt-Dが求められる。 Therefore, in the SW-BCJR algorithm, as with Viterbi decoding, a truncation length D is introduced, and the backward probability β t (m) at time t after the truncation length D from time tD is set as an initial value, for example, 1 / By giving M (1 / M number of states), output soft value data λ tD at time tD is obtained.

すなわち、図5は、SW-BCJRアルゴリズムを説明する図である。   That is, FIG. 5 is a diagram for explaining the SW-BCJR algorithm.

SW-BCJRアルゴリズムでは、時刻t=0の前向き確率α0'(m)の初期化が、例えば、BCJRアルゴリズムと同様に、式(9)にしたがって行われた後、入力軟値データYtを受信するごとに、以下の処理が行われ、これにより、連続データにつき、出力軟値データが求められる。 The SW-BCJR algorithm, the initialization of the forward probability alpha 0 at time t = 0 '(m) is, for example, like the BCJR algorithm, after performing in accordance with equation (9), an input soft value data Y t Each time it is received, the following processing is performed, whereby output soft value data is obtained for continuous data.

すなわち、SW-BCJRアルゴリズムでは、時刻tの入力軟値データYtが受信されると、式(12)にしたがい、出力遷移確率γt(m',m,i)が求められる。 That is, in the SW-BCJR algorithm, when the input soft value data Y t at time t is received, the output transition probability γ t (m ′, m, i) is obtained according to the equation (12).

また、後ろ向き確率βt(m)が、式(11)を用いずに、すべての状態m=0,1,・・・,M-1について、1/Mに初期化される。 Further, the backward probability β t (m) is initialized to 1 / M for all states m = 0, 1,..., M−1 without using the equation (11).

そして、時刻tから、打ち切り長Dだけ時間的に遡った時刻(前の時刻)t-Dの後ろ向き確率βt-D(m)が、既に求められている出力遷移確率γt-D+1(m',m,i),γt-D+2(m',m,i),・・・,γt(m',m,i)と、後ろ向き確率βt(m)の初期値1/Mとを用い、式(10)にしたがって求められる。 Then, the backward probability β tD (m) of the time (previous time) tD that is back in time from the time t by the truncation length D is the output transition probability γ t−D + 1 (m ′, m, i), γ t-D + 2 (m ', m, i), ..., γ t (m', m, i) and initial value 1 / M of backward probability β t (m) Is obtained according to the equation (10).

さらに、時刻t-Dの後ろ向き確率βt-D(m)、及び、1時刻前の時刻t-1において求められた時刻t-D-1の前向き確率αt-D-1(m)、さらには、打ち切り長Dだけ前の時刻t-Dにおいて時刻t-Dの入力軟値データYt-Dを受信したときに求められた時刻t-Dの出力遷移確率γt-D(m',m,i)を用いて、式(24)にしたがい、時刻t-Dの出力軟値データλt-Dが求められる(図5)。 Furthermore, the backward probability β tD (m) at time tD, the forward probability α tD-1 (m) at time tD-1 obtained at time t-1 one time before, and further, the truncation length D before Using the output transition probability γ tD (m ′, m, i) at the time tD obtained when the input soft value data Y tD at the time tD is received at the time tD, the time tD Output soft value data λ tD is obtained (FIG. 5).

Figure 2008182442
・・・(24)
Figure 2008182442
... (24)

そして、時刻t-D-1の前向き確率αt-D-1(m)と、時刻t-Dの出力遷移確率γt-D(m',m,i)とを用いて、式(8)にしたがい、時刻t-Dの前向き確率αt-D(m)が求められる。この、時刻t-Dの前向き確率αt-D(m)は、次の時刻t+1の入力軟値データYt+1を受信したときに、式(24)により、時刻t-D+1の出力軟値データλt-D+1を求めるのに用いられる。 Then, using the forward probability α tD-1 (m) at time tD-1 and the output transition probability γ tD (m ′, m, i) at time tD, according to the equation (8), the forward probability at time tD The probability α tD (m) is obtained. This forward probability α tD (m) at time tD is calculated by the equation (24) when the input soft value data Y t + 1 at the next time t + 1 is received. Used to obtain value data λ t-D + 1 .

なお、非特許文献3には、SW-BCJRアルゴリズムの他、SW-BCJRアルゴリズムとLog-BCJRアルゴリズムとを組み合わせたSW-Log-BCJRアルゴリズム、及び、SW-BCJRアルゴリズムとMax-Log-BCJRアルゴリズムとを組み合わせたSW-Max-Log-BCJRアルゴリズム(非特許文献3では、SWAL-BCJRアルゴリズムと呼ばれている)も記載されている。   Non-Patent Document 3 includes the SW-BCJR algorithm, the SW-Log-BCJR algorithm that combines the SW-BCJR algorithm and the Log-BCJR algorithm, and the SW-BCJR algorithm and the Max-Log-BCJR algorithm. SW-Max-Log-BCJR algorithm (referred to as SWAL-BCJR algorithm in Non-Patent Document 3) is also described.

SW-Log-BCJRアルゴリズム、及びSW-Max-Log-BCJRアルゴリズムによれば、積演算なしで、連続データを復号することができる。   According to the SW-Log-BCJR algorithm and the SW-Max-Log-BCJR algorithm, continuous data can be decoded without product operation.

ここで、以下、適宜、出力遷移確率γt(m',m,i)(γt(m',m,i)の対数をとったγt'(m',m,i))も同様)を、単に、γと記載する。同様に、前向き確率αt(m)(αt(m)の対数をとったαt'(m)も同様)を、αと、後ろ向き確率βt(m)(βt(m)の対数をとったβt(m)も同様を、βと、出力軟値データλt(λtの対数をとったλt'も同様)を、λと、それぞれ記載する。 Hereafter, the same applies to the output transition probability γ t (m ′, m, i) (γ t ′ (m ′, m, i) which is the logarithm of γ t (m ′, m, i)). ) Is simply written as γ. Similarly, the logarithm of the forward probability α t (m) (α t (m) α t took the logarithm of the '(m) as well) and, α and, backward probability β t (m) (β t (m) the same applies to beta t (m) took, and beta, output soft value data lambda t a (lambda t logarithm lambda t 'similarly taken in), and lambda, described respectively.

国際公開第99/62183号パンフレットWO99 / 62183 pamphlet Bahl, Cocke, Jelinek and Raviv, "Optimal decoding of liner codes for minimizing symbol error rate", IEEE Trans. Inf. Theory, vol. IT-20, pp. 284-287, Mar. 1974Bahl, Cocke, Jelinek and Raviv, "Optimal decoding of liner codes for minimizing symbol error rate", IEEE Trans. Inf. Theory, vol. IT-20, pp. 284-287, Mar. 1974 Robertson, Villebrun and Hoeher, "A comparison of optimal and sub-optimal MAP decoding algorithms operating in the log domain", IEEE Int. Conf. on Communications, pp. 1009-1013, June 1995Robertson, Villebrun and Hoeher, "A comparison of optimal and sub-optimal MAP decoding algorithms operating in the log domain", IEEE Int. Conf. On Communications, pp. 1009-1013, June 1995 Benedetto and Montorsi, "Soft-output decoding algorithms in iterative decoding of turbo codes", TDA progress Report 42-124, Feb, 1996Benedetto and Montorsi, "Soft-output decoding algorithms in iterative decoding of turbo codes", TDA progress Report 42-124, Feb, 1996

軟入力軟出力の復号を行う場合には、出力軟値データλを求めるのに、過去に求められた出力遷移確率γと後ろ向き確率βをとっておく必要があるため、BCJRアルゴリズム等を実装する復号装置には、出力遷移確率γと後ろ向き確率βを記憶するメモリが必要となる。   When decoding soft inputs and soft outputs, it is necessary to take the output transition probability γ and backward probability β obtained in the past to obtain the output soft value data λ, so implement the BCJR algorithm etc. The decoding device requires a memory for storing the output transition probability γ and the backward probability β.

このようなメモリとしては、一般に、RAM(Random Access Memory)が用いられるが、RAMにおいては、一般に、ワード数が小さいと、データを記憶するメモリセル以外のオーバヘッドが占める割合が大になる。すなわち、ワード数が小さいRAMでは、1ワードあたりのRAMの規模(RAM全体の規模を、RAMのワード数で等分した規模)は、大になる。   As such a memory, a RAM (Random Access Memory) is generally used. However, in a RAM, generally, when the number of words is small, the ratio of overhead other than memory cells storing data increases. That is, in a RAM with a small number of words, the RAM size per word (the size of the entire RAM divided equally by the number of words in the RAM) becomes large.

したがって、復号装置に、例えば、SW-Log-BCJRアルゴリズムやSW-Max-Log-BCJRアルゴリズム等の、打ち切り長Dを用いる軟入力軟出力の復号のアルゴリズムを実装する場合には、打ち切り長Dが小さい(短い)と、ワード数が小さいRAMを用いて復号装置を構成することとなって、復号装置の回路規模が、いわば相対的に大になることになる。   Therefore, when the decoding apparatus is implemented with a soft input / soft output decoding algorithm using the truncation length D, such as the SW-Log-BCJR algorithm or the SW-Max-Log-BCJR algorithm, the truncation length D is If it is small (short), a decoding apparatus is configured using a RAM having a small number of words, and the circuit scale of the decoding apparatus becomes relatively large.

本発明は、このような状況に鑑みてなされたものであり、軟入力軟出力の復号装置の回路規模を小さくすることができるようにするものである。   The present invention has been made in view of such a situation, and makes it possible to reduce the circuit scale of a soft input / soft output decoding apparatus.

本発明の一側面の復号装置は、入力データを符号化した符号化データがチャネルを経由することにより得られる軟値のデータである入力軟値データを、前記入力データの尤度を表す軟値のデータである出力軟値データに復号する復号装置であり、前記入力軟値データから、前記出力軟値データを求める所定の計算を行う計算手段と、前記所定の計算に用いるデータを記憶する記憶手段とを備え、前記記憶手段が、レジスタを用いて構成された、データの書き込みと読み出しとを同時にすることが可能なメモリになっている。   A decoding device according to one aspect of the present invention provides a soft value representing the likelihood of the input data by converting the input soft value data, which is soft value data obtained by encoding the input data through the channel. A decoding device that decodes the output soft value data that is the data of the data, a calculation unit that performs a predetermined calculation for obtaining the output soft value data from the input soft value data, and a memory that stores data used for the predetermined calculation And the storage means is a memory configured by using a register and capable of simultaneously writing and reading data.

かかる一側面の復号装置では、前記入力軟値データから、前記出力軟値データを求める所定の計算に用いるデータを記憶する記憶手段が、レジスタを用いて構成され、データの書き込みと読み出しとが同時に行われる。   In such a decoding device, the storage means for storing data used for the predetermined calculation for obtaining the output soft value data from the input soft value data is configured using a register, and data writing and reading are performed simultaneously. Done.

本発明の一側面によれば、軟入力軟出力の復号装置の回路規模を小さくすることができる。   According to one aspect of the present invention, the circuit scale of a soft input / soft output decoding device can be reduced.

以下に本発明の実施の形態を説明するが、本発明の構成要件と、明細書又は図面に記載の実施の形態との対応関係を例示すると、次のようになる。この記載は、本発明をサポートする実施の形態が、明細書又は図面に記載されていることを確認するためのものである。従って、明細書又は図面中には記載されているが、本発明の構成要件に対応する実施の形態として、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その構成要件に対応するものではないことを意味するものではない。逆に、実施の形態が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。   Embodiments of the present invention will be described below. Correspondences between the constituent elements of the present invention and the embodiments described in the specification or the drawings are exemplified as follows. This description is intended to confirm that the embodiments supporting the present invention are described in the specification or the drawings. Therefore, even if there is an embodiment which is described in the specification or the drawings but is not described here as an embodiment corresponding to the constituent elements of the present invention, that is not the case. It does not mean that the form does not correspond to the constituent requirements. Conversely, even if an embodiment is described here as corresponding to a configuration requirement, that means that the embodiment does not correspond to a configuration requirement other than the configuration requirement. It's not something to do.

本発明の一側面の復号装置は、
入力データ(例えば、入力データitとしてのLDPC符号)を符号化した符号化データ(例えば、符号化データXt)がチャネル(例えば、図6のAWGNチャネル)を経由することにより得られる軟値のデータである入力軟値データ(例えば、入力軟値データYt)を、前記入力データの尤度を表す軟値のデータである出力軟値データ(例えば、出力軟値データλ)に復号する復号装置であり、
前記入力軟値データから、前記出力軟値データを求める所定の計算を行う計算手段(例えば、図10のγ計算部101や、α計算部108、第1β計算部109、第2β計算部110、λ計算部112)と、
前記所定の計算に用いるデータを記憶する記憶手段(例えば、図10の第1γメモリ203や、第2γメモリ204、第3γメモリ205、第4γメモリ206、βメモリ213)と
を備え、
前記記憶手段は、レジスタ(例えば、図11のレジスタ3031ないし303W)を用いて構成された、データの書き込みと読み出しとを同時にすることが可能なメモリである。
A decoding device according to one aspect of the present invention provides:
Input data (e.g., LDPC codes as the input data i t) encoded data was encoded (e.g., encoded data X t) is obtained by passing through the channel (e.g., AWGN channel in Fig. 6) soft value Input soft value data (for example, input soft value data Y t ) is decoded into output soft value data (for example, output soft value data λ) that is soft value data representing the likelihood of the input data. A decryption device,
Calculation means (for example, a γ calculation unit 101, an α calculation unit 108, a first β calculation unit 109, a second β calculation unit 110, FIG. 10) that performs a predetermined calculation for obtaining the output soft value data from the input soft value data. λ calculation unit 112),
Storage means for storing data used for the predetermined calculation (for example, the first γ memory 203, the second γ memory 204, the third γ memory 205, the fourth γ memory 206, the β memory 213 in FIG. 10);
The storage means is a memory configured by using a register (for example, the registers 303 1 to 303 W in FIG. 11) capable of simultaneously writing and reading data.

一側面の復号装置は、
前記記憶手段として、
トレリスにおいて、時刻t-1に、状態m'にいて、次の時刻tの入力データitがある値iであるときに、ある入力軟値データYtが観測され、状態mに遷移する出力遷移確率γt(m',m,i)を表すデータを記憶する4つのγメモリ(例えば、図10の第1γメモリ203、第2γメモリ204、第3γメモリ205、及び第4γメモリ206)と、
ある時刻t+1以降に、前記入力軟値データの系列Yt+1,Yt+2,・・・が観測されるときに、前記トレリスにおいて、時刻tに、状態mにいる後ろ向き確率βt(m)を表すデータを記憶する1つのβメモリ(例えば、図10のβメモリ213)と
を備えることができる。
One aspect of the decoding device is:
As the storage means,
In the trellis, at time t−1, in the state m ′, when the input data it at the next time t is a certain value i, certain input soft value data Y t is observed, and the output transitions to the state m Four γ memories (for example, the first γ memory 203, the second γ memory 204, the third γ memory 205, and the fourth γ memory 206 in FIG. 10) that store data representing the transition probability γ t (m ′, m, i); ,
When the input soft value data series Y t + 1 , Y t + 2 ,... Is observed after a certain time t + 1, the backward probability β in the state m at the time t in the trellis. and one β memory (for example, β memory 213 in FIG. 10) that stores data representing t (m).

一側面の復号装置は、
前記計算手段として、
前記出力遷移確率γt(m',m,i)を表すデータを計算するγ計算部(例えば、図10のγ計算部101)と、
前記出力遷移確率γt(m',m,i)を表すデータを用いて、前記入力軟値データの系列Y1,Y2,・・・,Ytが観測されたときに、前記トレリスにおいて、時刻tに、状態mにいる前向き確率αt(m)を表すデータを計算するα計算部(例えば、図10のα計算部108)と、
時刻tに、状態mにいて、次の時刻t+1に、状態m'に遷移する前記出力遷移確率γt+1(m,m',i)を表すデータを用いて、前記後ろ向き確率βt(m)を表すデータを計算するβ計算部(例えば、図10の第1β計算部109、及び第2β計算部110)と、
前記出力遷移確率γt(m',m,i)、時刻t-1に状態m'にいる前記前向き確率αt-1(m')、及び前記後ろ向き確率βt(m)を表すデータを用いて、時刻tの入力データitがある値iであることの尤度を表す前記出力軟値データλtを計算するλ計算部(例えば、図10のλ計算部112)と
を備えることができる。
One aspect of the decoding device is:
As the calculation means,
A γ calculation unit (for example, γ calculation unit 101 in FIG. 10) that calculates data representing the output transition probability γ t (m ′, m, i);
The output transition probability γ t (m ', m, i) using the data representing the said input soft value sequence Y 1 data, Y 2, · · ·, when Y t is observed, in the trellis An α calculation unit (for example, α calculation unit 108 in FIG. 10) that calculates data representing the forward probability α t (m) in the state m at time t;
Using the data representing the output transition probability γ t + 1 (m, m ′, i) that is in the state m at time t and transitions to the state m ′ at the next time t + 1, the backward probability β a β calculator that calculates data representing t (m) (for example, the first β calculator 109 and the second β calculator 110 in FIG. 10);
Data representing the output transition probability γ t (m ′, m, i), the forward probability α t-1 (m ′) in the state m ′ at time t−1, and the backward probability β t (m) using, lambda calculation unit for calculating the output soft values data lambda t representing the input likelihood that the data i t is a value i at time t (e.g., lambda calculation unit 112 of FIG. 10) and comprise a Can do.

そして、この場合、一側面の復号装置は、
前記γ計算部で計算された前記出力遷移確率γt(m',m,i)を表すデータの書き込みと、前記前向き確率αt(m)を表すデータの計算、及び前記出力軟値データλtの計算に必要な前記出力遷移確率γt(m',m,i)を表すデータの読み出しとが同時に行われるように、前記γメモリに対するデータの書き込みと読み出しとを制御するγメモリ制御部(例えば、図10のγメモリ制御部202)と、
前記β計算部で計算された前記後ろ向き確率βt(m)を表すデータの書き込みと、前記出力軟値データλtの計算に必要な前記後ろ向き確率βt(m)を表すデータの読み出しとが同時に行われるように、前記βメモリに対するデータの書き込みと読み出しとを制御するβメモリ制御部(例えば、図10のβメモリ制御部211)と
をさらに備えることができる。
In this case, the decoding device of one aspect is
Writing of data representing the output transition probability γ t (m ′, m, i) calculated by the γ calculation unit, calculation of data representing the forward probability α t (m), and the output soft value data λ A γ memory control unit that controls writing and reading of data to and from the γ memory so that reading of data representing the output transition probability γ t (m ′, m, i) necessary for calculating t is performed simultaneously. (For example, the γ memory control unit 202 in FIG. 10);
Writing data representing the backward probability β t (m) calculated by the β calculating unit and reading data representing the backward probability β t (m) necessary for calculating the output soft value data λ t A β memory control unit (for example, a β memory control unit 211 in FIG. 10) that controls writing and reading of data to and from the β memory can be further provided.

以下、図面を参照して、本発明の実施の形態について説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図6は、本発明が適用される光ディスク装置の構成例を示している。   FIG. 6 shows a configuration example of an optical disc apparatus to which the present invention is applied.

図6の光ディスク装置においては、データの記録時には、図示せぬ光ディスクに記録する記録対象のデータが、リードソロモン符号器61に供給される。   In the optical disk apparatus of FIG. 6, when data is recorded, data to be recorded to be recorded on an optical disk (not shown) is supplied to the Reed-Solomon encoder 61.

ここで、記録対象のデータは、ビット列であり、各ビットは、0又は1のうちのいずれかの値をとる。   Here, the data to be recorded is a bit string, and each bit takes a value of 0 or 1.

リードソロモン符号器61は、記録対象のデータをリードソロモン符号に符号化し、0又は1のうちのいずれかの値をとるビット列としてのリードソロモン符号を、LDPC(Low Density Parity Check)符号器62に供給する。   The Reed-Solomon encoder 61 encodes data to be recorded into a Reed-Solomon code, and converts the Reed-Solomon code as a bit string having a value of 0 or 1 to an LDPC (Low Density Parity Check) encoder 62. Supply.

LDPC符号器62は、リードソロモン符号器61からのリードソロモン符号を、LDPC符号に符号化し、その結果得られる、0又は1のうちのいずれかの値をとるビット列としてのLDPC符号を、入力データitとして、変調符号器63に供給する。 The LDPC encoder 62 encodes the Reed-Solomon code from the Reed-Solomon encoder 61 into an LDPC code, and obtains the LDPC code as a bit string having a value of 0 or 1 obtained as a result, as input data as i t, and supplies the modulation coder 63.

変調符号器63は、例えば、LDPC符号と17PP符号とを対応付けた変換テーブルを用いて、LDPC符号器62からの入力データitとしてのLDPC符号を、17PP符号等の変調符号に変調符号化し、0又は1のうちのいずれかの値をとるビット列としての17PP符号を、NRZI変換器64に供給する。 Modulation coder 63, for example, by using a conversion table that associates the LDPC code and 17PP code, an LDPC code as an input data i t from LDPC encoder 62 modulates encoded into modulation code of 17PP code, etc. , 0 or 1 is supplied to the NRZI converter 64 as a 17PP code as a bit string.

NRZI変換器64は、変調符号器63からの17PP符号をNRZI変換し、その結果得られるNRZI信号が、記録再生系65に供給される。記録再生系65は、NRZI変換器64からのNRZI信号を、図示せぬ光ディスクにピットの形で書き込む。   The NRZI converter 64 performs NRZI conversion on the 17PP code from the modulation encoder 63, and an NRZI signal obtained as a result is supplied to the recording / reproducing system 65. The recording / reproducing system 65 writes the NRZI signal from the NRZI converter 64 in the form of pits on an optical disk (not shown).

次に、図6の光ディスク装置においては、データの再生時には、記録再生系65が、光ディスクから再生信号を再生する。記録再生系65は、図1の記録再生系14と同様に、図示せぬA/D変換器や、等化器、PLL回路等を有し、光ディスクからの再生信号をA/D変換し、さらに、波形等化等の処理を施して、軟値のデータ(Yt)を出力する。なお、記録再生系65が内蔵するPLL回路では、再生信号に基づいて、光ディスク装置の各ブロックを動作させるためのクロック信号が生成される。 Next, in the optical disk apparatus shown in FIG. 6, when reproducing data, the recording / reproducing system 65 reproduces a reproduction signal from the optical disk. As with the recording / reproducing system 14 of FIG. 1, the recording / reproducing system 65 includes an A / D converter, an equalizer, a PLL circuit, etc. (not shown), A / D-converts the reproduction signal from the optical disc, Further, processing such as waveform equalization is performed to output soft value data (Y t ). In the PLL circuit built in the recording / reproducing system 65, a clock signal for operating each block of the optical disc apparatus is generated based on the reproduced signal.

記録再生系65が出力する軟値のデータは、SISO(Soft In Soft Out)復号器67に供給される。   Soft value data output from the recording / reproducing system 65 is supplied to a SISO (Soft In Soft Out) decoder 67.

ここで、図6の光ディスク装置において、光ディスクに対する記録再生を行う記録再生系65は、PR121チャネル、PR1221チャネル、又はPR12221チャネルなどのPRチャネルと、AWGNチャネルとから構成されると考えることができる。   Here, in the optical disc apparatus of FIG. 6, the recording / reproducing system 65 that performs recording / reproducing with respect to the optical disc can be considered to be composed of a PR channel such as a PR121 channel, a PR1221 channel, or a PR12221 channel, and an AWGN channel.

したがって、NRZI変換器64が出力するNRZI信号は、記録再生系65において、PRチャネルを介することにより、符号間干渉を受けた信号となり、さらに、AWGNチャネルを介することにより、ノイズが付加され、軟値のデータとして出力される。   Therefore, the NRZI signal output from the NRZI converter 64 becomes a signal subjected to intersymbol interference through the PR channel in the recording / reproducing system 65, and further, noise is added through the AWGN channel to add softness. Output as value data.

PRチャネルは、トレリスで表現することができ、トレリスで表現することができるPRチャネルに、NRZI変換器64を含めたチャネルsys#21も、トレリスで表現することができる。   The PR channel can be represented by a trellis, and the channel sys # 21 including the NRZI converter 64 in the PR channel that can be represented by the trellis can also be represented by the trellis.

また、変調符号器63の入力から出力までのチャネルは、有効な枝と無効な枝、つまり、可能な遷移が時刻によって変化する時変トレリスで表現することができる。   Further, the channel from the input to the output of the modulation encoder 63 can be expressed by a valid branch and an invalid branch, that is, a time-variant trellis in which possible transitions change with time.

そして、トレリスで表現することができるチャネルsys#21に、時変トレリスで表現することができる変調符号器63を含めたチャネルsys#22も、トレリス(時変トレリス)で表現することができる。   A channel sys # 22 including a modulation encoder 63 that can be expressed by a time-varying trellis in a channel sys # 21 that can be expressed by a trellis can also be expressed by a trellis (time-varying trellis).

トレリスで表現することができるチャネルを経由して(介して)得られた軟値のデータは、最尤復号により硬値のデータに復号することができるが、図6の光ディスク装置では、リードソロモン符号器61の直後に、LDPC符号器62が設けられており、このため、リードソロモン符号を復号する直前に、LDPC符号を復号する必要がある。そこで、図6の光ディスク装置には、LDPC符号を復号する、後述するLDPC復号器68が設けられている。   Soft value data obtained via (via) a channel that can be represented by a trellis can be decoded into hard value data by maximum likelihood decoding. However, in the optical disc apparatus of FIG. An LDPC encoder 62 is provided immediately after the encoder 61. Therefore, it is necessary to decode the LDPC code immediately before decoding the Reed-Solomon code. Therefore, the optical disk apparatus shown in FIG. 6 is provided with an LDPC decoder 68 described later for decoding the LDPC code.

LDPC復号器68でのLDPC符号の復号は、LDPC符号の尤度を表す軟値を入力として行われるので(軟入力(Soft-Input)を対象に行われるので)、LDPC復号器68には、LDPC符号の尤度を表す軟値、すなわち、ここでは、LDPC符号器62から変調符号器63への入力データitとしてのLDPC符号の尤度を表す軟値(λt)を入力として与える必要がある。 Since decoding of the LDPC code in the LDPC decoder 68 is performed with a soft value representing the likelihood of the LDPC code as an input (since it is performed for soft-input), the LDPC decoder 68 includes: soft values representing the likelihood of the LDPC code, i.e., where the need to provide as an input soft values (lambda t) from LDPC encoder 62 represents the likelihood of the LDPC code as input data i t to the modulation coder 63 There is.

このため、SISO復号器67では、記録再生系65からの軟値のデータ(入力軟値データYt)を、後段のLDPC復号器68に与える軟値のデータ(出力軟値データλt)に復号する軟入力軟出力の復号が行われ、その復号によって得られる軟値のデータが、LDPC復号器68に供給される。なお、SISO復号器67は、例えば、SW-Log-BCJRアルゴリズム、又はSW-Max-Log-BCJRアルゴリズムにしたがって、軟入力軟出力の復号を行う。 Therefore, the SISO decoder 67 converts the soft value data (input soft value data Y t ) from the recording / reproducing system 65 into soft value data (output soft value data λ t ) to be supplied to the LDPC decoder 68 at the subsequent stage. The soft input / soft output to be decoded is decoded, and soft value data obtained by the decoding is supplied to the LDPC decoder 68. The SISO decoder 67 performs soft input / soft output decoding according to, for example, the SW-Log-BCJR algorithm or the SW-Max-Log-BCJR algorithm.

ここで、SISO復号器67は、図2の復号器23に相当し、記録再生系65のAWGNチャネルは、図2の無記憶通信路22に相当する。そして、変調符号器63、NRZI変換器64、及び記録再生系65のPRチャネルで構成され、トレリスで表現されるチャネルsys#22は、図2の畳み込み符号器21に相当する。したがって、チャネルsys#22は、入力データitとしてのLDPC符号を、符号化データXtに符号化する符号器(畳み込み符号器)とみなすことができる。 Here, the SISO decoder 67 corresponds to the decoder 23 in FIG. 2, and the AWGN channel of the recording / reproducing system 65 corresponds to the memoryless communication path 22 in FIG. A channel sys # 22 configured by the modulation encoder 63, the NRZI converter 64, and the PR channel of the recording / reproducing system 65 and represented by a trellis corresponds to the convolutional encoder 21 of FIG. Therefore, the channel sys # 22 is an LDPC code as an input data i t, can be regarded as an encoder for encoding the encoded data X t (convolutional encoder).

LDPC復号器68は、SISO復号器67からの軟値のデータを、0又は1のうちのいずれかの値をとるビット列であるリードソロモン符号に復号し、リードソロモン復号器69に供給する。   The LDPC decoder 68 decodes the soft value data from the SISO decoder 67 into a Reed-Solomon code, which is a bit string having a value of 0 or 1, and supplies it to the Reed-Solomon decoder 69.

リードソロモン復号器69は、LDPC復号器68からの、0又は1のうちのいずれかの値をとるビット列であるリードソロモン符号を、元の、0又は1のうちのいずれかの値をとるデータに復号して出力する。   The Reed-Solomon decoder 69 converts the Reed-Solomon code, which is a bit string having a value of 0 or 1 from the LDPC decoder 68, into the original data having a value of 0 or 1. Decrypted and output.

次に、図7は、図6の記録再生系65から供給される軟値のデータを、入力軟値データYtとして、その入力軟値データYtを出力軟値データλtに復号する軟入力軟出力の復号を行うSISO復号器67の構成例を示している。 Next, FIG. 7, the data of the soft values supplied from the recording and reproducing system 65 of FIG. 6, as the input soft value data Y t, soft decrypting the input soft value data Y t to output soft values data lambda t The example of a structure of the SISO decoder 67 which performs decoding of an input soft output is shown.

図7のSISO復号器67では、出力遷移確率γと後ろ向き確率βを記憶するメモリとして、シングルポートのRAMが採用されている。そして、出力遷移確率γを記憶するメモリとして、5個(5バンク)のシングルポートのRAMである第1γRAM103、第2γRAM104、第3γRAM105、第4γRAM106、及び第5γRAM107が設けられているとともに、後ろ向き確率βを記憶するメモリとして、2個(2バンク)のシングルポートのRAMである第1βRAM113、及び第2βRAM114が設けられている。   In the SISO decoder 67 of FIG. 7, a single-port RAM is adopted as a memory for storing the output transition probability γ and the backward probability β. As the memory for storing the output transition probability γ, five (5 banks) first γRAM 103, second γRAM 104, third γRAM 105, fourth γRAM 106, and fifth γRAM 107, which are single-port RAMs, are provided, and a backward probability β As a memory for storing the first βRAM 113 and the second βRAM 114 which are two (2 banks) single-port RAMs.

すなわち、図7のSISO復号器67は、制御部100、γ計算部101、γRAM制御部102、第1γRAM103、第2γRAM104、第3γRAM105、第4γRAM106、第5γRAM107、α計算部108、第1β計算部109、第2β計算部110、βRAM制御部111、λ計算部112、第1βRAM113、及び第2βRAM114から構成されており、例えば、SW-Max-Log-BCJRアルゴリズムにしたがい、入力軟値データYtに対して、その入力軟値データYtの復号結果としての出力軟値データλを、打ち切り長Dの4倍の遅延時間4Dで出力する。 That is, the SISO decoder 67 of FIG. 7 includes a control unit 100, a γ calculation unit 101, a γRAM control unit 102, a first γRAM 103, a second γRAM 104, a third γRAM 105, a fourth γRAM 106, a fifth γRAM 107, an α calculation unit 108, and a first β calculation unit 109. , The second β calculation unit 110, the βRAM control unit 111, the λ calculation unit 112, the first βRAM 113, and the second βRAM 114. For example, according to the SW-Max-Log-BCJR algorithm, the input soft value data Y t Te, the output soft values data λ as a decoding result of the input soft value data Y t, and outputs at four times the delay time of 4D terminating length D.

ここで、出力遷移確率γを記憶するメモリとして、5バンクのシングルポートのRAMを採用するとともに、後ろ向き確率βを記憶するメモリとして、2バンクのシングルポートのRAMを採用し、入力軟値データYtに対して、その入力軟値データYtの復号結果としての出力軟値データλを、打ち切り長Dの4倍の遅延時間4Dで出力する復号装置は、例えば、T. Miyauchi, K. Yamamoto, T. Yokokawa, M. Kan, Y. Mizutani, and M. Hattori, "High-Performance Programmable SISO Decoder VLSI Implementation for Decoding Turbo Codes", in Global Telecommunications Conference, 2001(GLOBECOM'01), San Antonio, TX, USA, vol. 1, 2001, pp. 305-309.に記載されている。 Here, a 5-bank single-port RAM is adopted as a memory for storing the output transition probability γ, and a 2-bank single-port RAM is adopted as a memory for storing the backward probability β. against t, the output soft values data λ as a decoding result of the input soft value data Y t, decoding apparatus for outputting at four times the delay time of 4D terminating length D, for example, T. Miyauchi, K. Yamamoto , T. Yokokawa, M. Kan, Y. Mizutani, and M. Hattori, "High-Performance Programmable SISO Decoder VLSI Implementation for Decoding Turbo Codes", in Global Telecommunications Conference, 2001 (GLOBECOM'01), San Antonio, TX, USA, vol. 1, 2001, pp. 305-309.

図7のSISO復号器67において、制御部100は、γ計算部101、γRAM制御部102、α計算部108、第1β計算部109、第2β計算部110、βRAM制御部111、及びλ計算部112が連携して、入力軟値データYtを出力軟値データλtに復号するための処理を行うように、γ計算部101、γRAM制御部102、α計算部108、第1β計算部109、第2β計算部110、βRAM制御部111、及びλ計算部112を制御する。 In the SISO decoder 67 of FIG. 7, the control unit 100 includes a γ calculation unit 101, a γRAM control unit 102, an α calculation unit 108, a first β calculation unit 109, a second β calculation unit 110, a βRAM control unit 111, and a λ calculation unit. 112 cooperate to perform a process for decoding the input soft value data Y t into the output soft value data λ t , the γ calculation unit 101, the γ RAM control unit 102, the α calculation unit 108, and the first β calculation unit 109. The second β calculation unit 110, the βRAM control unit 111, and the λ calculation unit 112 are controlled.

γ計算部101には、図6の記録再生系65から、時刻tの入力軟値データYt(D101)が供給される。 Input soft value data Y t (D101) at time t is supplied from the recording / reproducing system 65 of FIG.

γ計算部101は、時刻tの入力軟値データYtに対して、例えば、式(20)にしたがい、トレリスの時刻tの枝すべて、つまり、時刻t-1の状態St-1から時刻tの状態Stへの遷移を表す枝すべてに対する出力遷移確率γ(の集合)を計算し、データD102として、γRAM制御部102に供給する。 For the input soft value data Y t at time t, for example, the γ calculation unit 101 performs all the branches of the trellis at time t, that is, from the state S t-1 at time t−1, according to the equation (20). Output transition probabilities γ (sets) for all branches representing transitions of t to state St are calculated and supplied to the γRAM control unit 102 as data D102.

ここで、データD102のビット幅は、SISO復号器67が対象とするトレリスの枝数と、1つの枝に対する出力遷移確率γのビット数との積[ビット]である。   Here, the bit width of the data D102 is the product [bits] of the number of branches of the trellis targeted by the SISO decoder 67 and the number of bits of the output transition probability γ for one branch.

γRAM制御部102は、γ計算部101から供給される出力遷移確率γを、所定の順序で、第1γRAM103、第2γRAM104、第3γRAM105、第4γRAM106、又は第5γRAM107に書き込む書き込み制御と、その第1γRAM103ないし第5γRAM107から、出力遷移確率γを、所定の順で読み出す読み出し制御を行う。   The γRAM control unit 102 writes the output transition probability γ supplied from the γ calculation unit 101 into the first γRAM 103, the second γRAM 104, the third γRAM 105, the fourth γRAM 106, or the fifth γRAM 107 in a predetermined order, and the first γRAM 103 to Read control is performed to read out the output transition probability γ from the fifth γRAM 107 in a predetermined order.

すなわち、γRAM制御部102は、第1γRAM103に対して、出力遷移確率γを、データD103として読み書きする読み書き制御を行う。同様に、γRAM制御部102は、第2γRAM104に対して、出力遷移確率γを、データD104として読み書きする読み書き制御を、第3γRAM105に対して、出力遷移確率γを、データD105として読み書きする読み書き制御を、第4γRAM106に対して、出力遷移確率γを、データD106として読み書きする読み書き制御を、第5γRAM107に対して、出力遷移確率γを、データD107として読み書きする読み書き制御を、それぞれ行う。   That is, the γRAM control unit 102 performs read / write control with respect to the first γRAM 103 to read / write the output transition probability γ as the data D103. Similarly, the γRAM control unit 102 performs read / write control for reading / writing the output transition probability γ as data D104 for the second γRAM 104, and read / write control for reading / writing the output transition probability γ as data D105 for the third γRAM 105. Read / write control for reading / writing the output transition probability γ as data D106 is performed on the fourth γRAM 106, and read / write control for reading / writing the output transition probability γ as data D107 is performed on the fifth γRAM 107.

そして、第1γRAM103ないし第5γRAM107は、γRAM制御部102の制御にしたがって、出力遷移確率γを記憶する。   Then, the first γRAM 103 to the fifth γRAM 107 store the output transition probability γ according to the control of the γRAM control unit 102.

ここで、データD103ないしD107のビット幅は、いずれも、トレリスの枝数と、1つの枝に対する出力遷移確率γのビット数との積[ビット]である。   Here, each of the bit widths of the data D103 to D107 is a product [bits] of the number of branches of the trellis and the number of bits of the output transition probability γ for one branch.

また、第1γRAM103ないし第5γRAM107は、1ワードが、トレリスの枝数と、1つの枝に対する出力遷移確率γのビット数との積[ビット]で、打ち切り長Dに等しいワード数だけの記憶容量を有する。   In the first γRAM 103 to the fifth γRAM 107, one word is a product [bits] of the number of branches of the trellis and the number of bits of the output transition probability γ for one branch, and the storage capacity is equal to the number of words equal to the truncation length D. Have.

γRAM制御部102は、第1γRAM103ないし第5γRAM107から読み出した出力遷移確率γを、データD108,D109,D110、又はD115として、α計算部108、第1β計算部109、第2β計算部110、又はλ計算部112に供給する。   The γRAM control unit 102 uses the output transition probability γ read from the first γRAM 103 to the fifth γRAM 107 as data D108, D109, D110, or D115 as an α calculation unit 108, a first β calculation unit 109, a second β calculation unit 110, or λ It supplies to the calculation part 112.

ここで、データD108,D109,D110、及びD115のビット幅は、いずれも、トレリスの枝数と、1つの枝に対する出力遷移確率γのビット数との積[ビット]である。   Here, the bit widths of the data D108, D109, D110, and D115 are all the products [bits] of the number of branches of the trellis and the number of bits of the output transition probability γ for one branch.

また、γRAM制御部102から、α計算部108に供給されるデータD108と、λ計算部112に供給されるデータD115とは、トレリスの、ある時刻tαの枝すべてに対する出力遷移確率γである。 The data D108 supplied from the γRAM control unit 102 to the α calculation unit 108 and the data D115 supplied to the λ calculation unit 112 are output transition probabilities γ for all branches at a certain time t α of the trellis. .

さらに、γRAM制御部102から、第1β計算部109に供給されるデータD109は、トレリスの、ある時刻tβ1+1の枝すべてに対する出力遷移確率γであり、γRAM制御部102から、第2β計算部110に供給されるデータD110は、トレリスの、ある時刻tβ2+1の枝すべてに対する出力遷移確率γである。 Further, the data D109 supplied from the γRAM control unit 102 to the first β calculation unit 109 is the output transition probability γ for all the branches of the trellis at a certain time t β1 +1, and the second β calculation is performed from the γRAM control unit 102. The data D110 supplied to the unit 110 is an output transition probability γ for all branches of the trellis at a certain time t β2 +1.

α計算部108は、γRAM制御部102からのトレリスの時刻tαの枝すべてに対する出力遷移確率γ(D108)を用い、例えば、式(18)にしたがって、トレリスの時刻tαの状態すべてに対する前向き確率α(の集合)を計算し、データD116として、λ計算部112に供給する。 alpha calculation unit 108, using the output transition probabilities gamma (D108) for all branches of the time t alpha of the trellis from γRAM control unit 102, for example, according to equation (18), forward to all states at time t alpha trellis The probability α (set) is calculated and supplied to the λ calculation unit 112 as data D116.

ここで、データD116のビット幅は、トレリスの状態(1時刻の状態)の個数Mと、1つの状態に対する前向き確率αのビット数との積[ビット]である。   Here, the bit width of the data D116 is the product [bits] of the number M of trellis states (states at one time) and the number of bits of the forward probability α for one state.

一方、第1β計算部109は、γRAM制御部102からのトレリスの時刻tβ1+1の枝すべてに対する出力遷移確率γ(D109)を用い、例えば、式(19)にしたがって、トレリスの時刻tβ1の状態すべてに対する後ろ向き確率β(の集合)を計算し、データD111として、βRAM制御部111に供給する。 On the other hand, the first β calculation unit 109 uses the output transition probabilities γ (D109) for all branches of the trellis time t β1 +1 from the γRAM control unit 102, for example, according to the equation (19), the trellis time t β1. The backward probability β (a set of) for all the states is calculated and supplied to the βRAM control unit 111 as data D111.

同様に、第2β計算部110も、γRAM制御部102からのトレリスの時刻tβ2+1の枝すべてに対する出力遷移確率γ(D110)を用い、式(19)にしたがって、トレリスの時刻tβ2の状態すべてに対する後ろ向き確率β(の集合)を計算し、データD112として、βRAM制御部111に供給する。 Similarly, the 2β calculator 110 also uses the output transition probabilities for all branches of the trellis at time t .beta.2 +1 from γRAM controller 102 gamma (D110), according to equation (19), the time t .beta.2 trellis The backward probability β (set of) for all states is calculated and supplied to the βRAM control unit 111 as data D112.

ここで、データD111及びD112のビット幅は、トレリスの状態の個数Mと、1つの状態に対する後ろ向き確率βのビット数との積[ビット]である。   Here, the bit width of the data D111 and D112 is the product [bits] of the number M of trellis states and the number of bits of the backward probability β for one state.

βRAM制御部111は、第1β計算部109と第2β計算部110それぞれから供給される後ろ向き確率βを、所定の順序で、第1βRAM113、又は第2βRAM114に書き込む書き込み制御と、その第1βRAM113又は第2βRAM114から、後ろ向き確率βを、所定の順で読み出す読み出し制御を行う。   The βRAM control unit 111 writes the backward probability β supplied from the first β calculation unit 109 and the second β calculation unit 110 to the first βRAM 113 or the second βRAM 114 in a predetermined order, and the first βRAM 113 or the second βRAM 114. From the above, read control is performed to read the backward probability β in a predetermined order.

すなわち、βRAM制御部111は、第1βRAM113に対して、後ろ向き確率βを、データD113として読み書きする読み書き制御を行う。同様に、βRAM制御部111は、第2βRAM114に対して、後ろ向き確率βを、データD114として読み書きする読み書き制御を、それぞれ行う。   That is, the βRAM control unit 111 performs read / write control with respect to the first βRAM 113 to read / write the backward probability β as the data D113. Similarly, the βRAM control unit 111 performs read / write control for reading / writing the backward probability β as data D114 with respect to the second βRAM 114.

そして、第1βRAM113と第2βRAM114は、βRAM制御部111の制御にしたがって、後ろ向き確率βを記憶する。   Then, the first βRAM 113 and the second βRAM 114 store the backward probability β under the control of the βRAM control unit 111.

ここで、データD113とD114のビット幅は、いずれも、トレリスの状態の個数Mと、1つの状態に対する後ろ向き確率βのビット数との積[ビット]である。   Here, the bit widths of the data D113 and D114 are both the product [bits] of the number M of trellis states and the number of bits of the backward probability β for one state.

また、第1βRAM113と第2βRAM114は、1ワードが、トレリスの状態の個数Mと、1つの状態に対する後ろ向き確率βのビット数との積[ビット]で、打ち切り長Dに等しいワード数だけの記憶容量を有する。   The first βRAM 113 and the second βRAM 114 have a storage capacity corresponding to the number of words equal to the truncation length D, where one word is the product [bits] of the number M of trellis states and the number of bits of the backward probability β for one state. Have

βRAM制御部111は、第1βRAM113、又は第2βRAM114から読み出した後ろ向き確率βを、データD117として、λ計算部112に供給する。   The βRAM control unit 111 supplies the backward probability β read from the first βRAM 113 or the second βRAM 114 to the λ calculation unit 112 as data D117.

ここで、データD117のビット幅は、トレリスの状態の個数Mと、1つの状態に対する後ろ向き確率βのビット数との積[ビット]であり、そのデータD117として、βRAM制御部111からλ計算部112に供給される後ろ向き確率βは、トレリスの時刻tαの状態すべてに対する後ろ向き確率β(の集合)である。 Here, the bit width of the data D117 is the product [bits] of the number M of trellis states and the number of bits of the backward probability β for one state. As the data D117, βRAM control unit 111 to λ calculation unit retrospective probability beta fed to 112, a backward probability for all states at time trellis t alpha beta (set of).

λ計算部112は、γRAM制御部102から供給される時刻tの出力遷移確率γ(D115)、α計算部108から供給される時刻t-1の前向き確率α(D116)、及びβRAM制御部111から供給される時刻tの後ろ向き確率βを用い、例えば、式(22)にしたがって、時刻tの出力軟値データλを求めて、データD118として、LDPC復号器68(図6)に供給する。   The λ calculation unit 112 includes an output transition probability γ (D115) at time t supplied from the γRAM control unit 102, a forward probability α (D116) at time t-1 supplied from the α calculation unit 108, and a βRAM control unit 111. Is used to obtain the output soft value data λ at time t, for example, according to the equation (22), and supplies it to the LDPC decoder 68 (FIG. 6) as data D118.

ここで、データD118のビット幅は、1時刻の入力データitのビット数と、出力軟値データλのビット数との積[ビット]である。 Here, the bit width of the data D118 includes a number of bits of one time of the input data i t, which is the product [bit] of the number of bits of the output soft values data lambda.

次に、図8を参照して、図7のγRAM制御部102による第1γRAM103ないし第5γRAM107に対する読み書き制御(メモリマネジメント)の処理と、βRAM制御部111による第1βRAM113及び第2βRAM114に対する読み書き制御の処理とについて説明する。   Next, referring to FIG. 8, read / write control (memory management) processing for the first γRAM 103 to the fifth γRAM 107 by the γRAM control unit 102 of FIG. 7, and read / write control processing for the first βRAM 113 and the second βRAM 114 by the βRAM control unit 111. Will be described.

ここで、上述したように、第1γRAM103ないし第5γRAM107と、第1βRAM113及び第2βRAM114とは、すべてシングルポートのRAMであり、1時刻においては、データの書き込み、又は読み出しのうちの一方しかすることができない。   Here, as described above, the first γRAM 103 to the fifth γRAM 107, the first βRAM 113, and the second βRAM 114 are all single-port RAMs, and at one time, only one of data writing or reading can be performed. Can not.

時刻t=0ないしD-1では、ステップS11の処理として、γRAM制御部102は、γ計算部101から供給される出力遷移確率γ(D102)を、時刻順に、第1γRAM103のアドレスの小さいワードから大きいワードに書き込む。   From time t = 0 to D−1, as the processing of step S11, the γRAM control unit 102 calculates the output transition probability γ (D102) supplied from the γ calculation unit 101 from the word with the smallest address in the first γRAM 103 in time order. Write to a large word.

時刻t=Dないし2D-1では、ステップS12の処理として、γRAM制御部102は、γ計算部101から供給される出力遷移確率γ(D102)を、時刻順に、第2γRAM104のアドレスの小さいワードから大きいワードに書き込む。   From time t = D to 2D−1, as the processing of step S12, the γRAM control unit 102 calculates the output transition probability γ (D102) supplied from the γ calculation unit 101 from the word with the smallest address in the second γRAM 104 in time order. Write to a large word.

時刻t=2Dないし3D-1では、ステップS13の処理として、γRAM制御部102は、γ計算部101から供給される出力遷移確率γ(D102)を、時刻順に、第3γRAM105のアドレスの小さいワードから大きいワードに書き込む。   From time t = 2D to 3D-1, as the process of step S13, the γRAM control unit 102 calculates the output transition probability γ (D102) supplied from the γ calculation unit 101 from the word with the smallest address in the third γRAM 105 in time order. Write to a large word.

さらに、ステップS13の処理として、γRAM制御部102は、第2γRAM104のアドレスの大きいワードから小さいワードの順に、出力遷移確率γを読み出し、つまり、時刻を遡る順(過去に向かう方向)に、出力遷移確率γを読み出し、データD109として、第1β計算部109に供給する。   Further, as the processing of step S13, the γRAM control unit 102 reads the output transition probability γ in order from the word with the largest address to the word with the smallest address in the second γRAM 104, that is, the output transition in the order of going back in time (direction toward the past). The probability γ is read and supplied to the first β calculation unit 109 as data D109.

第1β計算部109では、γRAM制御部102からの出力遷移確率γを用いて、後ろ向き確率βが計算される。なお、第1β計算部109は、時刻t=2Dないし3D-1において、後ろ向き確率βを計算するにあたり、時刻t=2Dにおいて、後ろ向き確率β(時刻3Dの後ろ向き確率β3D(m))を、1/Mに初期化する。 The first β calculation unit 109 calculates the backward probability β using the output transition probability γ from the γRAM control unit 102. The first β calculation unit 109 calculates the backward probability β (backward probability β 3D (m) at time 3D) at time t = 2D when calculating the backward probability β at time t = 2D to 3D−1. Initialize to 1 / M.

時刻t=3Dないし4D-1では、ステップS14の処理として、γRAM制御部102は、γ計算部101から供給される出力遷移確率γ(D102)を、時刻順に、第4γRAM106のアドレスの小さいワードから大きいワードに書き込む。   From time t = 3D to 4D−1, as the processing of step S14, the γRAM control unit 102 calculates the output transition probability γ (D102) supplied from the γ calculation unit 101 from the word with the smallest address in the fourth γRAM 106 in time order. Write to a large word.

さらに、ステップS14の処理として、γRAM制御部102は、第3γRAM105のアドレスの大きいワードから小さいワードの順に、時刻を遡る順の出力遷移確率γを読み出し、データD110として、第2β計算部110に供給する。   Further, as the processing of step S14, the γRAM control unit 102 reads the output transition probability γ in the order of going back in time from the word with the larger address in the third γRAM 105 in the order of the smaller word, and supplies it as the data D110 to the second β calculator 110. To do.

第2β計算部110では、γRAM制御部102からの出力遷移確率γを用いて、後ろ向き確率βが計算される。なお、第2β計算部110は、時刻t=3Dないし4D-1において、後ろ向き確率βを計算するにあたり、時刻t=3Dにおいて、後ろ向き確率β(時刻4Dの後ろ向き確率β4D(m))を、1/Mに初期化する。 The second β calculation unit 110 calculates the backward probability β using the output transition probability γ from the γRAM control unit 102. The second β calculator 110 calculates the backward probability β (backward probability β 4D (m) at time 4D) at time t = 3D when calculating the backward probability β at times t = 3D to 4D−1. Initialize to 1 / M.

さらに、また、ステップS14の処理として、γRAM制御部102は、第1γRAM103のアドレスの大きいワードから小さいワードの順に、時刻を遡る順の出力遷移確率γを読み出し、データD109として、第1β計算部109に供給する。   Further, as the processing of step S14, the γRAM control unit 102 reads the output transition probability γ in the order of going back in time from the word with the largest address of the first γRAM 103 in the order of the small word, and as the data D109, the first β calculator 109 To supply.

第1β計算部109では、γRAM制御部102からの出力遷移確率γ(と、ステップS13において、第1β計算部109で求められた後の時刻の後ろ向き確率βと)を用いて、後ろ向き確率βが計算され、βRAM制御部111に供給される。   The first β calculation unit 109 uses the output transition probability γ from the γRAM control unit 102 (and the backward probability β after the time obtained by the first β calculation unit 109 in step S13) to determine the backward probability β. It is calculated and supplied to the βRAM control unit 111.

βRAM制御部111は、第1β計算部109からの後ろ向き確率βを、データD113として、第1βRAM113に供給し、その後ろ向き確率βを、時間を遡る順に、第1βRAM113のアドレスの大きいワードから小さいワードに書き込む。   The βRAM control unit 111 supplies the backward probability β from the first β calculation unit 109 to the first βRAM 113 as the data D113, and the backward probability β is changed from the word with the larger address of the first βRAM 113 to the smaller word in order of going back in time. Write.

時刻t=4Dないし5D-1では、ステップS15の処理として、γRAM制御部102は、γ計算部101から供給される出力遷移確率γ(D102)を、時刻順に、第5γRAM107のアドレスの小さいワードから大きいワードに書き込む。   From time t = 4D to 5D−1, as the processing of step S15, the γRAM control unit 102 calculates the output transition probability γ (D102) supplied from the γ calculation unit 101 from the word with the smallest address in the fifth γRAM 107 in time order. Write to a large word.

さらに、ステップS15の処理として、γRAM制御部102は、第4γRAM106のアドレスの大きいワードから小さいワードの順に、出力遷移確率γを読み出し、データD109として、第1β計算部109に供給する。   Further, as the processing of step S15, the γRAM control unit 102 reads the output transition probability γ in the order from the word with the largest address of the fourth γRAM 106 to the word with the smallest address, and supplies it as the data D109 to the first β calculation unit 109.

第1β計算部109は、γRAM制御部102からの出力遷移確率γを用いて後ろ向き確率を計算する。なお、第1β計算部109は、時刻t=4Dないし5D-1において、後ろ向き確率βを計算するにあたり、時刻t=4Dにおいて、後ろ向き確率β(時刻5Dの後ろ向き確率β5D(m))を、1/Mに初期化する。 The first β calculation unit 109 calculates the backward probability using the output transition probability γ from the γRAM control unit 102. The first β calculating unit 109 calculates the backward probability β (backward probability β 5D (m) at time 5D) at time t = 4D when calculating the backward probability β at time t = 4D to 5D−1. Initialize to 1 / M.

さらに、また、ステップS15の処理として、γRAM制御部102は、第2γRAM104のアドレスの大きいワードから小さいワードの順に、出力遷移確率γを読み出し、データD110として、第2β計算部110に供給する。   Further, as the processing of step S15, the γRAM control unit 102 reads the output transition probability γ in order from the word with the largest address of the second γRAM 104 to the word with the smallest address, and supplies it as the data D110 to the second β calculation unit 110.

第2β計算部110では、γRAM制御部102からの出力遷移確率γ(と、ステップS14において、第2β計算部110で求められた後の時刻の後ろ向き確率βと)を用いて、後ろ向き確率βが計算され、βRAM制御部111に供給される。   The second β calculation unit 110 uses the output transition probability γ from the γRAM control unit 102 (and the backward probability β of the time after being obtained by the second β calculation unit 110 in step S14) to determine the backward probability β. It is calculated and supplied to the βRAM control unit 111.

βRAM制御部111は、第2β計算部110からの後ろ向き確率βを、データD114として、第2βRAM114に供給し、その後ろ向き確率βを、時間を遡る順に、第2βRAM114のアドレスの大きいワードから小さいワードに書き込む。   The βRAM control unit 111 supplies the backward probability β from the second β calculation unit 110 to the second βRAM 114 as data D114, and the backward probability β is changed from the word with the larger address of the second βRAM 114 to the smaller word in order of going back in time. Write.

同時に、γRAM制御部102は、第1γRAM103のアドレスの小さいワードから大きいワードの順に、出力遷移確率γを読み出し、データD108として、α計算部108に供給するとともに、データD115として、λ計算部112に供給する。   At the same time, the γRAM control unit 102 reads the output transition probability γ in the order from the word with the smallest address in the first γRAM 103 and supplies it to the α calculation unit 108 as data D108 and to the λ calculation unit 112 as data D115. Supply.

α計算部108は、γRAM制御部102からデータD108として供給される出力遷移確率γを用いて、前向き確率αを計算し、データD116として、λ計算部112に供給する。   The α calculation unit 108 calculates the forward probability α using the output transition probability γ supplied from the γRAM control unit 102 as data D108, and supplies the forward probability α to the λ calculation unit 112 as data D116.

また、このとき、βRAM制御部111は、第1βRAM113のアドレスの小さいワードから大きいワードの順に、後ろ向き確率βを読み出し、つまり、時刻順に、後ろ向き確率βを読み出し、データD117として、λ計算部112に供給する。   At this time, the βRAM control unit 111 reads the backward probability β in the order from the word with the smallest address of the first βRAM 113 to the large word, that is, reads the backward probability β in the order of time, and sends it to the λ calculation unit 112 as data D117. Supply.

λ計算部112は、γRAM制御部102からデータD115として供給される出力遷移確率γ、α計算部108からデータD116として供給される前向き確率α、及び、βRAM制御部111からデータD117として供給される後ろ向き確率βを用いて、出力軟値データλを計算し、データD118として出力する。   The λ calculation unit 112 is supplied from the γRAM control unit 102 as data D115, the output transition probability γ supplied from the α calculation unit 108 as data D116, and the βRAM control unit 111 as data D117. The output soft value data λ is calculated using the backward probability β and is output as data D118.

時刻t=5Dないし6D-1では、ステップS16の処理として、γRAM制御部102は、γ計算部101から供給される出力遷移確率γ(D102)を、時刻順に、第1γRAM103のアドレスの小さいワードから大きいワードに書き込む。   From time t = 5D to 6D−1, as the processing of step S16, the γRAM control unit 102 calculates the output transition probability γ (D102) supplied from the γ calculation unit 101 from the word with the smallest address in the first γRAM 103 in time order. Write to a large word.

さらに、ステップS16の処理として、γRAM制御部102は、第5γRAM107のアドレスの大きいワードから小さいワードの順に、時刻を遡る順の出力遷移確率γを読み出し、データD110として、第2β計算部110に供給する。   Further, as the processing of step S16, the γRAM control unit 102 reads the output transition probability γ in the order of going back in time from the word with the largest address of the fifth γRAM 107 in the order of the small word, and supplies it to the second β calculator 110 as the data D110. To do.

第2β計算部110は、γRAM制御部102からの出力遷移確率γを用いて、後ろ向き確率βを計算する。なお、第2β計算部110は、時刻t=5Dないし6D-1において、後ろ向き確率βを計算するにあたり、時刻t=5Dにおいて、後ろ向き確率βを、1/Mに初期化する。   The second β calculation unit 110 calculates the backward probability β using the output transition probability γ from the γRAM control unit 102. In calculating the backward probability β at time t = 5D to 6D−1, the second β calculation unit 110 initializes the backward probability β to 1 / M at time t = 5D.

さらに、また、ステップS16の処理として、γRAM制御部102は、第3γRAM105のアドレスの大きいワードから小さいワードの順に、時刻を遡る順の出力遷移確率γを読み出し、データD109として、第1β計算部109に供給する。   Further, as the processing of step S16, the γRAM control unit 102 reads the output transition probability γ in the order of going back in time from the word with the largest address to the word with the smallest address in the third γRAM 105, and uses the first β calculation unit 109 as the data D109. To supply.

第1β計算部109では、γRAM制御部102からの出力遷移確率γを用いて、後ろ向き確率βが計算され、βRAM制御部111に供給される。   In the first β calculation unit 109, the backward probability β is calculated using the output transition probability γ from the γRAM control unit 102 and supplied to the βRAM control unit 111.

βRAM制御部111は、第1β計算部109からの後ろ向き確率βを、データD113として、第1βRAM113に供給し、その後ろ向き確率βを、時間を遡る順に、第1βRAM113のアドレスの大きいワードから小さいワードに書き込む。   The βRAM control unit 111 supplies the backward probability β from the first β calculation unit 109 to the first βRAM 113 as the data D113, and the backward probability β is changed from the word with the larger address of the first βRAM 113 to the smaller word in order of going back in time. Write.

同時に、γRAM制御部102は、第2γRAM104のアドレスの小さいワードから大きいワードの順に、出力遷移確率γを読み出し、データD108として、α計算部108に供給するとともに、データD115として、λ計算部112に供給する。   At the same time, the γRAM control unit 102 reads the output transition probability γ in the order from the word having the smallest address in the second γRAM 104 to the word having the largest address, and supplies the output transition probability γ to the α calculation unit 108 as data D108 and to the λ calculation unit 112 as data D115. Supply.

α計算部108は、γRAM制御部102からデータD108として供給される出力遷移確率γを用いて、前向き確率αを計算し、データD116として、λ計算部112に供給する。   The α calculation unit 108 calculates the forward probability α using the output transition probability γ supplied as the data D108 from the γRAM control unit 102, and supplies the forward probability α to the λ calculation unit 112 as data D116.

また、このとき、βRAM制御部111は、第2βRAM114のアドレスの小さいワードから大きいワードの順に、時刻順の後ろ向き確率βを読み出し、データD117として、λ計算部112に供給する。   At this time, the βRAM control unit 111 reads the backward probability β in the order of time from the word with the smallest address in the second βRAM 114 in the order of the word, and supplies it to the λ calculation unit 112 as data D117.

λ計算部112は、γRAM制御部102からデータD115として供給される出力遷移確率γ、α計算部108からデータD116として供給される前向き確率α、及び、βRAM制御部111からデータD117として供給される後ろ向き確率βを用いて、出力軟値データλを計算し、データD118として出力する。   The λ calculation unit 112 is supplied from the γRAM control unit 102 as data D115, the output transition probability γ is supplied from the α calculation unit 108 as data D116, and the βRAM control unit 111 is supplied as data D117. The output soft value data λ is calculated using the backward probability β and is output as data D118.

以下、同様にして、第1γRAM103ないし第5γRAM107に対する読み書き制御の処理と、第1βRAM113及び第2βRAM114に対する読み書き制御の処理とが行われる。   Thereafter, similarly, read / write control processing for the first γRAM 103 to the fifth γRAM 107 and read / write control processing for the first βRAM 113 and the second βRAM 114 are performed.

すなわち、5以上の整数値の変数jについて、時刻t=j×Dないし(j+1)×D-1では、γ計算部101で求められた時刻順の出力遷移確率γ(D102)が、第1γRAM103ないし第5γRAM107のアドレスの小さいワードから大きいワードに書き込まれる。   That is, for a variable j having an integer value of 5 or more, at time t = j × D or (j + 1) × D−1, the output transition probability γ (D102) in time order obtained by the γ calculation unit 101 is The first γRAM 103 to the fifth γRAM 107 are written from a word having a small address to a word having a large address.

ここで、出力遷移確率γの書き込みの対象となるのは、変数j=5では、第1γRAM103であり、変数j=6では、第2γRAM104であり、変数j=7では、第3γRAM105であり、変数j=8では、第4γRAM106であり、変数j=9では、第5γRAM107であり、変数j=10では、第1γRAM103である。以下、同様のパターンが繰り返される。   Here, the target of writing of the output transition probability γ is the first γRAM 103 when the variable j = 5, the second γRAM 104 when the variable j = 6, and the third γRAM 105 when the variable j = 7. When j = 8, it is the fourth γRAM 106, when the variable j = 9 is the fifth γRAM 107, and when the variable j = 10, it is the first γRAM 103. Thereafter, the same pattern is repeated.

また、同時に、第1γRAM103ないし第5γRAM107のアドレスの大きいワードから小さいワードの順に、時刻を遡る順の出力遷移確率γが読み出され、その出力遷移確率γを用い、第1β計算部109、又は第2β計算部110で、第1βRAM113、及び第2βRAM114に記憶されない後ろ向き確率β(以下、適宜、後ろ向き確率β1と記載する)が計算される。なお、後ろ向き確率β1のを計算にあたり、時刻t=(i+5)×Dにおいて、後ろ向き確率β1は、1/Mに初期化される。   At the same time, output transition probabilities γ are read out in order from the largest address to the smallest word in the first γRAM 103 to the fifth γRAM 107, and the first β calculation unit 109 or the first The 2β calculation unit 110 calculates a backward probability β that is not stored in the first βRAM 113 and the second βRAM 114 (hereinafter referred to as a backward probability β1 as appropriate). In calculating the backward probability β1, the backward probability β1 is initialized to 1 / M at time t = (i + 5) × D.

ここで、後ろ向き確率β1の計算に用いられる出力遷移確率γの読み出しの対象となるのは、変数j=5では、第5γRAM107であり、変数j=6では、第1γRAM103であり、変数j=7では、第2γRAM104であり、変数j=8では、第3γRAM105であり、変数j=9では、第4γRAM106であり、変数j=10では、第5γRAM107である。以下、同様のパターンが繰り返される。   Here, the output transition probability γ used for the calculation of the backward probability β1 is the target of reading the fifth γRAM 107 when the variable j = 5, the first γRAM 103 when the variable j = 6, and the variable j = 7. The second γRAM 104, the variable j = 8 is the third γRAM 105, the variable j = 9 is the fourth γRAM 106, and the variable j = 10 is the fifth γRAM 107. Thereafter, the same pattern is repeated.

また、後ろ向き確率β1の計算を行うのは、変数j=5では、第2β計算部110であり、変数j=6では、第1β計算部109であり、変数j=7では、第2β計算部110である。以下、同様のパターンが繰り返される。   The backward probability β1 is calculated by the second β calculation unit 110 when the variable j = 5, the first β calculation unit 109 when the variable j = 6, and the second β calculation unit when the variable j = 7. 110. Thereafter, the same pattern is repeated.

時刻t=j×Dないし(j+1)×D-1では、さらに、第1γRAM103ないし第5γRAM107のアドレスの大きいワードから小さいワードの順に、時刻を遡る順の出力遷移確率γが読み出され、その出力遷移確率γを用い、第1β計算部109、又は第2β計算部110で、第1βRAM113、及び第2βRAM114に記憶される後ろ向き確率β(以下、適宜、後ろ向き確率β2と記載する)が計算される。   At time t = j × D to (j + 1) × D−1, the output transition probability γ in the order of going back in time is read out in the order from the word with the largest address in the first γRAM 103 to the fifth γRAM 107, Using the output transition probability γ, the first β calculation unit 109 or the second β calculation unit 110 calculates the backward probability β (hereinafter referred to as the backward probability β2 as appropriate) stored in the first βRAM 113 and the second βRAM 114. The

さらに、後ろ向き確率β2は、第1βRAM113、又は第2βRAM114のアドレスの大きいワードから小さいワードに、時間を遡る順に書き込まれる(記憶される)。   Further, the backward probability β2 is written (stored) in the order of going back in time from the word having the larger address in the first βRAM 113 or the second βRAM 114 to the smaller word.

ここで、後ろ向き確率β2の計算に用いられる出力遷移確率γの読み出しの対象となるのは、変数j=5では、第3γRAM105であり、変数j=6では、第4γRAM106であり、変数j=7では、第5γRAM107であり、変数j=8では、第1γRAM103であり、変数j=9では、第2γRAM104であり、変数j=10では、第3γRAM105である。以下、同様のパターンが繰り返される。   Here, the output transition probability γ used for the calculation of the backward probability β2 is the target of reading the third γRAM 105 when the variable j = 5, the fourth γRAM 106 when the variable j = 6, and the variable j = 7. The fifth γRAM 107, the variable j = 8 is the first γRAM 103, the variable j = 9 is the second γRAM 104, and the variable j = 10 is the third γRAM 105. Thereafter, the same pattern is repeated.

また、後ろ向き確率β2の計算を行うのは、変数j=5では、第1β計算部109であり、変数j=6では、第2β計算部110であり、変数j=7では、第1β計算部109である。以下、同様のパターンが繰り返される。   The backward probability β2 is calculated by the first β calculation unit 109 when the variable j = 5, the second β calculation unit 110 when the variable j = 6, and the first β calculation unit when the variable j = 7. 109. Thereafter, the same pattern is repeated.

さらに、後ろ向き確率β2の書き込みの対象となるのは、変数j=5では、第1βRAM113であり、変数j=6では、第2βRAM114であり、変数j=7では、第1βRAM113である。以下、同様のパターンが繰り返される。   Further, the writing probability of the backward probability β2 is the first βRAM 113 when the variable j = 5, the second βRAM 114 when the variable j = 6, and the first βRAM 113 when the variable j = 7. Thereafter, the same pattern is repeated.

また、同時に、第1γRAM103ないし第5γRAM107のアドレスの小さいワードから大きいワードの順に、時刻順の出力遷移確率γが読み出され、データD108として、α計算部108に供給されるとともに、データD115として、λ計算部112に供給される。   At the same time, the output transition probability γ in the order of time is read from the first γRAM 103 to the fifth γRAM 107 in ascending order of the address, and is supplied to the α calculator 108 as data D108, and as data D115. The λ calculation unit 112 is supplied.

α計算部108は、データD108として供給される出力遷移確率γを用いて、前向き確率αを計算し、データD116として、λ計算部112に供給する。   The α calculation unit 108 calculates the forward probability α using the output transition probability γ supplied as the data D108, and supplies it as the data D116 to the λ calculation unit 112.

また、このとき、第1βRAM113、又は第2βRAM114のアドレスの小さいワードから大きいワードの順に、時刻順の後ろ向き確率β2が読み出され、データD117として、λ計算部112に供給される。   At this time, the backward probability β2 in the order of time is read in the order from the word with the smallest address in the first βRAM 113 or the second βRAM 114, and supplied to the λ calculator 112 as data D117.

λ計算部112では、データD115として供給される出力遷移確率γ、データD116として供給される前向き確率α、及び、データD117として供給される後ろ向き確率β2を用いて、出力軟値データλが計算され、データD118として出力される。   The λ calculation unit 112 calculates the output soft value data λ using the output transition probability γ supplied as the data D115, the forward probability α supplied as the data D116, and the backward probability β2 supplied as the data D117. Are output as data D118.

ここで、前向き確率αと出力軟値データλの計算に用いられる出力遷移確率γの読み出しの対象となるのは、変数j=5では、第2γRAM104であり、変数j=6では、第3γRAM105であり、変数j=7では、第4γRAM106であり、変数j=8では、第5γRAM107であり、変数j=9では、第1γRAM103であり、変数j=10では、第2γRAM104である。以下、同様のパターンが繰り返される。   Here, the target of reading the output transition probability γ used for the calculation of the forward probability α and the output soft value data λ is the second γRAM 104 when the variable j = 5, and the third γRAM 105 when the variable j = 6. Yes, the variable j = 7 is the fourth γRAM 106, the variable j = 8 is the fifth γRAM 107, the variable j = 9 is the first γRAM 103, and the variable j = 10 is the second γRAM 104. Thereafter, the same pattern is repeated.

また、後ろ向き確率β2の読み出しの対象となるのは、変数j=5では、第2βRAM114であり、変数j=6では、第1βRAM113であり、変数j=7では、第2βRAM114である。以下、同様のパターンが繰り返される。   The target of reading the backward probability β2 is the second βRAM 114 when the variable j = 5, the first βRAM 113 when the variable j = 6, and the second βRAM 114 when the variable j = 7. Thereafter, the same pattern is repeated.

次に、図9を参照して、第1γRAM103ないし第5γRAM107に対する読み書き制御と、第1βRAM113及び第2βRAM114に対する読み書き制御について、さらに説明する。   Next, with reference to FIG. 9, read / write control for the first γRAM 103 to the fifth γRAM 107 and read / write control for the first βRAM 113 and the second βRAM 114 will be further described.

図9左から1番目は、出力遷移確率γ、前向き確率α、後ろ向き確率β(β1とβ2)、及び出力軟値データλの計算の進行状況を示している。   The first from the left in FIG. 9 shows the progress of calculation of the output transition probability γ, the forward probability α, the backward probability β (β1 and β2), and the output soft value data λ.

すなわち、図9左から1番目において、横軸は、左から右方向を、トレリスの時刻の進行方向として、出力遷移確率γ、前向き確率α、後ろ向き確率β(β1とβ2)、及び出力軟値データλが計算されるトレリスのセクション(位置)を表し、縦軸は、時刻(上から下方向が時刻の進行方向)を表している。   That is, in the first from the left in FIG. 9, the horizontal axis indicates the output transition probability γ, the forward probability α, the backward probability β (β1 and β2), and the output soft value, with the left to right direction as the direction of travel of the trellis time. The section (position) of the trellis where the data λ is calculated is represented, and the vertical axis represents the time (the downward direction from the top is the traveling direction of the time).

図9左から1番目において、ラインL11は、出力遷移確率γの計算の進行状況を示している。   In the first line from the left in FIG. 9, the line L11 indicates the progress of calculation of the output transition probability γ.

出力遷移確率γについては、時刻tの経過にしたがって、その時刻tの出力遷移確率γが計算される。   For the output transition probability γ, the output transition probability γ at the time t is calculated as the time t elapses.

図9左から1番目において、ラインL12及びL13は、後ろ向き確率βの計算の進行状況を示している。   In the first from the left in FIG. 9, lines L12 and L13 indicate the progress of calculation of the backward probability β.

後ろ向き確率βは、出力遷移確率γの計算が開始されたタイミング(時刻t=0)から、打ち切り長Dの2倍の時間2×Dだけ待って開始され、初期値を1/Mとして、時刻t=2Dから、時刻を遡る順に、時間2D分だけ求められる。   The backward probability β starts after waiting for a time 2 × D that is twice the truncation length D from the timing when the calculation of the output transition probability γ is started (time t = 0). From t = 2D, the time is calculated in the order of time 2D in the order of time.

そして、時間2D分の後ろ向き確率βのうちの、時刻を遡る順で、最初の時間D分の後ろ向き確率β(例えば、時刻t=0ないし2D-1の後ろ向き確率βであれば、時刻t=Dないし2D-1の後ろ向き確率)は、確からしさが低いものとして、第1βRAM113及び第2βRAM114に書き込まれずに破棄され、したがって、出力軟値データλの計算に用いられない。   Then, the backward probability β for the first time D in the backward probability β for the time 2D (for example, if the backward probability β for the time t = 0 to 2D-1 is the time t = The backward probabilities (D through 2D-1) are discarded without being written into the first βRAM 113 and the second βRAM 114, and thus are not used in the calculation of the output soft value data λ.

一方、時間2D分の後ろ向き確率βのうちの、時刻を遡る順で、後の時間D分の後ろ向き確率β(例えば、時刻t=0ないし2D-1の後ろ向き確率βであれば、時刻t=0ないしD-1の後ろ向き確率)は、出力軟値データλの計算に用いるために、第1βRAM113、又は第2βRAM114に書き込まれる。   On the other hand, in the backward probability β for the time 2D, the backward probability β for the subsequent time D in the order of going back in time (for example, if the backward probability β for the time t = 0 to 2D−1, the time t = The backward probability (0 to D-1) is written into the first βRAM 113 or the second βRAM 114 for use in the calculation of the output soft value data λ.

なお、ラインL12は、後ろ向き確率βのうちの、第1βRAM113及び第2βRAM114に書き込まれない後ろ向き確率β1の計算の進行状況を示しており、ラインL13は、第1βRAM113、又は第2βRAM114に書き込まれる後ろ向き確率β2の計算の進行状況を示している。   The line L12 indicates the progress of calculation of the backward probability β1 of the backward probability β that is not written to the first βRAM 113 and the second βRAM 114, and the line L13 is the backward probability written to the first βRAM 113 or the second βRAM 114. The progress of the calculation of β2 is shown.

初期値を1/Mとした後ろ向き確率β1及びβ2の計算は、ラインL12及びL13として示すように、打ち切り長Dずつ開始のタイミングをずらして(スライディングして)行われる(スライディングウインドウ処理)。   The backward probabilities β1 and β2 with an initial value of 1 / M are calculated by shifting (sliding) the start timing by the cutoff length D (sliding window processing) as shown by lines L12 and L13.

図9左から1番目において、ラインL14は、前向き確率αと、出力軟値データλとの計算の進行状況を示している。   In the first line from the left in FIG. 9, the line L14 indicates the progress of calculation of the forward probability α and the output soft value data λ.

前向き確率αと、出力軟値データλとの計算は、出力軟値データλの計算に必要な後ろ向き確率β(β2)が求められた直後に開始される。   The calculation of the forward probability α and the output soft value data λ is started immediately after the backward probability β (β2) necessary for calculating the output soft value data λ is obtained.

図9左から2番目は、第1γRAM103ないし第5γRAM107に対するデータの読み書きの進行状況を示している。   The second from the left in FIG. 9 shows the progress of data reading / writing from the first γRAM 103 to the fifth γRAM 107.

図9左から2番目において、横軸は、第1γRAM103ないし第5γRAM107のアドレスを表しており、縦軸は、図9左から1番目と同様に、時刻を表している。   In the second from the left in FIG. 9, the horizontal axis represents the addresses of the first γRAM 103 to the fifth γRAM 107, and the vertical axis represents the time as in the first from the left in FIG.

図9左から2番目において、ラインL21は、第1γRAM103ないし第5γRAM107に対する出力遷移確率γの書き込みの進行状況を示している。   In the second line from the left in FIG. 9, a line L21 indicates the progress of writing the output transition probability γ to the first γRAM 103 to the fifth γRAM 107.

出力遷移確率γは、時刻順に、第1γRAM103ないし第5γRAM107のアドレスの小さいワードから大きいワードに書き込まれていく。   The output transition probability γ is written from the first γRAM 103 to the fifth γRAM 107 to the larger word in the order of time from the word with the smallest address.

図9左から2番目において、ラインL22及びL23は、後ろ向き確率βの計算に用いられる出力遷移確率γの、第1γRAM103ないし第5γRAM107からの読み出しの進行状況を示している。   In the second line from the left in FIG. 9, lines L22 and L23 indicate the progress of reading from the first γRAM 103 to the fifth γRAM 107 of the output transition probability γ used for calculating the backward probability β.

後ろ向き確率βの計算に用いられる出力遷移確率γの、第1γRAM103ないし第5γRAM107からの読み出しは、出力遷移確率γの計算が開始されたタイミング(時刻t=0)から、打ち切り長Dの2倍の時間2×Dだけ待って開始される。   Reading the output transition probability γ used for the calculation of the backward probability β from the first γRAM 103 to the fifth γRAM 107 is twice the cutoff length D from the timing when the calculation of the output transition probability γ is started (time t = 0). Start after waiting for time 2xD.

そして、後ろ向き確率βの計算に用いられる出力遷移確率γの読み出しは、時刻を遡る順、すなわち、第1γRAM103ないし第5γRAM107のアドレスの大きいワードから小さいワードに向かって行われ、時間2D分の出力遷移確率γが読み出される。   Then, the reading of the output transition probability γ used for the calculation of the backward probability β is performed in the order of going back in time, that is, from the first γRAM 103 to the fifth γRAM 107 from the large address to the small word, and the output transition for time 2D. The probability γ is read out.

図9左から2番目において、ラインL22は、時間2D分の出力遷移確率γのうちの、時刻を遡る順で、最初の時間D分の出力遷移確率γ(例えば、時刻t=0ないし2D-1の出力遷移確率γであれば、時刻t=Dないし2D-1の出力遷移確率)の読み出しの進行状況を示しており、この最初の時間D分の出力遷移確率γは、図9左から1番目のラインL12で説明した後ろ向き確率β1の計算に用いられる。   In the second line from the left in FIG. 9, the line L22 indicates the output transition probability γ for the first time D in the order of going back in time among the output transition probabilities γ for the time 2D (for example, time t = 0 to 2D− If the output transition probability γ is 1, the reading progress status at the time t = D to the output transition probability 2D-1) is shown. The output transition probability γ for the first time D is shown from the left in FIG. This is used for the calculation of the backward probability β1 described in the first line L12.

また、ラインL23は、時間2D分の後ろ向き確率βのうちの、時刻を遡る順で、後の時間D分の出力遷移確率γ(例えば、時刻t=0ないし2D-1の出力遷移確率γであれば、時刻t=0ないしD-1の出力遷移確率)の読み出しの進行状況を示しており、この後の時間D分の出力遷移確率γは、図9左から1番目のラインL13で説明した後ろ向き確率β2の計算に用いられる。   Further, the line L23 indicates that the backward transition probability β for the time 2D is the output transition probability γ for the later time D (for example, the output transition probability γ for the time t = 0 to 2D-1 in the order of going back in time). If there is, the progress of reading of the output transition probability (time t = 0 to D-1) is indicated, and the output transition probability γ for the subsequent time D will be described by the first line L13 from the left in FIG. Used for calculating the backward probability β2.

図9左から2番目において、ラインL24は、前向き確率αと出力軟値データλとの計算に用いられる出力遷移確率γの、第1γRAM103ないし第5γRAM107からの読み出しの進行状況を示している。   In the second line from the left in FIG. 9, a line L24 indicates the progress of reading from the first γRAM 103 to the fifth γRAM 107 of the output transition probability γ used in the calculation of the forward probability α and the output soft value data λ.

前向き確率αと出力軟値データλとの計算に用いられる出力遷移確率γの読み出しは、図9左から1番目のラインL14で説明した、前向き確率αと出力軟値データλとを計算するときに、時刻順に、つまり、第1γRAM103ないし第5γRAM107のアドレスの小さいワードから大きいワードに向かって行われる。   The reading of the output transition probability γ used for the calculation of the forward probability α and the output soft value data λ is performed when calculating the forward probability α and the output soft value data λ described in the first line L14 from the left in FIG. In addition, the processing is performed in time order, that is, from the first γRAM 103 to the fifth γRAM 107 with the smallest address to the largest word.

図9左から3番目(右から1番目)は、第1βRAM113及び第2βRAM114に対するデータの読み書きの進行状況を示している。   The third from the left in FIG. 9 (first from the right) shows the progress of data reading / writing with respect to the first βRAM 113 and the second βRAM 114.

図9左から3番目において、横軸は、第1βRAM113と第2βRAM114のアドレスを表しており、縦軸は、図9左から1番目と同様に、時刻を表している。   In the third from the left in FIG. 9, the horizontal axis represents the addresses of the first βRAM 113 and the second βRAM 114, and the vertical axis represents the time as in the first from the left in FIG.

図9左から3番目において、ラインL31は、第1βRAM113又は第2βRAM114に対する後ろ向き確率βの書き込みの進行状況を示している。   In the third line from the left in FIG. 9, a line L31 indicates the progress of writing the backward probability β to the first βRAM 113 or the second βRAM 114.

後ろ向き確率βは、時刻を遡る順に、第1βRAM113又は第2βRAM114のアドレスの大きいワードから小さいワードに書き込まれていく。なお、第1βRAM113又は第2βRAM114に書き込まれる後ろ向き確率βは、図9左から1番目のラインL13で説明した後ろ向き確率β2だけである。   The backward probability β is written from the word with the larger address of the first βRAM 113 or the second βRAM 114 to the smaller word in order of going back in time. The backward probability β written to the first βRAM 113 or the second βRAM 114 is only the backward probability β2 described in the first line L13 from the left in FIG.

図9左から3番目において、ラインL32は、出力軟値データλの計算に用いられる後ろ向き確率β2の、第1βRAM113又は第2βRAM114からの読み出しの進行状況を示している。   In the third line from the left in FIG. 9, a line L32 indicates the progress of reading from the first βRAM 113 or the second βRAM 114 of the backward probability β2 used for the calculation of the output soft value data λ.

出力軟値データλとの計算に用いられる後ろ向き確率β2の読み出しは、図9左から1番目のラインL14で説明した、出力軟値データλを計算するときに、時刻順に、つまり、第1βRAM113又は第2βRAM114のアドレスの小さいワードから大きいワードに向かって行われる。   The backward probability β2 used for the calculation of the output soft value data λ is read in the order of time when calculating the output soft value data λ described in the first line L14 from the left in FIG. 9, that is, the first βRAM 113 or The second βRAM 114 is performed from a small word to a large word.

ここで、上述したように、第1γRAM103ないし第5γRAM107、第1βRAM113、及び第2βRAM114は、シングルポートのRAMであるため、データの書き込みと読み出しとを同時にすることはできず、あるタイミングに注目すれば、データの書き込み、又は読み出しだけが行われる。   Here, as described above, since the first γRAM 103 to the fifth γRAM 107, the first βRAM 113, and the second βRAM 114 are single-port RAMs, data writing and reading cannot be performed at the same time. Only data writing or reading is performed.

すなわち、図9において、例えば、時刻t=4Dないし5Dに注目すると、図9左から2番目に示したように、第1γRAM103では、前向き確率αと出力軟値データλとの計算に用いられる出力遷移確率γの読み出し(ラインL24)のみが、第2γRAM104では、後ろ向き確率β2の計算に用いられる出力遷移確率γの読み出し(ラインL23)のみが、第4γRAM106では、後ろ向き確率β1の計算に用いられる出力遷移確率γの読み出し(ラインL22)のみが、第5γRAM107では、出力遷移確率γの書き込み(ラインL21)のみが、それぞれ行われている。   That is, in FIG. 9, for example, when attention is paid to time t = 4D to 5D, as shown in the second from the left in FIG. 9, in the first γRAM 103, the output used for calculating the forward probability α and the output soft value data λ. Only the reading of the transition probability γ (line L24) is used, and in the second γRAM 104, only the reading of the output transition probability γ used for calculating the backward probability β2 (line L23) is output, and the fourth γRAM 106 is used to calculate the backward probability β1. Only the transition probability γ is read (line L22), and in the fifth γRAM 107, only the output transition probability γ is written (line L21).

また、図9左から3番目に示したように、第1βRAM113では、出力軟値データλの計算に用いられる後ろ向き確率β2の読み出し(ラインL32)のみが、第2βRAM114では、後ろ向き確率β2の書き込み(ラインL31)のみが、それぞれ行われている。   Further, as shown third from the left in FIG. 9, in the first βRAM 113, only the backward probability β2 used for the calculation of the output soft value data λ (line L32) is read, and in the second βRAM 114, the backward probability β2 is written ( Only line L31) is carried out respectively.

以上のように、出力軟値データλの計算に用いる出力遷移確率γと後ろ向き確率βを記憶する記憶手段として、RAM(第1γRAM103ないし第5γRAM107、第1βRAM113、及び第2βRAM114)を採用した場合には、前述したように、打ち切り長Dが小さいと、ワード数が小さく、そのために、オーバヘッドが大のRAMを用いて、SISO復号器67を構成することとなり、回路規模が大となる。   As described above, when the RAM (the first γRAM 103 to the fifth γRAM 107, the first βRAM 113, and the second βRAM 114) is employed as the storage means for storing the output transition probability γ and the backward probability β used for calculating the output soft value data λ. As described above, if the truncation length D is small, the number of words is small. Therefore, the SISO decoder 67 is configured using a RAM with a large overhead, and the circuit scale becomes large.

そこで、図10は、図6のSISO復号器67の他の構成例を示している。   FIG. 10 shows another configuration example of the SISO decoder 67 of FIG.

なお、図中、図7の場合と対応する部分については、同一の符号を付してあり、以下では、その説明は、適宜省略する。   In the figure, portions corresponding to those in FIG. 7 are denoted by the same reference numerals, and description thereof will be omitted below as appropriate.

すなわち、図10のSISO復号器67は、γ計算部101、α計算部108、第1β計算部109、第2β計算部110、及びλ計算部112が設けられている点で、図7の場合と一致しているが、制御部100に代えて、制御部200が、γRAM制御部102に代えて、γメモリ制御部202が、5個の第1γRAM103ないし第5γRAM107に代えて、4個の第1γメモリ203ないし第4γメモリ206が、βRAM制御部111に代えて、βメモリ制御部211が、2個の第1βRAM113及び第2βRAM114に代えて、1個のβメモリ213が、それぞれ設けられている点で、図7の場合と相違している。   That is, the SISO decoder 67 of FIG. 10 is provided with a γ calculation unit 101, an α calculation unit 108, a first β calculation unit 109, a second β calculation unit 110, and a λ calculation unit 112. However, instead of the control unit 100, the control unit 200 replaces the γRAM control unit 102, and the γ memory control unit 202 replaces the five first γRAMs 103 to the fifth γRAM 107 with four first The 1γ memory 203 to the fourth γ memory 206 are provided in place of the βRAM control unit 111, the β memory control unit 211 is provided, and one β memory 213 is provided in place of the two first βRAMs 113 and the second βRAM 114. This is different from the case of FIG.

したがって、図7では、出力遷移確率γを記憶する記憶手段として、5個のRAM(第1γRAM103ないし第5γRAM107)が必要であったのに対して、図10では、4個のメモリ(第1γメモリ203ないし第4γメモリ206)で、SISO復号器67が構成されている。さらに、図7では、後ろ向き確率βを記憶する記憶手段として、2個のRAM(第1βRAM113及び第2βRAM114)が必要であったのに対して、図10では、1個のメモリ(βメモリ213)で、SISO復号器67が構成されている。   Therefore, in FIG. 7, five RAMs (first γRAM 103 to fifth γRAM 107) are required as storage means for storing the output transition probability γ, whereas in FIG. 10, four memories (first γ memory) are required. 203 to the fourth γ memory 206) constitutes the SISO decoder 67. Further, in FIG. 7, two RAMs (first βRAM 113 and second βRAM 114) are required as storage means for storing the backward probability β, whereas in FIG. 10, one memory (β memory 213) is required. Thus, the SISO decoder 67 is configured.

以上のように構成される図10のSISO復号器67では、例えば、図7の場合と同様に、SW-Max-Log-BCJRアルゴリズムにしたがい、入力軟値データYtに対して、その入力軟値データYtの復号結果としての出力軟値データλを、打ち切り長Dの4倍の遅延時間4Dで出力する。 In the SISO decoder 67 of FIG. 10 configured as described above, for example, as in the case of FIG. 7, the input soft value data Y t is subjected to the input soft value according to the SW-Max-Log-BCJR algorithm. output soft values data λ as a decoding result value data Y t, and outputs at four times the delay time of 4D terminating length D.

すなわち、図10のSISO復号器67において、制御部200は、γ計算部101、α計算部108、第1β計算部109、第2β計算部110、λ計算部112、γメモリ制御部202、及びβメモリ制御部211が連携して、入力軟値データYtを出力軟値データλtに復号するための処理を行うように、γ計算部101、α計算部108、第1β計算部109、第2β計算部110、λ計算部112、γメモリ制御部202、及びβメモリ制御部211を制御する。 That is, in the SISO decoder 67 of FIG. 10, the control unit 200 includes a γ calculation unit 101, an α calculation unit 108, a first β calculation unit 109, a second β calculation unit 110, a λ calculation unit 112, a γ memory control unit 202, and The β memory control unit 211 cooperates so as to perform processing for decoding the input soft value data Y t into the output soft value data λ t , a γ calculation unit 101, an α calculation unit 108, a first β calculation unit 109, The second β calculation unit 110, λ calculation unit 112, γ memory control unit 202, and β memory control unit 211 are controlled.

γ計算部101には、図6の記録再生系65から、時刻tの入力軟値データYt(D101)が供給される。 Input soft value data Y t (D101) at time t is supplied from the recording / reproducing system 65 of FIG.

γ計算部101は、時刻tの入力軟値データYtに対して、式(20)にしたがい、トレリスの時刻tの枝すべてに対する出力遷移確率γを計算し、データD102として、γメモリ制御部202に供給する。 The γ calculation unit 101 calculates the output transition probability γ for all branches of the trellis at time t in accordance with the equation (20) with respect to the input soft value data Y t at time t, and as the data D102, the γ memory control unit 202.

γメモリ制御部202は、γ計算部101から供給される出力遷移確率γを、所定の順序で、第1γメモリ203、第2γメモリ204、第3γメモリ205、又は第4γメモリ206に書き込む書き込み制御と、その第1γメモリ203ないし第4γメモリ206から、出力遷移確率γを、所定の順で読み出す読み出し制御を行う。   The γ memory control unit 202 writes the output transition probability γ supplied from the γ calculation unit 101 into the first γ memory 203, the second γ memory 204, the third γ memory 205, or the fourth γ memory 206 in a predetermined order. Then, read control is performed to read the output transition probability γ from the first γ memory 203 to the fourth γ memory 206 in a predetermined order.

すなわち、γメモリ制御部202は、第1γメモリ203に対して、出力遷移確率γを、データD203として読み書きする読み書き制御を行う。同様に、γメモリ制御部202は、第2γメモリ204に対して、出力遷移確率γを、データD204として読み書きする読み書き制御を、第3γメモリ205に対して、出力遷移確率γを、データD205として読み書きする読み書き制御を、第4γメモリ206に対して、出力遷移確率γを、データD206として読み書きする読み書き制御を、それぞれ行う。   That is, the γ memory control unit 202 performs read / write control with respect to the first γ memory 203 to read / write the output transition probability γ as the data D203. Similarly, the γ memory control unit 202 performs read / write control for reading / writing the output transition probability γ as data D204 with respect to the second γ memory 204, and the output transition probability γ as data D205 with respect to the third γ memory 205. Read / write control for reading / writing is performed on the fourth γ memory 206 for reading / writing the output transition probability γ as data D206.

そして、第1γメモリ203ないし第4γメモリ206は、γメモリ制御部202の制御にしたがって、出力遷移確率γを記憶する。   Then, the first γ memory 203 to the fourth γ memory 206 store the output transition probability γ according to the control of the γ memory control unit 202.

ここで、データD203ないしD206のビット幅は、いずれも、トレリスの枝数と、1つの枝に対する出力遷移確率γのビット数との積[ビット]である。   Here, the bit widths of the data D203 to D206 are all the product [bits] of the number of branches of the trellis and the number of bits of the output transition probability γ for one branch.

また、第1γメモリ203ないし第4γメモリ206は、図7の第1γRAM103ないし第5γRAM107と同様に、1ワードが、トレリスの枝数と、1つの枝に対する出力遷移確率γのビット数との積[ビット]で、打ち切り長Dに等しいワード数だけの記憶容量を有する。   Similarly to the first γRAM 103 to the fifth γRAM 107 in FIG. 7, the first γ memory 203 to the fourth γ memory 206 are each a product of the number of trellis branches and the number of bits of the output transition probability γ for one branch [ Bit] and has a storage capacity equal to the number of words equal to the truncation length D.

γメモリ制御部202は、第1γメモリ203ないし第4γメモリ206から読み出した出力遷移確率γを、データD108,D109,D110、又はD115として、α計算部108、第1β計算部109、第2β計算部110、又はλ計算部112に供給する。   The γ memory control unit 202 uses the output transition probability γ read from the first γ memory 203 to the fourth γ memory 206 as data D108, D109, D110, or D115, as an α calculation unit 108, a first β calculation unit 109, and a second β calculation. To the unit 110 or the λ calculation unit 112.

ここで、γメモリ制御部202から、α計算部108に供給されるデータD108と、λ計算部112に供給されるデータD115とは、トレリスの、ある時刻tαの枝すべてに対する出力遷移確率γである。 Here, the data D108 supplied from the γ memory control unit 202 to the α calculation unit 108 and the data D115 supplied to the λ calculation unit 112 are output transition probabilities γ for all branches at a certain time t α of the trellis. It is.

また、γメモリ制御部202から、第1β計算部109に供給されるデータD109は、トレリスの、ある時刻tβ1+1の枝すべてに対する出力遷移確率γであり、γメモリ制御部202から、第2β計算部110に供給されるデータD110は、トレリスの、ある時刻tβ2+1の枝すべてに対する出力遷移確率γである。 The data D109 supplied from the γ memory control unit 202 to the first β calculation unit 109 is the output transition probability γ for all branches of the trellis at a certain time t β1 +1. The data D110 supplied to the 2β calculation unit 110 is the output transition probability γ for all branches of the trellis at a certain time t β2 +1.

α計算部108は、γメモリ制御部202からのトレリスの時刻tαの枝すべてに対する出力遷移確率γ(D108)を用い、式(18)にしたがって、トレリスの時刻tαの状態すべてに対する前向き確率αを計算し、データD116として、λ計算部112に供給する。 The α calculation unit 108 uses the output transition probabilities γ (D108) for all the branches at the time t α of the trellis from the γ memory control unit 202, and uses the output transition probabilities γ (D108) for all the states at the time t α of the trellis according to the equation (18). α is calculated and supplied to the λ calculation unit 112 as data D116.

一方、第1β計算部109は、γメモリ制御部202からのトレリスの時刻tβ1+1の枝すべてに対する出力遷移確率γ(D109)を用い、式(19)にしたがって、トレリスの時刻tβ1の状態すべてに対する後ろ向き確率βを計算し、データD111として、βメモリ制御部211に供給する。 On the other hand, the 1β calculation unit 109, gamma all branches of the trellis at time t .beta.1 +1 output transition probability gamma using (D 109) for the memory control unit 202, in accordance with equation (19), the trellis at time t .beta.1 The backward probability β for all states is calculated and supplied to the β memory control unit 211 as data D111.

同様に、第2β計算部110も、γメモリ制御部202からのトレリスの時刻tβ2+1の枝すべてに対する出力遷移確率γ(D110)を用い、式(19)にしたがって、トレリスの時刻tβ2の状態すべてに対する後ろ向き確率βを計算し、データD112として、βメモリ制御部211に供給する。 Similarly, the 2β calculator 110 also, gamma all branches of the trellis at time t .beta.2 +1 output transition probability gamma using (D110) for from the memory control unit 202, in accordance with equation (19), the time of the trellis t .beta.2 The backward probability β for all the states is calculated and supplied to the β memory control unit 211 as data D112.

βメモリ制御部211は、第1β計算部109と第2β計算部110それぞれから供給される後ろ向き確率βを、所定の順序で、βメモリ213に書き込む書き込み制御と、そのβメモリ213から、後ろ向き確率βを、所定の順で読み出す読み出し制御を行う。   The β memory control unit 211 writes the backward probability β supplied from each of the first β calculation unit 109 and the second β calculation unit 110 into the β memory 213 in a predetermined order, and from the β memory 213, the backward probability Read control for reading β in a predetermined order is performed.

すなわち、βメモリ制御部211は、βメモリ213に対して、後ろ向き確率βを、データD213として読み書きする読み書き制御を行う。   That is, the β memory control unit 211 performs read / write control with respect to the β memory 213 to read / write the backward probability β as data D213.

そして、βメモリ213は、βメモリ制御部211の制御にしたがって、後ろ向き確率βを記憶する。   The β memory 213 stores the backward probability β under the control of the β memory control unit 211.

ここで、データD213のビット幅は、トレリスの状態の個数Mと、1つの状態に対する後ろ向き確率βのビット数との積[ビット]である。   Here, the bit width of the data D213 is the product [bits] of the number M of trellis states and the number of bits of the backward probability β for one state.

また、βメモリ213は、図7の第1βRAM113及び第2βRAM114と同様に、1ワードが、トレリスの状態の個数Mと、1つの状態に対する後ろ向き確率βのビット数との積[ビット]で、打ち切り長Dに等しいワード数だけの記憶容量を有する。   Similarly to the first βRAM 113 and the second βRAM 114 in FIG. 7, the β memory 213 is censored by multiplying the number of trellis states M by the number of bits of the backward probability β for one state [bits]. It has a storage capacity equal to the number of words equal to the length D.

βメモリ制御部211は、βメモリ213から読み出した後ろ向き確率βを、データD117として、λ計算部112に供給する。   The β memory control unit 211 supplies the backward probability β read from the β memory 213 to the λ calculation unit 112 as data D117.

ここで、データD117として、βメモリ制御部211からλ計算部112に供給される後ろ向き確率βは、トレリスの時刻tαの状態すべてに対する後ろ向き確率βである。 Here, as the data D117, beta retrospective probability beta is supplied to the λ calculating section 112 from the memory control unit 211, a backward probability beta for all states at time trellis t alpha.

λ計算部112は、γメモリ制御部202から供給される出力遷移確率γ(D115)、α計算部108から供給される前向き確率α(D116)、及びβメモリ制御部211から供給される後ろ向き確率βを用い、式(22)にしたがって、出力軟値データλを求めて、データD118として、LDPC復号器68(図6)に供給する。   The λ calculation unit 112 includes an output transition probability γ (D115) supplied from the γ memory control unit 202, a forward probability α (D116) supplied from the α calculation unit 108, and a backward probability supplied from the β memory control unit 211. Using β, the output soft value data λ is obtained according to the equation (22) and supplied to the LDPC decoder 68 (FIG. 6) as data D118.

図10のSISO復号器67において、出力遷移確率γを記憶する記憶手段としての4個の第1γメモリ203ないし第4γメモリ206、及び、後ろ向き確率βを記憶する記憶手段としての1個のβメモリ213は、いずれも、レジスタを用いて構成された、データの書き込みと読み出しとを同時にすることが可能なメモリになっている。   In the SISO decoder 67 of FIG. 10, four first γ memories 203 to fourth γ memory 206 as storage means for storing the output transition probability γ, and one β memory as storage means for storing the backward probability β. Each of the memories 213 is a memory configured by using a register and capable of simultaneously writing and reading data.

すなわち、図11は、図10の第1γメモリ203の構成例を示している。   That is, FIG. 11 shows a configuration example of the first γ memory 203 of FIG.

第1γメモリ203は、アドレス変換器301、W個のセレクタ3021ないし302W、W個のレジスタ3031ないし303W、及びセレクタ304で構成されている。 The first γ memory 203 includes an address converter 301, W selectors 302 1 to 302 W , W registers 303 1 to 303 W , and a selector 304.

ここで、セレクタ3021ないし302Wの個数Wや、レジスタ3031ないし303Wの個数Wは、打ち切り長Dに等しい。 Here, the number W of the selectors 302 1 to 302 W and the number W of the registers 303 1 to 303 W are equal to the cutoff length D.

アドレス変換器301には、アドレスが供給される。   An address is supplied to the address converter 301.

ここで、アドレスは、γメモリ制御部202(図10)から供給され、γメモリ制御部202は、アドレスを第1γメモリ203に供給することによって、第1γメモリ203に対するデータの読み書きを制御する。   Here, the address is supplied from the γ memory control unit 202 (FIG. 10), and the γ memory control unit 202 controls reading and writing of data with respect to the first γ memory 203 by supplying the address to the first γ memory 203.

また、アドレスとしては、0から、打ち切り長D-1に等しいW-1までの範囲の整数値が供給される。したがって、アドレスのビット数は、log2Wビットである。 As an address, an integer value ranging from 0 to W-1 equal to the cutoff length D-1 is supplied. Therefore, the number of bits of the address is log 2 W bits.

アドレス変換器301は、γメモリ制御部202から供給される、log2Wビットのアドレスを、Wビットのビット列であって、そのWビットのうちの1ビットだけが1で、他のビットすべてが0のビット列に変換し、そのWビットのビット列を、ワード選択信号として、そのワード選択信号の最下位ビットからk番目のビット(第kビット)を、セレクタ302k(k=1,2,・・・,W)に供給する。 The address converter 301 supplies the log 2 W-bit address supplied from the γ memory control unit 202 to a W-bit bit string, in which only one of the W bits is 1 and all other bits are The bit string of 0 is converted into a bit string of 0, the bit string of the W bit is used as a word selection signal, the k-th bit (k-th bit) from the least significant bit of the word selection signal, and the selector 302 k (k = 1, 2,. ..Supply to W).

すなわち、log2Wビットのアドレスが表す値を、Aとすると、アドレス変換器301は、最下位ビットからA+1番目のビットだけが1で、他のビットすべてが0の、Wビットのビット列を、ワード選択信号として、そのワード選択信号の第kビットを、セレクタ302kに供給する。 That is, if the value represented by the address of log 2 W bits is A, the address converter 301 is a bit string of W bits in which only the A + 1 bit from the least significant bit is 1 and all other bits are 0. As the word selection signal, the k-th bit of the word selection signal is supplied to the selector 302 k .

セレクタ302k(k=1,2,・・・,W)には、アドレス変換器301からワード選択信号の第kビットが供給される他、γメモリ制御部202から、第1γメモリ203に書き込む書き込みデータとして、1ワードの出力遷移確率γが供給される。ここで、トレリスの枝数と、1つの枝に対する出力遷移確率γのビット数との積を、Nと表すこととすると、1ワードの出力遷移確率γは、Nビットのビット列で、トレリスの枝数分の出力遷移確率γである。 The selector 302 k (k = 1, 2,..., W) is supplied with the k-th bit of the word selection signal from the address converter 301 and also written into the first γ memory 203 from the γ memory control unit 202. As write data, an output transition probability γ of one word is supplied. Here, if the product of the number of branches of the trellis and the number of bits of the output transition probability γ for one branch is expressed as N, the output transition probability γ of one word is an N-bit bit string, and the trellis branch The output transition probability γ is several minutes.

セレクタ302kは、アドレス変換器301からのワード選択信号の第kビットが1である場合には、γメモリ制御部202からの、書き込みデータとしての1ワード(Nビット)の出力遷移確率γを選択し、レジスタ303kに供給する。 When the kth bit of the word selection signal from the address converter 301 is 1, the selector 302 k sets the output transition probability γ of one word (N bits) as write data from the γ memory control unit 202. Select and supply to register 303 k .

また、セレクタ302kは、アドレス変換器301からのワード選択信号の第kビットが0である場合には、レジスタ303kがラッチしている1ワード(Nビット)の出力遷移確率γを選択し、レジスタ303kに供給する。 The selector 302 k selects the output transition probability γ of one word (N bits) latched by the register 303 k when the k-th bit of the word selection signal from the address converter 301 is 0. , And supplied to the register 303 k .

レジスタ303kは、1ワード(Nビット)の出力遷移確率γをラッチすることができるだけの個数の、例えば、フリップフロップで構成され、セレクタ302kから供給される1ワードの出力遷移確率γをラッチし、セレクタ302k及びセレクタ304に供給する。 The register 303 k is composed of, for example, flip-flops that can latch the output transition probability γ of one word (N bits), and latch the output transition probability γ of one word supplied from the selector 302 k. And supplied to the selector 302 k and the selector 304.

したがって、あるアドレスAに対して、アドレス変換器301からセレクタ302kに供給されるワード選択信号の第kビットが1である場合には、セレクタ302kでは、γメモリ制御部202からの、書き込みデータとしての1ワードの出力遷移確率γが選択されて、レジスタ303kに供給され、レジスタ303kにおいて、γメモリ制御部202からの1ワードの出力遷移確率γがラッチされる。すなわち、これにより、アドレスAに、1ワードの出力遷移確率γが書き込まれる。 Therefore, when the k-th bit of the word selection signal supplied from the address converter 301 to the selector 302 k is 1 for a certain address A, the selector 302 k writes data from the γ memory control unit 202. and 1 word output transition probabilities as a data gamma is selected, is supplied to the register 303 k, the register 303 k, gamma output transition probabilities gamma of 1 word from the memory controller 202 is latched. That is, as a result, the output transition probability γ of 1 word is written in the address A.

一方、あるアドレスAに対して、アドレス変換器301からセレクタ302kに供給されるワード選択信号の第kビットが0である場合には、セレクタ302kでは、レジスタ303kがラッチしている1ワードの出力遷移確率γが選択されて、レジスタ303kに供給され、レジスタ303kにおいて、その1ワードの出力遷移確率γがラッチされる。すなわち、これにより、アドレスA以外のアドレスでは、そのアドレスに記憶されている1ワードの出力遷移確率γが、そのまま維持される。 On the other hand, when the k-th bit of the word selection signal supplied from the address converter 301 to the selector 302 k is 0 for a certain address A, in the selector 302 k , the register 303 k is latched 1 is selected output transition probabilities γ word is supplied to the register 303 k, the register 303 k, the output transition probability of the 1-word γ is latched. That is, as a result, the output transition probability γ of one word stored at the address other than the address A is maintained as it is.

セレクタ304には、レジスタ303kがラッチしている1ワードの出力遷移確率γが供給される。さらに、セレクタ304には、γメモリ制御部202(図10)からアドレス変換器301に供給されるのと同一のアドレスAが供給される。 The selector 304 is supplied with the output transition probability γ of one word latched by the register 303 k . Further, the selector 304 is supplied with the same address A as that supplied to the address converter 301 from the γ memory control unit 202 (FIG. 10).

セレクタ304は、W個のレジスタ3031ないし303Wがそれぞれラッチしている1ワードの出力遷移確率γのうちの、アドレスAとしてのレジスタ303A+1がラッチしている1ワードの出力遷移確率γを選択し、アドレスAから読み出した読み出しデータとして、γメモリ制御部202に供給する。 The selector 304 outputs the one-word output transition probability γ latched by the register 303 A + 1 as the address A out of the one-word output transition probability γ latched by the W registers 303 1 to 303 W. γ is selected and supplied to the γ memory control unit 202 as read data read from the address A.

以上のように構成される第1γメモリ203では、γメモリ制御部202から、例えば、アドレスAと、書き込みデータとしての1ワードの出力遷移確率γが供給されると、アドレスAは、アドレス変換器301とセレクタ304に供給され、書き込みデータとしての1ワードの出力遷移確率γは、W個のセレクタ3021ないし302Wに供給される。 In the first γ memory 203 configured as described above, for example, when the address A and the output transition probability γ of one word as write data are supplied from the γ memory control unit 202, the address A is converted into an address converter. It is supplied to the 301 and the selector 304, the output transition probability γ of one word as the write data is supplied to the W number of selectors 302 1 to 302 W.

アドレスAが供給されたセレクタ304は、レジスタ3031ないし303Wのうちの、アドレスAとしてのレジスタ303A+1がラッチしている1ワードの出力遷移確率γを選択し、アドレスAから読み出した読み出しデータとして、γメモリ制御部202に供給する。 The selector 304 to which the address A is supplied selects the one-word output transition probability γ latched by the register 303 A + 1 as the address A out of the registers 303 1 to 303 W and reads it from the address A. The read data is supplied to the γ memory control unit 202.

一方、アドレス変換器301は、アドレスAを、最下位ビットからA+1番目のビットだけが1で、他のビットすべてが0の、Wビットのワード選択信号に変換し、そのワード選択信号の第kビットを、セレクタ302kに供給する。 On the other hand, the address converter 301 converts the address A into a W-bit word selection signal in which only the A + 1-th bit from the least significant bit is 1, and all other bits are 0, and the word selection signal The kth bit is supplied to the selector 302 k .

セレクタ3021ないし302Wのうちの、アドレス変換器301から、第kビットが1のワード選択信号が供給されるセレクタ302k、すなわち、セレクタ302A+1では、γメモリ制御部202からの、書き込みデータとしての1ワードの出力遷移確率γが選択されて、レジスタ303A+1に供給される。 Among the selectors 302 1 to 302 W , the selector 302 k to which the word selection signal whose k-th bit is 1 is supplied from the address converter 301, that is, in the selector 302 A + 1 , from the γ memory control unit 202, An output transition probability γ of 1 word as write data is selected and supplied to the register 303 A + 1 .

レジスタ303A+1では、セレクタ302A+1からの1ワードの出力遷移確率γがラッチされ、これにより、アドレスAに、1ワードの出力遷移確率γが書き込まれる。 In the register 303 A + 1 , the output transition probability γ of one word from the selector 302 A + 1 is latched, and thereby, the output transition probability γ of one word is written to the address A.

以上のように、第1γメモリ203では、アドレスAからの、そこに書き込まれていた1ワードの出力遷移確率γの読み出し(セレクタ302A+1がラッチしている1ワードの出力遷移確率γの出力)と、同一のアドレスAへの、1ワードの出力遷移確率γの書き込み(セレクタ302A+1での、書き込みデータとしての1ワードの出力遷移確率γのラッチ)とを、一度のアドレスの指定によって同時に行うことができる。 As described above, the first γ memory 203 reads the output transition probability γ of one word written in the address A (the output transition probability γ of one word latched by the selector 302 A + 1 ). Output) and the writing of the output transition probability γ of one word to the same address A (the latch of the output transition probability γ of one word as write data in the selector 302 A + 1 ) Can be done simultaneously by specification.

なお、第1γメモリ203の他の、第2γメモリ204ないし第4γメモリ206、及び、βメモリ213も、第1γメモリ203と同様に構成される。但し、βメモリ213のレジスタ303kは、1ワードの後ろ向き確率βをラッチすることができるだけの個数のフリップフロップで構成される。 The second γ memory 204 to the fourth γ memory 206 and the β memory 213 other than the first γ memory 203 are configured in the same manner as the first γ memory 203. However, the register 303 k of the β memory 213 is composed of as many flip-flops as can latch the backward probability β of one word.

次に、図12を参照して、図10のγメモリ制御部202による第1γメモリ203ないし第4γメモリ206に対する読み書き制御の処理と、βメモリ制御部211によるβメモリ213に対する読み書き制御の処理とについて説明する。   Next, referring to FIG. 12, read / write control processing for the first γ memory 203 to the fourth γ memory 206 by the γ memory control unit 202 of FIG. 10, and read / write control processing for the β memory 213 by the β memory control unit 211. Will be described.

ここで、上述したように、第1γメモリ203ないし第4γメモリ206と、βメモリ213とは、すべて、図11に示したように構成され、1時刻において、データの書き込みと読み出しとを同時にする(一度のアドレスの指定によって、そのアドレスからデータを読み出し、その直後に、そのアドレスにデータを書き込む)ことができるリードモディファイライト(read modify write)が可能なメモリである。   Here, as described above, the first γ memory 203 to the fourth γ memory 206 and the β memory 213 are all configured as shown in FIG. 11, and simultaneously write and read data at one time. This is a memory capable of read modify write (read modify write) in which data can be read from that address and written to that address immediately after the address is specified once.

時刻t=0ないしD-1では、ステップS31の処理として、γメモリ制御部202は、γ計算部101から供給される出力遷移確率γ(D102)を、時刻順に、第1γメモリ203のアドレスの小さいワードから大きいワードに書き込む。   From time t = 0 to D−1, as the processing of step S31, the γ memory control unit 202 sets the output transition probability γ (D102) supplied from the γ calculation unit 101 to the addresses of the first γ memory 203 in time order. Write from a small word to a large word.

時刻t=Dないし2D-1では、ステップS32の処理として、γメモリ制御部202は、γ計算部101から供給される出力遷移確率γ(D102)を、時刻順に、第2γメモリ204のアドレスの小さいワードから大きいワードに書き込む。   From time t = D to 2D−1, as the processing of step S32, the γ memory control unit 202 sets the output transition probability γ (D102) supplied from the γ calculation unit 101 to the addresses of the second γ memory 204 in time order. Write from a small word to a large word.

時刻t=2Dないし3D-1では、ステップS33の処理として、γメモリ制御部202は、γ計算部101から供給される出力遷移確率γ(D102)を、時刻順に、第3γメモリ205のアドレスの小さいワードから大きいワードに書き込む。   From time t = 2D to 3D−1, as the processing of step S33, the γ memory control unit 202 sets the output transition probability γ (D102) supplied from the γ calculation unit 101 to the addresses of the third γ memory 205 in time order. Write from a small word to a large word.

さらに、ステップS33の処理として、γメモリ制御部202は、第2γメモリ204のアドレスの大きいワードから小さいワードの順に、出力遷移確率γを読み出し、つまり、時刻を遡る順(過去に向かう方向)に、出力遷移確率γを読み出し、データD109として、第1β計算部109に供給する。   Further, as the processing of step S33, the γ memory control unit 202 reads the output transition probability γ in order from the word with the largest address of the second γ memory 204 to the word with the smallest address, that is, in order of going back in time (direction toward the past). The output transition probability γ is read out and supplied to the first β calculation unit 109 as data D109.

第1β計算部109では、γメモリ制御部202からの出力遷移確率γを用いて、時刻を遡る順の後ろ向き確率βが計算される。なお、第1β計算部109は、時刻t=2Dないし3D-1において、後ろ向き確率βを計算するにあたり、時刻t=2Dにおいて、後ろ向き確率β(時刻3Dの後ろ向き確率β3D(m))を、1/Mに初期化する。 The first β calculation unit 109 calculates the backward probability β in the order of going back in time using the output transition probability γ from the γ memory control unit 202. The first β calculation unit 109 calculates the backward probability β (backward probability β 3D (m) at time 3D) at time t = 2D when calculating the backward probability β at time t = 2D to 3D−1. Initialize to 1 / M.

時刻t=3Dないし4D-1では、ステップS34の処理として、γメモリ制御部202は、γ計算部101から供給される出力遷移確率γ(D102)を、時刻順に、第4γメモリ206のアドレスの小さいワードから大きいワードに書き込む。   From time t = 3D to 4D−1, as the processing of step S34, the γ memory control unit 202 sets the output transition probability γ (D102) supplied from the γ calculation unit 101 to the addresses of the fourth γ memory 206 in time order. Write from a small word to a large word.

さらに、ステップS34の処理として、γメモリ制御部202は、第3γメモリ205のアドレスの大きいワードから小さいワードの順に、時刻を遡る順の出力遷移確率γを読み出し、データD110として、第2β計算部110に供給する。   Further, as the processing of step S34, the γ memory control unit 202 reads the output transition probability γ in the order of going back in time from the word with the largest address of the third γ memory 205 to the word with the smallest address, and as the data D110, the second β calculation unit 110.

第2β計算部110では、γメモリ制御部202からの出力遷移確率γを用いて、時刻を遡る順の後ろ向き確率βが計算される。なお、第2β計算部110は、時刻t=3Dないし4D-1において、後ろ向き確率βを計算するにあたり、時刻t=3Dにおいて、後ろ向き確率β(時刻4Dの後ろ向き確率β4D(m))を、1/Mに初期化する。 The second β calculation unit 110 uses the output transition probability γ from the γ memory control unit 202 to calculate the backward probability β in the order of going back in time. The second β calculator 110 calculates the backward probability β (backward probability β 4D (m) at time 4D) at time t = 3D when calculating the backward probability β at times t = 3D to 4D−1. Initialize to 1 / M.

さらに、また、ステップS34の処理として、γメモリ制御部202は、第1γメモリ203のアドレスの大きいワードから小さいワードの順に、出力遷移確率γを読み出し、データD109として、第1β計算部109に供給する。   Further, as the processing of step S34, the γ memory control unit 202 reads the output transition probability γ in the order of the word having the larger address from the first γ memory 203 in the order of the smaller word, and supplies it to the first β calculation unit 109 as data D109. To do.

第1β計算部109では、γメモリ制御部202からの出力遷移確率γ(と、ステップS33において、第1β計算部109で求められた後ろ向き確率βと)を用いて、ステップS33において、第1β計算部109で求められた後ろ向き確率βからさらに遡った時刻の後ろ向き確率βが計算され、βメモリ制御部211に供給される。   The first β calculation unit 109 uses the output transition probability γ from the γ memory control unit 202 (and the backward probability β obtained by the first β calculation unit 109 in step S33), and in step S33, performs the first β calculation. The backward probability β at a time further back from the backward probability β obtained by the unit 109 is calculated and supplied to the β memory control unit 211.

βメモリ制御部211は、第1β計算部109からの後ろ向き確率βを、データD213として、βメモリ213に供給し、その後ろ向き確率βを、時間を遡る順に、βメモリ213のアドレスの大きいワードから小さいワードに書き込む。   The β memory control unit 211 supplies the backward probability β from the first β calculation unit 109 to the β memory 213 as data D213, and the backward probability β from the word with the larger address in the β memory 213 in order of going back in time. Write to a small word.

時刻t=4Dないし5D-1では、ステップS35の処理として、γメモリ制御部202は、第1γメモリ203のアドレスの小さいワードから大きいワードの順に、時刻順の出力遷移確率γを読み出し、データD108として、α計算部108に供給するとともに、データD115として、λ計算部112に供給し、それと同時に、γ計算部101から供給される出力遷移確率γ(D102)を、時刻順に、第1γメモリ203のアドレスの小さいワードから大きいワードに書き込む。   From time t = 4D to 5D−1, as the processing of step S35, the γ memory control unit 202 reads the output transition probability γ in time order from the word with the smallest address to the word with the largest address in the first γ memory 203, and data D108 Is supplied to the α calculation unit 108 and is also supplied as the data D115 to the λ calculation unit 112. At the same time, the output transition probability γ (D102) supplied from the γ calculation unit 101 is set in time order in the first γ memory 203. Write from a small word to a large word.

すなわち、第1γメモリ203において、記憶されている出力遷移確率γを読み出しと、新たに求められた出力遷移確率γの書き込みとを同時に行うリードモディファイライトが行われる。   That is, in the first γ memory 203, read-modify-write is performed in which the stored output transition probability γ is read and the newly obtained output transition probability γ is written simultaneously.

さらに、ステップS35の処理として、γメモリ制御部202は、第4γメモリ206のアドレスの大きいワードから小さいワードの順に、時刻を遡る順の出力遷移確率γを読み出し、データD109として、第1β計算部109に供給する。   Further, as the processing of step S35, the γ memory control unit 202 reads the output transition probability γ in the order of going back in time from the word with the largest address of the fourth γ memory 206 in the order of the small word, and as the data D109, the first β calculation unit 109.

第1β計算部109は、γメモリ制御部202からの出力遷移確率βを用いて、時刻を遡る順の後ろ向き確率βを計算する。なお、第1β計算部109は、時刻t=4Dないし5D-1において、後ろ向き確率βを計算するにあたり、時刻t=4Dにおいて、後ろ向き確率β(時刻5Dの後ろ向き確率β5D(m))を、1/Mに初期化する。 The first β calculation unit 109 uses the output transition probability β from the γ memory control unit 202 to calculate the backward probability β in the order of going back in time. The first β calculating unit 109 calculates the backward probability β (backward probability β 5D (m) at time 5D) at time t = 4D when calculating the backward probability β at time t = 4D to 5D−1. Initialize to 1 / M.

さらに、また、ステップS35の処理として、γメモリ制御部202は、第2γメモリ204のアドレスの大きいワードから小さいワードの順に、時刻を遡る順の出力遷移確率γを読み出して、データD110として、第2β計算部110に供給する。   Furthermore, as the processing of step S35, the γ memory control unit 202 reads the output transition probability γ in the order of going back in time from the word with the largest address of the second γ memory 204 to the word with the smallest address, and as the data D110, This is supplied to the 2β calculator 110.

第2β計算部110では、γメモリ制御部202からの出力遷移確率γ(と、ステップS34において、第2β計算部110で求められた後ろ向き確率βと)を用いて、ステップS34において、第2β計算部110で求められた後ろ向き確率βからさらに遡った時刻の後ろ向き確率βが計算され、βメモリ制御部211に供給される。   The second β calculation unit 110 uses the output transition probability γ from the γ memory control unit 202 (and the backward probability β obtained by the second β calculation unit 110 in step S34), and in step S34, performs the second β calculation. The backward probability β at a time further back from the backward probability β obtained by the unit 110 is calculated and supplied to the β memory control unit 211.

また、このとき、βメモリ制御部211は、βメモリ213のアドレスの小さいワードから大きいワードの順に、ステップS34で書き込まれた後ろ向き確率βを読み出し、つまり、時刻順に、後ろ向き確率βを読み出して、データD117として、λ計算部112に供給し、それと同時に、第2β計算部110からの時刻を遡る順の後ろ向き確率βを、データD213として、βメモリ213に供給し、その後ろ向き確率βを、時間を遡る順に、βメモリ213のアドレスの小さいワードから大きいワードに書き込む。   At this time, the β memory control unit 211 reads the backward probability β written in step S34 in the order from the word with the smallest address of the β memory 213 to the largest word, that is, reads the backward probability β in time order, The data D117 is supplied to the λ calculation unit 112, and at the same time, the backward probability β in the order of going back the time from the second β calculation unit 110 is supplied to the β memory 213 as the data D213, and the backward probability β is Are written in ascending order from the word with the smallest address in the β memory 213 to the word with the larger address.

すなわち、βメモリ213において、記憶されている後ろ向き確率βを読み出しと、新たに求められた後ろ向き確率βの書き込みとを同時に行うリードモディファイライトが行われる。   That is, in the β memory 213, read-modify-write is performed in which the stored backward probability β is simultaneously read and the newly obtained backward probability β is written.

ここで、ステップS35のβメモリ213でのリードモディファイライトでは、新たに求められた、時間を遡る順の後ろ向き確率βが、βメモリ213のアドレスの小さいワードから大きいワードに向かって書き込まれる。この場合、βメモリ213では、より小さいアドレスに、より後の時刻の後ろ向き確率βが記憶される(より大きいアドレスに、より前の時刻の後ろ向き確率βが記憶される)。   Here, in the read-modify-write in the β memory 213 in step S35, the newly determined backward probability β in the order of going back in time is written from a word with a smaller address in the β memory 213 toward a larger word. In this case, the β memory 213 stores a backward probability β at a later time at a smaller address (a backward probability β at an earlier time is stored at a larger address).

ステップS35では、さらに、α計算部108において、γメモリ制御部202がリードモディファイライトによって第1γメモリ203から読み出して、データD108として供給してくる出力遷移確率γを用いて、前向き確率αを計算し、データD116として、λ計算部112に供給する。   In step S35, the α calculation unit 108 further calculates the forward probability α using the output transition probability γ read from the first γ memory 203 by the read-modify-write and supplied as data D108. And supplied to the λ calculation unit 112 as data D116.

λ計算部112は、γメモリ制御部202がリードモディファイライトによって第1γメモリ203から読み出して、データD115として供給してくる出力遷移確率γ、α計算部108からデータD116として供給される前向き確率α、及び、βメモリ制御部211がリードモディファイライトによってβメモリ213から読み出して、データD117として供給してくる後ろ向き確率βを用いて、出力軟値データλを計算し、データD118として出力する。   The λ calculation unit 112 outputs the output transition probability γ read from the first γ memory 203 by the γ memory control unit 202 by read-modify-write and supplied as data D115, and the forward probability α supplied from the α calculation unit 108 as data D116. The β memory control unit 211 calculates the output soft value data λ using the backward probability β read out from the β memory 213 by read-modify-write and supplied as data D117, and outputs it as data D118.

時刻t=5Dないし6D-1では、ステップS36の処理として、γメモリ制御部202は、第2γメモリ204のアドレスの小さいワードから大きいワードの順に、時刻を遡る順の出力遷移確率γを読み出し、データD108として、α計算部108に供給するとともに、データD115として、λ計算部112に供給し、それと同時に、γ計算部101から供給される出力遷移確率γ(D102)を、時刻順に、第2γメモリ204のアドレスの小さいワードから大きいワードに書き込む。   At time t = 5D to 6D−1, as the processing of step S36, the γ memory control unit 202 reads the output transition probability γ in the order of going back in time from the word with the smallest address to the word with the largest address in the second γ memory 204, The data D108 is supplied to the α calculation unit 108, and the data D115 is supplied to the λ calculation unit 112. At the same time, the output transition probability γ (D102) supplied from the γ calculation unit 101 is set to the second γ in order of time. Write from small word to large word in memory 204.

すなわち、第2γメモリ204において、記憶されている出力遷移確率γを読み出しと、新たに求められた出力遷移確率γの書き込みとを同時に行うリードモディファイライトが行われる。   That is, in the second γ memory 204, read-modify-write is performed in which the stored output transition probability γ is read and the newly obtained output transition probability γ is written simultaneously.

さらに、ステップS36の処理として、γメモリ制御部202は、第1γメモリ203のアドレスの大きいワードから小さいワードの順に、時刻を遡る順の出力遷移確率γを読み出し、データD110として、第2β計算部110に供給する。   Further, as the process of step S36, the γ memory control unit 202 reads the output transition probability γ in the order of going back in time from the word with the largest address of the first γ memory 203 in the order of the small word, and as the data D110, the second β calculation unit 110.

第2β計算部110は、γメモリ制御部202からの出力遷移確率βを用いて、時刻を遡る順の後ろ向き確率βを計算する。なお、第2β計算部110は、時刻t=5Dないし6D-1において、後ろ向き確率βを計算するにあたり、時刻t=5Dにおいて、後ろ向き確率β(時刻6Dの後ろ向き確率β6D(m))を、1/Mに初期化する。 The second β calculation unit 110 uses the output transition probability β from the γ memory control unit 202 to calculate the backward probability β in the order of going back in time. In calculating the backward probability β at the time t = 5D to 6D−1, the second β calculating unit 110 calculates the backward probability β (the backward probability β 6D (m) at the time 6D) at the time t = 5D. Initialize to 1 / M.

さらに、また、ステップS36の処理として、γメモリ制御部202は、第3γメモリ205のアドレスの大きいワードから小さいワードの順に、時刻を遡る順の出力遷移確率γを読み出し、データD109として、第1β計算部109に供給する。   Further, as the processing of step S36, the γ memory control unit 202 reads the output transition probability γ in the order of going back in time from the word with the largest address of the third γ memory 205 to the word with the smallest address, and as the data D109, the first β It supplies to the calculation part 109.

第1β計算部109では、γメモリ制御部202からの出力遷移確率γ(と、ステップS35において、第1β計算部109で求められた後ろ向き確率βと)を用いて、ステップS35において、第1β計算部109で求められた後ろ向き確率βからさらに遡った時刻の後ろ向き確率βが計算され、βメモリ制御部211に供給される。   The first β calculation unit 109 uses the output transition probability γ from the γ memory control unit 202 (and the backward probability β obtained by the first β calculation unit 109 in step S35), and in step S35, performs the first β calculation. The backward probability β at a time further back from the backward probability β obtained by the unit 109 is calculated and supplied to the β memory control unit 211.

また、このとき、βメモリ制御部211は、βメモリ213のアドレスの大きいワードから小さいワードの順に、ステップS35で書き込まれた後ろ向き確率βを読み出して、すなわち、時刻順の後ろ向き確率を読み出して、データD117として、λ計算部112に供給し、それと同時に、第1β計算部109からの時刻を遡る順の後ろ向き確率βを、データD213として、βメモリ213に供給し、その後ろ向き確率βを、時間を遡る順に、βメモリ213のアドレスの大きいワードから小さいワードに書き込む。   At this time, the β memory control unit 211 reads the backward probability β written in step S35 in order from the word with the largest address of the β memory 213 to the smallest word, that is, reads the backward probability in the time order, The data D117 is supplied to the λ calculation unit 112, and at the same time, the backward probability β in the order of going back the time from the first β calculation unit 109 is supplied to the β memory 213 as the data D213, and the backward probability β is Are written in ascending order from the word with the largest address in the β memory 213 to the word with the smallest address.

すなわち、βメモリ213において、記憶されている後ろ向き確率βを読み出しと、新たに求められた後ろ向き確率βの書き込みとを同時に行うリードモディファイライトが行われる。   That is, in the β memory 213, read-modify-write is performed in which the stored backward probability β is simultaneously read and the newly obtained backward probability β is written.

ここで、ステップS36のβメモリ213でのリードモディファイライトでは、新たに求められた、時間を遡る順の後ろ向き確率βが、βメモリ213のアドレスの大きいワードから小さいワードに向かって書き込まれる。この場合、βメモリ213では、より小さいアドレスに、より前の時刻の後ろ向き確率βが記憶される(より大きいアドレスに、より後の時刻の後ろ向き確率βが記憶される)。   Here, in the read-modify-write in the β memory 213 in step S36, the newly obtained backward probability β in the order of going back in time is written from a word with a larger address in the β memory 213 toward a smaller word. In this case, in the β memory 213, the backward probability β of the earlier time is stored at a smaller address (the backward probability β of the later time is stored at a larger address).

ステップS36では、さらに、α計算部108において、γメモリ制御部202がリードモディファイライトによって第1γメモリ203から読み出して、データD108として供給してくる出力遷移確率γを用いて、前向き確率αを計算し、データD116として、λ計算部112に供給する。   In step S36, the α calculation unit 108 further calculates the forward probability α using the output transition probability γ read from the first γ memory 203 by the read-modify-write and supplied as the data D108. And supplied to the λ calculation unit 112 as data D116.

λ計算部112は、γメモリ制御部202がリードモディファイライトによって第2γメモリ204から読み出して、データD115として供給してくる出力遷移確率γ、α計算部108からデータD116として供給される前向き確率α、及び、βメモリ制御部211がリードモディファイライトによってβメモリ213から読み出して、データD117として供給してくる後ろ向き確率βを用いて、出力軟値データλを計算し、データD118として出力する。   The λ calculation unit 112 outputs an output transition probability γ read from the second γ memory 204 by the γ memory control unit 202 by read-modify-write and supplied as data D115, and a forward probability α supplied from the α calculation unit 108 as data D116. The β memory control unit 211 calculates the output soft value data λ using the backward probability β read out from the β memory 213 by read-modify-write and supplied as data D117, and outputs it as data D118.

以下、同様にして、第1γメモリ203ないし第4γメモリ206に対する読み書き制御の処理と、βメモリ213に対する読み書き制御の処理とが行われる。   Thereafter, similarly, read / write control processing for the first γ memory 203 to the fourth γ memory 206 and read / write control processing for the β memory 213 are performed.

すなわち、5以上の整数値の変数jについて、時刻t=j×Dないし(j+1)×D-1では、第1γメモリ203ないし第4γメモリ206のアドレスの小さいワードから大きいワードに向かって、前向き確率αの計算、及び出力軟値データλの計算に用いられる時刻順の出力遷移確率γが読み出されて、データD108としてα計算部108に供給されるとともに、データD115としてλ計算部112に供給され、それと同時に、γ計算部101で求められた時刻順の出力遷移確率γ(D102)が、第1γメモリ203ないし第4γメモリ206のアドレスの小さいワードから大きいワードに書き込まれるリードモディファイライトが行われる。   That is, for a variable j having an integer value of 5 or more, from time t = j × D to (j + 1) × D−1, from a word with a smaller address in the first γ memory 203 to the fourth γ memory 206 toward a larger word. , The output transition probability γ in time order used for the calculation of the forward probability α and the output soft value data λ is read and supplied to the α calculation unit 108 as data D108, and the λ calculation unit as data D115 112, and at the same time, the output transition probability γ (D102) in time order obtained by the γ calculating unit 101 is written from a word with a small address to a word with a large address in the first γ memory 203 to the fourth γ memory 206. Light is done.

ここで、出力遷移確率γの読み書きを同時に行うリードモディファイライトの対象となるのは、例えば、変数j=5では、第2γメモリ204であり、変数j=6では、第3γメモリ205であり、変数j=7では、第4γメモリ206であり、変数j=8では、第1γメモリ203であり、変数j=9では、第2γメモリ204である。以下、同様のパターンが繰り返される。   Here, for example, the read-modify-write that simultaneously reads and writes the output transition probability γ is the second γ memory 204 when the variable j = 5, and the third γ memory 205 when the variable j = 6. The variable j = 7 is the fourth γ memory 206, the variable j = 8 is the first γ memory 203, and the variable j = 9 is the second γ memory 204. Thereafter, the same pattern is repeated.

また、同時に、第1γメモリ203ないし第4γメモリ206のアドレスの大きいワードから小さいワードの順に、時刻を遡る順の出力遷移確率γが読み出され、その出力遷移確率γを用い、第1β計算部109、又は第2β計算部110で、後ろ向き確率βのうちの、βメモリ213に記憶されない後ろ向き確率β1が計算される。なお、後ろ向き確率β1のを計算にあたり、時刻t=(i+5)×Dにおいて、後ろ向き確率β1は、1/Mに初期化される。   At the same time, output transition probabilities γ are read in the order of going back in time from the word with the largest address in the first γ memory 203 to the fourth γ memory 206 in order from the smallest word, and the first β calculation unit is used by using the output transition probability γ. 109 or the second β calculation unit 110 calculates a backward probability β1 of the backward probability β that is not stored in the β memory 213. In calculating the backward probability β1, the backward probability β1 is initialized to 1 / M at time t = (i + 5) × D.

ここで、後ろ向き確率β1の計算に用いられる出力遷移確率γの読み出しの対象となるのは、例えば、変数j=5では、第1γメモリ203であり、変数j=6では、第2γメモリ204であり、変数j=7では、第3γメモリ205であり、変数j=8では、第4γメモリ206であり、変数j=9では、第1γメモリ203である。以下、同様のパターンが繰り返される。   Here, for example, the output transition probability γ used for the calculation of the backward probability β1 is to be read from the first γ memory 203 when the variable j = 5 and from the second γ memory 204 when the variable j = 6. Yes, the variable j = 7 is the third γ memory 205, the variable j = 8 is the fourth γ memory 206, and the variable j = 9 is the first γ memory 203. Thereafter, the same pattern is repeated.

また、後ろ向き確率β1の計算を行うのは、例えば、変数j=5では、第2β計算部110であり、変数j=6では、第1β計算部109であり、変数j=7では、第2β計算部110である。以下、同様のパターンが繰り返される。   The backward probability β1 is calculated by, for example, the second β calculator 110 when the variable j = 5, the first β calculator 109 when the variable j = 6, and the second β when the variable j = 7. The calculation unit 110. Thereafter, the same pattern is repeated.

時刻t=j×Dないし(j+1)×D-1では、さらに、第1γメモリ203ないし第4γメモリ206のアドレスの大きいワードから小さいワードの順に、時刻を遡る順の出力遷移確率γが読み出され、その出力遷移確率γを用い、第1β計算部109、又は第2β計算部110で、後ろ向き確率βのうちの、βメモリ213に記憶される後ろ向き確率β2が計算される。   At time t = j × D to (j + 1) × D−1, the output transition probability γ in the order of going back in time from the word with the largest address in the first γ memory 203 to the fourth γ memory 206 is further increased. Using the output transition probability γ, the backward probability β2 stored in the β memory 213 among the backward probability β is calculated by the first β calculation unit 109 or the second β calculation unit 110.

ここで、後ろ向き確率β2の計算に用いられる出力遷移確率γの読み出しの対象となるのは、例えば、変数j=5では、第3γメモリ205であり、変数j=6では、第4γメモリ206であり、変数j=7では、第1γメモリ203であり、変数j=8では、第2γメモリ204であり、変数j=9では、第3γメモリ205である。以下、同様のパターンが繰り返される。   Here, for example, the output transition probability γ used for the calculation of the backward probability β2 is the third γ memory 205 when the variable j = 5, and the fourth γ memory 206 when the variable j = 6. Yes, the variable j = 7 is the first γ memory 203, the variable j = 8 is the second γ memory 204, and the variable j = 9 is the third γ memory 205. Thereafter, the same pattern is repeated.

また、後ろ向き確率β2の計算を行うのは、例えば、変数j=5では、第1β計算部109であり、変数j=6では、第2β計算部110であり、変数j=7では、第1β計算部109である。以下、同様のパターンが繰り返される。   Further, the backward probability β2 is calculated by the first β calculation unit 109 when the variable j = 5, the second β calculation unit 110 when the variable j = 6, and the first β when the variable j = 7, for example. The calculation unit 109. Thereafter, the same pattern is repeated.

時刻t=j×Dないし(j+1)×D-1では、また、βメモリ213から、後ろ向き確率β2が読み出されて、データD117として、λ計算部112に供給され、それと同時に、第1β計算部109、又は第2β計算部110で計算された後ろ向き確率β2が、βメモリ213に書き込まれるリードモディファイライトが行われる。   From time t = j × D to (j + 1) × D−1, the backward probability β2 is read from the β memory 213 and supplied to the λ calculation unit 112 as data D117. Read-modify-write is performed in which the backward probability β2 calculated by the 1β calculation unit 109 or the second β calculation unit 110 is written to the β memory 213.

ここで、βメモリ213に対する後ろ向き確率β2の読み書きを同時に行うリードモディファイライトでは、例えば、変数jが奇数である場合には、βメモリ213のアドレスの大きいワードから小さいワードの方向に、後ろ向き確率β2の読み書きが行われ、変数jが偶数である場合には、βメモリ213のアドレスの小さいワードから大きいワードの方向に、後ろ向き確率β2の読み書きが行われる。   Here, in the read-modify-write that simultaneously reads / writes the backward probability β2 with respect to the β memory 213, for example, when the variable j is an odd number, the backward probability β2 in the direction from the larger word to the smaller word in the β memory 213. When the variable j is an even number, the backward probability β2 is read and written in the direction from the smaller word to the larger word in the β memory 213.

一方、α計算部108では、データD108として供給される出力遷移確率γを用いて、前向き確率αが計算され、データD116として、λ計算部112に供給される。   On the other hand, the α calculation unit 108 calculates the forward probability α using the output transition probability γ supplied as the data D108, and supplies it as the data D116 to the λ calculation unit 112.

そして、λ計算部112では、データD115として供給される出力遷移確率γ、データD116として供給される前向き確率α、及び、データD117として供給される後ろ向き確率β2を用いて、出力軟値データλが計算され、データD118として出力される。   Then, the λ calculation unit 112 uses the output transition probability γ supplied as the data D115, the forward probability α supplied as the data D116, and the backward probability β2 supplied as the data D117 to generate the output soft value data λ. Calculated and output as data D118.

次に、図13を参照して、第1γメモリ203ないし第4γメモリ206に対する読み書き制御と、βメモリ213に対する読み書き制御について、さらに説明する。   Next, the read / write control for the first γ memory 203 to the fourth γ memory 206 and the read / write control for the β memory 213 will be further described with reference to FIG.

図13左から1番目は、出力遷移確率γ、前向き確率α、後ろ向き確率β(β1とβ2)、及び出力軟値データλの計算の進行状況を示している。   The first from the left in FIG. 13 shows the progress of calculation of the output transition probability γ, the forward probability α, the backward probability β (β1 and β2), and the output soft value data λ.

図13左から1番目において、横軸は、左から右方向を、トレリスの時刻の進行方向として、出力遷移確率γ、前向き確率α、後ろ向き確率β(β1とβ2)、及び出力軟値データλが計算されるトレリスのセクションを表し、縦軸は、時刻を表している。   In the first from the left in FIG. 13, the horizontal axis represents the output transition probability γ, the forward probability α, the backward probability β (β1 and β2), and the output soft value data λ, with the direction from left to right as the travel direction of the trellis time. Represents the section of the trellis for which is calculated, and the vertical axis represents the time.

図13左から1番目は、上述した図9左から1番目と同一の図である。   The first from the left in FIG. 13 is the same as the first from the left in FIG.

したがって、図13左から1番目において、ラインL11は、出力遷移確率γの計算の進行状況を、ラインL12は、後ろ向き確率βのうちの、βメモリ213に書き込まれない後ろ向き確率β1の計算の進行状況を、ラインL13は、βメモリ213に書き込まれる後ろ向き確率β2の計算の進行状況を、ラインL14は、前向き確率αと、出力軟値データλとの計算の進行状況を、それぞれ示している。   Therefore, in the first from the left in FIG. 13, the line L11 indicates the progress of the calculation of the output transition probability γ, and the line L12 indicates the progress of the calculation of the backward probability β1 of the backward probability β that is not written in the β memory 213. The line L13 indicates the progress of calculation of the backward probability β2 written in the β memory 213, and the line L14 indicates the progress of calculation of the forward probability α and the output soft value data λ.

図13左から2番目は、第1γメモリ203ないし第4γメモリ206に対するデータの読み書きの進行状況を示している。   The second from the left in FIG. 13 shows the progress of data reading / writing from the first γ memory 203 to the fourth γ memory 206.

図13左から2番目において、横軸は、第1γメモリ203ないし第4γメモリ206のアドレスを表しており、縦軸は、図13左から1番目と同様に、時刻を表している。   In the second from the left in FIG. 13, the horizontal axis represents the addresses of the first γ memory 203 to the fourth γ memory 206, and the vertical axis represents the time as in the first from the left in FIG. 13.

図13左から2番目において、ラインL51は、第1γメモリ203ないし第4γメモリ206に対する出力遷移確率γの書き込みの進行状況を示している。   In the second line from the left in FIG. 13, the line L51 indicates the progress of writing the output transition probability γ to the first γ memory 203 to the fourth γ memory 206.

出力遷移確率γは、時刻順に、第1γメモリ203ないし第4γメモリ206のアドレスの小さいワードから大きいワードに書き込まれていく。   The output transition probability γ is written in the order of time from the word with the smallest address in the first γ memory 203 to the fourth γ memory 206 to the larger word.

図13左から2番目において、ラインL52及びL53は、後ろ向き確率βの計算に用いられる出力遷移確率γの、第1γメモリ203ないし第4γメモリ206からの読み出しの進行状況を示している。   In the second line from the left in FIG. 13, lines L52 and L53 indicate the progress of reading from the first γ memory 203 to the fourth γ memory 206 of the output transition probability γ used for calculating the backward probability β.

後ろ向き確率βの計算に用いられる出力遷移確率γの、第1γメモリ203ないし第4γメモリ206からの読み出しは、出力遷移確率γの計算が開始されたタイミング(時刻t=0)から、打ち切り長Dの2倍の時間2×Dだけ待って開始される。   The output transition probability γ used for calculating the backward probability β is read from the first γ memory 203 to the fourth γ memory 206 from the timing (time t = 0) when the calculation of the output transition probability γ is started. It will be started after waiting for 2xD.

そして、後ろ向き確率βの計算に用いられる出力遷移確率γの読み出しは、時刻を遡る順、すなわち、第1γメモリ203ないし第4γメモリ206のアドレスの大きいワードから小さいワードに向かって行われ、時間2D分の出力遷移確率γが読み出される。   Then, the reading of the output transition probability γ used for the calculation of the backward probability β is performed in the order of going back in time, that is, from the first γ memory 203 to the fourth γ memory 206 from the word having the larger address to the word having the smaller time 2D. The minute output transition probability γ is read.

図13左から2番目において、ラインL52は、時間2D分の出力遷移確率γのうちの、時刻を遡る順で、最初の時間D分の出力遷移確率γ(例えば、時刻t=0ないし2D-1の出力遷移確率γであれば、時刻t=Dないし2D-1の出力遷移確率)の読み出しの進行状況を示しており、この最初の時間D分の出力遷移確率γは、図13左から1番目のラインL12が表す後ろ向き確率β1の計算に用いられる。   In the second line from the left in FIG. 13, the line L52 indicates the output transition probability γ for the first time D in the order of going back in time among the output transition probabilities γ for time 2D (for example, time t = 0 to 2D− If the output transition probability γ is 1, the reading progress status at time t = D or 2D-1) is shown. The output transition probability γ for the first time D is shown from the left in FIG. This is used to calculate the backward probability β1 represented by the first line L12.

また、ラインL53は、時間2D分の後ろ向き確率βのうちの、時刻を遡る順で、後の時間D分の出力遷移確率γ(例えば、時刻t=0ないし2D-1の出力遷移確率γであれば、時刻t=0ないしD-1の出力遷移確率)の読み出しの進行状況を示しており、この後の時間D分の出力遷移確率γは、図13左から1番目のラインL13が表す後ろ向き確率β2の計算に用いられる。   Further, the line L53 indicates an output transition probability γ for the subsequent time D in the backward probability β for the time 2D (for example, the output transition probability γ for the time t = 0 to 2D-1). If there is, the progress status of reading at time t = 0 to D-1) is shown, and the output transition probability γ for time D after this is represented by the first line L13 from the left in FIG. Used to calculate the backward probability β2.

図13左から2番目において、ラインL54は、前向き確率αと出力軟値データλとの計算に用いられる出力遷移確率γの、第1γメモリ203ないし第4γメモリ206からの読み出しの進行状況を示している。   In the second line from the left in FIG. 13, a line L54 indicates the progress of reading from the first γ memory 203 to the fourth γ memory 206 of the output transition probability γ used for the calculation of the forward probability α and the output soft value data λ. ing.

前向き確率αと出力軟値データλとの計算に用いられる出力遷移確率γの読み出しは、図13左から1番目のラインL14で説明した、前向き確率αと出力軟値データλとを計算するときに、時刻順に、つまり、第1γメモリ203ないし第4γメモリ206のアドレスの小さいワードから大きいワードに向かって行われる。   The reading of the output transition probability γ used for the calculation of the forward probability α and the output soft value data λ is performed when calculating the forward probability α and the output soft value data λ described in the first line L14 from the left in FIG. In addition, the processing is performed in time order, that is, from the first γ memory 203 to the fourth γ memory 206 to the larger word from the smallest address.

時刻t=4D以降においては、ラインL54が表す第1γメモリ203ないし第4γメモリ206からの出力遷移確率γの読み出しと、ラインL51が表す第1γメモリ203ないし第4γメモリ206に対する出力遷移確率γの書き込みとが同時に行われるリードモディファイライトが行われる。   After time t = 4D, the output transition probability γ is read from the first γ memory 203 through the fourth γ memory 206 represented by the line L54, and the output transition probability γ with respect to the first γ memory 203 through the fourth γ memory 206 represented by the line L51. Read-modify-write, in which writing is performed simultaneously, is performed.

図13左から3番目(右から1番目)は、βメモリ213に対するデータの読み書きの進行状況を示している。   The third from the left in FIG. 13 (first from the right) shows the progress of reading / writing data to / from the β memory 213.

図13左から3番目において、横軸は、βメモリ213のアドレスを表しており、縦軸は、図13左から1番目と同様に、時刻を表している。   In the third from the left in FIG. 13, the horizontal axis represents the address of the β memory 213, and the vertical axis represents the time as in the first from the left in FIG.

図13左から3番目において、ラインL61は、βメモリ213に対する後ろ向き確率β(β2)の書き込みの進行状況を示している。   In the third line from the left in FIG. 13, the line L61 indicates the progress of writing the backward probability β (β2) to the β memory 213.

後ろ向き確率β(β2)の、βメモリ213への書き込みは、ラインL61として示したように時刻3Dから開始される   The writing of the backward probability β (β2) to the β memory 213 starts at time 3D as shown by the line L61.

そして、後ろ向き確率β(β2)は、時刻を遡る順に、βメモリ213に書き込まれるが、この、時刻を遡る順の後ろ向き確率βの書き込みについては、βメモリ213のアドレスの大きいワードから小さいワードに向かって書き込みを行うことと、逆に、βメモリ213のアドレスの小さいワードから大きいワードに向かって書き込みを行うこととが、打ち切り長Dの周期で交互に繰り返される。   The backward probability β (β2) is written in the β memory 213 in the order of going back in time. The backward probability β in the order of going back in time is written from a word having a larger address in the β memory 213 to a smaller word. On the other hand, writing is performed alternately from a word having a small address in the β memory 213 toward a word having a large address in the cycle of the cutoff length D.

なお、βメモリ213に書き込まれる後ろ向き確率βは、図13左から1番目のラインL13が表す後ろ向き確率β2だけである。   Note that the backward probability β written to the β memory 213 is only the backward probability β2 represented by the first line L13 from the left in FIG.

図13左から3番目において、ラインL62は、出力軟値データλの計算に用いられる後ろ向き確率β2の、βメモリ213からの読み出しの進行状況を示している。   In the third line from the left in FIG. 13, a line L62 indicates the progress of reading from the β memory 213 of the backward probability β2 used in the calculation of the output soft value data λ.

後ろ向き確率β2の、βメモリ213からの読み出しは、ラインL62として示したように時刻4Dから開始されるが、このラインL62では、打ち切り長Dだけ前に、βメモリ213に書き込まれた後ろ向き確率β2が読み出される。   Reading of the backward probability β2 from the β memory 213 is started from the time 4D as shown as the line L62. In this line L62, the backward probability β2 written in the β memory 213 before the cutoff length D is reached. Is read out.

時刻t=4D以降においては、ラインL62が表すβメモリ213からの後ろ向き確率β2の読み出しと、ラインL61が表す後ろ向き確率β2の書き込みとが同時に行われるリードモディファイライトが行われる。   After time t = 4D, read-modify-write is performed in which reading of the backward probability β2 from the β memory 213 represented by the line L62 and writing of the backward probability β2 represented by the line L61 are performed simultaneously.

なお、ラインL62が表すβメモリ213からの後ろ向き確率β2の読み出しは、その後ろ向き確率β2がβメモリ213に書き込まれたときの書き込み順の逆順で行われ、これにより、後ろ向き確率β2は、時刻順に、λ計算部112に供給される。   The backward probability β2 is read from the β memory 213 represented by the line L62 in the reverse order of the writing order when the backward probability β2 is written in the β memory 213. Thus, the backward probability β2 is determined in time order. , Λ calculation unit 112.

ここで、第1β計算部109、又は第2β計算部110では、時刻を遡る順の後ろ向き確率β2が計算され、この、時刻を遡る順の後ろ向き確率β2については、βメモリ213のアドレスの大きいワードから小さいワードに向かって書き込みを行うことと、逆に、βメモリ213のアドレスの小さいワードから大きいワードに向かって書き込みを行うこととが、交互に繰り返される。   Here, the first β calculation unit 109 or the second β calculation unit 110 calculates the backward probability β2 in the order of going back in time, and the backward probability β2 in the order of going back in time is a word having a large address in the β memory 213. The writing from the small word to the small word and, conversely, the writing from the small word in the β memory 213 toward the large word are repeated alternately.

したがって、βメモリ213からの後ろ向き確率β2の読み出しが、その後ろ向き確率β2がβメモリ213に書き込まれたときの書き込み順の逆順で行われることにより、βメモリ213からは、後ろ向き確率β2が、時刻順に読み出される。   Therefore, the backward probability β2 is read from the β memory 213 in the reverse order of the writing order when the backward probability β2 is written to the β memory 213, so that the backward probability β2 is Read sequentially.

以上のように、入力データit(例えば、畳み込み符号器であるチャネル#22への入力となるLDPC符号)を符号化した符号化データXt(例えば、畳み込み符号器であるチャネル#22が出力する符号化データXt)がチャネル(例えば、AWGNチャネル)を経由することにより得られる入力軟値データYtを、入力データitの尤度を表す出力軟値データλtに復号するSISO復号器67において、入力軟値データYtから、出力軟値データλtを求める、例えば、式(18)や、式(19)、式(22)等の所定の計算に用いる出力遷移確率γや、後ろ向き確率βを記憶する記憶手段として、レジスタ3031ないし303Wを用いて構成された、データの書き込みと読み出しとを同時にすること(リードモディファイライト)が可能な第1γメモリ203ないし第4γメモリ206、及びβメモリ213を採用したので、SISO復号器67の回路規模を小さくすることができる。 As described above, encoded data X t (for example, channel # 22, which is a convolutional encoder), which is obtained by encoding input data i t (for example, LDPC code to be input to channel # 22, which is a convolutional encoder) SISO decoding encoded data X t to) the channel (e.g., an input soft value data Y t obtained by way of the AWGN channel), decodes the output soft value data lambda t representing the likelihood of the input data i t In the device 67, the output soft value data λ t is obtained from the input soft value data Y t , for example, the output transition probability γ used for the predetermined calculation such as Expression (18), Expression (19), Expression (22) , as storage means for storing the backward probability beta, to register 303 1 is configured with a 303 W, to the data write and read at the same time (read-modify-write) capable first 1γ memory 203, second 4γ Mori 206, and since the adopted β memory 213, it is possible to reduce the circuit scale of the SISO decoder 67.

すなわち、出力遷移確率γを記憶する記憶手段として、レジスタを用いて構成された、リードモディファイライトが可能なメモリを採用することにより、出力遷移確率γを記憶する記憶手段は、図10に示したように、第1γメモリ203ないし第4γメモリ206の4個のメモリで済み、図7に示したシングルポートのRAMを採用した場合に、5個の第1γRAM103ないし第5γRAM107が必要となるのに対して、出力遷移確率γを記憶する記憶手段の個数を、1個だけ少なくすることができる。   That is, the storage means for storing the output transition probability γ by adopting a memory capable of read-modify-write configured using a register as the storage means for storing the output transition probability γ is shown in FIG. As described above, four memories, ie, the first γ memory 203 to the fourth γ memory 206 are sufficient, and when the single-port RAM shown in FIG. 7 is adopted, the five first γRAMs 103 to the fifth γRAM 107 are required. Thus, the number of storage means for storing the output transition probability γ can be reduced by one.

同様に、後ろ向き確率βを記憶する記憶手段として、レジスタを用いて構成された、リードモディファイライトが可能なメモリを採用することにより、後ろ向き確率βを記憶する記憶手段は、図10に示したように、βメモリ213の、1個のメモリだけで済み、図7に示したシングルポートのRAMを採用した場合に、2個の第1βRAM113及び第2βRAM114が必要となるのに対して、後ろ向き確率βを記憶する記憶手段の個数を、1個だけ少なくすることができる。   Similarly, as a storage means for storing the backward probability β, a storage means configured by using a register and capable of read-modify-write is used, so that the storage means for storing the backward probability β is as shown in FIG. Furthermore, only one memory of the β memory 213 is required, and when the single-port RAM shown in FIG. 7 is adopted, the two first βRAMs 113 and the second βRAM 114 are required, whereas the backward probability β Can be reduced by one.

また、ワード数が小さい場合には、シングルポートのRAMは、前述したように、メモリセル以外のオーバヘッドが占める割合が大になるため、同一の記憶容量であれば、シングルポートのRAMより、レジスタを用いて構成された、リードモディファイライトが可能なメモリの方が、回路規模を小さくすることができ、かかる点からも、リードモディファイライトが可能なメモリを採用することにより、SISO復号器67の回路規模を小さくすることができる。   In addition, when the number of words is small, the single-port RAM has a large proportion of overhead other than memory cells, as described above. The memory that can be used for read-modify-write can be reduced in circuit scale, and from this point of view, by adopting a memory that can be used for read-modify-write, the SISO decoder 67 The circuit scale can be reduced.

さらに、図12で説明したように、第1γメモリ203ないし第4γメモリ206からの、前向き確率αの計算、及び出力軟値データλの計算に用いられる出力遷移確率γの読み出し、並びに、γ計算部101で求められた出力遷移確率γの、第1γメモリ203ないし第4γメモリ206への書き込みを、同時に行うリードモディファイライトと、βメモリ213からの、λ計算部112で用いる後ろ向き確率β2の読み出し、及び、第1β計算部109、又は第2β計算部110で計算された後ろ向き確率β2の、βメモリ213への書き込みを、同時に行うリードモディファイライトとが行われるように、第1γメモリ203ないし第4γメモリ206、及びβメモリ213に対する読み書きの制御を行うことにより、図13で説明したように、シングルポートのRAMを採用した図9の場合と同一の処理速度(性能)で、軟入力軟出力の復号を行うことができる。   Further, as described with reference to FIG. 12, the output probability γ used for calculating the forward probability α and the output soft value data λ from the first γ memory 203 to the fourth γ memory 206, and the γ calculation Read modification write for simultaneously writing the output transition probability γ obtained by the unit 101 to the first γ memory 203 to the fourth γ memory 206 and reading of the backward probability β2 used by the λ calculation unit 112 from the β memory 213 In addition, the first γ memory 203 through the first γ memory 203 through the first γ memory 203 so that the backward modification β 2 calculated by the first β calculation unit 109 or the second β calculation unit 110 is written to the β memory 213 at the same time. By performing read / write control on the 4γ memory 206 and the β memory 213, as shown in FIG. At the same processing speed as in the case of FIG. 9 which employs the RAM of Gurupoto (performance), it is possible to perform decoding of SISO.

なお、図10のSISO復号器67では、SW-Max-Log-BCJRアルゴリズムの他、例えば、SW-Log-BCJRアルゴリズム等にしたがって、軟入力軟出力の復号を行うことが可能である。   Note that the SISO decoder 67 in FIG. 10 can perform soft input / soft output decoding in accordance with, for example, the SW-Log-BCJR algorithm in addition to the SW-Max-Log-BCJR algorithm.

また、本実施の形態では、光ディスクから得られた入力軟値データYtを、出力軟値データλtに復号することとしたが、本発明は、光ディスク等の記録媒体から得られた入力軟値データYtを出力軟値データλtに復号する場合の他、例えば、無線や有線の伝送媒体を介して送信されてきた入力軟値データYtを出力軟値データλtに復号する場合にも適用することができる。 In the present embodiment, the input soft value data Y t obtained from the optical disc is decoded into the output soft value data λ t , but the present invention is applied to the input soft value data obtained from a recording medium such as an optical disc. another case of decoding the value data Y t to output soft values data lambda t, for example, when decoding an input soft value data Y t that is transmitted via a wireless or wired transmission medium to the output soft value data lambda t It can also be applied to.

さらに、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。   Furthermore, the embodiment of the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the present invention.

従来の光ディスク装置の一例の構成を示すブロック図である。It is a block diagram which shows the structure of an example of the conventional optical disk apparatus. BCJRアルゴリズムを説明する通信路のモデルを示す図である。It is a figure which shows the model of the communication path explaining a BCJR algorithm. 畳み込み符号器21を表すトレリスを示す図である。3 is a diagram showing a trellis representing a convolutional encoder 21. FIG. 状態の個数Mが4個である場合の、出力遷移確率γt(m',m,i)を示す図である。In a case where the number M of states is four, which is a diagram showing an output transition probability γ t (m ', m, i). SW-BCJRアルゴリズムを説明する図である。It is a figure explaining SW-BCJR algorithm. 本発明が適用される光ディスク装置の構成例を示すブロック図である。1 is a block diagram illustrating a configuration example of an optical disc device to which the present invention is applied. シングルポートのRAMを用いたSISO復号器67の構成例を示すブロック図である。It is a block diagram which shows the structural example of the SISO decoder 67 using single port RAM. 第1γRAM103ないし第5γRAM107に対する読み書き制御の処理と、第1βRAM113及び第2βRAM114に対する読み書き制御の処理とを説明する図である。It is a figure explaining the read / write control process with respect to the 1st gamma RAM103 thru / or the 5th gamma RAM107, and the read / write control process with respect to the 1st beta RAM113 and the 2nd betaRAM114. 第1γRAM103ないし第5γRAM107に対する読み書き制御の処理と、第1βRAM113及び第2βRAM114に対する読み書き制御の処理とを説明する図である。It is a figure explaining the read / write control process with respect to the 1st gamma RAM103 thru / or the 5th gamma RAM107, and the read / write control process with respect to the 1st beta RAM113 and the 2nd betaRAM114. レジスタを用いたSISO復号器67の構成例を示すブロック図である。It is a block diagram which shows the structural example of the SISO decoder 67 using a register | resistor. 第1γメモリ203の構成例を示す図である。3 is a diagram illustrating a configuration example of a first γ memory 203. FIG. 第1γメモリ203ないし第4γメモリ206に対する読み書き制御の処理と、βメモリ213に対する読み書き制御の処理とを説明する図である。FIG. 5 is a diagram for explaining read / write control processing for a first γ memory 203 to a fourth γ memory 206 and read / write control processing for a β memory 213. 第1γメモリ203ないし第4γメモリ206に対する読み書き制御の処理と、βメモリ213に対する読み書き制御の処理とを説明する図である。FIG. 5 is a diagram for explaining read / write control processing for a first γ memory 203 to a fourth γ memory 206 and read / write control processing for a β memory 213.

符号の説明Explanation of symbols

21 畳み込み符号器, 22 無記憶通信路, 23 復号器, 61 リードソロモン符号器, 62 LDPC符号器, 63 変調符号器, 64 NRZI変換器, 65 記録再生系, 67 SISO復号器, 68 LDPC復号器, 69 リードソロモン復号器, 101 γ計算部, 102 γRAM制御部, 103 第1γRAM, 104 第2γRAM, 105 第3γRAM, 106 第4γRAM, 107 第5γRAM, 108 α計算部, 109 第1β計算部, 110 第2β計算部, 111 βRAM制御部, 112 λ計算部, 113 第1βRAM, 114 第2βRAM, 202 γメモリ制御部, 203 第1γメモリ, 204 第2γメモリ, 205 第3γメモリ, 206 第4γメモリ, 211 βメモリ制御部, 213 βメモリ   21 convolutional encoder, 22 memoryless channel, 23 decoder, 61 Reed-Solomon encoder, 62 LDPC encoder, 63 modulation encoder, 64 NRZI converter, 65 recording / reproducing system, 67 SISO decoder, 68 LDPC decoder , 69 Reed-Solomon decoder, 101 γ calculation unit, 102 γRAM control unit, 103 1st γRAM, 104 2nd γRAM, 105 3rd γRAM, 106 4th γRAM, 107 5th γRAM, 108 α calculation unit, 109 1st β calculation unit, 110 1st 2β calculation unit, 111 βRAM control unit, 112 λ calculation unit, 113 first βRAM, 114 second βRAM, 202 γ memory control unit, 203 first γ memory, 204 second γ memory, 205 third γ memory, 206 fourth γ memory, 211 β Memory control unit, 213 β memory

Claims (4)

入力データを符号化した符号化データがチャネルを経由することにより得られる軟値のデータである入力軟値データを、前記入力データの尤度を表す軟値のデータである出力軟値データに復号する復号装置において、
前記入力軟値データから、前記出力軟値データを求める所定の計算を行う計算手段と、
前記所定の計算に用いるデータを記憶する記憶手段と
を備え、
前記記憶手段は、レジスタを用いて構成された、データの書き込みと読み出しとを同時にすることが可能なメモリである
復号装置。
Decodes input soft value data, which is soft value data obtained by encoding data encoded through the channel, into output soft value data, which is soft value data representing the likelihood of the input data. In the decoding device
Calculation means for performing a predetermined calculation for obtaining the output soft value data from the input soft value data;
Storage means for storing data used for the predetermined calculation,
The decoding unit is a memory configured by using a register and capable of simultaneously writing and reading data.
前記計算手段は、SW-Log-BCJRアルゴリズム、又はSW-Max-Log-BCJRアルゴリズムにしたがった計算を行う
請求項1に記載の復号装置。
The decoding device according to claim 1, wherein the calculation means performs calculation according to a SW-Log-BCJR algorithm or a SW-Max-Log-BCJR algorithm.
前記記憶手段として、
トレリスにおいて、時刻t-1に、状態m'にいて、次の時刻tの入力データitがある値iであるときに、ある入力軟値データYtが観測され、状態mに遷移する出力遷移確率γt(m',m,i)を表すデータを記憶する4つのγメモリと、
ある時刻t+1以降に、前記入力軟値データの系列Yt+1,Yt+2,・・・が観測されるときに、前記トレリスにおいて、時刻tに、状態mにいる後ろ向き確率βt(m)を表すデータを記憶する1つのβメモリと
を有する
請求項2に記載の復号装置。
As the storage means,
In the trellis, at time t−1, in the state m ′, when the input data it at the next time t is a certain value i, certain input soft value data Y t is observed, and the output transitions to the state m Four γ memories for storing data representing the transition probability γ t (m ′, m, i);
When the input soft value data series Y t + 1 , Y t + 2 ,... Is observed after a certain time t + 1, the backward probability β in the state m at the time t in the trellis. The decoding device according to claim 2, further comprising: one β memory that stores data representing t (m).
前記計算手段として、
前記出力遷移確率γt(m',m,i)を表すデータを計算するγ計算部と、
前記出力遷移確率γt(m',m,i)を表すデータを用いて、前記入力軟値データの系列Y1,Y2,・・・,Ytが観測されたときに、前記トレリスにおいて、時刻tに、状態mにいる前向き確率αt(m)を表すデータを計算するα計算部と、
時刻tに、状態mにいて、次の時刻t+1に、状態m'に遷移する前記出力遷移確率γt+1(m,m',i)を表すデータを用いて、前記後ろ向き確率βt(m)を表すデータを計算するβ計算部と、
前記出力遷移確率γt(m',m,i)、時刻t-1に状態m'にいる前記前向き確率αt-1(m')、及び前記後ろ向き確率βt(m)を表すデータを用いて、時刻tの入力データitがある値iであることの尤度を表す前記出力軟値データλtを計算するλ計算部と
を有し、
前記γ計算部で計算された前記出力遷移確率γt(m',m,i)を表すデータの書き込みと、前記前向き確率αt(m)を表すデータの計算、及び前記出力軟値データλtの計算に必要な前記出力遷移確率γt(m',m,i)を表すデータの読み出しとが同時に行われるように、前記γメモリに対するデータの書き込みと読み出しとを制御するγメモリ制御部と、
前記β計算部で計算された前記後ろ向き確率βt(m)を表すデータの書き込みと、前記出力軟値データλtの計算に必要な前記後ろ向き確率βt(m)を表すデータの読み出しとが同時に行われるように、前記βメモリに対するデータの書き込みと読み出しとを制御するβメモリ制御部と
をさらに備える請求項3に記載の復号装置。
As the calculation means,
A γ calculator that calculates data representing the output transition probability γ t (m ′, m, i);
The output transition probability γ t (m ', m, i) using the data representing the said input soft value sequence Y 1 data, Y 2, · · ·, when Y t is observed, in the trellis An α calculation unit for calculating data representing a forward probability α t (m) in the state m at time t;
Using the data representing the output transition probability γ t + 1 (m, m ′, i) that is in the state m at time t and transitions to the state m ′ at the next time t + 1, the backward probability β a β calculator for calculating data representing t (m);
Data representing the output transition probability γ t (m ′, m, i), the forward probability α t-1 (m ′) in the state m ′ at time t−1, and the backward probability β t (m) used, and a lambda calculating section for calculating the output soft values data lambda t representing the likelihood that the input data i t is a value i at time t,
Writing of data representing the output transition probability γ t (m ′, m, i) calculated by the γ calculation unit, calculation of data representing the forward probability α t (m), and the output soft value data λ A γ memory control unit that controls writing and reading of data to and from the γ memory so that reading of data representing the output transition probability γ t (m ′, m, i) necessary for calculating t is performed simultaneously. When,
Writing data representing the backward probability β t (m) calculated by the β calculating unit and reading data representing the backward probability β t (m) necessary for calculating the output soft value data λ t The decoding device according to claim 3, further comprising: a β memory control unit that controls writing and reading of data to and from the β memory so as to be performed simultaneously.
JP2007013831A 2007-01-24 2007-01-24 Decoding device Withdrawn JP2008182442A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007013831A JP2008182442A (en) 2007-01-24 2007-01-24 Decoding device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007013831A JP2008182442A (en) 2007-01-24 2007-01-24 Decoding device

Publications (1)

Publication Number Publication Date
JP2008182442A true JP2008182442A (en) 2008-08-07

Family

ID=39726013

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007013831A Withdrawn JP2008182442A (en) 2007-01-24 2007-01-24 Decoding device

Country Status (1)

Country Link
JP (1) JP2008182442A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010135918A (en) * 2008-12-02 2010-06-17 Nec Corp Arithmetic unit, decoder, memory control method, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010135918A (en) * 2008-12-02 2010-06-17 Nec Corp Arithmetic unit, decoder, memory control method, and program

Similar Documents

Publication Publication Date Title
US6980605B2 (en) MAP decoding with parallelized sliding window processing
US6445755B1 (en) Two-step soft output viterbi algorithm decoder using modified trace back
US9337866B2 (en) Apparatus for processing signals carrying modulation-encoded parity bits
CN1391220A (en) Information record and reproduction device, method and signal decoding circuit
JP2004080508A (en) Decoding method for error correction code, its program, and its device
US5548600A (en) Method and means for generating and detecting spectrally constrained coded partial response waveforms using a time varying trellis modified by selective output state splitting
JP2007510337A (en) Viterbi / Turbo integrated decoder for mobile communication systems
US7180843B2 (en) Information recording and reproduction apparatus, optical disk apparatus and data reproduction method
US20130007568A1 (en) Error correcting code decoding device, error correcting code decoding method and error correcting code decoding program
JP2009095008A (en) Turbo coder/decoder, turbo coding/decoding method, and communication system
JP5075642B2 (en) Metric calculation for MAP decoding using butterfly structure of trellis diagram
EP1143440A2 (en) Method and apparatus for reproducing data and method and apparatus for recording and/or reproducing data
US20010016932A1 (en) Apparatus and method for performing SISO decoding
JP2010073264A (en) Decoding device and decoding method
JP3607683B2 (en) Disk storage device and data recording / reproducing method
JP3823731B2 (en) Error correction decoder
JP2002076921A (en) Method and apparatus for error correction code decoding
JP2008182442A (en) Decoding device
JP2001127647A (en) Decoder for parallel consecutive code, decoding method, and storage medium recording decoding program
CN106209117B (en) Low-resource-consumption multi-parameter configurable Viterbi decoder
JP2001285080A (en) Decoding device and method and recording medium having decoding program recorded thereon
KR100838907B1 (en) Decoder and decoding method
JP2008187496A (en) Decoder, and decoding method
EP1495547A1 (en) A memory management algorithm for trellis decoders
KR100436434B1 (en) Turbo decoder that have a state metric, and Calculation method by Using it

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20100406