JP2009105772A - Iterative decoding apparatus and iterative decoding method - Google Patents

Iterative decoding apparatus and iterative decoding method Download PDF

Info

Publication number
JP2009105772A
JP2009105772A JP2007277016A JP2007277016A JP2009105772A JP 2009105772 A JP2009105772 A JP 2009105772A JP 2007277016 A JP2007277016 A JP 2007277016A JP 2007277016 A JP2007277016 A JP 2007277016A JP 2009105772 A JP2009105772 A JP 2009105772A
Authority
JP
Japan
Prior art keywords
decoding
tail
soft decision
iterative decoding
turbo
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007277016A
Other languages
Japanese (ja)
Other versions
JP4991481B2 (en
Inventor
Hiroyuki Motozuka
裕幸 本塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2007277016A priority Critical patent/JP4991481B2/en
Publication of JP2009105772A publication Critical patent/JP2009105772A/en
Application granted granted Critical
Publication of JP4991481B2 publication Critical patent/JP4991481B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Error Detection And Correction (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an iterative decoding apparatus and iterative decoding method in which processing delay can be reduced by reducing computational complexity required for decoding to a turbo code including a tail bit. <P>SOLUTION: In a turbo decoder 100, a tail processing section 151, 152 calculates beforehand a path metric value β from reception likelihood of a tail portion as pre-processing of iterative decoding processing, and an iterative decoding processing section (soft determination decoding sections 111, 112, interleavers 121, 122) uses the path metric value β to perform iterative decoding only upon a code word body portion. Thus, since the need to iteratively perform decoding processing that is conventionally performed in vain, upon the tail portion is eliminated, computational complexity required for decoding to a turbo code including a tail bit is reduced, thereby reducing processing delay. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、誤り訂正符号を用いて符号化されたデジタル信号を復号する反復復号装置及び反復復号方法に関し、特に、ターボ符号化されたデジタル信号を復号するに好適な反復復号装置及び反復復号方法に関する。   The present invention relates to an iterative decoding apparatus and iterative decoding method for decoding a digital signal encoded using an error correction code, and more particularly to an iterative decoding apparatus and an iterative decoding method suitable for decoding a turbo encoded digital signal. About.

近年、無線や有線の通信システムにおいてデータ伝送レートを向上し、高信頼化するため、誤り訂正符号が用いられている。また、ディスク装置などの記録装置においても、記録密度の向上や高信頼化をはかるため、誤り訂正符号が用いられる。   In recent years, error correction codes have been used to improve data transmission rate and increase reliability in wireless and wired communication systems. Also, in a recording device such as a disk device, an error correction code is used in order to improve recording density and increase reliability.

誤り訂正符号の一つとして、ターボ符号が注目されている。ターボ符号は、復号に要する演算量や処理遅延時間が大きいという問題があるものの、誤り訂正能力が大変高い符号として知られ、移動体通信をはじめとするさまざまなシステムで利用されている。   A turbo code has attracted attention as one of error correction codes. The turbo code is known as a code having a very high error correction capability, although it has a problem that a calculation amount required for decoding and a processing delay time are large, and is used in various systems including mobile communication.

図9に示す通信システム1は、ターボ符号器を用いたシステムの例である。例えば、携帯電話の下り回線の場合、送信側10は基地局装置であり、受信側20は携帯電話端末である。   A communication system 1 shown in FIG. 9 is an example of a system using a turbo encoder. For example, in the case of a mobile phone downlink, the transmitting side 10 is a base station device and the receiving side 20 is a mobile phone terminal.

図9において、送信側10はターボ符号器11、変調・復調部12、送信アンテナ13から構成される。また、受信側20は受信アンテナ21、無線・復調部22、ターボ復号器23から構成される。また、送信アンテナ13と受信アンテナ21は無線伝送路30を介して無線信号を送受信する。   In FIG. 9, the transmission side 10 includes a turbo encoder 11, a modulation / demodulation unit 12, and a transmission antenna 13. The reception side 20 includes a reception antenna 21, a radio / demodulation unit 22, and a turbo decoder 23. The transmission antenna 13 and the reception antenna 21 transmit and receive wireless signals via the wireless transmission path 30.

ターボ復号器11は、情報ビット列c(n)を符号化し、符号語{x(N),y(N),x’(N),y’(N)}を生成する。ここで、n=0〜K−1、N=0〜K+L−1であり、Kは情報ビット列の長さ、Lは後述するテイルの長さである。   The turbo decoder 11 encodes the information bit string c (n) to generate a code word {x (N), y (N), x ′ (N), y ′ (N)}. Here, n = 0 to K−1, N = 0 to K + L−1, K is the length of the information bit string, and L is the length of the tail described later.

変調・無線部12は、ターボ符号器が生成した符号語に対し、QAM(Quadrature Amplitude Modulation)などのデータ変調、拡散やOFDM(Orthogonal Frequency Division Multiplexing)処理を行い、またD/A変換、搬送波の重畳といった無線処理を行い、信号を送信アンテナ13に出力する。   The modulation / radio unit 12 performs data modulation such as QAM (Quadrature Amplitude Modulation), spreading, and OFDM (Orthogonal Frequency Division Multiplexing) processing on the codeword generated by the turbo encoder, and also performs D / A conversion and carrier wave Radio processing such as superposition is performed, and a signal is output to the transmission antenna 13.

送信アンテナ13は、無線信号を出力する。無線信号は、無線伝播路30を経由し受信アンテナ21に受信される。受信信号は、無線伝播路30においてノイズやフェージングを受けることにより、波形の歪みやスペクトラムの歪みが発生する。   The transmission antenna 13 outputs a radio signal. The radio signal is received by the receiving antenna 21 via the radio propagation path 30. The received signal is subjected to noise and fading in the radio propagation path 30, thereby generating waveform distortion and spectrum distortion.

受信部20においては、受信アンテナ21が受信した信号は、無線・復調部22において周波数変換、検波、A/D変換といった無線・アナログ処理、及び変調方式に対応した復調処理が行われる。   In the receiving unit 20, the signal received by the receiving antenna 21 is subjected to radio / analog processing such as frequency conversion, detection, A / D conversion, and demodulation processing corresponding to the modulation method in the radio / demodulation unit 22.

復調処理により、受信尤度{Lx(N),Ly(N),Lx’(N),Ly’(N)}が得られる。これは、ターボ符号器が出力した符号語に対応する軟判定値である。この軟判定値として、各ビットの対数尤度比が用いられる場合がある。   The reception likelihood {Lx (N), Ly (N), Lx ′ (N), Ly ′ (N)} is obtained by the demodulation process. This is a soft decision value corresponding to the code word output from the turbo encoder. As this soft decision value, the log likelihood ratio of each bit may be used.

ターボ復号器23は、受信尤度を入力とし、受信ビット列C(n)を生成する。すなわち、情報ビット列c(n)としてどのような値が送信されたかを推定する。   The turbo decoder 23 receives the reception likelihood and generates a reception bit string C (n). That is, it is estimated what value is transmitted as the information bit string c (n).

この例で示したように、ターボ符号器、ターボ復号器を使ったシステムは、送信側においてターボ符号器により符号語を生成し、受信側において符号語に対応する受信尤度を生成し、この受信尤度をターボ復号器に入力することで受信ビット列を得るように構成される。   As shown in this example, a system using a turbo encoder and a turbo decoder generates a code word by a turbo encoder on the transmission side, and generates a reception likelihood corresponding to the code word on the reception side. A reception bit string is obtained by inputting the reception likelihood to the turbo decoder.

(ターボ符号器)
図10は、移動通信方式であるW−CDMAに採用されているターボ符号器の構成図で、非特許文献1に記載されているものである。
(Turbo encoder)
FIG. 10 is a configuration diagram of a turbo encoder adopted in W-CDMA, which is a mobile communication system, and is described in Non-Patent Document 1.

W−CDMAのターボ符号器40aは、2つの畳み込み符号器50aと60aとをインタリーバ41を介して並列に接続する構成を採っている。畳み込み符号器50aは、レジスタ51a〜51dおよびXOR演算器52a〜52dにより構成される。また、インタリーバ41は、入力データ列を決められた規則により並び替える機能を持つ。   The W-CDMA turbo encoder 40 a employs a configuration in which two convolutional encoders 50 a and 60 a are connected in parallel via an interleaver 41. The convolutional encoder 50a includes registers 51a to 51d and XOR calculators 52a to 52d. The interleaver 41 has a function of rearranging the input data string according to a predetermined rule.

ターボ符号器40aは、入力端41に情報ビット列を入力すると、出力端42、43、44、45からビット列が出力される。このうち、出力端42から出力されるビット列x(n)、出力端43から出力されるビット列y(n)、及び出力端45から出力されるビット列y’(n)を符号語として送信する。出力端44から出力されるビット列x’(n)は通常送信されない。ここで、n=0〜K−1である。   When the turbo encoder 40a inputs an information bit string to the input terminal 41, the bit string is output from the output terminals 42, 43, 44, and 45. Among these, the bit string x (n) output from the output terminal 42, the bit string y (n) output from the output terminal 43, and the bit string y '(n) output from the output terminal 45 are transmitted as codewords. The bit string x ′ (n) output from the output terminal 44 is not normally transmitted. Here, n = 0 to K-1.

(トレリス終端)
畳み込み符号は、トレリス終端(Trellis Termination)と呼ばれる手法により、誤り訂正能力を向上させることができることが知られている。ターボ符号においても、内部の畳み込み符号器にトレリス終端の手法を用いることにより、誤り訂正能力を向上させることができる。
(Trellis termination)
It is known that a convolutional code can improve error correction capability by a technique called trellis termination. Even in the turbo code, the error correction capability can be improved by using the trellis termination technique in the internal convolutional encoder.

トレリス終端では、情報ビット列を入力し終えた後に、予め定められた方法により畳み込み符号器のすべてのレジスタの内部値を0にする操作が行なわれる。そして、この操作のとき出力端から出力される、テイルビットと呼ばれるビット列が送信される。   At the end of the trellis, after the information bit string has been input, an operation of setting the internal values of all the registers of the convolutional encoder to 0 by a predetermined method is performed. In this operation, a bit string called a tail bit output from the output terminal is transmitted.

テイルビットを生成する予め定められた方法(すなわち、畳み込み符号器のすべてのレジスタの内部値を0にする操作方法)としては、畳み込み符号器の内部結線を変更する方法や、入力端に予め定められた値のビット列を入力する方法が知られており、畳み込み符号器の構成に応じて適当な方法が用いられる。   As a predetermined method for generating tail bits (that is, an operation method for setting the internal values of all the registers of the convolutional encoder to 0), a method for changing the internal connection of the convolutional encoder, a predetermined method for the input terminal, or the like. A method of inputting a bit string of a specified value is known, and an appropriate method is used depending on the configuration of the convolutional encoder.

再び、W−CDMAのターボ符号器40aを例に説明する。トレリス終端を行うために、ターボ符号器40aに情報ビット列を入力し終えた後、そのときのレジスタ51a〜51dの内容を保持したまま畳み込み符号器50a及び60aの内部結線を変更し、図11の畳み込み符号器50b及び60bのようにする。すなわち、畳み込み符号器50a及び60aの入力を閉じて、情報ビット列の代わりにXOR演算器52dの出力をXOR演算器52aへ入力し、XOR演算器62dの出力をXOR演算器62aへ入力する。   Again, the W-CDMA turbo encoder 40a will be described as an example. In order to perform the trellis termination, after the input of the information bit string to the turbo encoder 40a is completed, the internal connections of the convolutional encoders 50a and 60a are changed while retaining the contents of the registers 51a to 51d at that time. The convolutional encoders 50b and 60b are used. That is, the inputs of the convolutional encoders 50a and 60a are closed, the output of the XOR operator 52d is input to the XOR operator 52a instead of the information bit string, and the output of the XOR operator 62d is input to the XOR operator 62a.

このとき出力端42、43、44、45から得られるビット列をテイルビットとして送信する。   At this time, the bit string obtained from the output terminals 42, 43, 44, 45 is transmitted as a tail bit.

(ターボ復号)
次に、従来のターボ復号方式について説明する。図12は、従来のターボ復号器を説明するためのブロック図である。
(Turbo decoding)
Next, a conventional turbo decoding method will be described. FIG. 12 is a block diagram for explaining a conventional turbo decoder.

図12において、ターボ復号器70は、軟判定復号部71,72、インタリーバ73,75、デインタリーバ74、受信尤度メモリ76、セレクタ77、及び出力端子78から構成される。   In FIG. 12, a turbo decoder 70 includes soft decision decoding units 71 and 72, interleavers 73 and 75, a deinterleaver 74, a reception likelihood memory 76, a selector 77, and an output terminal 78.

軟判定復号器71、72は、具体的には、MAP(Maximum A posterior Probability)復号方式、MAP方式を対数計算で近似したMax−log−MAP方式、SOVA(Soft Output Viterbi Algorithm)、などが用いられる。   Specifically, the soft decision decoders 71 and 72 use a MAP (Maximum Aposterior Probability) decoding method, a Max-log-MAP method approximating the MAP method by logarithmic calculation, a SOVA (Soft Output Viterbi Algorithm), or the like. It is done.

ターボ復号器70は、第一の軟判定復号部71が出力した外部値Le(n)をインタリーバ73により並び替え、第二の軟判定復号部72に入力する。さらに、第二の軟判定復号部72が出力した外部値Le’(n)をデインタリーバ74により並び替え、第一の軟判定復号部71に入力する。以上をひとつの処理単位(1サイクル)とし、これを複数回繰り返す。以下では、この繰り返し処理は、「反復復号処理」と呼ばれることがある。また、1サイクルに含まれる2ステップの軟判定復号処理(ここでは、第一の軟判定復号部71及び第二の軟判定復号部72による軟判定復号処理)は、それぞれ「第1ステップ復号処理」及び「第2ステップ復号処理」と呼ばれることがある。   The turbo decoder 70 rearranges the external value Le (n) output from the first soft decision decoding unit 71 by the interleaver 73 and inputs it to the second soft decision decoding unit 72. Further, the external value Le ′ (n) output from the second soft decision decoding unit 72 is rearranged by the deinterleaver 74 and input to the first soft decision decoding unit 71. The above is one processing unit (one cycle), and this is repeated a plurality of times. Hereinafter, this iterative process may be referred to as “iterative decoding process”. In addition, the two-step soft decision decoding process included in one cycle (here, the soft decision decoding process by the first soft decision decoding unit 71 and the second soft decision decoding unit 72) is “first step decoding process”. And “second step decoding process”.

十分な繰り返しを行った後、出力端子78から復号結果を得る。繰り返し回数が多いほど復号結果の誤り率は低下するが、通常8回(8サイクル)程度の繰り返しで十分な効果が得られる。   After sufficient repetition, the decoding result is obtained from the output terminal 78. As the number of repetitions increases, the error rate of the decoding result decreases, but a sufficient effect can be obtained with repetitions of about 8 times (8 cycles).

このようなターボ復号器は、特許文献1に記載されている。   Such a turbo decoder is described in Patent Document 1.

図13を用いてターボ復号器70の動作をさらに詳しく説明する。   The operation of the turbo decoder 70 will be described in more detail with reference to FIG.

データ81aは、反復1回目における第一の軟判定復号部71への入力データである。データ81aには、テイルを含むシステマチック、すなわち受信尤度Lx(0)〜Lx(K+2)、及びテイルを含むパリティ1、すなわち受信尤度Ly(0)〜Ly(K+2)が含まれる。つまり、1サイクル目の第1ステップ復号処理では、送信側のターボ符号器40aの第1の符号器である畳み込み符号器50aの出力に対応する符号語本体部分及びテイル部分が入力される。   Data 81a is input data to the first soft decision decoding unit 71 in the first iteration. The data 81a includes systematic including a tail, that is, reception likelihoods Lx (0) to Lx (K + 2), and parity 1 including a tail, that is, reception likelihoods Ly (0) to Ly (K + 2). That is, in the first step decoding process of the first cycle, the codeword main body part and the tail part corresponding to the output of the convolutional encoder 50a that is the first encoder of the turbo encoder 40a on the transmission side are input.

第一の軟判定復号器71は、データ81aを入力として軟判定復号を行い、外部値Le(0)〜Le(K+2)を出力する。このうち、テイルに対応する部分を除くLe(0)〜Le(K−1)をインタリーバによりインタリーブし、第二の軟判定復号部72に受け渡す。一方で、テイルに対応する外部値Le(K)〜Le(K+2)は、破棄される。   The first soft decision decoder 71 performs soft decision decoding with the data 81a as an input, and outputs external values Le (0) to Le (K + 2). Among these, Le (0) to Le (K−1) excluding the portion corresponding to the tail are interleaved by the interleaver and transferred to the second soft decision decoding unit 72. On the other hand, the external values Le (K) to Le (K + 2) corresponding to the tail are discarded.

データ81aは、テイル部分を含むので、本体部分を精度良く復号することができる。もしテイル部分がない場合には、特に本体部分の後半において大きく精度が劣化する。   Since the data 81a includes a tail portion, the main body portion can be decoded with high accuracy. If there is no tail portion, the accuracy is greatly deteriorated particularly in the latter half of the main body portion.

次に、データ82aは、反復1回目における第二の軟判定復号部72への入力データである。データ82aには、インタリーブされたシステマチック(Lx(0)〜Lx(K+2))、システマチックに相当するテイルLx’(K)〜Lx’(K+2)、及びテイルを含むパリティ2、すなわち受信尤度Ly’(0)〜Ly’(K+2)が含まれる。つまり、1サイクル目の第2ステップ復号処理では、送信側のターボ符号器40aの第2の符号器である畳み込み符号器60aの出力であるパリティの符号語本体部分及びテイル部分と、システマチックのテイル部分とが、入力データに含まれている。   Next, the data 82a is input data to the second soft decision decoding unit 72 in the first iteration. The data 82a includes interleaved systematic (Lx (0) to Lx (K + 2)), tail Lx ′ (K) to Lx ′ (K + 2) corresponding to the systematic, and parity 2 including the tail, that is, reception likelihood. Degrees Ly ′ (0) to Ly ′ (K + 2). That is, in the second step decoding process of the first cycle, the parity codeword main body part and tail part which are the outputs of the convolutional encoder 60a which is the second encoder of the turbo encoder 40a on the transmission side, and the systematic The tail portion is included in the input data.

第二の軟判定復号器72は、データ82aを入力として軟判定復号を行い、外部値Le’(0)〜Le’(K+2)を出力する。この出力のうち、テイルに対応する部分を除くLe’(0)〜Le’(K−1)がデインタリーバでデインタリーブされ、第一の軟判定復号部71に受け渡される。一方で、テイルに対応する外部値Le’(K)〜Le’(K+2)は、破棄される。   The second soft decision decoder 72 performs soft decision decoding with the data 82a as input, and outputs external values Le '(0) to Le' (K + 2). Of this output, Le ′ (0) to Le ′ (K−1) excluding the portion corresponding to the tail is deinterleaved by the deinterleaver and transferred to the first soft decision decoding unit 71. On the other hand, the external values Le ′ (K) to Le ′ (K + 2) corresponding to the tail are discarded.

以下、第一の軟判定復号器71はデータ81bを入力として軟判定を行い、続いて第二の軟判定復号器72はデータ82bを入力として行う。同様にして、必要な反復回数に達するまで反復復号が行われる。なお、外部値を除いては、サイクルが異なっても「第1ステップ復号処理」の入力信号は同じであり、同様に、「第2ステップ復号処理」の入力信号も同様である。   Hereinafter, the first soft decision decoder 71 performs soft decision with the data 81b as an input, and then the second soft decision decoder 72 performs with the data 82b as an input. Similarly, iterative decoding is performed until the required number of iterations is reached. Except for the external value, the input signal of the “first step decoding process” is the same regardless of the cycle, and similarly, the input signal of the “second step decoding process” is also the same.

(並列ターボ復号)
ところで、ターボ復号の処理時間を短縮する方法として、並列ターボ復号方式が知られている。特許文献2には、軟判定復号とインタリーバをそれぞれ並列化することによってターボ復号を高速に行う方法が開示されている。
(Parallel turbo decoding)
Incidentally, a parallel turbo decoding method is known as a method for shortening the processing time of turbo decoding. Patent Document 2 discloses a method of performing turbo decoding at high speed by parallelizing soft decision decoding and an interleaver.

図14に、並列ターボ復号器の一例を示す。並列ターボ復号器90は、複数の軟判定復号器を持つ。図14に記載した例では、4つの軟判定復号器92a〜92dを持つものとした。   FIG. 14 shows an example of a parallel turbo decoder. The parallel turbo decoder 90 has a plurality of soft decision decoders. In the example described in FIG. 14, it is assumed that four soft decision decoders 92a to 92d are provided.

並列ターボ復号器のインタリーバは、並列インタリーバである必要がある。図14に記載の並列インタリーバ93は、軟判定復号器92a〜92dが出力する4つの外部値を同時に受け取り、インタリーブ又はデインタリーブを施して軟判定復号器92a〜92dに同時に出力する。なお、軟判定復号器92a〜92dにおける2回の処理が、上述の1サイクルに相当する。   The interleaver of the parallel turbo decoder needs to be a parallel interleaver. The parallel interleaver 93 shown in FIG. 14 simultaneously receives four external values output from the soft decision decoders 92a to 92d, performs interleaving or deinterleaving, and outputs them simultaneously to the soft decision decoders 92a to 92d. The two processes in the soft decision decoders 92a to 92d correspond to the above-described one cycle.

4つの軟判定復号器92a〜92dにおいて並列に復号処理が行われるために、受信尤度メモリ91は、受信尤度を4つに分割し、軟判定復号器92a〜92dに適切に分配する必要がある。ここで、2つの分割方法を、図15を用いて説明する。ここでは、例として、情報ビット長K=512、テイル長L=3とした。   Since the decoding processing is performed in parallel in the four soft decision decoders 92a to 92d, the reception likelihood memory 91 needs to divide the reception likelihood into four and appropriately distribute it to the soft decision decoders 92a to 92d. There is. Here, two division methods will be described with reference to FIG. Here, as an example, the information bit length K = 512 and the tail length L = 3.

(分割方法1)
分割方法1は、分割サイズをなるべく均等に近くする方法である。
(Division method 1)
The division method 1 is a method for making the division sizes as close to each other as possible.

この方法を用いると、分割サイズは129ビット、129ビット、129ビット、128ビットとなる。並列ターボ復号器の処理遅延は、最も大きな分割サイズが割り当てられた軟判定復号器の処理遅延に応じて決まるので、分割方法1を用いると、従来の並列ターボ復号器を用いて最も処理遅延を短くすることができる。   When this method is used, the division size is 129 bits, 129 bits, 129 bits, and 128 bits. Since the processing delay of the parallel turbo decoder is determined according to the processing delay of the soft decision decoder to which the largest division size is assigned, when the division method 1 is used, the processing delay is maximized using the conventional parallel turbo decoder. Can be shortened.

(分割方法2)
分割方法2は、テイルを除いた部分、すなわち符号語の本体部分を均等に分割し、テイル部分は最後のブロックに付ける方法である。
(Division method 2)
The division method 2 is a method in which the part excluding the tail, that is, the main part of the codeword is divided equally, and the tail part is attached to the last block.

この方法を用いると、分割サイズは128ビット、128ビット、128ビット、131ビットとなる。この方法は、符号語の本体部分の分割サイズが均等であるため、後述の通り並列インタリーバに適合しやすいという利点があるが、分割方法1より処理遅延は大きくなる。   When this method is used, the division size is 128 bits, 128 bits, 128 bits, and 131 bits. This method has an advantage that it is easily adapted to a parallel interleaver as will be described later since the division size of the main part of the codeword is uniform, but the processing delay is larger than that of the division method 1.

(新しい並列インタリーバ)
ところで、特許文献2に開示されているインタリーブ方法は、並列化が可能であるが誤り率特性が十分に高くないという問題がある。そこで、ARP(Almost Regular Permutation)やQPP(Quadratic Permutation Polynomial)インタリーバという新しい方式が注目されている。
(New parallel interleaver)
Incidentally, the interleaving method disclosed in Patent Document 2 can be parallelized, but has a problem that the error rate characteristic is not sufficiently high. Therefore, new methods such as ARP (Almost Regular Permutation) and QPP (Quadratic Permutation Polynomial) interleavers are attracting attention.

ARP、QPPは次の性質を持つ(非特許文献2、非特許文献3を参照)。
(1)並列インタリーブを行うためには、分割サイズはインタリーバサイズ(情報ビット長)の約数である必要があることが望ましい。
(2)分割サイズがインタリーバサイズの約数でない場合には、外部値メモリに大きなバンド幅が必要となり、回路規模が増大する。
(3)ARPはさらに、分割サイズは固有の定数Cの倍数である必要がある。Cは8や16などの値が用いられる。
ARP and QPP have the following properties (see Non-Patent Document 2 and Non-Patent Document 3).
(1) In order to perform parallel interleaving, it is desirable that the division size should be a divisor of the interleaver size (information bit length).
(2) When the division size is not a divisor of the interleaver size, a large bandwidth is required for the external value memory, and the circuit scale increases.
(3) Further, in the ARP, the division size needs to be a multiple of a specific constant C. A value such as 8 or 16 is used for C.

次世代の移動通信方式(非特許文献4を参照)においてはQPPが採用されているが、上述のような性質を考慮し、情報ビットサイズは8の倍数であると定められている。これにより、1,2,4,8並列のインタリーバの実現が容易となっている。   QPP is adopted in the next-generation mobile communication system (see Non-Patent Document 4), but the information bit size is determined to be a multiple of 8 in consideration of the above-described properties. This facilitates the realization of 1, 2, 4, and 8 parallel interleavers.

以上の性質から、ARP,QPPなどの新しい並列インタリーバを用いる場合には分割方法2を適用することが望ましい。
3GPP TS 25.212 v6.3.0 Broadcom, R1-070172, “Formulaic Collision-free Memory Accessing for Parallel Turbo decoding with ARP interleave”, 3GPP TSG RAN WG1Meeting #47bits, Sorrento, Italy, Jan.15-19, 2007 Ericsson, R1-070463, “Contention-Free Interleavers vs. Contention-Avoidance Decoding Solutions”, 3GPP TSG RAN WG1Meeting #47bits, Sorrento, Italy, Jan.15-19, 2007 3GPP TS 36.212 v8.0.0 特開2002−271209号公報 米国特許第6,775,800号明細書
From the above properties, it is desirable to apply the division method 2 when using a new parallel interleaver such as ARP or QPP.
3GPP TS 25.212 v6.3.0 Broadcom, R1-070172, “Formulaic Collision-free Memory Accessing for Parallel Turbo decoding with ARP interleave”, 3GPP TSG RAN WG1 Meeting # 47bits, Sorrento, Italy, Jan. 15-19, 2007 Ericsson, R1-070463, “Contention-Free Interleavers vs. Contention-Avoidance Decoding Solutions”, 3GPP TSG RAN WG1Meeting # 47bits, Sorrento, Italy, Jan.15-19, 2007 3GPP TS 36.212 v8.0.0 JP 2002-271209 A US Pat. No. 6,775,800

しかしながら、このような従来のターボ復号器にあっては、以下のような課題がある。   However, such a conventional turbo decoder has the following problems.

(1)従来のターボ復号器においては、テイルビットに対応する外部値が使われないにも関わらず、軟判定復号器においてテイルビットの処理が行われており、演算量の増加、軟判定復号の処理遅延時間の増加を招く。   (1) In the conventional turbo decoder, although the external value corresponding to the tail bit is not used, the tail bit processing is performed in the soft decision decoder. This increases the processing delay time.

(2)テイルビットがない場合、ターボ符号の性能は大きく劣化し、ターボ復号により十分な誤り率特性を得ることができない。   (2) When there is no tail bit, the performance of the turbo code is greatly degraded, and sufficient error rate characteristics cannot be obtained by turbo decoding.

(3)従来の並列ターボ復号器は、テイルビットを含めて受信尤度の分割を行わなければならない。軟判定復号の処理遅延を短くすることを重視し、上記の分割方法1を採る場合には、ARPやQPPなどの性能の良い新しい並列インタリーバの適用が困難となる。   (3) The conventional parallel turbo decoder has to divide the reception likelihood including tail bits. When emphasizing shortening the processing delay of soft decision decoding and adopting the above-described division method 1, it is difficult to apply a new parallel interleaver having good performance such as ARP and QPP.

(4)ARPやQPPなどの新しい並列インタリーバを採用するために、上記の分割方法2を採る場合には、分割サイズが均等でなくなり、並列ターボ復号器の処理遅延時間が増加するという問題がある。   (4) When adopting the above-described division method 2 in order to adopt a new parallel interleaver such as ARP or QPP, there is a problem that the division size is not uniform and the processing delay time of the parallel turbo decoder increases. .

本発明は、かかる点に鑑みてなされたものであり、テイルビットを含むターボ符号に対する復号の要する演算量を小さくして、処理遅延を小さくすることができる反復復号装置および反復復号方法を提供することを目的とする。   The present invention has been made in view of this point, and provides an iterative decoding apparatus and iterative decoding method that can reduce the amount of computation required for decoding a turbo code including tail bits and reduce processing delay. For the purpose.

本発明はまた、テイルビットを含むターボ符号に対する並列ターボ復号の適用を容易にして、処理遅延及び回路規模を増加させることなく並列インタリーバとの整合を可能とし、高い復号性能を得つつも処理遅延及び回路規模を小さくすることができる反復復号装置および反復復号方法を提供することを目的とする。   The present invention also facilitates the application of parallel turbo decoding to turbo codes including tail bits, enables matching with a parallel interleaver without increasing processing delay and circuit scale, and processing delay while obtaining high decoding performance. An object of the present invention is to provide an iterative decoding apparatus and an iterative decoding method capable of reducing the circuit scale.

本発明の反復復号装置は、トレリス終端を付加するターボ符号化されたデジタルデータを復号する反復復号装置であって、前記デジタルデータに含まれるトレリス終端に関わる第1のデジタルデータを選択する第1のセレクタと、前記デジタルデータに含まれる前記第1のデジタルデータを除く第2のデジタルデータを選択する第2のセレクタと、第1のセレクタが選択した前記第1のデジタルデータに基づきメトリック値を算出するメトリック値算出手段と、メトリック値算出手段が算出したメトリック値を格納するメモリと、前記第2のデジタルデータと、前記メトリック値とを用いて反復復号処理を行う復号手段と、を具備する構成を採る。   An iterative decoding apparatus according to the present invention is an iterative decoding apparatus that decodes turbo-coded digital data to which a trellis end is added, wherein the first digital data related to the trellis end included in the digital data is selected. A metric value based on the first digital data selected by the first selector, a second selector that selects second digital data excluding the first digital data included in the digital data, Metric value calculation means for calculating; memory for storing the metric value calculated by the metric value calculation means; decoding means for performing iterative decoding processing using the second digital data and the metric value. Take the configuration.

本発明の反復復号方法は、トレリス終端を付加するターボ符号化されたデジタルデータを復号ステップの繰り返しにより復号する反復復号方法であって、前記デジタルデータに含まれるトレリス終端に関わる第1のデジタルデータに基づきメトリック値を算出するメトリック値算出ステップと、前記メトリック値を各復号ステップの初期値として、前記デジタルデータに含まれるトレリス終端に関わる第1のデジタルデータを除く第2のデジタルデータを復号する反復復号処理ステップと、を具備する。   The iterative decoding method of the present invention is an iterative decoding method for decoding turbo-coded digital data to which a trellis end is added by repeating a decoding step, wherein the first digital data relating to the trellis end included in the digital data A metric value calculating step for calculating a metric value based on the metric value, and decoding the second digital data excluding the first digital data related to the trellis end included in the digital data, with the metric value as an initial value of each decoding step And an iterative decoding process step.

本発明によれば、テイルビットを含むターボ符号に対する復号の要する演算量を小さくして、処理遅延を小さくすることができる反復復号装置および反復復号方法を提供することができる。   According to the present invention, it is possible to provide an iterative decoding apparatus and an iterative decoding method capable of reducing the amount of computation required for decoding a turbo code including tail bits and reducing the processing delay.

以下、本発明の実施の形態について、図面を参照して詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

(実施の形態1)
図1は、本発明の実施の形態1に係るターボ復号器の全体構成を示すブロック図である。同図に示されるターボ復号器は、背景技術で説明された基本原理に準じている。以下では、上述のターボ復号器70で符号化されて送信された符号語をターボ復号する場合を例にとり説明する。
(Embodiment 1)
FIG. 1 is a block diagram showing the overall configuration of the turbo decoder according to Embodiment 1 of the present invention. The turbo decoder shown in the figure conforms to the basic principle described in the background art. Hereinafter, a case where the codeword encoded by the turbo decoder 70 and transmitted is turbo-decoded will be described as an example.

図1において、ターボ復号器100は、軟判定復号部111、112、インタリーバ121、123、デインタリーバ122、受信尤度メモリ130、テイルパスメトリックメモリ141、142、テイル処理部151、152、出力端子160を備えて構成される。なお、図1には図示されていないが、ターボ復号器100は、図中の信号線の分岐点の位置に、受信尤度メモリ130から出力されるデータ列に含まれる複数の部分データ列を適切な機能部に選択的に振り分けるセレクタを有している。   In FIG. 1, a turbo decoder 100 includes soft decision decoding units 111 and 112, interleavers 121 and 123, deinterleaver 122, reception likelihood memory 130, tail path metric memories 141 and 142, tail processing units 151 and 152, and output terminals. 160 is comprised. Although not shown in FIG. 1, the turbo decoder 100 adds a plurality of partial data sequences included in the data sequence output from the reception likelihood memory 130 to the position of the branch point of the signal line in the drawing. It has a selector that selectively distributes it to an appropriate function part.

テイル処理部151には、受信尤度メモリ130の出力である、送信側の第一の畳み込み符号器50bに関係する受信尤度(Lx(n)、Ly(n))のうち、セレクタで選択されたテイル部分のデータ(Lx(K)〜Lx(K+2)及びLy(K)〜Ly(K+2)、すなわち図1におけるテイル1及びテイル2)が入力される。テイル処理部151は、このテイル部分のデータを用いて、パスメトリックβ(K−1)を生成する。なお、テイル処理部151の実装方法については、図4により後述する。   The tail processing unit 151 selects a reception likelihood (Lx (n), Ly (n)) related to the first convolutional encoder 50b on the transmission side, which is an output of the reception likelihood memory 130, with a selector. The tail data (Lx (K) to Lx (K + 2) and Ly (K) to Ly (K + 2), that is, tail 1 and tail 2 in FIG. 1) are input. The tail processing unit 151 generates a path metric β (K−1) using the data of the tail part. A method for mounting the tail processing unit 151 will be described later with reference to FIG.

テイルパスメトリックメモリ141は、テイル処理部151が生成したパスメトリックを保持する。   The tail path metric memory 141 holds the path metric generated by the tail processing unit 151.

第一の軟判定復号部111には、受信尤度メモリ130に保持されているデータのうちテイルを除くシステマチック(Lx(0)〜Lx(K−1))及びパリティ1(Ly(0)〜Ly(K−1))がセレクタにより選択的に入力される。また、そのセレクタで除かれたテイル部分の代わりに、テイルパスメトリックメモリ141に保持されているパスメトリックが第一の軟判定復号部111に入力される。   The first soft decision decoding unit 111 includes systematic (Lx (0) to Lx (K−1)) and parity 1 (Ly (0)) excluding the tail among the data held in the reception likelihood memory 130. ˜Ly (K−1)) are selectively input by the selector. In addition, the path metric stored in the tail path metric memory 141 is input to the first soft decision decoding unit 111 instead of the tail part removed by the selector.

テイル処理部152には、受信尤度メモリ130の出力である、送信側の第二の畳み込み符号器60bに関係する受信尤度(Lx’(n)、Ly’(n))のうち、セレクタで選択されたテイル部分のデータ(Lx’(K)〜Lx’(K+2)及びLy’(K)〜Ly’(K+2)、すなわち図1におけるテイル3及びテイル4)が入力される。テイル処理部152は、このテイル部分のデータを用いて、パスメトリックβ’(K−1)を生成する。なお、テイル処理部152の実装方法は、テイル処理部151と同様である。   The tail processing unit 152 includes a selector among the reception likelihoods (Lx ′ (n), Ly ′ (n)) related to the second convolutional encoder 60b on the transmission side, which is an output of the reception likelihood memory 130. The tail part data (Lx ′ (K) to Lx ′ (K + 2) and Ly ′ (K) to Ly ′ (K + 2), that is, the tail 3 and the tail 4 in FIG. 1) selected in (1) are input. The tail processing unit 152 generates a path metric β ′ (K−1) using the data of the tail part. The mounting method of the tail processing unit 152 is the same as that of the tail processing unit 151.

テイルパスメトリックメモリ142は、テイル処理部152が生成したパスメトリックを保持する。   The tail path metric memory 142 holds the path metric generated by the tail processing unit 152.

第二の軟判定復号部112には、受信尤度メモリ130に保持されているデータのうちセレクタにより選択された、テイルを除くパリティ2(Ly’(0)〜Ly’(K−1))、および、インタリーバ123でインタリーブされたシステマチックが入力される。また、そのセレクタで除かれたテイル部分の代わりに、テイルパスメトリックメモリ142に保持されているパスメトリックが第二の軟判定復号部112に入力される。   The second soft decision decoding unit 112 uses the parity 2 (Ly ′ (0) to Ly ′ (K−1)) excluding the tail selected by the selector from the data held in the reception likelihood memory 130. , And the systematic interleaved by the interleaver 123 is input. In addition, the path metric stored in the tail path metric memory 142 is input to the second soft decision decoding unit 112 instead of the tail part removed by the selector.

次に、図2を用いてターボ復号器100の動作を詳しく説明する。なお、図2には、基本的に、各復号ステップと、各復号ステップにて用いられるデータとの関係が示されている。   Next, the operation of the turbo decoder 100 will be described in detail with reference to FIG. FIG. 2 basically shows the relationship between each decoding step and data used in each decoding step.

まず、ターボ復号器100は、軟判定復号部111、112により反復復号を行うに先立って、テイル処理部151、152により2つのパスメトリック値を計算し、テイルパスメトリックメモリ141、142に保存しておく。以下で説明するように、反復復号においては、テイル部の復号を行わず、その代わりにあらかじめ計算しておいたパスメトリック値を用いることで復号精度を向上させる。   First, before performing iterative decoding by the soft decision decoding units 111 and 112, the turbo decoder 100 calculates two path metric values by the tail processing units 151 and 152, and stores them in the tail path metric memories 141 and 142. Keep it. As will be described below, in the iterative decoding, the decoding of the tail part is not performed, and instead the path metric value calculated in advance is used to improve the decoding accuracy.

データ201は、テイル処理部151へ入力するデータである。データ201には、送信側の第一の畳み込み符号器50bに関係するテイル部分のデータ、すなわち、テイル1の尤度(Lx(K)〜Lx(K+2))及びテイル2の尤度(Ly(K)〜Ly(K+2))が含まれる。このテイル部分のデータを用いてテイル処理部151で算出されたパスメトリック203は、テイルパスメトリックメモリ141に保存され、反復復号を実行されている間、保持される。   Data 201 is data to be input to the tail processing unit 151. The data 201 includes tail part data related to the first convolutional encoder 50b on the transmission side, that is, the likelihood of the tail 1 (Lx (K) to Lx (K + 2)) and the likelihood of the tail 2 (Ly ( K) to Ly (K + 2)). The path metric 203 calculated by the tail processing unit 151 using the tail part data is stored in the tail path metric memory 141 and held while iterative decoding is performed.

データ202は、テイル処理部152へ入力するデータである。データ201には、送信側の第二の畳み込み符号器60bに関係するテイル部分のデータ、すなわち、テイル3の尤度(Lx’(K)〜Lx’(K+2))及びテイル4の尤度(Ly’(K)〜Ly’(K+2))が含まれる。このテイル部分のデータを用いてテイル処理部152で算出されたパスメトリック204は、テイルパスメトリックメモリ142に保存され、反復復号を実行されている間、保持される。   Data 202 is data to be input to the tail processing unit 152. The data 201 includes tail part data related to the second convolutional encoder 60b on the transmission side, that is, the likelihood of tail 3 (Lx ′ (K) to Lx ′ (K + 2)) and the likelihood of tail 4 ( Ly ′ (K) to Ly ′ (K + 2)). The path metric 204 calculated by the tail processing unit 152 using the tail part data is stored in the tail path metric memory 142 and held while iterative decoding is being executed.

データ205aは、反復1回目における第一の軟判定復号部111への入力データである。データ205aには、テイルを含まないシステマチック(受信尤度Lx(0)〜Lx(K−1))及びテイルを含まないパリティ1(受信尤度Ly(0)〜Ly(K−1))が含まれる。すなわち、データ205aには、送信側の第一の畳み込み符号器50bに関係する符号語本体部分に相当するデータが含まれている。   Data 205a is input data to the first soft decision decoding unit 111 in the first iteration. Data 205a includes systematic (reception likelihood Lx (0) to Lx (K-1)) not including a tail and parity 1 (reception likelihood Ly (0) to Ly (K-1)) not including a tail. Is included. That is, the data 205a includes data corresponding to the codeword main body part related to the first convolutional encoder 50b on the transmission side.

反復1回目における第一の軟判定復号部111における復号処理では、データ205aと、データ203とが入力として使われる。すなわち、1サイクル目の第1ステップ復号処理では、パスメトリック203を用いて、符号語本体部分のみに相当するデータに関する軟判定復号処理が行われる。その結果、外部値Le(0)〜Le(K−1)が生成され、インタリーバ121を介して、第二の軟判定復号部112に受け渡される。   In the decoding process in the first soft decision decoding unit 111 in the first iteration, the data 205a and the data 203 are used as inputs. That is, in the first step decoding process in the first cycle, the soft metric decoding process is performed on data corresponding to only the codeword main body using the path metric 203. As a result, external values Le (0) to Le (K−1) are generated and transferred to the second soft decision decoding unit 112 via the interleaver 121.

データ206aは、反復1回目における第二の軟判定復号部112への入力データである。データ206aには、インタリーブされたシステマチック(受信尤度Lx(0)〜Lx(K−1)をインタリーブしたもの)及びテイルを含まないパリティ2(受信尤度Ly’(0)〜Ly’(K+2))が含まれる。すなわち、データ206aにも、テイル部分は含まれておらず、符号語本体に相当するデータのみが含まれている。   Data 206a is input data to the second soft decision decoding unit 112 in the first iteration. The data 206a includes interleaved systematic (interleaved reception likelihoods Lx (0) to Lx (K-1)) and parity 2 (reception likelihood Ly ′ (0) to Ly ′ (not including tail) ( K + 2)). That is, the data 206a does not include a tail portion, and includes only data corresponding to the code word body.

反復1回目における第二の軟判定復号部112における復号処理では、データ206aと、データ204とが入力として使われる。すなわち、1サイクル目の第2ステップ復号処理でも、パスメトリック204を用いて、符号語本体部分のみに相当するデータに関する軟判定復号処理が行われる。その結果、外部値Le’(0)〜Le’(K−1)が生成され、デインタリーバ122を介して、第一の軟判定復号部111に受け渡される。   In the decoding process in the second soft decision decoding unit 112 in the first iteration, the data 206a and the data 204 are used as inputs. That is, also in the second step decoding process in the first cycle, the soft metric decoding process is performed on the data corresponding to only the codeword main body part using the path metric 204. As a result, external values Le ′ (0) to Le ′ (K−1) are generated and transferred to the first soft decision decoding unit 111 via the deinterleaver 122.

以降、第一の軟判定復号部111はデータ205b及び203を入力として軟判定復号を行い、続いて第二の軟判定復号部112はデータ206b及び204を入力として行う。同様にして、必要な反復回数に達するまで反復復号が行われる。   Thereafter, the first soft decision decoding unit 111 performs soft decision decoding with the data 205b and 203 as inputs, and then the second soft decision decoding unit 112 performs data 206b and 204 as inputs. Similarly, iterative decoding is performed until the required number of iterations is reached.

以上のようにターボ復号器100では、予め計算しておいたテイル部分のパスメトリック値を用いて、符号語本体部分のみの軟判定復号が繰り返し行われる。   As described above, in turbo decoder 100, soft decision decoding of only the codeword main body portion is repeatedly performed using the path metric value of the tail portion calculated in advance.

ここで注目すべきは、ターボ復号器100においては、反復ごとにテイル部分の処理を行わなくて良いため、全体として演算量を削減することができ、結果として反復復号に要する処理遅延を削減することができることである。   It should be noted here that the turbo decoder 100 does not have to perform tail processing for each iteration, so that the amount of computation can be reduced as a whole, resulting in a reduction in processing delay required for iterative decoding. Be able to.

図3は、テイル処理部151及び152の動作について説明するためのトレリス線図である。301、302a〜302b、303a〜303d、304a〜304hなどのノード(点)は、ある特定の時刻における畳み込み符号器のステートを表す。例えば、ノード304aは、時刻K−1において畳み込み符号器のステートが000であることを示す。また、310、311、312などのブランチ(枝)は、畳み込み符号器における2つのステート間での遷移を表す。   FIG. 3 is a trellis diagram for explaining the operation of the tail processing units 151 and 152. Nodes (points) such as 301, 302a to 302b, 303a to 303d, and 304a to 304h represent states of the convolutional encoder at a specific time. For example, node 304a indicates that the state of the convolutional encoder is 000 at time K-1. Branches such as 310, 311 and 312 represent transitions between two states in the convolutional encoder.

MAP復号、Max−log−MAP復号、SOVAなどの軟判定復号法は、トレリス線図上の全てのノードのメトリック値を計算することにより行われる。メトリックは、ブランチに沿って計算されるが、図3の矢印方向(左から右方向)に計算されるメトリックを順方向(Forward)メトリック、その逆に計算されるメトリックを逆方向(Backward)メトリックと呼ぶ。ノードごとに計算されるメトリック値は、ブランチを辿る経路(パス)に応じて計算されるものであるから、しばしばパスメトリックと呼ばれる。   Soft decision decoding methods such as MAP decoding, Max-log-MAP decoding, and SOVA are performed by calculating metric values of all nodes on the trellis diagram. Metrics are calculated along the branch. Metrics calculated in the arrow direction (from left to right) in FIG. 3 are forward metrics, and metrics calculated in the opposite direction are backward metrics. Call it. The metric value calculated for each node is often called a path metric because it is calculated according to the path (path) that follows the branch.

また、パスメトリックを計算するため、ブランチごとにもメトリックが計算される。これをブランチメトリックと呼ぶ。   Further, since the path metric is calculated, the metric is also calculated for each branch. This is called a branch metric.

テイル処理部151、152が計算し、テイルパスメトリックメモリ141、142が保持するパスメトリックは、ノード304a〜304hの逆方向メトリックである。   The path metrics calculated by the tail processing units 151 and 152 and held in the tail path metric memories 141 and 142 are backward metrics of the nodes 304a to 304h.

テイル処理部151におけるパスメトリックの計算方法を次に説明する。   A path metric calculation method in the tail processing unit 151 will be described next.

パスメトリックの計算は、ノード301を起点としてブランチを矢印と逆方向に辿ることで計算される。ブランチ310のブランチメトリックをγ00(K+1)、ノード302aの逆方向パスメトリックをβ0(K+1)とすると、β0(K+1)は次式にて算出される。

Figure 2009105772
すなわち、Trellis termination部分(上述のテイル部分に相当)では、ブランチの合流がないため、遷移元の逆方向パスメトリックは、ブランチメトリックと遷移先の逆方向パスメトリックとの和により求められる。 The path metric is calculated by tracing the branch in the direction opposite to the arrow starting from the node 301. When the branch metric of the branch 310 is γ00 (K + 1) and the reverse path metric of the node 302a is β0 (K + 1), β0 (K + 1) is calculated by the following equation.
Figure 2009105772
That is, in the Trellis termination portion (corresponding to the tail portion described above), there is no branch merging, so that the reverse path metric of the transition source is obtained by the sum of the branch metric and the reverse path metric of the transition destination.

ブランチメトリックは、遷移するステートに応じて4つの種類があり、次の式で計算される。

Figure 2009105772
There are four types of branch metrics depending on the transition state, and is calculated by the following equation.
Figure 2009105772

以上のように、ノード302a〜302b、303a〜303d、304a〜304hのパスメトリックを順次求めていくことにより、テイルパスメトリックメモリ141に保存すべきパスメトリックβ(K−1)={β0(K−1),β1(K−1),β2(K−1),β3(K−1),β4(K−1),β5(K−1),β6(K−1),β7(K−1)}が求まる。

Figure 2009105772
As described above, by sequentially obtaining the path metrics of the nodes 302a to 302b, 303a to 303d, and 304a to 304h, the path metric β (K−1) = {β0 (K -1), β1 (K-1), β2 (K-1), β3 (K-1), β4 (K-1), β5 (K-1), β6 (K-1), β7 (K- 1)} is obtained.
Figure 2009105772

以上説明したように本実施の形態のターボ復号器100においては、テイル処理部151、152が、反復復号処理の前処理として、テイル部分の受信尤度からそのパスメトリック値βを予め算出し、反復復号処理では、パスメトリック値βを用いて、本体部分についてのみ反復復号が行われる。   As described above, in the turbo decoder 100 of the present embodiment, the tail processing units 151 and 152 calculate the path metric value β from the reception likelihood of the tail part in advance as preprocessing of the iterative decoding process, In the iterative decoding process, iterative decoding is performed only for the main body using the path metric value β.

これに対して、上述のように従来のターボ復号器における反復復号処理では、本体部分のみならず、テイル部分についても軟判定復号処理が行われる(図13参照)。さらに、各復号ステップで用いられるテイル部分に係る外部値は、常に「0」である。換言すれば、前段の復号ステップで求められるテイル部分の外部値は、後段の復号ステップには引き継がれずに破棄されてしまう。   On the other hand, as described above, in the iterative decoding process in the conventional turbo decoder, the soft decision decoding process is performed not only on the main body part but also on the tail part (see FIG. 13). Further, the external value relating to the tail portion used in each decoding step is always “0”. In other words, the external value of the tail portion obtained in the preceding decoding step is discarded without being taken over by the succeeding decoding step.

本発明者は、この点について着眼した。すなわち、テイル部分に係る外部値が軟判定復号処理に利用されないことは、各復号ステップで利用されるブランチメトリックが更新されることなく、常に一定であることを意味することに気がついた。   The inventor has focused on this point. That is, it has been found that the fact that the external value related to the tail part is not used in the soft decision decoding process means that the branch metric used in each decoding step is always updated without being updated.

つまり、従来のターボ復号器における反復復号処理では、各復号ステップで(正確には、1ステップ置きに)、入力情報(テイル部分の受信尤度)も、その入力情報を用いた計算処理も、その計算処理結果も同じ復号処理が、テイル部分について繰り替えされている。図3のトレリス線図を参照して具体的に説明すると、K+2時点のノード301からK−1時点のノード304a〜hまでの逆方向パスメトリックの計算が、繰り返されている。   That is, in the iterative decoding process in the conventional turbo decoder, at each decoding step (exactly every other step), the input information (reception likelihood of the tail portion), the calculation process using the input information, The same decoding process is repeated for the tail part of the calculation process result. More specifically, referring to the trellis diagram of FIG. 3, the calculation of the reverse path metric from the node 301 at the time K + 2 to the nodes 304a to h at the time K-1 is repeated.

従来、このようなテイル部分についての復号処理が各復号ステップで繰り替えされているのは、反復復号処理が進む中で順次外部値が更新されるため、各復号ステップにおいてテイル部分の復号結果が本体部分の復号に影響を及ぼすものと考えられていたからである。   Conventionally, the decoding process for the tail part is repeated at each decoding step because the external value is sequentially updated as the iterative decoding process proceeds, so that the decoding result of the tail part is the main body at each decoding step. This is because it was thought to affect the decoding of the part.

しかしながら、テイル部分の軟判定復号処理に用いられるブランチメトリックが常に一定であることに気づいた本発明者は、テイル部分の復号結果が本体部分の復号に与える影響を予め数値化しておくことができれば、この数値を用いて本体部分のみを反復復号することができることに想到した。このテイル部分の復号結果が本体部分の復号に与える影響を数値化したものが、上述のパスメトリック値βである。   However, the present inventor who realized that the branch metric used for the soft decision decoding process of the tail part is always constant can quantify the influence of the decoding result of the tail part on the decoding of the main body part in advance. Thus, it was conceived that it is possible to iteratively decode only the main body using this numerical value. The above-mentioned path metric value β is obtained by quantifying the influence of the decoding result of the tail part on the decoding of the main body part.

以上のように、本実施の形態によれば、ターボ復号器100では、テイル処理部151、152が、反復復号処理の前処理として、テイル部分の受信尤度からそのパスメトリック値βを予め算出し、反復復号処理部(軟判定復号部111、112、インタリーバ121、122)が、パスメトリック値βを用いて、符号語本体部分についてのみ反復復号を行う。   As described above, according to the present embodiment, in turbo decoder 100, tail processing sections 151 and 152 pre-calculate the path metric value β from the reception likelihood of the tail portion as preprocessing for iterative decoding processing. Then, the iterative decoding processing units (soft decision decoding units 111 and 112, interleavers 121 and 122) perform iterative decoding only on the codeword main body portion using the path metric value β.

こうすることにより、テイルビットを含むターボ符号に対する復号の要する演算量を小さくして、処理遅延を小さくすることができるターボ復号器100を実現することができる。   By doing so, it is possible to realize the turbo decoder 100 that can reduce the amount of calculation required for decoding the turbo code including the tail bits and reduce the processing delay.

(実施の形態2)
図4は、本発明の実施の形態2に係るターボ復号器の全体構成を示すブロック図である。本実施の形態の開示は、機能の共用化を具体的に示すことにより、実際のハードウェアによる実現において採られる構成を示すことを目的とする。特に、図4には、Max−log−MAP方式が適用される場合のターボ復号器の全体構成が示されている。
(Embodiment 2)
FIG. 4 is a block diagram showing an overall configuration of a turbo decoder according to Embodiment 2 of the present invention. The disclosure of the present embodiment aims to show a configuration adopted in real hardware implementation by specifically showing the sharing of functions. In particular, FIG. 4 shows the overall configuration of a turbo decoder when the Max-log-MAP scheme is applied.

図4において、ターボ復号器400は、受信尤度メモリ410、軟判定復号器420、インタリーバ/デインタリーバ430、外部値メモリ440、テイルパスメトリックメモリ450を備えて構成される。   In FIG. 4, a turbo decoder 400 includes a reception likelihood memory 410, a soft decision decoder 420, an interleaver / deinterleaver 430, an external value memory 440, and a tail path metric memory 450.

受信尤度メモリ410は、図1の受信尤度メモリ130と同様の機能を持つ。インタリーバ123を内蔵しても良い。   The reception likelihood memory 410 has the same function as the reception likelihood memory 130 of FIG. An interleaver 123 may be incorporated.

軟判定復号器420は、図1の2つの軟判定復号部111、112及び2つのテイル処理部151、152を共用化したものである。なお、軟判定復号器420の実装については図5を用いて後述する。   The soft decision decoder 420 shares the two soft decision decoding units 111 and 112 and the two tail processing units 151 and 152 in FIG. The implementation of the soft decision decoder 420 will be described later with reference to FIG.

インタリーバ/デインタリーバ430は、軟判定復号器420で算出された外部値を入力とし、インタリーブ又はデインタリーブを施して軟判定復号器420に送出する。すなわち、インタリーバ/デインタリーバ430は、図1のインタリーバ121とデインタリーバ122の機能を含む。なお、軟判定復号器420における2回の処理が、上述の1サイクルに相当する。   Interleaver / deinterleaver 430 receives the external value calculated by soft decision decoder 420, performs interleaving or deinterleaving, and sends the result to soft decision decoder 420. That is, interleaver / deinterleaver 430 includes the functions of interleaver 121 and deinterleaver 122 of FIG. Note that two processes in the soft decision decoder 420 correspond to the above-described one cycle.

テイルパスメトリックメモリ450は、テイル処理により生成された2組のパスメトリック値を保持するメモリであり、図1のテイルパスメトリックメモリ141、142を合わせた機能を持つ。   The tail path metric memory 450 is a memory that holds two sets of path metric values generated by tail processing, and has a function that combines the tail path metric memories 141 and 142 of FIG.

図5は、軟判定復号器420の内部構成を説明するブロック図である。軟判定復号器420は、入力端子421、γ計算部422a,422b、α計算部423、メモリ424a,424b、β計算部425、Λ計算部426、e計算部427、出力端子428を備えて構成される。   FIG. 5 is a block diagram illustrating the internal configuration of soft decision decoder 420. The soft decision decoder 420 includes an input terminal 421, γ calculation units 422a and 422b, an α calculation unit 423, memories 424a and 424b, a β calculation unit 425, an Λ calculation unit 426, an e calculation unit 427, and an output terminal 428. Is done.

γ計算部422bは、反復復号処理に先立って、受信尤度メモリ410からテイル部分の受信尤度を受け取り、テイル部分のブランチメトリックを計算する。また、γ計算部422aは、1サイクル目の第1ステップ復号処理では、入力されるデータ205aから符号語本体部分のブランチメトリックを計算する。また、1サイクル目の第2ステップ復号処理では、データ206aと直前の復号ステップで求められた外部値とから符号語本体部分のブランチメトリックを計算する。以降の軟判定復号処理では、直前の復号ステップで求められた外部値の他に、データ205a、データ206aが交互に用いられて、ブランチメトリックが計算される。   Prior to the iterative decoding process, the γ calculating unit 422b receives the reception likelihood of the tail portion from the reception likelihood memory 410 and calculates the branch metric of the tail portion. In the first step decoding process in the first cycle, the γ calculation unit 422a calculates the branch metric of the codeword main body portion from the input data 205a. In the second step decoding process of the first cycle, the branch metric of the codeword body part is calculated from the data 206a and the external value obtained in the immediately preceding decoding step. In the subsequent soft decision decoding process, in addition to the external value obtained in the immediately preceding decoding step, data 205a and data 206a are alternately used to calculate a branch metric.

γ計算部422aは、テイル処理を行わないこと以外は、γ計算部422bと同じ処理を行う。   The γ calculation unit 422a performs the same process as the γ calculation unit 422b except that the tail process is not performed.

α計算部423は、γ計算部422aで求められたブランチメトリックを用いて、順方向パスメトリックを計算する。   The α calculation unit 423 calculates the forward path metric using the branch metric obtained by the γ calculation unit 422a.

β計算部425は、γ計算部422bで求められたテイル部分のブランチメトリックを用いて、テイル部分のメトリック値を計算する。このテイル部分のメトリック値は、テイルパスメトリックメモリ450に保持される。また、β計算部425は、各復号ステップでγ計算部422bにより求められたブランチメトリックと、テイルパスメトリックメモリ450に保持されているテイル部分のメトリック値とを用いて、逆方向パスメトリックを計算する。   The β calculation unit 425 calculates the metric value of the tail portion using the branch metric of the tail portion obtained by the γ calculation unit 422b. The metric value of the tail portion is held in the tail path metric memory 450. In addition, the β calculation unit 425 calculates a reverse path metric using the branch metric obtained by the γ calculation unit 422b in each decoding step and the metric value of the tail portion held in the tail path metric memory 450. To do.

Λ計算部426は、γ計算部422aで求められたブランチメトリックと、α計算部423で求められた順方向パスメトリックと、β計算部425で求められた逆方向パスメトリックとを用いて、事後値を計算する。e計算部427は、各復号ステップに対応する入力データと、この入力データに応じてΛ計算部426により算出された事後値とを用いて、外部値Leを計算する。この外部値Leは、インタリーバ/デインタリーバ430でインタリーブ又はデインタリーブされた後、軟判定復号器420の入力とされる。   The Λ calculation unit 426 uses the branch metric obtained by the γ calculation unit 422a, the forward path metric obtained by the α calculation unit 423, and the backward path metric obtained by the β calculation unit 425 to perform the posterior Calculate the value. The e calculation unit 427 calculates the external value Le using the input data corresponding to each decoding step and the a posteriori value calculated by the Λ calculation unit 426 according to the input data. The external value Le is interleaved or deinterleaved by the interleaver / deinterleaver 430 and then input to the soft decision decoder 420.

次に、ターボ復号器400の動作を、図6のフローチャートを用いて説明する。   Next, the operation of the turbo decoder 400 will be described using the flowchart of FIG.

ステップST1では、第一のテイル処理を行う。受信尤度メモリ410は、テイルビットLx(K)〜Lx(K+2)及びLy(K)〜Ly(K+2)を選択し、軟判定復号器420に入力する。軟判定復号器420の内部では、入力端子421からテイルビットの情報が入力され、γ計算部422bにてブランチメトリックが計算される。さらに、このブランチメトリックを用いて、β計算部425にてパスメトリックβ(K−1)が計算される。このパスメトリックは、テイルパスメトリックメモリ450に転送され、そこに保存される。   In step ST1, a first tail process is performed. The reception likelihood memory 410 selects tail bits Lx (K) to Lx (K + 2) and Ly (K) to Ly (K + 2), and inputs them to the soft decision decoder 420. In the soft decision decoder 420, tail bit information is input from the input terminal 421, and a branch metric is calculated by the γ calculation unit 422b. Further, a path metric β (K−1) is calculated by the β calculation unit 425 using this branch metric. This path metric is transferred to the tail path metric memory 450 where it is stored.

ステップST2では、第二のテイル処理を行う。受信尤度メモリ410は、テイルビットの受信尤度Lx’(K)〜Lx’(K+2)及びLy’(K)〜Ly’(K+2)を選択し、軟判定復号器420に入力する。軟判定復号器420の内部では、入力端子421からテイルビットの情報が入力され、γ計算部422bにてブランチメトリックが計算される。さらに、このブランチメトリックを用いて、β計算部425にてパスメトリックβ’(K−1)が計算される。このパスメトリックは、テイルパスメトリックメモリ450に転送され、そこに保存される。   In step ST2, a second tail process is performed. The reception likelihood memory 410 selects tail bit reception likelihoods Lx ′ (K) to Lx ′ (K + 2) and Ly ′ (K) to Ly ′ (K + 2), and inputs them to the soft decision decoder 420. In the soft decision decoder 420, tail bit information is input from the input terminal 421, and a branch metric is calculated by the γ calculation unit 422b. Further, the path metric β ′ (K−1) is calculated by the β calculation unit 425 using this branch metric. This path metric is transferred to the tail path metric memory 450 where it is stored.

ステップST3では、第一の軟判定復号を行う。受信尤度メモリ410は、テイルビットを含まない受信尤度Lx(0)〜Lx(K−1)及びLy(0)〜Ly(K−1)を選択し、軟判定復号器420に入力する。軟判定復号器420は、ブランチメトリック、逆方向パスメトリック、順方向パスメトリック、事後値、外部値の計算を順次行う。ここで、逆方向パスメトリックの計算を行うときの初期値として、テイルパスメトリックメモリ450に保存されているパスメトリックβ(K−1)を用いる。   In step ST3, first soft decision decoding is performed. The reception likelihood memory 410 selects reception likelihoods Lx (0) to Lx (K−1) and Ly (0) to Ly (K−1) that do not include tail bits, and inputs them to the soft decision decoder 420. . The soft decision decoder 420 sequentially calculates branch metrics, backward path metrics, forward path metrics, posterior values, and external values. Here, the path metric β (K−1) stored in the tail path metric memory 450 is used as an initial value when the backward path metric is calculated.

ステップST4では、第二の軟判定復号を行う。受信尤度メモリ410は、テイルビットを含まない受信尤度Ly’(0)〜Ly’(K−1)を選択し、軟判定復号器420に入力する。また、受信尤度Lx(0)〜Lx(K−1)をインタリーブして軟判定復号器420に入力する。さらに、直前の復号ステップで求められた外部値が、インタリーバ/デインタリーバ430を介して軟判定復号器420に入力される。軟判定復号器420は、上記入力データを用いて、ブランチメトリック、逆方向パスメトリック、順方向パスメトリック、事後値、外部値の計算を順次行う。ここで、逆方向パスメトリックの計算を行うときの初期値として、テイルパスメトリックメモリ450に保存されているパスメトリックβ’(K−1)を用いる。   In step ST4, second soft decision decoding is performed. The reception likelihood memory 410 selects reception likelihoods Ly ′ (0) to Ly ′ (K−1) that do not include tail bits, and inputs them to the soft decision decoder 420. In addition, reception likelihoods Lx (0) to Lx (K−1) are interleaved and input to soft decision decoder 420. Further, the external value obtained in the immediately preceding decoding step is input to the soft decision decoder 420 via the interleaver / deinterleaver 430. The soft decision decoder 420 sequentially calculates a branch metric, a backward path metric, a forward path metric, a posterior value, and an external value using the input data. Here, the path metric β ′ (K−1) stored in the tail path metric memory 450 is used as an initial value when the backward path metric is calculated.

ステップST5では、反復復号を継続するか否かを判断する。規定の最大反復回数に達した場合、および早期停止基準を満たしたときに反復を停止する。   In step ST5, it is determined whether or not to continue iterative decoding. Stop iterations when the specified maximum number of iterations is reached and when the early stopping criteria are met.

以上のように本実施の形態によれば、反復復号処理前に行われるテイル処理専用のテイル処理部を設けるのではなく、軟判定復号器420が備える逆方向パスメトリクス算出機能部(γ計算部422b、β計算部425)をテイル処理にも用いることにより、2つの処理で機能部を共用することができ、回路規模を小さくすることができる。   As described above, according to the present embodiment, a tail processing unit dedicated to tail processing performed before iterative decoding processing is not provided, but a reverse path metrics calculation function unit (γ calculation unit) included in the soft decision decoder 420 is provided. By using the 422b and β calculation unit 425) for tail processing, the function unit can be shared by the two processes, and the circuit scale can be reduced.

また、実施の形態によれば、反復復号処理においても、2つの軟判定復号器を設けるのではなく、軟判定復号器420単独で「第1ステップ復号処理」及び「第2ステップ復号処理」を行うようにしたので、回路規模を小さくすることができる。   Also, according to the embodiment, in the iterative decoding process, two soft decision decoders are not provided, but the “first step decoding process” and the “second step decoding process” are performed by the soft decision decoder 420 alone. Since this is done, the circuit scale can be reduced.

なお、図5に示した軟判定復号器420において、β計算部425とα計算部423の位置を入れ替えても、入れ替えない場合と同様に反復復号処理が可能である。ただし、入れ替えた場合には、テイル専用の入力端子を追加して、この入力端子をγ計算422aに接続するとよい。これにより、この接続線を介してγ計算422aにテイル部分を入力し、テイル部分のパスメトリック値を求めることができる。   In the soft decision decoder 420 shown in FIG. 5, even if the positions of the β calculation unit 425 and the α calculation unit 423 are switched, iterative decoding processing can be performed in the same manner as in the case where the positions are not switched. However, in the case of replacement, a tail-specific input terminal is added, and this input terminal may be connected to the γ calculation 422a. As a result, the tail portion can be input to the γ calculation 422a via this connection line, and the path metric value of the tail portion can be obtained.

また、図6で説明した軟判定復号器420の処理フローにおけるステップST1とST2の順序を入れ替えても、入れ替えない場合と同様に反復復号処理が可能である。又は、ステップST1とST2は、並列に行われてもよい。また、ステップST1とST2の処理は、ソフトウェアで実現されてもよい。さらに、ステップST1とST2に限られず、図6に示した処理フローのすべてをソフトウェアで実現してもよい。   Further, even if the order of steps ST1 and ST2 in the processing flow of the soft decision decoder 420 described in FIG. 6 is changed, iterative decoding processing is possible as in the case where the order is not changed. Alternatively, steps ST1 and ST2 may be performed in parallel. Further, the processing of steps ST1 and ST2 may be realized by software. Furthermore, the present invention is not limited to steps ST1 and ST2, and all of the processing flow shown in FIG. 6 may be realized by software.

(実施の形態3)
図7は、本発明の実施の形態3に係るターボ復号器の全体構成を示すブロック図である。本実施の形態は、高い復号精度を保ったまま高速処理を実現するに好適な並列ターボ復号器を示すものである。
(Embodiment 3)
FIG. 7 is a block diagram showing an overall configuration of a turbo decoder according to Embodiment 3 of the present invention. This embodiment shows a parallel turbo decoder suitable for realizing high-speed processing while maintaining high decoding accuracy.

並列ターボ復号器500は、受信尤度メモリ501、軟判定復号器502a〜502d、並列インタリーバ503、テイル処理部505、テイルパスメトリックメモリ506を備えて構成される。   The parallel turbo decoder 500 includes a reception likelihood memory 501, soft decision decoders 502a to 502d, a parallel interleaver 503, a tail processing unit 505, and a tail path metric memory 506.

受信尤度メモリ501は、受信尤度を保持する。受信尤度メモリ501は、テイルビットを除く符号語本体に係る受信尤度を複数のサブブロックに分割し、各軟判定復号器に分配する。本実施の形態では、軟判定復号器が4つあるものとしたので、4つ以下のサブブロックに分割する。また、受信尤度メモリ501は、テイルビットの受信尤度を選択し、テイル処理部へ転送する。   The reception likelihood memory 501 holds the reception likelihood. The reception likelihood memory 501 divides the reception likelihood related to the codeword main body excluding tail bits into a plurality of sub-blocks, and distributes it to each soft decision decoder. In this embodiment, since there are four soft decision decoders, it is divided into four or less sub-blocks. Also, the reception likelihood memory 501 selects a tail bit reception likelihood and transfers it to the tail processing unit.

テイル処理部505、テイルパスメトリックメモリ506は、実施の形態1のテイル処理部151、152、テイルパスメトリックメモリ141、142と同様の機能を持つ。すなわち、テイル処理部505にてテイルの事前処理を行い、テイルパスメトリックメモリ506に2組のパスメトリックを保持しておく。   The tail processing unit 505 and the tail path metric memory 506 have the same functions as the tail processing units 151 and 152 and the tail path metric memory 141 and 142 of the first embodiment. In other words, tail processing is performed in the tail processing unit 505, and two sets of path metrics are held in the tail path metric memory 506.

軟判定復号器502a〜502dはそれぞれ、分割された受信尤度、すなわちサブブロックのいずれか1つを担当し、軟判定復号を行い、サブブロックの外部値を生成する。   Each of soft decision decoders 502a to 502d takes charge of any one of the divided reception likelihoods, that is, sub blocks, performs soft decision decoding, and generates external values of the sub blocks.

軟判定復号器502a〜502dのうち、最も情報ビットの最終部分に近いサブブロックを担当した軟判定復号器502dは、テイルパスメトリックメモリ506に保存されたパスメトリックを初期値として用いて復号を行い、復号精度の向上を図る。   Of the soft decision decoders 502a to 502d, the soft decision decoder 502d that is in charge of the subblock closest to the last part of the information bits performs decoding using the path metric stored in the tail path metric memory 506 as an initial value. In order to improve the decoding accuracy.

並列インタリーバ503は、軟判定復号器502a〜502dから出力された外部値を同時に受け取り、インタリーブ又はデインタリーブを施して同時に軟判定復号器502a〜502dに出力する。なお、軟判定復号器502a〜502dにおける2回の処理が、上述の1サイクルに相当する。   The parallel interleaver 503 simultaneously receives the external values output from the soft decision decoders 502a to 502d, performs interleaving or deinterleaving, and outputs them simultaneously to the soft decision decoders 502a to 502d. The two processes in the soft decision decoders 502a to 502d correspond to the above-described one cycle.

次に、図8を用いて、並列ターボ復号器500の動作を説明する。   Next, the operation of the parallel turbo decoder 500 will be described with reference to FIG.

並列ターボ復号器500は、軟判定復号部502a〜502dにより反復復号を行うに先立って、テイル処理部505により2つのパスメトリック値203、204を計算し、テイルパスメトリックメモリ506に保存しておく。   Prior to performing iterative decoding by the soft decision decoding units 502 a to 502 d, the parallel turbo decoder 500 calculates two path metric values 203 and 204 by the tail processing unit 505 and stores them in the tail path metric memory 506. .

軟判定復号を並列に行うための受信尤度分割は、テイルを除く部分に対して行われる。データ251a〜251dは、図2に記載のデータ205aを4分割したものである。   The reception likelihood division for performing soft decision decoding in parallel is performed on a portion excluding the tail. Data 251a to 251d is obtained by dividing the data 205a shown in FIG.

情報ビット数をK、分割サイズをM、並列数をPとしたとき、分割サイズを次式にて定める。
M = K / P
When the number of information bits is K, the division size is M, and the parallel number is P, the division size is determined by the following equation.
M = K / P

並列数Pを情報ビット数Kの約数となるよう定めると、Mは常に整数となるので、分割された受信尤度251a〜251dのサイズはすべて等しいサイズとすることができる。   When the parallel number P is determined to be a divisor of the number of information bits K, M is always an integer, so that the sizes of the divided reception likelihoods 251a to 251d can be all equal.

最も情報ビットの最終部分に近いサブブロックを除く他のサブブロックについては、軟判定復号部502a〜502cで、従来と同様に、反復復号処理が行われる。   For the other sub-blocks excluding the sub-block closest to the last part of the information bits, iterative decoding processing is performed in the soft decision decoding units 502a to 502c as in the conventional case.

最も情報ビットの最終部分に近いサブブロックについては、軟判定復号部502dで、実施の形態1と同様に、予め計算されているテイル部分のパスメトリック値を用いて、反復復号処理が行われる。   For the sub-block closest to the final part of the information bits, the soft decision decoding unit 502d performs the iterative decoding process using the path metric value of the tail part calculated in advance, as in the first embodiment.

以上のように本実施の形態によれば、並列ターボ復号器500において、軟判定復号部502a〜502dが扱うサブブロックの大きさは等しいので、サブブロックの大きさが均等であることが要求されるARPやQPPなどの性能の良い新しい並列インタリーバを提供することができる。   As described above, according to the present embodiment, the sizes of subblocks handled by soft decision decoding sections 502a to 502d are equal in parallel turbo decoder 500, and therefore the subblock sizes are required to be equal. It is possible to provide a new parallel interleaver with good performance such as ARP and QPP.

また、最も情報ビットの最終部分に近いサブブロックに対する軟判定復号部502dでの反復復号処理は、実施の形態1における反復復号処理と同等であるため、テイルビットを含むターボ符号に対する復号であっても、符号語本体部分の復号のみの復号と同等の処理量で反復復号処理を行うことができる。   Also, the iterative decoding process in soft decision decoding section 502d for the subblock closest to the final part of the information bits is equivalent to the iterative decoding process in Embodiment 1, and is therefore a decoding for a turbo code including tail bits. In addition, iterative decoding processing can be performed with a processing amount equivalent to decoding of only the codeword main body.

従って、軟判定復号部502a〜502dで扱うサブブロックの大きさは等しく、また、軟判定復号部502dでの反復復号処理もサブブロックのみの復号処理と同じ処理と見なすことができるので、従来の並列ターボ符号器でのサブブロックの大きさが不均等であることによる処理遅延の増加を防止することができる。   Accordingly, the sizes of the subblocks handled by the soft decision decoding units 502a to 502d are equal, and the iterative decoding process in the soft decision decoding unit 502d can be regarded as the same process as the decoding process of only the subblock. It is possible to prevent an increase in processing delay due to non-uniform sub-block sizes in the parallel turbo encoder.

なお以上の説明においては、テイル処理部505が独立の機能部として設けられている場合について説明を行った。しかしながら、これに限定されるものではなく、テイル処理部は、実施の形態2と同様に、軟判定復号器内部のβ計算部と共用してもよい。   In the above description, the case where the tail processing unit 505 is provided as an independent function unit has been described. However, the present invention is not limited to this, and the tail processing unit may be shared with the β calculation unit in the soft decision decoder as in the second embodiment.

また、並列ターボ復号器においてはさらに、一方のテイル処理(送信側の第一の畳み込み符号器50bに関係するテイル部分のテイル処理)を1つの軟判定復号器に、他方のテイル処理(送信側の第二の畳み込み符号器60bに関係するテイル部分のテイル処理)を別の軟判定復号器に担当させることで、回路を追加することなくテイル処理を並列に行うことができ、処理遅延をさらに低減させることができる。   Further, in the parallel turbo decoder, one tail processing (tail processing related to the first convolutional encoder 50b on the transmission side) is further transferred to one soft decision decoder and the other tail processing (transmission side). Tail processing of the tail part related to the second convolutional encoder 60b) is handled by another soft decision decoder, so that tail processing can be performed in parallel without adding a circuit, and processing delay is further increased. Can be reduced.

以上、各実施の形態において説明したターボ復号器の各機能部は、ハードウェア及びソフトウェアのいずれかで、又は、それらを組み合わせて実現することができる。   As described above, each functional unit of the turbo decoder described in each embodiment can be realized by either hardware or software, or a combination thereof.

本発明に係る反復復号装置および反復復号方法は、テイルビットを含むターボ符号に対する復号の要する演算量を小さくして、処理遅延を小さくすることができるものとして有用である。   The iterative decoding apparatus and the iterative decoding method according to the present invention are useful as those capable of reducing the amount of calculation required for decoding a turbo code including tail bits and reducing the processing delay.

本発明の実施の形態1に係るターボ復号器の全体構成を示すブロック図1 is a block diagram showing the overall configuration of a turbo decoder according to Embodiment 1 of the present invention. 図1のターボ復号器の動作の説明に供する図FIG. 1 is a diagram for explaining the operation of the turbo decoder of FIG. テイル処理動作の説明に供するトレリス線図Trellis diagram for explanation of tail processing operation 実施の形態2に係るターボ復号器の全体構成を示すブロック図FIG. 3 is a block diagram showing an overall configuration of a turbo decoder according to the second embodiment. 図4の軟判定復号部の内部構成を示すブロック図The block diagram which shows the internal structure of the soft decision decoding part of FIG. 図4のターボ復号器の動作の説明に供するフロー図Flow chart for explaining the operation of the turbo decoder of FIG. 実施の形態3に係るターボ復号器の全体構成を示すブロック図FIG. 9 is a block diagram showing an overall configuration of a turbo decoder according to the third embodiment. 図7の並列ターボ符号器の動作の説明に供する図The figure which uses for description of operation | movement of the parallel turbo encoder of FIG. 従来のターボ符号器及びターボ復号器を用いた通信システムの全体構成図Overall configuration diagram of a communication system using a conventional turbo encoder and turbo decoder 移動通信方式であるW−CDMAに採用されているターボ符号器の構成図Configuration diagram of turbo coder adopted in W-CDMA which is a mobile communication system 図10のターボ符号器におけるトレリス終端の説明に供する図FIG. 10 is a diagram for explaining trellis termination in the turbo encoder of FIG. 従来のターボ復号器を説明するためのブロック図Block diagram for explaining a conventional turbo decoder 図12のターボ復号器における反復復号処理の説明に供する図FIG. 12 is a diagram for explaining iterative decoding processing in the turbo decoder of FIG. 従来の並列ターボ復号器の構成を示すブロック図Block diagram showing the configuration of a conventional parallel turbo decoder 並列ターボ復号器における受信尤度系列の分割方法の説明に供する図Diagram for explaining a method of dividing a reception likelihood sequence in a parallel turbo decoder

符号の説明Explanation of symbols

100,400,500 ターボ復号器
111,112 軟判定復号部
121,123,503 インタリーバ
122,430 デインタリーバ
130,410,440,501 受信尤度メモリ
141,142,450,506 テイルパスメトリックメモリ
151,152,505 テイル処理部
160,428 出力端子
420,502 軟判定復号器
421 入力端子
422 γ計算部
423 α計算部
424 メモリ
425 β計算部
426 Λ計算部
427 e計算部
100, 400, 500 Turbo decoder 111, 112 Soft decision decoder 121, 123, 503 Interleaver 122, 430 Deinterleaver 130, 410, 440, 501 Reception likelihood memory 141, 142, 450, 506 Tail path metric memory 151, 152,505 Tail processing unit 160,428 Output terminal 420,502 Soft decision decoder 421 Input terminal 422 γ calculation unit 423 α calculation unit 424 Memory 425 β calculation unit 426 Λ calculation unit 427 e calculation unit

Claims (2)

トレリス終端を付加するターボ符号化されたデジタルデータを復号する反復復号装置であって、
前記デジタルデータに含まれるトレリス終端に関わる第1のデジタルデータを選択する第1のセレクタと、
前記デジタルデータに含まれる前記第1のデジタルデータを除く第2のデジタルデータを選択する第2のセレクタと、
第1のセレクタが選択した前記第1のデジタルデータに基づきメトリック値を算出するメトリック値算出手段と、
メトリック値算出手段が算出したメトリック値を格納するメモリと、
前記第2のデジタルデータと、前記メトリック値とを用いて反復復号処理を行う復号手段と、
を具備する反復復号装置。
An iterative decoding device for decoding turbo encoded digital data to which a trellis termination is added,
A first selector for selecting first digital data related to a trellis termination included in the digital data;
A second selector for selecting second digital data excluding the first digital data included in the digital data;
Metric value calculation means for calculating a metric value based on the first digital data selected by the first selector;
A memory for storing the metric value calculated by the metric value calculating means;
Decoding means for performing iterative decoding processing using the second digital data and the metric value;
An iterative decoding apparatus comprising:
トレリス終端を付加するターボ符号化されたデジタルデータを復号ステップの繰り返しにより復号する反復復号方法であって、
前記デジタルデータに含まれるトレリス終端に関わる第1のデジタルデータに基づきメトリック値を算出するメトリック値算出ステップと、
前記メトリック値を各復号ステップの初期値として、前記デジタルデータに含まれるトレリス終端に関わる第1のデジタルデータを除く第2のデジタルデータを復号する反復復号処理ステップと、
を具備する反復復号方法。
An iterative decoding method for decoding turbo encoded digital data to which a trellis end is added by repeating a decoding step,
A metric value calculating step for calculating a metric value based on first digital data related to a trellis termination included in the digital data;
An iterative decoding process step of decoding second digital data excluding first digital data related to a trellis end included in the digital data, with the metric value as an initial value of each decoding step;
An iterative decoding method comprising:
JP2007277016A 2007-10-24 2007-10-24 Iterative decoding apparatus and iterative decoding method Expired - Fee Related JP4991481B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007277016A JP4991481B2 (en) 2007-10-24 2007-10-24 Iterative decoding apparatus and iterative decoding method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007277016A JP4991481B2 (en) 2007-10-24 2007-10-24 Iterative decoding apparatus and iterative decoding method

Publications (2)

Publication Number Publication Date
JP2009105772A true JP2009105772A (en) 2009-05-14
JP4991481B2 JP4991481B2 (en) 2012-08-01

Family

ID=40707018

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007277016A Expired - Fee Related JP4991481B2 (en) 2007-10-24 2007-10-24 Iterative decoding apparatus and iterative decoding method

Country Status (1)

Country Link
JP (1) JP4991481B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020029364A1 (en) * 2000-01-03 2002-03-07 Edmonston Brian S. System and method for high speed processing of turbo codes
WO2005125019A1 (en) * 2004-06-17 2005-12-29 Mitsubishi Denki Kabushiki Kaisha Method for correcting/decoding turbo code error and device for correcting/decoding turbo code error
JP2008118628A (en) * 2006-10-12 2008-05-22 Nec Electronics Corp Error correction code decoding device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020029364A1 (en) * 2000-01-03 2002-03-07 Edmonston Brian S. System and method for high speed processing of turbo codes
WO2005125019A1 (en) * 2004-06-17 2005-12-29 Mitsubishi Denki Kabushiki Kaisha Method for correcting/decoding turbo code error and device for correcting/decoding turbo code error
JP2008118628A (en) * 2006-10-12 2008-05-22 Nec Electronics Corp Error correction code decoding device

Also Published As

Publication number Publication date
JP4991481B2 (en) 2012-08-01

Similar Documents

Publication Publication Date Title
US8443265B2 (en) Method and apparatus for map decoding and turbo decoder using the same
US7827472B2 (en) Puncture-constrained interleaving for concatenated codes
JP3861084B2 (en) Hybrid turbo / convolutional code decoder, especially for mobile radio systems
JP5653936B2 (en) Coding and decoding methods for deleted correction convolutional codes and convolutional turbo codes
US20020124227A1 (en) High speed turbo codes decoder for 3G using pipelined SISO log-map decoders architecture
JP2006115145A (en) Decoding device and decoding method
JP4227481B2 (en) Decoding device and decoding method
JP2008219892A (en) Method and apparatus of encoding and decoding data
JP2004015285A (en) Turbo decoding method and turbo decoder
KR101611631B1 (en) Methods and apparatus for programmable decoding of a plurality of code types
US20130007568A1 (en) Error correcting code decoding device, error correcting code decoding method and error correcting code decoding program
JP2009095008A (en) Turbo coder/decoder, turbo coding/decoding method, and communication system
JP2004343716A (en) Method and decoder for blind detection of transmission format of convolution-encoded signal
US7573962B1 (en) Diversity code combining scheme for turbo coded systems
KR20070110407A (en) Metric calculations for map decoding using the butterfly structure of the trellis
JP3540224B2 (en) Turbo decoder, turbo decoding method, and storage medium storing the method
CN111130572B (en) Turbo code quick realizing method
JP3823731B2 (en) Error correction decoder
JP4991481B2 (en) Iterative decoding apparatus and iterative decoding method
US9130728B2 (en) Reduced contention storage for channel coding
CN108880569B (en) Rate compatible coding method based on feedback grouping Markov superposition coding
JP2005167513A (en) Decoding device and decoding method
KR100928861B1 (en) Turbo decoding method and apparatus for wireless communication
EP1587218B1 (en) Data receiving method and apparatus
Synthia et al. Performance study of turbo code with interleaver design

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110711

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110719

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120328

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120417

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120507

R150 Certificate of patent or registration of utility model

Ref document number: 4991481

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150511

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees