WO2000052833A1 - Procede et appareil de decodage de probabilite maximale a posteriori - Google Patents

Procede et appareil de decodage de probabilite maximale a posteriori Download PDF

Info

Publication number
WO2000052833A1
WO2000052833A1 PCT/JP1999/000963 JP9900963W WO0052833A1 WO 2000052833 A1 WO2000052833 A1 WO 2000052833A1 JP 9900963 W JP9900963 W JP 9900963W WO 0052833 A1 WO0052833 A1 WO 0052833A1
Authority
WO
WIPO (PCT)
Prior art keywords
probability
backward
decoding
probabilities
backward probability
Prior art date
Application number
PCT/JP1999/000963
Other languages
English (en)
French (fr)
Inventor
Kazuhisa Ohbuchi
Tetsuya Yano
Kazuo Kawabata
Original Assignee
Fujitsu Limited
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Limited filed Critical Fujitsu Limited
Priority to PCT/JP1999/000963 priority Critical patent/WO2000052833A1/ja
Priority to CNB998163554A priority patent/CN1201494C/zh
Priority to EP99906532A priority patent/EP1156588B1/en
Priority to DE69936067T priority patent/DE69936067T2/de
Priority to JP2000603157A priority patent/JP3451246B2/ja
Publication of WO2000052833A1 publication Critical patent/WO2000052833A1/ja
Priority to US09/923,602 priority patent/US6563890B2/en

Links

Classifications

    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/37Decoding methods or techniques, not specific to the particular type of coding provided for in groups H03M13/03 - H03M13/35
    • H03M13/39Sequence estimation, i.e. using statistical methods for the reconstruction of the original codes
    • H03M13/3972Sequence estimation, i.e. using statistical methods for the reconstruction of the original codes using sliding window techniques or parallel windows
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/37Decoding methods or techniques, not specific to the particular type of coding provided for in groups H03M13/03 - H03M13/35
    • H03M13/3723Decoding methods or techniques, not specific to the particular type of coding provided for in groups H03M13/03 - H03M13/35 using means or methods for the initialisation of the decoder
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/37Decoding methods or techniques, not specific to the particular type of coding provided for in groups H03M13/03 - H03M13/35
    • H03M13/39Sequence estimation, i.e. using statistical methods for the reconstruction of the original codes
    • H03M13/3905Maximum a posteriori probability [MAP] decoding or approximations thereof based on trellis or lattice decoding, e.g. forward-backward algorithm, log-MAP decoding, max-log-MAP decoding
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/37Decoding methods or techniques, not specific to the particular type of coding provided for in groups H03M13/03 - H03M13/35
    • H03M13/39Sequence estimation, i.e. using statistical methods for the reconstruction of the original codes
    • H03M13/3905Maximum a posteriori probability [MAP] decoding or approximations thereof based on trellis or lattice decoding, e.g. forward-backward algorithm, log-MAP decoding, max-log-MAP decoding
    • H03M13/3933Decoding in probability domain

Definitions

  • the present invention relates to a maximum posterior probability (MAP) decoding method and a decoding device using the decoding method, and more particularly, to calculating a posterior probability in maximum posterior probability decoding.
  • the present invention relates to a maximum posterior probability decoding method and apparatus for reducing the amount of memory used by calculating forward probabilities.
  • the erroneous correction code is used to correct erroneous information contained in received information, reproduction information, and the like so that the original information can be correctly decoded, and is applied to various systems. For example, it is applied when transmitting data without error in mobile communication, fax or other data communication, or when reproducing data from large-capacity storage media such as magnetic disks and CDs without error.
  • turbo codes see, for example, US Pat. No. 5,446,747 have been decided to be adopted for standardization in next-generation mobile communications.
  • maximum a posteriori probability decoding MAP decoding
  • the MAP decoding method is a decoding method similar to the Viterbi (Viterbi) decoding method.
  • Viterbi decoding uses, for each state at the time of inputting the k-th data, the data of the k-th data of the coded data obtained by coding the information of the information length N, of the error in the two paths leading to the state. A path with a small number of paths is selected, a path with a large number of errors is discarded, and thereafter, for each state at the time of the final Nth data input, a path with a small number of errors is selected from the two paths leading to the state. In each state, decoding is performed using the path with the least error among the paths selected, and the decoding result is a hard decision output.
  • the Viterbi decoding method is a method of decoding a convolutional code
  • the convolutional code will be described first, and then the Viterbi decoding will be described.
  • Figure 1 1 is ⁇ an example of a convolutional encoder Li, with 2-bit shift register SFR and two exclusive OR circuits EX0R1, EX0R2, EX0R1 exits the exclusive g 0 of the input EX0R2 is the exclusive OR of R0 and R with the input g! (When “1" is odd, output is "1", otherwise "0") is output. Therefore, the input / output relationship of the convolutional encoder and the state of the shift register SFR in the case of the input data power S01101 are as shown in FIG.
  • the contents of the shift register SFR of the convolutional encoder are defined as state, and four states of 00, 01, 10, and 11 are defined as shown in Fig. 13, and each state is state a, state b, and state c. , State d.
  • state d states of 00, 01, 10, and 11
  • each state is state a, state b, and state c. , State d.
  • Figure 14 shows the relationship between the state of the convolutional encoder and the input / output. The dotted line indicates the “0” input, and the solid line indicates the “1” input. That is,
  • the convolutional code of the convolutional encoder of FIG. 11 is represented in a lattice form as shown in FIG. 15 (a).
  • k means the k-th bit input time point
  • the dotted line indicates the “0” input
  • the solid line indicates the “ ⁇ ” input
  • the two numerical values on the line indicate the outputs (g 0 , gi).
  • Soft decision compensates for the shortcomings of hard decision.As shown as an example at the left end of Fig. 16, the detection output is quantized into eight levels and the certainty is weighted according to each level. The decision result is output to the decoder.
  • the decoding result 11001 having the minimum number of errors ERR is selected and output. In this way, the original data 11001 can be correctly restored even if the received data contains errors. You.
  • FIG. 18 is an explanatory diagram of decoding in the case of soft-decision received data.
  • the soft-decision received data (g 0 , gi) power 1, 1 ⁇ 1, 0 ⁇ 1, 0 ⁇ 2
  • k 3
  • the decoding result 11001 having the minimum number of errors ERR is selected and output. In this way, the original data 1 1001 can be correctly restored even if there is an error in the received data.
  • the soft decision is the same as the hard decision except that the number of errors ERR is not an integer.
  • Viterbi decoding is performed as follows.
  • the received data is assumed to be 11 1000 as a result of the hard decision.
  • Fig. 19 (a) shows only those paths that are extracted and described. The two paths are path (1) and path (2) shown in the figure.
  • the Hamming distance between the received data and the decoded data obtained in each pass is calculated, they are 3 and 4, respectively, as shown in FIGS. 19 (b) and (c).
  • the decoded data is output based on the path.
  • FIG. 20 shows each time k when the received data is 1000 1111 and the shortest path to each state a to d.
  • the numerical value on the line is the Hamming distance. Therefore, since the path leading to state c has the minimum error, decoding according to this path results in 11001 in decoded data.
  • This decoding algorithm is called maximum likelihood decoding in the method of selecting the most suitable one, and is also called the Viterbi algorithm since it was started by Viterbi.
  • the probability ⁇ , k -i (m), ⁇ ⁇ , k _ i (m) in (1) is called the forward probability.
  • the error minimum path leading to each state at a certain time k is 1 to k
  • the path from k to N is not considered in the determination of the minimum error path at all.
  • MAP decoding unlike Viterbi decoding, the received data from k to N and the paths from k to N are reflected in the decoding process, and decoded data with high accuracy is obtained.
  • ⁇ 0, ki, m ⁇ 0, k (j ⁇ ⁇ k (m Roh,
  • ⁇ i, k (m) ai, k (m) ⁇ ⁇ k (m)
  • transition probability calculation unit 1 receives ( yak , ybk ) at time k,
  • shift-probability y 0, k, 71, k , ⁇ 2, k, y 3, k and have shed forward probabilities by calculating the a 0, k is respectively stored in the memory 2, 4 a ⁇ 4 d.
  • the backward probability calculation unit 5 calculates the time using the backward probability / 3 k + 1 at time (k + 1) and the transition probability ⁇ s, ⁇ , ⁇ . ⁇ Each state !!
  • FIG. 25 shows the relationship between the input / output data and the state before and after.
  • the left side is the state m 'at time k ⁇ 1
  • the right side is the state m at time k after the kth data is input
  • the solid line is the state transition path when “0” is input
  • the dotted line is “1”.
  • is a value related to the received data, while q and ⁇ are constants determined by whether or not there is a transition path from the state m 'at time (k-1) to the state m at time k (trellis). By value, as shown in Figure 26, if there is no transition path,
  • the re-transition probability only needs to be calculated by p of y o (R k , 0,0) and y, 2,0) marked with 0 in FIG. 26, and all others become 0. Therefore, if the zero transition probability line is removed in FIG. 23, the forward probabilities a ° k (0), ⁇ (0) at which u k becomes “0” and “1” are as shown in FIG. .
  • a ° k (0) ro (Rk, 0,0) ⁇ a o k- , (0) + 7 o (Rk, 0, 0) ⁇ a 1 k — i (0) (3)
  • a 1 k ( 0) y 1 (R k , 2,0)-a ° k - 1 (2) + 7! (R k , 2, 0) a 1 k- ! (2) (4)
  • Transition probability ⁇ 0 (R k , 0, 0) transition probability ⁇ 0, K
  • 3 k (m) ⁇ m ' ⁇ i ⁇ i (R k + 1 , m, m') iS k + i (m ') /
  • the denominator is a part that is removed by division in the likelihood calculation, so it is not necessary to calculate.
  • q ⁇ ⁇ 0.
  • the transfer probability only needs to calculate the P of yo (R k + 1 , 0,0) and ⁇ Rk + O, 1), and all others are 0. Therefore, if the line of zero transition probability is removed in FIG. 28, the backward probability iS k (0) is as shown in FIG. That is,
  • the transition probability is related to the trellis between the states and the received data, and the transition probability is as follows: ( 1 ) (xa k + 1 , xb k + 1 ) The transition probability ⁇ 0 , k ten! , 2 (xa k +1 , xb k +1 ) transition probability k + 1 with force (0,1), 3 (xa k + 1. Xb k +1 ) transition probability y with force (l, 0) 2.
  • the transition probability ⁇ 3 , k +1 where K + 1 , ® (xa k + 1 , xb k + 1 ) is (1, 1) is obtained.
  • Transition probability 0 0 ⁇ + 1,0,0) transition probability 0. K + l
  • Transition probability 71 0 ⁇ +1 , 0,1 ) transition probability 3 , k +1
  • 3 0 is an explanatory view of a joint probability and u k and u k likelihood calculation.
  • ⁇ () a (m) ⁇ ⁇ k (m)
  • ⁇ 1 k (m) 1 k i, m) ⁇ k (m)
  • the conventional first MAP decoding method shown in FIG. 22 has a problem that a large amount of memory is used.
  • the first MAP decoding method requires 4 XN memory for transition probability storage and m (number of states) X2XN memory for forward probability storage, and requires a total of (4 + mX2) XN memory.
  • FIG. 31 shows a modified example of the AP decoder that realizes the first MAP decoding method in which the memory 2 is deleted. In this variation,
  • FIG. 32 is a configuration diagram of a MAP decoder that realizes the second MAP decoding method, and the same parts as those in FIG. 22 are denoted by the same reference numerals.
  • the input / output inverting unit 8 appropriately reverses the output order of the received data, and includes a memory for storing all the received data and a data output unit for outputting the received data in the reverse order or the same order as the input order.
  • the turbo decoder that adopts the MAP decoding method as the decoding method, it is necessary to interleave the received data, so that there is a memory for storing all the received data. Memory can be shared, and there is no memory burden.
  • the forward probability calculation portion 3 the time (k-1) th forward probabilities original data Uk i is "1" in the non k dii) and forward probability is original data is "0"
  • transition probability ⁇ 0, k> / 1, k, 2, k »y 3, k at the obtained time k, and u k in each state m ( 0 to 3) at time k 1 "is the forward probability ⁇ And! Forward probability a where ⁇ is "0". , K (m). However, the initial value of k is 1.
  • the joint probability calculation unit 6 multiplies the forward probability ⁇ L k (m) in the respective states 0 to 3 at time k by the backward probability / 3 k (m) to obtain the k-th original data u k as “1”. "Probability to be; I! Calculates the k (m), likewise, is the original data u k using the forward probabilities ao. K (m) and backward probability Kdii) and in each state 0 to 3 at time k is "0" Probability. , K (m).
  • the transition probability calculation, the backward probability calculation, and the process of storing the calculation result in the memory are performed in the first half, and the forward probability calculation is performed in the second half.
  • Joint probability calculation, original data and likelihood calculation processing That is, in the second MAP decoding method, the forward probability a ⁇ kdn), a . , K (m), but the backward probability i3 k (ni) is stored.
  • the memory required by the second MAP decoding method only needs 4 XN for storing the transition probability and the number of states m XN for the backward probability storage, and the total required memory is ( 4 + m) XN, and the required memory amount can be reduced compared to the first MAP decoding method in FIG. Reduction rate ⁇ is
  • FIG. 34 is a modified example of the MAP decoder that realizes the second AP decoding method in which the memory 2 is deleted.
  • the required memory is the total (mXN), and the required memory amount can be reduced as compared with the modified example of the first MAP decoding method in FIG.
  • the decrease rate is
  • the memory used can be reduced as compared with the first MAP decoding method, but there is still room for reduction.
  • Figure 35 (a) shows the calculation system of the third MAP decoding method that can further reduce the memory used.
  • FIG. 11 is an explanatory diagram showing a further development of the second MAP decoding method.
  • (b) additionally shows an operation sequence of the second MAP decoding method.
  • the third MAP decoding method is described in JOUNAL ON SELECTED AREAS IN COMMUNICATIONS. VOL.16, NO.2, FEBURUAR Y 1998, "An Intuitive Justification and a Simplified Implementation of the MAP Docoder for Convolution Codes" Andrew J. Viterb ij This is the method disclosed in
  • B operation means backward probability operation and transfer probability operation
  • a operation means forward probability operation and Z transfer probability operation
  • L operation means joint probability operation and likelihood operation.
  • the second MAP decoding method as shown in (b), (1) all the B operations are executed up to N and stored in the memory, and then (2) the A operation is sequentially performed from 1 to N. It outputs u k and likelihood L (u k ) while performing L operation.
  • the second MAP decoding method requires NX m memory to store the backward probability / 3 k (m).
  • k 1 to N are equally divided by M, and MAP decoding is performed as follows.
  • the memory for backward probability storage can be reduced to 2M, and the time until the first decoding result 1 ⁇ and likelihood ( U l ) are output can be reduced.
  • the time chart is as shown in FIG. 36 (a).
  • this requires a long calculation time because the A calculation is intermittent. Therefore, by performing the first half and the second half of the B operation at the same time as shown in Fig. 36 (b), the A operation can be performed continuously to improve the operation speed. Let me. However, in this method, the first half and the second half of the B operation need to be performed simultaneously, so that there is a problem that two B operation circuits are required.
  • the third MAP decoding method has a problem in that power consumption is increased because the calculation of the probability for the backward / 3 k (m) is performed twice in total.
  • Another object of the present invention is to calculate the backward probability ⁇ k (m) accurately by calculating the backward probability k (m) only once, which is advantageous in terms of power consumption.
  • (1) backward probabilities are calculated in the reverse direction from the N-th backward probability to the first backward probability, and the mi-th backward probability to the first backward probability are stored. Then, a first forward probability is calculated, and a first decoding result is obtained by using the first forward probability and the stored first backward probability. Find the th decryption result.
  • a from the N backward probability (mi + iota) calculates the backward probabilities in the reverse direction until the backward probabilities, a m 2 backward probability, second (rm + 1) holding a backward probabilities And calculates the (m + 1) -th forward probability and calculates the (n + 1) -th probability using the (mi + 1) forward probability and the stored (nn + ⁇ ) backward probability.
  • decoding results determined, similarly numbered, seeking the (n +2), second m 2 th decoded results, and (3) hereinafter, the (m 2 + l) in the same manner, second n-th decoded result Ask.
  • the backward probability ⁇ k (m) can be calculated accurately, and the accuracy of MAP decoding can be improved.
  • the calculation speed can be improved.
  • the required operation speed can be obtained without using two arithmetic circuits for calculating the backward probability, and furthermore, the backward probability k (m) needs to be calculated only once, thus reducing power consumption. Is advantageous.
  • FIG. 1 is a schematic diagram of a communication system.
  • FIG. 2 is a configuration diagram of the turbo encoder.
  • FIG. 3 is a state transition diagram of the convolutional encoder.
  • Fig. 4 is a configuration diagram of the turbo decoder.
  • FIG. 5 is an explanatory diagram of the operation sequence of the first MAP decoding method of the present invention.
  • FIG. 6 is a configuration diagram of the MAP decoder of the first embodiment.
  • FIG. 7 is an explanatory diagram of the operation sequence of the second MAP decoding method of the present invention.
  • FIG. 8 is a configuration diagram of the AP decoder of the second embodiment.
  • FIG. 9 is a configuration diagram of the turbo decoder.
  • FIG. 10 is an explanatory diagram of turbo decoding operation.
  • FIG. 11 is a configuration diagram of a convolutional encoder.
  • FIG. 12 is an explanatory diagram of the input / output relationship of the convolutional encoder.
  • FIG. 13 is an explanatory diagram of the state of the convolutional encoder.
  • FIG. 14 is a diagram showing the state of the convolutional encoder and the input / output relationship.
  • FIG. 15 is an explanatory diagram of a lattice-like expression.
  • FIG. 16 is an explanatory diagram of hard decision and soft decision.
  • FIG. 17 is an explanatory diagram of decoding of a convolutional code (hard decision).
  • FIG. 18 is an explanatory diagram of decoding (soft decision) of a convolutional code.
  • FIG. 19 is an explanatory diagram of decoding of a convolutional code.
  • FIG. 20 is an explanatory diagram of the error minimum path in each state at an arbitrary k.
  • FIG. 21 is a schematic explanatory diagram of MAP decoding.
  • FIG. 22 is a configuration diagram of a MAP decoder that realizes the first conventional MAP decoding method.
  • FIG. 23 is an explanatory diagram of probability calculation for forward.
  • FIG. 24 is a configuration diagram of the convolutional encoder.
  • FIG. 25 shows the state of the convolutional encoder and the input / output relationship.
  • FIG. 26 is an explanatory diagram of the transition probability.
  • FIG. 28 is an explanatory diagram of the probability calculation for the backward direction.
  • FIG. 30 is an explanatory diagram of the joint probability and likelihood calculation and decoding results.
  • FIG. 31 shows a modification of the MAP decoder that realizes the first conventional AP decoding method.
  • FIG. 32 is a configuration diagram of a MAP decoder that realizes the second conventional MAP decoding method.
  • FIG. 33 is a time chart of the second MAP decoding method.
  • FIG. 34 shows a modified example of the MAP decoder that realizes the second conventional MAP decoding method.
  • FIG. 35 is an explanatory diagram of the operation sequence of the third conventional MAP decoding method.
  • FIG. 36 is an explanatory diagram of a problem of the third conventional MAP decoding method.
  • FIG. 1 is a configuration diagram of a communication system including a turbo encoder and a turbo decoder.
  • the provided turbo encoder 12 is a turbo decoder provided on the data receiving side
  • 13 is a data communication path.
  • U is information data of length N to be transmitted
  • xa, xb, xc are coded data obtained by coding information data u by the turbo encoder 11
  • ya, yb, yc are coded data xa, xb, xc.
  • u ′ is the decoding result obtained by decoding the received data ya, yb, and yc by the turbo decoder 12. It is expressed as follows.
  • xb ⁇ x b 1? X b, X bj ... ? X b
  • Received data ya ⁇ y a , y, y • ⁇ “j ⁇ k> • ⁇ ⁇ ⁇
  • the turbo encoder 11 encodes information data u having an information length N and outputs encoded data Xa, xb, xc.
  • the coded data xa is the information data u itself
  • the coded data xb is data obtained by convolutionally coding the information data u by the encoder ENC1
  • the coded data xc is a code obtained by interleaving ( ⁇ ) the information data u.
  • This is the data convolutionally coded by the device ENC2. That is, the turbo code is synthesized using two convolutions.
  • the interleaved output Xa ' is not output because the order is different from that of the encoded data Xa.
  • FIG. 2 is a detailed diagram of the turbo encoder 11, where 11 a and lib are convolutional encoders (ENC 1 and ENC 2) having the same configuration, and 1 lc is an interleave unit ( ⁇ ).
  • the convolutional encoders 1 1a and 1 1b are configured to output a recursive systematic convolutional code. It is configured to connect to The flip-flops FF1 and FF2 take the four states (00), (01), (10), and (11). When 0 or 1 is input in each state, the state changes as shown in Figure 3. , And xa, xb are output.
  • the left side is the state before receiving data input
  • the right side is the state after inputting
  • the solid line is the state transition path when "0" is input
  • the dotted line is the state transition path when "1” is input.
  • 00, 11, 10, 01 are the values of the output signals xa, xb Is shown. For example, in state 0 (00), when “0" is input, the output is 00, the state is 0 (00), and when "1" is input, the output is 11, and the state is 1 (10).
  • FIG. 4 is a configuration diagram of the turbo decoder.
  • turbo decoding first, ya and yb of the received signals ya, yb, and yc are used, and decoding is performed by the first element decoder DEC1.
  • the element decoder DEC1 is a soft-output element decoder and outputs the likelihood of the decoding result.
  • similar decoding is performed by the second element decoder DEC2 using the likelihood and yc output from the first element decoder DEC1. That is, the second element decoder DEC2 is also a soft output element decoder and outputs the likelihood of the decoding result.
  • the likelihood output from the first element decoder DEC1 is interleaved ( ⁇ ) before being input to the second element decoder DEC2.
  • the likelihood output from the second elementary decoder DEC2 is fed back as an input to the first elementary decoder DEC1 after being interleaved ( ⁇ ), and u ′ is output from the second elementary decoder DEC2.
  • the decoded data is the decoded data (decoding result) for which the determination result is determined to be “0” or “1.” By repeating the above-mentioned decoding operation a predetermined number of times, the error rate is reduced.
  • a MAP element decoder can be used as the first and second element decoders DEC1 and DEC2.
  • FIG. 5 is an explanatory diagram of the operation sequence of the first MAP decoding method of the present invention.
  • FIG. 6 is a configuration diagram of the MAP decoder of the first embodiment.
  • the MAP control unit 50 controls the entire MAP decoder, and controls the operation timing of each unit, data reading to each memory, data writing, and the like according to the operation sequence of FIG.
  • the input / output switching unit 51 outputs the received data by changing the output order appropriately, and includes a memory for storing all the received data and a data output unit for outputting the received data in the reverse order or the same order as the input order. .
  • the turbo decoder since it is necessary to interleave the received data, there is a memory for storing all the received data.Therefore, the memory for the interleave can be used as the memory of the input / output switching unit 51, and the memory load is reduced. Absent.
  • the backward probabilities are used.
  • the accuracy of MAP decoding can be improved by accurately calculating the probability / 3k (m).
  • FIG. 7 is an explanatory diagram of the operation sequence of the second MAP decoding method of the present invention.
  • the first forward probabilities 1 and 2. Is calculated using the first forward probability and the stored first backward probability ⁇ 1 (m) to determine the first decoded data u and likelihood L ( Ul ).
  • the second to second decoded data u 2 to u ral and likelihood L Find (u 2 ) ⁇ L (u ml ).
  • FIG. 8 is a configuration diagram of the AP decoder of the second embodiment, and the same parts as those of the first embodiment of FIG.
  • the MAP control unit 50 controls the entire AP decoder, and controls the operation timing of each unit, data reading to each memory, data writing, and the like according to the operation sequence of FIG.
  • the input / output switching unit 51 outputs the received data by changing the output order as appropriate, and includes a memory for storing all the received data and a data output unit for outputting the received data in the reverse order of the input order or in the same order. .
  • the backward probability calculation portion 5 3, k in parallel with the calculation of backward probabilities up to N 1 obtained in discrete first m s backward probability / 3 ms (m), the m (s - n backward probabilities
  • receive data (y ak, y bk) is used to calculation the shift-probability y 0, k, ⁇ k) ⁇ 2, k, y 3. k , respectively.
  • Joint-probability calculation unit 5 6, L and u k ⁇ calculation unit 5 7 outputs the means pursuant likelihood L (u k) and u k similar operation as described above.
  • the memory capacity of r Xm + (s_l) (m: number of states) is used to store the backward probabilities. Need You just need to In addition, the backward probability is calculated in the reverse direction from the Nth backward probability to the first backward probability, and the obtained backward probability is discretely stored. If necessary, the discretely stored backward probability is stored. , The required number of backward probabilities are calculated, so that the backward probability jS k (m) can be calculated accurately, and the accuracy of MAP decoding can be improved.
  • FIG. 9 is a configuration diagram in the case where the MAP decoder of the present invention is used as the element decoders DEC1 and DEC2 in the turbo decoder (see FIG. 4).
  • One MAP decoder uses the element decoders DEC1 and DEC2. Is performed.
  • the same parts as those in the MAP decoder in FIG. 8 are denoted by the same reference numerals.
  • the MAP control unit 50 controls various timings and the like of the AP decoder according to the operation sequence of FIG.
  • the input / output switching unit 51 has RAMs 51a to 51c for storing the received data ya, yb, and yc and a RAM control unit 51d for controlling the reading / writing of the received data.
  • the output order is changed and output as appropriate (interleaving).
  • the transition probability calculation unit 52 calculates the transition probability, and has first and second two calculation units 52a and 52b.
  • the backward probability calculation unit 53 calculates the backward probability as described with reference to FIGS.
  • the memory 54 stores the backward probabilities.
  • the RAM 54a stores the discrete backward probabilities
  • the RAM 54b continuously stores the backward probabilities
  • the RAM control controls the reading and writing of the backward probabilities. It has part 54c.
  • the forward probability calculation unit 55 calculates the forward probability
  • the combined probability calculation unit 56 multiplies the forward probability and the backward probability by calculating the probability that the k-th data u k is “1” and “0”.
  • Each probability is calculated, and the likelihood calculation unit 57 outputs the decoding result u and also outputs the posterior probability L (u).
  • the S / P converter 61 converts the received data from serial to parallel and inputs the data to the input / output switching unit 51.
  • the received data ya, yb, and yc obtained by the conversion are soft decision data quantized by ⁇ bits.
  • the external information likelihood calculating section 62 outputs the external information likelihood Le (u).
  • the write control unit 63 writes the external information likelihood Le (u) to the memory 64, and the read control unit 65 reads out from the memory 64 to apply the external information likelihood Le (u). After interleaving and dinterleaving, it is output as the prior likelihood L () used for the next MAP decoding.
  • the write controller 63 When finally outputting the decoded data u, the write controller 63 writes the decoded data into the memory 64, but otherwise writes the external information likelihood Le (u) into the memory 64.
  • the read control unit 65 When outputting the decoded data u, the read control unit 65 reads and outputs the decoded data u from the memory in the order of writing, and when reading the external information likelihood Le (u), it is instructed by the interleave control unit 66. Read and output in read order (interleaved).
  • the memory 67 includes a RAM 67a and a RAM control unit 67b, and stores the interleaved external information likelihood Le (u) as L (i).
  • FIG. 10 is an explanatory diagram of a turbo decoding sequence.
  • Turbo decoding as evident from Fig. 4, repeats the first half decoding using ya and yb and the second half decoding using ya and yc multiple times as a set.
  • the interleaved received signal Lcya and the prior likelihood L (u2 ′) obtained in the first half of the decoding process are regarded as a new received signal Lcya ′.
  • Decoding is performed using Lcyc, and the obtained likelihood L (u 2 ) is output.
  • the prior likelihood Le (u 2 ) is calculated according to the equation (9), and is tallied to L (u3 ′).
  • the received signal Lcya and the prior likelihood Ld ⁇ ′) obtained in the latter half of the decoding process are regarded as a new received signal Lcya ′, and decoding is performed using the Lcya ′ and Lcyb. Output the obtained likelihood L (u3). Then, the prior likelihood Le (u3) is obtained from the above equation and interleaved to obtain Lu ⁇ ).
  • the interleaved received signal Lcya and the prior likelihood Liu ⁇ ) obtained in the first half of the decoding process are regarded as a new received signal Lcya ', and the Lcya ⁇ and Lcyc are calculated. And the obtained likelihood L (u4) is output.
  • the prior likelihood Le (u4) is obtained from the equation (9) and interleaved to obtain L (u5 ′).
  • the backward probability / 3k (m) can be accurately calculated to improve the accuracy of MAP decoding.
  • the backward probability is calculated in the reverse direction from the Nth backward probability to the first backward probability, and the obtained backward probability is discretely calculated. Since the required number of backward probabilities are calculated and used as needed starting from the discretely stored backward probabilities as needed, the backward probability / 3 k (m) can be accurately calculated. Therefore, the accuracy of MAP decoding can be improved.
  • the backward probability for k N every time to obtain the required number of backward probabilities, so that the calculation speed can be improved. Also, the required operation speed can be obtained even without two arithmetic circuits for the operation of the backward probability / 3 k (m), and the backward probability; e k (m) is calculated only once. Power consumption It is advantageous in the point.

Landscapes

  • Physics & Mathematics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Error Detection And Correction (AREA)

Description

明 細 書
最大事後確率復号方法及び装置
技術分野
本発明は、 最大事後確率(MAP: Maximum A Posteriori Probab i 1 i t y)復号方法 及び該復号方法を用いた復号装置に係わリ、 特に、 最大事後確率復号における後 方用確率を演算してから前方用確率を演算することによリメモリの使用量を減少 する最大事後確率復号方法及び装置に関する。
背景技術
誤リ訂正符号は、 受信情報や再生情報などに含まれる誤リを訂正して正しく元 の情報を復号できるようにするためのもので、 種々のシステムに適用されている 。 例えば、 移動通信、 FAXその他のデータ通信に際してデータを誤リなく伝送す る場合、 あるいは、 磁気ディスク、 CDなどの大容量記憶媒体からデータを誤リ無 く再生する場合に適用されている。
誤リ訂正符号の中でもターボ符号 (例えば米国特許番号 5, 446, 747号明細書参 照)は次世代移動体通信において、 標準化に採用されることが決まっている。 力 かるターボ符号において、 最大事後確率復号 (MAP復号: Maximum A Posteriori P robability Decoding)が大きな効果を発揮する。 MAP復号方法はビタビ (Vi t erb i) 復号方法と類似した復号方法である。
(a) ビタビ復号
ビタビ復号は、 情報長 Nの情報を符号化した符号化データの第 k番目までのデ ータを用いて第 kデータ入力時点の各状態毎に、 該状態に至る 2つのパスのうち 誤りの少ないパスを選択し、 誤りの多いパスを捨て、 以後、 同様にして最終の第 Nデータ入力時点の各状態毎に、 該状態に至る 2つのパスのうち誤リの少ないパ スを選択し、 各状態において選択したパスのうち最も誤リの少ないパスを用いて 復号するもので、 復号結果は硬判定(hard dec is ion)出力である。
ビタビ復号方法は畳み込み符号を復号する方法であるため、 最初に畳み込み符 号について説明し、 しかる後、 ビタビ復号について説明する。
図 1 1は畳み込み符号器の例でぁリ、 2ビットのシフトレジスタ SFRと 2つの 排他的論理和回路 EX0R1, EX0R2を備え、 EX0R1は入力と の排他的論理和 g 0を出 力し、 EX0R2は入力と R0と R の排他的論理和 g! ("1"が奇数のとき出力は "1"、 それ以外は" 0")を出力する。 したがって、 入力データ力 S01101の場合における畳 み込み符号器の入出力関係及びシフトレジスタ SFRの状態は図 1 2に示すように なる。
畳み込み符号器のシフトレジスタ SFRの内容は state (状態)と定義され、 図 1 3 に示すように 00, 01, 10, 11の 4つの状態がぁリ、 それぞれを状態 a, 状態 b, 状態 c, 状態 dと表現する。 図 1 1の畳込み符号器ではシフ トレジスタ SFRの状 態が a〜dのいずれの状態であるか、 及び、 次に入力するデータが" 0"であるか" 1"であるかにょリ、 出力(g0, g 及び次の状態が一意に決まる。 図 14はかか る畳込み符号器の状態と入出力の関係図であり、 点線は" 0" 入力、 実線は" 1" 入力を示している。 すなわち、
(1) 状態 aにおいて、 "0"が入力すると出力は 00で状態は aになリ、 "1 "が入力 すると出力は 11で状態は cになる。
(2) 状態 bにおいて、 "0"が入力すると出力は 11で状態は aになリ、 "1"が入力 すると出力は 00で状態は cになる。
(3) 状態 cにおいて、 "0"が入力すると出力は 01で状態は bになリ、 "1 "が入力 すると出力は 10で状態は dになる。
(2) 状態 dにおいて、 "0"が入力すると出力は 10で状態は bになリ、 "1"が入力 すると出力は 01で状態は dになる。
この入出力関係を用いて図 1 1の畳み込み符号器の畳み込み符号を格子状表現 すると図 1 5 (a) に示すようになる。 ただし、 kは第 kビット入力時点を意味 し、 符号器における初期(k=0)の状態は a (00)である。 又、 点線は" 0" 入力、 実 線は" Γ 入力を示し、 線上の 2つの数値は出力 (g0, gi) を示している。 し たがって、 初期状態 a (00)において、 "0"が入力すると出力は 00で状態は aにな リ、 "1 "が入力すると出力は 11で状態は cになることがわかる。
この格子状表現図を参照すると、 原データが 1 1001であれば、 図 1 5 (b ) の矢印付き点線で示すパスを介して状態 cに至り、 符号器出力は
11→10→10→11→11
となることがわかる。 畳み込み符号の複号化を行う際、 まず始めに受信データの判定を行う。 この判 定には、 硬判定(hard decision)と軟判定(soft dec i s ion)の 2種類がある。
硬判定の場合は、 検波出力レベルが 0ょリ大きいと" 1" 、 0より小さいと" 0" と 2つの量子化レベルで判定する。 このように画一的な判断を行うと、 図 1 6に 示すそれぞれの確率密度関数のスソの広がリ部分 (図中の斜線領域部分) で誤リ 判定が発生する。
軟判定は、 硬判定の欠点を補うもので、 図 1 6の左端に 1例として示したよう に、 検波出力を 8レベルで量子化し、 それぞれのレベルに応じた確からしさの重 みづけをして、 判定結果を復号器へ出力するものである。
ビタビ復号は硬判定入力硬判定出力、 軟判定入力硬判定出力が可能でぁリ、 始 めに前者について説明する。
硬判定受信データ (g0, gi) が 11→10→10→11→11で誤リのない理想状態を 想定すると、 図 1 7 (a) の矢印付き点線で示すパスが得られ、 点線を" 0"、 実 線を "1"とすることにより、 図 1 7 (b) に示すように 11001の復号結果を得るこ とができる。 しかし、 実際には、 受信データに誤リが含まれる場合が多い。 図 1 7 (c) に示すように、 第 5ビット目に誤リが発生し、 硬判定受信データ (g0 , gi) が 11→10→00→11→11であるとすると、 k=2の時点で 10, 01のどちらへ分 岐すべきか迷う (エラー回数 ERR= 1) 。 10とみなして上側のパスを選択すると 、 k=3,K=4で迷うこと無く状態 cに至る。 したがって、 矢印付き点線パスでのェ ラー回数 ERR=1となり、 その時の復号結果は 11001となる。 一方、 k=2の時点で 01 とみなして下側のパスを選択すると、 k=3の時点でも、 どちらへ分岐すべきか迷 レ、、 総エラー回数 ERR = 2となる。 以後、 同様にパスを選択し、 分岐に迷った時に ERRをカウントアップすると、 最終的に以下の結果が得られる。 すなわち、 復号結果を 11001とした時の総エラー回数 ERR: 1
復号結果を 11100とした時の総エラー回数 ERR: 2
復号結果を 11110とした時の総エラー回数 ERR : 3
復号結果を 11111とした時の総エラー回数 ERR: 3
となる。 そこで、 エラー回数 ERRが最小の復号結果 11001を選択して出力する。 こ のようにすれば、 受信データに誤リがあっても原データ 11001を正しく復元でき る。
以上は、 硬判定受信データであるが、 軟判定受信データの場合も同様に復号す ることができる。 図 1 8は軟判定受信データの場合における復号化説明図でぁリ 、 ( b ) に示すように軟判定受信データ (g 0, g i ) カ 1,1→1,0→1,0→2/8 , 1→ 1,1であるとする。 (a ) の格子状表現を参照すると k =3の時点で 11,00のどちら へ分岐すべきか迷う。 10とみなして上側のパスを選択すると(エラ一回数 ERR=6/8 )、 K=4の時点で迷うこと無く状態 cに至る。 したがって、 矢印付き点線パスでの エラー回数 ERR=6/8となり、 その時の復号結果は 1100 1となる。 一方、 k =3の時点 で 00とみなして下側のパスを選択すると(エラ一回数 ERR=l+2/8)、 k=4の時点でも どちらへ分岐すべきか迷い、 総エラー回数 ERR = (2+2/8)となる。 以後、 同様にパ スを選択し、 分岐に迷った時に ERRをカウントアップすると、 最終的に以下の結 果が得られる。 すなわち、
復号結果を 11001とした時の総エラー回数 ERR: 6/8
復号結果を 11010とした時の総エラー回数 ERR: 2+2/8
復号結果を 11011とした時の総エラー回数 ERR: 2+2/8
となる。 そこで、 エラー回数 ERRが最小の復号結果 11001を選択して出力する。 こ のようにすれば、 受信データに誤リがあっても原データ 1 1001を正しく復元でき る。 以上よリ、 軟判定ではエラー回数 ERRが整数でなくなるだけで硬判定と同じ である。
ところで、 以上のように受信データに基づいて可能な全パスのエラー回数 ERR を求め、 そのうち最小のパスより原データを復号する処理は煩雑である。 そこで 、 ビタビ復号は以下のように行う。 尚、 受信データは硬判定の結果 11 1000であつ たとする。 図 1 8の k =3の状態 aでは、 2つの入力パスがある。 その該当するパ スのみを取リ出して記述したものを図 1 9 ( a ) に示す。 2つのパスとは図中に 示したパス( 1)とパス(2)である。 受信データと各パスで得られる復号デ一タとの 間のハミング距離を計算すると図 1 9 ( b ) 、 ( c ) に示すように、 それぞれ 3 、 4となる。
この計算結果から、 「パス(1)をたどって状態 aに到達した」と仮定する方のハ ミング距離が、 「パス(2)を仮定」するょリ短い。 そのため、 パス(1)の方を送信さ れたデータであるという信頼性が高いため生き残りとして残し、 他のパスを捨て る。 このパスの取捨選択処理を各状態 a〜 (!について、 時間 k= lから連続して 実行すると任意の時間 kにおける各状態 a, b, c, dにそれぞれ至るハミング 距離が最短のパス (エラー最小のパス) を求めることができ、 以後、 同様の取捨 選択処理を継続することができる。
以上よリ、 N個の受信データが入力したとき、 k=Nにおける各状態 a, b, c , dにそれぞれ至るエラー最小の 4本のパスのうち、 エラーが一番少ないパス を決定し、 該パスに基づいて復号データを出力する。 図 20は受信データ Π1000 1111であるときの各時間 k、 各状態 a〜dに至る最短パスを示してぉリ、 線上の 数値はハミング距離である。 したがって、 状態 cに至るパスがエラー最小である から、 該パスにしたがって復号すると復号データは 11001になる。
この復号アルゴリズムは、 最もそれらしいものを選んでいくというゃリ方で最 尤復号法(maximun likelihood decod ing)と呼ばれ、 Vi terb iによって始められた ため Viterbiアルゴリズムとも呼ばれている。
(b) MAP復号の概略
ビタビ復号では、 各状態においてエラーの大きい方のパスを捨て、 該パスをェ ラー最小パス決定に何ら反映しない。 MAP復号ではビタビ復号と異なリ、 各状態 におけるエラーの大きいパスであってもエラー最小パス決定に反映し、 より精度 の高い復号データを得る。 以下では状態 a〜dを状態 m(=0~3)と表現する。
(b-1) MAP復号の第 1の特徴
MAP復号では時間 kの各状態(m=0, 1,2, 3)において、 復号データ u κが" 0", "1"と なる確率 α。, α ι, k(m)を、 ①時間(k- 1)の各状態における確率 α。, .-.(m),
C . in)と、 ②時間(k-1)及び時間 kにおける状態間のトレリス (パスの有無 ) と、 ③時間 kにおける受信データ ya, ybとに基づいて決定する。 ①の確率 ο, k-i (m), α χ, k_ i (m)は前方用確率という。 又、 ②のトレリスと③の受信デー タを考慮して求まる確率、 すなわち、 時間(k- 1)の状態 m' (=0~3)から時間 kの 状態 m (-0-3)に移行する確率は移行確率という。
(b- 2) MAP復号の第 2の特徴
ビタビ復号ではある時刻 kにおける各状態に至るエラー最小パスを 1〜 kまで の受信データと 1〜k迄の可能なパスを考慮して求めているが、 k〜Nまでの受 信データゃ k〜Nまでのパスをエラ一最小パス決定に何ら反映していない。 MAP 復号ではビタビ復号と異なリ、 k〜Nまでの受信データや k〜Nまでのパスを復 号処理に反映し、 ょリ精度の高い復号データを得る。
すなわち、 Nから kまでの受信データと トレリスを考慮して、 時間 kにおける 各状態 m (=0~3)を最小エラーパスが通過する確率 |3 k(m)を求める。 そして、 こ の確率 /3 k(m)を対応する状態の前方用確率 a。, k(m), α χ, k (m)に乗算することで 、 時間 kの各状態 (m=0, 1,2,3)において復号データ u κが" 0", "1"となるよリ精度 の高い確率を求める。
このため、 MAP復号では時間 kの各状態 (m=0,l,2,3)における確率 /3 k(m)を、 ① 時間(k+1)の各状態における確率 /3 k+1 (m)と、 ②時間 (k+1)と時間 kにおける状 態間のトレリス、 ③時間(k+1)における受信データ y a, ybに基づいて決定する 。 ①の確率 k(m)は後方用確率という。 ②のトレリスと③の受信データを考慮し て求まる確率、 すなわち、 受信データ" 0","1 "により時間(k+1)の状態 m' (=0~3) から時間 kの状態 m (=0-3)に移行する確率は移行確率である。
以上より MAP復号方法では図 2 1に示すように、
(1) 情報長を Nとするとき、 卜 kの符号化データ及び l〜kのトレリスを考慮 して、 時間 kにおける各状態 (m=0~3)の前方用確率 α 0. k(m),ひ , k(m)を演算す る。 すなわち、 各状態の前方用確率 a。, k (m), k (m)を時間(k-1)における各状 態の確率 α0, k_! (m), α ι, (m)と移行確率よリ求める。
(2) また、 N〜kの受信データ及び N〜kのパスを用いて時間 kにおける各状 態 (m=0~3)の後方用確率 /3 k(m)を演算する。 すなわち、 各状態の後方用確率 ^k (m)を、 時間(k+1)の各状態における後方用確率 k + (m)と移行確率を用レヽて演算 する。
(3)ついで、 時間 kにおけるこれら各状態の前方用確率及び後方用確率を乗算 し、 乗算結果(結合確率)
λ 0, k i,m) = α 0, k ( j · β k (mノ ,
λ i, k (m) = a i, k (m) · β k (m)
を得る。 (4)しかる後、 各状態における" 1"の確率の総和∑„ 。, k(m)と" 0"の確率の総和 ∑mX!, k(m)を求め、 その大小によリ第 k番目の原データ ukが 1である確率と 0 である確率を計算し、 確率の大きい方を第 k番目の復号データとして出力すると 共に、 尤度を出力するもので、 復号結果は軟判定出力である。
(c) 従来の第 1の MAP復号方法
(c - 1)MAP復号器の全体の構成
図 2 2は従来の第 1の MAP復号方法を実現する MAP復号器の構成図で、 符号化レ 一ト1 、 情報長 N、 原情報 u、 符号化データ x a, xb、 受信データ ya, ybは、 •符号化レート: R=l/2
•情報長: N
•原情報:11={111,12,113,..,1^}
'符^ T化 タ : Xa = {Xa l, X a 2, Xa 3, .. . , Xak, - .. , XaN}
• Xb={Xb l,Xb 2,Xb 3,* . .,Xbk,《* * , XbN}
•受信テータ : ya={ya 1, ya2, ya3, ..., y",—,yaN}
Figure imgf000009_0001
,yb2,yb3,...,ybk,—,ybN}
である。 すなわち、 情報長 Nの原情報 uょリ符号化データ xa, x bを生成し、 受 信時に符号化データに誤リが揷入されてデータ ya, ybが受信され、 この受信デー タょリ原情報 uを復号するものとする。
移行確率演算部 1は時間 kにおいて(ya k, ybk)を受信すれば、
(xak,xbk)力 s(0,0)である確率 γ。, k
(xak,x )力 (0,1)である確率 γ!. k
(xa xbJが U,0)である確率 γ 2. k
(xak,xb J力 (l,l)である確率 y 3. k
をそれぞれ演算して、 メモリ 2へ保存する。
前方用確率演算部 3は、 1つ前の時間(k_l)の各状態 m(=0~l)において、 原デー タ uk !が" 1" である前方用確率 α Jm)と原データ が" 0" である前方用 確率 a o^— Jm)と、 前記求めた時間 kにおける移行確率ァ。, k, γ i, k, Ύ 2, k, y 3, kとを用いて、 時間 kにおいて原データ が" 1 " である前方用確率 α !!! )と原データ が" 0" である前方用確率 a。,k(m)を演算してメモリ 4 a〜4 dに 記憶する。 なお、 必ず状態 m=0から始まるから、 前方用確率の初期値 α o,o(0) = ひ
Figure imgf000010_0001
し、 m≠0)である。
移行確率演算部 1及び前方用確率演算部 3は、 k二 k+1として上記演算を繰リ返 し、 k=lから k=Nまで演算を行って、 k = 1〜Nの各時間における移行確率 y 0, k , 71, k, Ύ 2, k, y 3, kと前方用確率ひ い a 0kを演算してメモリ 2, 4 a〜 4 dにそれぞれ記憶する。
しかる後、 後方用確率演算部 5は、 時間(k+1)の後方用確率 /3 k+1と移行確率 Ύ s, ^ ,^ を使用して時間!^の各状態!!! (=0~3)における後方用確率 K m)(m=0~3)を演算する。 ただし、 kの初期値は N-1であリ、 トレリス終結状態 m=0 とし、
Figure imgf000010_0002
とする。
結合確率演算部 6の第 1の演算部 6 aは時間 kの各状態 m(=0~3)における前方 用確率 αk (m)と後方用確率 /3 k (m)とを掛け合わせて k番目の原データ u kが" Γ である確率え L k(m)を演算し、 第 2の演算部 6 bは時間 kの各状態 m (=0-3)にお ける前方用確率 c 0, k(m)と後方用確率3 k(m)とを用いて原データ ukが" 0"である 確率 0, k(m)を演算する。
u k及び u k尤度演算部 7は時間 kの各状態 m (=0〜3)における" 1"である確率 λ!, k(m) (m=0~3)を加算すると共に、 時間 kの各状態 m(=0〜3)における" 0"であ る確率え 0, k(m) (m=0~3)を加算し、 加算結果、 ∑„ し k(m)と∑_„ぇ0. k(m)の大小 に基づいて k番目のデータ ukの "1","0"を決定すると共にその信頼度 (尤度) L (uk)を演算して出力する。
以後、 後方用確率演算部 5、 結合確率演算部 6、 !^及び!^尤度演算部ァは ニ k-1として上記演算を繰り返し、 k=Nから k=lまで演算を行って、 k=l~Nの各時間 における原データ ukの" 1","0"を決定すると共にその信頼度 (尤度) L(uk)を演 算して出力する。
(c - 2) 前方用確率演算
時間 kの各状態(m=0,l,2,3)において、 復号データ ιΐκが i ("0"または" 1") と なる前方用確率 a ^(m)は、 ①時間(k-1)の各状態における前方用確率ひ ' m) と、 ②時間(k-1)の状態 m' (=0~3)から時間 kにおける状態 m(=0~3)に遷移する 遷移確率 y i (Rk,n ,m)に基づいて次式 α ' k (m) =∑m- ∑ j γ i (Rk.m' , m) · a ' k-i (m' )/
mra- ∑ (∑ j 7 i (Rk,m' ,m) · a 'k-i (m' ) (1) によリ求まる。 ここで、 遷移確率 γ i (Rk,n ,m)は、 時間(k- 1)の状態 m' H~3) と時間 kにおける状態 m (=0-3)間のトレリス及び時間 kにおける受信データ y a , ybに基づいて求まるものである。 尚、 上式において分母は uk及び uk尤度演 算における割算で除去される部分であるため演算する必要がない。 上式において 、 時間 k、 状態 m=0で原データ ukが" 0" ," 1" となる前方用確率ひ °k(0), ひ 1 k (0)を図示すると図 23に示すようになる。
畳込み符号器が図 24に示すように、 2つのフリップフロップ FF1,FF2、 3つ の排他的論理和回路 EX0R卜 EX0R3を図示に示すように接続して構成されているも のとすると、 フリップフロップ FF1,FF2は(00), (01), (10), (11)の 4つの状態 m ( = 0-3) をとリ、 それぞれの状態において" 0"または "1"が入力すると、 入出力デ ータ及び前後の状態の関係は図 25に示すようなる。 ただし、 図 25において、 左側は時間 k- 1の状態 m' 、 右側は第 kデータが入力した後の時間 kの状態 m、 実 線は" 0" 入力時の状態遷移パス、 点線は" 1" 入力時の状態遷移パス、 パス上の 00,11,10,01は出力信号 xa, xbの値を示している。 例えば、 状態 ιη' =1におい て、 "0"が入力すると出力は 01で状態 m=3になり、 "1"が入力すると出力は 10で状 態 m=2になる。
遷移確率 γ ,m)は入力データ力 ("0"または "1")の時の時間(k- 1)の状 態 m' (=0~3)から時間 kにおける状態 m(=0~3)へ遷移する力確率であり、 次式
Ύ■ (Rk,m' ,m) = p · q · π (2)
によリ求まる。 ρは受信データに関係する値であるが、 q, πは時間(k- 1)の状 態 m' から時間 kの状態 mへの遷移パスが存在するか否か (トレリス) により決 まる一定値で、 図 26に示すようになリ、 遷移パスがなければ、
q · π = 0
となる。 これよリ遷移確率は図 26において 0印を付けた y o(Rk,0,0)と y , 2,0)の pを演算するだけで良く、 他は全て 0になる。 したがって、 図 23におい て、 零の遷移確率の線を除去すると、 ukが" 0" ," 1" となる前方用確率 a°k(0 ), α (0)は図 27に示すようなる。 すなわち、 a °k(0) = r o(Rk, 0,0) · a o k-, (0) + 7 o(Rk,0, 0) · a 1 k— i (0) (3) a 1 k(0) = y 1 (Rk, 2,0) - a °k-1 (2) + 7! (Rk , 2, 0) · a 1 k- ! (2) (4)
より求まる。
遷移確率は状態間のトレリス及び受信データに関係し、 この遷移確率よリ、 ① (xak, xbk)力 S(0,0)である移行確率 y 0. k, ②(xak, x )力 S (0, 1)である移行 確率 y L k、 ③(xak, xbj力 S(1,0)である移行確率 γ 2, k、 ④(xak, xbk)が(1, 1)である移行確率 γ 3, kが求まる。 例えば、 (3)式は(xak, x b»<) = (0, 0)の遷移 パスを介して a °k(0)を求めるものであるため、
遷移確率 γ 0 (R k, 0 , 0) =移行確率 γ 0, K
となリ、 又、 (4)式は(xak, xbk) = (l, 1)の遷移パスを介して α (0)を求める ものであるため、
遷移確率 γ ,?^ 移行確率ァ^ k
となる。 従って、 (3),(4)式は次式、
a °k(0) = r a k- a \-1 (0) + ro, ^ α -Λ0) (3)'
(0) = γ 3, k- a °k-1 (2) + 73, k- a \-1 (2) (4) 7
となり同様に、 m=ト 3のひ。 k(m), a ^(m)が求まる。
(c-3) 後方用確率演算
時間 kの各状態(m=0,l,2,3)において、 各状態の後方用確率; 3 k(m)は、 ①時間( k+1)の各状態における後方用確率 iS k + , (m)と、 ②時間 kの状態 m (=0-3)から時間 (k+1)における状態 (=0~3)に遷移する遷移確率 γ i (Rk + 1,m,n )に基づいて 次式
3 k(m) =∑m' ∑ i γ i (Rk + 1, m,m' )· iS k+i (m' )/
mm' ∑ i∑ j γ , (Rk,m,n ) · a 'k(m) (5)
によリ求まる。 ここで、 遷移確率 y i (Rk + 1,m,n )は、 時間 kの状態 m (=0~3)と 時間(k + 1)における状態 m' (=0~3)間のトレリス及び時間 k+1における受信デー タ ya, ybに基づいて求まるものである。 尚、 上式において分母は尤度演算にお ける割算で除去される部分であるため演算する必要がなレ、。
上式において、 時間 k、 状態 m=0における iS k (0)を図示すると図 2 8に示すよ うになる。 前述のように、 遷移パスが存在しなければ q · π = 0となるから、 遷 移確率は y o (Rk+ 1,0,0)と γ Rk + O, 1)の Pを演算するだけで良く、 他は全て 0 になる。 したがって、 図 2 8において、 零の遷移確率の線を除去すると後方用確 率 iS k (0)は図 2 9に示すようなる。 すなわち、
3 k (0) = 7 o(Rk+.,0,0) - /3 , + 1 (0) + γ i (Rk+i,0, 1) · β k+ 1 (l) (6) ょリ求まる。
遷移確率は状態間のトレリス及び受信データに関係し、 この遷移確率よリ、 ① (xak + 1, xbk + 1)力 s(0,0)である移行確率 γ0, k十!, ②(xak + 1, xbk + 1)力 (0, 1)で ある移行確率 k + 1、 ③(xak+1. xbk + 1)力 (l,0)である移行確率 y 2. K+ 1、 ®( xak+1, xbk+1)が(1, 1)である移行確率 γ 3, k +1が求まる。 例えば、 (6)式の右辺 第 1項は(X ak十 i, xbk+1) = (0, 0)の遷移パスを介して β k (0)を求めるものであ るため、
遷移確率ァ00^ + 1,0,0)=移行確率 0. k+l
となリ、 又、 (6)式の右辺第 2項は(xak+1, xbk + 1) = (l, l)の遷移パスを介して 3 k(0)を求めるものであるため、
遷移確率710^+1,0, 1 )=移行確率 3, k +1
となる。 従って、 (6)式は
/3 k (0) = 7 o, k+i - /3 k +1 (0) + 73. k+1- /5 k + 1 (l) (6)'
となる。 同様に、 ^=1~3の 1),;3 2), /31;(3)を求めることができる。
(c-4) 結合確率、 尤度演算
図 3 0は結合確率及び u k及び u k尤度演算の説明図である。
時間 kにおける各状態の前方用確率 a。, k(m), C , k(m)及び後方用確率 /3 k(m) が求まれば、 これらを乗算して結合確率
\( ) = a (m) · ^ k (m),
λ 1 k (m) = 1 k i,m) · β k (m)
を演算する。 しかる後、 各状態における "1 "の確率の総和
Figure imgf000013_0001
Q k (ni)と" 0"の確率 の総和
Figure imgf000013_0002
を求め、 次式
L (u) = log [∑a (m)/∑m (m)] (7)
によリ尤度を出力する。 又、 L (u) > 0であれば復号結果 uk=lを、 L (u) < 0で あれば復号結果
Figure imgf000013_0003
k(m)と" 0" の確率の総和∑m i m)の大小によリ第 k番目の原デ一タ ukが 1である確率と 0である確率を計算し、 確率の大きい方を第 k番目の復号データとして出力する
(c-5)第 1の MAP復号方法の問題点
図 2 2の従来の第 1の MAP復号方法では使用するメモリが非常に多い問題があ る。 すなわち、 第 1の MAP復号方法は、 移行確率記憶用に 4 XNのメモリを、 前方 用確率記憶用に m (状態数) X2XNのメモリを必要とし、 合計(4+mX2) XNのメ モリを必要とする。 そして、 実際の演算は軟判定信号を伴うからさらに 8倍程度 以上のメモリを必要とする。 例えば、 信号長 N = 5120bit、 拘束長 = 3で状態数 m=4、 軟判定量子化 bit数 =8とすれば、 合計
(4+4 X 2) X 5120 x 8=491.52kbit
のメモリが必要になる。
(c - 6)変形例
移行確率記憶用のメモリ 2は必ずしも必要でなく、 必要の都度、 移行確率 y s, k +1 (s=0, 1,2,3)を計算して後方用確率 β k (m)を演算するように構成できる。 図 3 1はメモリ 2を削除した第 1の MAP復号方法を実現する AP復号器の変形例である 。 この変形例では、
(4 X 2) X 5120 X 8=327.7kbit
のメモリが必要になる。
(d) 従来の第 2の MAP復号方法
そこで、 メモリを削減するために、 前方用確率演算と後方用確率演算の演算順 を入替えて演算する方法が考えられる。 図 3 2はかかる第 2の MAP復号方法を実 現する MAP復号器の構成図でぁリ、 図 2 2と同一部分には同一符号を付している 。 入出力反転部 8は受信データの出力順序を適宜反転するもので、 全受信データ を記憶するメモリと受信データを入力順と逆順にあるいは同順に出力するデータ 出力部を備えている。 復号法として MAP復号方法を採用するターボ復号器では受 信データをインタリーブする必要があるため全受信データを記憶するメモリが存 在するから、 上記入出力反転部 8のメモリとして該インタリ一ブ用のメモリを兼 用でき、 メモリ負担はない。 移行確率演算部 1は時間 k (=N)として受信データ(yak,ybk)を用いて、
(xak,xbk)力 s(0,0)である確率 y 0, k
(xak,xbk)力 s(0,l)である確率 γ k
(xak,xbk)力 s(l,0)である確率 y 2, k
(xak,xbk)力 s(l,l)である確率 y 3, k
をそれぞれ演算して、 メモリ 2へ保存する。
また、 後方用確率演算部 5は、 時間 k (=N)の後方用確率 k (m)と移行確率
Ύ s. 3=0,1,2,3)を使用して時間卜1の各状態111 (=0~3)における後方用確率 k_ i(m) (m=0~3)を演算してメモリ 9に記憶する。
以後、 移行確率演算部 1及び後方用確率演算部 5は、 k=k-lとして上記演算を 繰リ返し、 k=Nから k=lまで演算を行って、 k=l~Nの各時間における移行確率 Ύ 0. Ύ 1. k, Ύ 2. k, y 3, kと後方確率 /3 k(m)を演算してメモリ 2, 9に記憶す る。
しかる後、 前方用確率演算部 3は、 時間(k- 1)において原データ Uk iが" 1" で ある前方用確率ひ k dii)と原データ が" 0" である前方用確率
Figure imgf000015_0001
と、 前記求めた時間 kにおける移行確率 Ύ 0, k> / 1, k, 2, k » y 3, k とを用いて、 時間 kの各状態 m(=0~3)において ukが" 1" である前方用確率 ひ !^と!^が" 0" である前方用確率 a。, k(m)を演算する。 ただし、 kの初期 値は 1である。
結合確率演算部 6は時間 kの各状態 0~3における前方用確率 α L k(m)と後方用確 率 /3k(m)とを掛け合わせて k番目の原データ ukが" 1"である確率; I!, k(m)を演算 し、 同様に、 時間 kの各状態 0~3における前方用確率 a o. k(m)と後方用確率 kdii) とを用いて原データ ukが" 0"である確率え。, k (m)を演算する。
u k及び u k尤度演算部 7は時間 kにおける各状態 0〜3の" 1"である確率 αι. k(m) (m=0~3)を加算すると共に、 時間 kにおける各状態 0〜3の" 0"である確率 α0, k(ni) (m=0~3)を加算し、 加算結果、 ∑ m α , , k (m)と∑ ra a 0, k (m)の大小に基づ いて k番目のデータ U kの " ',"0"を決定すると共にその信頼度 (尤度) L (Uk)を 演算して出力する。
以後、 前方確率演算部 3、 結合確率演算部 6、 uk及び uk尤度演算部 7は k=k+ 1として上記演算を繰り返し、 k=lから k=Nまで演算を行って、 k=l~Nの各時間に おける ukの "1","0"を決定すると共にその信頼度 (尤度) L (uJを演算して出力 する。
以上、 第 2の MAP復号方法では、 図 3 3のタイムチャートに示すように、 前半 において移行確率演算、 後方用確率演算及び演算結果のメモリへの記憶処理を行 い、 後半において前方用確率演算、 結合確率演算、 原データ及び尤度演算処理を 行っている。 すなわち、 第 2の MAP復号方法では、 前方用確率 a ^ kdn), a。,k(m )を記憶しないで、 後方用確率 i3 k(ni)を記憶する。 この結果、 第 2の MAP復号方法 で必要とするメモリは、 移行確率記憶用に 4 X N、 後方用確率記憶用に状態数 m X Nを必要とするだけとなリ、 必要とするメモリは合計(4+m) XNとなり、 図 2 2の 第 1の MAP復号方法に比べ必要とするメモリ量を減少できる。 減少率 ηは
η = (4+m)/(4+mX2)
となり、 状態数 mが小さい場合 (拘束長 =3とすれば状態数 m=4)の減少率は、
Figure imgf000016_0001
となリ、 およそ 30%のメモリ削減が可能となる。 又、 状態数 mが多くなると、 η = / (mX 2) =50%
となる。
尚、 移行確率記憶用のメモリ 2は必ずしも必要でなく、 その都度移行確率 γ 5 , ,^ を計算して前方用確率ひぃ !!!), 《。,k (m)を演算するように構成で きる。 図 34はメモリ 2を削除した第 2の AP復号方法を実現する MAP復号器の変 形例である。 この変形例では、 必要とするメモリは合計 (mXN) となり、 図 3 1の第 1の MAP復号方法の変形例に比べ必要とするメモリ量を減少できる。 減少 率 は
η =mXN/ (mX 2) XN=50%
となる。
(e)第 3の AP復号方法
第 2の MAP復号方法によれば、 第 1の MAP復号方法に比べて使用メモリを減少で きるが、 まだまだ減少する余地がある。
図 3 5 (a ) は更なる使用メモリの減少が可能な第 3の MAP復号方法の演算シ 一ケンス説明図で、 第 2の MAP復号方法を更に発展させたものである。 尚、 図 3 5では、 第 2の MAP復号方法と第 3の MAP復号方法を対比させるために、 (b) に 第 2の MAP復号方法の演算シーケンスを付記している。 第 3の MAP復号方法は、 ΙΕΕΕ JOUNAL ON SELECTED AREAS IN COMMUNICATIONS. VOL.16, NO.2, FEBURUAR Y 1998, "An Intuitive Justification and a Simplified Implementation of the MAP Docoder for Convolution Codes" Andrew J. Vi terb ijに開示されてい る方法である。
図 3 5において、 B演算は後方用確率演算 移行確率演算を意味し、 A演算は 前方用確率演算 Z移行確率演算を意味し、 L演算は結合確率演算 尤度演算を意 味している。 第 2の MAP復号方法では、 (b) に示すように、 (1) B演算を Nよ リ 1まで全て実行してメモリに記憶し、 しかる後、 (2) 1より Nまで順次 A演算、 L演算を実行しながら uk及び尤度 L (uk)を出力する。 しかし、 第 2の MAP復号方 法では、 後方用確率 /3 k(m)を記憶するために NX mのメモリを必要とする。
そこで、 第 3の MAP復号方法では、 k =1~Nを Mづっ等分割し、 以下のように MAP 復号を行う。
まず、 (1) B演算を k=2M〜k=0まで行う。 この B演算において、 k=Nより後 方用確率 i3 k(m)を演算せず、 途中の k=2Mの位置から演算を開始する。 このため 、 前半の k=2M〜k=Mの間に求まる後方用確率 j8 k(m)は信用できないから捨て、 後 半の の間に求まる後方用確率 /3 k(m)はある程度信用できるから、 メモリ に記憶する。 (2) ついで、 k=0における A演算を行い、 k=lの A演算結果 a ^(m) , とメモリに記憶されている /3 idn)を用いて L演算を行い、 結合確率に 基づいて複後結果 尤度 ( U i) を演算する。 以後、 同様に k=2〜k=Mまで A 演算を行い、 該 A演算結果とメモリの B演算結果にょリ L演算を行う。 以上によ り、 k=l〜 Mまでの復号結果 uk、 尤度 (uk) の演算が終了する。
ついで、 (3) B演算を k=3M〜k=M+lまで行う。 この B演算において、 k=Nよ リ後方用確率 /3 k (m)を演算せず、 途中の k=3Mの位置から演算を開始するため、 前半の k=3M〜k=2M+lの間に求まる後方用確率 k(m)は信用できないから捨て、 後半の k=2M〜 k=M+ 1の間に求まる後方用確率 /3 k (m)はある程度信用できから、 メ モリに記憶する。 (4) ついで、 k=M+lにおける A演算を行い、 k=M+lの A演算結果 α i , + i (m) , ひ 。, M+1 (m)とメモリに記憶されている /3 M+ 1 (m)を用いて L演算を行 レ、、 結合確率に基づいて復号結果 uM+1、 尤度 (uM+1) を演算する。 以後、 同 様に、 k 1+2〜k=2Mまで A演算を行い、 該 A演算結果とメモリの B演算結果によ リ L演算を行う。 以上にょリ、 k=M+卜 k=2Mまでの復号結果 uk、 尤度 L (u k) の 演算が終了する。
ついで、 同様に、 (5) B演算を k=4M〜k=2M+lまで行い、 後半の k=3M〜k=2M+l の間に求まる後方用確率 /3 k(m)をメモリに記憶する。 (6) ついで、 k=2M+lにおけ る A演算を行い、 k=2M+lの A演算結果 a ZM+! On), α。, 2M+1 (m)とメモリに記憶 されている 2M+ 1 (m)を用いて L演算を行い、 結合確率に基づいて復号結果 u2M+ 1 , 尤度 L (u2M+i) を演算する。 以後、 k=2M+2〜k=3Mまで A演算を行い、 該 A 演算結果とメモリの B演算結果にょリ L演算を行う。 以上にょリ、 k=2M+l~k=3M までの復号結果 U k、 尤度 (u j の演算が終了する。
以後、 同様の演算を行い、 最後に、 (7) 8演算を1^^(=5¾0〜¾:=3¾1+1まで行っ て求まる後方用確率3 k(m)を全てメモリに記憶する。 (8) ついで、 k=3M+lにおけ る A演算を行い、 k=3M+lの A演算結果 a SM+! dn), a 03M+1 (m)とメモリに記憶 されている 3M+i (m)を用いて L演算を行い、 結合確率に基づいて復号結果 u3M+ 尤度し (u3M+ i) を演算する。 以後、 k=3M+2〜k=N(=5M)まで A演算を行い、 該 A演算結果とメモリの B演算結果にょリ L演算を行う。 以上にょリ、 k=3M+卜 k =Nまでの復号結果 U k、 尤度 L ( u k) の演算が終了する。
この第 3の MAP復号方法によれば、 後方用確率記憶用のメモリを 2Mに減少でき 、 しかも、 最初の復号結果 1^、 尤度し (U l) を出力するまでの時間を短縮でき る利点がある。
しかし、 第 3の MAP復号方法では、 後方用確率 /3 k(m)を k=Nから演算せず、 途中 から演算しているため、 後方用確率 /3 k (m)が正確でなく、 MAP復号精度が劣化す る問題がある。
又、 第 3の AP復号方法では、 2Mの B演算後に Mの A演算を行うため、 タイムチ ヤート的に図 3 6 (a ) に示すようになる。 しカゝし、 これでは A演算が断続する ため演算時間がかかる。 そこで、 図 3 6 (b) に示すように B演算の前半と後半 を同時に行うことによリ、 A演算を連続的に行なえるようにして演算速度を向上 させている。 しかし、 かかる方法では、 B演算の前半と後半を同時に行う必要が あるため B演算回路が 2つ必要になる問題がある。
又、 第 3の MAP復号方法では、 トータル的に後方用確率 /3 k (m)の演算を重複し て 2回行っているため消費電力が大きくなる問題がある。
以上から本発明の目的は、 メモリを削減でき、 しかも、 後方用確率 /3 k (m)を正 確に計算して AP復号の精度を向上することである。
本発明の別の目的は、 後方用確率 β k (m)の演算のために 2つの演算回路がなく ても所要の演算速度が得られるようにすることである。
本発明の別の目的は、 後方用確率 k (m)を 1回だけ演算するだけで後方用確率 β k (m)を正確に計算でき、 消費電力の点で有利にすることである。
発明の開示
第 1の最大事後確率復号方法においては、 (1) 第 N後方用確率から第 1後方用 確率まで逆方向に後方用確率を演算し、 第 m i後方用確率〜第 1後方用確率を保 存し、 ついで、 第 1前方用確率を演算し、 該第 1前方用確率と前記保存してある 第 1後方用確率を用いて第 1番目の復号結果を求め、 同様に、 第 2〜第 n 番目 の復号結果を求める。 (2) しかる後、 第 N後方用確率から第(mi + Ι)後方用確率 まで逆方向に後方用確率を演算し、 第 m 2後方用確率〜第(rm + 1)後方用確率を保 存し、 第 (m + 1) 前方用確率を演算し、 該第 (m i + 1) 前方用確率と前記保存し てある第 (nn+Ι) 後方用確率を用いて第 (n + 1) 番目の復号結果を求め、 同様 に、 第(n +2)〜第 m2番目の復号結果を求め、 (3) 以後、 同様にして第 (m2+ l )〜第 N番目の復号結果を求める。
以上のようにすれば、 ii ^ r , m2= 2 r , · · · とすれば、 後方用確率を記 憶するのに r X m (状態数) のメモリ容量を必要するだけでよく、 しかも、 常に k = Nよリ後方用確率を演算するため、 後方用確率 i3 k (m)を正確に計算して AP 復号の精度を向上することができる。
別の最大事後確率復号方法においては、 (1) 第 N後方用確率から第 1後方用確 率まで後方用確率を逆方向に演算し、 離散的に第 ms後方用確率, 第 m (s D後方 用確率, · · ·, 第 m2後方用確率を保存すると共に、 第 後方用確率〜第 1後方 用確率を連続的に保存し、 第 1前方用確率を演算し、 該第 1前方用確率と前記保 存してある第 1後方用確率を用いて第 1番目の復号結果を求め、 同様に、 第 2〜 第 番目の復号結果を求め、 (2) しかる後、 前記保存してある第 m2後方用確率 から始めて第(π^ + 1)後方用確率まで演算して保存し、 第 (n +Ι) 前方用確率を 演算し、 該第 (n +1) 前方用確率と保存してある第 (n +1) 後方用確率を用い て第 (n +1) 番目の復号結果を求め、 同様に、 第(n +2)〜第 m2番目の復号結 果を求め、 (3) 以後、 同様にして第 (m2+ l )〜第 N番目の復号結果を求める。 以上のようにすれば、 11^ = 1·, m2= 2 r , · · · とすれば、 後方用確率を記 憶するのに r X m (状態数) のメモリ容量を必要するだけでよい。 又、 第 N後方 用確率から第 1後方用確率まで後方用確率を逆方向に演算し、 得られた後方用確 率を離散的に記憶し、 必要に応じて該離散的に記憶した後方用確率から始めて必 要数の後方用確率を演算して利用するようにしたから、 該後方用確率 β k (m)を正 確に計算でき、 MAP復号の精度を向上することができる。 しかも、 その都度、 k = Nよリ後方用確率を演算して必要数の後方用確率を求めなくても良いため演算 速度を向上することができる。 又、 後方用確率 の演算のために 2つの演算 回路がなくても所要の演算速度が得られ、 更には、 後方用確率 k (m)を 1回だけ 演算するだけでよいため消費電力の点で有利である。
図面の簡単な説明
図 1は通信システムの概略図である。
図 2はターボ符号器の構成図である。
図 3は畳み込み符号器の状態遷移図である。
図 4はターボ復号器の構成図 である。
図 5は本発明の第 1の MAP復号方法の演算シーケンス説明図である。
図 6は第 1実施例の MAP復号器の構成図である。
図 7は本発明の第 2の MAP復号方法の演算シーケンス説明図である。
図 8は第 2実施例の AP復号器の構成図である。
図 9はターボ復号器の構成図である。
図 1 0はターボ復号の動作説明図である。
図 1 1は畳込み符号器の構成図である。 図 1 2は畳込み符号器の入出力関係説明図である。
図 1 3は畳込み符号器の状態説明図である。
図 1 4は畳込み符号器の状態と入出力関係図である。
図 1 5は格子状表現説明図である。
図 1 6は硬判定、 軟判定説明図である。
図 1 7は畳込み符号の復号化 (硬判定) 説明図である。
図 1 8は畳込み符号の復号化 (軟判定) 説明図である。
図 1 9は畳込み符号の複号化の説明図である。
図 2 0は任意の kにおける各状態のエラー最小パスの説明図である。
図 2 1は MAP復号の概略説明図である。
図 2 2は従来の第 1の MAP復号方法を実現する MAP復号器の構成図である。 図 2 3は前方用確率演算説明図である。
図 2 4は畳込み符号器の構成図である。
図 2 5は畳込み符号器の状態と入出力関係図である。
図 2 6は遷移確率の説明図である。
図 2 7は遷移確率 =0の線を削除した前方用確率演算説明図である。
図 2 8は後方用確率演算説明図である。
図 2 9は遷移確率 =0の線を削除した後方用確率演算説明図である。
図 3 0は結合確率及び尤度演算、 復号結果説明図である。
図 3 1は従来の第 1の AP復号方法を実現する MAP復号器の変形例である。
図 3 2は従来の第 2の MAP復号方法を実現する MAP復号器の構成図である。 図 3 3は第 2の MAP復号方法のタイムチヤ一トである。
図 3 4は従来の第 2の MAP復号方法を実現する MAP復号器の変形例である。 図 3 5は従来の第 3の MAP復号方法の演算シーケンス説明図である。
図 3 6は従来の第 3の MAP復号方法の問題点説明図である。
発明を実施するための最良の形態
(A) ターボ符号
MAP復号方法はターボ符号において大きな効果を発揮する。 図 1はターボ符号 器及びターボ復号器を含む通信システムの構成図であり、 1 1はデータ送信側に 設けられたターボ符号器、 1 2はデータ受信側に設けられたターボ復号器、 , 1 3はデータ通信路である。 又、 uは伝送する長さ Nの情報データ、 xa, xb, x c はターボ符号器 1 1で情報データ uを符号化した符号化データ、 y a, y b, y c は符号化データ xa, xb, x cが通信路 1 3を伝搬し、 雑音やフエ一ジングの影 響を受けた受信信号、 u' はターボ復号器 1 2で受信データ ya, yb, y cを復 号した復号結果でぁリ、 それぞれ以下のように表現される。
原データ u = {ul u2, u3, .. , UN}
符号化データ X a={xa 1 > X a X a • · · > X a k j • · · j X a
x b={xb 1? X b , X b j ... ? X b
Figure imgf000022_0001
受信データ y a={ya , y , y • · " j Υ k > • · ·, Υ
, , • · ·,
c , , , ,
ターボ符号器 1 1は情報長 Nの情報データ uを符号化して符号化データ X a, xb, xcを出力する。 符号化データ xaは情報データ uそのものであリ、 符号化 データ xbは情報データ uを符号器 ENC1で畳み込み符号化したデータ、 符号化デ ータ x cは情報データ uをインタリーブ (π) して符号器 ENC2で畳み込み符号化 したデータである。 すなわち、 ターボ符号は、 畳み込みを 2つ用いて合成したも のである。 ただし、 インタリーブ出力 X a' は符号化データ X aと順番が異なるだ けであるため出力しない。
図 2はターボ符号器 1 1の詳細図であり、 1 1 a , l i bは同一構成の畳み込 み符号器(ENC1,ENC2)、 1 l cはインタリーブユニット(π)である。 畳込み符号器 1 1 a , 1 1 bは再帰組織畳込み符号を出力する構成になってぉリ、 2つのフリ ップフロップ FF1,FF2、 3つの排他的論理和回路 EXORl~EXOK3を図に示すように接 続して構成されている。 フリップフロップ FF1,FF2は(00), (01), (10), (11)の 4 つの状態をとリ、 それぞれの状態において 0または 1が入力すると、 図 3に示すよ うに状態が遷移し、 かつ、 xa, xbを出力する。 図 3において、 左側は受信デ一 タ入力前の状態、 右側は入力後の状態、 実線は" 0" 入力時の状態遷移パス、 点 線は" 1" 入力時の状態遷移パス、 パス上の 00, 11, 10, 01は出力信号 xa, x bの値 を示している。 例えば、 状態 0(00)において、 "0"が入力すると出力は 00で、 状態 は 0(00)になり、 "1"が入力すると出力は 11で、 状態は 1(10)になる。
図 4はターボ復号器の構成図である。 ターボ復号は、 受信信号 ya, yb, yc のうち、 まず yaと ybを使って、 第 1の要素復号器 DEC1で復号を行う。 要素復号 器 DEC1は軟出力要素復号器であり、 復号結果の尤度を出力する。 次に、 第 1の要 素復号器 DEC 1から出力された尤度と y cを用いて第 2の要素復号器 DEC2で同様の 復号を行う。 すなわち、 第 2の要素復号器 DEC2も軟出力要素復号器でぁリ、 復号 結果の尤度を出力する。 ycは原データ uをインタリーブしたものを符号化した xcに対応する受信信号なので、 第 1の要素復号器 DEC1から出力される尤度は第 2の要素復号器 DEC2に入力する前にインタリーブ (π) する。
第 2の要素復号器 DEC2から出力された尤度はディンタリーブ (π— された後 、 第 1の要素復号器 DEC1への入力としてフィードバックされる。 また、 u' は第 2の要素復号器 DEC2のディンタリ一ブ結果を" 0", "1"判定した復号データ(復号結 果)である。 以後、 上記の復号操作を所定回数繰り返し行うことによリ、 誤リ率 が低減する。
かかるターボ要素復号器におけ第 1、 第 2の要素復号器 DEC1,DEC2として MAP要 素復号器を使用することができる。
(B) 第 1実施例
(a ) 演算シーケンス
図 5は本発明の第 1の MAP復号方法の演算シーケンス説明図である。
(1) 最初は、 k =Nの第 N後方用確率から始めて k = 1の第 1後方用確率まで 逆方向に後方用確率 3 k(m) (k=N〜l) を全て演算し、 (2) 第 後方用確率 /3m ^m)〜第 1後方用確率 /3 i dn)を保存する。 ついで、 (3) 第 1前方用確率 a ^ (m), a \ (m)を演算し、 該第 1前方用確率と前記保存してある第 1後方用確率 β! (m) を用いて第 1番目の復号データ 及び尤度 L (i )を求め、 同様に、 第 2〜第 mi 番目の復号データ u2〜uml及び尤度 L (u2)~L (uml)を求める。
(4) しかる後、 第 N後方用確率から第(n + 1)後方用確率まで逆方向に後方用 確率を演算し、 (5) 第 m2後方用確率 iSm2(m)〜第 (mi+l)後方用確率 iSml†1(m)を 保存する。 ついで、 (6) 第 (π^ + l) 前方用確率 α 1 + 1 (111) , aQ ml + 1 (m)を演算 し、 該第 (im+1) 前方用確率と前記保存してある第 (mi + l) 後方用確率^ ml + 1 (m)を用いて第 (im+1) 番目の復号データ uml + 1及び尤度 L(uml + 1)を求め、 同 様に、 第(m +2)〜第 m2番目の復号データ uml + 2〜um2及び尤度 L (uml + 2)~L (u m2)を求める。 (7) 以後、 同様にして第 (m2+l)〜第 N番目の復号データ um2十 〜uN及び尤度 L (um2+i)~L (ujを求める。
(b) 第 1実施例の MAP復号器
図 6は第 1実施例の MAP復号器の構成図である。
MAP制御部 50は MAP復号器全体を制御し、 図 5の演算シーケンスに従って各部 の演算タイミング、 各メモリへのデータの読出し、 データ書き込みをなどを制御 する。 入出力入替部 5 1は受信データの出力順序を適宜入れ替えて出力するもの で、 全受信データを記憶するメモリと受信データを入力順と逆順にあるいは同順 に出力するデータ出力部を備えている。 ターボ復号器では受信データをィンタリ ーブする必要があるため全受信データを記憶するメモリが存在するから、 上記入 出力入替部 5 1のメモリとして該インタリーブ用のメモリを兼用でき、 メモリ負 担はない。
移行確率演算部 52は時間 k (=N)として受信データ(yak, ybk)を用いて、
(xak,xbk)カ (0,0)である確率 γ 0, k
(xak,xb J力 S(0,1)である確率 γ i, k
(xak,xbk)力 (l,0)である確率 γ 2, ,
(xak,xbk)力 s(l,l)である確率 y 3, k
をそれぞれ演算する。 また、 後方用確率演算部 53は、 時間 k(=N)の後方用確率 i3k(m)と移行確率 γ s, k(s=0, 1,2,3)を使用して時間卜1の各状態111(=0~3)におけ る後方用確率 i3k— ,
Figure imgf000024_0001
を演算する。 以後、 移行確率演算部 52及び後方 用確率演算部 53は、 k=k- 1として上記演算を繰リ返し、 k=Nから k=lまで演算を 行い k irii lの第 後方用確率 /3mi (m)〜第 1後方用確率 ]3 Jm)をメモリ 5 4に保存する。
しかる後、 移行確率演算部 52は時間 k (=1)として受信データ(yak,ybk)を用 いて、
(xak, J力 (0,0)である確率 γ o, k
(xakk)力 (0,l)である確率 γ i. k
(xak,xbk)力 s(l,0)である確率 γ 2. k
(xal(,xbk)力 である確率 y 3, k
をそれぞれ演算する。 また、 前方用確率演算部 5 3は k = 1とし、 時間(k - 1)に おける前方用確率 α 1 k— , (m), c ° k— (m)と前記求めた時間 kにおける移行確率 γ 0 , 71, k, γ 2, k, γ 3. kとを用いて、 時間 kの各状態 m(=0~3)における前方用 確率 1 k(m), 《°k (m)を演算する。
結合確率演算部 5 6は時間 kの各状態 m(=0~3)における前方用確率 α (m)と後 方用確率^ k (m)とを掛け合わせて k番目の原データ u kが "1"である確率 λ (m) を演算し、 同様に、 時間 kの各状態 m(=0~3)における前方用確率ひ Q k(m)と後方用 確率 ;3 k(m)とを用いて原データ u kが" 0"である確率え °k(m)を演算する。
u k及び u k尤度演算部 5 7は時間 kにおける各状態 m(=0〜3)の "1"である確率 の総和∑„ 。k(m)と" 0"である確率の総和∑m i
Figure imgf000025_0001
を求め、 次式
L (u) = log i∑m lAm)/∑mX (m)l
により尤度を出力する。 又、 L (u) > 0であれば復号結果 uk=lを、 L (u) < 0で あれば復号結果 u k = 0を出力する。
以後、 移行確率演算部 5 2、 前方確率演算部 5 5、 結合確率演算部 5 6、 uk 及び uk尤度演算部 5 7は k=k+lとして上記演算を繰り返し、 k=lから k^nuまで演 算を行って、 k=l~miの各時間における uk及びその信頼度 (尤度) L (uk)を演算 して出力する。
k=lから k=miまでの L 及び L(uk)の演算が終了すれば、 MAP制御部 5 0の制御 によリ、 移行確率演算部 5 2は時間 k (=N)として受信データ(ya k, ybk)を用いて 、 確率 γ。, k, γ k, y 2, k, y 3, kをそれぞれ演算する。 また、 後方用確率演算 部 5 3は、 時間 k(=N)の後方用確率 ;8 k(m)と移行確率 γ s, k (s=0, 1, 2, 3)を使用し て時間 k- 1の各状態 m(=0~3)における後方用確率 k- i (m) (m=0~3)を演算する。 以後、 移行確率演算部 5 2及び後方用確率演算部 5 3は、 k=k- 1として上記演 算を繰リ返し、
Figure imgf000025_0002
の第 m2後方用 確率; Sm2(ni)〜第 π^ + l後方用確率 /3ml + 1(m)をメモリ 54に保存する。
しかる後、 移行確率演算部 52は時間 k (=mI + 1)として受信データ(ya ybk) を用いて、 確率 y 0, γ!, k> γ 2, k, γ 3, kをそれぞれ演算する。 また、 前方用 確率演算部 53は k-nii + lとし、 時間(k - 1)における前方用確率ひ 1 k ^m), a°k— !dn)と、 前記求めた時間 kにおける移行確率 γ。, k, γ i. k, γ 2. k, γ 3. k とを用いて、 時間 kの各状態 m(=0~3)における前方用確率ひ 1 k(m), a°k(m)を演 算する。 結合確率演算部 56、 uk及び uk尤度演算部 57は前述と同様の演算を 行って u k及び尤度 L (uk)を出力する。
以後、 移行確率演算部 52、 前方確率演算部 55、 結合確率演算部 56、 uk 及び uk尤度演算部 57は k=k+lとして上記演算を繰り返し、 + 1から k=m2ま で演算を行って、 k-m! + n^の各時間における uk及びその信頼度 (尤度) L( uk)を演算して出力する。
以上の演算が終了すれば、 以後、 同様にして第 (1112+1)〜第1^番目の復号デ 一タ um2+1〜uN及び尤度 L (um2+1)~L (uN)を求める。
第 1の発明によれば、
Figure imgf000026_0001
3 r · · .の場合、 後方用 確率を記憶するのに r Xm (状態数)のメモリ容量を必要するだけでよく、 しか も、 常に k=Nより後方用確率を演算するため、 後方用確率 /3k(m)を正確に計算 して MAP復号の精度を向上することができる。
(C) 第 2実施例
(a) 演算シーケンス
図 7は本発明の第 2の MAP復号方法の演算シーケンス説明図である。
(1) 最初は、 k-Νの第 N後方用確率から始めて k = 1の第 1後方用確率まで 逆方向に後方用確率 3 k(m) (k=N~l) を演算し、 離散的に第 ms後方用確率 /3ms (I), 第 m (s-u後方用確率 i3m(s— D (m), ···, 第 m3後方用確率 m3 (m) , 第 m2 後方用確率 β m2 (m)を保存すると共に、 第 後方用確率 (m)〜第 1後方用 確率 /3 iOn)を連続的に保存する。
(2) ついで、 第 1前方用確率ひ 1 , ひ。バ!!!)を演算し、 該第 1前方用確率と 前記保存してある第 1後方用確率 β 1 (m)を用いて第 1番目の復号データ u び 尤度 L(Ul)を求め、 同様に、 第 2〜第 番目の復号データ u2〜ural及び尤度 L (u2)~L(uml)を求める。
(3) しかる後、 前記保存してある第 m2後方用確率 /3m2(m)から始めて第(ιη 1)後方用確率 /3 ra i + i (m)まで演算して保存する。
(4) ついで、 第 (n + 1) 前方用確率ひ 1 ml + 1(m), aQ ml + 1(m)を演算し、 該第 (m! + 1) 前方用確率と前記保存してある第 (π^ + Ι) 後方用確率 /3ml m)を用 いて第 (rm + 1) 番目の復号データ uml + 1及び尤度 L(uml + 1)を求め、 同様に、 第 (mi+2)〜第 m2番目の復号データ uraI + 2〜um2及び尤度 L (uml 2)~L(um2)を求 める。
(5)しかる後、 同様に、 保存してある第 m3後方用確率 m3(m)から始めて第( m2+l)後方用確率3m2+1 (m)まで演算して保存する。
(6) ついで、 第 (m2+l) 前方用確率《 2+1 (111), ひ Q m2+1(m)を演算し、 該第 (m2+l) 前方用確率と前記保存してある第 (m2+l) 後方用確率 )8m2+1(m)を用 いて第 (m2+l) 番目の復号データ um2+1及び尤度 L(Ura2+1)を求め、 同様に、 第 (m2+2)〜第 m3番目の復号データ um2 um3及び尤度 L (um2+2)~L (um3)を求 める。
(7) 以後、 同様に、 保存してある第 m4後方用確率 i3m4(m)," 第 m(s n後方 用確率 m(s い(m),第 ms後方用確率 /3ms(m)を用いて第(m3+1)〜第 N番目の復号 データ um3+1〜uN及び尤度 L (um3+1)~L (UN)を求める。
(b) 第 2実施例の AP復号器
図 8は第 2実施例の AP復号器の構成図であり, 図 6の第 1実施例と同一部分 には同一符号を付している。
MAP制御部 50は AP復号器全体を制御し、 図 7の演算シーケンスに従って各部 の演算タイミング、 各メモリへのデータの読出し、 データ書き込みをなどを制御 する。 入出力入替部 5 1は受信データの出力順序を適宜入れ替えて出力するもの で、 全受信データを記憶するメモリと受信データを入力順と逆順にあるいは同順 に出力するデータ出力部を備えている。
移行確率演算部 52は時間 k (=N)として受信データ(yak,ybk)を用いて、
(X山 xbk)が(0,0)である確率ァ 。. k
(xak,xbk;^s(0, 1)である確率 y 1, K (xak,xbJ力 1 0)である確率 γ 2, ,
\Χ a k > b k)カ (1 1)である確率ァ 3, k
をそれぞれ演算する。 また、 後方用確率演算部 5 3は、 時間 k(=N)の後方用確率 β k (m)と移行確率 γ s, k (s=0 1,2,3)を使用して時間 k- 1の各状態 m (=0~3)におけ る後方用確率 /^ (π Ο^Ο^)を演算する。 以後、 移行確率演算部 5 2及び後方 用確率演算部 5 3は、 k=k- 1として上記演算を繰リ返し、 k=Nから k=lまで演算を 行う。 後方用確率演算部 5 3は、 k =N 1までの後方用確率の演算と並行して 離散的に求まる第 ms後方用確率 /3ms(m), 第 m (s— n後方用確率 |8m (s— (m) ·· ·, 第 m3後方用確率 /3m3(m), 第 m2後方用確率 /5 m2(m)をメモリ 54の離散的 後方用確率記憶部 5 4 aに記憶し、 又、 第 後方用確率 jS miOn)〜第 1後方用 確率 /3! (m)を連続的後方用確率記憶部 5 4 bに記憶する。
しかる後、 移行確率演算部 5 2は時間 k (=1)として受信データ(yak yb k)を用 いて、
^)が(0 0)でぁる確率 0, ,
(xak xbJが(0 1)である確率 γ k
^ !^でぁる確率 k
X a k A b k)力 s(l 1)である確率 γ a, k
をそれぞれ演算する。 また、 前方用確率演算部 5 3は k = 1とし、 時間(k - 1)に おける前方用確率 α — (m), a °k— i On)と、 前記求めた時間 kにおける移行確率
7 ο, 7 Ύ 2. k, γ 3, kとを用いて、 時間 kにおける前方用確率
a Q k(m)を演算する。
結合確率演算部 5 6は時間 kの各状態 m(=0~3)における前方用確率 a (m)と後 方用確率 /3 k (m)とを掛け合わせて k番目の原データ ukが" 'である確率え (m)を 演算し、 同様に、 時間 kの各状態 m (=0-3)における前方用確率
Figure imgf000028_0001
(m)と後方用確 率 k(m)とを用いて原データ Ukが" 0"である確率 °k(m)を演算する。
u k及び u k尤度演算部 5 7は時間 kにおける各状態 m(=0 3)の" 1"である確率 の総和∑„ぇ
Figure imgf000028_0002
と" 0"である確率の総和∑mえ °k(m)を求め、 次式
L (u) = log [∑ml (m)/∑m (m)J
により尤度を出力する。 又、 (11)〉0でぁれば復号結果11^ 1を、 L (u) < 0で あれば復号結果 uk=0を出力する。
以後、 移行確率演算部 5 2、 前方確率演算部 5 5、 結合確率演算部 5 6、 u k 及び uk尤度演算部 5 7は k=k+lとして上記演算を繰り返し、 k=lから k ii まで演 算を行って、 k=卜 miの各時間における u kとその信頼度 (尤度) L (uk)を演算し て出力する。
k=lから l^nhまでの uk及び L (uk)の演算が終了すれば、 MAP制御部 5 0の制御 によリ、 移行確率演算部 5 2は時間 k (=m2)として受信データ(ya k,ybk)を用い て、 移行確率 y 0k, Ύ k) γ 2, k, y 3. kをそれぞれ演算する。 また、 後方用確 率演算部 5 3は時間 k(=m2)の後方用確率 /3 k(m) (= m2 (m))を記憶部 54 aょリ 読出し、 該後方用確率 β k (m)と移行確率 Ί , (s=0, 1,2,3)を使用して時間 k-1の 各状態 m (=0-3)における後方用確率 k , (m) (m=0~3)を演算して記憶部 5 4 bに 記憶する。 以後、 移行確率演算部 5 2及び後方用確率演算部 5 3は、 k=k-lとし て上記演算を繰り返し、
Figure imgf000029_0001
+ 1まで演算を行い、 第 m2後方用確率 |8m 2(m)〜第 + 1後方用確率3ml + 1 (m)を記憶部 5 4 bに保存する。
しかる後、 移行確率演算部 5 2は時間 k (=m1 + 1)として受信データ(ya k,ybk) を用いて、 確率 γ0, k, r!, k, r 2, k, y 3. kをそれぞれ演算する。 また、 前方用 確率演算部 5 3は k-rm + lとし、 時間(k - 1)における前方用確率 a 'k ^m), a - i dn)と、 前記求めた時間 kにおける移行確率 γ 0, k, γ k) γ 2, k, y 3. kとを 用いて、 時間 kの各状態 m(=0-3)における前方用確率 α (πι), ひ Q k(m)を演算す る。 結合確率演算部 5 6、 L 及び uk及尤度演算部 5 7は前述と同様の演算を行 つて尤度 L (uk)及び ukを出力する。
以後、 移行確率演算部 5 2、 前方確率演算部 5 5、 結合確率演算部 5 6、 u k 及び uk尤度演算部 5 7は k=k+lとして上記演算を繰り返し、 l^n^ + 1から k=m2ま で演算を行って、 k=mi + l~m2の各時間における uk及びその信頼度 (尤度) L ( uk)を演算して出力する。
以後、 同様にして第 (m2+ l)〜第 N番目の復号データ um2+1〜uN及び尤度 L »,um2 + i)-L N)を求める。
以上の第 2の発明によれば、 m2- 2 r, m3= 3 r · · 'の場合、 後方用確率を記憶するのに r Xm+( s_l) (m:状態数) のメモリ容量を必要す るだけでよい。 又、 第 N後方用確率から第 1後方用確率まで後方用確率を逆方向 に演算し、 得られた後方用確率を離散的に記憶し、 必要に応じて該離散的に記憶 した後方用確率から始めて必要数の後方用確率を演算するようにしたから、 該後 方用確率 jS k (m)を正確に計算でき、 MAP復号の精度を向上することができる。
(C) ターボ復号器
図 9はターボ復号器(図 4参照)における要素復号器 DEC1,DEC2として、 本発明 の MAP復号器を用いた場合の構成図であリ、 1つの MAP復号器で要素復号器 DEC1,D EC2における復号動作を行うようになっている。 尚、 図 8の MAP復号器と同一部分 には同一符号を付している。
MAP制御部 50は図 7の演算シーケンスに従って AP復号器の各種タイミング等 を制御する。 入出力入替部 51は、 受信データ ya, yb, ycを記憶する RAM 51 a〜51 c及び受信データの読み/書き制御を行う RAM制御部 51 dを有 し、 受信データを入力順に出力すると共に、 適宜、 出力順序を入れ替えて出力す る (インタリーブ) 。 移行確率演算部 52は移行確率を演算するもので、 第 1、 第 2の 2つの演算部 52 a, 52 bを有している。 後方用確率演算部 53は図 7 及び図 8で説明したように後方用確率を演算する。 メモリ 54は後方用確率を記 憶するもので、 離散的後方用確率を記憶する RAM54 a、 連続的に後方用確率 を記憶する R AM 54 b、 後方用確率の読み 書きを制御する R AM制御部 54 cを備えている。 前方用確率演算部 55は前方用確率を演算し、 結合確率演算部 56は前方用確率と後方用確率とを掛け合わせて k番目のデータ ukが" 1"である 確率と" 0"である確率をそれぞれ演算し、 尤度演算部 57は復号結果 uを出力する と共に事後確率 L (u)を出力する。
S/P変換部 6 1は受信データを直列並列変換して入出力入替部 51に入力す る。 変換にょリ得られた受信データ ya, yb, ycは ηビッ トで量子化された軟 判定データである。 外部情報尤度算出部 62は外部情報尤度 Le(u)を出力する。 外部情報尤度算出部 62は第 1回目の MAP復号において、 尤度演算部 57ょリ出 力する事後確率 L(u)と MAP復号器入力信号 (=信号 y a)を用いて外部情報尤度 Le( u)を出力する。 書き込み制御部 63は外部情報尤度 Le(u)をメモリ 64に書き込 み、 読出し制御部 65はメモリ 64から読み出すことで外部情報尤度 Le(u)に適 宜インタリーブ、 ディンタリーブを施し、 次の MAP復号に用いる事前尤度 L ( ) として出力する。
ターボ復号では第 2回目以降の MAP復号において、 (信号 y a+事前尤度 L ( ) )を入力信号 y aとして使用する。 従って、 外部情報尤度算出部 62は第 2回目の MAP復号において、 尤度演算部 57ょリ出力する事後確率 L (u)と復号器入力信号 (=信号 y a+事前尤度 L ( ))を用いて次の MAP復号に用レ、る外部情報尤度 L e (u) を出力する。 書き込み制御部 63は外部情報尤度 Le(u)をメモリ 64に書き込み 、 読出し制御部 65はメモリ 64から読み出すことで外部情報尤度 Le(u)に適宜 インタリーブ、 ディンタリーブを施し、 次の MAP復号に用いる事前尤度 L ( )と して出力する。 以後、 同様にして外部情報尤度 Le(u)を出力する。 各値の log値 を用いると、 次式
L(u) = Lya+L ( ) + Le(u) (8)
が成立するから、 外部情報尤度算出部 6 2は次式
Le(u) = L(u)-Lya-L(u ) (9)
によリ外部情報尤度 Le(u)を求めることができる。 但し、 第 1回目は L ( )=0 である。
書き込み制御部 63は最終的に復号データ uを出力する場合には該復号データ をメモリ 64に書き込むが、 それ以外は外部情報尤度 Le(u)をメモリ 64に書き 込む。 読出し制御部 65は復号データ uを出力する場合は、 書き込み順に復号デ ータ uをメモリから読出して出力し、 外部情報尤度 Le(u)を読み出す場合、 イン タリーブ制御部 66から指示される読出順に従って読出して出力する (インタリ ーブ) 。 メモリ 67は RAM 67 aと RAM制御部 6 7 bを備え、 インタリーブ された外部情報尤度 Le(u)を L(i )として記憶する。
図 10はターボ復号のシーケンス説明図である。 ターボ復号は図 4より明らか なように ya, ybを用いる前半の復号と、 ya, y cを用いる後半の復号を一組に して複数回繰リ返す。
第 1回目の前半の復号処理では、 受信信号 Lcya, Lcybを用いて復号し、 得ら れた尤度 L(Ul)を出力する。 ついで、 (9)式 (但し、 L(u )=0)によリ、 事前尤 度 Ledh)を求めインタリーブして L )とする。 第 1回目の後半の復号処理では、 受信信号 Lcyaをインタリーブしたものと前 半の復号処理で得られた事前尤度 L(u2' )とを新たな受信信号 Lcya' とみなし 、 該 Lcya' と Lcycを用いて復号し、 得られた尤度 L (u2)を出力する。 ついで、 (9)式によリ事前尤度 Le(u2)を求めディンタリーブして L(u3' )とする。
第 2回目の前半の復号処理では、 受信信号 Lcyaと後半の復号処理で得られた 事前尤度 Ld^' )とを新たな受信信号 Lcya' とみなし、 該 Lcya' と Lcybを用 いて復号し、 得られた尤度 L (u3)を出力する。 ついで、 上式にょリ事前尤度 Le( u3)を求めインタリーブして L u^ )とする。
第 2回目の後半の復号処理では、 受信信号 Lcyaをインタリーブしたものと前 半の復号処理で得られた事前尤度 Liu^ )とを新たな受信信号 Lcya' とみなし 、 該 Lcya^ と Lcycを用いて復号し、 得られた尤度 L (u4)を出力する。 ついで、 (9)式によリ事前尤度 Le(u4)を求めインタリーブして L(u5' )とする。
以後、 上記復号処理を繰リ返す。
以上、 第 1の発明によれば、 mi r , m2=2 r, · · · rとすれば、 後方用 確率を記憶するのに r Xm (状態数) のメモリ容量を必要するだけでよく、 しか も、 常に k = Nょリ後方用確率を演算するため、 後方用確率 /3 k(m)を正確に計算 して MAP復号の精度を向上することができる。
又、 第 2の発明によれば、 n^- r , m2=2 r , · · · とすれば、 後方用確率 を記憶するのに r Xm+(s- 1) (m:状態数) のメモリ容量を必要するだけでよい 又、 第 2の発明によれば、 第 N後方用確率から第 1後方用確率まで後方用確率 を逆方向に演算し、 得られた後方用確率を離散的に記憶し、 必要に応じて該離散 的に記憶した後方用確率から始めて必要数の後方用確率を演算して利用するよう にしたから、 該後方用確率 /3 k(m)を正確に計算でき、 MAP復号の精度を向上する ことができる。
しかも、 第 2の発明によれば、 その都度、 k=Nょリ後方用確率を演算して必 要数の後方用確率を求めなくても良いため演算速度を向上することができる。 又 、 後方用確率 /3 k(m)の演算のために 2つの演算回路がなくても所要の演算速度が 得られ、 更には、 後方用確率; ek(m)を 1回だけ演算するだけでよいため消費電力 の点で有利である。

Claims

請求の範囲
1 . 長さ Nの情報を符号化した符号化データを受信して復号する最大事後確率 復号方法において、
符号化の最後のデータから順に後方繰り返し演算(時間的に後ろから前)しなが ら、 データの途中である l~ml番目における後方繰リ返し演算結果を保存し、 符号化の 1番目のデータから ml番目まで順に前方繰リ返し演算(時間的に前から 後ろ)を行いながら、 l~mlまでの演算結果を復号結果として出力し、
更に、 再び、 符号化の最後のデータから順に後方繰リ返し演算を行いながら、 nil+l~m2番目の後方繰り返し演算結果を保存し、
ml+1番目のデータから m2番目まで順に前方繰リ返し演算を行いながら ml+l~m2 までの演算結果を復号結果として出力し、
以後、 同様にして、 N番目までの全復号結果を出力する、
ことを特徴とする最大事後確率復号方法。
2 . 長さ Nの情報を符号化した符号化データの第 1〜第 k番目の符号化データ を用いて第 k前方用確率を演算すると共に、 第 N〜第 k番目の符号化データを用 いて第 k後方用確率を求め、 これら確率を用いて第 k番目の復号結果を出力する 最大事後確率復号方法において、
第 N後方用確率から第 1後方用確率まで逆方向に後方用確率を演算し、 第 後方用確率〜第 1後方用確率を保存し、
第 1前方用確率を演算し、 該第 1前方用確率と前記保存してある第 1後方用確 率を用いて第 1番目の復号結果を求め、 同様に、 第 2〜第 番目の復号結果を 求め、
しかる後、 第 Ν後方用確率から第(rn ^l)後方用確率まで逆方向に後方用確率 を演算し、 第 m2後方用確率〜第(nn+1)後方用確率を保存し、
第 (n +1) 前方用確率を演算し、 該第 (nn+Ι) 前方用確率と前記保存してあ る第 (nn+1) 後方用確率を用いて第 (nu+1) 番目の復号結果を求め、 同様に、 第(n +2)〜第 m2番目の復号結果を求め、
以後、 第 (m2+ l )〜第 N番目の復号結果を求めることを特徴とする最大事後 確率復号方法。
3. 長さ Nの情報を符号化した符号化データを受信して復号する最大事後確率 復号方法において、
符号化の最後のデータから順に後方繰リ返し演算(時間的に後ろから前)を行い ながら、 データの途中である 1~πι1番目, m2番目, m3番目 ···における後方繰リ返し 演算結果を保存し、
符号化の 1番目のデータから ml番目まで順に前方繰リ返し演算(時間的に前から 後ろ)を行いながら、 l~mlまでの演算結果を復号結果として出力し、
しかる後、 πι2番目の後方繰リ返し演算結果を利用して、 ml+l~m2番目の後方繰 リ返し演算を行いながら保存し、
ml+1番目のデータから m2番目まで順に前方繰り返し演算を行いながら、 ml+卜 m2までの演算結果を復号結果として出力し、
以後、 同様にして、 N番目までの全復号結果を出力する、
ことを特徴とする最大事後確率復号方法。
4. 長さ Nの情報を符号化した符号化データの第 1〜第 k番目の符号化データ を用いて第 k前方用確率を演算すると共に、 第 N〜第 k番目の符号化データを用 いて第 k後方用確率を求め、 これら確率を用いて第 k番目の復号結果を出力する 最大事後確率復号方法において、
第 N後方用確率から第 1後方用確率まで後方用確率を逆方向に演算し、 離散的 に第 ms後方用確率, 第 m (S-D後方用確率, ···, 第 m2後方用確率を保存すると 共に、 第 後方用確率〜第 1後方用確率を連続的に保存し、
第 1前方用確率を演算し、 該第 1前方用確率と前記保存してある第 1後方用確 率を用いて第 1番目の復号結果を求め、 同様に、 第 2〜第 番目の復号結果を 求め、
しかる後、 前記保存してある第 m2後方用確率から始めて第(nn+Ι)後方用確率 まで演算して保存し、
第 (π^+l) 前方用確率を演算し、 該第 (nn+1) 前方用確率と保存してある第 (mx + l) 後方用確率を用いて第 (n + 1) 番目の復号結果を求め、 同様に、 第( mi+2)〜第 m2番目の復号結果を求め、
以後、 同様にして第 (m2+l)〜第 N番目の復号結果を求めることを特徴とす る最大事後確率復号方法。
5 . 請求項 4の最大事後確率復号方法において、
前記連続的に保存する後方用確率の数を約 N 1 / 2とすることを特徴とする最大 事後確率復号方法。
6 . 長さ Nの情報を符号化した符号化データの第 1〜第 k番目の符号ィヒデータ を用いて第 k前方用確率を演算すると共に、 第 N〜第 k番目の符号化データを用 いて第 k後方用確率を求め、 これら確率を用いて第 k番目の復号結果を出力する 復号装置において、
後方用確率を演算する後方用確率演算部、
演算された後方用確率を保存する後方用確率保存部、
前方用確率を演算する前方用確率演算部、
第 k前方用確率と保存してある第 k後方用確率を用いて第 k番目の復号結果を 求める復号結果演算部、
前記後方用確率演算部、 前方用確率演算部、 復号結果演算部の演算タイミング を制御する制御部を備え、
(1) 前記後方用確率演算部は、 第 N後方用確率から第 1後方用確率まで逆方向 に後方用確率を演算して後方用確率保存部に保存し、 前方用確率演算部は第 1前 方用確率〜第 m i前方用確率を演算し、 前記復号結果演算部は第 k前方用確率(k
^〜!!! と前記保存してある第 k後方用確率を用いて第 k番目の復号結果を演 算し、 (2) しかる後、 前記後方用確率演算部は、 第 N後方用確率から第(nn+1) 後方用確率まで逆方向に後方用確率を演算して第 m2後方用確率〜第(im + 1)後方 用確率を後方用確率保存部に保存し、 前方用確率演算部は第 (n +1) 前方用確 率〜第 m2前方用確率を演算し、 前記復号結果演算部は第 k前方用確率(k -n +1 〜m2) と前記保存してある第 k後方用確率を用いて第 k番目の復号結果を演算 し、 (3) 以後、 同様にして第 (m 2+ l )〜第 N番目の復号結果を求めることを特 徴とする復号装置。
7 . 長さ Nの情報を符号化した符号化データの第 1〜第 k番目の符号化デ一タ を用いて第 k前方用確率を演算すると共に、 第 N〜第 k番目の符号化データを用 いて第 k後方用確率を求め、 これら確率を用いて第 k番目の復号結果を出力する 復号装置において、
後方用確率を演算する後方用確率演算部、
演算された後方用確率を保存する後方用確率保存部、
前方用確率を演算する前方用確率演算部、
第 k前方用確率と保存してある第 k後方用確率を用いて第 k番目の復号結果を 求める復号結果演算部、
前記後方用確率演算部、 前方用確率演算部、 復号結果演算部の演算タイミング を制御する制御部を備え、
(1) 後方用確率演算部は、 第 N後方用確率から第 1後方用確率まで後方用確率 を逆方向に演算し、 離散的に第 ms後方用確率, 第 HKs- n後方用確率, · · ·, 第 m2後方用確率を前記後方用確率保存部に保存すると共に、 第 後方用確率〜第 1後方用確率を連続的に保存し、 前方用確率演算部は第 1前方用確率〜第 前 方用確率を演算し、 前記復号結果演算部は第 k前方用確率(k =l〜m i) と前記保 存してある第 k後方用確率を用いて第 k番目の復号結果を演算し、 (2) しかる後 、 後方用確率演算部は、 前記保存してある第 m2後方用確率から始めて第(m i+l) 後方用確率まで演算して前記後方用確率保存部に保存し、 前方用確率演算部は第
(nn + 1) 前方用確率〜第 m2前方用確率を演算し、 前記復号結果演算部は第 k前 方用確率(k ^rm+l n ) と前記保存してある第 k後方用確率を用いて第 k番目 の復号結果を演算し、 (3) 以後、 同様にして第 (m2+ l )〜第 N番目の復号結果 を求めることを特徴とする復号装置。
8 . 前記後方用確率保存部に連続して記憶する後方用確率の数を約 N 1 /2とす ることを特徴とする請求項 5記載の復号装置。
PCT/JP1999/000963 1999-03-01 1999-03-01 Procede et appareil de decodage de probabilite maximale a posteriori WO2000052833A1 (fr)

Priority Applications (6)

Application Number Priority Date Filing Date Title
PCT/JP1999/000963 WO2000052833A1 (fr) 1999-03-01 1999-03-01 Procede et appareil de decodage de probabilite maximale a posteriori
CNB998163554A CN1201494C (zh) 1999-03-01 1999-03-01 最大后验概率译码方法和装置
EP99906532A EP1156588B1 (en) 1999-03-01 1999-03-01 Method and apparatus for maximum a posteriori probability decoding
DE69936067T DE69936067T2 (de) 1999-03-01 1999-03-01 Verfahren und Vorrichtung zur Maximum-a-Posteriori Warscheinlichkeits-Dekodierung
JP2000603157A JP3451246B2 (ja) 1999-03-01 1999-03-01 最大事後確率復号方法及び装置
US09/923,602 US6563890B2 (en) 1999-03-01 2001-08-07 Maximum a posteriori probability decoding method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP1999/000963 WO2000052833A1 (fr) 1999-03-01 1999-03-01 Procede et appareil de decodage de probabilite maximale a posteriori

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US09/923,602 Continuation US6563890B2 (en) 1999-03-01 2001-08-07 Maximum a posteriori probability decoding method and apparatus

Publications (1)

Publication Number Publication Date
WO2000052833A1 true WO2000052833A1 (fr) 2000-09-08

Family

ID=14235059

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP1999/000963 WO2000052833A1 (fr) 1999-03-01 1999-03-01 Procede et appareil de decodage de probabilite maximale a posteriori

Country Status (6)

Country Link
US (1) US6563890B2 (ja)
EP (1) EP1156588B1 (ja)
JP (1) JP3451246B2 (ja)
CN (1) CN1201494C (ja)
DE (1) DE69936067T2 (ja)
WO (1) WO2000052833A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005006564A1 (ja) * 2003-07-11 2005-01-20 Matsushita Electric Industrial Co., Ltd. 復号装置および復号方法
JP2007006541A (ja) * 2006-10-12 2007-01-11 Nec Corp 誤り訂正符号復号装置
US7178090B2 (en) 2001-11-15 2007-02-13 Nec Corporation Error correction code decoding device
US8108751B2 (en) 2006-10-13 2012-01-31 Fujitsu Limited Turbo decoding apparatus

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6798852B2 (en) * 2000-06-06 2004-09-28 Ericsson Inc. Methods and systems for extracting a joint probability from a map decision device and processing a signal using the joint probability information
US6961921B2 (en) * 2001-09-06 2005-11-01 Interdigital Technology Corporation Pipeline architecture for maximum a posteriori (MAP) decoders
US6763493B2 (en) * 2001-09-21 2004-07-13 The Directv Group, Inc. Method and system for performing decoding using a reduced-memory implementation
DE60312923T2 (de) * 2002-05-31 2007-12-13 Broadcom Corp., Irvine Soft-In Soft-Out Dekoder für Turbo-Trelliskodierte Modulation
US7107512B2 (en) 2002-05-31 2006-09-12 Broadcom Corporation TTCM decoder design
JP2004080508A (ja) * 2002-08-20 2004-03-11 Nec Electronics Corp 誤り訂正符号の復号方法、そのプログラム及びその装置
JP2005109771A (ja) * 2003-09-30 2005-04-21 Fujitsu Ltd 最大事後確率復号方法及び装置
KR20050042869A (ko) * 2003-11-04 2005-05-11 삼성전자주식회사 구현이 간단한 map디코더 및 그의 디코딩 방법
JP2005167513A (ja) * 2003-12-01 2005-06-23 Matsushita Electric Ind Co Ltd 復号装置及び復号方法
JP2006041960A (ja) * 2004-07-28 2006-02-09 Nec Corp ターボ復号装置及びターボ復号方法並びにプログラム
WO2006038829A1 (en) 2004-09-29 2006-04-13 Intel Corporation Iterative decoding with buffering and restoring intermediate decoder states
JP2006324754A (ja) * 2005-05-17 2006-11-30 Fujitsu Ltd 最大事後確率復号方法及び復号装置
US7616713B2 (en) * 2005-05-31 2009-11-10 Skyworks Solutions, Inc. System and method for forward and backward recursive computation
US20130142057A1 (en) * 2011-12-01 2013-06-06 Broadcom Corporation Control Channel Acquisition
CN104427530B (zh) * 2013-08-29 2019-05-31 锐迪科(重庆)微电子科技有限公司 一种控制信道检测方法及装置
CN108122556B (zh) * 2017-08-08 2021-09-24 大众问问(北京)信息科技有限公司 减少驾驶人语音唤醒指令词误触发的方法及装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2675971B1 (fr) 1991-04-23 1993-08-06 France Telecom Procede de codage correcteur d'erreurs a au moins deux codages convolutifs systematiques en parallele, procede de decodage iteratif, module de decodage et decodeur correspondants.
DE4437984A1 (de) * 1994-10-25 1996-08-14 Philips Patentverwaltung Übertragungssystem mit Soft-Output-Dekodierung
US6161209A (en) * 1997-03-28 2000-12-12 Her Majesty The Queen In Right Of Canada, As Represented By The Minister Of Industry Through The Communications Research Centre Joint detector for multiple coded digital signals
US6430722B1 (en) * 1998-01-23 2002-08-06 Hughes Electronics Corporation Forward error correction scheme for data channels using universal turbo codes
US6339834B1 (en) * 1998-05-28 2002-01-15 Her Majesty The Queen In Right Of Canada, As Represented By The Minister Of Industry Through The Communication Research Centre Interleaving with golden section increments
US6263467B1 (en) * 1998-08-20 2001-07-17 General Electric Company Turbo code decoder with modified systematic symbol transition probabilities
US6353900B1 (en) * 1998-09-22 2002-03-05 Qualcomm Incorporated Coding system having state machine based interleaver
US6028897A (en) * 1998-10-22 2000-02-22 The Aerospace Corporation Error-floor mitigating turbo code communication method

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
ANDREW J. VITERBI.: "An intuitive justification and a simplified implementation of the MAP decoder for convolutional codes", IEEE JOURNAL ON SELECTED AREAS IN COMMUNICATIONS,, vol. 16, no. 2, February 1998 (1998-02-01), pages 260 - 264, XP002932925 *
BENEDETTO S, ET AL.: "SOFT-OUTPUT DECODING ALGORITHMS IN ITERATIVE DECODING OF TURBO CODES", TDA PROGRESS REPORT, XX, XX, 1 February 1996 (1996-02-01), XX, pages 63 - 87, XP002932926 *
JAH-MING HSU, CHIN-LIANG WANG.: "A parallel decoding scheme for turbo codes", IEEE INT. SYMP. CIRCUITS SYST.,, vol. 4, March 1998 (1998-03-01), pages IV,445 - IV,448, XP002932921 *
JIANMING YUAN, STEPHEN G. WILSON.: "Multiple output sliding window decoding algorithm for Turbo Codes", PROC. CONF. INF. SCI. SYST., 31ST.,, vol. 2, 1997, pages 515 - 520, XP002932923 *
See also references of EP1156588A4 *
SHUNSUKE OCHI, TOMOHARU SHIBUYA, KOUICHI SAKANIWA, ISAO YAMADA: "MAP algorith no heiretsu ni yoru Turbo-Code no kousoku fukugouhou, ( Fast Decoding of Turbo-Code by Processing MAP Algorithm in Parallel)", DENSHI JOUHOU TSUUSHIN GAKKAI GIJUTSU KENKYUU HOUKOKU,, vol. 97, no. 511, 27 January 1998 (1998-01-27), pages 1 - 6, IT97-57, XP002932922 *
STEVEN S. PIETROBON: "Implementation and Performance of a Turbo/Map Decoder", INT. JOURNAL OF SATELLITE COMMUNICATIONS, vol. 16, no. 1, 1998, JOHN WILEY & SONS, LTD., pages 23 - 46, XP002932924 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7178090B2 (en) 2001-11-15 2007-02-13 Nec Corporation Error correction code decoding device
WO2005006564A1 (ja) * 2003-07-11 2005-01-20 Matsushita Electric Industrial Co., Ltd. 復号装置および復号方法
US7539256B2 (en) 2003-07-11 2009-05-26 Panasonic Corporation Decoding device and decoding method
JP2007006541A (ja) * 2006-10-12 2007-01-11 Nec Corp 誤り訂正符号復号装置
JP4525658B2 (ja) * 2006-10-12 2010-08-18 日本電気株式会社 誤り訂正符号復号装置
US8108751B2 (en) 2006-10-13 2012-01-31 Fujitsu Limited Turbo decoding apparatus

Also Published As

Publication number Publication date
CN1201494C (zh) 2005-05-11
US6563890B2 (en) 2003-05-13
DE69936067D1 (de) 2007-06-21
EP1156588A4 (en) 2005-05-04
CN1336038A (zh) 2002-02-13
DE69936067T2 (de) 2008-01-10
US20020015457A1 (en) 2002-02-07
JP3451246B2 (ja) 2003-09-29
EP1156588B1 (en) 2007-05-09
EP1156588A1 (en) 2001-11-21

Similar Documents

Publication Publication Date Title
WO2000052833A1 (fr) Procede et appareil de decodage de probabilite maximale a posteriori
CN100525119C (zh) Turbo译码装置和Turbo译码方法
JP4432781B2 (ja) 誤り訂正復号器
US7246298B2 (en) Unified viterbi/turbo decoder for mobile communication systems
EP1122890A2 (en) MAP decoding with parallelized sliding window processing
US6192084B1 (en) Soft output decoding apparatus and method for convolutional code
US20060265635A1 (en) Method of maximum a posterior probability decoding and decoding apparatus
JP5075642B2 (ja) トレリス線図のバタフライ構造を用いたmap復号化のためのメトリック計算
CN100499379C (zh) 一种卷积码译码方法
KR101212856B1 (ko) 통신 시스템에서 데이터를 복호하는 방법 및 장치
JP2005109771A (ja) 最大事後確率復号方法及び装置
US7584407B2 (en) Decoder and method for performing decoding operation using map algorithm in mobile communication system
JP3892471B2 (ja) 復号方法
US7917834B2 (en) Apparatus and method for computing LLR
JP2614524B2 (ja) 誤り訂正符号の復号方法
JP2006115534A5 (ja)
JP3632206B2 (ja) ターボ復号器及びターボ復号方法
JP2004266324A (ja) データ受信方法及び装置
KR100850744B1 (ko) Llr 계산 장치 및 계산 방법
JP4525658B2 (ja) 誤り訂正符号復号装置
JP2001024717A (ja) ターボ復号装置及び繰り返し復号方法
JPWO2005125019A1 (ja) ターボ符号の誤り訂正復号方法及びターボ符号の誤り訂正復号装置
WO2010064496A1 (en) Decoding method and decoding device
JP2011114567A (ja) ターボ復号方法及び復号器

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 99816355.4

Country of ref document: CN

AK Designated states

Kind code of ref document: A1

Designated state(s): CN JP US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE

DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 09923602

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 1999906532

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2000 603157

Country of ref document: JP

Kind code of ref document: A

WWP Wipo information: published in national office

Ref document number: 1999906532

Country of ref document: EP

WWG Wipo information: grant in national office

Ref document number: 1999906532

Country of ref document: EP