WO2002017499A1 - Décodeur et procédé de décodage - Google Patents

Décodeur et procédé de décodage Download PDF

Info

Publication number
WO2002017499A1
WO2002017499A1 PCT/JP2001/007125 JP0107125W WO0217499A1 WO 2002017499 A1 WO2002017499 A1 WO 2002017499A1 JP 0107125 W JP0107125 W JP 0107125W WO 0217499 A1 WO0217499 A1 WO 0217499A1
Authority
WO
WIPO (PCT)
Prior art keywords
decoding
additional coefficient
coefficient
decoding device
information
Prior art date
Application number
PCT/JP2001/007125
Other languages
English (en)
French (fr)
Inventor
Toshiyuki Miyauchi
Masayuki Hattori
Kouhei Yamamoto
Takashi Yokokawa
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to EP01956975A priority Critical patent/EP1311070A4/en
Priority to US10/110,670 priority patent/US7051270B2/en
Publication of WO2002017499A1 publication Critical patent/WO2002017499A1/ja

Links

Classifications

    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/37Decoding methods or techniques, not specific to the particular type of coding provided for in groups H03M13/03 - H03M13/35
    • H03M13/39Sequence estimation, i.e. using statistical methods for the reconstruction of the original codes
    • H03M13/3905Maximum a posteriori probability [MAP] decoding or approximations thereof based on trellis or lattice decoding, e.g. forward-backward algorithm, log-MAP decoding, max-log-MAP decoding
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/27Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes using interleaving techniques
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/29Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes combining two or more codes or code structures, e.g. product codes, generalised product codes, concatenated codes, inner and outer codes
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/29Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes combining two or more codes or code structures, e.g. product codes, generalised product codes, concatenated codes, inner and outer codes
    • H03M13/2957Turbo codes and decoding
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/63Joint error correction and other techniques
    • H03M13/6337Error control coding in combination with channel estimation
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/65Purpose and implementation aspects
    • H03M13/6577Representation or format of variables, register sizes or word-lengths and quantization
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/65Purpose and implementation aspects
    • H03M13/6577Representation or format of variables, register sizes or word-lengths and quantization
    • H03M13/658Scaling by multiplication or division
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/25Error detection or forward error correction by signal space coding, i.e. adding redundancy in the signal constellation, e.g. Trellis Coded Modulation [TCM]
    • H03M13/258Error detection or forward error correction by signal space coding, i.e. adding redundancy in the signal constellation, e.g. Trellis Coded Modulation [TCM] with turbo codes, e.g. Turbo Trellis Coded Modulation [TTCM]
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/29Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes combining two or more codes or code structures, e.g. product codes, generalised product codes, concatenated codes, inner and outer codes
    • H03M13/2957Turbo codes and decoding
    • H03M13/296Particular turbo code structure
    • H03M13/2972Serial concatenation using convolutional component codes

Definitions

  • the present invention relates to a decoding device and a decoding method for performing soft output decoding.
  • BACKGROUND ART In recent years, research has been conducted to reduce the symbol error rate by making the decoded output of an inner code in a concatenated code or the output of each iterative decoding operation in an iterative decoding method soft, thereby reducing the symbol error rate.
  • Research is being actively conducted. For example, as a method of minimizing the symbol error rate when decoding a predetermined code such as a convolutional code, see “Bahl, Cocke, Jelinek and Raviv, Optimal decoding of linear codes for minimizing symbol error rate", IEEE Trans. Inf.
  • digital information is convolutionally coded by a coding device 201 provided in a transmitting device (not shown), and the output is passed through a memoryless communication channel 202 with noise. It is assumed that the data is input to a receiving device (not shown) via the receiving device, decoded by the decoding device 203 included in the receiving device, and observed.
  • M states representing the contents of the shift register included in the encoder 201 are described.
  • P r ⁇ AIB ⁇ shown on the right side of the above equation (1) is the conditional probability that A occurs under the condition that B occurs.
  • the transition probabilities of the no-memory memory channel 202 with noise are, for all seven (l ⁇ t ⁇ T), the transition probabilities P r ⁇ yi I:? J ⁇ of each symbol as shown in the following equation (3). Can be defined using
  • BCJR algorithm defines the probabilities at, 5 t and ⁇ t as shown in equation (5) to equation (7).
  • P r ⁇ A; B ⁇ represents the probability that ⁇ A and ⁇ ⁇ occur together.
  • the soft output can be expressed as the following equation (8).
  • the decoding device 203 when performing the soft output decoding by applying the BCJR algorithm, the decoding device 203 obtains the soft output t by performing a series of steps shown in FIG. 3 based on these considerations.
  • step S201 the decoding device 203 uses the above equations (9) and (1 1) to calculate the probability at (m) every time y t is received. Then, calculate t (m,, m).
  • step S202 after receiving all of the sequence ⁇ in step S202, the decoding device 203 uses the above equation (10) to determine the probability /? T ( m) is calculated.
  • step S203 the decryption device 203 substitutes the probabilities f and t that were violent in step S201 and step S202 into the above equation (8). And, soft-output at each time t; to ⁇ 1 1.
  • the decoding device 203 can perform soft-output decoding applying the BCJR algorithm.
  • Max-Log-BCJR Max-Log- B CJR algorithm, probability t,? T and y t, and the soft-output human t and the number denoted pairs using natural logarithm, as shown in the following formula (1 2), a product operation of the probability
  • the probability sum operation is approximated by the logarithm maximum value operation, as shown in the following equation (13).
  • max (x, y) shown in the following equation (13) is a function that selects one having a larger value among x and y.
  • logarithmic soft output At is similarly approximated as shown in the following equation (18).
  • the maximum value max of the first term on the right side in the following equation (18) is found in state m, where there is a transition to state m when the input is “1”, and the maximum value max of the second term is Is determined in the state m 'where the transition to the state m exists when the input is "0". '
  • the decoding device 203 obtains a soft output; U based on these relations through a series of steps shown in FIG. Ask.
  • the decoding apparatus 203 as shown in the figure, in Sutedzupu S 2 1 1, whenever receiving a y t, using the above equation (15) and the above equation (17), the log likelihood I at ( m) and the air t (m,, m) are calculated.
  • step S212 after receiving all of the sequence Y, the decoding device 203 uses the above equation (16) to calculate the log likelihood I? T for each state m at all times t. (m) is calculated.
  • step S213 the decoding device 203 substitutes the log likelihood Iat, I3t and Iat calculated in step S211 and step S212 into the above equation (18), Calculate the log soft output Ite at each time seven.
  • the decoding device 203 can perform soft-output decoding applying the Max-Log-BJR algorithm.
  • log-: B CJR Argo Rhythm improves the accuracy of approximation by the Max-Log-BCJR algorithm.
  • the Log-BCJR algorithm transforms the sum of probabilities shown in the above equation (13) by adding a correction term as shown in the following equation (19), and calculates the exact This is to calculate the logarithmic value.
  • such correction is referred to as log-sum correction.
  • the decoding device 203 performs soft output decoding based on these relationships through the series of steps shown in FIG. t can be determined.
  • the decoding device 203 uses the above equation (22) and the above equation (17) every time y t is received in step S211 to obtain the log likelihood. I at Calculate (m) and (m,, m).
  • step S212 after receiving all of the sequence Y in step S212, the decoding device 203 uses the above equation (23) to calculate the log likelihood for each state m at all times t. Calculate the degree (m). '
  • the decoder 2 0 in step S 2 1 3, Sutedzupu S 2 1 1 ⁇ beauty Sutedzupu S 2 1 log likelihood I a t calculated at 2, I ⁇ t and the above formula I ⁇ (2 4 ) To calculate the logarithmic soft output Ite at each time seven.
  • the decoding device 203 can perform soft output decoding to which the Log-BCJR algorithm is applied by going through such a series of processes.
  • the correction term shown in the second term on the right-hand side is represented by a one-dimensional function with respect to the variable IX-yI. (Read Only Memory) can be stored in advance as a table, so that an accurate probability calculation can be performed.
  • log-BCJR algorithm requires a larger amount of computation than the Max-Log-B CJR algorithm, but does not include a product operation, and its output is the soft output of the BCJR algorithm except for the quantization error. It is nothing but logarithmic value itself.
  • the above-mentioned log likelihood I at is the probability obtained from the a priori probabmty information shown in the first term on the right side of the above equation (17) and the received value y t shown in the second term.
  • Information hereinafter, referred to as a channel value).
  • the output X from the encoding device 201 is added to the output X by the memoryless channel 202.
  • the decoding device 203 can directly determine the communication channel value using the received value yt. More specifically, the decoding apparatus 203, as shown in FIG. 6, the I y calculation circuit for calculating a log likelihood I ⁇ t can be in substantially consist only of the adder. That is, the decoding device 203 can determine the channel value by multiplying the received value y tj by a predetermined coefficient AMP, and determines the channel value and the prior probability information (APP in the figure; The log likelihood I 7t can be obtained by adding the above to the I / A calculation circuit. In other words, the decoding device 203 needs to multiply the received value y tj by an appropriate coefficient AMP when obtaining the log likelihood Iat .
  • the coefficient AMP usually takes a value of about 0.5 to 10; therefore, the distribution of the channel value obtained by multiplying the received value y t by this coefficient AMP is determined by the prior probability information. It will vary greatly with the dynamic range of the APP. For example, when set to 0, 5 to 8 as the coefficient A MP, as shown in FIG. 7, with respect to dynamic Dzukurenji prior probability information APP, by multiplying the coefficient A Micromax [rho to received value y 1 3 The distribution of the obtained channel values will differ by up to 16 times.
  • the decoding apparatus 203 can not be secured sufficiently dynamic range for representing information relating to the received value, it is difficult to determine the log likelihood I y t with high accuracy.
  • a plurality of convolutional encoders are connected in parallel or in a cascade via an in-leaver, and parallel concatenated convolutional codes (hereinafter, referred to as PCCC). Or, it performs a serial concatenated convolutional code (hereinafter, referred to as SCCC) or a turbo coded modulation (Turbo Trellis Coded Modulation) that combines these PCCCs or SCCCs with multi-level modulation.
  • PCCC parallel concatenated convolutional codes
  • SCCC serial concatenated convolutional code
  • Turbo Trellis Coded Modulation turbo coded modulation
  • the decoding device 203 connects a plurality of soft-output decoding circuits that perform the maximum a posteriori probability (MAP) decoding based on the above-described algorithm via an interleaver or a dinterleaver to perform so-called iterative decoding. It is configured to do.
  • MAP maximum a posteriori probability
  • the a priori probability information APP at the time of this iterative decoding is extrinsic information which is a difference value between the posterior probability information (a posteriori probability information) corresponding to the soft output or logarithmic soft output described above and the prior probability information APP. ) Is used. That is, the prior probability information APP can be rephrased as being a stack of received values. In consideration of this, it is considered that it is not desirable that the distribution of the reception value y tj in the decoding device 203 with respect to the dynamic range of the prior probability information A P P changes.
  • the decoding apparatus 203 performs a priori determination according to the signal-to-noise ratio (S / N) while keeping the ratio between the dynamic range of the prior probability information APP and the signal point of the received value constant. It is conceivable to change the resolution of the probability information APP, that is, the quantization step size of the prior probability information APP.
  • Such a decoding device 203 can be substantially realized as a weight calculation circuit for calculating the log likelihood Iat by a configuration as shown in FIG. That is, the decoding - device 203, a material obtained by dividing by a factor AMP as described above prior probability information APP, by adding the received value y tj by air calculation circuit, can therefore be found the log likelihood I y t. By doing so, as shown in FIG. 9, decoding apparatus 203 can make the dynamic range of received value y tj constant without depending on coefficient AMP.
  • the coefficient AMP when the coefficient AMP is set to "0.5", the upper limit (Max) and lower limit (one Max) of the quantization range of the received value y tj are expressed as' pre-probability.
  • the range for expressing the information A PP is 1 2 xMax to 2 xMax, and the coefficient A. MP is set to "8"
  • the range for expressing the prior probability information APP is (-1/8) xMax to (1 Z8)
  • the range in which the prior probability information APP is expressed changes as xMax becomes.
  • the quantization step size of the prior probability information APP also changes. Therefore, the prior probability information AP If P becomes smaller and exceeds the quantization range, it becomes impossible to express the prior probability information APP.
  • the decoding device 203 can secure the dynamic range of the received value y tj , but can express the prior probability information APP. If can not occur, it may be impossible to determine the log likelihood I ⁇ t with high accuracy.
  • DISCLOSURE OF THE INVENTION The present invention has been made in view of such circumstances, and even when input with a fixed number of bits is required, it is possible to set the optimal dynamic range and quantization step size. It is an object of the present invention to provide a decoding device and a decoding method that can perform the decoding.
  • the decoding apparatus that achieves the above-described object obtains a log likelihood in which the probability of passing through an arbitrary state is represented in logarithmic likelihood ratio based on a received value that is a soft input.
  • a decoding device for performing decoding using likelihood wherein a channel value obtained by multiplying a received value by a predetermined coefficient is multiplied only by the received value to adjust the amplitude of the received value.
  • the first probability information obtained by dividing by the first addition coefficient is multiplied only by the prior probability information, and the reciprocal of the second addition coefficient for adjusting the amplitude of the prior probability information is determined in advance by Soft output decoding means for inputting the second probability information obtained by multiplying the probability information and performing soft output decoding, wherein the soft output decoding means comprises a first additional coefficient and a second additional coefficient And to adjust the amplitude at the time of operation inside the soft output decoding means.
  • a third additional factor it is characterized in that the soft-output in each time generating a log soft-output and / or external information logarithmic notation.
  • Such a decoding device softly extracts the first probability information obtained by adjusting the amplitude of the received value and the second probability information obtained by adjusting the amplitude of the prior probability information.
  • the soft output decoding means generates a log soft output and / or external information by using the first additional coefficient, the second additional coefficient, and the third additional coefficient.
  • the decoding method according to the present invention uses a logarithmic notation of the probability of passing an arbitrary state based on a received value that is a soft input in the form of a log likelihood ratio.
  • the second probability information obtained by multiplying the reciprocal of the addition coefficient by the prior probability information is input, and the first addition coefficient, the second addition coefficient, and the amplitude at the time of internal calculation are calculated.
  • a soft output decoding step of generating logarithmic soft output and / or external information by logarithmic representation of the soft output at each time using a third additional coefficient for adjustment is provided.
  • the first probability information obtained by adjusting the amplitude of the received value and the second probability information obtained by adjusting the amplitude of the prior probability information are used.
  • the logarithmic soft output and / or external information is generated using the first additional coefficient, the second additional coefficient, and the third additional coefficient. .
  • the decoding apparatus for achieving the above-described object has a log likelihood that a probability of passing through an arbitrary state based on a received value that is a soft input is expressed in a log likelihood ratio in a logarithmic likelihood ratio.
  • the first probability information obtained by multiplying the road value only by the received value and dividing by the first additional coefficient for adjusting the amplitude of the received value is multiplied only by the prior probability information, and Input the inverse of the second additional coefficient for adjusting the amplitude of the prior probability information and the second probability information obtained by multiplying the prior probability information, and perform soft-output decoding.
  • a soft output decoding means, a first addition coefficient, a second addition coefficient A logarithmic soft output and / or external information in which the soft output at each time is logarithmically generated using the number and a third additional coefficient for adjusting the amplitude at the time of operation inside the soft output decoding means.
  • the feature is that the generated external information is output as prior probability information in the soft output decoding means at the next stage.
  • Such a decoding device when performing iterative decoding, obtains first probability information obtained by adjusting the amplitude of the received value and second probability information obtained by adjusting the amplitude of the prior probability information.
  • the soft output decoding means logarithmic soft output and / or external information is generated using the first additional coefficient, the second additional coefficient, and the third additional coefficient, and the external information is output as prior probability information in the next-stage soft output decoding means. I do.
  • the decoding method according to the present invention achieves a log likelihood in which the probability of passing through an arbitrary state based on a received value that is a soft input is expressed in logarithmic likelihood ratio form.
  • This is a decoding method that uses the log likelihood to concatenate a plurality of element codes and repeatedly decodes the code generated by multiplying the received value by a predetermined coefficient.
  • a soft output decoding step of generating a logarithmic soft output and / or external information in which the soft output at each time is logarithmically performed is performed a plurality of times in succession, and in the rescue decoding step, the generated external information is It is output as prior probability information in the soft output decoding process.
  • the first probability information obtained by adjusting the amplitude of the received value and the amplitude of the prior probability information in the soft output decoding process And the second probability information obtained by adjusting the first and second additional coefficients, and the logarithmic soft output and / or external information is generated using the first and second additional coefficients.
  • the external information is output as prior probability information in the next soft output decoding process. .
  • the decoding apparatus obtains the log likelihood in which the probability of passing through an arbitrary state is logarithmically expressed in the form of a log likelihood ratio based on the received value that is a soft input, and uses the log likelihood.
  • the first probability information obtained by dividing by the coefficient is multiplied by the reciprocal of the second additional coefficient for adjusting the amplitude of the prior probability information by multiplying only the prior probability information by the prior probability information.
  • Soft output decoding means for inputting the second probability information obtained as a result and performing soft output decoding, wherein the soft output decoding means comprises a first addition coefficient, a second addition coefficient A logarithmic soft output and / or external information in which the soft output at each time is logarithmically generated using a coefficient and a third additional coefficient for adjusting the amplitude at the time of operation inside the soft output decoding means.
  • the decoding device performs soft-output decoding on the first probability information obtained by adjusting the amplitude of the received value and the second probability information obtained by adjusting the amplitude of the prior probability information.
  • the soft output decoding means generates a logarithmic soft output and / or external information by using the first additional coefficient, the second additional coefficient, and the third additional coefficient.
  • the optimal dynamic range and quantization step size for the information to be input to the soft output decoding means requiring input with the number of bits, and the internal operation of the soft output decoding means performed to generate external information The required optimal quantization step size can be set.
  • the decoding method obtains a log likelihood in which the probability of passing through an arbitrary state is logarithmically expressed in the form of a log likelihood ratio based on a received value that is a soft input, and calculates the log likelihood.
  • the first probability information obtained by dividing by the additional coefficient and the reciprocal of the second additional coefficient for multiplying only the prior probability information and adjusting the amplitude of the prior probability information are included in the prior probability information.
  • the second probability information obtained by multiplication is input to the first and second additional coefficients, and the third additional coefficient for adjusting the amplitude at the time of the internal calculation.
  • Logarithmic 'soft output' and / or external information Comprising a soft-output decoding step for.
  • the first probability information obtained by adjusting the amplitude of the received value and the second probability information obtained by adjusting the amplitude of the prior probability information With probability information and a first additional coefficient, a second additional coefficient, and a third additional coefficient, by generating log soft output and / or external information, with a fixed number of bits
  • the optimal dynamic range and quantization step size for the information input in the soft output decoding process that requires input, and the optimal dynamic range necessary for internal computation in the soft output decoding process performed to generate external information It is possible to set the quantization step size.
  • the decoding device obtains a log likelihood in which the probability of passing through an arbitrary state is logarithmically expressed in the form of a log likelihood ratio based on a received value that is a soft input.
  • a decoding device that repeatedly decodes a code generated by concatenating a plurality of element codes using a channel value obtained by multiplying a received value and a predetermined coefficient by multiplying only the received value.
  • the first probability information obtained by dividing by the first additional coefficient for adjusting the amplitude of the received value and the second probability information for adjusting the amplitude of the prior probability information by multiplying only the prior probability information.
  • the second probability information obtained by multiplying the a priori probability information by the reciprocal of the additional coefficient is input, and a plurality of soft output decoding means for performing soft output decoding are connected to each other.
  • the first additional coefficient, the second additional coefficient, and the soft output recovery Logarithmic soft output and / or external information in which the soft output at each time is logarithmically generated by using a third additional coefficient for adjusting the amplitude at the time of calculation inside the signal means, and the generated external information is It is output as prior probability information in the soft output decoding means of the stage.
  • the decoding device provides, when performing iterative decoding, the first probability information obtained by adjusting the amplitude of the received value and the second probability information obtained by adjusting the amplitude of the prior probability information.
  • the soft output decoding means uses the first additional coefficient, the second additional coefficient, and the third additional coefficient to generate logarithmic soft output and / or external information.
  • the external information is output as prior probability information in the soft output decoding means at the next stage, so that the soft input requires input with a fixed number of bits. It is possible to set the dynamic range and the quantization step size, and the optimum quantization step size required for the internal operation of the soft-output decoding means for generating external information.
  • the decoding method obtains a log likelihood in which the probability of passing through an arbitrary state based on a received value that is a soft input is expressed in a log likelihood ratio in a logarithmic likelihood ratio.
  • the soft output decoding process of generating logarithmic soft output and / or external information in logarithmic notation is performed a plurality of times in succession, and in the soft output decoding process, the generated external information is used in the next soft output decoding process. Is output as prior probability information.
  • FIG. 1 is a block diagram illustrating the configuration of a communication model.
  • Figure 2 is a diagram illustrating a trellis in the conventional coding apparatus, 'probability shed t, is a diagram for explaining the contents of? T ⁇ Pia t. ⁇
  • FIG. 3 is a flowchart illustrating a series of steps in performing a soft output decoding by applying a BJR algorithm in a conventional decoding device.
  • FIG. 4 is a flowchart illustrating a series of steps in performing a soft-output decoding by applying a Max-Log-BCR algorithm in a conventional decoding device.
  • FIG. 5 is a diagram for explaining the distribution of received values.
  • the mean value of the normal distribution according to the probability density function using the received value as a variable is “Soil A” and the variance is “ ⁇ 2 ”. It is a figure showing distribution.
  • FIG. 6 is a block diagram illustrating a substantial configuration of an I-a calculation circuit included in a conventional decoding device.
  • FIG. 7 is a diagram for explaining the distribution of the channel values obtained by multiplying the received value by the coefficient AMP, and illustrates the distribution of the channel values when the coefficient AMP is set to 0.5 to 8.
  • FIG. 7 is a diagram for explaining the distribution of the channel values obtained by multiplying the received value by the coefficient AMP, and illustrates the distribution of the channel values when the coefficient AMP is set to 0.5 to 8.
  • FIG. 8 is a block diagram illustrating a substantial configuration of an Ia calculation circuit included in a conventional decoding device when changing the quantization step size of prior probability information. ⁇
  • FIG. 9 is a diagram for explaining distribution of received values in a conventional decoding device having the Ia calculation circuit shown in FIG. .
  • FIG. 10 is a block diagram illustrating a configuration of a communication model to which the data transmission / reception system shown as an embodiment of the present invention is applied.
  • FIG. 11 is a diagram illustrating an example of the arrangement of signal points by the encoding device in the data transmission / reception system, and is a diagram illustrating an example of the arrangement of signal points by the BPSK modulation method.
  • FIG. 12 is a diagram illustrating an example of the arrangement of signal points by the encoding device in the data transmission / reception system, and is a diagram illustrating an example of the arrangement of signal points by the QPSK modulation method.
  • FIG. 13 is a diagram showing an example of the arrangement of signal points by the encoding device in the same data transmission / reception system, and is a diagram showing an example of the arrangement of signal points by the 8PSK modulation method.
  • FIG. 14 is a block diagram illustrating a configuration of an example of an encoding device in the data transmission / reception system.
  • FIG. 1'5 is a diagram illustrating a trellis in the encoding device shown in FIG.
  • FIG. 16 is a block diagram illustrating an example of a configuration of a decoding device in the data transmission / reception system, and illustrates a configuration of a decoding device that decodes a code encoded by the encoding device illustrated in FIG. It is a block diagram explaining.
  • FIG. 17 is a block diagram illustrating a substantial configuration of an Ia calculation / storage circuit included in the decoding device illustrated in FIG.
  • FIG. 18 is a block diagram illustrating a substantial configuration of the external information calculation circuit included in the decoding device illustrated in FIG.
  • FIG. 19 is a block diagram illustrating a configuration of an example of an encoding device that performs encoding by PCCC.
  • FIG. 20 is a block diagram illustrating a configuration of a decoding device that decodes a code encoded by the encoding device illustrated in FIG.
  • FIG. 21 is a block diagram illustrating an example of a configuration of an encoding device that performs encoding by SCCC.
  • FIG. 22 is a block diagram illustrating a configuration of a decoding device that decodes a code encoded by the encoding device illustrated in FIG.
  • FIG. 23 is a diagram illustrating the relationship between the dynamic range of the received value and the coding loss.
  • FIG. 24 is a diagram illustrating the relationship between the dynamic range of the channel value and the coding loss.
  • FIGS. 25A and B are diagrams for explaining the normalization of the distribution of received values or channel values.
  • FIG. 25A shows that the average value is “ ⁇ 1” and the variance is “ 2 ”. "Shows the normal distribution before normalization, and Fig. 25B shows the normal distribution after normalization.
  • FIG. 26 is a diagram for explaining the relationship between the dynamic range of the received value and the coding loss in the normalized distribution.
  • FIG. 27 is a diagram showing a typical example of a quantization range with respect to a signal point range.
  • FIG. 28 is a diagram illustrating an example of a quantization range for a signal point range, and is a diagram illustrating a quantization range including the signal point range.
  • FIG. 29 is a block diagram illustrating a configuration of an I key calculation and storage circuit included in the decoding device shown in FIG. 16 when the encoding device shown in FIG. 14 is configured to perform TCM.
  • digital information is encoded by an encoding device 1 provided in a transmitting device (not shown), and the output is transmitted via a memoryless communication path 2 with noise to a receiving device (not shown).
  • This is a data transmission / reception system applied to a communication model for decoding by a decoding device 3 provided in the receiving device.
  • the decoding device 3 is encoded by the encoding device 1.
  • Coded decoding see Robertson, Villebrun and Hoeher, A comparison of optimal and sub-optimal MAP decoding algorithms operating in the domain, IEEE Int. Conf.on Communications, pp. 1009-101. 3, June 1995 ”based on the Max-Log-MAP algorithm or Log-MAP algorithm (hereinafter referred to as Max'Log-BCJR algorithm or Log-BCJR algorithm).
  • Max'Log-BCJR algorithm or Log-BCJR algorithm
  • MAP Log-BCJR algorithm
  • It is configured to perform decoding, and the so-called probabilities t, / S t, a and soft-output t are calculated using natural logarithm.
  • the decoding device 3 performs MAP decoding based on the Log-BCJR algorithm.
  • M states transition states representing the contents of the shift register provided in the encoding device 1 are represented by m (0, 1,..., M—1), and the state at time 1: Is denoted by St.
  • the encoding device 1 includes, for example, convolutional codes, parallel concatenated convolutional codes (hereinafter, referred to as PCCC), or tandem concatenated convolutional codes (hereinafter, referred to as SCCC).
  • Figure 11 shows an example of signal point arrangement.
  • Figure 4 shows a modulation scheme and
  • Figure 12 shows an example of signal point arrangement.
  • Keying hereafter referred to as QP SK.
  • Modulation method This is configured to be modulated by a modulation method that arranges signal points at which the distribution of received values for each bit is obtained, such as modulation method.
  • the encoding device 1 may use, for example, a convolutional code such as an 8-phase shift keying (hereinafter, referred to as 8 PSK) modulation method whose signal point arrangement is shown in FIG.
  • 8 PSK 8-phase shift keying
  • the distribution of received values for each bit is encoded by a modulation method that arranges signal points for which 'is not obtained, so that the arrangement of signal points and the decoding characteristics of the error correction code are considered in an integrated manner. It is configured to perform modulation (Trellis Coded Modulation; hereinafter, referred to as TCM).
  • TCM Troellis Coded Modulation
  • the coding device 1 may be a Turbo Trellis Coded Modulation (hereinafter, referred to as TTCM) combining PCCC or SCCC and multi-level modulation, or a tandem concatenated coding modulation (hereinafter referred to as TTCM).
  • TTCM Turbo Trellis Coded Modulation
  • SCT CM Serial Concatenated Trellis Coded Modulation
  • the exclusive OR circuit 11 performs an exclusive OR operation using the 1-bit input data i and the data supplied from the exclusive OR circuit 13 and shifts the operation result. It is supplied to the register 1 and the exclusive OR circuit 15.
  • the shift register 12 continues to supply the held 1-bit data to the exclusive OR circuit 13 and the shift register 14. Then, the shift register 12 newly holds the 1-bit data supplied from the exclusive OR circuit 11 in synchronization with the clock, and stores this data in the exclusive OR circuit 13 and The new supply will be provided on the shift register evening 14. .
  • the exclusive OR circuit 13 performs an exclusive OR operation using the data supplied from the shift registers 12 and 14 and supplies the operation result to the exclusive OR circuit 11.
  • the shift register 14 continues to supply the held 1-bit data to the exclusive OR circuits 13 and 15. Then, the shift register 14 newly holds the 1-bit data supplied from the shift register 12 in synchronization with the clock, and newly supplies this data to the exclusive OR circuits 13 and 15. I do.
  • the exclusive-OR circuit 15 performs an exclusive-OR operation using the data supplied from the exclusive-OR circuit 11 and the data supplied from the shift register 14. the results 2 bi Uz capital of the output data:?: to output to the outside as output data Isseki x t2 1 bit of one of the t.
  • Such encoding device 1 ', 1 by entering the input data i bits, the input data i tl, the 1-bi Uz bets tissue components of the two bits of the output data Isseki X t Output as the data x tl, and outputs to the outside as it is, subjected to recursive convolution operation against the input data i tl, the output data x of the other 1 bit of the output data X t of the operation result 2 bits Bok Output to the outside as t2 . That is, encoding apparatus 1 ′ performs a recursive systematic convolution operation with an encoding rate of “1 2”, and outputs output data xt to the outside.
  • a description of the trellis in the encoding device 1 ′ is as shown in FIG. 15 ′.
  • a path indicated by a broken line indicates a case where the input data it i is “0”
  • a path indicated by a solid line indicates a case where the input data itl is “1”.
  • the label assigned to each path indicates 2-bit output data:? Dt.
  • the state is a sequence of the contents of the shift register 12 and the contents of the shift register 14 in order, and the states are "00", “10", “01”, "11,”, and so on. State number They are represented as “0", "1", “2”, and “3", respectively.
  • the number M of states in the encoding device 1 is 4, and the trellis has a structure in which two paths reach from each state to the state at the next time.
  • Output data encoded by such an encoding device 1 ′:? t is modulated by a modulator (not shown) according to a predetermined modulation method, and is output to the receiving device via the memoryless communication path 2.
  • the decoding device 3 which decodes the code coded by the coding device 1,, has two multipliers 2 1, 2 2 as shown in FIG. And a soft output decoding circuit 23 which is a soft output decoding means for performing soft output decoding.
  • This decoding device 3 has a soft input due to the noise generated on the memoryless communication channel 2.
  • the input data i tl in the encoder 1 ′ is estimated.
  • the multiplier 2 1 multiplies the received value yt in a case where it is assumed that additive white Gaussian noise (hereinafter referred to as AWGN) is added by the memoryless channel 2.
  • AWGN additive white Gaussian noise
  • the multiplier 21 generates probability information (hereinafter, communication channel value) obtained from the received value 3 by multiplying the received value .y t by the coefficient AMP.
  • the AMP xy generate a probability information AMP / CiiX y t is a first probability information obtained by dividing the first additional coefficient C E. : Multiplier 2 1, you supply probability information AMP / C E xy t obtained by multiplying the soft-output decoding circuit 2 3.
  • the multiplier 22 calculates 1 / CA, which is the reciprocal of the second additional coefficient C A for adjusting the amplitude of the prior probability information APPt by multiplying only the prior probability information APPt, with respect to the prior probability information AP Pt. Multiply by The multiplier 22 supplies the soft output decoding circuit 23 with the probability information 1 / CA X APPt, which is the second probability information obtained by the multiplication.
  • the soft-output decoding circuit 23 is configured as a large-scale integrated circuit (hereinafter, referred to as an LSI) by integrating its components on a single semiconductor substrate.
  • the soft-output decoding circuit 23 includes a controller 24 that controls each unit, and an Ia calculation and storage circuit that is a first probability calculation unit that extracts and stores a log likelihood Ia that is a first log likelihood. Calculate and store the log likelihood I, which is the second log likelihood, and calculate I ⁇ as the second probability calculating means.
  • the storage circuit 26, and the third log likelihood A third probability calculation means for calculating and storing a certain log likelihood I ⁇ I?
  • the controller 24 stores the control signals SCa, SC, and C for the I output and storage circuit 25 and the I calculation 'storage circuit 26 and the I? Calculation' storage circuit 27, respectively.
  • Supply SC 5 to control the operation of each part. '
  • the probability output AMP / CE X yu supplied from the multiplier 21 and the multiplication circuit Multiply the probability information l / C A xAPP t supplied from the unit 22, the first additional coefficient Ci !, the second additional coefficient C A , the received value y t and the prior probability information AP Pt.
  • the calculation shown in the following equation (28) is performed for each received value yt, and the amplitude is The log likelihood XI y t at each adjusted time t is calculated and stored.
  • the Ia calculation / storage circuit 25 essentially includes two multipliers 31 and 32, which are first multiplication means and second multiplication means, It is implemented as having one adder 33 as addition means.
  • the key calculation / storage circuit 25 uses the multiplier 31 to calculate the first additional coefficient and the third additional coefficient C ⁇ ⁇ ⁇ ⁇ with respect to the probability information AMP / CuX′y supplied from the multiplier 21.
  • the product C R x is multiplied, and the obtained result is supplied to the adder 33.
  • I y calculated * storage circuit 25 the adder 33 adds the information supplied from the respective ⁇ 31, 32, calculates a log likelihood C x I ⁇ t. That, I y 'calculated SL ⁇ path 25 calculates the log likelihood dx E ⁇ t represented by dx (AP P t + AMP xy td). Then, I ⁇ -storage circuit 25 stores the log likelihood dx I ⁇ t calculated in a storage unit (not shown). Although not shown, the Ia calculation / storage circuit 25 actually has four adders 33 for the number of states, in this case.
  • the storage circuit 25 calculates the log likelihood C! X I rt and supplies it to the storage circuit 26, the I? Calculation and storage circuit 27, and the soft output calculation circuit 28. .
  • I ⁇ calculated and storage circuit 25 I shed ⁇ / storage circuit 26, 1 5 calculates • storage circuit 27 and the log likelihood I ⁇ t in the order it was suitable for processing in its soft-output computation circuit 28 Supply.
  • the air calculation and storage circuit 25 The log likelihood C tX I 7t supplied to the storage circuit 26 is represented as Ia (H), and the Ia calculation is calculated from the storage circuit 25 and supplied to the storage circuit 27.
  • the log likelihood C t X l T ⁇ is expressed as dxl (? 1), dxl ( ⁇ 2), and 1 ⁇ is calculated.
  • • Log likelihood I supplied from the storage circuit 25 to the soft output calculation circuit 28 Let y t be expressed as dx I 7 (e).
  • the I calculation and storage circuit 26 under the control of the controller signal SC supplied from the controller 24, calculates the Ia calculation and log likelihood C i XI r ( ) Is used to calculate the log likelihood dxl at each time t, and store it. Note that the operator in the following equation (29)
  • the I ⁇ output / storage circuit 26 calculates the log likelihood dx I t at each time 7 by performing the operation shown in the following equation (30). 'In other words, based on the log likelihood C! X I, the storage circuit 26 calculates, for each received value y t , Calculate the log likelihood C! ⁇ by adjusting the amplitude of the log likelihood ⁇ .
  • the I-calculation circuit 26 supplies the stored log likelihood C xl H t to the soft-output calculation circuit 2.8.
  • the I calculation / storage circuit 26 supplies the log likelihood C! XI ⁇ t 'in an order suitable for the processing in the soft output calculation circuit 2'8.
  • the log likelihood C jxl at supplied from the I calculation / storage circuit 26 to the soft output calculation circuit 28 is represented as dxl ⁇ .
  • the I ⁇ calculation and storage circuit 27 calculates the Iy calculation and the log likelihood supplied from the storage circuit 25 under control by the control signal supplied from the controller 24.
  • the operator "#" in the following equation (3.1) indicates the log-sum operation as described above, and the logarithm of the input "0" when transitioning from state m 'to state m is performed. It shows the g-simi operation of the likelihood and the log likelihood when transitioning from state m at input "1" to state m. ⁇ More specifically, I?
  • the storage circuit 27 calculates the log likelihood dx I? T at each time t by performing the operation shown in the following equation (32). based on the log likelihood dx I y, for each received value y t, the probability leading to each state in the reverse order of time series' truncation state;. was adjusted log likelihood I ⁇ amplitude of that logarithmic notation 5 calculating log likelihood I? a. then, I? ⁇ -storage circuit 2 7 of the log likelihood dx I? t that the stored, the log-likelihood dx I? t of one system The supply. At this time, the output calculating circuit 2 8, I ⁇ -storage circuit 2 7 supplies the log likelihood C!
  • the soft output calculation circuit 28 calculates the log likelihood C j XI 7 (person) supplied from the I y calculation and storage circuit 25 and the log likelihood dx I H ( ⁇ ) And the logarithmic likelihood dx I ⁇ ( ⁇ ) supplied from the storage circuit 27 to perform an operation represented by the following equation (33), and calculate the logarithmic soft output I input t at each time t. Calculate and store logarithmic soft output dx I with adjusted amplitude.
  • the soft output computation circuit 28 if necessary, the logarithmic soft-output CIXI who It corresponding to the posterior probability information for the information bits, 'log soft-output corresponding to the a posteriori probability information for the code Bitsu preparative C !
  • the soft output calculation circuit 28 sorts the stored log soft output C! X I and / or log soft output dx I ct in chronological order, and then supplies the sorted data to the external information calculation circuit 29, or Output to the outside.
  • the external information calculation circuit 29 includes a logarithmic soft output CIs 1 supplied from the soft output calculation circuit 28, a probability information 1 / C A x APPt supplied from the multiplier 22, and a second addition coefficient. External information l / C A x EX t is calculated using C A and the third additional coefficient Ci. At this time, the external information ⁇ circuit 2 9, optionally, an outer portion information l / C A xEX It for the information bits, and an external information l / C A xEX ct for the code Bidzuto and out ⁇ . .
  • the external information calculation circuit 29 substantially includes one multiplier 34, which is a third multiplier, and one difference, which is a differentiator. It is implemented as having the device 35.
  • the external information calculation circuit 29 outputs a second additional coefficient CA and a third additional coefficient d to the log soft output C! X I ⁇ supplied from the soft output calculation circuit 28 by the multiplier 34.
  • the result is multiplied by 1 / (CAX CI), which is the reciprocal of the product, and the obtained result is supplied to a differentiator 35.
  • the external information calculation circuit 29 calculates the difference between the information l / C A x I supplied from the multiplier 34 and the probability information 1 / C A XAPP t supplied from the multiplier 22 by the differentiator 35. calculating a value, and outputs the difference value to the outside as external information 1 / C a x EXt the amplitude adjusted external information EX t.
  • the external information calculation circuit 29 is not shown, but actually, the external information 1 / CAXEX! t bi Uz preparative minutes, this case is one differentiator 35, and / or external information for the code bits 1 / CAX EX ct Bidzuto minutes, this case has two differentiator 35.
  • the decoding device 3 ′ When such a decoding device 3 ′ receives the soft input received value y t received by the receiving device, the decoding device 3 ⁇ ⁇ ⁇ ⁇ Each time the received value y t is received, the log likelihood dxlyt (m,, m) is calculated, and the I calculation and storage circuit 26 calculates the log likelihood I at (m). When yt is received, the I / 5 calculation ′ storage circuit 27 calculates the log likelihood dx l Jt (m) for each state m at all times 7. Then, the decoding device 3, using the log likelihood dx I at, Ci x I?
  • the decryption device 3 ′ uses the external information calculation circuit 29 to calculate the external information 1 / CAX EXt at each time 7.
  • Ru can perform soft-output decoding of applying the L 0 g- BCJR algorithm.
  • the decoding apparatus' 3 sets the first additional coefficient CE , the second additional coefficient CA, and the third additional coefficient, so that the channel value input to the soft-output decoding circuit '23
  • the amplitude of the AMP xy tj and the prior probability information APPt can be adjusted, and the optimal dynamic range and quantization step size when inputting to the soft output decoding circuit 23 can be set. It is possible to set the optimum quantization time viewing width required 'operation in the interior of the soft-output decoding circuit 2 3 performed to generate a soft output I e t and / or external information EXT. ⁇ ——.
  • the number of bits that can be input to the soft-output decoding circuit 23 is 7 bits or less, that is, when it is possible to input at a gradation of 127 to +1 27, 8 bits. That is, a case is considered in which a communication channel value AMP xy tj represented by a gray scale of 255 to +255 is input.
  • the decoding apparatus 3 is, for example, and sets to "2" to both the first additional factor C E and second additional coefficients C A, set to "1/2" to third additional factor I do. That is, the decoding device 3 multiplies the channel value AMP Xy tj and the prior probability information APPt input to the soft output decoding circuit 23 by 1/2. Therefore, the decoding device 3 converts the channel value AMP X yt ; i and the prior probability information AP Pt input to the soft output decoding circuit 23 into gradations of 1 127 to +1 27 The communication channel value AMP X y tj and the prior probability information APPt are carelessly expressed. The signal can be input to the soft output decoding circuit 23 without clipping.
  • the decoding device 3 ′ sets the first additional coefficient Cn, the second additional coefficient CA, and the third additional coefficient so that the received value y ti is multiplied by the coefficient A MP to be multiplied.
  • the range and quantization step size can be set.
  • the decoding device 3 ′ sets the value expressed by a power of 2 as the first additional coefficient CR, the second additional coefficient CA, and the third additional coefficient, thereby obtaining the multiplier 22 2 described above. , 31, 32, and 34, the multiplication processing can be realized by bit shift without using an actual multiplier, and the processing speed can be increased and the circuit scale can be reduced.
  • the decoding device 3 ′ ⁇ ′ includes a first additional coefficient C E , a second additional coefficient CA, and a third additional coefficient C! May be set as a predetermined constant value.
  • the decoding apparatus 3 is, LOG- BCJR when the applied algorithm, by the third addition coefficient with a predetermined constant value, the log likelihood I a t, in order to calculate the I? .T Therefore, it is not necessary to perform adjustment when obtaining the correction term required for performing the log-sum operation, that is, the second term on the right side in the above equations (30) and (32).
  • the decoding device 3 ′ sets the third additional coefficient to a value larger than “1”, for example, so that the information at the time of internal operation is smaller than the quantization step size of the information outside the soft output decoding circuit 23.
  • the quantization step width can be made relatively small. By doing so, the performance of the decoding device 3 can be improved. This has been demonstrated by simulation.
  • the decoding device 3 ′ may include only the soft-output decoding circuit 23.
  • the multipliers 21 and 22 described above include a demodulator (not shown) provided in the preceding stage. Will be prepared for.
  • the decoder 3 ' instead of outputting the log soft-output CIX I enter t to the outside, log soft-output ctx I t in the third log soft-output is multiplied by 1 which is the inverse of addition coefficients of I The person t may be output to the outside.
  • the log soft output dx I At is the reciprocal of the third addition coefficient May be multiplied inside the soft output decoding circuit 23 or externally.
  • the decoding apparatus 3 ′ when the decoding apparatus 3 ′ is not applied to the iterative decoding described later, there is no need to provide the external information calculation circuit 29, and the log soft output dx I Act corresponding to the prior probability information for the code bits is used. There is no need to calculate.
  • the decoding device 3 is configured to perform so-called iterative decoding.
  • the decoding device 3 is configured by applying the above-described decoding device 3.
  • the decoding device 3 is configured to perform iterative decoding by connecting a plurality of soft-output decoding circuits that perform MAP decoding based on the above-described algorithm via an interleaver or a interleaver.
  • the encoding / decoding by the encoding device 1 "and the decoding device 3" for performing the encoding / decoding by the PCCC shown in FIGS. 19 and 20 and the encoding / decoding by the SCCC shown in FIGS. 21 and 22 are described.
  • the encoding device 1 and the decoding device 3 ′′ ′ to be performed will be described.
  • the encoder 1 ′ includes a delay unit 41 for delaying input data, two convolutional encoders 42 ′ and 44 for performing convolution operation, and an order of input data. Some are provided with a sorter of 43.
  • the encoding apparatus 1 " with respect to input data Isseki i tl 1 bi Uz bets input, the encoding rate" performs parallel concatenated convolution of 1/3 ", the output data x of 3 bi Uz DOO tl, generates x t2, x t3, is output to the outside through, for example, BP SK modulation scheme, QP SK modulation scheme not shown FIG performing modulation by the modulator..
  • Delayer 41 there is provided in order to match the evening Imin grayed three bi Uz bets output data xt x t2, xt 3 is output, the input of the input data i of 1 bit result, the input data i Delay tl by the same time as the processing time required by interleaver 43.
  • the delay unit 41 outputs the delayed data obtained by delaying the In together when output as 1-bit output data x tl of the force data x t, and supplies to the subsequent convolutional encoder 42.
  • Encoder 42 convolutional inputs the delayed data of 1 bit outputted from the delay unit 4 1 performs convolution on this delay data, an operation result of the 3-bit output data X t 1 It is output to the outside as bit output data Xt2.
  • Interleaver 43 the input data Isseki i tl consisting of a single bit sequence entered, rearrange the order of each bi Uz that make up the input data i tl, resulting Intari -.
  • Budeta the subsequent convolution This is supplied to the encoder 44. ⁇
  • the convolutional encoder 44 Upon receiving the 1-bit interleaved data supplied from the interleaver 43, the convolutional encoder 44 performs a convolution operation on the interleaved data and outputs the operation result among the 3-bit output data ct. as output data x t3 1 bit of the outside.
  • Such an encoding device 1 When such an encoding device 1 "receives a 1-bit input data i, it receives the input data i tl as the output data x tl of the tissue component and leaves it as it is via the delay unit 41. and outputs to the outside, the convolution output data xt 2 obtained as a result of convolution of the delayed data by the encoder 42, and. inter some truth output data x t3 resulting from the convolution of Budeta by convolutional encoder 44 Is output to the outside, thereby performing a parallel convolution operation with an encoding rate of “1Z3” as a whole.
  • the data encoded by this encoding device 1 ” is modulated by a modulator (not shown) at a predetermined modulation rate. Matching of signal points is performed based on the method, and output to the receiving device via the memoryless communication channel 2.
  • a decoding device 3 "that decodes a code by the encoding device 1" includes two multipliers 51 and 52 and a convolutional code which is an element encoder in the encoding device 1 ". , 53MI, 53M2, the product of the number of element codes and the number of repetition times M of iterative decoding, ie, 2 XM processing circuits 53 u, 5312, 53MI, 53M2 provided and.
  • Multiplier 5 like the multiplier 2 1 in the decoding apparatus 3 'described above, multiplies the received value yt, and the value AMP / C E obtained by dividing the coefficient AMP in the first additional factor C K. Multiplier 5 1 supplies the probability information AMP / C K xy t obtained by multiplying the processing circuit 53.
  • the multiplier 52 multiplies the prior probability information APP t by 1 / CA which is the reciprocal of the second additional coefficient CA, similarly to the multiplier 22 in the above-described decoding device 3 ′.
  • the multiplier 52 supplies the probability information 1 / CAX APPt obtained by the multiplication to the processing circuit 53 #.
  • the processing circuits 53 ⁇ , 5312, ⁇ , 53 MI, and 53 M2 are each configured as substantially identical LSIs by integrating their components on a single semiconductor substrate.
  • Processing circuit 53 a, ⁇ 5 3, 2 , ⁇ ⁇ ⁇ , of 53 M !, 53 M2, "are those represented by, marks Goka device 1" processing circuit 53 corresponds to the encoder 42 convolutional in And a circuit for performing the i-th decoding process in the number of repetitions.
  • the one represented by the processing circuit 53 i2 is provided corresponding to the convolutional encoder 44 in the 'encoding device 1'. , And the number of repetitions The i-th decoding process is performed.
  • the processing circuit 53 ⁇ includes a delay unit 54 ⁇ that is a delay unit for delaying input data, a soft output decoding circuit 55 n that is a soft output decoding unit that performs soft output decoding, and And an interleaver 56 for interleaving the order of the evening.
  • the delay unit 5 4 ⁇ is output from the interleaver 56 u.
  • the timing at which the probability information l / 'CAX APP tl2 and the probability information AMPZC E xy t input to the next processing circuit 53 12 are output When the probability information AMP / C E xyt supplied from the multiplier 51 is input, the probability information AMP / CnX yt is supplied to the soft output circuit 55 n and the input / output lever 56. Delay by n and the processing time required.
  • Delayer 5 4 u is the probability information AMP / C E xy t delayed, 'supplied to the next-stage processing circuit 53 12.
  • the soft output decoding circuit 55 n is provided corresponding to the convolutional encoder 42 in the encoding device 1 ′′, and although not shown, is similar to the soft output decoding circuit 23 in the above-described decoding device 3 ′.
  • the soft output decoding circuit 55 u includes a multiplier 5 1 The supplied probability information AMP / CH X y t , the probability information l / C A xAPP t supplied from the multiplier 52, the first additional coefficient Cii, and the second additional coefficient C A , The soft output decoding is performed by the same processing as the soft output decoding circuit 23 using the third additional coefficient.
  • the soft-output decoding circuit 55 ⁇ calculates external information 1 / ⁇ £ 1 corresponding to the information bit obtained by the code constraint condition, and outputs the external information 1 / C A x EX tll to the subsequent Supplied as soft output to .56 u.
  • the soft output decoding circuit 55 u does not need to output the log soft output for the information bits as in the soft output decoding circuit 23 described above, and calculates the log soft output and the external information for the code bit and the software. There is no need.
  • the interleaver 56 u receives the external information 1 / CA XEX TLL for the information bit, which is the soft input output from the soft output decoding circuit 55 n, and the interleaver 43 in the encoder 1 ” Perform an leave based on the same replacement position information.
  • the interleaver 56 n processes the external information obtained by interleaving
  • the processing circuit 53 12 is a delay device which is a delay means for delaying input data.
  • a soft-output decoding circuit as soft-output decoding means for performing soft-output decoding 55 12, and a Din-Yu-Ichi-Leaver as dinter leave means for restoring the order of input / output data 5.
  • Delayer 54 12 probability information l / C A x output from Dinh evening Riba 5 6 2
  • C E xy t is provided to match the output timing.
  • the probability information AMP / C R xy t supplied from the processing circuit 53 n is input, the probability information AMP / C E the xy t only the processing time in the same time that Yosu is soft-output circuit 55 12 and the de-centers interleaver 56 12 delays.
  • the delay unit 54 12 is used to calculate the probability information AM.
  • the soft output decoding circuit 55 12 is provided corresponding to the convolutional encoder 44 in the encoding device 1 ′′, and although not shown, has the same configuration as the soft output decoding circuit 23 in the above-described decoding device 3 ′.
  • the soft output decoding circuit 55 12 includes a processing circuit 5 3 probability information supplied from the AMP / C E xy t, using the l / C A xAPP tl2, the first additional factor CH, and the second additional coefficients CA, and a third additional factor, the soft output Soft output decoding is performed by the same processing as the decoding circuit 23.
  • the soft-output decoding circuit 5 5 12 calculates the external information l / C A x EX TL 2 for the information bits determined by the code constraint condition, and calculates the external information ⁇ / CAX EX 2 as a dinterleaver 5 6 12 is supplied as soft output.
  • the soft-output decoding circuit 5 5 as the soft-output decoding circuit 2 3 described above, it is not necessary to output a log soft-output for the information bits, calculates the log soft-output and external information for the code bits No need.
  • the data diverter 5 6 12 returns the bit array of the interleaved data interleaved by the encoder 4 3 in the encoder 1 "to the bit array of the original input data i tl , respectively.
  • the external information 1 Bruno CAXEX t 2 for the information bits is a soft-input output from the soft-output decoding circuit 5 5 12 subjected to Ding Thali drive. di centers interleaver 5 6 12 external obtained by Din evening one Reeve supplying information, prior to information Bidzuto in the next stage of the processing circuit 5 3 21 not shown, probability information. amplitudes as probability information 1 / CAXAPP 12! adjusted to the, to the next stage of processing circuits 53.21 (not shown) .
  • the processing circuit 53 M1 is, like the processing circuit 53 3 ⁇ , a delay unit 54 M1 that is a delay unit for delaying input data, and a soft output decoding unit that is a soft output decoding unit that performs soft output decoding. It has a circuit 55 M1 and an input receiver 56 M1 that is a means for reordering input data.
  • Processing circuit 5 3 M1 includes probability information AMP / C H xy t, 1 / C A AP P TM1 which play supplied from the processing circuit 5 3 M- n (not shown), a first additional coefficient C E, the second Using the additional coefficient C A and the third additional coefficient d, the same processing as in the processing circuit 53 ⁇ is performed, and the obtained external information is used as the prior probability information for the information bits in the next-stage processing circuit 53 32.
  • the processing circuit 53 M2 does not output the probability information AMP / C K xy t supplied from the processing circuit 53 M1 and delayed by the delay unit 54 M2 , or the probability information AMP / C supplied from the processing circuit 53 M1. Do not input E xy t to delay unit 54 M2 .
  • the processing circuit 53 M2 includes a processing circuit 53 to adjust the amplitude of the external information EX Tm2 for the information bits obtained by the same process as the soft-output decoding circuit 55 12 in 12.
  • Such a decoding device 3 ′′ includes soft-output decoding circuits 55 ⁇ 55 and 55 i2 corresponding to the convolutional encoders 42 and 44 in the encoding device 1, respectively. Can be decomposed into low-complexity elements; the interaction between the soft-output decoding circuits 5.5 ⁇ , 5.5-5 ⁇ 2 can improve the characteristics sequentially.
  • Decoder 3 "receives the received value y t, 2 XM number of processing circuits 53 n, 53 12, ⁇ ⁇ -, the 53MI, 53M2, number of repetitions performs iterative decoding of M, the decoding operation
  • the decoded data 1 / C A x DE Ct is output based on the resulting soft-output external information 1 / CA.X EX tM2 .
  • the decoding device 3 has a first addition coefficient CE, a second addition By setting the coefficient C A and the third additional coefficient, the decoding circuit 53 ll5 5312, ...
  • the decoded data l / C A x DE instead of outputting to the outside the Ct, decoding de one multiplied by the second additional coefficient CA to decode de Isseki 1 / CA XDE Ct evening may output a DEC t outside. in this case, to multiply the second additional coefficient CA to decode de Isseki 1 / CA XDE Ct is filed within the processing circuit 53 M2 Or external.
  • the processing circuit 53 n, 5312,.. ⁇ , 53 MI, 53 M2 configuration may be used as the same.
  • the processing circuitry 53 ll5 53 12, ⁇ ⁇ ⁇ , 53 M1 like the processing circuit 53 M2, becomes a Rukoto to have a adder may in other off function by a control signal indicating not to function these adders.
  • the “encoding device” includes a convolutional encoder 61 that encodes a code called an outer code, an interleaver 62 that rearranges the order of input data, and an inner code.
  • the encoding apparatus 1 "'includes a convolutional encoder 63 for encoding a code.
  • the encoding apparatus 1"' has a coding rate of " 1/1 /" for input .1-bit input data itl . 3 performs serial concatenated convolutional operation ", 3 bi bets output data xtr, generates x t2, x t3, for example, via a BP SK modulation scheme and QP SK modulation side not shown performs modulation by type modulator Output to the outside.
  • Encoder 6.1 convolution 1 by entering the bit small input data i tl, performs convolution with respect to the input data i tl, the calculation result 2 bits of code Cadet Isseki and: to subsequent Supply to interleaver 62. That is, the convolutional encoder 61 performs a convolution operation with an encoding rate of "1/2" as the outer code encoding, and outputs the generated encoded data to the subsequent receiver 62. Supply.
  • the interleaver 62 receives the encoded data composed of the two bit sequences supplied from the convolutional encoder 61, rearranges the order of each bit constituting the encoded data, and generates The input data consisting of two bit sequences is supplied to the convolutional encoder 63 in the subsequent stage.
  • the convolutional encoder 63 When the convolutional encoder 63 receives the bit interleave data supplied from the interleaver 62, the convolutional encoder 63 performs a convolution operation on these in-leave data, and results 3 bi Uz bets output data Isseki x tl, is output as xt 2j x t3. That is, the convolutional encoder 63 performs convolution coding rate "2/3" as coding of inner code, and outputs the output data Isseki X t outside.
  • the data encoded by the encoding device 1 ′′ ′ is mapped to signal points by a modulator (not shown) based on a predetermined modulation method, and is output to the receiving device via the memoryless communication channel 2. .
  • a decoding device 3 ′′ ′ for decoding a code by the encoding device 1 is a two multipliers 71 and 72 and an element encoder in the encoding device 1 ′′ ′′.
  • the decoding device 3 ′ ′′ obtains the decoding data DE Ct by iterative decoding from the reception value yt which is a soft input due to the influence of noise generated on the memoryless communication channel 2, thereby obtaining the coding device 1 ′ ′′ Is used to estimate the input data i tl at.
  • the multiplier 71 multiplies the received value y t by the value AMP / C E obtained by dividing the coefficient AMP by the first additional coefficient C R , similarly to the multiplier 21 in the decoding device 3 ′ described above. Do ..
  • the multiplier 71 supplies the probability information AMP / C E xyt obtained by the multiplication to the processing circuit 73.
  • the multiplier 72 multiplies the prior probability information APPt by ⁇ / 'CA which is the reciprocal of the second additional coefficient C A , similarly to the multiplier 2 ′ 2 in the decoding device 3 ′ described above.
  • the multiplier 72 supplies the probability information 1 / CAX APP t obtained by the multiplication to the processing circuit 73.
  • the processing circuits 7311, 7312 ,..., 73 M1 and 73 M2 are substantially the same as the processing circuits 53 ⁇ , '53
  • Each of the processing circuits 7311 , 7312 , ... , 73, 73 ⁇ 2 is represented by the processing circuit 73 in the encoder 1. It provided with corresponds to the encoder 6 3 convolutional encoding code, and indicates to perform the number of repetitions i th decoding process, those represented by the processing circuit 73 2, encoder 1 Tatami encoding outer code in The figure shows that the decoder is provided corresponding to the convolutional encoder 61 and performs the i-th decoding process.
  • the processing circuit 73 includes a delay unit 74 e that is a delay unit that delays input data, a soft output decoding circuit 75 n that is a soft output decoding unit that performs soft output decoding, and It has Din Yue Li-ba 7 6 ⁇ , which is a Dinter leave means to undo the order of De-Ichi.
  • the delay unit 7 4 ⁇ outputs the probability information 1 / C A x AP P TL 2 output from the din bar liver 6 7 ⁇ and the probability information AMPZCI xy xy t input to the processing circuit 7 3 12 of the next stage.
  • the probability information AMP / C R xy t supplied from the multiplier 7 1 is input, the probability information AMPZ CE X y t is output to the soft output circuit 7 5 n and the interleaver 76 n are delayed by the same time as the processing time required.
  • Delayer 7 4 n is the probability information AMP / C H xy t delayed, supplied to the next-stage processing circuit 7 3 12.
  • the soft output decoding circuit 75 n is provided corresponding to the convolutional encoder 63 in the encoding device 1 ′ ′, and although not shown, the soft output decoding circuit 2 in the decoding device 3 ′ described above.
  • the configuration is the same as that of 3.
  • the soft-output decoding circuit 7.5.u includes the probability information AMP / C R xyt supplied from the multiplier 71 and the probability information l / C A xAPP t supplied from the multiplier 72.
  • the interleaver 76 u calculates the bit array of the interleave and the deleave by the interleaver 62 in the encoder 1 ′ ′′, respectively.
  • External information 1 / CAXEX t ! For the soft input information bits output from the soft output decoding circuit 75 u so as to return to the bit array of the input data it! Dinter leave.
  • the interleaver 676 n converts the external information obtained by deinterleaving into probability information 1 / CA X AP P TL by adjusting the amplitude of the prior probability information for the sign bit in the next stage processing circuit 732 12 . As 2 , it is supplied to the next stage processing circuit 7 3 12 .
  • the processing circuit 7 3 includes a delay device 7 4 12.
  • Delayer 7 412 combining the probability information 1 / CA X APPt2i output from Intariba 7 6, the timing of the probability information AMPZ nx y t which is input to the next-stage processing circuit 7 3 21 (not shown) is output be those provided for, when inputting the processing circuit 7 3 probability information supplied from the n AMP / C H xy t, the soft-output circuit of this probability information AMP / C E xy t 7 5 12 and fin The delay is the same as the processing time required by evening liver 7 6 12 .
  • Delay device 7 4 12 supplies the probability information AMP ZC K X y t delayed, to the next-stage processing circuit 7 3 21 not shown.
  • the soft-output decoding circuit 75 is provided corresponding to the convolutional encoder 61 in the encoder 1 ′ ′′, and although not shown, the soft-output decoding circuit 23 in the decoder 3 ′ described above. the same configuration as the. output decoding circuit 7 5 12 in advance and the processing circuit 7 3 probability information supplied from the 1 / CA X AP P TL 2 , for 'certain information bi Uz preparative value is "0" Using the probability information, the arbitrary coefficient C, the second additional coefficient C A , and the third additional coefficient, soft output decoding of the outer code is performed by the same processing as the soft output decoding circuit 23.
  • the soft-output decoding circuit 7 5 12 the first-out base to enter the coefficient CE terminal, a second identical coefficients CA of those given the soft-output decoding circuit 7 5 u is entered
  • the coefficient C having an arbitrary value is input to the terminal to which the second coefficient CA is to be input ..
  • the terminal to which the second coefficient CA is to be input If the coefficients have any value C is input, the value of the a priori probability information for the information bits of the coefficient C is multiplied by "0" is nothing but the since.
  • Soft-output decoding circuit 7 5 12 Calculate external information l / C A xEX tl2 for the code bit obtained by the code constraint condition, and calculate The unit information l / C A xEX tl2 is supplied as a soft output to the subsequent input receiver 7 6 12 .
  • the soft-output decoding circuit 7 5 12 as the soft-output decoding circuit 2 3 described above, it is not necessary to output a log soft-output for the code-bi Tsu Bok, calculates log soft-output and external information for the information bit Bok You don't have to.
  • a delay unit 7 4 M1 is a delay means for delaying input data
  • a soft-output decoding means for performing soft output decoding 'soft-output decoding It has a circuit 7 ⁇ 5 M i and a Din Yuichi Reaver 76 M1 which is a Din Yu I leave means for restoring the input order of the data.
  • Processing circuit 7 3 M1 includes probability information AMPZCE X yt, 1 / C A x AP P t M i supplied from a not-shown processing circuit 7 3M-a first additional coefficients C K, a second addition of Using the coefficient C A and the second additional coefficient, the same processing as in the processing circuit 7 ′ 3 u is performed, and the obtained external information is converted to the next-stage processing circuit 7 3.
  • Prior probability information for the sign bit in M2 as the probability information 1 / C a x AP P TM2 which the amplitude is adjusted in, Ru be supplied to the processing circuit 7 3 M2 in the final stage '.
  • the processing circuit 7 3 M1 is.
  • Processing circuit 7 3 M2 of the last stage like the processing circuit 7 3 12, a delay unit 7 4 M2 is a delay means for delaying the input data, soft-output decoder is the soft-output decoding means for performing soft output decoding having a circuit 7 5 M2, and a fin evening Riba 7 6 M2 is fin evening Ribu hand stage rearrange the order of the de-entered Isseki.
  • Processing circuit 7 3 M2 the processing circuit 7 3 supplied from the MI to the delay device 7 4 M2 by the output probability information AMP / C E xy t delayed Or not, or do not enter the processing circuit 7 3 M1 probability information supplied from the AMP / C E xy t to the delay unit 74 M2.
  • the processing circuit 7 3 M2 as the processing circuit 73 12 to your Keru soft-output decoding circuit 7 5 12 need not be force out by calculating the extrinsic information for the code bits. Further, the same terminal as the second coefficient CA given to the soft-output decoding circuit 75 M1 is input to the terminal to which the first coefficient CE is input to the soft-output decoding circuit 75 M2 , A coefficient C having an arbitrary value is input to a terminal to which the coefficient C A of 2 is to be input. Here, the coefficient C having an arbitrary value is input to the terminal to which the second coefficient C A is to be input because the value of the prior probability information for the information bit multiplied by the coefficient C is “0”. Because it is.
  • Processing circuit 7 3 M2 calculates the external information 1 / CAXEX t M 2 which adjusts the amplitude of the external information EX t M 2 for information Bidzuto, the external information l / C A X EX tM2, decoding de Isseki Output as decoded data 1 / CAX DE Ct in which the amplitude of DEC t is adjusted.
  • such a decoding device 3 ′′ ′ has a soft-output decoding circuit 7 5 ii, corresponding to that of the convolutional coder 6 3, 61 in the coding device 1 ′′.
  • the decoding device 3 '" can receive 2xM processing circuits 7 3 ⁇ , 7 312, ⁇ , 7 3 ⁇ , 7 3 ⁇ 2 , and iteratively decodes the number of repetitions ⁇ when receiving the received value yt.
  • the decoding device 3 ′ ′′ can process the circuit 7 3 ⁇ , , 7 3 ⁇ , 7 3 ⁇ 2, and the amplitudes of the communication channel values AMP t y t and the prior probability information APP t input to each of the processing circuits 73 n, 7 3 12 , ⁇ ⁇ ⁇ , 7 3 MI, 7 3 it is possible to set an optimum dynamic range and the quantization step size when entering the M2, the processing circuit 7 3 H, 7 3 ⁇ ⁇ , 7 3MI 5 7 3 M It is possible to set the optimum quantization step size required for the internal operation in each of the two .
  • the decryption device 3 '"outputs decryption data 1 / CA XDE CU to the outside Instead, the decoded data DECt may be output to the outside by multiplying the decoded data 1 / CA XDE Ct by the second additional coefficient CA.
  • the second additional factor CA in the decoded data 1 / CAXDE Ct may be an internal processing circuit 53 M2, it may be an external.
  • the decoder 3 '' the extrinsic information EX Tm2 against the information bits, since equal logarithmic soft-output I v M2 for information bi Uz DOO, decoding de external information 1 / C A X EX tM2 Instead of outputting overnight as l / C A x DE Ct.,
  • the logarithmic soft output dx I M2 may be output as decoded data dx DE Ct.
  • a decoding device that decodes a code according to the TTCM scheme can be realized with the same configuration as the above-described decoding device 3 ′′, and directly receives in-phase component and quadrature component symbols as received values yt.
  • a decoding device that decodes a code according to the SCT CM method can be realized with the same configuration as the above-described decoding device 3 ′′ ′.
  • the received value yt includes the in-phase component and the quadrature component. You have to enter the symbol directly.
  • the encoding apparatus 1 performs, for example, the following: a BPSK modulation scheme and a QPSK. Modulation scheme, and a modulation scheme for arranging signal points from which a distribution of received values for each bit can be obtained.
  • a description will be given of an optimal setting method of the first additional coefficient 0 ⁇ when configured to perform modulation by the equation.
  • the coding loss when decoding was performed by changing the dynamic range of the received value in various codes and the channel value represented by the product of the received value and the coefficient AMP.
  • the dynamic range of the generated external information is set to a sufficiently large value such as "32".
  • codes PCCCs with code rates of "1/6" and "1/3" recommended by the CCSDS (Consultative Committee for Space Data Systems) as so-called evening codes, and recommendations in this CCSDS BPSK modulation method using PCCC with coding rate of "3/4" and SC CC with coding rate of "1/3" generated by puncturing as appropriate based on the generated turbo code I have.
  • the curve d is coding rate shows the case of a PCCC "1/6”
  • the curve C 2 shows the case of a PCCC coding rate is "1/3”
  • the curve C 3 shows the case of a PCCC coding rate is "3/4"
  • the curve C 4 is the coding rate shows the case of SCC the "1/3".
  • the dynamic range of the channel value where the coding loss is "0" is near “2.5" in the case of a PCCC with a coding rate of "1/6".
  • the coding rate is "1/3"! In the case of 3 CCC and SCCC with a coding rate of "1/3”, it is near "3.5", and in the case of PCCC with a coding rate of "3/4", it is near "7".
  • the distribution of the reception value or the communication channel value is a normal distribution, and this normal distribution is equivalent to the distribution by changing the average value and the variance. Is generated. Specifically, as shown in FIG. 25A, when the average value is “ ⁇ 1” and the variance is “ 2 ” in the distribution of the reception values or the channel values, FIG. As shown, we can normalize by taking the mean as " ⁇ 1 /".
  • the so-called optimal quantization at the time of Viterbi decoding is applied to the normalized distribution after normalizing the distribution of the reception value or the channel value.
  • Viterbi decoding for example, when the received value is quantized to 4 bits, the characteristics when the quantization step size is set to "0.3" and the uniform quantization is performed for the distribution of the received value with the variance of "1" It is known to improve.
  • the average value of the normalized distribution is "about 2.1". It has been confirmed that this result does not depend on the sign difference.
  • the average of the received values is “ ⁇ 2 to ⁇ 2.5” because the dynamic range of the received values is “approximately 3.7” for the PCCC with the coding rate of “1/6”.
  • the dynamic range of the received value is "about 2.4 to about 3.1” and the coding rate is Is "3/4"
  • the dynamic range of the received value is "about 1.3 to about 1.7”
  • the coding rate is "1/3”.
  • the received value has a dynamic range of "about 2.3 to about 2.9".
  • the average value of the channel value is “ ⁇ 2 to ⁇ 2.5” because the dynamic range of the channel value is “approximately 2” in the case of PCCC with a coding rate of “1/6”. 2 to about 2.7 “and the coding rate is" 1/3 "PCCC, the dynamic range of the channel value is” about 3.3 to about 4.2 “and the code In the case of a PCCC with a coding rate of "3Z4", the dynamic range of the channel value is "about 6.2 to about 7.7", and the SCC C with a coding rate of "1/3". In the case of, the dynamic range of the communication channel value is "about 3.5 to about 4.5".
  • the first additional coefficient CE is set so that “ ⁇ 2 to ⁇ 2.5” is obtained in the normalized distribution.
  • the decoding device 3 sets the value AMP / CE by which the received value yt is multiplied to "1 /", that is, sets the first additional coefficient CE to "2 / ⁇ ". Is desirable.
  • the ratio of the received value whose average value of the received value in the normalized distribution after normalizing the distribution of the received value is within the range of “ ⁇ 2.5”, that is, included in the clip range
  • Table 2 below shows the ratio of the received value.
  • Table 2 below shows each Eb / N. 2 also shows the range of the actual reception value.
  • the ratio of the received value included in the clip range is “about 97.4%” in the case of the PCCC with the coding rate of “1/6”, and the coding rate is “1/3”.
  • PCCC it is "about 95.6%”
  • P.CCC whose coding rate is "3/4" it is "about 85.9%”.
  • SCCC of "1/3” it is "about 92.8%”.
  • the decoding device 3 has By setting the first additional coefficient C n so that the average value of the probability information in the normalized distribution after normalizing the distribution of the input probability information is “ ⁇ 2 to ⁇ 2.5” In addition, it is possible to set the optimal dynamic range and quantization step size for the channel value AMP Xy tj input to the LSI, and perform highly accurate decoding.
  • the encoding device 1 performs TCM by performing modulation using a modulation method for arranging signal points in which a distribution of received values cannot be obtained for each bit, such as the 8PSK modulation method, as described above.
  • the optimal setting method of the first additional coefficient C ′ E in the case of the configuration will be described.
  • the decoding device 3 is configured to calculate and store the log likelihood Ir as in the Iy calculation and storage circuit 25 in the above-described decoding device 3 ′.
  • the Euclidean distance on the I / Q plane is obtained by calculating the inner product of the input probability information.
  • the Euclidean distance is used as the likelihood.
  • the quantization range at the stage before calculating the inner product is smaller than the signal point range, the following inconvenience occurs.
  • the decoding side puts the probability information obtained from the received value on the I / Q plane. Since the quantization is performed by clipping each probability, the probability information is two-dimensionally clipped as shown by " ⁇ " in FIG. Therefore, the quantization range is usually smaller than the 'signal point range.
  • the quantization range is usually smaller than the 'signal point range.
  • this signal point is located closest to the signal point whose phase is "0 °" on the I / Q plane. In such a case, this signal point is quantized as indicated by “X” in the figure, and is erroneously determined as being closest to the signal point having a phase of “45 °” on the ⁇ / Q plane. Will be treated.
  • the decoding device 3 sets the first additional coefficient CE such that the quantization range encompasses the signal point range as shown in FIG. 28, for example.
  • the quantization range it is desirable to set the first additional coefficient CE so as to be about twice as large as the transmission amplitude of the encoding device 1, and in this case, the decoding accuracy is best. Has been proven by Simule.
  • the decoding apparatus 3 calculates the circuit and stores the calculated log likelihood I ⁇ the inner product of probability information AMP / C K xy tj entered to the LSI, after calculating the inner product, the Multiply the product C Ex of the 1 additional coefficient C E and the third additional coefficient.
  • the inner product of probability information AMP / C K xy tj input into the soft-output decoding circuit 2 3 calculated by I ⁇ calculated and stored circuit 2 5, after calculating the inner product ,
  • the multiplier 31 multiplies the product C Ex of the first additional coefficient C E and the third additional coefficient
  • the decoding device 3 when performing normalization for correcting the bias of the calculated inner product distribution, the product C of the first additional coefficient CE and the third additional coefficient d after the normalization is performed. It is desirable to multiply by Ex CI, which can improve performance.
  • a circuit that calculates and stores the log likelihood I can be implemented as follows.
  • the Ia calculation and storage circuit 25 includes, as shown in FIG. 1, 3 2 and one adder 33 as an adding means, an inner product calculating circuit 36 as an inner product calculating means for calculating an inner product, and an inner product calculating circuit 36 It is implemented as having a normalizing circuit 37 which is a normalizing means for normalizing the inner product, and a clipper and a sop circuit 38 which are clipping means for clipping to a predetermined dynamic range. ':.
  • the Ia calculation and storage circuit 25 calculates the inner product of the probability information AMPZC E xy ti supplied from the multiplier 21 by the inner product calculation circuit 36, and converts the resulting metric into a normalization circuit 3 7 To supply. Subsequently, the calculation and storage circuit 25 corrects the bias of the distribution of the metric by performing normalization by the normalization circuit 37 to set the minimum value of the metric to "0", for example.
  • the normalized metric is multiplied by the multiplier 31 by the product C Ex of the first additional coefficient CK and the third additional coefficient, and further obtained by the clipping circuit 38. The result is clipped and supplied to the adder 33.
  • the Ia calculation 'storage circuit 25 5' is processed by the multiplier 32, and the probability information 1 / ⁇ ⁇ ⁇ ? Relative to a second additional factor CA the product C A x of the third additional factor is multiplied is supplied to the adder 33 the results obtained. Then, the Ia calculation memory circuit 25 stores the information supplied from the multiplier 32 and the clip circuit 38 by the adder 33. Calculating a log likelihood C! X I y t by adding the distribution in the storage unit has a illustrates this log likelihood dx.I ⁇ t.
  • the decoding device 3 is configured such that the coding device 1 performs TCM by performing modulation using a modulation method for arranging signal points at which a distribution of received values cannot be obtained for each bit.
  • the first additional coefficient Cii is set so that the quantization range encompasses the signal point range, and after calculating the inner product inside the LSI, the first additional coefficient C E is multiplied by the first additional coefficient C E to obtain the LSI.
  • the optimal dynamic range and quantization step size for the input channel value AMP X can be set, and high-precision decoding can be performed.
  • Decoder 3 when performing normalization of the calculated inner product can be by multiplying the first additional coefficient C R after normalization, and this to perform more accurate decoding. '
  • the decoding device 3 multiplies the probability information IZC'A'X APP T input to the LSI.
  • the second additional coefficient CA and the third additional coefficient are set so that the value becomes 2 or more. That is: the decoding device 3 performs the second additional coefficient C A and the second additional coefficient C A so that the internal operation in the LSI is performed with a quantization step width smaller than the quantization step width expressing the generated external information l / C A xEXt.
  • the decoding apparatus 3 in the case of 'includes multipliers 3 2 by probability information 1 / CAXAPP t product C A x of the second additional coefficients CA and third additional factor C] is multiplied against the "2
  • the second additional coefficient C A and the third additional coefficient are set so that the above values are obtained.
  • the decoding device 3 without deteriorating the performance, it is possible to reduce the number of bits to represent the external information 1 / CAXEX t, it can contribute to decrease cutting the circuit scale .
  • the second additional coefficient CA and the third additional coefficient C j By setting the second additional coefficients CA and third-added coefficients so that the product C A x is "2" or more and, in Tomo when it is possible to reduce the circuit scale, high Accuracy decoding can be performed.
  • this setting method is also applicable to the decoding device 3 ", 3" 'described above as the decoding device 3, or to a decoding device that decodes a code according to the TTCM method or the SCTCM method. '.
  • the optimal setting method of the first additional coefficient C E , the second additional coefficient CA, and the third additional coefficient has been described.
  • the first additional coefficient C E Can also be used as a convergence acceleration factor during iterative decoding.
  • the first additional coefficient CE is used as an acceleration coefficient for convergence at the time of iterative decoding
  • a decoding operation at a later stage than a predetermined number of decoding operations among decoding operations of the number of repetitions M for example, in an initial stage of convergence
  • the GEMS-based d- decoding device 3 "includes, for example, a first additional coefficient CEU, CEI2, ⁇ , which is input from the processing circuit 53 u to an arbitrary 2X i-th processing circuit 53 i2 .
  • the decoding device 3 can speed up convergence as a result, and thus can reduce the number of repetitions.
  • the decoding device 3 rather than used to set the optimum dynamic range and the quantization step size for the first additional coefficients C channel value R a are entered in LSI AMP xy t j
  • it is possible to speed up the processing.
  • the first additional coefficient CE is set in the same manner as in the case of the decoding device 3 ", and in the case of repeatedly decoding the code according to the SCTCM method, as in the case of the decoding apparatus 3 '' it becomes you to configure the first additional coefficient C R.
  • the decoding device 3 includes the first additional coefficient CK , the second additional coefficient CA, and the third additional coefficient CA.
  • the additional coefficient of, the communication path value AMP X y tj and prior probability input to the LSI that requires input with a fixed number of pits according to the coefficient AMP to be multiplied by the received value yti can be set optimum dynamic range and the quantization step size for information APP t, it is possible to set an optimum quantization step size necessary for internal calculation of the LS I.
  • the decoding device 3 is configured as a device that modulates the signal by a modulation method for arranging signal points at which the distribution of received values for each bit is obtained, the decoding device 3 ⁇ also sets the first additional coefficient CR to an average value of the probability information that put the normalization after distribution after normalization is " ⁇ 2 to ⁇ 2.
  • the decoding device 3 When the decoding device 3 is configured to perform the TCM by performing the modulation by the modulation method in which the coding device 1 performs the arrangement of the signal points in which the distribution of the received value for each bit is not obtained,
  • the first additional coefficient CE is set so that the quantization range encompasses the signal point range ⁇ , the inner product in the LSI is calculated, the first additional coefficient CH is multiplied, and the calculated inner product is further calculated.
  • multiply by the first additional coefficient CE after normalization By setting the first additional coefficient C E in this manner, the decoding device 3 can set the optimal dynamic range and quantization step size for the channel value AMP X y input to the LSI, High-precision decoding can be performed. .
  • the decoding device 3 performs the second additional coefficient CA and the third additional coefficient CA so that the product C A x CI of the second additional coefficient CA and the third additional coefficient d becomes a value equal to or greater than “2”.
  • Set J By setting the second additional coefficient CA and the third additional coefficient d in this way, the decoding device 3 can reduce the circuit scale and perform highly accurate decoding.
  • Decoding apparatus 3 can also be used as an acceleration factor of the convergence during decoding iteration the first additional coefficients C K, it is possible to increase the speed of processing. That is, the data transmission / reception system configured by using the encoding device 1 and the decoding device 3 realizes high-performance, high-speed, and small-scale decoding, and provides users with high reliability and high reliability. It can provide convenience.
  • the encoding device may not be a device that performs a convolution operation, and may perform encoding at any encoding rate. It may be performed.
  • the processing circuits 53 ⁇ , 53..., 53 ⁇ , 53 ⁇ 2 in the decoding device 3 ′′ for decoding PCCC and the processing circuit 73 U in the decoding device 3 ′ ′′ for decoding SCCC , 73 ⁇ ⁇ ⁇ , is 7 3 ML 3 7 3 ⁇ 2, delay
  • the decoding device is described as performing MAP decoding based on the Log-BCJR algorithm, but the present invention is directed to a decoding device performing MAP decoding based on the Max-Log-BCJR algorithm. Yes, it is applicable.
  • the encoding device and the decoding device have been described as applied to the transmission device and the reception device in the data transmission / reception system.
  • the present invention is, for example, a floppy disk, a CD-ROM, or an MO (
  • the present invention can also be applied to a recording and / or reproducing apparatus that performs recording and / or reproduction on a recording medium such as a magnetic, optical or magneto-optical disk such as a magneto-optical disc.
  • the data encoded by the encoding device is recorded on a recording medium equivalent to a memoryless communication channel, and is decoded and reproduced by a decoding device.

Landscapes

  • Physics & Mathematics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Error Detection And Correction (AREA)
  • Detection And Correction Of Errors (AREA)

Description

明細書 復号装置及び復号方法 技術分野 木発明は、 軟出力復号を行う復号装置及び復号方法に関する。 背景技術 近年において、 連接符号における内符号の復号出力や繰り返し復号法における 各繰り返し復号動作の出力を軟出力とすることで、 シンボル誤り率を小さくする 研究がなされており、 それに適した復号法に関する研究が盛んに行われている。 例えば畳み込み符号等の所定の符号を復号した際のシンボル誤り率を最小にする 方法としてほ、 「Bahl, Cocke , Jelinek and Raviv, Optimal decoding of linear codes for minimizing symbol error rate" , IEEE Trans. Inf. Theory, vol, IT-20, pp . 284-287, Mar. 1974 j に記載されている B C J Rアルゴリズムが知られて いる。 この B C J Rアルゴリズムにおいては、 復号結果として各シンボルを出力 するのではなく、 各シンボルの尤度を出力する。 このような出力は、 軟出力
(soft-output) と呼ばれる。 以下、 この B C J Rアルゴリズムの内容について説 明する。 なお、 以下の説明では、 図 1に示すように、 ディジタル情報を図示しな い送信装置が備える符号化装置 2 0 1により畳み込み符号化し、 その出力を雑音 のある無記憶通信路 2 0 2を介して図示しない受信装置に入力して、 この受信装 置が備える復号装置 2 0 3により復号し、 観測する場合を考える。
まず、 符号化装置 2 0 1が備えるシフトレジス夕の内容を表す M個のステート
(遷移状態) を m ( 0, 1 , · · ·, M— 1 ) で表し、 時刻 tのステートを S t で表す。 また、 1タイムスロットに kビヅ トの情報が入力されるものとすると、 時刻 tにおける入力を i t = ( i t ! , i t 2, · · · , i t k) で表し、 入力系統 を ェ τ = ( i ± 2 , · · ·, ± τ) で表す。 このとき、 ステート m, からステート mへの遷移がある場合には、 その遷移に対応する情報ビッ トを i (m, , m) = ( i l (m, , m) , i 2 (m, , m) , ' ·' · , i k m, , m) ) で表す。 さらに、 1タイムスロヅ 卜に nビヅ トの符号が出力されるものと すると、 時刻 tにおける出力を:? C t= ( X t l 3 X t 2 , · · · , X tn) で表し、 出力系統を: ! Τ = ( 1 , 2 , · · · , τ) で表す。 このとき、 ステ
—ト m' からステート mへの遷移がある場合には、 その遷移に対応する符号ビヅ トを : X; (m' , m) = (x i (m5 , m) , 2 (in' , m) , · · · , x η (m, , m) ) で表す。
符号化装置 2 0 1 による畳み込み符号化は、 ステート S。 = 0から始まり、 X を出力して
Figure imgf000004_0001
0で終了するものとする。 .ここで、 各ステート間の遷移 確率 P t (m I m' ) を次式 ( 1 ) により定義する。
Figure imgf000004_0002
なお、 上式 ( 1 ) における右辺に示す P r {A I B} は、 Bが生じた条件の下 での Aが生じる条件付き確率である。 この遷移確率 P t (m I m5 ) は、 次式 ( 2 ) に示すように、 入力 i でステート m' からステート mへと遷移するとき に、 時刻 tでの入力 : L tが i である確率 P r { i t = ± } と等しいもので ある。
Figure imgf000004_0003
雑音のある無記憶通信路 2 0 2は、 : を入力とし、 を出力する。 こ こで、 1 タイムスロッ トに nビッ トの受信値が出力されるものとすると、 時刻 t における出力を y t= (y t,5 yt2 j ' · · , y で表し、 Y !τ= ( y 1 y 2, · · · , y T) で表す。 雑音のある無記憶通信路 20 2の遷移確率は、 全ての七 ( l≤t ^T) について、 次式 (3) に示すように、 各シンボルの遷移 確率 P r { y i I :? j} を用いて定義することができる。
Figure imgf000005_0001
ここで、 次式 (4) のように/ ltjを定義する。 この次式 (4) に示す入"は、
Y を受信した際の時刻 tでの入力情報の尤度を表し、 本来求めるべき軟出力 である。
Pr
Pr (
B C J Rアルゴリズムにおいては、 次式 (5) 乃至次式 (7) に示すような確 率 at, 5 t及びァ tを定義する。 なお、 P r {A; B} は、 · Aと Β·とがともに生 じる確率を表すものとする。
( (m) = Pr = m; Υ^' (5)
I
(6) γ( (m ' , w) = r S (7)
Figure imgf000006_0001
ここで、 これらの確率ひ t, 5t及びァ tの内容について、 符号化装置 2 0 1に おける状態遷移図である トレリスを図 2を用いて説明する。 この図 2において、 a t-!は、 符号化開始ステート S。= 0から受信値をもとに時系列順に算出した時 刻七一 1における各ステートの通過確率に対応する。 また、 /5tは、 符号化終了 'ステート S τ= 0から受信値をもとに時系列の逆順に算出した時刻 tにおける各 ステートの通過確率に対応する。 さらに、 ァ tは、 時刻 tにおける受信値と入力 確率とをもとに算出した時刻 tにステート間を遷移する各枝の出力の受信確率に 対応する。
これらの確率ひ t及びァ tを用いると、 軟出力え"は、 次式 (8) のよう に表すことができる。'
λ .= (8)
Figure imgf000006_0002
ところで、 t = 1, 2 , , Tについて、 次式 (9) が成立する,
+)= ∑ lm') yt (m1, m)
【、 、 ノ 1 、 , ノ 、 ¾^、a。(0)-l,a。( ) = 0( ≠0) (9) 同様に、 t = 1 , 2 , 3 Tについて、 次式 ( 10) が成立する。
Figure imgf000007_0001
さらに、 ytについて、 次式 ( 1 1 ) が成立する。
Figure imgf000007_0002
したがって、 復号装置 203は、 BCJRアルゴリズムを適用して軟出力復号 を行う場合には、 これらの閧係に基づいて、 図 3に示す一連の工程を絰ることに より軟出力え tを求める。
まず、 復号装置 203は、 同図に示すように、 ステップ S 2 0 1において、 y tを受信する毎に、 上式 (9) 及び上式 (1 1) を用いて、 確率 at (m) 及 びァ t (m, , m) を算出する。
続いて、 復号装置 203は、 ステヅプ S 202において、 系列 Υ Λの全てを 受信した後に、 上式 (10) を用いて、 全ての時刻 tにおける各ステー ト mにつ いて、 確率/? t (m) を算出する。
そして、 復号装置 203は、 ステップ S 203において、 ステヅプ S 20 1及 びステップ S 202において獰出した確率ひ ?t及び を上式 (8) に代入 し、 各時刻 tにおける軟出力; 11を箅出する。
復号装置 203は、 このような一連の処理を経ることによって、 B CJRアル ゴリズムを適用した軟出力復号を行うことができる。
ところで、 このような B C JRアルゴリズムにおいては、 確率を直接値として 保持して演算を行う必要があり、 積演算を含むために演算量が大きいという問題 があった。 そこで、 演箅量を削減する竽法と.して、 「 Robertson, Villebrun and Hooher, Ά comparison of optimal and sub -optimal MAP decoding algorithms operating in the domain" , IEEE Int. Conf. on Communications 5 pp. 1009-101 3, June 1995」 に記載されている Max-Log- M A Pアルゴリズム及び Log- M A P アルゴリズム (以下、 Max'Log- B C J Rアルゴリズム及び Log- B CJRァルゴ リズムと称する。 ) がある。
まず、 Max-Log- B C J Rアルゴリズムについて説明する。 Max-Log- B CJR アルゴリズムは、 確率 t, ?t並びに yt、 及び軟出力人 tを自然対数を用いて対 数表記し、 次式 ( 1 2) に示すように、 確率の積演算を対数の和演算に置き換え るとともに、 次式 ( 1 3) に示すように、 確率の和演算を対数の最大値演算で近 似するものである。 なお、 次式 ( 1 3) に示す max (x , y) は、 x, yのう ち大きい値を有するものを選択する関数である。
Figure imgf000008_0001
log I ex + eA « max ( , I
(13) ここで、 記載を簡略化するため、 自然対数を Iと略記し、 ひ ? t3 ァ λ の自然対数値を、 それぞれ、 次式 ( 1 4 ) に示すように、 ェ ひ t, 1 j3t, I 7 I え tと表すものとする。 I f(w) = log (a( (m))
ip (m) = log( ((m)) (14)
log〔Y(( ))
M a x— L o g _B C J Rアルゴリズムにおいては、 これらの対数尤度 (log likelihood) I at, I /? t , I ァ tを、 それそれ、 次式 ( 1 5 ) 乃至次式 ( 1 7 ) に示すように近似する。 ここで、 次式 ( 1 5 ) における右辺のステート m, にお ける最大値 m a xは、 ステート mへの遷移が存在するステート m' の中で求める ものとし、 次式 ( 1 6 ) における右辺のステート in' 'における最大値 ma Xは、 ステート inからの遷移が存在するステート m' の中で求めるものとする。
I « (/«)=■ max J α.
+ 1 ί' m ,m\ (15)
m, m (16)
I yt m) ) ( 17)
Figure imgf000009_0001
また、 Max-Log- B C J Rアルゴリズムにおいては、 対数軟出力ェ Atについて も同様'に、 次式 ( 18) に示すように近似する。 ここで、 次式 ( 18) における 右辺第 1項の最大値 maxは、 入力が "1" のときにステート mへの遷移が存在 するステート m, の中で求め、 第 2項の最大値 maxは、 入力が "0" のときに ステート mへの遷移が存在するステート m' の中で求めるものとする。'
I
Figure imgf000010_0001
したがって、 復号装置 203は、 Max-Log- B C J Rアルゴリズムを適用して 軟出力復号を行う場合には、 これらの関係に基づいて、 図.4に示す一連の工程を 経ることにより軟出力; Uを求める。
まず、 復号装置 203は、 同図に示すように、 ステヅプ S 2 1 1において、 y tを受信する毎に、 上式 ( 15) 及び上式 (17) を用いて、 対数尤度 I at (m) 及びエ ア t (m, , m) を算出する。
続いて、 復号装置 203は、 ステップ S 2 12において、 系列 Y の全てを 受信した後に、 上式 ( 16) を用いて、 全ての時刻 tにおける各ステート mにつ いて、 対数尤度 I ?t (m) を算出する。
そして、 復号装置 203は、 ステップ S 213において、 ステヅプ S 2 1 1及 びステップ S 2 1 2において算出した対数尤度 I at, I 3t及び Iァ tを上式 ( 1 8) に代入し、 各時刻七における対数軟出力 Iえ tを算出する。
復号装置 203は、 このような一連の処理を絰ることによって、 Max-Log- B C J Rアルゴリズムを適用した軟出力復号を行うことができる。
このように、 Max-Log- B C J Rアルゴリズムは、 積演算が含まれないことか ら、 B CJRアルゴリズムと比較して、 演算量を大幅に削減することができる。 つぎに、 Loe- B C J Rアルゴリズムについて説明する。 Log- : B CJRァルゴ リズムは、 Max-Log- B C J Rアルゴリズムによる近似の精度をより向上させた ものである。 具体的には、 Log- B C J Rアルゴリズムは、 上式 ( 1 3 ) に示し た確率の和演算を次式 ( 1 9 ) に示すように補正項を追加することで変形し、 和 演算の正確な対数値を求めるものである。 ここでは、 このような補正を log-sum 補正と称するものとする。
log [ex + βή = max〔·¾ , J + l。g〔1 + e4"l) (19) ここで、 上式 ( 1 9 ) における左辺に示す演算を log-sum演算と称するものと し、 この log-sum演算の演算子を、 「S. S. Pietrobon, "Implemn ation and performance · oi a turboMAP decoder", Int. J. Satellite Commim . , vol. lo, pp. 23-46, Jan. -Feb. 1998」 に記載されている記数法を踏襲し、 次式 ( 2 0 ) に示すように、 便宜上 "#" (ただし、 同論文中では、 "E" 。 ) と 2表すものと する。 さらに、 log-sum演算の累積加算演算の演算子を、 次式 ( 2 1 ) 、 /に )示すよ うに、 "#∑" (ただし、 同論文中では、 " E " 。 ) と表すものとする。
x# )> = log [ex + ey) (20)
Figure imgf000011_0001
これらの演算子を用いると、 L 0 -B C J Rアルゴリズムにおける対数尤度 I a t, I ? t及び対数軟出力 I ぇ は、 それそれ、 次式 (2 2 ) 乃至次式 ( 2 4 ) に示すように表すことができる。 なお、 対数尤度 Iァ tは、 上式 ( 1 7 ) で T/JP01/07125
10 表されるため、 ここでは、 その記述を省略する
I (/«) = #∑ I α,.ι + I γ, m m] (22)
M-i f
\m m (23)
ΐλ( = I a(_! (m') + Π, (m' , m) + I β¾ (m)j
i,[m',m) = l
(24)
#∑ (l o. (m') + Π, (m' , m) + I β ( (m)}
m' , m I ' J j
("i',w) = 0 なお、 上式 (22) におけるお辺のステート m, における log-sum演算の累積 加算演算は、 ステート mへの遷移が存在するステート m' の中で求めるものとし、 上式 (23) における右辺のステート m, における lo - sum演算の累積加算演算 は、 ステート mからの遷移が存在するステート m, の中で求めるものとする。 ま た、 上式 (24) における右辺第 1項の 10 g— s um演算の累積加算演算は、 入力が "1 " のときにステート mへの遷移が存在するステート m, の中で求め、 第 2項の log-sum演算の累積加箅演算は、 入力が "0" のときにステート mへの 遷移が存在するステート m, の中で求めるものとする。
したがって、 復号装置 2 03は、 Log- B C J Rアルゴリズムを適用して軟出 力復号を行う場合には、 これらの関係に基づいて、 先に図 4に示した一連の工程 を経ることにより軟出力え tを求めることができる。
まず、 復号装置 2 0 3は、 同図に示すように、 ステップ S 2 1 1において、 y tを受信する毎に、 上式 (22) 及び上式 ( 1 7) を用いて、 対数尤度 I at (m) 及び (m, , m) を算出する。
続いて、 復号装置 2 0 3は、 ステップ S 2 1 2において、 系列 Y の全てを 受信した後に、 上式 ( 2 3) を用いて、 全ての時刻 tにおける各ステート mにつ いて、 対数尤度 (m) を算出する。 '
そして、 復号装置 2 0 3は、 ステップ S 2 1 3において、 ステヅプ S 2 1 1及 びステヅプ S 2 1 2において算出した対数尤度 I a t, I ^t及び I ァ を上式 (2 4) に代入し、 各時刻七における対数軟出力 I え tを算出する。
復号装置 2 0 3は、 このような一連の処理を経ることによって、 Log- B C J Rアルゴリズムを適用した軟出力復号を行うことができる。 なお、 上式 ( 1 9 ) において、 右辺第 2項に示す補正項は、 変数 I X— y Iに対する 1次元の関数で 表されることから、 復号装置 2 0 3は、 この値を図示しない ROM (Read Only Memory) 等にテーブルとして予め記憶させておくことによって、 正確な確率計 算を行うことができる。
このような Log- B C J Rアルゴリズムは、 Max-Log- B CJ Rアルゴリズムと 比較すると演算量は増えるものの積演算を含むものではなく、 その出力は、 量子 化誤差を除けば、 B C J Rアルゴリズムの軟出力の対数値そのものに他ならない。 ところで、 上述した対数尤度 I ァ tは、 上式 ( 1 7) における右辺第 1項に示 す事前確率情報 ( a priori probabmty information) と、 第 2項に示す受信値 y t から得られる確率情報 (以下、 通信路値 (channel value) と記す。 ) とから構成 される。
Max-Log- B C J Rアルゴリズムや Log- B C J Rアルゴリズムにおいては、 2 つの確率の比の自然対数値である対数尤度比 (log likelihood ratio) の形式で扱 うこともできる。 この場合、 対数尤度 I ァ "ま、 次式 ( 2 5 ) で表すこどができ る。 すなわち、 対数尤度 I y tは、 確率 P r { i tj= 1 } と確率 P r {i " = 0} との比の自然対数値である対数尤度比と、 入力 i j (m, , m) との積の累 積和を事前確率情報とし、 確率 P r {yti I
Figure imgf000013_0001
1} と確率 P r {ytj | ti = 0} との比の自然対数値と、 出力 χ3 (m, , m) との積の累積和を通信路値 として表現することができる。 12
l t = i, η' , mj · log -1
(25)
+ f ( ,
+ J , m, · log I -1}
1 Λ } , { 1 =0}
A 2
ここで、 符号化装置 20 1からの出力 X に、 無記憶通信路 202により加法
- —
的白色ガウス維音 (Additive White Gaussian Noise; AWGN) が加えられるも のと仮定すると、 上式 (2 5) における右辺第 2項は、 次式 (2 6) のように展 鬨される。 ただし、 次式 (2 6 ) における "A" は、 図 5に示すように、 確率 P r {y tj I xtj= 1} が最大となる受信値 yw、 すなわち、 受信値 を変数と する確率密度関数'がしたがう正規分布の平均値を示し、 "σ2" は、 その正規分 布の分散を示している。 なお、 この場合には、 確率 P r {ytj I 0} が最 大となる受信値 ytjは、 "一 A" で表される。 実際には'、 これらの "A" , "一 A" は、 それそれ、 符号化装置 2 0 1からの出力 xtj= 1 , 0の送信振幅である。
log
尸 1„0}
= log
(26)
= log
Figure imgf000014_0001
{ytl +A}2 { ts-A)2
2 a 2 a' したがって、 復号装置 203は、 無記憶通信路 202の特性を知ることによつ て、 受信値 y tを用いて通信路値を直接求めることができることになる。 より 具体的には、 復号装置 203は、 図 6に示すように、 対数尤度 Iァ tを算出する I y算出回路を実質的には加算器のみで構成することができる。 すなわち、 復号 装置 203は、 受信値 ytjに所定の係数 AMPを乗算することによって、 通信路 値を求めることができ、 この通信路値と事前確率情報 (図中では APP。 以下、 事前確率情報 APPと記す。 ) とを Iァ算出回路により加算することによって、 対数尤度 I 7tを求めることができる。 さらに換言すれば、 復号装置 2 03は、 対数尤度 Iァ tを求める際には、 受信値 ytjに対して適切な係数 AMPを乗算す る必要がある。
しかしながら、 実際に復号装置 2 03をハードウエアとして実装する場合には、 量子化範囲が制限されることから、 図 6に示した構成により対数尤度 Iァ tを求 めるのは困難である。
' 具体的には、 係数 AMPは、 通常、 0. 5乃至 1 0程度の値をとることから、 受信値 yt こ係数 AMPを乗算して得られた通信路値の分布は、 事前確率情報 A PPのダイナミックレンジに対して大きく変化することになる。 例えば、 係数 A MPとして 0 , 5乃至 8を設定した場合には、 図 7に示すように、 事前確率情報 A P Pのダイナミ ヅクレンジに対して、 受信値 y 13に係数 A Μ Ρを乗算して得ら れた通信路値の分布は、 最大で 1 6倍もの違いが生じることになる。
このように、 復号装置 203は、 受信値に関する情報を表現するダイナミック レンジを十分に確保することができず、 対数尤度 I ytを高精度に求めることは 困難となる。
ここで、 符号化装置 20 1として、 例えば、 複数の畳み込み符号化器をイン夕 一リーバを介して並列又は縦列に連接し、 並列連接畳み込み符号 (Parallel Concatenated Convolutional Codes;以下、 P C C Cと記す。 ) 又は縦列連接畳み 込み符号 (Serially Concatenated Convolutional Codes; 以下、 S C C Cと記 す。 ) を行うものや、 これらの P C C C又は S C C Cを応用して多値変調と組み 合わせたターボ符号化変調 (Turbo Trellis Coded Modulation; T Τ CM) 又は縦 列連接符号化変調 (Serial Concatenated Trellis Coded Modulation; S C T CM) を行うものを採用した場合を考える。 この場合、 復号装置 203は、 上述したァ ルゴリズムに基づく最大事後確率 (Maximum A Posteriori probability; MAP ) 復号を行う複数の軟出力復号回路をィンターリーバやディンタ一リーバを介して 連接し、 いわゆる繰り返し復号を行うものとして構成される。
この繰り返し復号時における事前確率情報 APPとしては、 上述した軟出力又 は対数軟出力に対応する事後確率情報 (a posteriori probability information). と 事前確率情報 A P Pとの差分値である外部情報 ( extrinsic information ) が用い られる。 すなわち、 事前確率情報 A PPは、 受信値 の積み重ねであるものと 換言することができる。 このことを考慮すると、 復号装置 203においては、 事 前確率情報 A P Pのダイナミックレンジに対する受信値 y t jの分布が変化するこ とは望ましいとはいえないと考えられる。
そこで、 復号装置 203としては、 事前確率情報 APPのダイナミヅクレンジ と受信値 の信号点との割合を一定に保ちつつ、 信号対雑音比 (Signal to Noise ratio; S/N) に応じて、 事前確率情報 AP Pの解像度、 'すなわち、 事前 確率情報 A P Pの量子化刻み幅を変化させるものが考えられる。
このような復号装置 203は、 対数尤度 Iァ tを算出するェァ算出回路として、 実質的には図 8に示すような構成により実現することができる。 すなわち、 復号— 装置 203は、 事前確率情報 APPを上述した係数 AMPにより除算したものを、 エア算出回路により受信値 ytjと加算することによって、 対数尤度 I ytを求め ることができる。 このようにすることによって、 復号装置 203は、 図 9に示す ように、 係数 AMPに依存せず、 受信値 ytjのダイナミヅクレンジを一定にする ことができる。
しかしながら、 例えば、 係数 AMPとして "0. 5" を設定した場合には、 受 信値 ytjの量子化範囲の上限値 (Max) 及び下限値 (一 Max) に対して、 '事 前確率情報 A PPを表現する範囲が一 2 xMax乃至 2 xMaxとなり、 係数 A. MPとして "8" を設定した場合には、 事前確率情報 APPを表現する範囲が (- 1/8) xMax乃至 ( 1 Z8 ) xMaxとなるといつたように、 事前確率 情報 APPを表現する範囲が変化することになる。 また、 この場合、 事前確率情 報 APPの量子化刻み幅も変化することになる。 したがって、 事前確率情報 AP Pが細かくなり、 量子化範囲を超えてしまう場合には、 当該事前確率情報 A P P を表現することが不可能となる。
このように、 復号装置 2 0 3は、 事前確率情報 A P Pの解像度を変化させた場 合には、 受信値 y t jのダイナミックレンジを確保することができるものの、 事前 確率情報 A P Pを表現することができなくなる場合が生じ、 対数尤度 Iァ tを高 精度に求めることができなくなる場合がある。 . 発明の開示 本発明は、 このような実情に鑑みてなされたものであり、 固定されたビット数 での入力を要する場合にも、 最適なダイナミックレンジと量子化刻み幅とを設定 することができる復号装置及び復号方法を提供することを目的とする。
上述した目的を達成する本発明にかかる復号装置は、 軟入力とされる受信値に 基づいて任意のステートを通過する確率を対数尤度比の形式で対数表記した対数 尤度を求め、 この対数尤度を用いて復号を行う復号装置であって、 受信値と所定 の係数とを乗算して得られる通信路値を、 受信値のみに乗算して当該受信値の振 幅を調整するための第 1の付加係数で除算して得られた第 1の確率情報と、 事前 確率情報のみに乗算して'当該事前確率情報の振幅を調整するための第 2の付加係 数の逆数を、 事前確率情報に対して乗算して得られた第 2の確率情報とを入力し、 軟出力復号を行う軟出力復号手段を備え、 軟出力復号手段は、 第 1の付加係数、 第 2の付加係数、 及び、 当該軟出力復号手段の内部における演算時の振幅を調整 するための第 3の付加係数を用いて、 各時刻における軟出力を対数表記した対数 軟出力及び/又は外部情報を生成することを特徴としている。
このような本発明にかかる復号装置は、 受信値の振幅を調整して得られた第 1 の確率情報と、 事前確率情報の振幅を調整して得られた第 2の確率情報とを軟出 カ復号手段に入力し、 この軟出力復号手段によって、 第 1の付加係数、 第 2の付 加係数及び第 3の付加係数を用いて、 対数軟出力及び/又は外部情報を生成する。 また、 上述した目的を達成する本発明にかかる復号方法は、 軟入力とされる受 信値に基づいて任意のステートを通過する確率を対数尤度比の形式で対数表記し た対数尤度を求め、 この対数尤度を用いて復号を行う復号方法であって、 受信値 と所定の係数とを乗算して得られる通信路値を、 受信値のみに乗算して当該受信 値の振幅を調整するための第 1の付加係数で除算して得られた第 1の確率情報と、 事前確率情報のみに乗算して当該事前確率情報の振幅を調整するための第 2の付 加係数の逆数を、 事前確率情報に対して乗算して得られた第 2の確率情報とを入 力し、 第 1の付加係数、 第 2の付加係数、 及び、 内部における演算時の振幅を調 · 整するための第 3の付加係数を用いて、 各時刻における軟出力を対数表記した対 数軟出力及び/又は外部情報を生成する軟出力復号工程を備えることを特徴とし ている。
このような本発明にかかる復号方法は、 軟出力復号工程にて、 受信値の振幅を 調整して得られた第 1の確率情報と、 事前確率情報の振幅を調整して得られた第 2の確率情報とを入力し、 第 1の付加係数、 第 2の付加係数及び第 3の付加係数 を用いて、 対数軟出力及び/又は外部情報を生成する。 .
- さちに、 上述した目的を達成する本発明にかかる復号装置は、 軟入力とされる 受信値に基づいて任意のステ一トを通過する確率を対数尤度比の形式で対数表記 した対数尤度を求め、 この対数尤度を用いて、 複数の要素符号を連接して生成さ れた符号を繰り返し復号する復号装置であって、 受信値と所定の係数とを乗算し' て得られる通信路値を、 受信値のみに乗算して当該受信値の振幅を調整するため の第 1の付加係数で除算して得られた第 1の確率情報と、 事前確率情報のみに乗 算して当該事前確率情報の振幅を調整するための第 2の付加係数の逆数を、 事前 確率情報に対して乗算して得られた第 2の確率情報とを入力し、 軟出力復号を行 ぅ軟出力復号手段を複数連接して備え、 軟出力復号手段は、 第 1の付加係数、 第 2の付加係数、 及び、 当該軟出力復号手段の内部における演算時の振幅を調整す るための第 3の付加係数を用いて、 各時刻における軟出力を対数表記した対数軟 出力及び/又は外部情報を生成し、 生成した外部情報を次段の軟出力復号手段に おける事前確率情報として出力することを特徴としている。
このような本発明にかかる復号装置は、 繰り返し復号を行う際に、 受信値の振 幅を調整して得られた第 1の確率情報と、 事前確率情報の振幅を調整して得られ た第 2の確率情報とを軟出力復号手段に入力し、 この軟出力復号手段によって、 第 1の付加係数、 第 2の付加係数及び第 3の付加係数を用いて、 対数軟出力及び /又は外部情報を生成し、 外部情報を次段の軟出力復号手段における事前確率情 報として出力する。
さらにまた、 上述じた目的を達成する本究明にかかる復号方法は、 軟入力とさ れる受信値に基づいて任意のステートを通過する確率を対数尤度比の形式で対数 表記した对数尤度を求め、 この対数尤度を用いて、 複数の要素符号を連接.して生 成された符^を繰り返し復号する復号方法であって、 受信値と所定の係数とを乗 算して得られる通信路値を、 受信値のみに乗算して当該受信値の振幅を調整する ための第 1の付加係数で除算して得られた第 1の確率情報と、 事前確率情報のみ に乗算して当該事前確率情報の振幅を調整するための第 2の付加係数の逆数を、 事前確率情報に対して乗算して得られた第 2の確率情報とを入力し、 第 1の付加 係数、 第 2の付加係数、 及び、 内部における演算時の振幅を調整するための第 3 の付加係数を用いて、 各時刻における軟出力を対数表記した対数軟出力及び/又 は外部情報を生成する軟出力復号工程を複数回連続して行い、 救出カ復号工程で は、 生成された外部情報が次回の軟出力復号工程における事前確率情報として出 力されることを特徴としている。
このような本発明にかかる復号方法は、 繰り返し復号を行う際に、 軟出力復.号 工程にて、 受信値の振幅を調整して得られた第 1の確率情報と、 事前確率情報の 振幅を調整して得られた第 2の確率情報とを入力し、 第 1の付加係数、 第 2の付 加係数及び第 3の付加係数を用いて、 対数軟出力及び/又は外部情報を生成し、 外部情報を次回の軟出力復号工程における事前確率情報として出力する。 .
すなわち、 本発明にかかる復号装置は、 軟入力とされる受信値に基づいて任意 のステートを通過する確率を対数尤度比の形式で対数表記した対数尤度を求め、 この対数尤度を用いて復号を行う復号装置であって、 受信値と所定の係数とを乗 算して得られる通信路値を、 受信値のみに乗算して当該受信値の振幅を調整する ための第 1の付加係数で除算して得られた第 1の確率情報と、 事前確率情報のみ に乗算して当該事前確率情報の振幅を調整するための第 2の付加係数の逆数を、 事前確率情報に対して乗算して得られた第 2の確率情報とを入力し、 軟出力復号 を行う軟出力復号手段を備え、 軟出力復号手段は、 第 1の付加係数、 第 2の付加 係数、 及び、 当該軟出力復号手段の内部における演算時の振幅を調整するための 第 3の付加係数を用いて、 各時刻における軟出力を対数表記した対数軟出力及び /又は外部情報を生成する。
したがって、 本発明にかかる復号装置は、 受信値の振幅を調整して得られた第 1の確率情報と、 事前確率情報の振幅を調整して得られた第 2の確率情報とを軟 出力復号手段に入力し、 この軟出力復号手段によって、 第 1の付加係数、 第 2の 付加係数及び第 3の付加係数を用いて、 対数軟出力及び/又は外部情報を生成す ることによって、 固定されたビット数での入力を要する軟出力復号手段に入力す る情報に対して最適なダイナミックレンジと量子化刻み幅、 及び、 外部情報を生 成するために行われる軟出力復号手段の内部演算に必要な最適な量子化刻み幅を 設定することがでぎる。
また、 本発明にかかる復号方法は、 軟入力とされる受信値に基づいて任意のス テートを通過する確率を対数尤度比の形式で対数表記した対数尤度を求め、 この 対数尤度を用いて復号を行う復号方法であって、 受信値と所定の係数とを乗算し. て得られる通信路値を、 受信値のみに乗算して当該受信値の振幅を調整するため の第 1の付加係数で除算して得られた第 1の確率情報と、 事前確率情報のみに乗 算して当該事前確率情報の振幅を調整するための第' 2の付加係数の逆数を、 事前 確率情報に対じて乗算して得られた第 2の確率情報とを入力し、 第 1の付加係数、 第 2の付加係数、 及び、 内部における演算時の振幅を調整するための第 3の付加 係数を用いて、 各時刻における軟出力を対数表記した対数'軟出力及び/又は外部 情報を生成する軟出力復号工程を備える。
したがって、 本発明にかかる復号方法は、 軟出力復号工程にて、 受信値の振幅 を調整して得られた第 1の確率情報と、 事前確率情報の振幅を調整して得られた 第 2の確率情報とを入力し、 第 1の付加係数、 第 2の付加係数及び第 3の付加係 数を用いて.、 対数軟出力及び/又は外部情報を生成することによって、 固定され たビット数での入力を要する軟出力復号工程にて入力する情報に対して最適なダ イナミックレンジと量子化刻み幅、 及び、 外部情報を生成するために行われる軟 出力復号工程における内部演算に必要な最適な量子化刻み幅を設定することを可 能とする。 さらに、 本発明にかかる復号装置は、 軟入力とされる受信値に基づいて任意の ステートを通過する確率を対数尤度比の形式で対数表記した対数尤度を求め、 こ の対数尤度を用いて、 複数の要素符号を連接して生成された符号を繰り返し復号 する復号装置であって、 受信値と所定の係数とを乗算して得られる通信路値を、 受信値のみに乗算して当該受信値の振幅を調整するための第 1の付加係数で除算 して得られた第 1の確率情報と、 事前確率情報のみに乗算して当該事前確率情報 の振幅を調整するための第 2の付加係数の逆数を、 事前確率情報に対して乗算し て得られた第 2の確率情報とを入力し、 軟出力復号を行う軟出力復号手段を複数 連接して備え、 軟出力復号手段は、 第 1の付加係数、 第 2の付加係数、 及び、 当 該軟出力復号手段の内部における演算時の振幅を調整するための第 3の付加係数 を用いて、 各時刻における軟出力を対数表記した対数軟出力及び/又は外部情報 を生成し、 生成した外部情報を次段の軟出力復号手段における事前確率情報とし て出力する。
したがって、 本発明にかかる復号装置は、 繰り返し復号を行う際に、 受信値の 振幅を調整して得られた第 1の確率情報と、 事前確率情報の振幅を調整して得ら れた第 2の確率情報とを軟出力復号手段に入力し、 この軟出力復号手段によって、 第 1の付加係数、 第.2の付加係数及び第 3の付加係数を用いて、 対数軟出力及び /又は外部情報を生成し、 外部情報を次段の軟出力復号手段における事前確率情 報として出力することによって、 固定されたビット数での入力を要する軟.出力復 号手段に入力する情報に対して最適なダイナミヅクレンジと量子化刻み幅、 及び、 外部情報を生成するために行われる軟出力復号手段の内部演算に必要な最適な量 子化刻み幅を設定することができる。
さらにまた、 本発明にかかる復号方法は、 軟入力とされる受信値に基づいて任 意のステートを通過する確率を対数尤度比の形式で対数表記した対数尤度を求め、 こ.の対数尤度を用いて、 複数の要素符号を連接して生成された符号を繰り返し復 号する復号方法であって、 受信値と所定の係数とを乗算して得られる通信路値を、 受信値のみに乗算して当該受信値の振幅を調整するための第 1の付加係数で除算 して得られた第 1の確率情報と、 事前確率情報のみに乗算して当該事前確率情報 の振幅を調整するための第 2の付加係数の逆数を、 事前確率情報に対して乗算し て得られた第 2の確率情報とを入力し、 第 1の付加係数、 第 2の付加係数、 及び、 内部における演算時の振幅を調整するための第 3の付加係数を用いて、 各時刻に おける軟出力を対数表記した対数軟出力及び/又は外部情報を生成する軟出力復 号工程を複数回連続して行い、 軟出力復号工程では、 生成された外部情報が次回 の軟出力復号工程における事前確率情報として出力される'。
したがって、 本発明にかかる復号方法は、 繰り返し復号を行う際に、 '軟出力復 号工程にて、 受信値の振幅を調整して得られた第 1の確率情報と、 事前確率情報 の振幅を調整して得られた第 2の確率情報とを入力し、 第 1の付加係数、 第 2の 付加係数及び第 3の付加係数を用いて、 対数軟出力及び Z又は外部情報を生成し、 外部情報を次回の軟出力復号工程における事前確率情報として出力することによ つて、 固定されたビット数での入力を要する軟出力復号工程にて入力する情報に 対して最適なダイナミック.レンジと量子化刻み幅、 及び、 外部情報を生成するた めに行われる軟出力復号工程における内部演算に必要な最適な量子化刻み幅を設 定することを可能とする。 · 図面の簡単な説明 . 図' 1は、 通信モデルの構成を説明するブロック図である。
図 2は、 従来の符号化装置におけるトレリスを説明する図であって、'確率ひ t , ? t及ぴァ tの内容を説明するための図である。 ·
図 3は、 従来の復号装置において、 B C J Rアルゴリズムを適用して軟出力復 号を行う際の一連の工程を説明するフローチャートである。
図 4は、 従来の復号装置において、 Max-Log- B C J Rアルゴリズムを適用し て軟出力復号を行う際の一連の工程を説明するフローチャートである。
図 5は、 受信値の分布を説明する図であって、 受信値を変数とする確率密度関 数がしたがう正規分布の平均値が "土 A " であり且つ分散が " σ 2 " である正規 分布を示す図である。
図 6は、 従来の復号装置が有する Iァ算出回路の実質的な構成を説明するプロ ヅク図である。 図 7は、 受信値に係数 A M Pを乗算して得られた通信路値の分布を説明する図 であって、 係数 A M Pとして 0 . 5乃至 8を設定した場合の通信路値の分布を説 明する図である。
図 8は、 事前確率情報の量子化刻み幅を変化させる場合の従来の復号装置が有 する Iァ算出回路の実質的な構成を説明するプロック図である。 ·
図 9は、 図 8に示す Iァ算出回路を有する従来の復号装置における受信値の分 布を説明する図である。 .
図 1 0は、 本発明の実施の形態として示すデータ送受信システムを適用する通 信モデルの構成を説明するプロヅク図である。
図 1 1は、 同データ送受信システムにおける符号化装置による信号点の配置例 を示す図であって、 B P S K変調方式による信号点の配置例を示す図である。 図 1 2は、 同データ送受信システムにおける符号化装置による信号点の配置例 を示す図であって、 Q P S K変調方式による信号点の配置例を示す図である。 図 1 3は、 同データ送受信システムにおける符号化装置による信号点の配置例 を示す図であって、 8 P S K変調方式による信号点の配置例を示す図である。 図 1 4は、 同データ送受信システムにおける符号化装置の一例の構成を説明す るブロック図である。
図 1' 5は、 図 1 4に示す符号化装置における トレリスを説明する図である。 図 1 6は、 同データ送受信システムにおける復号装置の一例の構成を説明する ブロック図であって、 図 1 4に示す符号化装置により符号化がなされた符号の復 号を行う復号装置の構成を説明するプロック図である。
図 1 7は、 図 1 6に示す復号装置が有する Iァ算出 ·記憶回路の実質的な構成 を説明するブロック図である。
図 1 8は、 図 1 6に示す復号装置が有する外部情報算出回路の実質的な構成を 説明するプロヅク図である。
図 1 9は、 P C C Cによる符号化を行う符号化装置の一例の構成を説明するブ ロック図である。
図 2 0は、 図 1 9に示す符号化装置により符号化がなされた符号の復号を行う 復号装置の構成を説明するプロック図である。 図 2 1は、 S C C Cによる符号化を行う符号化装置の一例の構成.を説明するブ ロヅク図である。
図 2 2は、 図 2 1に示す符号化装置により符号化がなされた符号の復号を行う 復号装置の構成を説明するブロック図である。
図 2 3は、 受信値のダイナミックレンジと符号化損失との関係を説明する図で ある。
図 2 4は、 通信路値のダイナミックレンジと符号化損失との関係を説明する図 である。
図 2 5 A, Bは、 受信値又は通信路値の分布の正規化を説明するための図であ つて、 図 2 5 Aは、 平均値が " ± 1 " であり且つ分散が "び2" である正規化前 の正規分布を示し、 図 2 5 Bは、 正規化後の正規分布を示す図である。
図 2 6は、 正規化後分布における受信値のダイナミックレンジと符号化損失と の関係を説明する図である。
図 2 7は、 信号点範囲に対する量子化範囲の通常の例.を示す図である。 '、 図 2 8は、 信号点範囲に対する量子化範囲の例を示す図であって、 信号点範囲 を包含する量子化範囲を示す図である。
図 2 9は、 図 1 4に示す符号化装置が T C Mを行うものとして構成される場合 における図 1 6に示す復号装置が有する Iァ算出 ·記憶回路の構成を説明するブ ロヅク図である。 . 発明を実施するための最良の形態 以下、 本発明を適用した具体的な実施の形態について図面を参照しながら詳細 に説明する。
この実施の形態は、 図 1 0に示すように、 ディジタル情報を図示しない送信装 置が備える符号化装置 1により符号化し、 その出力を雑音のある無記憶通信路 2 を介して図示しない受信装置に入力して、 この受信装置が備える復号装置 3によ り復号する通信モデルに適用したデ一夕送受信システムである。
このデータ送受信システムにおいて、 復号装置 3は、 符号化装置 1により符号 化がなされた符号の復号を行う ものであって、 「 Robertson, Villebrun and Hoeher , A comparison of optimal and sub -optimal MAP decoding algorithms operating in the domain , IEEE Int. Conf. on Communications, pp. 1009-101 3, June 1995」 に記載されている Max-Log- M A Pアルゴリズム又は Log- MA P ァルゴリズム (以下、 Max'Log- B C J Rァルゴリズム又は Log- B C J Rァルゴ リズムと称する。 ) に基づく最大事後確率 (Maximum A Posteriori probability; 以下、 MAPと記す。 ) 復号を行うものとして構成され、 いわゆる確率ひ t, /S t, ァ " 及び軟出力 (soft-output) え tを 自然対数を用いて対数尤度比 (log likelihood ratio) の形式で対数表記した対数尤度 I a t , I t , I ァ t、 及びい わゆる事後確率情報 (a posteriori probability information) に対応する対数軟出 力 I え tを求めるものである。 特に、 復号装置 3は、 固定されたビッ ト数で入力 する必要がある受信値及びいわゆる事前確率情報 (a. priori probability information) の最適なダイナミ ヅク レンジと量子化刻み幅、 及び、 外部情報
(extrinsic information) を生成するための内部演算に必要な最適な β子化刻み 幅を設定することができるものである。
なお、 以下では、 復号装置 3は、 Log- B C J Rアルゴリズムに基づく MAP 復号を行う.ものとして説明する。 また、 以下では、 符号化装置 1が備えるシフ ト レジス夕の内容を表す M個のステート (遷移状態) を m ( 0, 1 , . · · , M— 1 ) で表し、 時刻 1:のステートを S tで表す。 さらに、 1タイムスロッ トに kビ ヅ トの情報が入力されるものとすると、 時刻 tにおける入力を i t= ( i ti, i t2 , · · · , i tk) で表し、 入力系統を ェ Λ= ( i ± 2 , · · · ,
± τ) で表す。 このとき、 ステート m, からステート mへの遷移がある場合に は、 その遷移に対応する情報ビッ トを i (m, , m) = ( i! (m, , m) , i 2 (m, , m) , · · ·, i k (m, , m) ) で表す。 さらにまた、 1タイムス ロヅ トに nビッ トの符号が出力されるものとすると、 時刻 tにおける'出力を t = (X t 1, t2, · · ·, X tn) で表し、 出力系統を: X: 1T= ( 1,
2, · · · , x τ) で表す。 このとき、 ステート m, からステート mへの遷 移がある場合には、 その遷移に対応する符号ビッ トを ^ (m, , m) = (x i (m, , m) , χ2 (m, , m) , · · ·, χη (m5 , m) ) で表す。 また、 無 記憶通信路 2は、 を入力とし、 Y を出力するものとする。 ここで、 1 タイムスロットに nビヅトの受信値が出力されるものとすると、 時刻 tにおける 出力を y t = ( ti, t 2 , · · · , tn) で表し、 Y ιτ= ( y ι, y 2 , • · · , y τ) で表す。
符号化装置 1は、 例えば、 畳み込み符号、 並列連接畳み込み符号 (Parallel Concatenated Convolutional Codes;以下、 P C C Cと記す。 ) 又は縦列連接畳み 込み符号 (Serially Concatenated Convolutional Codes; 以下、 S C C Cと記 す。 ) 等を、 図 1 1に信号点の配置例を示す 2相位相 (Binary Phase Shift Keying; 以下、 BP SKと記す。 ) 変調方式や図 1 2に信号点の配置例を示す 4相位相 (Quadrature Phase Shift Keying;以下、 QP SKと記す。 ) 変調方式 といったように、 受信値のビット毎の分布が得られる信号点の配置を行う変調方 式により,変調するものとして構成される。 また、 符号化装置 1は、 例えば、 畳み 込み符号を、 図 13に信号点の配置例を示す 8相位相 (8-Phase Shift Keying; 以下、 8 P S Kと記す。 ) 変調方式といったように、 .受信値のビヅ ト毎の分布.'が 得られない信号点の配置を行う変調方式により変調することで、 信号点の配置と . 誤り訂正符号の復号特性とを統括して考慮する符号化変調 (Trellis Coded Modulation;以下、 TCMと記す。 ) を行うものとして構成される。 勿論、 符号 化装置 1としては、 P C C C又は S C C Cを応用して多値変調と組み合わせた夕 ーポ符号化変調 (Turbo Trellis Coded Modulation;以下、 T T CMと記す。 ) 又 は縦列連接符号化変調 (Serial Concatenated Trellis Coded Modulation;以下、 S C T CMと記す。 ) を行うものも適用可能である。 なお、 これらの符号化は、 い わゆるターボ符号化 (Turbo coding) の一種として知られているものである。
ここでは説明の簡略化ために、 符号化装置 1の一例として、 差し当たって図 1 4に示すように、 3つの排他的論理和回路 1 1, 13 , 1 5と、 2つのシフトレ ジス夕 1 2, 14とを有し、 拘束長が "3" の畳み込み演算を行う符号化装置 1 ' を採用し、 図示しない変調器による変調方武の種別は問わないものとして説 明する。
排他的論理和回路 1 1は、 1ビッ トの入力データ i と、 排他的論理和回路 1 3から供給されるデータとを用いて排他的論理和演算を行い、 演算結果をシフト レジス夕 1 2及び排他的論理和回路 1 5に供給する。
シフ トレジス夕 1 2は、 保持している 1ビヅ トのデ一夕を排他的論理和回路 1 3及びシフトレジス夕 14に供給し続ける。 そして、 シフ トレジスタ 1 2は、 ク ロックに同期させて、 排他的論理和回路 1 1から供給される 1ビッ トのデ一夕を 新たに保持し、 このデータを排他的論理和回路 1 3及びシフ トレジス夕 1 4に新 たに供給する。 .
排他的論理和回路 1 3は、 シフ トレジス夕 1 2 , 14から供給されるデータを 用いて排他的論理和演算を行い、 演算結果を排他的論理和回路 1 1に供給する。 シフ トレジス夕 14は、 保持している 1ビヅ トのデ一夕を排他的論理和回路 1 3 , 1 5に供給し続ける。 そして、 シフ トレジスタ 14は、 クロックに同期させ て、 シフ トレジスタ 1 2から供給される 1ビッ トのデータを新たに保持し、 この .データを排他的論理和回路 1 3 , 1 5に新たに供給する。
排他的論理和回路 1 5は、 排他的論理和回路 1 1から供給されるデ一夕と、 シ フ ト レジスタ 14から供給されるデータとを用いて排他的論理和演算を行い、 :演 算結果を 2ビヅ トの出力データ:?: tのうちの 1ビッ トの出力デ一夕 xt2として 外部に出力する。
このような符号化装置 1 ' は、 1ビッ トの入力データ i を入力すると、 この 入力データ itlを、 2ビッ トの出力デ一夕 X tのうちの組織成分の 1ビヅ トの 出力データ xt lとして、 そのまま外部に出力するとともに、 入力データ itlに対 して再帰的畳み込み演算を行い、 演算結果を 2ビッ 卜の出力データ X tのうち の他方の 1ビッ トの出力データ xt2として外部に出力する。 すなわち、 符号化装 置 1 ' は、 符号化率が "1 2" の再帰的組織畳み込み演算を行い、 出力データ x tを外部に出力する。
この符号化装置 1 ' におけるトレリスを記述すると、 図 1 5'に示すようになる。 同図において、 破線で示すパスは、 入力データ it iが "0" の場合を示し、 実線 で示すパスは、 入力デ一夕 itlが "1" の場合を示している。 また、 各パスに付 与されているラベルは、 2ビヅ トの出力データ:? d tを示している。 ここでは、 ステートは、 シフ トレジス夕 1 2の内容とシフ トレジス夕 14の内容とを順次並 ベたものであり、 "00"、 "1 0"、 "0 1"、 " 1 1,, のステート番号を、 それぞれ、 "0"、 " 1 "、 "2"、 "3" と表している。 このように、 符号化 装置 1におけるステート数 Mは 4となり、 トレリスは、 各ステートから次時刻に おけるステートへと 2本のパスが到達する構造を有する。
このような符号化装置 1 ' により符号化された出力データ:? tは、 図示しな い変調器により所定の変調方式による変調が施され、 無記憶通信路 2を介して受 信装置に出力される。
一方、 復号装置 3の一例であり、 符号化装置 1, により符号化がなされた符号 の復号を行う復号装置 3, は、 図 1 6に示すように、 2つの乗算器 2 1 , 2 2と、 軟出力復号を行う軟出力復号手段である軟出力復号回路 2 3とを備える。 この復 号装置 3, は、 無記憶通信路 2上で発生したノ イ ズの影響によ り軟入力
(soft-input) とされる受信値 y tから対数軟出力 I λ tを求めることによって、 符号化装置 1 ' における入力デ一夕 it lを推定するものである。
乗算器 2 1は、 無記憶.通信路 2により加法的白色ガウス雑音 (Additive White Gaussian. Noise;以下、 AWGNと記す。 ) が加えられるものと仮定した場^に' 受信値. y tに乗算すべき所定の係数 AMPを、 受信値 y tのみに乗算して受信 値 y tの振幅を調整するための第 1の付加係数 CEで除算した値 AMP/CEと、 受信値 y tとを乗算する。 すなわち、 乗算器 2 1は、 受信値 .y tと係数 AMP とを乗算することにより受信値 3から得られる確率情報 (以下、 通信路値
(channel value) と記す。 ) AMP x y を、 第 1の付加係数 CEで除算して得 られる第 1の確率情報である確率情報 AMP/ CiiX ytを生成する。:乗算器 2 1 は、 乗算して得られた確率情報 AMP/CEx ytを軟出力復号回路 2 3に供給す る。
乗算器 2 2は、 事前確率情報 APPtのみに乗算して事前確率情報 APPtの振 幅を調整するための第 2の付加係数 CAの逆数である 1/CAを、 事前確率情報 A P Ptに対して乗算する。 乗算器 2 2は、 乗算して得られた第 2の確率情報であ る確率情報 1/CA X APPtを軟出力復号回路 2 3に供給する。 なお、 事前確率 情報 A PPtは、 次式 (2 7 ) に示すように、 入力データ i t lが " 1 " である確 率 P r {it l= 1} と入力データ i t lが "0" である確率 P r {i ti= 0} との 比の自然対数値である対数尤度比として与えられる。 また、 事前確率情報 T/JP01/07125
27
AP P tは、 確率 P r { i ti= 1 } 又は確率 P r {i t l= 0} として与えられ、 確率 P r {i ti= 1 } と確率 P r { i ti= 0} との和が " 1 " であることを考慮 して、 確率 {i ti= 1} の自然対数値と確率; P r { i ti= 0} の自然対数値 との差分値として求められてもよい。
APPt= log
=0} (27)
軟出力復号回路 2 3は、 大規模集積回路 (Large - Scale Integrated circuit; 以下、 L S I と記す。 ) として各部を単一半導体基板に集積させて構成される。 軟出力復号回路 2 3は、 各部を制御するコントローラ 2 4と、 第 1の対数尤度で ある対数尤度 Iァを箅出して記憶する第 1の確率算出手段である Iァ算出 ·記憶 回路 2 5と、 第' 2の対数尤度である対数尤度 I ひを算出して記憶する'第 2め確率 算出手段である I α算出 ·記憶回路 2 6と、 第 3の対数尤度である対数尤度 I β を算出して記憶する第 3の確率算出'手段である I ?算出 ··記憶回路 2 7と、 対数 軟出力 I Atを算出する軟出力算出手段である軟出力算出回路 2 8と.、 外部情報 E X tを算出する外部情報算出手段である外部情報算出回路 2 9とを備える。
コントローラ 2 4は、 Iァ箅出 .記憶回路 2 5、 I ひ算出 '記憶回路 2 6及び I ?算出 '記憶回路 2 7に対して、 それそれ、.コントロール信号 S Cァ, S C.ひ 及び S C 5を供給し、 各部の動作を制御する。 '
Iァ箅出 ·記憶回路 2 5は、 コントロ一ラ 2 4から供給されたコントロール信 号 S Cァによる制御の下に、 乗算器 2 1から供給された確率情報 AMP / CE X y uと、 乘箅器 2 2から供給された確率情報 l / CAxAPPtと、 第 1の付加係 数 Ci!と、 第 2の付加係数 CAと、 受信値 y t及び事前確率情報 AP Ptの両者に 乗算して軟出力復号回路 2 3の内部における演算時の振幅を調整するための第 3 の付加係数 とを用いて、 受信値 y t毎に、 次式 (2 8) に示す演算を行い、 振幅を調整した各時刻 tにおける対数尤度 X I y tを算出して記憶する。 すな わち、 I ァ箅出 '記憶回路 2 5は、 受信値 y t毎に、 符号の出力パターンと受 信値により決定される確率ァを対数表記した対数尤度 Iァの振幅を調整した対数 尤度 CtX I yを箅出する。
Cj I yjm', m) = Ct x * .
Figure imgf000030_0001
具体的には、 Iァ算出 ·記憶回路 25は、 図 17に示すように、 実質的には、 第 1の乘算手段及び第 2の乗算手段である 2つの乘箅器 31, 32と、 加算手段 である 1つの加算器 33とを有するものとして実装される。
Ίァ算出 ·記憶回路 25は、 乗算器 3 1によって、'乗算器 2 1から供給された 確率情報 AMP/CuX'y に対して、 第 1の付加係数 と第 3の付加係数 C Ϊ との積 CRx を乗算し、 得られた結果を加算器 33に供給する。 これと同時に、 Iァ箅出 ·記憶回路 25は、 乗算器 32によって、 乘箅器 22から供給された確 率情報 1 / C λ X A P P tに対して、 第 2の付加係数 C Aと第 3の付加係数 C Iとの 積 C A X C!を乗算し、 得られた結果を加算器 33に供給する。 ざらに、 I y算出 *記憶回路 25は、 加算器 33によって、 乘算器 31, 32のそれぞれから供給 された情報を加算し、 対数尤度 C x Iァ tを算出する。 すなわち、 I y算出 '記 憶回路 25は、 dx (AP P t + AMP x y td) で表される対数尤度 dxェァ t を算出する。 そして、 Iァ箅出 ·記憶回路 25は、 図示しない記憶部に算出した 対数尤度 dx Iァ tを記憶する。 なお、 Iァ算出 '記憶回路 25は、 図示しない が、 実際にはステ一ト数分、 この場合は 4つの加算器 33を有する。
このような Iァ箅出 .記憶回路 25は、 記憶した対数尤度 C!x I r t を I 算出 .記憶回路 2 6、 I ?算出 ·記憶回路 27及ぴ軟出力算出回路 28に供給す る。 このとき、 Iァ算出 ·記憶回路 25は、 Iひ箅出/記憶回路 26、 1 5算出 •記憶回路 27及び軟出力算出回路 28のそれそれにおける処理に適した順序で 対数尤度 Iァ tを供給する。 なお、 以下の説明では、 エア算出 ·記憶回路 25か ら I ひ算出 ·記憶回路 2 6に供給される対数尤度 C tX I 7t を Iァ (ひ) と表し、 I ァ算出 '記憶回路 2 5から I ?算出 ·記憶回路 2 7に供給される対 数尤度 C t X l T^ を d x lァ ( ? 1 ) , d x lァ (^ 2) と表し、 1ァ算出 •記憶回路 2 5から軟出力算出回路 2 8に供給される対数尤度 I y tを d x I 7 (え) と表すものとする。
I 算出 ·記憶回路 2 6は、 コントローラ 2 4から供給されたコント口一ル信 号 S Cひ による制御の下に、 Iァ算出 ·記憶回路 2 5から供給された対数尤度 C i X I r ( ) を用いて、 次式 (2 9 ) に示す演算を行い、 各時刻 tにおける 対数尤度 d x l ひ t を算出して記憶する。 なお、 次式 (2 9 ) における演算子
"#,, は、 いわゆる log-sum演算を示すものであり、 入力 "0" でステート m, からステート m へと遷移するときにおける対数尤度と、 入力 " 1 " でステート m"からステート mへと遷移するときにおける対数尤度との log-sum演算を示す ものである。 より具体的には、 I α箅出 ·記憶回路 2 6は、 次式 (3 0) に示す 演算を行う 'ことによって、 各時刻七における対数尤度 dx I ひ t を算出する。 ' すなわち、 I ひ算出 .記憶回路 2 6は、 対数尤度 C! x I ァに基づいて、 受信値 y t毎に、 '符号化鬨始ステートから時系列順に各ステートに至る確率ひを対数 表記した対数尤度 Ί ひの振幅を調整した対数尤度 C! Γαを算出する。 そして、 I ひ算出 '·記憶回路 2 6は、 記憶した対数尤度 C x l ひ t を軟出力算出回路 2. 8に供給する。 このとき、 I ひ算出 ·記憶回路 2 6は、 軟出力算出回路 ·2'8にお ける処理に適した順序で対数尤度 C !x I «t 'を供給する。 なお、 以下の説明で は、 I 算出 ·記憶回路 2 6から軟出力算出回路 2 8に供給される対数尤度 C j x l atを d x l ひ (え) と表すものとする。
ci x I = Cf x II (_ m') + I γ j m m)
(29)
# I a(_2(m"] + I tm", m] C, x I α.ί/Μ) = C,x max 11 α,— + I ^ ηι', ) , I ( im") + m)
(30)
Figure imgf000032_0001
I ^算出 ·記憶回路 2 7は、 コントローラ 2 4から供給されたコントロール信 号 による制御の下に、 I y 算出 ·記憶回路 2 5から供給された対数尤度 Ci X I 7 ( ? 1 ) , CiX I γ {β 2 ) を用いて、 次式 ( 3 1 ) に示す演箅を行 い、 各時刻における 2系統の対数尤度 dx I ?tを並列的に算出して記憶する。 なお、 次式 (3.1 ) における演算子 ·"#" は、 上述したように、 log-sum演算を 示すものであり、 入力 "0" でステート m' からステート mへと遷移するときに おける対数尤度と、 入力 " 1 " でステート m"からステ一ト mへと遷移するとき における対数尤度との g-simi演算を示すものである。 · より具体的には、 I ?箅 出 ··記憶回路 ·2 7は、 次式 (3 2) に示す演算を行うことによって、 各時刻 tに おけ.る対数尤度 d x I ?tを算出する。 すなわち、 I ^算出 '記憶回路 2 7は、 対数尤度 dx I yに基づいて、.受信値 y t毎に、'打ち切りステートから時系列 の逆順に各ステートに至る確率; 5を対数表記した対数尤度 I ^の振幅を調整した 対数尤度 I ?を算出する。 そして、 I ?箅出 ·記憶回路 2 7は、 記憶した 対数尤度 d x I ?tのうち、 1系統の対数尤度 dx I ?tを軟出力算出回路 2 8 に供給する。 このとき、 I 箅出 ·記憶回路 2 7は、 軟出力算出回路 2 8におけ る処理に適した順序で対数尤度 C! X I 5tを供給する。 なお、 以下の説明では、 · I ?算出 ·記憶回路 2 7から軟出力算出回路 2 8に供給される対数尤度 d X I ^tを d x l ? (λ) と表すものとする。
Figure imgf000033_0001
ct x 1 P,W = c【 x I max I β(+1(/«') + I V(+1(OT , ιη') , I βί+1(/κ") + I γ " , m")
(32) ," ('"')+ · '"''))- ('U'"")* ' " ('"'"'"))
+ log 1 + e
軟出力算出回路 28は、' I y算出 ·記憶回路 25から供給された対数尤度 C j X I 7 (人) と、 Γα算出 '記憶回路 2 6から供給されだ対数尤度 dx I ひ (λ) と、 I ^算出 .記憶回路 27から供給された対数尤度 dx I ^ (λ) と を用いて、 次式 (33) に示す演算を行い、 各時刻 tにおける対数軟出力 I入 t の振幅を調整した対数軟出力 dx I を算出して記憶する。 このとき、 軟出力 算出回路 28は、 必要に応じて、 情報ビッ トに対する事後確率情報に対応する対 数軟出力 C I X I人 Itと、 '符号ビツ トに対する事後確率情報に対応する対数軟出 力 C! X Iえ ctとを箅出して記憶する。 そして、 軟出力算出回路 28は、 記憶し た対数軟出力 C!x I 及び/又は対数軟出力 dx Iえ ctを時系列順に並べ替 えた後、 外部情報算出回路 29に供給するか、 若しくは、 外部に出力する。 なお、 次式 ( 3 3) における演算子 "#∑" は、 上述した演算子 "#" で表される log-sum演算の累積加箅演箅を示すものである。 m) = 1
(33)
\m m , m m\
∑s
、 I
a
外部情報算出回路 29は、 軟出力算出回路 28から供給された対数軟出力 C I ズ 1 人1と、 乗算器 2 2から供給された確率情報 1 /CAx APPtと、 第 2の付 加係数 CAと、 第 3の付加係数 Ciとを用いて、 外部情報 l/CAx EXtを算出す る。 このとき、 外部情報箅出回路 2 9は、 必要に応じて、 情報ビットに対する外 部情報 l/CAxEXItと、 符号ビヅトに対する外部情報 l/CAxEXctとを箅 出する。 .
具体的には、 外部情報算出回路 2 9は、 図 1 8に示すように、 実質的には、 第 3の乗箅手段である 1つの乘算器 34.と、 差分手段である 1つの差分器 3 5とを 有するものとして実装される。
外部情報算出回路 2 9は、 乘算器 34によって、 軟出力算出回路 28から供給' された対数軟出力 C!x I λ に対して、 第 2の付加係数 C Aと第 3の付加係数 d との積の逆数である 1 / (CAX C I) を乘箅し、 得られた結果を差分器 3 5に供 給する。 そして、 外部情報算出回路 29は、 差分器 35によって、 乘箅器 34か ら供給された情報 l/CAx I と乗算器 2 2から供給された確率情報 1 /C A X A P P tとの差分値を算出し、 この差分値を外部情報 E X tの振幅を調整した外 部情報 1 /CAx EXtとして外部に出力する。 なお、 外部情報算出回路 2 9は、 図示しないが、 実際には、 情報ビヅトに対する外部情報 1 / C A X E X! tのビヅ ト数分、 この場合は 1つの差分器 3 5、 及び/又は、 符号ビットに対する外部情 報 1/CAX EXctのビヅト数分、 この場合は 2つの差分器 35を有する。
このような復号装置 3 ' は、 受信装置により受信された軟入力の受信値 y t を入力すると、 軟出力復号回路 23における Iァ算出 ·記憶回路 2 5によって、 受信値 y tを受信する毎に、 対数尤度 d x l y t (m, , m) を算出し、 I 算出 ·記憶回路 2 6によって、 対数尤度 I at (m) を算出した後、 全ての 受信値 y tを受信すると、 I /5算出 '記憶回路 2 7によって、 全ての時刻七に おける各ステート mについて、 対数尤度 dx l Jt (m) を算出する。 そして、 復号装置 3, は、 軟出力算出回路 2 8によって、 算出じた対数尤度 d x I at, Ci x I ?¾及び〇1 I ytを用いて、 各時刻 tにおける対数軟出力 I人 tを 算出し、 この対数軟出力 dx I を外部に出力するか、.若しくは、 外部情報算 出回路 2 9に供給する。 また、 復号装置 3 ' は、 外部情報算出回路 2 9によって、 各時刻七における外部情報 1/CA X EXt を算出する。 このように、 復号装置 35 は、 L 0 g— B C J Rアルゴリズムを適用した軟出力復号を行うことができ る。
特に、 復号装置' 3, は、 第 1の付加係数 CE、 第 2の付加係数 C A及び第 3の付 加係数 を設定することによって、 軟出力復号回路' 2 3に入力される通信路値 AMP x ytj及び事前確率情報 APPtの振幅を調整することができ、 軟出力復' 号回路 2 3に入力する際の最適なダイナミックレンジ及び量子化刻み幅を設定す. ることができるとともに、 対数軟出力 Iえ t及び/又は外部情報 EXtを生成する ために行われる軟出力復号回路 2 3の内部における'演算に必要な最適な量子化刻 み幅を設定することができる。· ——.
- 例えば、 軟出力復号回路 2 3に入力可能なビット数が 7ビット以下である場合、 すなわち、 一 1 27乃至 + 1 2 7の階調での入力が可能である場合に、 8ビット.、 すなわち、 一 2 5 5乃至 + 2 5 5の階調で表現されている通信路値 AMP x y tj を入力する場合を考える。
この場合、 復号装置 3 ' は、 例えば、 第 1の付加係数 C E及び第 2の付加係数 CAの両者を "2 " に設定するとともに、 第 3の付加係数 を " 1/2 " に設定 する。 すなわち、 復号装置 3, は、 軟出力復号回路 2 3に入力される通信路値 AMP X ytj及ぴ事前確率情報 APPtを 1/2倍する。 したがって、 復号装置 3, は、 軟出力復号回路 2 3に入力される通信路値 AMP X yt;i及び事前確率情 報 AP Ptを、 ともに、 一 1 2 7乃至 + 1 2 7の階調で表現されたものとするこ とができ、 これらの通信路値 AMP X yt j及び事前確率情報 APPtを不用意に クリヅプ (clip) することなく、 軟出力復号回路 2 3に入力することができる。 このように、 復号装置 3 ' は、 第 1の付加係数 Cn、 第 2の付加係数 C A及び第 3の付加係数 を設定することによって、 受信値 ytiに乗算すべき係数 A MP に応じて、 固定されたビッ ト数での入力を要する軟出力復号回路 2 3に入力され る通信路値 AMP x ytj及び事前確率情報 APPtに対する最適なダイナミ ヅ ^ レンジ及び量子化刻み幅を設定することができ、 軟出力復号回路 2 3における内 部演算に必要な最適な量子化刻み幅を設定することができる。
この際、 復号装置 3 ' は、 第 1の付加係数 CR、 第 2の付加係数 C A及び第 3の 付加係数 として、 2のべき乗で表現される値を設定することによって、 上述 した乗算器 2 2 , 3 1 , 3 2 , 34として、 実際の乗算器を用いなくとも、 ビヅ トシフ トにより乗算処理を実現することができ、 処理の高速化及び回路規模の削 減を図ることができる。 - なお、 復号装置 3 ' ·'は、 第 1の付加係数 CE、 第 2の付加係数 CA、 及び第 3の 付加係数 C!を所定の一定値として設定するようにしてもよい。' 特に、 復号装置 3, は、 Log- B C J Rアルゴリズムを適用した場合には、 第 3の付加係数 を 所定の一定値とすることによって、 対数尤度 I at, I ?.tを算出するために log-sum演算を行う際に必要となる補正項、 すなわち、 上式 3 0 ) 及び上式 (3 2) における右辺第 2項を求める際に調整を行う必要がなくなる。
また、 復号装置 3 ' は、 第 3の付加係数 を例えば " 1 " よりも大きい値に 設定することによって、 軟出力復号回路 2 3の外部における情報の量子化刻み幅 よりも内部演算時における情報の量子化刻み幅を相対的に細かくすることができ る。 このようにすることによって、 復号装置 3, は、 性能を向上させることがで きる。 これについては、 シミュレーションにより実証済みである。
なお、 復号装置 3 ' としては、 軟出力復号回路 2 3のみを有するものであって もよく、 この場合には、 上述した乗算器 2 1, 2 2は、 前段に設けられる図示し ない復調器に備えられることになる。 また、 復号装置 3 ' としては、 対数軟出力 CiX I 入 tを外部に出力するのではなく、 対数軟出力 CtX I tに第 3の付加係 数 の逆数である 1 を乗じて対数軟出力 I 人 tを外部に出力するようにし てもよい。 このとき、 対数軟出力 d x I Atに第 3の付加係数 の逆数である を乗算するのは、 軟出力復号回路 23の内部であってもよく、 外部であ つてもよい。 さらに、 復号装置 3 ' としては、 後述する繰り返し復号に適用しな い場合には、 外部情報算出回路 29を設ける必要はなく、 符号ビットに対する事 前確率情報に対応する対数軟出力 dx I Actを算出する必要もない。
つぎに、 復号装置 3がいわゆる繰り返し復号を行うものとして構成される場合 について説明する。 この場合、 復号装置 3は、 上述した復号装置 3, を応用して 構成される。
上述したように、 符号化装置 1としては、 畳み込み符号以外にも、 P C CCや S CC C等を、 BP S K変調方式や QP S K変調方式といった変調方式により変 調するものや、 T T CM方式や S C T CM方式を行うものとしても適用可能であ る。 この場合、 復号装置 3としては、 上述したアルゴリズムに基づく MAP復号 を行う複数の軟出力復号回路をィン夕ーリーバやディンターリーバを介して連接 することによって、 .繰り返し復号を行うものとして構成される。 ここでは、 図 1 9及び図 2 0に示す P C C Cによる符号化 ·復号を行う符号化装置 1 "及び復号 装置 3"と、 図 2 1及び図 22に示す S C C Cによ.る符号化 ·復号を行う符号化 装置 1 及び復号装置 3"'とについて説明する。
まず.、 P C C Cによる符号化を行う符号化装置 1 "と、 この符号化装置 1 "によ る符号の復号を行う復号装置 3"について説明する。
符号化装置 1 ' 'としては、 図 1 9に示すように、 入力したデータを遅延させる 遅延器 41と、'畳み込み演算を行う 2つの畳み込み符号化器 42', 44と、 入力 したデータの順序を並べ替えるィン夕ーリーバ 43とを備えるものがある。 この 符号化装置 1 "は、 入力した 1 ビヅ トの入力デ一夕 i t lに対して、 符号化率が "1/3" の並列連接畳み込み演算を行い、 3ビヅ トの出力データ xtl, xt2, xt3を生成し、 例えば BP S K変調方式や QP S K変調方式による変調を行う図 示しない変調器を介して外部に出力する。 .
遅延器 41は、 3ビヅ トの出力データ xt xt2, xt 3が出力される夕ィミン グを合わせるために備えられるものであって、 1ビットの入力データ i を入力 すると、 この入力データ itlをインターリーバ 43が要する処理時間と同時間だ け遅延させる。 遅延器 4 1は、 遅延させて得られた遅延データを、 3ビッ トの出 力データ x tのうちの 1ビットの出力データ xtlとして外部に出力するととも に、 後段の畳み込み符号化器 42に供給する。
畳み込み符号化器 42は、 遅延器 4 1から出力された 1ビッ トの遅延データを 入力すると、 この遅延データに対して畳み込み演算を行い、 演算結果を 3ビット の出力データ X tのうちの 1ビッ 卜の出力データ X t 2として外部に出力する。 · インターリーバ 43は、 1つのビット系列からなる入力デ一夕 itlを.入力し、 この入力データ itlを構成する各ビヅ トの順序を並べ替え、 生成したインターリ —ブデータを後段の畳み込み符号化器 44に供給する。 ·
畳み込み符号化器 44は、 インターリーバ 43から供給される 1 ビットのイン 夕—リーブデータを入力すると、 このインターリーブデータに対して畳み込み演 算を行い、 演算結果を 3ビッ トの出力データ c tのうちの 1ビッ トの出力デー タ xt3として外部に出力する。
このような符号化装置 1 "は、 1ビッ トの入力デ一夕 iいを入力すると、 この 入力データ itlを組織成分の出力データ xtlとして、 遅延器 4 1を介してその'ま ま外部に出力するとともに、 畳み込み符号化器 42による遅延データの畳み込み 演算の結果得られる出力データ xt2と、 畳み込み符号化器 44による.インタ一リ ーブデータの畳み込み演算の結果得られる出力データ xt3とを外部に出力するこ とによって、 全体として、 符号化率が "1Z3" の並列連接畳み込み演算を行う。 この符号化装置 1 "により符号化されたデータは、 図示しない変調器により所定' の変調方式に基づいて信号点のマツビングが行われ、 無記憶通信路 2を介して受 信装置に出力される。
一方、 符号化装置 1"による符号の復号を行う復号装置 3"は、 図 20に示すよ うに、 2つの乗算器 5 1 , 52と、 符号化装置 1 "における要素符号化器である 畳み込み符号化器 42, 44に対応した復号処理を行う、 要素符号の数と繰り返 し復号の繰り返し回数 Mとの積、 すなわち、 2 XM個の処理回路 53 u, 5312 , • · · , 53MI, 53M2とを備える。 この復号装置 3"は、 無記憶通信路 2上で 発生したノイズの影響により軟入力とされる受信値 y tから繰り返し復号によ り復号デ一夕 DE Ctを求めることによって、 符号化装置 1 ' 'における入力デ一夕 i t iを推定するものである。 乗算器 5 1は 上述した復号装置 3 ' における乗算器 2 1 と同様に、 受信値 y t と、 係数 AMPを第 1の付加係数 CKで除算した値 AMP/CE とを乗算 する。 乗算器 5 1は、 乗算して得られた確率情報 AMP/CKx y t を処理回路 53 に供給する。
乗算器 52は、 上述した復号装置 3 ' における乗算器 22と同様に、 '事前確率 情報 APPtと、 第.2の付加係数 C Aの逆数である 1/C Aとを乗算する。 乗算器 52は、 乗算して得られた確率情報 1 /CAX APPtを処理回路 53„に供給す る。
処理回路 53 η, 5312, · · ·, 53 MI, 53 M2 は、 それぞれ、 略同一の L S Iとして各部を単一半導体基板に集積させて構成される。 処理回路 53 a, ■ 5 3 ,2 , · · ·, 53 M!, 53M2のうち、 処理回路 53 "で表されるものは、 符 号化装置 1 "における畳み込み符号化器 42に対応して備えられ、 且つ、 繰り返 し回数 i回目の復号処理を行うものを示し、 処理回路 53 i2で表されるものは、' 符号化装置 1 "における畳み込み符号化器 44に対応して備えられ、 且つ、 繰.り 返し回数 i回目の復号処理を行うものを示している。
具体的には、 処理回路 53 ^は、 入力したデータを遅延させる遅延手段である 遅延器 54 ^と、 軟出力復号を行う軟出力復号手段である軟出力復号回路 5 5 n と、 入力したデ一夕の順序を並べ替えるインターリーブ手段であるィンターリー バ 56 とを有する。
遅延器 5 4 η は、 インターリーバ 5 6 u から出力され.る確率情報 l/'C A X APPtl2と、 次段の処理回路 5312に入力される確率情報 AMPZCEx ytと が出力されるタイミングを合わせるために備えられるものであって、 乗算器 5 1 から供給された確率情報 AMP/CEx y tを入力すると、 この確率情報 AMP/ CnX y tを軟出力回路 55 n及びィン夕一リーバ 56 nが要する処理時間と同時 間だけ遅延させる。 遅延器 5 4 uは、 遅延させた確率情報 AMP/CEx ytを、 ' 次段の処理回路 5312に供給する。
軟出力復号回路 5 5 nは、 符号化装置 1 "における畳み込み符号化器 42に対 応して備えられるものであり、 図示しないが、 上述した復号装置 3 ' における軟 出力復号回路 23と同様の構成からなる。 軟出力復号回路 55 uは、 乗算器 5 1 から.供給された確率情報 AMP/CH X ytと、 乗算器 52から供給された確率情 報 l/CAxAPPtと、 第 1の付加係数 Ciiと、 第 2の付加係数 CAと、 第 3の付 加係数 とを用いて、 軟出力復号回路 23と同様の処理による軟出力復号を行 う。 軟出力復号回路 55^は、 符号の拘束条件により求められる情報ビッ トに対' する外部情報1/〇 £ 1を算出し、 この外部情報 1 /CAx EXtllを後段 のイン夕一リーバ.56 uに軟出力として供給する。 なお、 軟出力復号回路 55 u は、 上述した軟出力復号回路 23のように、 情報ビットに対する対数軟出力を出 力する必要はなく、 符号ビ、ソ トに対する対数軟出力及び外部情報を算出する必要 もない。
イン夕一リーバ 56 uは、 軟出力復号回路 55 nから出力された軟入力である 情報ビヅ トに対する外部情報 1/CA X E XT L Lに対して、 符号化装置 1 "におけ るインターリーバ 43と同一の置換位置情報に基づいたィン夕ーリーブを施す。 .
インターリーバ 56 nは、 インターリーブして得られた外部情報を'、 次段の処理
■■'Λ '.回路 5312における情報ビットに対する事前確率情報の振幅を調整した確率情報
l/CAxAPPtl2として、 次段の処理回路 53 i 2に供給する。
また、 処理回路 5312は、 入力したデータを遅延させる遅延手段である遅延器 .
5412と、 軟出力復号を行う軟出力復号手段である軟出力復号回路 5512と、 入 - 力したデータの順序を元に戻すディンター リーブ手段であるディン夕一リーバ 5.
612とを有する。
遅延器 5412は、 ディン夕ーリーバ 5 6 2から出力される確率情報 l/CAx
APPt21と、 図示しない次段の処理回路 5321に入力される確率情報 A MP/
CExytとが出力される夕イミングを合わせるために備えられるものであって、 処理回路 53 nから供給された確率情報 AMP/CRx ytを入力すると、 この確 率情報 AMP/CEx ytを軟出力回路 5512及びディンターリーバ 5612が要す る処理時間と同時間だけ遅延させる。 遅延器 5412は、 暹延させた確率情報 AM.
P/CExytを、 図示しない次段の処理回路 5321に供給する。
軟出力復号回路 5512は、 符号化装置 1 "における畳み込み符号化器 44に対 応して備えられるものであり、 図示しないが、 上述した復号装置 3' における軟 出力復号回路 23と同様の構成からなる。 軟出力復号回路 5512は、 処理回路 5 3 から供給された確率情報 AMP/CEx yt, l/CAxAPPtl2と、 第 1の 付加係数 CHと、 第 2の付加係数 CAと、 第 3の付加係数 とを用いて、 軟出力 復号回路 2 3と同様の処理による軟出力復号を行う。 軟出力復号回路 5 5 12は、 符号の拘束条件により求められる情報ビットに対する外部情報 l/CAx E XT L 2 を算出し、 'この外部情報 Ι /CAX E X 2を後段のディンターリーバ 5 6 12に軟 出力として供給する。 なお、 軟出力復号回路 5 512は、 上述した軟出力復号回路 2 3のように、 情報ビッ トに対する対数軟出力を出力する必要はなく、 符号ビッ トに対する対数軟出力及び外部情報を算出する必要もない。
ディンタ一リーバ 5 612は、 符号化装置 1 "におけるィン夕ーリーバ 4 3によ りインターリーブされたインターリーブデータのビット配列を、 それそれ、 元の 入力データ itlのビット配列に戻すように、 軟出力復号回路 5 5 12から出力され た軟入力である情報ビットに対する外部情報 1ノ C A X E X t 2にディンターリー ブを施す。 ディンターリーバ 5 6 12は、 ディン夕一リーブして得られた外部情報 を、 図示しない次段の処理回路 5 321における情報ビヅトに対する事前,確率情報. の振幅を調整した確率情報 1 / C A X A P P 12!として、 図示しない次段の処理回 路 53.21に供給する。 .
さらに、 処理回路 5 3M1は、 処理回路 5 3 ^と同様に、 入力したデ タを遅延 させる遅延手段である遅延器 5 4M1と、 軟出力復号を行う軟出力復号手段である 軟出力復号回路 5 5 M1と、 入力したデータの順序を並べ替えるィン夕一リーブ手 段であるィン夕ーリーバ 5 6 M1とを有する。 処理回路 5 3M1は、 図示しない処理 回路 5 3 M- n から供給ざれた確率情報 AMP/CHx y t, 1 /CA AP PTM1 と、 第 1の付加係数 CE と、 第 2の付加係数 CA と、 第 3の付加係数 d とを用 いて、 処理回路 53 η と同様の処理を行い、 得られた外部情報を、 次段の処理 回路 5 3 Μ2における情報ビットに対する事前確率情報の振幅を調整した確率情報 IZCAX APPTM.2として、 最終段の処理回路 5 3Μ2に供給する。 .
最終段の処理回路 5 3 Μ2 は、 処理回路 5 312 と同様に、 入力したデ一夕を遅 延させる遅延手段である遅延器 5 4Μ2 と、 軟出力復号を行う軟出力復号手段で ある軟出力復号回路 5 5Μ2と、 入力したデ一夕の順序を元に戻すディンターリー プ手段であるディンターリーバ 5 6 Μ2とを有する他、 2つのデータを加算する加 算器 57M2を有する。 処理回路 53M2は、 処理回路 53M1から供給されて遅延器 54M2により遅延させた確率情報 AMP/CKx ytを出力しないか、 若しくは、 処理回路 53 M1 から供給された確率情報 AMP/CEx yt を遅延器 54 M2に入 力させない。 また、 処理回路 53 M2は、 処理回路 5312における軟出力復号回路 5512と同様の処理により得られた情報ビットに対する外部情報 E XtM2の振幅 を調整した.外部情報 lZCAx EXtM2と、 振幅が調整された情報ビヅトに対する 事前確率情報として処理回路 53«1から供給された確率情報1/ 4 卩卩^2 とを加算器 57M2により加算し、 さらにディンターリーバ 56M2によりディン夕 —リーブが施して得られた復号デ一夕 D E C tの振幅を調整した復号デ一夕 1 / CAX D E Ctを外部に出力する。
このような復号装置 3 "は、 符号化装置 1 "における畳み込み符号化器 42, 4 4のそれぞれに対応する軟出力復号回路 55 ί ΐ , 55 i2を備えることによって、 ' 復号複雑度が高い符号を複雑度の小さい要素に分解し; 軟出力復号回路 5.5 ^, 5 ·5 ^ 2の間の相互作用により特性を逐次的に向上させることができる。 復号装置 3"は、 受信値 y tを受信すると、 2 XM個の処理回路 53 n, 5312, · · - , 53MI , 53M2によって、 繰り返し回数が Mの繰り返し復号を行い、 この復号動 作の結果得られた軟出力の外部情報 1 /CA.X EXtM2に基づいて、 復号データ 1 /CAx D E Ctを出力する。 復号装置 3 "は、 第 1の付加係数 CE、 第 2の付加係 '数 CA及び第 3の付加係数 を設定することによって、 復号装置 3' と伺様に、 処理回路 53 ll5 5312 , · · ·., 53 MI, 53 M2の:それぞれに入力される通信 路値 AMP X yt 及び事前確率情報 A PPt の振幅を調整することができ、 処理 回路 53 u, 5312 , · · · , 53MI, 53M2に入力す'る際の最適なダイナミツ クレンジ及ぴ量子化刻み幅を設定することができるとともに、 処理回路 531 1 , 5312 , · · . , 53 M l , 53 M2のそれそれにおける内部演算に必要な最適な量 子化刻み幅を設定することができる。 - なお、 復号装置 3"としては、 復号データ l/CAx D E Ctを外部に出力する のではなく、 復号デ一夕 1/CA X D E Ctに第 2の付加係数 CAを乗じて復号デ 一夕 D E Ctを外部に出力するようにしてもよい。 このとき、 復号デ一夕 1/CA X D E Ctに第 2の付加係数 C A を乗算するのは、 処理回路 53M2の内部であつ てもよく、 外部であってもよい。 また、 復号装置 3 "としては、 処理回路 53 n, 5312 , . . · , 53 MI , 53M2の構成を同一としてもよい。 この場合、 処理回 路 53 ll5 5312 , · · · , 53M1は、 処理回路 53M2と同様に、 加算器を有す ることになるが、 これらの加算器を機能させない旨の制御信号により機能を切り 替えればよい。 '
つぎに、 S C C Cによる符号化を行う符号化装置 1 " 'と、 この符号化装置 1 "' による符号の復号を行う復号装置 3"'について説明する。
符号化装置 "としては、 図 2 1に示すように、 外符号と呼ばれる符号の符号 化を行う畳み込み符号化器 6 1と、 入力したデータの順序を並べ替えるインター リーバ 62と、 内符号と呼ばれる符号の符号化を行う畳み込み符号化器 63とを 備えるものがある。 この符号化装置 1"'は、 入力した.1ビヅ トの入力データ i t l に対して、 符号化率が "1/3"の縦列連接畳み込み演算を行い、 3ビ トの出 力データ xtr, xt2, xt3を生成し、 例えば BP SK変調方式や QP SK変調方 式による変調を行う図示しない変調器を介して外部に出力する。
畳み込み符号化器 6.1は、 1ビッ小の入力データ itlを入力すると、 この入力 データ i t lに対して畳み込み演算を行い、 演算結果を 2ビッ トの符号化デ一夕と: して後段のインターリーバ 62に供給する。 すなわち、 畳み込み符号化器 6 1は、 外符号の符号化として符号化率が "1/2" の畳み込み演算を行い、 生成した符 号化データ.を後段のィン夕ーリ一バ 62に供給する。
インタ一リーバ 62は、 畳み込み符号化器 61から供給された 2つのビヅ ト系 列からなる符号化データを入力し、 これらの符号化データを構成する各ビッ トの 順序を並べ替え、 生成した 2つのビヅ ト系列からなるィン夕ーリーブデータを後 段の畳み込み符号化器 63に供給する。
畳み込み符号化器 63は、 インタ一リーバ 62から供給ざれる 2.ビヅ トのイン タ一リーブデ一夕を入力すると、 これらのィン夕一リーブデータに対して畳み込 み演算を行い、 演算結果を 3ビヅ トの出力デ一夕 xtl, xt2j xt3として外部に 出力する。 すなわち、 畳み込み符号化器 63は、 内符号の符号化として符号化率 が "2/3" の畳み込み演算を行い、 出力デ一夕 X tを外部に出力する。
このような符号化装置 1 "'は、 畳み込み符号化器 6 1により外符号の符号化と して符号化率が "1/2" の畳み込み演算を行い、 畳み込み符号化器 63により 内符号の符号化として符号化率が "2/3" の畳み込み演算を行うことによって、 全体として、 符号化率が " ( 1/2) X (2/3) = 1/3" の縦列連接畳み込 み演算を行う。 この符号化装置 1 " 'により符号化されたデータは、 図示しない変 調器により所定の変調方式に基づいて信号点のマッピングが行われ、 無記憶通信 路 2を介して受信装置に出力される。 .
一方、 符号化装置 1 による符号の復号を行う復号装置 3" 'は、 図 2 2に示す ように、 2つの乗算器 7 1 , 72と、 符号化装置 1 "'における要素符号化器であ る畳み込み符号化器 6 1, 63に対応した復号処理を行う、 要素符号の数と繰り 返し復号の繰り返し回数 M との積、 すなわち、 2 XM 個の処理回路 73 n, 7312, · · · , 73MI, 73 M2とを備える。 この復号装置 3 '"は、 無記憶通信 路 2上で発生したノイズの影響により軟入力とされる受信値 y tから繰り返し 復号により復号デ一夕 DE Ctを求めることによって、 符号化装置 1 "'における 入力データ i tlを推定するものである。 ' .乗算器 7 1は、 上述した復号装置 3 ' における乗算器 2 1 と同様に、 受信値 y tと、 係数 AMPを第 1の付加係数 CR で除算した値 AMP/CE とを乗算 する.。 乗算器 7 1は、 乗算して得られた確率情報 AMP/CEx y t を処理回路 73 に供給する。
乗算器 72は、 上述した復号装置 3 ' における乗算器 2'2と同様に、 事前確率 情報 APPtと、 第 2の付加係数 CAの逆数である Ι /'CAとを乗算す.る。 乗算器 72は、 乗算して得られた確率情報 1/CAX APPtを処理回路 73 に供給す る。
処理回路 7311, 7312, · · · , 73M1, 73M2は、 それそれ、 上述した復 号装置 3"における処理回路 53 η,' 53 · · · , 53ΜΙ, 53Μ2と同様に、 略同一の L S Iとして各部を単一半導体基板に集積させて構成される。 処理回路 7311, 7312, . · · , 73 , 73Μ2のうち、 処理回路 73 で表されるも のは、 符号化装置 1 における内符号の符号化を行う畳み込み符号化器 6 3に対 応して備えられ、 且つ、 繰り返し回数 i回目の復号処理を行うものを示し、 処理 回路 73 2で表されるものは、 符号化装置 1 における外符号の符号化を行う畳 み込み符号化器 6 1に対応して備えられ、 且つ、 繰り返し回数 i回目の復号処理 を行うものを示している。
具体的には、 処理回路 7 3 は、 入力したデータを遅延させる遅延手段である 遅延器 7 4 ηと、 軟出力復号を行う軟出力復号手段である軟出力復号回路 7 5 n と、 入力したデ一夕の順序を元に戻すディンターリーブ手段であるディン夕ーリ —バ 7 6 ηとを有する。
遅延器 7 4 Ηは、 ディン夕ーリーバ 7 6 ηから出力される確率情報 1 /CAx AP P T L 2と、 次段の処理回路 7 3 12に入カされる確率情報AMPZCIίx ytと が出力されるタイミングを合わせるために備えられるものであって、 乗算器 7 1 から供給された確率情報 AMP/CRx ytを入力すると、 この確率情報 AMPZ CE X y tを軟出力回路 7 5 n及びディンターリーバ 7 6 nが要する処理時間と同 時間だけ遅延させる。 遅延器 7 4 nは、 遅延させた確率情報 AMP/CHx ytを、 次段の処理回路 7 312に供給する。
軟出力復号回路 7 5 nは、 符号化装置 1 "'における畳み込み符号化器 6 3に'対 応して備えられるものであり、 図示しないが、 上述した復号装置 3 ' における軟 出力復号回路 2 3と同様の構成からなる。 軟出力復号回路 7.5. uは、 乗算器 7 1 から供給された確率情報 AMP/CRx y t と、 乗算器 7 2から供給された確率 情報 l /CAxAPPt と、 第 1の付加係数 CEと、 第 2の付加係数 C と、 第 3 の付加係数 とを用いて、 軟出力復号回路 2 3と同様の処理による内符号の軟 出力復号を行う b 軟出力復号回路 7 5 uは、 符号の拘束条件により求められる情 報ビヅ トに対する外部情報 l /CAxEXt llを算出し、 この外部情報 1 /CA X E Xt l lを後段のディン夕一リーバ 7 6 uに軟出力として供給する。 この外部情 報1 /0 ><:£ ^1は、 符号化装置 1 におけるィン夕一リーバ 6 2によりイン 夕一リーブされたインターリーブデータに対応するものである。 なお、 軟出力復 号回路 7 5 は、 上述した軟出力復号回路 2 3のように、 情報ビットに対する.対 数軟出力を出力する必要はなく、 符号ビッ卜に対する対数軟出力及び外部情報を 算出する必要もない。
ディンターリーバ 7 6 uは、 符号化装置 1 '"におけるィンタ一リーバ 6 2によ りイン夕一リーブされたイン夕一リーブデ一夕のビット配列を、 それそれ、 元の 入力データ i t !のビット配列に戻すように、 軟出力復号回路 7 5 uから出力され た軟入力である情報ビットに対する外部情報 1 / C A X E X t !にディンターリー ブを施す。 ディンターリーバ 7 6 nは、 デインタ一リーブして得られた外部情報 を、 次段の処理回路 7 312における符号ビットに対する事前確率情報の振幅を調 整した確率情報 1 /CA X AP PT L 2として、 次段の処理回路 7 3 12に供給する。 また、 処理回路 7 3 は、 入力したデータを遅延させる遅延手段である遅延 器 7 412.と、 軟出力復号を行う軟出力復号手段である軟出力復号回路 7 5 12 と、 入力したデータの順序を並べ替えるインターリーブ手段であるインタ一リーバ 7 6 12とを有する。
遅延器 7 412 は、 ィンターリーバ 7 6 から出力される確率情報 1 /CA X APPt2i と、 図示しない次段の処理回路 7 321に入力される確率情報 AMPZ nx y tとが出力されるタイミングを合わせるために備えられるものであって、 処理回路 7 3 nから供給された確率情報 AMP/CHx ytを入力すると、 この確 率情報 AMP/CEx.ytを軟出力回路 7 5 12及びィン夕ーリーバ 7 6 12が要する 処理時間と同時間だけ遅延させる。 遅延器 7 412は、 遅延させた確率情報 AMP ZCKX ytを、 図示しない次段の処理回路 7 321に供給する。
軟出力復号回路 7 5 は、 符号化装置 1 '"における畳み込み符号化器 6 1に対. 応して備えられるものであり、 図示しないが、 上述した復号装置 3 ' における軟 出力復号回路 2 3と同様の構成からなる。 軟出力復号回路 7 512は、 処理回路 7 3 から供給された確率情報 1/CA X AP PT L 2と、 値が "0" で'ある情報ビヅ トに対する事前確率情報と、 任意の係数 Cと、 第 2の付加係数 CAと、 第 3の付 加係数 とを用いて、 軟出力復号回路 2 3と同様の処理による外符号の軟出力 復号を行う。 このとき、 軟出力復号回路 7 5 12には、 第 1の係数 CEを入力すベ き端子に、 軟出力復号回路 7 5 uに与えられた第 2の係数 C Aと同一のものが入 力され、 第 2の係数 CAを入力すべき端子に、 任意の値を有する係数 Cが入力さ れる。.ここで、 第 2の係数 CAを入力すべき端子に、 任意の値を有する係数 Cが 入力されるのば、 当該係数 Cが乗算される情報ビットに対する事前確率情報の値 が " 0 " であるからに他ならない。 軟出力復号回路 7 512は、 符号の拘束条件に より求められる符号ビヅ トに対する外部情報 l /CAxEXtl2を算出し、 この外 部情報 l/CAxEXtl2を後段のィン夕ーリ一バ 7 612に軟出力として供給する。 なお、 軟出力復号回路 7 512は、 上述した軟出力復号回路 2 3のように、 符号ビ ッ卜に対する対数軟出力を出力する必要はなく、 情報ビッ卜に対する対数軟出力 及び外部情報を算出する必要もない。
イン夕一リーバ 7 6 12は、 軟出力復号回路 7 5 12から出力された軟入力である 符号ビヅトに対する外部情報 1 /CA X E XT L 2に対して、 符号化装置 1 '"におけ るイン夕一リーバ 6 2と同一の置換位置情報に基づいたィン夕ーリーブを施す。 インターリーバ 7 612は、 インターリーブして得られた外部情報を、 図示しない 次段の処理回路 7 321における情報ビ、ソトに対する事前確率情報の振幅を調整し た確率情報 1 /CA X AP P T 21として、 図示しない次段の処理回路 7 321に供給 する。 ·
さらに、 処理回路 7 3M1は、 処理回路 7 3 uと同様に、 入力したデータを遅延 させる遅延手段である遅延器 7 4M1と、 軟出力復号を行う軟出力復号手段である '軟出力復号回路 7 · 5 M iと、 入力したデ一夕の順序を元に戻すディン夕一リーブ手 段であるディン夕一リーバ 7 6M1とを有する。 処理回路 7 3 M1は、 図示しない処 理回路 7 3M- から供給された確率情報 AMPZCE X y t, 1 /CAx AP Pt M i と、 第 1の付加係数 CKと、 第 2の付加係数 CAと、 第 の付加係数 とを用い て、 処理回路 7' 3 uと同様の処理を行い、 得られた外部情報を、 次段の処理回路 7 3.M2における符号ビットに対する事前確率情報の振幅を調整した確率情報 1 / CAx AP PTM2として、 最終段の処理回路 7 3M2に供給す'る。 なお、 処理回路 7 3M1は、.図示しない処理回路 7 から供給されて遅延器 7 4M1により遅延さ せた確率情報 AMP/CEx y tを次段の処理回路 7 3M2に供給しないか、 若しく は、 処理回路 7 3M- nから供給された確率情報 AMP/CEx y tを遅延器 7 4M1 に入力させなくてもよい。
最終段の処理回路 7 3M2は、 処理回路 7 312と同様に、 入力したデータを遅延 させる遅延手段である遅延器 7 4M2と、 軟出力復号を行う軟出力復号手段である 軟出力復号回路 7 5M2と、 入力したデ一夕の順序を並べ替えるィン夕ーリーブ手 段であるィン夕ーリーバ 7 6 M2とを有する。 処理回路 7 3M2は、 処理回路 7 3 MI から供給されて遅延器 7 4M2により遅延させた確率情報 AMP/CEx ytを出力 しないか、 若しくは、 処理回路 7 3M1から供給された確率情報 AMP/CEx yt を遅延器 74M2に入力させない。 また、 処理回路 7 3M2は、 処理回路 7312にお ける軟出力復号回路 7 512のように、 符号ビットに対する外部情報を算出して出 力する必要はない。 さらに、 軟出力復号回路 7 5M2には、 第 1の係数 CEを入力 すべき端子に、 軟出力復号回路 7 5M1に与えられた第 2の係数 CAと同一のもの が入力され、 第 2の係数 CAを入力すべき端子に、 任意の値を有する係数 Cが入 力される。 ここで、 第 2の係数 CAを入力すべき端子に、 任意の値を有する係数 Cが入力されるのは、 当該係数 Cが乗算される情報ビッ トに対する事前確率情報 の値が "0" であるからに他ならない。 処理回路 7 3M2は、 情報ビヅトに対する 外部情報 E X t M 2の振幅を調整した外部情報 1 / C A X E X t M 2を算出し、 この外 部情報 l /CAX EXtM2を、 復号デ一夕 D E Ctの振幅を調整した復号データ 1 /CAX D E Ctとして外部に出力する。
このような復号装置 3"'は、 上述した復号装置 3"と同様に、 符号化装置 1 "'に おける畳み込み符号化器 6 3 , 6 1のそれそれに対応する軟出力復号回路 7 5 ii, 7 5 を備えることによって、 復号複雑度が高い符号を複雑度の小さい要素に分 解し、 軟出力復号回路 7 5 , 7 5 i2の間の相互作用により特性.を逐次的に向上 させることができる.。 復号装置 3 '"は、 受信値 y t を受信するど、 2 XM個の 処理回路 7 3 η, 7 312, · · ·, 7 3ΜΙ , 7 3Μ2 によって、 繰り返し回数が Μ の繰り返し復号を行い、 この復号動作の結果得られた軟出力の外部情報 1/ CAX E XtM2に基づいて、 復号デ一夕 l/CAx D E Ct を出力する。 復号装置 3'"は、.第 1の付加係数 CJU 第 2の付加係数 C A及び第.3の付加係数 を設定 することによって、 復号装置 3, , 3"と同様に、 処理回路 7 3 η, 7 312 , · . ·, 7 3ΜΙ, 7 3Μ2 のそれぞれに入力される通信路値 AMP Χ yt 及ぴ事前 確率情報 APPt の振幅を調整することができ、 処理回路 73 n, 7 312, · · ·, 7 3 MI, 7 3 M2に入力する際の最適なダイナミックレンジ及び量子化刻み幅 を設定することができるとともに、 処理回路 7 3 H, 7 3 · ·, 7 3MI5 7 3 M 2のそれそれにおける内部演算に必要な最適な量子化刻み幅を設定すること ができる。
なお、 復号装置 3 '"としては、 復号デ一夕 1/CA X D E CUを外部に出力する のではなく、 復号デ一夕 1/CA X D E Ctに第 2の付加係数 CAを乗じて復号デ 一夕 DECtを外部に出力するようにしてもよい。 このとき、 復号データ 1/C A X D E Ctに第 2の付加係数 C Aを乗算するのは、 処理回路 53 M2の内部であって もよく、 外部であってもよい。 また、 復号装置 3' "としては、 情報ビッ トに対す る外部情報 E XtM2は、 情報ビヅ トに対する対数軟出力 I v M2と等しいことから、 外部情報 1/CA X EXtM2を復号デ一夕 l/CAx DE Ct.として出力するのでは なく、 対数軟出力 dx I M2を復号データ dx DE Ctとして出力するように してもよい。
さらにまた、 T T CM方式による符号の復号を行う復号装置は、 上述した復号 装置 3"と同様の構成で実現することができ、 受信値 y tとして、 同相成分及び 直交成分のシンボルを直接入力する。 また、 S C T CM方式による符号の復号を 行う復号装置については、 上述した復号装置 3 " 'と同様の構成で実現することが. でき、 この場合も、 受信値 y tとして、 同相成分及び直交成分のシンボルを直 接入力することになる。 一
さて、 以下では、 第 1の付加係数 CE、 第 2の付加係数 C A及び第 3の付加係数 の具体的な設定の方法について説明する。 —— .·
まず、.符号化装置 1が、 上述したように、 例えば: BP S K変調方式や QP S K. 変調方式といつた受信値のビヅ ト毎の分布が得られる信号点の配置を行う変調方 式による変調を行うものとして構成される場合における第 1の付加係数 0^の最 適な設定方法について説明する。
各種符号における受信値、 及び、 受信値と係数 AMPとの積で表される通信路 値のダイナミ ヅクレンジを変化させて復号した場合の符号化損失をシミュレーシ ヨンにより求めた。 このシミュレーションでは、 生成する外部情報のダイナミ ヅ クレンジを "32" といった十分大きな値としている。 符号どしては、 C C S D S ( Consultative Committee for Space Data Systems ) においていわゆる夕ーボ符 号として勧告された符号化率が " 1/6"、 " 1 /3" の P C C C、 及び、 この C C S D Sにおいて勧告されたターボ符号に基づいて適宜パンクチヤすることに より生成した符号化率が "3/4" の PCCCと、 符号化率が "1/3" の S C CCとを用い、 B P S K変調方式を施している。 このシミュレーションによれば、 符号化損失が生じないダイナミックレンジは、 受信値及び通信路値の両者とも、 符号により異なることが確かめられている。 また、 符号化損失が生じないダイナ ミックレンジは、 受信値又は通信路値の間で異なることも確かめられている。 なお、 1 ビヅ トあたりの信号対維音電力比 (以下、 E b/Nnと記す。 ) におけ る係数 AMPの値を各符号に応じて求めると、 次表 1に示すようになる。
表 1 係数 AMP
Figure imgf000050_0001
これらの受信値又は通信路値のダイナミ ックレンジと符号化損失との関係は、 それそれ、 図 2 3及び図 2 4に示すようになる。 なお、 同図において、 曲線 d は、 符号化率が " 1 /6 " の P C C Cの場合を示し、 曲線 C2は、 符号化率が " 1/3 " の P C C Cの場合を示し、 曲線 C3は、 符号化率が "3/4" の P C C Cの場合を示し、 曲線 C4は、 符号化率が " 1 /3" の S C C の場合を示し ている。
図 2 3からわかるように、 符号化損失が " 0 " となる受信値のダイナミヅクレ ンジは、 符号化率力 s " 1/6" の P C C Cの場合には "4" 近傍となり、 符号化 率が " 1 /3 " の P C C Cの場合には "3" 近傍となり、 符号化率が "3/4" の P C C Cの場合には "1. 5"近傍となり、 符号化率が "1/3" の S C C C の場合には "2. 5"近傍となる。
また、 図 24からわかるように、 符号化損失が "0" となる通信路値のダイナ ミ ヅクレンジは、 符号化率が "1/6" の P C C Cの場合には " 2. 5" 近傍と なり、 符号化率が "1/3" の!3 C C Cの場合及び符号化率が "1/3" の S C C Cの場合には "3. 5"近傍となり、 符号化率が "3/4" の P C C Cの場合 には "7" 近傍となる。
ここで、 無記憶通信路 2により AWGNが加えられていることから、 受信値又 は通信路値の分布は正規分布となり、 この正規分布は、 平均値と分散を変化させ ることにより同等の分布を生成することができることに着目する。 具体的には、 図 25 Aに示すように、 受信値又は通信路値の分布において、 平均値が "± 1 " であり且つ分散が "び2" である場合には、 図 2 5 Bに示すように、 平均値を "± 1/び" とすることによって、 正規化することができる。
このように、 受信値又は通信路値の分布を正規化した後の正規化後分布に対し て、 いわゆるビタビ復号時における最適量子化を適用する。 ビタビ復号において は、 例えば受信値を 4ビットに量子化する場合、 分散が "1" の受信値の分布に 対して、 量子化刻み幅を " 0. 3 " として均等量子化した場合の特性がよくなる ことが知られている。 このとき、 正規化後分布の平均値は、 "約 2. 1" となる。 この結果は、 符号の違いに依存しないことも確かめられている。 この結果を受信 値又は通信路値の分布を正規化した後の正規化後分布に対して-適用し、 受信値又 は通信路値の平均値が " ± 2乃至 ± 2. 5" となるときのダイナミヅクレンジを 求めると、 図 23及び図 24中横軸に付した範囲となる。
すなわち、 受信値の平均値が " ± 2乃至 ± 2. 5" となるのは、 符号化率が " 1/6" の P C C Cの場合には、 受信値のダイナミックレンジが "約 3. 7乃 至約 4. 5" であり、 符号化率が " 1/3" の P C CCの場合には、 .受信値のダ ィナミヅクレンジが "約 2. 4乃至約 3. 1" であり、 符号化率が "3/4" の P CC Cの場合には、 受信値のダイナミヅクレンジが "約 1. 3乃至約 1. 7" であり、 符号化率が " 1/3" の S C C Cの場合には、 受信値のダイナミヅクレ ンジが "約 2. 3乃至約 2. 9" である。 また、 通信路値の平均値が "± 2乃至 ± 2. 5" となるのは、 符号化率が " 1 /6" の P C CCの場合には、 通信路値のダイナミックレンジが "約 2. 2乃至 約 2. 7" であり、 符号化率が "1/3" の PC CCの場合には、 通信路値のダ イナミヅクレンジが "約 3. 3乃至約 4. 2 " であり、 符号化率が " 3 Z 4 " の P C C Cの場合には、 通信路値のダイナミックレンジが "約 6. 2乃至約 7. 7" であり、.符号化率が " 1/3" の S C C C.の場合には、. 通信路値のダイナミ ヅクレンジが "約 3. 5乃至約 4. 5" である。
この結果から、 受信値又は通信路値の分布を正規化した後の正規化後分布にお ける受信値又は通信路値の平均値が "± 2乃至 ± 2. 5" とした場合には、 符号 化損失を "0" に近づけることができ、 復号精度が向上することが考えられる。 実際に、 上述した条件の下にシミュレーションを行った結果、 受信値の分布を 正規化した後の正規化後分布における受信値のダイナミ、ソ.クレンジと符号化損失 との関係は、 図 26に示すようになった。 すなわち、 符号化損失が " 0" となる 受信値のダイナミックレンジは、 全ての符号において "2乃至 ·2. 5" となるこ.とが確かめられた。
そこで、 復号装置 3は.、 L S Iに入力される確率情報 AMP/CE (= (2/ 'び2) X ( 1 /GE) ) のダイナミ ヅクレンジが、 確率情報の分布を正規化した 後の正規化後分布において "±2乃至 ± 2. 5" となる'ように、 第 1の付加係数 CE の設定を行う,。.例えば、 上述した復号装置 3, , 3", 3"'の場合には、 そ れそれ、 乗算器 2 1, 5 1, 7 1から出力される確率情報 AMP/Cn (= ( 2. Zび2) X ( 1/CR) ) のダイナミックレンジが、 確率情報の分布を正規化した 後の正規化後分布において "±2乃至 ± 2. 5" となるように、 第 1の付加係数 CE の設定を行うことになる。 理想的には、 復号装置 3は、 受信値 y t に乗算 する値 AMP/CE が "1/び" となるように、 すなわち、 第 1の付加係数 CE を " 2/σ"に設定するのが望ましい。
実際に、 受信値の分布を正規化した後の正規化後分布における受信値の平均値 が "± 2. 5以内" の範囲に含まれる受信値の割合、 すなわち、 クリ ヅプ範囲に 含まれる受信値の割合を求めると、 次表 2に示すようになる。 なお、 次表 2は、 各 Eb/N。における実際の受信値の範囲も併せて示している。
表 2 受信値の割合
Figure imgf000053_0001
. すなわち、 クリ ヅプ範囲に含まれる受信値の割合は、 符号化率が " 1/6" の P C C Cの場合には、 "約 97. 4 %" であり、 符号化率が " 1 / 3 " の P C C Cの場合には、 "約 95. 6%"であり、 符号化率が "3/4" の P.CCCの場 合には、 "約 85. 9 %" であり、 符号化率が " 1/3" の S C C Cの場合には、 "約 9 2. 8 %"である。
■ この結果から、 クリップ範囲を超過する受信値の割合が増加した場合であって も、 EbZN。が大きい場合には、 性能劣化が少ないことがわかる。
このように、 復号装置 3は、 符号化装置 1が、 受信値のビッ ト毎の分布が得ら れる信号点の配置を行う変調方式により変調するものとして構成される場合には、 L S Γに入力される確率情報の分布を正規化した後の正規化後分布における確率 情報の平均値が " ± 2乃至 ± 2. 5" となるように第 1の付加係数 Cnを設定す ることによって、 L S Iに入力される通信路値 AMP X ytjに対する最適なダイ ナミックレンジ及び量子化刻み幅を設定することができ、 高精度の復号を行うこ とができる。
なお、 上述したシミュレーションでは、 BP SK変調方式を施したものとして 説明したが、 QP S K変調方式を施した場合でも、 同様の結果が得られることは 実証済みである。
つぎに、 符号化装置 1が、 上述したように、 例えば 8 P SK変調方式といった 受信値のビット毎の分布が得られない信号点の配置を行う変調方式により変調し て T CMを行うものとして構成される場合における第 1の付加係数 C'Eの最適な 設定方法について説明する。 '
符号化装置 1が T CMを行う場合には、 復号装置 3は、 上述した復号装置 3 ' における I y算出 ·記憶回路 25のように、 対数尤度 Iァを算出して記憶する回 路にて入力した確率情報の内積を算出することによって、 I/Q平面上でのユー クリツド距離を求め、 このユークリッド距離を尤度として用いる。 このとき、 内 積を算出する前段における量子化範囲が信号点範囲よりも小さい場合には、 次の ような不都合を生じる。
すなわち、 符号化を行う側が 8 P SK変調方式による変調を行う場合には、 復 号する側は、 受信値から得られる確率情報を I / Q平面上に.おける. I軸と Q軸'と のそれそれに対してクリヅプして量子化することから、 当該確率情報は、 図 27 中 "〇" に示すように、 2次元的にクリップされることになる。 そのため、 量子 化範囲は、 通常、'信号点範囲よりも小さくなる。 ごこで、 例えば同図中 "△" に 示した信号点を量子化することを考える。 この信号点は、 I/Q平面上における 位相が "0° " の信号点に最も近い位置にあるものである。 このような場合、 こ の信号点は、 同図中 " X" に示すように量子化されることになり、 Ί/Q平面上 における位相が "45° " の信号点に最も近いものとして誤って扱われることに なる。
そこで、 復号装置 3は、 例えば図 28に示すように、 信号点範囲を包含する量 子化範囲とするように、 第 1の付加係数 CEの設定を行う。 特に、 量子化範囲と しては、 符号化装置 1による送信振幅の 2倍程度になるように、 第 1の付加係数 CEを設定するのが望ましく、 この場合、 復号精度が最良となることがシミュレ —シヨンにより実証済みである。
そして、 復号装置 3は、 L S Iに入力した確率情報 AMP/CKx ytjの内積 を対数尤度 Iァを算出して記憶する回路により算出し、 この内積の算出後に、 第 1の付加係数 CEと第 3の付加係数 との積 CEx を乗算する。 例えば、 上述 した復号装置 3, の場合には、 軟出力復号回路 2 3に入力した確率情報 AMP/ CKxytjの内積を Iァ算出 ·記憶回路 2 5により算出し、 この内積の算出後に、 乗算器 3 1により第 1の付加係数 CEと第 3の付加係数 との積 CEx を乗算 することになる
また、 復号装置 3としては、 算出した内積の分布の.偏りを是正するための正規 化を行う場合には、 正規化後に第 1の付加係数 CE と第 3の付加係数 d との積 CEx CI を乗算するのが望ましく、 性能の向上を図ることができる。
これらのことを考慮すると、 対数尤度 Iァを算出して記憶する回路は、 次のよ うに実装することができる。
• 例えば、 復号装置 3, の場合には、 Iァ算出 ·記憶回路 2 5は、 図 2 9に示す ように、 上述した第 1の乗算手段及び第 2の乗算手段である 2つの乗算器 3 1 , 3 2と、 加算手段である 1つの加算器 3 3との他に、 内積を算出する内積算出手 段である内積算出回路 3 6と、 この内積算出回路 3 6により算出された内積の正 規化を行う正規化手段である正規化回路 3 7と、 所定のダイナミックレンジにク リップするクリップ手段であるクリ、ソプ回路 3 8とを有するものとして実装され る。 ': .
すなわち Iァ算出 ·記憶回路 25は、 内積算出回路 36によって、 乗算器 2 1から供給された確率情報 AMPZCEx ytiの内積を算出し、 この結果得られ たメ トリックを正規化回路 3 7に供給する。 続いて、 算出 ·記憶回路 2 5は、 正規化回路 3 7によって、 例えばメ トリックの最小値を · "0" とするような正規 化を行うことにより当該メ トリックの分布の偏りを是正すると、 乗算器 3 1によ つて、 正規化されたメ トリックに対して、 第 1の付加係数 CKと第 3の付加係数 との積 CEx を乗算し、 さらにクリップ回路 3 8によって、 得られた結果 をクリップし、 加算器 3 3に供給する。 これと同時に、 Iァ算出 '記憶回路 2 5· 'は、 乗算器 3 2によって、 乗算器2 2から供給された確率情報1 /〇 八卩 ? に対して、 第 2の付加係数 CAと第 3の付加係数 との積 CAx を乗算し、 得 られた結果を加算器 33に供給する。 そして、 Iァ算出 '記憶回路 25は、 加算 器 3 3によって、 乗算器 3 2及ぴクリヅプ回路 3 8のそれそれから供給された情 報を加算して対数尤度 C! x I ytを算出し、 この対数尤度 dx.Iァ tを図示しな い記憶部に記憶する。
このように、 復号装置 3は、 符号化装置 1が、 受信値のビッ ト毎の分布が得ら れない信号点の配置を行う変調方式により変調して T CMを行うものとして構成 される場合には、 信号点範囲を包含する量子化範囲とするように第 1の付加係数 Ciiを設定し、 L S Iの内部における内積の算出後に第 1の付加係数 CEを乗算す ることによって、 L S Iに入力される通信路値 AMP X に対する最適なダイ ナミックレンジ及び量子化刻み幅を設定することができ、 高精度の復号を行うこ とができる。 .また、. 復号装置 3は、 算出した内積の正規化を行う場合には、 正規 化後に第 1の付加係数 CRを乗算することによって、 より高精度の復号を行うこ とができる。 '
つぎに、 第 2の付加係数 C A及び第 3の付加係数 CTの最適な設定方法について 説明する。
. 復号装置 3は、 L S Iに入力された確率情報 IZC'A'X APPTに対して乗算す. る第 2の付加係数 C Aと第 3の付加係数 との積 CAx C!が "2" 以上の値とな るように、 第 2の付加係数 C A及び第 3の付加係数 の設定を行う。 すなわち、 : 復号装置 3は、 生成する外部情報 l/CAxEXt を表現する量子化刻み幅より も細かい量子化刻み幅で L S Iにおける内部演算を行うように、 第 2の付加係数 CA及び第 3の付加係数 C!を設定する。 例えば、 復号装置 3 ' の場合には、 乗算 器 3 2により確率情報 1 / C A X A P P tに対して乗算する第 2の付加係数 C Aと 第 3の付加係数 C】との積 CAx が "2" 以上の値となるように、 第 2の付加 係数 CA及び第 3の付加係数 の設定を行うことになる。
このようにすることによって、 復号装置 3は、 性能を劣化させることなく、 外 部情報 1 / C A X E X tを表現するビッ ト数を削減することができ、 回路規模の削 減に寄与することができる。 このことは、 復号装置 3が、 LS Iにおける内部演 算を細かい量子化刻み幅で行う場合には、 外部情報 1 / C A X E X tを表現する量 子化刻み幅を粗く しても性能の劣化を招くことがないと換言することもできる。 これについては、 シミュレーションにより実証済みである。
このように、 復号装置 3においては、 第 2の付加係数 C Aと第 3の付加係数 C j との積 CAx が "2" 以上の値となるように第 2の付加係数 C A及び第 3の付 加係数 を設定することによって、 回路規模の削減を図ることができるととも に、 高精度の復号を行うことができる。
勿論、 この設定方法は、 復号装置 3として、 上述した復号装置 3", 3"'や、 T T CM方式又は S C T CM方式による符号の復号を行う復号装置にも適用可能 である。 ' .
さて、 これまでは、 第 1の付加係数 CE、 第 2の付加係数 C A及び第 3の付加係 数 の最適な設定方法について述べてきたが、 これらの付加係数のうち、 第 1 の付加係数 は、 繰り返し復号時における収束の加速係数として用いることも できる。
繰り返し復号時に第 1の付加係数 CEを収束の加速係数として用いる場合には、 繰り返し回数 Mの復号動作のうち、 所定回数の復号動作より.も後段の復号動作、 例えば収束の初期段階において、 第 1の付加係数 CEを "1" 未満の値に設定す る。 . '
具体的に説明するために、 復号装置 3", 3"'の場合について説明する。
復号装置 3" における処理回路 53 n, 5312, · · ·, 53MI, 53'M2 の それそれに入力ざれる第 1の付加係数 CE を、 CE 11, C-E12, --. - - CE' GEMS とする d 復号装置 3" は、 例えば、 処理回路 53 u から任意の 2 X i番 目の処理回路 53 i2.に対して入力される第 1の付加係数 CEU, CEI2, · · ·, CKI 2として、 "CEH =
Figure imgf000057_0001
- · - = CEI 2≥ Γ" を設定するとともに、 処理 回路 53 i2 の次段の処理回路 531+11から最終段の処理回路 53M2 に対して入 力される第 1の付加係数 CKI+11, CE1+12, · · ·, CEM2として、 "CEI+ 11 = C Ei+ 12 = ' · " = C EM2 . 1 を HX疋 ^ 。
一方、 復号装置 3"' の場合には、 第 1の付加係数 CR が入力される処理回路 は、 符号化装置 1"' による内符号の復号を行うものに限られる。 そこで、 復号装 置 3'" は、 処理回路 73 n, 7 321, · · · , 73M-H, 73 M1のそれそれに入 力される第 1の付加係数 CE を、 CEU, CE21, · · · , CEM-H, CEM1とする と、 例えば、 処理回路 53 uから任意の 2 X i— 1番目の処理回路 53 に対し て入力される第 1の付加係数 CEH, CR21 J · · · , CEXI として、 "CR 11 =
Figure imgf000058_0001
CEil≥ 1" を設定するとともに、 処理回路 53 i 2の次段の処理 回路 5 3 から処理回路 5 3 MIに対して入力される第 1の付加係数 CEI + 1 1,
C E i + 21 , · * ' , CliMlとしご、 し Ki+ll =し ϋί+21= · · · =〇ΚΜ1\ 1 を 設定 "5 。
+ すなわち、 復号装置 3は、 繰り返し復号時には、 複数の処理回路のうち、 軟出 カ復号回路に確率情報 AMP/CEx が入力される処理回路であり.、 所定個 数の処理回路よりも後段の処理回路に入力される第 1の付加係数 CEを、 " 1 " 未満の値に設定し、 繰り返し復号の途中において第 1の付加係数 C を変更する ことによって、 第 1の付加係数 CRと第 2の付加係数 CAとの関係を変化させて復 号を行う。
このようにすることによって、 復号装置 3を適用した繰り返し復号においては、 各復号動作により生成される外部情報に対する受信値の影響度を低減させること . ができる。 そのため、 復号装置 3は、 結果として収束を速めることができること から、 繰り返し回数を低減させることができる。
このように、 復号装置 3においては、 第 1の付加係数 CRを L S Iに入力され る通信路値 AMP xytjに対する最適なダイナミツクレンジ及び量子化刻み幅を 設定するために用いるのではなく、 繰り返し復号時における収束の加速係数とし て用いることによって、 処理の高速化を図ることも可能となる。
なお、 T T CM方式による符号を繰り返し復号する場合には、 復号装置 3"の 場合と同様に第 1の付加係数 CEを設定し、 S C T CM方式による符号を繰り返 し復号する場合には、 復号装置 3"'の場合と同様に第 1の付加係数 CRを設定す ることになる。
以上説明したように、 符号化装置 1と復号装置 3とを用いて構成されるデ一夕 送受信システムにおいて、 復号装置 3は、 第 1の付加係数 CK、 第 2の付加係数 C A及び第 3の付加係数 を設定することによって、 受信値 y t iに乗算すベき係 数 AMPに応じて、 固定されたピット数での入力を要する L S Iに入力される通 信路値 AMP X ytj及び事前確率情報 APPtに対する最適なダイナミックレン ジ及び量子化刻み幅を設定することができ、 LS Iの内部演算に必要な最適な量 子化刻み幅を設定することができる。 より具体的には、 復号装置 3は、 符号化装置 1が、 受信値のビット毎の分布が 得られる信号点の配置を行う変調方式により変調するものとして構成される場合 には、 L S Iに入力される確率情報の分布を正規化した後の正規化後分布におけ る確率情報の平均値が " ± 2乃至 ± 2. 5" となるように第 1の付加係数 CRを 設定する ό また、 復号装置 3は、 符号化装置 1が、 受信値のビヅト毎の分布が得 られない信号点の配置を行う変調方式により変調して T CMを行うも,のとして構 成される場合には、 信号点範 Ηを包含する量子化範囲とするように第 1の付加係 数 CE を設定し、 L S Iの内部における内積の算出後に第 1の付加係数 CH を乗 算し、 さらに算出した内積の正規化を行う場合には、 正規化後に第 1の付加係数 CE を乗算する。 このように第 1の付加係数 CE を設定することによって、 復号 装置 3は、 LS Iに入力される通信路値 AMP X y に対する最適なダイナミッ クレンジ及び量子化刻み幅を設定することができ、 高精度の復号を行うことがで きる。 .
また、 復号装置 3は、 第 2の付加係数 C A と第 3の付加係数 d との積 CAx CI が "2" 以上の値となるように第 2の付加係数 CA 及び第 3の付加係数 J を設定する。 このように第 2の付加係数 C A 及び第 3の付加係数 d を設定する ことによって、 .復号装置 3は、 回路規模の削減を図ることができるとともに、 高 精度の復号を行うことができる。 ■
• さらに、.復号装置 3は、 第 1の付加係数 CK を繰り返し復号時における収束の 加速係数として用いることもでき、 処理の高速化を図ることも可能である。 すなわち、 これらの符号化装置 1 と復号装置 3とを用いて構成されるデータ送 受信システムは、 高性能、 高速且つ小さい回路規模での復号を実現するものであ り、 ユーザに高い信頼性及び利便性を提供することができるものである。
なお、 本発明は、 上述した実施の形態に限定されるものではなく、 例えば、 符 号化装置としては、 畳み込み演算を行うものでなくてもよく、 また、 いかなる符 号化率の符号化を行うものであってもよい。
また、 上述した実施の形態では、 P C C Cの復号を行う復号装置 3" における 処理回路 53 η, 53 · · ·, 53ΜΙ, 53Μ2及び S C C Cの復号を行う復 号装置 3'" における処理回路 7 3 U, 73 · · · , 7 3ML 3 7 3 Μ2が、 遅延 器、 軟出力復号回路及びイン夕一リーバ若しくはディン夕一リーバ、 さらには必 要に応じて加算器を L S Iとして集積させて構成されるものとして説明したが、 少なくとも軟出力復号回路が L S Iとして構成されればよい。 すなわち、 本発明 は、 少なくとも軟出力復号回路が L S Iとして構成されていれば、 繰り返し復号 にも適用できるものである。
さちに、 上述した実施の形態では、 復号装置として、 Log- B C J Rアルゴリ ズムに基づく M A P復号を行うものとして説明したが、 本発明は、 Max-Log- B C J Rアルゴリズムに基づく M A P復号を行う復号装置であっても適用可能であ る。
さらにまた、 上述した実施の形態では、 符号化装置及び復号装置をデータ送受 信システムにおける送信装置及び受信装置に適用して説明したが、 本発明は、 例 えばフロ ヅピーディスク、 C D— R O M又は M O (Magneto Optical) といった 磁気、 光又は光磁気ディスク等の記録媒体に対する記録及び/又は再生を行う記 '録及び/又は再生装置に適用することもできる。 この場合、 符号化装置により符 号化されたデータは、 無記憶通信路に等価とされる記録媒体に記録され、 復号装 置により復号されて再生される。
.以上のように、 本発明は、 その趣旨を逸脱しない範囲で適宜変更が可能である ことはいうまでもない。

Claims

請求の範囲
1 . 軟入力とされる受信値に基づいて任意のステートを通過する確率を対数尤度 比の形式で対数表記した対数尤度を求め、 上記対数尤度を用いて復号を行う復号 装置であって、
上記受信値と所定の係数とを乗算して得られる通信路値を、 上記受信値のみに 乗算して当該受信値の振幅を調整するための第 1の付加係数で除算して得られた 第 1の確率情報と、 事前確率情報のみに乗算して当該事前確率情報の振幅を調整 するための第 2の付加係数の逆数を、 上記事前確率情報に対して乗算して得られ た第 2の確率情報とを入力し、 軟出力復号を行う軟出力復号手段を備え、 上記軟出力復号手段は、 上記第 1の付加係数、 上記第 2の付加係数、 及び、 当 該軟出力復号手段の内部における演算時の振幅を調整するための第 3の付加係数 を用.いて、 各時刻における軟出力を対数表記した対数軟出力及び/又は外部情報 を生成すること
を特徴とする復号装置。
2 . 上記軟出力復号手段は、
上記受信値毎に、 符号の出力パターンと上記受信値により決定される第 1の確 率を対数表記した第 1の対数尤度を算出する第 1の確率算出手段と、
上記第 1の対数尤度に基づいて、 上記受信値毎に、 符号化開始スデートから時 系列順に各ステートに至る第 2の確率を対数表記した第 2の対数'尤度を算出する 第 2の確率算出手段と、 '
上記第 1の対数尤度に基づいて、 上記受信値毎に、 打ち切りスデートから時系 列の逆順に各ステートに至る第 3の確率を対数表記した第 3の対数尤度を算出す る第 3の確率算出手段と、
上記第 1の対数尤度と、 上記第 2の対数尤度と、 上記第 3の対数尤度とを用い て、 上記対数軟出力を算出する軟出力算出手段とを有すること
を特徴とする請求の範囲第 1項記載の復号装置。
3 . 上記軟出力復号手段は、 上記軟出力算出手段から供給された上記対数軟出力 と、 上記事前確率情報とを用いて、 上記外部情報を算出する外部情報算出手段を 有すること
を特徴とする請求の範囲第 2項記載の復号装置。
4 . 上記第 1の確率算出手段は、 上記第 1の確率情報及び上記第 2の確率情報と、 '上記第 1の付加係数、 上記第 2の付加係数及び上記第 3の付加係数'とを用いて、 上記第 1の対数尤度の振幅を調整すること
を特徴とする請求の範囲第 2項記載の復号装置。
5 . 上記第 1の確率算出手段は、
上記第 1の確率情報に対して、 上記第 1の付加係数と上記第 3の付加係数との 積を乗算する第 1の乗算手段と、
上記第 2 'の確率情報に対して、 上記第 2の付加係数と土記第 3め付加係数との 積を乗算する第 2の乗算手段と、 . ·
上記第 1の乗算手段及び上記第 2の乗算手段のそれそれから供給された情報を 加算する加算手段とを有し、 - 上記第 1の対数尤度と上記第 3の付加係数との積を出力すること
を特徴とする請求の範囲第 4項記載の復号装置。
6 . 上記第 2の確率算出手段は、 振幅が調整された第 1.の対数尤度に基づいて、 上記第 2の対数尤度と上記第 3の付加係数との積を出力すること
を特徴とする請求の範囲第 4項記載の復号装置。
7 . 上記第 3の確率算出手段は、 振幅が調整された第 1の対数尤度に基づいて、 . 上記第 3の対数尤度と上記第 3の付加係数との積を出力すること '
を特徴とする請求の範囲第 4項記載の復号装置。 '
8 . 上記軟出力算出手段は、 上記対数軟出力と上記第 3の付加係数との積を出力 すること
を特徴とする請求の範囲第 4項記載の復号装置。
9 . 上記外部情報算出手段は、 上記対数軟出力と、 上記第 2の確率情報と、 上記 第 2の付加係数及び上記第 3の付加係数とを用いて、 上記外部情報の振幅を調整 すること
を特徴とする請求の範囲第 3項記載の復号装置。
1 0 . 上記外部情報算出手段は、
上記対数軟出力と上記第 3の付加係数との積に対して、 上記第 2の付加係数と 上記第 3の付加係数との積の逆数を乗算する第 3の乗算手段と、
上記第 3の乗算手段からの情報と上記第 2の確率情報との差分値を算出する差 分手段とを有し、
上記外部情報と上記第 2の付加係数の逆数との積を出力すること
を特徴とする請求の範囲第 9項記載の復号装置。
1 1 . 上記第 1の付加係数、 上記第 2の付加係数及び上記第 3の付加係数は、 そ れそれ、 2のべき乗で表現される値であること
を特徴とする請求の範囲第 1項記載の復号装置。
1 2 . 上記第 3の付加係数は、 一定値であること
を特徴とする請求の範囲第 1項記載の復号装置。
1 3 . 上記第 3の付加係数は、 1以上の値であること
を特徴とする請求の範囲第 1項記載の復号装置。 '
1 4 . 符号化機器が、 上記受信値のビット毎の分布が得ちれる信号点の配置を行 う変調方式による変調を行うものである場合には、 上記第 1の確率情報の分布を 正規化した後の正規化後分布における平均値が ± 2乃至土 2 . 5となる.ように、 上記第 1の付加係数を設定すること
を特徴とする請求の範囲第 1項記載の復号装置。
■ 1 5 . 上記第 1の付加係数は、 上記受信値の分布における分散 2を用.いて、 2 /びで表される値であること
を特徴とする請求の範囲第 1 4項記載の復号装置。
1 6 . 符号化機器が、 上記受信値のビット毎の分布が得られない信号点の配置を 行う変調方式による変調を行うものである場合には、 信号点範囲を包含する量子 化範囲とするように、 上記第 1の付加係数を設定すること
を特徴とする請求の範囲第 1項記載の復号装置。
1 7 . 上記第 1の付加係数は、 上記量子化範囲が上記符号化機器による送信振幅 の 2倍になるように設定されること
を特徴とする請求の範囲第 1 6項記載の復号装置。
1 8 . 上記軟出力復号手段は、
上記第 1の確率情報の内積を算出する内積算出手段と、
上記内積算出手段による内積の算出の結果得られたメ トリックに対して、 上記 第 1の付加係数と上記第 3の付加係数との積を乗算する第 1の乗算手段とを有す ること
を特徴とする請求の範囲第 1 6項記載の復号装置。 · ·
1 9 . 上記軟出力復号手段は、
上記内積算出手段により算出された内積の分布の偏りを是正するための正規化 を行う正規化手段を有し、
上記第 1の乗算手段は、 上記正規化手段により正規化されて得られたメ トリ、ソ クに対して、 上記第 1の付加係数と上記第 3の付加係数との積を乗算すること を特徴とする請求の範囲第 1 8項記載の復号装置。 '
2 0 . 上記軟出力復号手段は、 上記第 1の乗算手段から供給された情報を所定の ダイナミックレンジにクリップするクリップ手段を有すること "' を特徴とする請求の範囲第 1 8項記載の復号装置。
2 1 ·. 上記軟出力復号手段は、
. 上記第 2の確率情報に対して、 上記第 2の付加係数と上記第 3の付加'係数との 積を乗算する第 2の乗算手段と、 ' 上記第 1の乗算手段及び上記第 2の乗算手段のそれそれから供給.された情.報を 加算する加算手段とを有し、
符号の出力パターンと上記受信値により決定される第 Ίの確率を対数表記した 第 1の対数尤度と上記第 3の付加係数との積を出力すること
を特徴とする請求の範囲第 1 8項記載の復号装置。 .
2 2 . 上記第 2の付加係数と上記第 3の付加係数との積が 2以上の値となるよう に、 上記第 2の付加係数及び上記第 3の付加係数 を設定すること
を特徴とする請求の範囲第 1項記載の復号装置。
2 3 . 上記軟出力復号手段は、 上記外部情報を表現する量子化刻み幅よりも細か い量子化刻み幅で内部演算を行うこと
を特徴とする請求の範囲第 2 2項記載の復号装置。
2 4 . 半導体基板に集積させて構成されていること
を特徴とする請求の範囲第 1項記載の復号装置。
2 5 . 畳み込み符号の復号を行うこと
を特徴とする請求の範囲第 1項記載の復号装匿。
2 6 . M a x— L o g— B C J Rァルゴリズム又は L o g - B C. J Rァルゴリズ ムに基づく最大事後確率復号を行うこと · . を特徴とする請求の範囲第 1項記載の復号装置。
2 7 . 軟入力とされる受信値に基づいて任意のステートを通過する確率を対数尤 度比の形式で対数表記した対数尤度を求め、 上記対数尤度を用いて復号を行う復 号方法であって、
上記受信値と所定の係数とを乗算して得られる通信路値を、 上記受信値のみに' 乗算して当該受信値の振幅を調整するための第 1の付加係数で除算して得られた 第 Γの確率情報と、 事前確率情報のみに乗算して当該事前確率情報の振幅を調整 するための第 2の付加係数の逆数を、 上記事前確率情報に対して乗算.して得られ た第 2の確率情報とを入力し、 上記第 1の付加係数、 上記第 2の付加係数、 及び、 内部における演算時の振幅を調整するための第 3の付加係数を用いて、 各時刻に おける軟出力を対数表記した対数軟出力及び/又は外部情報を生成する軟出力復 号工程を備えること
を特徴とする復号方法。 ·. ·
2 8 . 軟入力とされる受信値に基づいて任意のステートを通過する確率を対数尤 度比の形式で対数表記した対数尤度を求め、 上記対数尤度を用いて、 複数の要素 符号を連接して生成された符号を繰り返し復号する復号装置であって、
上記受信値と所定の係数とを乗算して得られる通信路値を、 上記受信値のみに 乗算して当該受信値の振幅を調整するための第 1の付加係数で除算して得られた 第 1の確率情報と、 事前確率情報のみに乗算して当該事前確率情報の振幅を調整 するための第 2の付加係数の逆数を、 上記事前確率情報に対して乗算して得られ た第 2の確率情報とを入力し、 軟出力復号を行う軟出力復号手段を複数連接して 備え、
上記軟出力復号手段は、 上記第 1の付加係数、 上記第 2の付加係数、 及び、 当 該軟出力復号手段の内部における演算時の振幅を調整するための第 3の付加係数 を用いて、 各時刻における軟出力を対数表記した対数軟出力及び/又は外部情報 を生成し、 生成した上記外部情報を次段の軟出力復号手段における事前確率情報 として出力すること
を特徴とする復号装置。
2 9 . 上記軟出力復号手段は、 上記要素符号の数と上記繰り返し復号の繰り返し 回数との積で表される数だけ備えられること
を特徴とする請求の範囲第 2 8項記載の復号装置。
3 0 · 上記軟出力復号手段は、
上記受信値毎に、 符号の出力パターンと上記受信値により決定される第 1の確 率を対数表記した第 1の対数尤度を算出する第 1の確率算出手段と、
上記第 1の対数尤度に基づいて、 上記受信値毎に、 符号化開始ステートから時 系列順に各ステートに至る第 2の確率を対数表記した第 2の対数尤度を算出する 第 2の確率算出手段と、 ·—— ·
上記第 1の対数尤度に基づいて、 上記受信値毎に、 打ち切りステー卜から時系 列の逆順に各ステートに至る第 3の確率を対数表記した第 3の対数尤度を算出す る第 3の確率算出手段と、 · . ' · .
上記第 1.の対数尤度と、 上記第 2の対数尤度と、 上記第 3の対数尤度とを用い て、 上記対数軟出力を算出する軟出力算出手段とを有す.ること ' - ' を特徴,とする請求の範囲第 2 8項記載の復号装置。 . + 3 1 . 上記軟出力復号.手段は、 上記軟出力算出手段から供給された上記対数軟出 力と、 上記事前確率情報とを用いて、 上記外部情報を算出する外部情報算出手段 を有すること
を特徴とする請求の範囲第 3 0項記載の復号装置。
3 2 , 上記第 1の確率算出手段は、 上記第 1の確率情報及び/又は上記第 2の確 率情報と、 上記第 1の付加係数、 上記第 2の付加係数及び上記第 3の付加係数と を用いて、 上記第 1の対数尤度の振幅を調整すること
を特徴とする請求の範囲第 3 0項記載の復号装置。
3 3 . 上記第 1の確率算出手段は、 上記第 1の確率情報に対して、 上記第 1の付加係数と上記第 3の付加係数との 積を乗算する第 1の乗算手段と、
上記第 2の確率情報に対して、 上記第 2の付加係数と上記第 3の付加係数との 積を乗算する第 2の乗算手段と、
上記第 1の乗算手段及び上記第 2の乗算手段のそれそれから供給された情報を 加算する加算手段とを有し、
上記第 1の対数尤度と上記第 3の付加係数との積を出力すること
を特徴とする請求の範囲第 3 2項記載の復号装置。
3 4 . 上記第 2の確率算出手段は、 振幅が調整された第 1の対数尤度に基づいて、 上記第 2の対数尤度と上記第 3の付加係数との積を出力すること
を特徴とする請求の範囲第 3 2項記載の復号装置。
3 5 , 上記第 3の確率算出手段は、 振幅が調整された第 1の対数尤度.に基づいて、 上記第 3の対数尤度と上記第 3の付加係数との積を出力すること
を特徴とする請求の範囲第 3 2項記載の復号装置。.. ' ' -
3 6 ,. 上記軟出力算出手段は、 上記対数軟出力と上記第 3の付加係数との積を出 力すること ' を特徴とする請求の範囲第 3 2項記載の復号装置。 '
3 7 . 上記外部情報算出手段は、 上記対数軟出力と、 上記第 2の確率情報と、 上 記第 2の付加係数及び上記第 3の付加係数とを用いて、 上記外部情報の振幅を調 整すること
を特徴とする請求の範囲第 3 1項記載の復号装置。 ' —— - 3 8 . 上記外部情報算出手段は、
上記対数軟出力と上記第 3の付加係数との積に対して、 上記第 2の付加係数と 上記第 3の付加係数との積の逆数を乗算する第 3の乗算手段と、
上記第 3の乗算手段からの情報と上記第 2の確率情報との差分値を算出する差 分手段とを有し、
上記外部情報と上記第 2の付加係数の逆数との積を出力すること
を特徴とする請求の範囲第 3 7項記載の復号装置。
3 9 . 上記第 1の付加係数、 上記第 2の付加係数及び上記第 3の付加係数は、 そ れそれ、 2のべき乗で表現される値であること
を特徴とする請求の範囲第 2 8項記載の復号装置。
4 0 . 上記第 3の付加係数は、 一定値であること
を特徴とする請求の範囲第 2 8項記載の復号装置。
4 1 . 上記第 3の付加係数は、 1以上の値であること
を特徴とする請求の範囲第 2 8項記載の復号装置。 - 4 2 . 符号化機器が、 上記受信値のビット毎の分布が得られる信号点の配置を行 う変調方式による変調を行うものである場合には、 上記第 1の確率情報の分布を 正規化した後の正規化後分布における平均値が ± 2乃至土 2 . 5となるように、 上記第 1の付加係数を設定すること
を特徴とする請求の範囲第 2 8項記載の復号装置。 ·
4 3 . 上記第 1の付加係数は、 上記受信値の分布における.分散び2を用いて、 2 /びで表される値であること
を特徴とする請求の範囲第 4 2項記載の復号装置。 · 4 4 . 符号化機器が、 上記受信値のビット毎の分布が得られない信号点の配置を 行う変調方式による変調を行うものである場合には、 信号点範囲を包含する量子 化範囲とするように、 上記第 1の付加係数を設定すること ' .
を特徴とする請求の範囲第 2 8項記載の復号装置。
•4 5 . 上記第 1の付加係数は、 上記量子化範囲が上記符号化機器による送信振幅 の 2倍になるように設定されること . ' . . を特徴とする請求の範囲第 4 4項記載の復号装置。.
4 6 . 上記軟出力復号手段は、
上記第 1の確率情報の内積を算出する内積算出手段と、
上記内積算出手段による内積の算出の結果得られたメ ドリックに対して、 上記 第 1 .の付加係数と上記第 3の付加係数との積を乗算する第 1の乗算手段とを有す ること
を特徴とする請求の範囲第 4 4項記載の復号装置。
4 7 . 上記軟出力復号手段は、
上記内積算出手段により算出された内積の分布の偏りを是正するための正規化 を行う正規化手段を有し、
上記第 1の乗算手段は、 上記正規化手段により正規化されて得られたメ トリツ クに対して、 上記第 1の付加係数と上記第 3の付加係数との積を乗算すること を特徴とする請求の範囲第 4 6項記載の復号装置。
4 8 . 上記軟出力復号手段は、 上記第 1の乗算手段から供給ざれた情報を所定の ダイナミックレンジにクリヅプするクリヅプ手段を有すること
を特徴とする請求の範囲第 4 6項記載の復号装置。
4 9 . 上記軟出力復号手段は、
上記第 2の確率情報に対して、 上記第 2の付加係数と上記第 3'の付加係数との 積を乗算する第 2の乗算手段と、
上記第 1の乗算手段及び上記第 2の乗算手段のそれそれから供給ざれた情報を 加算する加算手段とを有し、
符号の出力パターンと上記受信値により決定される第 1の確率を対数表記した 第 1の対数尤度と上記第 3の付加係数との積を出力すること'. ·· ' を特徴とする請求の範囲第 4 6項記載の復号装置。 . .
5 0 . 上記第 2の付加係数と上記第 3の付加係数との積が 2 ·以上の値となるよう に、:上記第 2の付加係数及び上記第 3の付加係数 C ίを設定すること
を特徴とする請求の範囲第 2 8項記載の復号装置。
5 1 . 上記軟出力'復号手段は、 上記外部情報を表現する量子化刻み幅よりも細か い量子化刻み幅で内部演算を行うこと ·
を特徴とする請求の範囲第 5 0項記載の復号装置。 .
5 2 . 上記複数の軟出力復号手段のうち、 上記第 1の確率情報が入力される軟出 カ復号手段であり、 所定個数の軟出力復号手段よりも後段の軟出力復号手段に入 力される上記第 1の付加係数を、 1未満の値に設定すること
-を特徴とする請求の範囲第 2 8項記載の復号装置。 · .
5 3 . 上記軟出力復号手段により生成された外部情報にインタ一リ一ブを施すィ ン夕ーリーブ手段又は上記軟出力復号手段により生成された外部情報にディンタ 一リーブを施すディンターリーブ手段と、
上記第 1の確率情報を、 上記軟出力復号手段、 及び、 インタ一リーブ手段若し くはディン夕ーリ一ブ手段が要する処理時間と同時間遅延させる遅延手段とを備 えること
を特徴とする請求の範囲第 2 8項記載の復号装置。
5 4 . 上記軟出力復号手段は、 半導体基板に集積させて構成されていること を特徴とする請求の範囲第 2 8項記載の復号装置。 ' ' ·
5 5 . 並列連接符号化、 縦列連接符号化、 並列連接符号化変調又は縦列連接符号 化変調がなされた符号を繰り返し復号すること
を特徴とする請求の範囲第 2 8項記載の復号装置。
5 6 . 上記要素符号は、 畳み込み符号であること
を特徴とする請求の範囲第 5 5項記載の復号装置。
5 7 . M a x— L o g— B C J Rァルゴリズム又は L o g - B C J Rァルゴリズ ムに基づく最大事後確率復号を行うこと . ,
を特徴とする請求の範囲第 2 8項記載の復号装置。 '
5 8 . 軟入力とされる受信値に基づいて任意のステートを通過する'確率を対数 ¾ 度比の形式で対数表記した対数尤度を求め、 上記対数尤度を用いて、 複数の要素 符号を連接して生成された符号を繰り返し復号する復号:方法であって、
上記受信値と所定の係数とを乗算して得られる通信路値を、 上記受信値のみに 乗算して当該受信値の振幅を調整するための第 1の付加係数で除算して得られた 第 1の確率情報と、 事前確率情報のみに乗算して当該事前確率情報の振幅:を調整 するための第 2の付加係数の逆数を、 上記事前確率情報に対して乗算して得られ た第 2の確率情報とを入力し、 上記第 1の付加係数、 上記第 2の付加係数、 及び、 内部における演算時の振幅を調整するための第 3の付加係数を用いて、 各時刻に おける軟出力を対数表記した対数軟出力及び/又は外部情報を生成する軟出力復 号工程を複数回連続して行い、
上記軟出力復号工程では、 生成された上記外部情報が次回の軟出カ復号工程に おける事前確率情報として出力されること
を特徴とする復号方法。
PCT/JP2001/007125 2000-08-18 2001-08-20 Décodeur et procédé de décodage WO2002017499A1 (fr)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP01956975A EP1311070A4 (en) 2000-08-18 2001-08-20 DECODER AND DECODING METHOD
US10/110,670 US7051270B2 (en) 2000-08-18 2001-08-20 Decoder an decoding method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2000-248673 2000-08-18
JP2000248673A JP2002064385A (ja) 2000-08-18 2000-08-18 復号装置及び復号方法

Publications (1)

Publication Number Publication Date
WO2002017499A1 true WO2002017499A1 (fr) 2002-02-28

Family

ID=18738536

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2001/007125 WO2002017499A1 (fr) 2000-08-18 2001-08-20 Décodeur et procédé de décodage

Country Status (4)

Country Link
US (1) US7051270B2 (ja)
EP (1) EP1311070A4 (ja)
JP (1) JP2002064385A (ja)
WO (1) WO2002017499A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1728331A1 (en) * 2004-03-22 2006-12-06 Matsushita Electric Industrial Co., Ltd. Local erasure map decoder
US7395461B2 (en) * 2005-05-18 2008-07-01 Seagate Technology Llc Low complexity pseudo-random interleaver
US7360147B2 (en) * 2005-05-18 2008-04-15 Seagate Technology Llc Second stage SOVA detector
US7502982B2 (en) * 2005-05-18 2009-03-10 Seagate Technology Llc Iterative detector with ECC in channel domain
US7365658B2 (en) * 2006-02-28 2008-04-29 The Board Of Trustees Of The University Of Arkansas Method and apparatus for lossless run-length data encoding
US20080122583A1 (en) * 2006-11-27 2008-05-29 Benjamin Bekritsky System and method for RFID tag communication
KR101398200B1 (ko) * 2008-03-18 2014-05-26 삼성전자주식회사 메모리 장치 및 인코딩/디코딩 방법
WO2010049796A2 (en) * 2008-10-28 2010-05-06 Amimon Ltd. A device, method and system of wireless communication over an extremely radio-frequency band
US8826108B1 (en) * 2010-11-03 2014-09-02 Marvell International Ltd. Pre-scaling soft-decoder inputs
US9195675B2 (en) * 2011-02-24 2015-11-24 A9.Com, Inc. Decoding of variable-length data with group formats
RU2013125784A (ru) * 2013-06-04 2014-12-10 ЭлЭсАй Корпорейшн Устройство для обработки сигналов, переносящих кодированные с модуляцией биты четности
WO2017118987A1 (en) * 2016-01-06 2017-07-13 B. G. Negev Technologies And Applications Ltd., At Ben-Gurion University A low resolution adc-dsp optimization based on non-uniform quantization and mlse for data centers interconnects

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001007711A (ja) * 1999-06-23 2001-01-12 Fujitsu Ltd ターボ復号器

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2273608C (en) * 1998-06-01 2007-08-07 Stewart N. Crozier Reduced-complexity max-log app decoders and related turbo decoders

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001007711A (ja) * 1999-06-23 2001-01-12 Fujitsu Ltd ターボ復号器

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
See also references of EP1311070A4 *
TETSUYA YANO ET AL.: "Sub-log-MAP wo tekiyou shita turbo fugou no nan-hantei bit no kentou", DENSHI JOHO TSUUSHIN GAKKAI GIJUTSU KENKYUU HOUKOKU, vol. 99, no. 142, 25 June 1999 (1999-06-25), pages 7 - 12, XP002948552 *

Also Published As

Publication number Publication date
US20030088823A1 (en) 2003-05-08
US7051270B2 (en) 2006-05-23
EP1311070A1 (en) 2003-05-14
EP1311070A4 (en) 2007-02-07
JP2002064385A (ja) 2002-02-28

Similar Documents

Publication Publication Date Title
JP4557430B2 (ja) ディジタル放送システム及び方法
EP1383246B1 (en) Modified Max-LOG-MAP Decoder for Turbo Decoding
JP3857320B2 (ja) 並列連結のテイルバイティング・コンボルーション・コード及びその復号器
US7200799B2 (en) Area efficient parallel turbo decoding
Kliewer et al. Iterative joint source-channel decoding of variable-length codes using residual source redundancy
Adrat et al. Iterative source-channel decoding: Improved system design using EXIT charts
US7783963B2 (en) Decoding a concatenated convolutional-encoded and block encoded signal
JP3666430B2 (ja) 情報送信装置及び情報送信方法、並びに情報受信装置及び情報受信方法
WO2001082488A1 (en) Turbo decoder with decision feedback equalization
EP1264456A2 (en) Method and apparatus for combined soft-decision based interference cancellation and decoding
EP0937336A1 (en) Soft decision output decoder for decoding convolutionally encoded codewords
US6816556B2 (en) Bandwidth-efficient concatenated trellis-coded modulation decoder and decoding method thereof
JP2000041078A (ja) 反復デマッピング
GB2395097A (en) A decoder apparatus and method of decoding therefor
WO2002017499A1 (fr) Décodeur et procédé de décodage
JP3979105B2 (ja) 多元接続システム
JP2003533121A (ja) スケーリングフィードバックターボ復号器
US20040017857A1 (en) Transmitter, receiver, methods, program and signal adapted to modulations having a large number of states
US6757859B1 (en) Parallel turbo trellis-coded modulation
JP2002016503A (ja) ターボ復号方法及び受信機
EP1692770A1 (en) Linear approximation of the max* operation for log-map decoding
Zhang et al. Learning-aided unary error correction codes for non-stationary and unknown sources
Lahouti et al. Efficient source decoding over memoryless noisy channels using higher order Markov models
Adrat et al. Iterative source-channel decoding & turbo decodulation
Papaharalabos et al. Modified log-MAP algorithm for simplified decoding of turbo and turbo TCM codes

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE TR

WWE Wipo information: entry into national phase

Ref document number: 2001956975

Country of ref document: EP

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 10110670

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 2001956975

Country of ref document: EP