WO2001022598A1 - Soft decision data creating method and device - Google Patents

Soft decision data creating method and device Download PDF

Info

Publication number
WO2001022598A1
WO2001022598A1 PCT/JP1999/005053 JP9905053W WO0122598A1 WO 2001022598 A1 WO2001022598 A1 WO 2001022598A1 JP 9905053 W JP9905053 W JP 9905053W WO 0122598 A1 WO0122598 A1 WO 0122598A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
level
soft decision
soft
decision data
Prior art date
Application number
PCT/JP1999/005053
Other languages
French (fr)
Japanese (ja)
Inventor
Natsuhiko Nakayauchi
Original Assignee
Fujitsu Limited
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Limited filed Critical Fujitsu Limited
Priority to PCT/JP1999/005053 priority Critical patent/WO2001022598A1/en
Publication of WO2001022598A1 publication Critical patent/WO2001022598A1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L1/00Arrangements for detecting or preventing errors in the information received
    • H04L1/004Arrangements for detecting or preventing errors in the information received by using forward error control
    • H04L1/0045Arrangements at the receiver end
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/37Decoding methods or techniques, not specific to the particular type of coding provided for in groups H03M13/03 - H03M13/35
    • H03M13/45Soft decoding, i.e. using symbol reliability information
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M13/00Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
    • H03M13/65Purpose and implementation aspects
    • H03M13/6577Representation or format of variables, register sizes or word-lengths and quantization

Definitions

  • the present invention relates to a method and an apparatus for generating soft decision data, and more particularly to a soft decision input data which is weighted by level and output as soft decision data with a small number of bits of the input data.
  • the present invention relates to a method and apparatus for generating judgment data.
  • the erroneous correction code is used to correct erroneous information contained in received information, reproduction information, and the like so that the original information can be correctly decoded, and is applied to various systems. For example, when transmitting data without error in mobile communications and other data communications
  • error correcting codes include convolutional codes and turbo codes.
  • Figure 9 shows an example of a convolutional encoder. It has a 2-bit shift register SFR and two exclusive OR circuits EX0R1 and EX0R2, where EX0R1 is the exclusive OR g of the input and R. Outputs, EX0R2 outputs an exclusive OR gi between the input and the R 0. Therefore, the input / output relationship of the convolutional encoder and the state of the shift register SFR when the input data is 01001 are as shown in FIG.
  • the contents of the shift register SFR of the convolutional encoder are defined as state. As shown in Fig. 11, four states of 00, 01, 10, and 11 are peri, where each is state a and state b. , State c, and state d. In the convolutional encoder shown in FIG. 9, it is determined whether the state of the shift register SFR is a to d and whether the next input data is "0" or "1". , And the output (g 0 , and the next state are uniquely determined.
  • Figure 12 shows the relationship between the state of the convolutional encoder and the input and output. The dotted line indicates the “0” input, and the solid line indicates the “1” input. That is,
  • the convolutional code of the convolutional encoder of FIG. 9 is represented in a lattice-like form (trellis diagram) as shown in FIG. 13 (A).
  • k means the input time of the k-th bit
  • the dotted line “0" input and the solid line “gamma indicates the input, two numbers on the line indicates the output (g 0, gl). Therefore, in the initial state a (00),” the input is 0 " Then, the output becomes 00 and the state becomes a, and when "1" is input, the output becomes 11 and the state becomes c.
  • the received data is determined first. There are two types of this decision, a hard decision and a soft decision.
  • the soft decision compensates for the disadvantages of the hard decision.As shown as an example at the left end of Fig. 14, the detection output is quantized at, for example, eight levels, and the certainty is weighted according to each level. The decision result is output to the decoder.
  • the Viterbi decoding method for decoding convolutional codes can output hard-decision input hard-decision output and soft-decision input hard-decision output.
  • the hard decision input and the hard decision output assuming that the hard decision received data (go, gi) is 11 ⁇ 10 ⁇ 10 ⁇ 11 ⁇ 11 and is in an ideal state without errors, Fig. 15 ( The path indicated by the two-dot chain line with the arrow in A) is obtained, and by setting the dotted line to "0" and the solid line to "1", the decoding result of 11001 can be obtained as shown in Fig. 17 (B). .
  • received data often contains errors. This opens the interface shown in FIG.
  • the decoding result 11001 having the minimum number of errors ERR is selected and output. In this way, the original data 11001 can be correctly restored even if there is an error in the received data.
  • FIG. 16 is an explanatory diagram of decoding in the case of soft-decision reception data.
  • the soft-decision reception data (g 0 , gi) power 1,1 ⁇ 1,0 ⁇ 1,0 ⁇ 2 Suppose that / 8,1 ⁇ 1,1.
  • ERR error count
  • the decoding result 11001 having the minimum number of errors ERR is selected and output. In this way, the original data 11001 can be correctly restored even if there is an error in the received data.
  • the soft decision has the same principle as the hard decision except that the number of errors ERR is no longer an integer, but improves the ability to determine the number of errors with high accuracy and improves the error correction capability.
  • each of the states a, b, c, d at the time of inputting the k-th data by using the data up to the k-th (k 1, 2,...) Of the coded data having the information length N Then, a path having a small number of errors is selected from the two paths leading to the state, and a path having a large number of errors is discarded. Thereafter, the state is similarly reached for each state at the time of the final N-th data input. The path with the least error is selected from the two paths, and decoding is performed using the path with the least error among the paths selected in each state.
  • the level of received data always fluctuates due to the communication environment, noise, etc.
  • weighting of demodulated data is performed based on the level to obtain soft decision data, and the soft decision data is input to an error correction decoder.
  • a configuration for performing decoding is adopted. In this case, the number of bits of the soft-decision data A obtained by weighting the demodulated data is larger than the number of bits of the soft-decision data B handled by the error correction decoder. That is, the weighted soft decision data A also finely represents the soft decision data input to the error correction decoder. Therefore, as shown in Fig.
  • an ALC (Automatic Level Contor 1) circuit 3 is provided between the demodulator 1 and the soft decision decoder (erroneous correction decoder) 2, and the bit of the soft decision data A is The number is reduced and converted into soft-decision data B having the number of bits that can be handled by soft-decision decoder 2.
  • soft decision data B is generated by reducing the number of bits as faithfully as It needs to be passed to the decoder 2, which is conventionally done as follows.
  • the soft decision data A (consisting of a sign bit and an amplitude bit) weighted by the separator 3a is separated into a sign bit and an amplitude bit, and the sign bit is stored in the sign bit memory 3b.
  • the amplitude bit is stored in the data holding memory as 3c and input to the maximum value detector 3d.
  • the maximum value detector 3d detects a maximum value for each error correction code length unit, and notifies the bit selector 3e of the maximum value.
  • the bit selector 3e retrieves the specific amplitude bit so as to make use of the maximum value notified in the data storage stored in the data holding memory 3c, and extracts the sign bit memory. 3 Retrieve and add the corresponding sign bit to b, and output it as soft decision data B.
  • da t a ⁇ 15..0 ⁇ xaaa aaaa aaaa aaaa x: Sign hit, a: 0orl (1) is input to ALC circuit 3. Also, the number n of data that constitutes one error correction code length is 300, and the maximum level of the amplitude represented by 15 bits is a binary number.
  • the ALC circuit 3 outputs the soft decision data as nan [4..0] to output the weighted data A and the 5-bit (one sign bit + 4 amplitude bits) soft decision data B. , Nan [4] data [15], nan [3..0] ⁇ da ta [13..10] (3)
  • the bit selection range is switched based on the maximum value obtained for each error correction code length.
  • the switching timing of the bit selection range in the conventional method has an advantage that control can be easily performed by switching at a low speed in units of one error correction code length.
  • the bit selection range is determined only by the maximum value.
  • the ALC circuit 3 cannot convert the weighted soft-decision data A into appropriate soft-decision data B, and the gain in subsequent error correction decoding is significantly reduced, and the original data cannot be decoded correctly.
  • the bit selection range according to the conventional method (4 bits from the first “1” at the maximum level) Is not appropriate, the upper 2 or 3 bits of the 4 bits of soft decision data B become 0, and only "1" appears in the lower 1 or 2 bits, and the amplitude bits are used effectively. And the gain in error-correction decoding decreases significantly.
  • the number of soft decision bits must be increased in order to generate optimal soft decision data.
  • such a method has a problem that the hardware scale of the erroneous correction decoder is significantly increased.
  • Another object of the present invention is to reduce the re-memory and shorten the overall processing time by mixing the soft decision data generation processing with the dinterleaving processing.
  • the soft decision data generator of the present invention converts input data weighted by level into soft decision data having a smaller number of bits than the input data and outputs the soft decision data. That is, the average value calculation unit calculates the level average value of the input data for each error correction code length, and the soft decision data determination unit determines that the soft decision data corresponding to the input data having the level average value is all " It is located at the center of all soft decision data from "0" to all "1", and the input data on both sides of the average value are converted to predetermined soft decision data corresponding to the level and output.
  • the variance calculating means calculates the variance of the input data level from the level average value
  • the soft decision data determination unit converts the variance of the input data level to the soft decision data of 0 (zero) based on the calculated variance.
  • the third level range sandwiched between is equally assigned to all soft decision data except for all "0" and all "1".
  • the soft-decision data determining unit converts the input data into soft-decision data corresponding to the level range including the level and outputs the soft-decision data.
  • the variance calculation means calculates the variance of the input data level from the level average value, and the soft decision data decision unit determines the two central variances based on the calculated variance.
  • the level range of the soft-decision data, the level range of the two soft-decision data on both sides, and so on, are set in the same way, and the input data is set according to the level range where the level is located. Output as soft decision data. In this case, each level range is made wider as it goes away from the average value.
  • the soft decision data corresponding to the input level is generated with the level average as the center, the amplitude bits can be used effectively, the gain in error correction decoding can be improved, and the original Can decrypt data.
  • the storage unit stores the input data
  • the soft decision data determination unit reads out the input data one by one from the storage unit after calculating the average value and the variance value, and softly reads the input data. Convert to judgment data and output.
  • the process of generating soft decision data is mixed with the deinterleaving process to reduce re-memory and shorten the overall processing time.
  • FIG. 1 is a schematic configuration diagram of a wireless device including a soft decision data generation unit (ALC circuit) of the present invention.
  • ALC circuit soft decision data generation unit
  • FIG. 2 is an explanatory diagram of the principle of generating soft decision data according to the first embodiment.
  • FIG. 3 is a flowchart for generating soft decision data according to the first embodiment.
  • FIG. 4 is an explanatory diagram of the principle of generating soft decision data according to the second embodiment.
  • FIG. 5 is a flowchart for generating soft decision data according to the second embodiment.
  • FIG. 6 is a configuration diagram of the soft decision data generator (ALC circuit) of the present invention.
  • FIG. 7 shows a modification of the soft decision data generator (ALC circuit) of FIG.
  • FIG. 8 is another configuration diagram of the soft decision data generator (ALC circuit) of the present invention.
  • FIG. 9 is an example of a convolutional encoder.
  • FIG. 10 is a diagram for explaining the input / output relationship of the convolutional encoder and the state of the shift register SFR.
  • FIG. 11 is an explanatory diagram of the state of the convolutional encoder.
  • FIG. 12 is a diagram showing the relationship between the state of the convolutional encoder and the input / output.
  • FIG. 13 is a diagram showing the convolutional codes of the convolutional encoder in a lattice form.
  • FIG. 14 is an explanatory diagram of hard decision and soft decision.
  • FIG. 15 is an explanatory diagram of a decoding method for hard decision input and hard decision output.
  • FIG. 16 is an explanatory diagram of a decoding method of a soft decision input and a hard decision output.
  • FIG. 17 is an explanatory diagram of a conventional ALC circuit.
  • A Radio equipment including soft decision data generator (ALC circuit)
  • FIG. 1 is a schematic configuration diagram of a wireless device including a soft decision data generation unit (ALC circuit) according to the present invention.
  • the wireless device for example, there are a mobile phone device and a transmitting device of a CDMA system, a PD system, or the like.
  • 21 is an upper layer processing unit
  • 22 is a channel codec
  • Reference numeral 3 denotes a modulation unit for modulating a carrier wave to code data
  • reference numeral 24 denotes a radio unit.
  • the baseband transmission frequency is up-converted to a high-frequency signal, amplified by a transmission power amplifier, transmitted to a transmission antenna 25, and transmitted.
  • the high-frequency signal received by the antenna 26 is down-converted into a baseband signal and output.
  • 27 is a demodulation unit that demodulates the received data and weights and outputs the received level, and 28 converts the weighted input data A to soft-decision data B that has a smaller number of rebits than the input data.
  • a soft decision data generator (ALC circuit) 29 is a channel codec, which is an error correction decoder such as a Viterbi decoder for error correction decoding of a convolutional code.
  • the level average value E and the root mean square value E 2 are obtained, and the variance V is obtained using these E and E 2 . If the number of input levels per unit of error correction code length is represented by n and each input level is represented by B bits, the input data D is
  • V E 2 — E 2 (8)
  • soft decision data C m or cm (K bits) corresponding to input data having an average value E from all bits “1” to all bits “0” so as to be positioned in the center of the 2 K-number of the entire soft-decision data, and the first level range R 1 for outputting soft decision data of all bits "1" (2 ⁇ _ 1 ) ⁇
  • the third level range R3 sandwiched between the first and second level ranges is equally allocated to the remaining 2 (m-1) soft decision data. Since the width of the third level range R 3 is 2 ⁇ f (V), the level width X of each soft decision data is
  • each soft decision data c 0 , ci, c 2 , ⁇ , c 2m -i can be assigned to each level range shown in Fig. 2.
  • the soft decision data can be determined and output depending on which level range the input data level falls within. That is, according to the first embodiment, the B-bit input data level can be converted into K-bit soft-decision data using the average value E and the truncation f (V).
  • the cutoff level E f (V) for outputting soft decision data of all bits “1” and all bits “0” is varied by the variance V.
  • the variance V will be large, and the truncation level will be far from the average E.
  • the dispersion of the input level from the average E is small, the variance V will be As it gets smaller, the cut-off level approaches the average value E. In this way, the width in which all soft-decision data other than all bits "1" and all bits "0” are represented by K bits is switched according to the variance of the input level. Data can be accurately converted to K-bit soft-decision data and output.
  • FIG. 3 is a flowchart of generating soft decision data.
  • j ++ means increment j.
  • the level width X of each (2m ⁇ 2) pieces of soft decision data included in the third level range R 3 is obtained (step 101).
  • 2 K 2 m.
  • d i is compared with the average value E (step 104). If d i ⁇ E, j is compared with (m ⁇ 2) (step 105).
  • the input data di is the region R ' 3 , in FIG. Check if it is included in.
  • soft decision data is output (step 107).
  • step 104 if d E, j is compared with (m ⁇ 2) (step 110). If j ⁇ m ⁇ 2, the following equation is obtained.
  • step 115 If the soft decision data is output in steps 107, 109, 111, 114, i is incremented (step 115), and it is checked whether i ⁇ n (step 116). ”, Reads the next data d; from the memory and repeats the subsequent processing. If“ YES ”, outputs soft-decision data of n input data in units of 1 error correction code length. To end.
  • the soft decision data C m or cm corresponding to the input data having the average value E is obtained from the soft decision data c 0 of all bits “0” to the soft decision of all bits “1”. It is located at the center of all soft decision data up to data C.
  • the outermost level range R If m -Rm-,,, is the (ml) level range (i m-1), the boundary level of the i-th level range RiQ RM is
  • V i is a cut-off function that determines the boundary of the i-th level range
  • each soft decision data CQ C 1 C 2 ⁇ ⁇ ⁇ (: can be assigned to each level range shown in Fig. 4. Therefore, the input data level is included in any level range. It is possible to determine and output soft decision data depending on whether or not it is rare.
  • the i-th level range is determined based on the average value E and the truncation function f (V, i), and the input data level is included in any level range. Since the soft decision data is determined, the B-bit input data can be faithfully converted to K-bit soft decision data according to the level. In particular, since each level range is varied by the variance V, and the level range is widened as it departs from the average value E, the number of input data included in each level range can be made uniform and the B-bit input data can be reduced. It can be faithfully converted to K-bit soft decision data.
  • FIG. 5 is a flowchart for generating soft decision data.
  • j ++ means to increment j
  • f (V, -1) 0.
  • d i is compared with the average value E (step 204). If d i d E, j is compared with (m ⁇ 2) (step 205). If j m m ⁇ 2, the following equation is obtained.
  • the input data di is the region R 0 in FIG. Check whether it is included.
  • step 204 if d i ⁇ E, j is compared with (m ⁇ 2) (step 2 10). If j ⁇ m ⁇ 2, the following equation is obtained.
  • step 215 If the soft decision data is output in steps 207, 209, 212, and 214, i is incremented (step 215), then it is checked whether it is in (step 216), and if "N0", the next data d is read from the memory, and the subsequent processing is repeated. If “YES”, the soft decision data output of n input data of one error correction code length unit is terminated.
  • k is a constant.
  • FIG. 6 is a block diagram of the soft decision data generator (ALC circuit) 28 of the present invention. It is assumed that input data is interleaved on the data transmitting side.
  • the average value calculation unit 51 calculates the average value ⁇ of ⁇ pieces of input data constituting one error correction code length according to equation (6), and the variance calculation unit 52 calculates the variance V as (7), (8 ) Equation is calculated.
  • the first and second memories 53a and 53b for ALC are composed of n error correction code lengths.
  • the input data is alternately stored, and when one is written, the other is read and input to the soft decision data determination unit 54.
  • the soft decision data decision unit 54 uses the average value E, the variance V, and n pieces of input data constituting one error correction code length stored in the first and second memories 53a and 53b. Then, the soft decision data is determined and output according to the processing flow of FIG. 3 or FIG.
  • the first and second dinterleave memories 55a and 55b alternately store n pieces of soft-decision data constituting one error correction code length output from the soft-decision data generator 28, and When the data is written to the other side, the soft decision data is read out in the order of the reinterleaving, rearranged in the order before interleaving, and input to the error correction decoder (soft decision Viterbi decoder, etc.) 56.
  • the error correction decoder 56 performs a decoding process on the input data and outputs the result.
  • the first memory 53 a stores n input data constituting the first one error correction code length
  • the average value calculation unit 51 calculates the average value E
  • the variance calculation unit 52 calculates the variance V.
  • the soft-decision data determining unit 54 sequentially uses the average value E and the variance V to sequentially input n pieces of input data constituting one error correction code length stored in the first memory 53 a.
  • the data is converted into soft decision data and written to the next stage memory 55a.
  • the second memory 53b stores n input data constituting the following one error correction code length
  • the average value calculation unit 51 calculates the average value E
  • the calculation unit 52 calculates the variance V.
  • the soft-decision data determination unit 54 configures the 1 error correction code length stored in the second memory 53 b using the average value E and the variance V of the second 1 error correction code length.
  • the n input data are sequentially converted to soft decision data and written to the next-stage ding leave memory 55b.
  • the first memory 53 a stores the n input data constituting the third 1 error correction code length
  • the average calculation unit 51 calculates the average E.
  • the variance calculation unit 52 calculates the variance V.
  • the interleave 55 a reads out the soft decision data in the order of the interleave, rearranges the data in the order before interleaving, inputs the data to the error correction decoder (soft decision decoder) 56, and outputs the error correction decoder 56.
  • the input data is decrypted and output.
  • the read / write of the memos 53a, 53b and the memos 55a, 55b are alternately switched for each error correction code length. And repeat the above operation.
  • the soft decision data generator 28 can be realized using a DSP (digital signal processor) or using a microcomputer.
  • Fig. 6 is applicable to the case where the input data is all positive, for example, but if the input data is positive or negative signed, as shown in Fig. 8, the separator 57 and the sign bit memories 58 a and 58 b are used. Provide.
  • Separator 57 separates the input data into code bits and amplitude bits, and code bit memories 58a and 58b store the code bits alternately for each error correction code length. It is read out and input to the soft decision data decision unit 54.
  • the average value calculation unit 51 calculates the average value E of n pieces of amplitude data constituting one error correction code length according to equation (6), and the variance calculation unit 52 calculates the variance V as (7), ( 8) Calculate using equation.
  • the first and second memories 53a and 53b for ALC alternately store n pieces of amplitude data constituting one error correction code length, and when writing to one, read from the other to make a soft decision data decision section. Enter 54.
  • the soft decision data determination unit 54 uses the average value E, the variance V, and n pieces of amplitude data constituting one error correction code length stored in the first and second memories 53a and 53b, The soft decision amplitude data is determined according to the processing flow of FIG. 3 or FIG. 5, and the corresponding sign bit is retrieved from the sign bit memories 58a and 58b and added to the amplitude data to produce soft decision data. Output.
  • FIG. 8 is another block diagram of the soft decision data generator (ALC circuit) 28 of the present invention, and the same parts as those of the soft decision data generator of FIG. The difference is
  • a deinterleave address controller 61 that generates addresses in deinterleave order is provided.
  • First and second memories 53a, 53b Read input data in the order of de-interleaving, rearrange the input data in the order before interleaving, and enter the soft-decision data determining unit 54. That is, the soft decision data is directly input to the error correction decoder 56.
  • the memory can be reduced, and the processing delay required for the ding leave can be reduced as compared with the embodiment of FIG.
  • FIG. 8 is applicable to the case where all the input data is positive. However, if the input data is positive or negative, a separator and a sign bit memory are provided as in FIG.
  • the soft decision data generator (ALC circuit) of the present invention By using the soft decision data generator (ALC circuit) of the present invention, even in an environment where the reception level fluctuates rapidly, the reception level can be established. It can be easily converted to statistical soft decision data, and error correction can be performed later. A high gain can be obtained in decoding, and communication quality can be improved.
  • the soft decision data generator (ALC circuit) of the present invention can output more optimal soft decision than before, so that the number of soft decision bits in error correction decoding can be reduced to obtain the same gain. And the hardware scale of the receiver can be reduced. In addition, since the soft decision data generation processing and the deinterleaving processing can be performed in a mixed manner, the overall processing time can be reduced.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Error Detection And Correction (AREA)

Abstract

A soft decision data creating device for converting input data weighted according to the levels to soft decision data the number of bits of which is smaller than that of the input data and outputting the soft decision data. An average calculating section calculates the level average E of the input data for every length of error correcting code. A dispersion calculating section calculates the dispersion V representing the scattering of the levels of the input data from the average. A soft decision data determining section, based on the average E and dispersion V, sets a first input level range for converting the input data to soft decision data all the bits of which are '1', sets a second input level range for converting the input data to soft decision data all the bits of which are '0', and allocates a third level range between the first and second ranges to the other soft decision data than those the bits of which are '1' or '0', thus converting the input data according to the level range in which the data lies to soft decision data and outputting the data.

Description

明 細 書  Specification
軟判定データ発生方法及び装置  Method and apparatus for generating soft decision data
技術分野  Technical field
本発明は軟判定データ発生方法及び装置に係わリ、 特に、 レベルによリ重み付 けされた軟判定入力データを該入力データょリビット数が少なレ、軟判定データに して出力する軟判定データ発生方法及び装置に関する。  The present invention relates to a method and an apparatus for generating soft decision data, and more particularly to a soft decision input data which is weighted by level and output as soft decision data with a small number of bits of the input data. The present invention relates to a method and apparatus for generating judgment data.
背景技術  Background art
誤リ訂正符号は、 受信情報や再生情報などに含まれる誤リを訂正して正しく元 の情報を復号できるようにするためのもので、 種々のシステムに適用されている 。 例えば、 移動通信その他のデータ通信に際してデータを誤リなく伝送する場合 The erroneous correction code is used to correct erroneous information contained in received information, reproduction information, and the like so that the original information can be correctly decoded, and is applied to various systems. For example, when transmitting data without error in mobile communications and other data communications
、 あるいは、 磁気ディスク、 CDなどの大容量記憶媒体からデータを誤り無く再生 する場合に適用されている。 かかる誤リ訂正符号には、 畳み込み符号やターボ符 号などがある。 Or, it is applied when reproducing data from large-capacity storage media such as magnetic disks and CDs without error. Such error correcting codes include convolutional codes and turbo codes.
-畳み込み符号  -Convolutional code
図 9は畳み込み符号器の例でぁリ、 2ビットのシフトレジスタ SFRと 2つの排 他的論理和回路 EX0R1,EX0R2を備え、 EX0R1は入力と R の排他的論理和 g。を出力 し、 EX0R2は入力と R 0と の排他的論理和 g iを出力する。 したがって、 入力デ ータが 01001の場合における畳み込み符号器の入出力関係及びシフトレジスタ SFR の状態は図 1 0に示すようになる。 Figure 9 shows an example of a convolutional encoder. It has a 2-bit shift register SFR and two exclusive OR circuits EX0R1 and EX0R2, where EX0R1 is the exclusive OR g of the input and R. Outputs, EX0R2 outputs an exclusive OR gi between the input and the R 0. Therefore, the input / output relationship of the convolutional encoder and the state of the shift register SFR when the input data is 01001 are as shown in FIG.
畳み込み符号器のシフトレジスタ SFRの内容は s t a t e (状態)と定義され、 図 1 1 に示すように 00, 0 1, 10, 11の 4つの状態がぁリ、 ここではそれぞれを状態 a, 状態 b, 状態 c, 状態 dと表現することとする。 図 9の畳込み符号器ではシフ ト レジスタ SFRの状態が a〜dのいずれの状態であるか、 及び、 次に入力するデー タが" 0"である力 ' 1 "であるかによリ、 出力(g 0, 及び次の状態が一意に決ま る。 図 1 2はかかる畳込み符号器の状態と入出力の関係図でぁリ、 点線は" 0" 入力、 実線は" 1 " 入力を示している。 すなわち、 The contents of the shift register SFR of the convolutional encoder are defined as state. As shown in Fig. 11, four states of 00, 01, 10, and 11 are peri, where each is state a and state b. , State c, and state d. In the convolutional encoder shown in FIG. 9, it is determined whether the state of the shift register SFR is a to d and whether the next input data is "0" or "1". , And the output (g 0 , and the next state are uniquely determined. Figure 12 shows the relationship between the state of the convolutional encoder and the input and output. The dotted line indicates the “0” input, and the solid line indicates the “1” input. That is,
( 1) 状態 aにおいて、 "0"が入力すると出力は 00で状態は aになリ、 " 1 "が入力 すると出力は 11で状態は cになる。  (1) In state a, if "0" is input, the output will be 00 and the state will be a. If "1" is input, the output will be 11 and the state will be c.
(2) 状態 bにおいて、 "0"が入力すると出力は 1 1で状態は aになリ、 " 1 "が入力 すると出力は 00で状態は cになる。 (2) In state b, if "0" is input, the output is 1 1 and the state is a, and "1" is input Then the output will be 00 and the state will be c.
(3) 状態 cにおいて、 "0"が入力すると出力は 01で状態は bになリ、 "1"が入力 すると出力は 10で状態は dになる。  (3) In state c, if "0" is input, the output changes to 01 and the state changes to b. If "1" is input, the output changes to 10 and the state changes to d.
(2) 状態 dにおいて、 "0"が入力すると出力は 10で状態は bになり、 "1"が入力 すると出力は 01で状態は dになる。  (2) In state d, if "0" is input, the output will be 10 and the state will be b, and if "1" is input, the output will be 01 and the state will be d.
この入出力関係を用いて図 9の畳み込み符号器の畳み込み符号を格子状表現( トレリス線図)すると図 1 3 (A) に示すようになる。 ただし、 kは第 kビット 入力時点を意味し、 符号器における初期(k=0)の状態は a (00)である。 又、 点線 は" 0" 入力、 実線は" Γ入力を示し、 線上の 2つの数値は出力 (g0g l) を 示している。 したがって、 初期状態 a (00)において、 "0"が入力されると出力は 00で状態は aになリ、 "1 "が入力されると出力は 11で状態は cになることがわか る。 Using this input / output relationship, the convolutional code of the convolutional encoder of FIG. 9 is represented in a lattice-like form (trellis diagram) as shown in FIG. 13 (A). Here, k means the input time of the k-th bit, and the initial (k = 0) state in the encoder is a (00). Also, the dotted line "0" input and the solid line "gamma indicates the input, two numbers on the line indicates the output (g 0, gl). Therefore, in the initial state a (00)," the input is 0 " Then, the output becomes 00 and the state becomes a, and when "1" is input, the output becomes 11 and the state becomes c.
この格子状表現図を参照すると、 原データが 11001であれば、 図 13 (B) の 矢印付き 2点鎖線で示すパスを介して状態 cに至リ、 符号器出力は  Referring to this grid-like representation, if the original data is 11001, the state c is reached via the path shown by the two-dot chain line with the arrow in FIG. 13 (B), and the encoder output is
11→10→10→11-→11  11 → 10 → 10 → 11- → 11
となることがわかる。 It turns out that it becomes.
-畳み込み符号の復号  -Decoding of convolutional codes
畳み込み符号の復号を行う際、 まず始めに受信データの判定を行う。 この判定 には、 硬判定(hard decision)と軟判定(soft dec i s i on)の 2種類がある。  When decoding a convolutional code, the received data is determined first. There are two types of this decision, a hard decision and a soft decision.
硬判定の場合は、 検波出力レベルが 0より大きいと" Γ 、 0ょリ小さいと" 0" と 2つの量子化レベルで判定する。 このように画一的な判断を行うと、 図 14に 示すそれぞれの確率密度関数のスソの広がリ部分 (図中の斜線領域部分) で誤り 判定が発生する。  In the case of a hard decision, if the detection output level is greater than 0, it is determined by two quantization levels: “Γ”, and if it is smaller than 0, it is determined by two quantization levels. An error decision occurs at the part where the spread of each probability density function shown in the figure is large (the shaded area in the figure).
軟判定は、 硬判定の欠点を補うもので、 図 14の左端に 1例として示したよう に、 検波出力を例えば 8レベルで量子化し、 それぞれのレベルに応じた確からし さの重みづけをして、 判定結果を復号器へ出力するものである。  The soft decision compensates for the disadvantages of the hard decision.As shown as an example at the left end of Fig. 14, the detection output is quantized at, for example, eight levels, and the certainty is weighted according to each level. The decision result is output to the decoder.
畳み込み符号を復号するビタビ復号方法は硬判定入力硬判定出力、 軟判定入力 硬判定出力が可能である。 硬判定入力硬判定出力において、 硬判定受信データ ( go, gi) が 11→10→10→11→11で誤リのない理想状態を想定すると、 図 15 ( A) の矢印付き 2点鎖線で示すパスが得られ、 点線を" 0"、 実線を "1"とすること により、 図 1 7 (B) に示すように 11001の復号結果を得ることができる。 しか し、 実際には、 受信データに誤りが含まれる場合が多い。 図 1 5 (C) に示すよ うに、 第 5ビット目に誤リが発生し、 硬判定受信データ (g0, g i) が 11→10→ 00→11→11であるとすると、 k=2の時点で 00のパスがないため 10,01のどちらへ 分岐すべきか迷う (エラー回数 ERR= 1) 。 10とみなして上側のパスを選択する と、 k=3,K=4で迷うこと無く状態 cに至る。 したがって、 矢印付き点線パスでの エラー回数 ERR=1となリ、 その時の復号結果は 11001となる。 一方、 k =2の時点で 01とみなして下側のパスを選択すると、 k=3の時点でも、 どちらへ分岐すべきか 迷い、 総エラー回数 ERR=2となる。 以後、 同様にパスを選択し、 分岐に迷った時 に ERRをカウントアップすると、 最終的に以下の結果が得られる。 すなわち、 復号結果を 11001とした時の総エラー回数 ERR: 1 The Viterbi decoding method for decoding convolutional codes can output hard-decision input hard-decision output and soft-decision input hard-decision output. In the hard decision input and the hard decision output, assuming that the hard decision received data (go, gi) is 11 → 10 → 10 → 11 → 11 and is in an ideal state without errors, Fig. 15 ( The path indicated by the two-dot chain line with the arrow in A) is obtained, and by setting the dotted line to "0" and the solid line to "1", the decoding result of 11001 can be obtained as shown in Fig. 17 (B). . However, in practice, received data often contains errors. This opens the interface shown in FIG. 1 5 (C), the fifth error bit is generated, the hard-decided received data (g 0, gi) is assumed to be 11 → 10 → 00 → 11 → 11, k = 2 Since there is no 00 path at the time of, it is unclear which of 10 and 01 should be branched (error count ERR = 1). If the upper path is selected assuming that it is 10, then k = 3, K = 4, and it will reach state c without any hesitation. Therefore, the number of errors ERR = 1 in the dotted line path with arrow is set, and the decoding result at that time is 11001. On the other hand, if k = 2 and the lower path is selected assuming 01, then even at k = 3, it is unclear where to branch, and the total number of errors is ERR = 2. After that, when the path is selected in the same way and the branch is lost, the ERR is counted up and the following result is finally obtained. That is, the total number of errors when the decoding result is 11001 ERR: 1
復号結果を 11100とした時の総エラー回数 ERR: 2  Total error count when decoding result is 11100 ERR: 2
復号結果を 11110とした時の総エラー回数 ERR: 3  Total number of errors when decoding result is 11110 ERR: 3
復号結果を 11111とした時の総エラー回数 ERR: 3  Total number of errors when decoding result is 11111 ERR: 3
となる。 そこで、 エラー回数 ERRが最小の復号結果 11001を選択して出力する。 こ のようにすれば、 受信データに誤リがあつても原データ 11001を正しく復元でき る。 Becomes Therefore, the decoding result 11001 having the minimum number of errors ERR is selected and output. In this way, the original data 11001 can be correctly restored even if there is an error in the received data.
以上は、 硬判定受信データであるが、 軟判定受信データの場合も同様に復号す ることができる。 図 1 6は軟判定受信データの場合における複号化説明図であり 、 (B) に示すように軟判定受信データ (g0, gi) カ 1,1→1,0→1,0→2/8,1→ 1,1であるとする。 (A) の格子状表現を参照すると k=3の時点で 11, 00のどちら へ分岐すべきか迷う。 11とみなして上側のパスを選択すると(エラー回数 ERR=6/8 )、 K=4の時点で迷うこと無く状態 cに至る。 したがって、 矢印付き 2点鎖線のパ スでのエラー回数 ERR=6/8となり、 その時の復号結果は 11001となる。 一方、 k=3 の時点で 00とみなして下側のパスを選択すると(エラー回数 ERR=l+2/8)、 k=4の時 点でもどちらへ分岐すべきか迷い、 総エラー回数 ERR= (2+2/8)となる。 以後、 同 様にパスを選択し、 分岐に迷った時に ERRをカウントアップすると、 最終的に以 下の結果が得られる。 すなわち、 復号結果を 11001とした時の総エラー回数 ERR: 6/8 The above is hard-decision reception data, but decoding can be similarly performed for soft-decision reception data. FIG. 16 is an explanatory diagram of decoding in the case of soft-decision reception data. As shown in (B), the soft-decision reception data (g 0 , gi) power 1,1 → 1,0 → 1,0 → 2 Suppose that / 8,1 → 1,1. Referring to the grid representation of (A), at k = 3, it is unclear which branch to 11,00. If 11 is selected and the upper path is selected (error count ERR = 6/8), state c is reached without hesitation at K = 4. Therefore, the number of errors in the path indicated by the two-dot chain line with the arrow is ERR = 6/8, and the decoding result at that time is 11001. On the other hand, if k = 3 and 00 is selected as the lower path (error count ERR = l + 2/8), at k = 4 it is unclear where to branch, and the total error count ERR = (2 + 2/8). After that, if the path is selected in the same way and ERR is counted up when the branch is lost, the following result is finally obtained. That is, Total number of errors when decoding result is 11001 ERR: 6/8
復号結果を 11010とした時の総エラー回数 ERR: 2+2/8  Total error count when decoding result is 11010 ERR: 2 + 2/8
復号結果を 11011とした時の総エラー回数 ERR: 2+2/8  Total error count when decoding result is 11011 ERR: 2 + 2/8
となる。 そこで、 エラー回数 ERRが最小の復号結果 11001を選択して出力する。 こ のようにすれば、 受信データに誤リがあつても原デ一タ 11001を正しく復元でき る。 以上より、 軟判定ではエラー回数 ERRが整数でなくなるだけで硬判定と同じ 原理であるが、 精度の高いエラー回数の判定が可能となリ、 誤リ訂正能力も向上 する。 Becomes Therefore, the decoding result 11001 having the minimum number of errors ERR is selected and output. In this way, the original data 11001 can be correctly restored even if there is an error in the received data. As described above, the soft decision has the same principle as the hard decision except that the number of errors ERR is no longer an integer, but improves the ability to determine the number of errors with high accuracy and improves the error correction capability.
• ビタビ復号方法  • Viterbi decoding method
以上のように受信データに基づいて可能な全パスのエラー回数 ERRを求め、 そ のうち ERR最小のパスに基づいて原データを復号する処理は煩雑である。 そこで 、 ビタビ復号方法では、 情報長 Nの符号化データの第 k番目(k= 1, 2, . . ) までのデータを用いて第 kデータ入力時点の各状態 a, b, c, d毎に、 該状 態に至る 2つのパスのうち誤りの少ないパスを選択し、 誤リの多いパスを捨て、 以後、 同様にして最終の第 Nデータ入力時点の各状態毎に、 該状態に至る 2つの パスのうち誤りの少ないパスを選択し、 各状態において選択したパスのうち最も 誤りの少ないパスを用いて復号する。  As described above, the process of obtaining the error count ERR of all possible paths based on the received data and decoding the original data based on the path having the smallest ERR is complicated. Therefore, in the Viterbi decoding method, each of the states a, b, c, d at the time of inputting the k-th data by using the data up to the k-th (k = 1, 2,...) Of the coded data having the information length N Then, a path having a small number of errors is selected from the two paths leading to the state, and a path having a large number of errors is discarded. Thereafter, the state is similarly reached for each state at the time of the final N-th data input. The path with the least error is selected from the two paths, and decoding is performed using the path with the least error among the paths selected in each state.
- ALC (Automat ic Level Contorl)回路  -ALC (Automatic Level Control) circuit
CDMAなどの移動通信では通信環境、 雑音などにょリ、 受信データのレベル変動 が常に生じる。 かかるレベル変動が生じても、 高精度復号を可能とするために、 従来は、 レベルに基づいて復調データの重み付けを行って軟判定データとし、 該 軟判定データを誤り訂正復号器に入力して復号を行う構成を採用している。 とこ ろで、 復調データを重み付けした軟判定データ Aのビット数は、 誤リ訂正復号器 が扱う軟判定データ Bのビッ ト数よリも多い。 すなわち、 重み付けした軟判定デ ータ Aは誤リ訂正復号器へ入力する軟判定データょリも細かく表現されている。 このため、 図 1 7に示すように、 復調部 1と軟判定復号器 (誤リ訂正復号器) 2 の間に、 ALC (Automatic Level Contor 1)回路 3を設け、 軟判定データ Aのビッ ト 数を減小して軟判定復号器 2が扱えるビット数の軟判定データ Bに変換する。 こ の場合、 出来るだけ忠実にビット数を減小して軟判定データ Bを生成し、 軟判定 復号器 2に渡す必要があり、 従来は以下のようにしている。 In mobile communications such as CDMA, the level of received data always fluctuates due to the communication environment, noise, etc. Conventionally, in order to enable high-precision decoding even if such a level fluctuation occurs, conventionally, weighting of demodulated data is performed based on the level to obtain soft decision data, and the soft decision data is input to an error correction decoder. A configuration for performing decoding is adopted. In this case, the number of bits of the soft-decision data A obtained by weighting the demodulated data is larger than the number of bits of the soft-decision data B handled by the error correction decoder. That is, the weighted soft decision data A also finely represents the soft decision data input to the error correction decoder. Therefore, as shown in Fig. 17, an ALC (Automatic Level Contor 1) circuit 3 is provided between the demodulator 1 and the soft decision decoder (erroneous correction decoder) 2, and the bit of the soft decision data A is The number is reduced and converted into soft-decision data B having the number of bits that can be handled by soft-decision decoder 2. In this case, soft decision data B is generated by reducing the number of bits as faithfully as It needs to be passed to the decoder 2, which is conventionally done as follows.
まず、 セパレータ 3 aによリ重み付けされた軟判定データ A (符号ビットと振 幅ビットによリ構成される)を符号ビットと振幅ビットに分離し、 符号ビットは 符号ビットメモリ 3 bに記憶し、 振幅ビットはデータ保持メモリに 3 cに記憶す ると共に最大値検出部 3 dに入力する。 最大値検出部 3 dは、 誤リ訂正符号長単 位毎に最大値を検出し、 該最大値をビットセレクタ 3 eに通知する。 最大値検出 が終了すれば、 ビッ トセレクタ 3 eは、 データ保持メモリ 3 cに記憶させたデー タょリ通知された最大値を生かすように特定振幅ビッ トを取リ出し、 かつ、 符号 ビットメモリ 3 bょリ対応する符号ビットを取リ出して付加し、 軟判定データ B として出力する。  First, the soft decision data A (consisting of a sign bit and an amplitude bit) weighted by the separator 3a is separated into a sign bit and an amplitude bit, and the sign bit is stored in the sign bit memory 3b. The amplitude bit is stored in the data holding memory as 3c and input to the maximum value detector 3d. The maximum value detector 3d detects a maximum value for each error correction code length unit, and notifies the bit selector 3e of the maximum value. When the maximum value detection is completed, the bit selector 3e retrieves the specific amplitude bit so as to make use of the maximum value notified in the data storage stored in the data holding memory 3c, and extracts the sign bit memory. 3 Retrieve and add the corresponding sign bit to b, and output it as soft decision data B.
例えば、 符号ビッ ト 1ビッ トを含む 16ビッ ト (1符号ビッ ト +15振幅ビッ ト) の 重み付けされた軟判定データ A  For example, 16-bit (1 sign bit + 15 amplitude bits) weighted soft decision data A including 1 sign bit
da t a {15..0} = xaaa aaaa aaaa aaaa x:符号ヒッ ト、 a:0orl (1) が ALC回路 3に入力したとする。 また、 1誤リ訂正符号長を構成するデータ数 nは 300とし、 15ビットによリ表現される振幅の最大レベルが 2進数で  da t a {15..0} = xaaa aaaa aaaa aaaa x: Sign hit, a: 0orl (1) is input to ALC circuit 3. Also, the number n of data that constitutes one error correction code length is 300, and the maximum level of the amplitude represented by 15 bits is a binary number.
data[14..0]="011 1000 1111 0000" (2)  data [14..0] = "011 1000 1111 0000" (2)
であるとする。 And
ALC回路 3は、 この重み付けデータ Aょリ、 5ビッ ト (1符号ビッ ト +4振幅ビ ット) の軟判定データ Bを出力するには、 軟判定データを nan[4..0]として、 nan[4] data[15]、 nan[3..0]^da t a[13..10] (3)  The ALC circuit 3 outputs the soft decision data as nan [4..0] to output the weighted data A and the 5-bit (one sign bit + 4 amplitude bits) soft decision data B. , Nan [4] data [15], nan [3..0] ^ da ta [13..10] (3)
とする。 すなわち、 (2)の最大レベルにおいて最初に" 1"が立っているビッ トから 4ビッ ト (data[13..10]) に符号 (data[15]) を付けて出力する。 これにより、 不要な上位ビットと細かい下位ビットを無視する。 以後、 ビッ ト選択範囲を誤リ 訂正符号長毎に求まる最大値に基づいて切リ替える。 And That is, in the maximum level of (2), the 4 bits (data [13..10]) are assigned the sign (data [15]) and output from the first bit with "1". As a result, unnecessary upper bits and fine lower bits are ignored. Thereafter, the bit selection range is switched based on the maximum value obtained for each error correction code length.
以上のように、 従来方法においてビッ ト選択範囲を切リ替えるタイミングは、 1誤リ訂正符号長単位であリ低速の動作で切リ替えを行え、 制御が容易となる利 点がある。 し力 しながら、 従来方法では誤り訂正符号長単位でデータをスキャン しているにもかかわらず、 ビット選択範囲は最大値のみによって決定されてしま う。 これによリ、 受信レベルがめまぐるしく変動してしまうような環境において 、 A L C回路 3は重み付けされた軟判定データ Aを適切な軟判定データ Bに変換 できず、 後の誤リ訂正復号における利得が著しく低下し、 正しく元のデータを復 号ができなくなる問題がある。 たとえば、 最大値が他の受信レベルに比べて突出 し、 受信レベルの平均値が相当低い場合、 従来方法によるビット選択範囲 (最大 レベルにおいて最初に "1"が立っているビッ卜から 4ビット)は適切でなく、 軟判 定データ Bの振幅 4ビットのうち上位 2〜3ビットが 0になり、 下位 1〜2ビッ トに" 1 " が出現するだけとなリ、 振幅ビットを有効に利用できなくなり、 誤リ 訂正復号における利得が著しく低下する As described above, the switching timing of the bit selection range in the conventional method has an advantage that control can be easily performed by switching at a low speed in units of one error correction code length. However, even though the conventional method scans data in units of error correction code length, the bit selection range is determined only by the maximum value. As a result, in an environment where the reception level fluctuates rapidly, However, the ALC circuit 3 cannot convert the weighted soft-decision data A into appropriate soft-decision data B, and the gain in subsequent error correction decoding is significantly reduced, and the original data cannot be decoded correctly. . For example, if the maximum value is higher than the other reception levels and the average reception level is considerably lower, the bit selection range according to the conventional method (4 bits from the first “1” at the maximum level) Is not appropriate, the upper 2 or 3 bits of the 4 bits of soft decision data B become 0, and only "1" appears in the lower 1 or 2 bits, and the amplitude bits are used effectively. And the gain in error-correction decoding decreases significantly.
そこで、 従来方法では最適な軟判定データを作るために軟判定ビット数を増加 しなければならない。 しかし、 かかる方法では、 誤リ訂正復号器のハード規模が 著しく増大する問題がある。  Therefore, in the conventional method, the number of soft decision bits must be increased in order to generate optimal soft decision data. However, such a method has a problem that the hardware scale of the erroneous correction decoder is significantly increased.
以上から本発明の目的は、 重み付けされた入力データを軟判定復号器が必要と するビット数の軟判定データに適切に変換することにより、 誤リ訂正復号におけ る利得を向上し、 正しく元のデータを復号する軟判定データ発生方法及び装置を 提供することである。  From the above, it is an object of the present invention to improve the gain in error correction decoding by appropriately converting weighted input data into soft decision data of the number of bits required by the soft decision decoder, and to improve the And a method and apparatus for generating soft decision data for decoding data.
又、 本発明の目的は、 軟判定データの発生処理をディンタリーブ処理とミック スして行うことによリメモリの削減、 全体の処理時間の短縮を可能にすることで あ 。  Another object of the present invention is to reduce the re-memory and shorten the overall processing time by mixing the soft decision data generation processing with the dinterleaving processing.
発明の開示  Disclosure of the invention
本発明の軟判定データ発生装置は、 レベルによリ重み付けされた入力データを 該入力データよりビット数が少ない軟判定データに変換して出力する。 すなわち 、 平均値算出部は誤リ訂正符号長毎に、 入力データのレベル平均値を算出し、 軟 判定データ決定部は、 該レベル平均値を有する入力データに応じた軟判定データ が、 オール " 0 " からオール " 1 " の全軟判定データの中央部に位置するように し、 又、 平均値両側の入力データをそのレベルに応じた所定の軟判定データに変 換して出力する。 具体的には、 分散算出手段はレベル平均値からの入力データレ ベルの分散を算出し、 軟判定データ決定部は、 該算出された分散値に基づいてォ ール " 0 " の軟判定データに変換する第 1の入力レベル範囲、 オール " 1 " の軟 判定データに変換する第 2の入力レベル範囲を設定し、 第 1、 第 2のレベル範囲 に挟まれた第 3のレベル範囲をオール " 0 " 、 オール " 1 " 以外の残リの全軟判 定データに均等割付けする。 そして、 軟判定データ決定部は、 入力データが到来 すれば、 そのレベルが含まれるレベル範囲に応じた軟判定データに変換して出力 する。 The soft decision data generator of the present invention converts input data weighted by level into soft decision data having a smaller number of bits than the input data and outputs the soft decision data. That is, the average value calculation unit calculates the level average value of the input data for each error correction code length, and the soft decision data determination unit determines that the soft decision data corresponding to the input data having the level average value is all " It is located at the center of all soft decision data from "0" to all "1", and the input data on both sides of the average value are converted to predetermined soft decision data corresponding to the level and output. More specifically, the variance calculating means calculates the variance of the input data level from the level average value, and the soft decision data determination unit converts the variance of the input data level to the soft decision data of 0 (zero) based on the calculated variance. Set the first input level range to be converted, the second input level range to be converted to all "1" soft decision data, and the first and second level ranges The third level range sandwiched between is equally assigned to all soft decision data except for all "0" and all "1". Then, when the input data arrives, the soft-decision data determining unit converts the input data into soft-decision data corresponding to the level range including the level and outputs the soft-decision data.
本発明の別の軟判定データ発生装置では、 分散算出手段がレベル平均値からの 入力データレベルの分散を算出し、 軟判定データ決定部が、 算出された分散に基 づいて、 中央の 2つの軟判定データのレベル範囲、 その両側の 2つの軟判定デー タのレベル範囲、 以下同様にして全軟判定データのレベル範囲を設定し、 入力デ ータをそのレベルが所在するレベル範囲に応じた軟判定データにして出力する。 この場合、 各レベル範囲を平均値から離れる程幅広にする。  In another soft decision data generation device of the present invention, the variance calculation means calculates the variance of the input data level from the level average value, and the soft decision data decision unit determines the two central variances based on the calculated variance. The level range of the soft-decision data, the level range of the two soft-decision data on both sides, and so on, are set in the same way, and the input data is set according to the level range where the level is located. Output as soft decision data. In this case, each level range is made wider as it goes away from the average value.
以上のようにすれば、 レベル平均値を中心にして入力レベルに応じた軟判定デ ータを発生するため、 振幅ビットを有効に利用でき、 誤リ訂正復号における利得 を向上でき、 正しく元のデータを復号できる。  In this way, since the soft decision data corresponding to the input level is generated with the level average as the center, the amplitude bits can be used effectively, the gain in error correction decoding can be improved, and the original Can decrypt data.
又、 本発明の軟判定データ発生装置において、 記憶部は入力データを記憶し、 軟判定データ決定部は、 平均値及び分散値算出後に該記憶部より 1個づっ入力デ ータを読み出して軟判定データに変換して出力する。 この場合、 入力データがィ ンタリーブされていれば、 ディンタリーブ順に記憶部よリデータを読み出して軟 判定データ決定部において軟判定データを発生して出力する。 このようにすれば 、 軟判定データの発生処理をデインタリーブ処理とミックスして行うことによリ メモリの削減、 全体の処理時間の短縮が可能になる。  Further, in the soft decision data generating device of the present invention, the storage unit stores the input data, and the soft decision data determination unit reads out the input data one by one from the storage unit after calculating the average value and the variance value, and softly reads the input data. Convert to judgment data and output. In this case, if the input data is interleaved, the data is read out from the storage unit in the order of the interleave and the soft decision data decision unit generates and outputs the soft decision data. By doing so, the process of generating soft decision data is mixed with the deinterleaving process to reduce re-memory and shorten the overall processing time.
図面の簡単な説明  BRIEF DESCRIPTION OF THE FIGURES
図 1は本発明の軟判定データ発生部 (A L C回路) を含む無線装置の概略構成 図である。  FIG. 1 is a schematic configuration diagram of a wireless device including a soft decision data generation unit (ALC circuit) of the present invention.
図 2は第 1実施例の軟判定データ発生原理説明図である。  FIG. 2 is an explanatory diagram of the principle of generating soft decision data according to the first embodiment.
図 3は第 1実施例の軟判定データ発生のフローチャートである。  FIG. 3 is a flowchart for generating soft decision data according to the first embodiment.
図 4は第 2実施例の軟判定データ発生原理説明図である。  FIG. 4 is an explanatory diagram of the principle of generating soft decision data according to the second embodiment.
図 5は第 2実施例の軟判定データ発生のフローチャートである。  FIG. 5 is a flowchart for generating soft decision data according to the second embodiment.
図 6は本発明の軟判定データ発生部 (A L C回路) の構成図である。  FIG. 6 is a configuration diagram of the soft decision data generator (ALC circuit) of the present invention.
図 7は図 6の軟判定データ発生部 (A L C回路) の変形例である。 図 8は本発明の軟判定データ発生部 (A L C回路) の別の構成図である。 FIG. 7 shows a modification of the soft decision data generator (ALC circuit) of FIG. FIG. 8 is another configuration diagram of the soft decision data generator (ALC circuit) of the present invention.
図 9は畳み込み符号器の例である。  FIG. 9 is an example of a convolutional encoder.
図 1 0は畳み込み符号器の入出力関係及びシフトレジスタ SFRの状態説明図で ある。  FIG. 10 is a diagram for explaining the input / output relationship of the convolutional encoder and the state of the shift register SFR.
図 1 1は畳み込み符号器の状態説明図である。  FIG. 11 is an explanatory diagram of the state of the convolutional encoder.
図 1 2は畳込み符号器の状態と入出力の関係図である。  FIG. 12 is a diagram showing the relationship between the state of the convolutional encoder and the input / output.
図 1 3は畳み込み符号器の畳み込み符号を格子状表現した図である。  FIG. 13 is a diagram showing the convolutional codes of the convolutional encoder in a lattice form.
図 1 4は硬判定と軟判定の説明図である。  FIG. 14 is an explanatory diagram of hard decision and soft decision.
図 1 5は硬判定入力硬判定出力の復号法説明図である。  FIG. 15 is an explanatory diagram of a decoding method for hard decision input and hard decision output.
図 1 6は軟判定入力硬判定出力の復号法説明図である。  FIG. 16 is an explanatory diagram of a decoding method of a soft decision input and a hard decision output.
図 1 7は従来の ALC回路の説明図である。  FIG. 17 is an explanatory diagram of a conventional ALC circuit.
発明を実施するための最良の形態  BEST MODE FOR CARRYING OUT THE INVENTION
(A) 軟判定データ発生部 (A L C回路) を含む無線装置  (A) Radio equipment including soft decision data generator (ALC circuit)
図 1は本発明の軟判定データ発生部 (A L C回路) を含む無線装置の概略構成 図でぁリ、 無線装置としては、 たとえば、 CDMA方式、 PD方式等の携帯電話装置や 送信装置がある。 図中、 2 1は上位レイヤ処理部でぁリ、 音声データの圧縮/復 元を行う音声コーデック (code r/decod e r:)、 2 2はチャネルコーデックで、 畳み 込み符号化する符号器、 2 3は符号データにょリ搬送波を変調する変調部、 2 4 は無線部であり、 ベースバンドの送信周波数を高周波信号にァップコンバートし 、 送信電力増幅器で増幅して送信アンテナ 2 5ょリ送信すると共に、 アンテナ 2 6で受信した高周波信号をベースバンド信号にダウンコンパ一トして出力する。 2 7は受信データを復調すると共に、 受信レベルにょリ重み付けして出力する復 調部、 2 8は重み付けされた入力データ Aを該入力データよリビット数が少ない 軟判定データ Bに変換して出力する軟判定データ発生装置 (A L C回路) 、 2 9 は、 チャネルコーデックで、 畳み込み符号を誤リ訂正復号するビタビ復号器など の誤リ訂正復号器である。  FIG. 1 is a schematic configuration diagram of a wireless device including a soft decision data generation unit (ALC circuit) according to the present invention. As the wireless device, for example, there are a mobile phone device and a transmitting device of a CDMA system, a PD system, or the like. In the figure, 21 is an upper layer processing unit, an audio codec (code r / decoder :) for compressing / decoding audio data, 22 is a channel codec, an encoder for convolutional encoding, 2 Reference numeral 3 denotes a modulation unit for modulating a carrier wave to code data, and reference numeral 24 denotes a radio unit. The baseband transmission frequency is up-converted to a high-frequency signal, amplified by a transmission power amplifier, transmitted to a transmission antenna 25, and transmitted. The high-frequency signal received by the antenna 26 is down-converted into a baseband signal and output. 27 is a demodulation unit that demodulates the received data and weights and outputs the received level, and 28 converts the weighted input data A to soft-decision data B that has a smaller number of rebits than the input data. A soft decision data generator (ALC circuit) 29 is a channel codec, which is an error correction decoder such as a Viterbi decoder for error correction decoding of a convolutional code.
( B ) 軟判定データ発生の第 1の実施例  (B) First embodiment of soft decision data generation
( a ) 第 1実施例の軟判定データ発生の原理説明  (a) Explanation of the principle of soft decision data generation in the first embodiment
軟判定データ発生の第 1の実施例では、 まず、 誤リ訂正符号長毎に全データの レベル平均値 E、 2乗平均値 E2を求め、 これら E, E2を用いて分散 Vを求める 。 誤リ訂正符号長単位の入力レベル数を n、 個々の入力レベルを Bビットで表現 するものとすれば、 入力データ Dは In the first embodiment of the soft decision data generation, first of all, for every error correction code length, The level average value E and the root mean square value E 2 are obtained, and the variance V is obtained using these E and E 2 . If the number of input levels per unit of error correction code length is represented by n and each input level is represented by B bits, the input data D is
D = {d0,d1,d2, ---,<3„-1 }
Figure imgf000011_0001
1, '··η— 1) (4)
D = {d 0 , d 1 , d 2 , ---, <3 „-1}
Figure imgf000011_0001
1, '· η- 1) (4)
と表現できる。 又、 出力する軟判定データを Κビットで表現するものとすると、 該軟判定データ UはCan be expressed as If the soft decision data to be output is represented by Κ bits, the soft decision data U is
Figure imgf000011_0002
Figure imgf000011_0002
と表現できる。 従って、 平均値 Ε、 2乗平均値 Ε 2および、 分散 Vは次式 Can be expressed as Therefore, the mean Ε, the mean square Ε 2 and the variance V are
E = (do+d,+d2+- - -+dn- i)/ii (6)  E = (do + d, + d2 +---+ dn- i) / ii (6)
E2 = (do2+d1 2+d22+---+dn_1 2)/n (7) E 2 = (do 2 + d 1 2 + d2 2 + --- + d n _ 1 2 ) / n (7)
V = E2— E2 (8) V = E 2 — E 2 (8)
によリ求めることができる。 Can be obtained.
又、 第 1実施例では、 図 2に示すように、 平均値 Eを有する入力データに応じ た軟判定データ C m または cm (Kビット) 力 全ビット "1" から全ビット " 0" までの 2K個の全軟判定データの中央部に位置するようにし、 かつ、 全ビッ ト "1" の軟判定データを出力する第 1 レベル範囲 R 1を (2Β_ 1)〜 In the first embodiment, as shown in FIG. 2, soft decision data C m or cm (K bits) corresponding to input data having an average value E from all bits “1” to all bits “0” so as to be positioned in the center of the 2 K-number of the entire soft-decision data, and the first level range R 1 for outputting soft decision data of all bits "1" (2 Β _ 1 ) ~
{E+f (V)} とし、 全ビット "0" の軟判定データを出力する第 2レベル範囲 R 2を {E— f (V)} 〜0とする。 ただし、 f (V)は足切リ関数で、 たとえば、 f (V)=^V (9)  {E + f (V)}, and the second level range R 2 for outputting soft decision data of all bits “0” is {E−f (V)}} 0. Where f (V) is the truncation function, for example, f (V) = ^ V (9)
によリ定義されるような単調増加関数で、 図 2にでは K=4、 2K=2mとしている。 以上に加えて、 第 1実施例では、 第 1、 第 2レベル範囲に挟まれた第 3レベル 範囲 R 3を残りの 2 (m-1)個の軟判定データに均等割付けする。 第 3レベル範囲 R 3の幅は 2· f (V)であるから、 各軟判定データのレベル幅 Xは次式 This is a monotonically increasing function as defined in Fig. 2. In Fig. 2, K = 4 and 2K = 2m. In addition to the above, in the first embodiment, the third level range R3 sandwiched between the first and second level ranges is equally allocated to the remaining 2 (m-1) soft decision data. Since the width of the third level range R 3 is 2 · f (V), the level width X of each soft decision data is
Χ = 2· f (V)/2(m-l)  Χ = 2f (V) / 2 (m-l)
= f (V)/ (m-1) (10)  = f (V) / (m-1) (10)
によリ求まる。 そして、 第 3レベル範囲 R 3を Xづっ(2m- 2)個のレベル範囲に分 割し、 それぞれに 2(m-l)個の軟判定データ C l〜c 2m2を割リ当てる。 以上よリ 、 2m(=2K)個の軟判定データ Cを Is determined. Then, the third level range R 3 is divided into (2m−2) level ranges by X, and 2 (ml) soft decision data C l to c 2m2 are allocated to each. As described above, 2m (= 2K ) soft decision data C
C={co, c 1 , c2, · · · , c2m-i } c i = i (i=0, 1, - · -2m-l) (11) と表現すると、 各軟判定データ c 0, c i, c 2 , · · ·, c 2m- iを図 2に示す各レベル範囲に 割リ当てることができる。 C = {co, c 1, c 2 , ..., c 2 mi} ci = i (i = 0, 1,--2m-l) (11) Then, each soft decision data c 0 , ci, c 2 , ···, c 2m -i can be assigned to each level range shown in Fig. 2.
従って、 入力データレベルがいずれのレベル範囲に含まれるかによリ軟判定デ ータを決定して出力できる。 すなわち、 第 1実施例によれば、 平均値 Eと足切リ f (V)を用いて、 Bビッ トの入力データレベルを Kビットの軟判定データに変換 することができる。  Therefore, the soft decision data can be determined and output depending on which level range the input data level falls within. That is, according to the first embodiment, the B-bit input data level can be converted into K-bit soft-decision data using the average value E and the truncation f (V).
第 1実施例によれば、 分散 Vによリ全ビット " 1 " 及び全ビット "0" の軟判 定データを出力する足切りレベル E士 f (V)を可変する。 たとえば、 入力レベル の平均値 Eからの散らばり方が大きければ分散 Vが大きくなリ、 足切リレベルは 平均値 Eから離れ、 一方、 入力レベルの平均値 Eからの散らばり方が小さければ 分散 Vが小さくなつて、 足切りレベルは平均値 Eに近づく。 このように、 入カレ ベルの分散に応じて全ビット " 1 " 、 全ビット "0" 以外の全軟判定データを K ビットで表現する幅を切リ替えるようにしているため、 Bビットの入力データを 正確に Kビットの軟判定データに変換して出力できる。  According to the first embodiment, the cutoff level E f (V) for outputting soft decision data of all bits “1” and all bits “0” is varied by the variance V. For example, if the dispersion of the input level from the average E is large, the variance V will be large, and the truncation level will be far from the average E. On the other hand, if the dispersion of the input level from the average E is small, the variance V will be As it gets smaller, the cut-off level approaches the average value E. In this way, the width in which all soft-decision data other than all bits "1" and all bits "0" are represented by K bits is switched according to the variance of the input level. Data can be accurately converted to K-bit soft-decision data and output.
(b) 軟判定データ発生のアルゴリズム  (b) Algorithm for generating soft decision data
以下は、 第 1実施例の軟判定データ発生のアルゴリズムぁリ、 図 3は軟判定デ ータ発生のフローチャートである。 尚、 アルゴリズムにおいて j++は jをインクリ メントすることを意味している  The following is an algorithm for generating soft decision data according to the first embodiment, and FIG. 3 is a flowchart of generating soft decision data. In the algorithm, j ++ means increment j.
X=f (V)/(m-l)  X = f (V) / (m-l)
if (d,<E) if (d, <E)
Figure imgf000012_0001
Figure imgf000012_0001
for (j=0; j<m-2; j++)  for (j = 0; j <m-2; j ++)
if (E-XX (j + 1)く diく E— XX j)  if (E-XX (j + 1) ku diku E— XX j)
d i→Cm-l- j di → C m -l- j
end i f  end i f
end for end for
Figure imgf000012_0002
Figure imgf000012_0002
end i f  end i f
else
Figure imgf000013_0001
else
Figure imgf000013_0001
ior(j=0;j<m-2;j++)  ior (j = 0; j <m-2; j ++)
if (E+XX j<di<E+XX (j+1)) if (E + XX j <di <E + XX (j + 1))
Figure imgf000013_0002
Figure imgf000013_0002
end i f  end i f
enf for enf for
Figure imgf000013_0003
Figure imgf000013_0003
end if  end if
end i f  end i f
図 3に従って、 軟判定データ発生の処理を説明する。 尚、 誤リ訂正符号長を構 成する η個の入力データよリ平均値 E、 分散 Vが既に求まってぉリ、 n個の入力 データはメモリに記憶されているものとする。  The process of generating soft decision data will be described with reference to FIG. It is assumed that the average value E and the variance V have already been obtained from the η pieces of input data constituting the error correction code length, and that n pieces of input data are stored in the memory.
まず、 次式  First,
X=f (V)/(m-l)  X = f (V) / (m-l)
により、 第 3レベル範囲 R 3 (図 2参照) に含まれる(2m- 2)個の各軟判定データ のレベル幅 Xを求める(ステップ 101) 。 但し、 2K=2mである。 Then, the level width X of each (2m−2) pieces of soft decision data included in the third level range R 3 (see FIG. 2) is obtained (step 101). However, 2 K = 2 m.
ついで、 第 i番目の入力データ d i ( 1の初期値は0) をメモリから取り出し (ステップ 102) 、 j=0とする (ステップ 1 03) 。  Next, the i-th input data d i (the initial value of 1 is 0) is fetched from the memory (step 102), and j = 0 (step 103).
ついで、 d iと平均値 Eの大小を比較し (ステップ 104) 、 d i<Eであれば jと(m- 2)を比較し(ステップ 105) 、 jく m_2であれば、 次式  Then, d i is compared with the average value E (step 104). If d i <E, j is compared with (m−2) (step 105).
E-XX (j+l)<d;<E-XXi (12)  E-XX (j + l) <d; <E-XXi (12)
が成立するかチェックする(ステップ 1 06) 。 最初 j=0であるから、 次式
Figure imgf000013_0004
Is checked (step 106). Since j = 0 at first,
Figure imgf000013_0004
が成立するかチェックする。 すなわち、 入力データ d iが図 2の領域 R' 3,。に含 まれるかチヱックする。 Check whether or not holds. That is, the input data di is the region R ' 3 , in FIG. Check if it is included in.
(12)式が成立すれば、 軟判定データ を出力する(ステップ 107) 。 最 初、 j=0であるから、 軟判定データ c^-, (=0111)を出力する。 しカゝし、 (12)式が 成立しなければ、 jをインクリメントし(ステップ 108) 、 ステップ 105以降 の処理を繰り返す。 一方、 ステップ 105において、 j≥m- 2であれば入力データ レベルは第 1レベル範囲 R 1内に存在するものとして軟判定データ c 0 (=0000)を 出力する (ステップ 109) 。 If equation (12) is satisfied, soft decision data is output (step 107). At first, j = 0, so soft decision data c ^-, (= 0111) is output. If equation (12) does not hold, j is incremented (step 108), and the processing from step 105 onward is repeated. On the other hand, in step 105, if j≥m-2, the input data The soft decision data c 0 (= 0000) is output assuming that the level exists in the first level range R 1 (step 109).
又、 ステップ 104において、 d Eであれば jと(m- 2)を比較し(ステップ 1 10) 、 j<m- 2であれば、 次式  In step 104, if d E, j is compared with (m−2) (step 110). If j <m−2, the following equation is obtained.
E+XXj<di<E+XX (j+1) (13)  E + XXj <di <E + XX (j + 1) (13)
が成立するかチェックする(ステップ 1 1 1) 。 最初 j=0であるから、 次式Is checked (step 1 1 1). Since j = 0 at first,
Figure imgf000014_0001
Figure imgf000014_0001
が成立するかチェックする。 すなわち、 入力データ d が図 2の領域 R3,。に含ま れるかチェックする。 Check whether or not holds. That is, the input data d is the region R 3 ,. Check whether it is included.
(13)式が成立すれば、 軟判定データ cm+jを出力する(ステップ 1 1 2) 。 最初 、 j=0であるから、 軟判定データ cm (= 1000)を出力する。 しかし、 (13)式が成 立しなければ、 jをインクリメントし(ステップ 1 13) 、 ステップ 1 10以降の 処理を繰リ返す。 一方、 ステップ 1 10において、 j≥m-2であれば、 入力データ レベルは第 2レベル範囲 R 2内に存在するものとして軟判定データ c (=1111 )を出力する (ステップ 1 14) 。 If the equation (13) holds, the soft decision data cm + j is output (step 1 1 2). First, since j = 0, soft decision data cm (= 1000) is output. However, if the expression (13) does not hold, j is incremented (step 113), and the processing from step 110 is repeated. On the other hand, in step 110, if j≥m-2, the soft data c (= 1111) is output assuming that the input data level exists in the second level range R2 (step 114).
ステップ 1 07, 109, 1 1 2, 1 14において軟判定データを出力すれば 、 iをインクリメントし (ステップ 1 1 5) 、 ついで、 i≥nであるかチェック し(ステップ 1 16) 、 「N0」 であれば、 次のデータ d;をメモリから読み出して 以降の処理を繰リ返し、 「YES」であれば、 1誤リ訂正符号長単位の n個の入力デ —タの軟判定データ出力を終了する。  If the soft decision data is output in steps 107, 109, 111, 114, i is incremented (step 115), and it is checked whether i≥n (step 116). ”, Reads the next data d; from the memory and repeats the subsequent processing. If“ YES ”, outputs soft-decision data of n input data in units of 1 error correction code length. To end.
(c) 足切り関数 f (V)の別の例  (c) Another example of the truncation function f (V)
以上では、 足切リ関数 f (V)= V ( = V1/2) の場合であるが、 The above is the case of the cut-off function f (V) = V (= V 1/2 ),
f (V) = k · V (14)  f (V) = kV (14)
のような単調増加関数とすることもできる。 ただし、 kは定数である。 A monotonically increasing function such as Here, k is a constant.
(d) 第 1実施例の拡張  (d) Extension of the first embodiment
第 1実施例の軟判定データ発生原理を拡張すれば、 以下のように Bビットデー タを K (<B) ビットデータに変換することができる。 すなわち、 2B(=m) 個 の値をとリ得る Bビッ トの入力データの複数の値を、 2K (=η) 個の値をとリ 得る Κビットの出力データの各値に割リ当てることによリデータ変換する。 この 場合、 入力データの値の平均値から所定の範囲においては、 出力データの 1つの 値に割リ当てる入力データの値の数を等しくする。 このデータ変換によリ得られ たデータは以後ビタビ復号器に入力されてビタビ復号される。 If the soft decision data generation principle of the first embodiment is extended, B bit data can be converted into K (<B) bit data as follows. That is, a plurality of B-bit input data values that can take 2 B (= m) values are divided into 各 -bit output data values that take 2 K (= η) values. Data conversion is performed by hitting. this In this case, within a predetermined range from the average value of the input data values, the number of input data values to be assigned to one output data value is equal. The data obtained by this data conversion is thereafter input to a Viterbi decoder and Viterbi decoded.
(C) 軟判定データ発生の第 2の実施例  (C) Second embodiment of soft decision data generation
(a) 第 2実施例の軟判定データ発生の原理説明  (a) Explanation of the principle of soft decision data generation in the second embodiment
第 2実施例では、 第 1実施例と同様に、 入力データ列の誤リ訂正符号長毎に(6 )~(8)式により入力データレベルの平均値 E 2乗平均値 E 2および分散 Vを演算 する。 又、 2m(=2K)個の軟判定データ Cを In the second embodiment, like the first embodiment, the input data sequence of the error correction code length for each (6) to (8) Average value E 2 mean square value E 2 and the variance V of the input data level by formula Is calculated. Also, 2m (= 2K ) soft decision data C
C={co, Ci c2 c2m - i} c
Figure imgf000015_0001
(i=0, 1, - · -2m-l)
C = {co, Ci c 2 c 2 m-i} c
Figure imgf000015_0001
(i = 0, 1,--2m-l)
と表現する。 Is expressed as
ついで、 図 4に示すように、 平均値 Eを有する入力データに応じた軟判定デー タ C m または cmが、 全ビット "0" の軟判定データ c0から全ビット "1" の軟 判定データ C までの全軟判定データの中央部に位置するようにする。 Next, as shown in FIG. 4, the soft decision data C m or cm corresponding to the input data having the average value E is obtained from the soft decision data c 0 of all bits “0” to the soft decision of all bits “1”. It is located at the center of all soft decision data up to data C.
更に、 分散 Vに基づいて、 中央の 2つの軟判定データ cm cm— ,のレベル範囲 Roo, Roi、 その両側の 2つの軟判定データ cm cm2のレベル範囲 R10 Rn, . . , 以下同様にして、 2つの軟判定データ c 2m c。のレベル範囲 Rm - ο, Rm- を設定する。 ただし、 中央のレベル範囲 R00 R01を第 0レベル 範囲(i=0)、 その両側のレベル範囲 R10 Ruを第 1レベル範囲 (i=l), . . . , 最も外側のレベル範囲 Rm- Rm-,, ,を第 (m-l)レベル範囲( i =m - 1)とすれ ば、 第 i レベル範囲 RiQ R Mの境界レベルを次式 Furthermore, based on the variance V, the center of the two soft decision value c m c m -, level range Roo of, Roi, two soft decision value c m c m on both sides - 2 level range R 10 Rn,. , And so on, two soft decision data c 2m c. Set the level range of R m -ο, R m- . However, the center level range R 00 R 01 is the 0th level range (i = 0), and the level ranges on both sides R 10 Ru are the first level range (i = l),..., The outermost level range R If m -Rm-,,, is the (ml) level range (i = m-1), the boundary level of the i-th level range RiQ RM is
E± f (V i) (15)  E ± f (V i) (15)
によリ決定する。 ここで、 f (V i)は第 i レベル範囲の境界を決定する足切り関 数でぁリ、 次式 Is decided. Where f (V i) is a cut-off function that determines the boundary of the i-th level range, and
f (V i) = {(i + l)/(m-l)} ' · V (16)  f (V i) = {(i + l) / (m-l)} 'V (16)
で与えられる。 mは軟判定データのビット数を Κとすれば、 m = 2K1である。 又 jの具体値としては 2, 3が好適である。 この足切り関数 f (V, i)によリ第 i レベル範囲は平均値 Eから離れる程、 幅広になる。 Given by m is if Κ the number of bits of soft decision data, m = 2 K - 1. As the specific value of j, 2 and 3 are preferable. According to this cut-off function f (V, i), the i-th level range becomes wider as the average value E departs.
以上によリ、 各軟判定データ C Q C l C 2 · · ·,(: を図 4に示す各レベル範囲に 割リ当てることができる。 従って、 入力データレベルがいずれのレベル範囲に含 まれるかによリ軟判定データを決定して出力できる。 As described above, each soft decision data CQ C 1 C 2 · · ·, (: can be assigned to each level range shown in Fig. 4. Therefore, the input data level is included in any level range. It is possible to determine and output soft decision data depending on whether or not it is rare.
以上、 第 2実施例によれば、 平均値 Eと足切リ関数 f (V,i)とにょリ第 i レべ ル範囲を定め、 入力データレベルがいずれのレベル範囲に含まれるかによリ軟判 定データを決定するから、 Bビットの入力データをそのレベルに応じて忠実に K ビッ トの軟判定データに変換することができる。 特に、 各レベル範囲を分散 Vに よリ可変すると共に、 レベル範囲が平均値 Eから離れる程幅広にしているから、 各レベル範囲に含まれる入力データ数を均一にでき、 Bビットの入力データをよ リ忠実に Kビットの軟判定データに変換することができる。  As described above, according to the second embodiment, the i-th level range is determined based on the average value E and the truncation function f (V, i), and the input data level is included in any level range. Since the soft decision data is determined, the B-bit input data can be faithfully converted to K-bit soft decision data according to the level. In particular, since each level range is varied by the variance V, and the level range is widened as it departs from the average value E, the number of input data included in each level range can be made uniform and the B-bit input data can be reduced. It can be faithfully converted to K-bit soft decision data.
(b) 軟判定データ発生のアルゴリズム  (b) Algorithm for generating soft decision data
以下は、 第 2実施例の軟判定データ発生のアルゴリズムあり、 図 5は軟判定デ ータ発生のフローチャートである。 尚、 アルゴリズムにおいて j++は jをインクリ メントすることを意味し、 又、 f (V,-1)=0である。  The following is an algorithm for generating soft decision data according to the second embodiment, and FIG. 5 is a flowchart for generating soft decision data. In the algorithm, j ++ means to increment j, and f (V, -1) = 0.
if (d <E)  if (d <E)
for(j=0;j<m-2;j++)  for (j = 0; j <m-2; j ++)
if (E-f (V, j)<di<E-f (V, j-1)) if (E-f (V, j)) <di <E-f (V, j-1))
Figure imgf000016_0001
Figure imgf000016_0001
end if  end if
else else
Figure imgf000016_0002
Figure imgf000016_0002
end for  end for
else  else
for(j=0;j<m-2;j++)  for (j = 0; j <m-2; j ++)
if (E+f (V, j-l)<di<E+f (V, j)) if (E + f (V, j-l) <di <E + f (V, j))
Figure imgf000016_0003
Figure imgf000016_0003
end i f  end i f
else else
Figure imgf000016_0004
Figure imgf000016_0004
end for  end for
end if 図 5に従って、 軟判定データ発生の処理を説明する。 尚、 誤り訂正符号長を構 成する n個の入力データよリ平均値 E、 分散 Vがすでに求まっており、 又、 n個 の入力データはメモリに記憶されているものとする。 end if The process of generating soft decision data will be described with reference to FIG. It is assumed that the average value E and the variance V have already been determined from the n pieces of input data constituting the error correction code length, and that the n pieces of input data are stored in the memory.
まず、 出力する軟判定データのビッ ト数を Kビッ トするとき、 m = 2K1とする (ステップ 201) 。 ついで、 第 i番目の入力データ d i ( 1の初期値は0) を メモリから取り出し (ステップ 202) 、 j=0とする (ステップ 203) 。 First, the number of bits of soft decision data to output if the K bits, and m = 2 K one 1 (step 201). Next, the i-th input data di (the initial value of 1 is 0) is fetched from the memory (step 202), and j = 0 (step 203).
ついで、 d iと平均値 Eの大小を比較し (ステップ 204) 、 d iく Eであれば jと(m- 2)を比較し(ステップ 205) 、 jく m- 2であれば、 次式  Next, d i is compared with the average value E (step 204). If d i d E, j is compared with (m−2) (step 205). If j m m−2, the following equation is obtained.
E-f (V, j)<di<E-f (V,j-1) (17)  E-f (V, j) <di <E-f (V, j-1) (17)
が成立するかチェックする(ステップ 206) 。 最初 j=0であるから、 次式 Is checked (step 206). Since j = 0 at first,
E-f (V,0)<d,<E-f (V,-l) f (V,-1)=0 (18)  E-f (V, 0) <d, <E-f (V, -l) f (V, -1) = 0 (18)
が成立するかチェックする。 すなわち、 入力データ d iが図 4の領域 R0。に含ま れるかチェックする。 Check whether or not holds. That is, the input data di is the region R 0 in FIG. Check whether it is included.
(17)式が成立すれば、 軟判定データ cm— 』を出力する(ステップ 207) 。 最 初、 j=0であるから、 軟判定データ c™—, (=0111)を出力する。 しかし、 (17)式が 成立しなければ、 jをインクリメントし(ステップ 208) 、 ステップ 205以降 の処理を繰り返す。 一方、 ステップ 205において、 2であれば入力データ レベルはレベル範囲 Rm_ ,内に存在するものとして軟判定データ c。(=0000)を 出力する (ステップ 209) 。 If satisfied (17) is soft decision data c m - "outputs a (step 207). First, since j = 0, soft decision data c ™ —, (= 0111) is output. However, if the expression (17) is not satisfied, j is incremented (step 208), and the processing after step 205 is repeated. On the other hand, in step 205, if it is 2, the input data level is assumed to be within the level range R m _, and the soft decision data c is determined. (= 0000) is output (step 209).
又、 ステップ 204において、 d i≥Eであれば jと(m- 2)を比較し(ステップ 2 10) , j <m- 2であれば、 次式  In step 204, if d i≥E, j is compared with (m−2) (step 2 10). If j <m−2, the following equation is obtained.
E+ f (V, j-lXdi <E+ f (V, j) (19)  E + f (V, j-lXdi <E + f (V, j) (19)
が成立するかチェックする(ステップ 2 1 1) 。 最初 j=0であるから、 次式 It is checked whether or not is satisfied (step 2 1 1). Since j = 0 at first,
E+f (V,-l)<d,<E+f (V,0) f (V,-1)=0 (20)  E + f (V, -l) <d, <E + f (V, 0) f (V, -1) = 0 (20)
が成立するかチェックする。 すなわち、 入力データ d iが図 4の領域 R00に含ま れるかチェックする。 Check whether or not holds. That is, the input data di is checked whether included in the region R 00 of FIG.
(19)式が成立すれば、 軟判定データ cm+jを出力する(ステップ 2 1 2) 。 最初 、 j=0であるから、 軟判定データ cm (= 1000)を出力する。 しかし、 (19)式が成 立しなければ- jをインクリメントし(ステップ 2 1 3) 、 ステップ 2 10以降の 処理を繰り返す。 一方、 ステップ 210において、 j≥m-2であれば、 入力データ レベルはレベル範囲 。内に存在するものとして軟判定データ c (=1111) を出力する (ステップ 214) 。 If the equation (19) holds, the soft decision data cm + j is output (step 2 1 2). First, since j = 0, soft decision data cm (= 1000) is output. However, if equation (19) does not hold, -j is incremented (step 2 13), and Repeat the process. On the other hand, in step 210, if j≥m-2, the input data level is the level range. Then, soft decision data c (= 1111) is output as existing in (step 214).
ステップ 207, 209, 212, 214において軟判定データを出力すれば 、 iをインクリメントし (ステップ 21 5) 、 ついで、 i nであるかチェック し(ステップ 216) 、 「N0」 であれば、 次のデータ d をメモリから読み出して 以降の処理を繰リ返し、 「YES」であれば、 1誤リ訂正符号長単位の n個の入力デ —タの軟判定データ出力を終了する。  If the soft decision data is output in steps 207, 209, 212, and 214, i is incremented (step 215), then it is checked whether it is in (step 216), and if "N0", the next data d is read from the memory, and the subsequent processing is repeated. If “YES”, the soft decision data output of n input data of one error correction code length unit is terminated.
(c) 足切り関数 f (V, i)の別の例  (c) Another example of the truncation function f (V, i)
以上では、 足切リ関数 f (V, i)が次式  In the above, the truncation function f (V, i) is
f (V,i) = {(i + l)/(m - 1)} j · ^TV f (V, i) = {(i + l) / (m-1)} j · ^ TV
で与えられる場合であるが、 Is given by
f (V) = {(i+l)/(m-l)} ' · k'V (21)  f (V) = {(i + l) / (m-l)} 'k'V (21)
とすることもできる。 ただし、 kは定数である。 It can also be. Here, k is a constant.
(d) 第 2実施例の拡張  (d) Extension of the second embodiment
第 2実施例の軟判定データ発生原理を拡張すれば、 以下のように Bビットデー タを K (<B) ビットデータに変換することができる。 すなわち、 2B(=m) 個 の値をとり得る Bビッ トの入力データの複数の値を、 2K (=η) 個の値をとリ 得る Κビットの出力データの各値に割リ当てることによりデータ変換する。 この 場合、 入力データの値の平均値から所定の範囲においては、 出力データの 1つの 値に割リ当てる入力データの値の数が、 その入力データの値と平均値との差が増 大するに従って、 単調増加するように割り当てを行なう。 このデータ変換により 得られたデータは以後ビタビ復号器に入力されてビタビ復号される。 If the soft decision data generation principle of the second embodiment is extended, B bit data can be converted into K (<B) bit data as follows. That is, multiple values of B-bit input data that can take 2 B (= m) values are divided into each value of Κ-bit output data that can take 2 K (= η) values. Data conversion by hitting. In this case, within a predetermined range from the average value of the input data values, the number of input data values allocated to one value of the output data increases the difference between the input data value and the average value. According to, the assignment is made so as to increase monotonically. The data obtained by this data conversion is thereafter input to a Viterbi decoder and Viterbi decoded.
(D) 軟判定データ発生部 (ALC回路) の構成  (D) Configuration of soft decision data generator (ALC circuit)
図 6は本発明の軟判定データ発生部 (ALC回路) 28の構成図であり、 入力 デ一タはデータ送信側でィンタリーブされてレ、るものとする。  FIG. 6 is a block diagram of the soft decision data generator (ALC circuit) 28 of the present invention. It is assumed that input data is interleaved on the data transmitting side.
平均値算出部 51は、 1誤リ訂正符号長を構成する η個の入力データの平均値 Εを(6)式によリ算出し、 分散算出部 52は分散 Vを(7),(8)式によリ算出する。 ALC用の第 1、 第 2のメモリ 53 a, 53 bは 1誤リ訂正符号長を構成する n個 の入力データを交互に記憶し、 一方に書き込んでいるときには他方よリ読み出し て軟判定データ決定部 5 4に入力する。 軟判定データ決定部 5 4は、 平均値 E、 分散 V及び第 1、 第 2のメモリ 5 3 a、 5 3 bに記憶されている 1誤り訂正符号 長を構成する n個の入力データを用いて、 図 3あるいは図 5の処理フローに従つ て軟判定データを決定して出力する。 第 1、 第 2のディンタリーブメモリ 5 5 a , 5 5 bは軟判定データ発生部 2 8から出力する 1誤リ訂正符号長を構成する n 個の軟判定データを交互に記憶し、 一方に書き込んでいるときには他方よリディ ンタリーブ順に軟判定データを読み出してインタリ一ブする前の順番に並び変え て誤リ訂正復号器 (軟判定ビタビ復号器等) 5 6に入力する。 誤り訂正復号器 5 6は入力データに対して復号処理を施して出力する。 The average value calculation unit 51 calculates the average value の of η pieces of input data constituting one error correction code length according to equation (6), and the variance calculation unit 52 calculates the variance V as (7), (8 ) Equation is calculated. The first and second memories 53a and 53b for ALC are composed of n error correction code lengths. The input data is alternately stored, and when one is written, the other is read and input to the soft decision data determination unit 54. The soft decision data decision unit 54 uses the average value E, the variance V, and n pieces of input data constituting one error correction code length stored in the first and second memories 53a and 53b. Then, the soft decision data is determined and output according to the processing flow of FIG. 3 or FIG. The first and second dinterleave memories 55a and 55b alternately store n pieces of soft-decision data constituting one error correction code length output from the soft-decision data generator 28, and When the data is written to the other side, the soft decision data is read out in the order of the reinterleaving, rearranged in the order before interleaving, and input to the error correction decoder (soft decision Viterbi decoder, etc.) 56. The error correction decoder 56 performs a decoding process on the input data and outputs the result.
簡単に動作を説明すると、 第 1のメモリ 5 3 aは最初の 1誤リ訂正符号長を構 成する n個の入力データを記憶し、 平均値算出部 5 1は平均値 Eを計算し、 分散 算出部 5 2は分散 Vを計算する。  Briefly explaining the operation, the first memory 53 a stores n input data constituting the first one error correction code length, the average value calculation unit 51 calculates the average value E, The variance calculation unit 52 calculates the variance V.
しかる後、 軟判定データ決定部 5 4は、 平均値 E、 分散 Vを用いて第 1のメモ リ 5 3 aに記憶されている 1誤リ訂正符号長を構成する n個の入力データを順次 軟判定データに変換して次段のディンタリーブメモリ 5 5 aに書き込む。 以上と 並行して、 第 2のメモリ 5 3 bは、 次の 1誤リ訂正符号長を構成する n個の入力 データを記憶し、 平均値算出部 5 1は平均値 Eを計算し、 分散算出部 5 2は分散 Vを計算する。  Thereafter, the soft-decision data determining unit 54 sequentially uses the average value E and the variance V to sequentially input n pieces of input data constituting one error correction code length stored in the first memory 53 a. The data is converted into soft decision data and written to the next stage memory 55a. In parallel with the above, the second memory 53b stores n input data constituting the following one error correction code length, and the average value calculation unit 51 calculates the average value E, The calculation unit 52 calculates the variance V.
ついで、 軟判定データ決定部 5 4は、 2番目の 1誤り訂正符号長の平均値 E、 分散 Vを用いて第 2のメモリ 5 3 bに記憶されている 1誤リ訂正符号長を構成す る n個の入力データを順次軟判定データに変換して次段のディンタリーブメモリ 5 5 bに書き込む。 以上と並行して、 第 1のメモリ 5 3 aは、 3番目の 1誤リ訂 正符号長を構成する n個の入力データを記憶し、 平均値算出部 5 1は平均値 Eを 計算し、 分散算出部 5 2は分散 Vを計算する。 又、 ディンタリーブ 5 5 aはディ ンタリーブ順に軟判定データを読み出してインタリーブする前の順番に並び変え て誤リ訂正復号器 (軟判定復号器) 5 6に入力し、 誤リ訂正復号器 5 6は入力デ ータに対して復号処理を施して出力する。 以後、 メモ 5 3 a, 5 3 b及びディン タリ一ブメモ 5 5 a, 5 5 bの読みノ書きを 1誤リ訂正符号長毎に交互に切リ替 えて上記動作を繰リ返す。 Next, the soft-decision data determination unit 54 configures the 1 error correction code length stored in the second memory 53 b using the average value E and the variance V of the second 1 error correction code length. The n input data are sequentially converted to soft decision data and written to the next-stage ding leave memory 55b. In parallel with the above, the first memory 53 a stores the n input data constituting the third 1 error correction code length, and the average calculation unit 51 calculates the average E. The variance calculation unit 52 calculates the variance V. In addition, the interleave 55 a reads out the soft decision data in the order of the interleave, rearranges the data in the order before interleaving, inputs the data to the error correction decoder (soft decision decoder) 56, and outputs the error correction decoder 56. The input data is decrypted and output. Thereafter, the read / write of the memos 53a, 53b and the memos 55a, 55b are alternately switched for each error correction code length. And repeat the above operation.
軟判定データ発生部 28は、 DSP (digital signal processor)を用いて、 ある いは、 マイコンを用いて実現することが可能である。  The soft decision data generator 28 can be realized using a DSP (digital signal processor) or using a microcomputer.
図 6は入力データが、 例えばすベて正の場合に適用できるものであるが、 正負 の符号付きの場合には、 図 8に示すようにセパレータ 57と符号ビットメモリ 5 8 a, 58 bを設ける。  Fig. 6 is applicable to the case where the input data is all positive, for example, but if the input data is positive or negative signed, as shown in Fig. 8, the separator 57 and the sign bit memories 58 a and 58 b are used. Provide.
セパレ一タ 57は入力データを符号ビットと振幅ビットに分離し、 符号ビット メモリ 58 a、 58 bは 1誤り訂正符号長毎に交互に符号ビットを記憶し、 一方 に書き込んでいるときには他方よリ読み出して軟判定データ決定部 54に入力す る。  Separator 57 separates the input data into code bits and amplitude bits, and code bit memories 58a and 58b store the code bits alternately for each error correction code length. It is read out and input to the soft decision data decision unit 54.
平均値算出部 5 1は、 1誤リ訂正符号長を構成する n個の振幅データの平均値 Eを(6)式によリ算出し、 分散算出部 52は分散 Vを(7),(8)式によリ算出する。 ALC用の第 1、 第 2のメモリ 53 a, 53 bは 1誤り訂正符号長を構成する n個 の振幅データを交互に記憶し、 一方に書き込んでいるときには他方より読み出し て軟判定データ決定部 54に入力する。  The average value calculation unit 51 calculates the average value E of n pieces of amplitude data constituting one error correction code length according to equation (6), and the variance calculation unit 52 calculates the variance V as (7), ( 8) Calculate using equation. The first and second memories 53a and 53b for ALC alternately store n pieces of amplitude data constituting one error correction code length, and when writing to one, read from the other to make a soft decision data decision section. Enter 54.
軟判定データ決定部 54は、 平均値 E、 分散 V及び第 1、 第 2のメモリ 53 a 、 53 bに記憶されている 1誤リ訂正符号長を構成する n個の振幅データを用い て、 図 3あるいは図 5の処理フローに従って軟判定の振幅データを決定し、 かつ 、 符号ビットメモリ 58 a, 58 bから対応する符号ビットを取リ出して振幅デ ータに付加して軟判定データとして出力する。  The soft decision data determination unit 54 uses the average value E, the variance V, and n pieces of amplitude data constituting one error correction code length stored in the first and second memories 53a and 53b, The soft decision amplitude data is determined according to the processing flow of FIG. 3 or FIG. 5, and the corresponding sign bit is retrieved from the sign bit memories 58a and 58b and added to the amplitude data to produce soft decision data. Output.
(E) 軟判定データ発生部 (ALC回路) の別の構成  (E) Alternative configuration of soft decision data generator (ALC circuit)
図 8は本発明の軟判定データ発生部 (ALC回路) 28の別の構成図で、 図 6 の軟判定データ発生部と同一部分には同一符号を付している。 異なる点は、 FIG. 8 is another block diagram of the soft decision data generator (ALC circuit) 28 of the present invention, and the same parts as those of the soft decision data generator of FIG. The difference is
(1) ディンタリーブメモ 55 a, 55 bを削除し、 第 1、 第 2のメモリ 53 a , 53 bを ALC用/ディンタリーブ用に兼用している点、 (1) Dintale memos 55a and 55b are deleted, and the first and second memories 53a and 53b are used for both ALC and Dental leave.
(2) デインタリーブ順にァドレスを発生するデインタリーブァドレスコント口 ーラ 6 1を設けている点、  (2) A deinterleave address controller 61 that generates addresses in deinterleave order is provided.
(3) 第 1、 第 2のメモリ 53 a, 53 bょリデインタリーブ順に入力データを 読み出してインタリーブする前の順番に並び変えて軟判定データ決定部 54に入 力し、 軟判定データを直接誤り訂正用復号器 5 6に入力している点、 である。 (3) First and second memories 53a, 53b Read input data in the order of de-interleaving, rearrange the input data in the order before interleaving, and enter the soft-decision data determining unit 54. That is, the soft decision data is directly input to the error correction decoder 56.
ディンタリーブ処理と軟判定データ発生処理とをミッタスして行えるため、 メ モリを削減できると共に、 図 6の実施例に比べてディンタリーブに要する処理遅 延を削減することができる。  Since the ding leave processing and the soft decision data generation processing can be performed by using the mittas, the memory can be reduced, and the processing delay required for the ding leave can be reduced as compared with the embodiment of FIG.
図 8は入力データがすべて正の場合に適用できるものであるが、 正負の符号付 きの場合には図 7と同様にセパレータと符号ビットメモリを設ける。  FIG. 8 is applicable to the case where all the input data is positive. However, if the input data is positive or negative, a separator and a sign bit memory are provided as in FIG.
( F ) 効果  (F) Effect
本発明の軟判定データ発生装置 (ALC回路) を用いるによリ、 受信レベルがめ まぐるしく変動する環境でも、 受信レベルを確立統計的な軟判定データへ変換が 容易に行え、 後の誤り訂正復号において高い利得を得ることが出来、 通信品質を 向上することが可能となる。  By using the soft decision data generator (ALC circuit) of the present invention, even in an environment where the reception level fluctuates rapidly, the reception level can be established. It can be easily converted to statistical soft decision data, and error correction can be performed later. A high gain can be obtained in decoding, and communication quality can be improved.
また、 本発明の軟判定データ発生装置 (ALC回路) によリ、 従来よリも最適な 軟判定出力を行えるので、 同一利得を得るために誤り訂正復号における軟判定ビ ット数を減らすことが可能となり受信機のハード規模の減少が可能となる。 又、 軟判定データ発生処理とデインタリーブ処理をミックスして行えるため、 全体の処理時間を短縮できる。  In addition, the soft decision data generator (ALC circuit) of the present invention can output more optimal soft decision than before, so that the number of soft decision bits in error correction decoding can be reduced to obtain the same gain. And the hardware scale of the receiver can be reduced. In addition, since the soft decision data generation processing and the deinterleaving processing can be performed in a mixed manner, the overall processing time can be reduced.
以上、 本発明を実施例にょリ説明したが、 本発明は請求の範囲に記載した本発 明の主旨に従い種々の変形が可能でぁリ、 本発明はこれらを排除するものではな レ、。  As described above, the present invention has been described with reference to the embodiments. However, the present invention can be variously modified in accordance with the gist of the present invention described in the claims, and the present invention does not exclude these.

Claims

請求の範囲 The scope of the claims
1. レベルによリ重み付けされた入力データを該入力データょリビット数が少 ない軟判定データに変換して出力する軟判定データ発生装置において、  1. A soft-decision data generator that converts input data weighted by level into soft-decision data having a small number of bits of the input data and outputs the soft-decision data,
誤リ訂正符号長毎に入力データのレベル平均値 Eを算出する平均値算出部、 該レベル平均値を有する入力データに応じた軟判定データが、 全ビッ ト "1" から全ビット "0" までの全軟判定データの中央部に位置するように変換し、 又 、 平均値両側のレベルを有する入力データをそのレベルに応じた軟判定データに 変換して出力する軟判定データ決定部、  An average calculator for calculating an average level E of input data for each error correction code length; soft-decision data corresponding to input data having the average level is converted from all bits “1” to all bits “0”; A soft-decision data deciding unit that converts the input data having levels on both sides of the average value into soft-decision data corresponding to the level and outputs the data,
を備えたことを特徴とする軟判定データ発生装置。  A soft decision data generator comprising:
2. 請求項 1記載の軟判定データ発生装置において、  2. The soft decision data generator according to claim 1,
該装置は更に、 平均値からの入力データレベルの散らばリ具合を示す分散 Vを 算出する分散算出手段を備え、  The apparatus further includes a variance calculating unit that calculates a variance V indicating a degree of dispersion of the input data level from the average value,
前記軟判定データ決定部は、 算出された分散に基づいて入力データを全ビット "1" の軟判定データに変換する第 1の入力レベル範囲、 入力データを全ビッ ト "0" の軟判定データに変換する第 2の入力レベル範囲を設定し、 第 1、 第 2の レベル範囲に挟まれた第 3のレベル範囲を全ビット "1" 、 全ビット "0" 以外 の残リの全軟判定データに均等割付けし、 入力データをそのレベルが含まれるレ ベル範囲に応じた軟判定データに変換して出力すること、  The soft-decision data determining unit converts the input data into soft-decision data of all bits “1” based on the calculated variance, and converts the input data to soft-decision data of all bits “0”. Set the second input level range to be converted to, and set the third level range sandwiched by the first and second level ranges to all soft bits except for all bits "1" and all bits "0". Assigning evenly to the data, converting the input data to soft-decision data according to the level range that includes that level, and outputting
を特徴とする軟判定データ発生装置。  A soft decision data generator characterized by the above-mentioned.
3. 請求項 2記載の軟判定データ発生装置において、  3. The soft decision data generator according to claim 2,
前記軟判定デ一タ決定部は、 前記第 1、 第 3のレベル範囲の境界レベルを (E-^V) とし、 前記第 2、 第 3のレベル範囲の境界レベルを (E+ V) と すること、 を特徴とする軟判定データ発生装置。  The soft decision data determination unit sets the boundary level between the first and third level ranges to (E- ^ V), and sets the boundary level between the second and third level ranges to (E + V). A soft decision data generator.
4. 請求項 2記載の軟判定データ発生装置において、  4. The soft decision data generator according to claim 2,
前記軟判定データ決定部は、 前記第 1、 第 3のレベル範囲の境界レベルを (E-k - V) とし (ただし、 kは定数) 、 前記第 2、 第 3のレベル範囲の境界 レベルを (E + k · V) とすること、 を特徴とする軟判定データ発生装置。  The soft decision data determination unit sets the boundary level of the first and third level ranges to (Ek−V) (where k is a constant), and sets the boundary level of the second and third level ranges to (Ek−V). + k · V), a soft decision data generator.
5. 請求項 1記載の軟判定データ発生装置において、  5. The soft decision data generator according to claim 1,
該装置は更に、 平均値からの入力データレベルの散らばリ具合を示す分散を算 出する分散算出手段を備え、 The apparatus further calculates a variance, which indicates a scatter of the input data level from the average value. Variance calculation means to output
前記軟判定データ決定部は、 算出された分散に基づいて、 中央の 2つの軟判定 データのレベル範囲、 その両側の 2つの軟判定データのレベル範囲、 以下同様に して全軟判定データのレベル範囲を設定し、 入力データをそのレベルが含まれる レベル範囲に応じた軟判定データに変換して出力すること、  Based on the calculated variance, the soft-decision data determining unit determines the level range of the center two soft-decision data, the level range of the two soft-decision data on both sides, and so on. Setting a range, converting the input data to soft-decision data according to the level range that includes that level, and outputting it.
を特徴とする軟判定データ発生装置。  A soft decision data generator characterized by the above-mentioned.
6. 請求項 5記載の軟判定データ発生装置において、  6. The soft decision data generator according to claim 5,
前記レベル範囲を平均値から離れる程幅広にしたこと、  Widening the level range away from the average value,
を特徴とする軟判定データ発生装置。  A soft decision data generator characterized by the above-mentioned.
7. 請求項 6記載の軟判定データ発生装置において、  7. The soft decision data generator according to claim 6,
中央のレベル範囲を第 0レベル範囲、 その両側のレベル範囲を第 1レベル範囲 とし、 一般に第 jレベル範囲の両側のレベル範囲を第(j+1)レベル範囲とするとき 、 前記軟判定データ決定部は、 第 jレベル範囲の境界レベルを次式  When the central level range is the 0th level range, the level ranges on both sides thereof are the first level range, and the level ranges on both sides of the jth level range are generally the (j + 1) th level range, the soft decision data is determined. The unit calculates the boundary level of the j-th level range as
E土 {(j + l)/(m— 1)} J · V E soil {(j + l) / (m— 1)} J · V
に基づいて決定すること、 To be determined based on
を特徴とする軟判定データ発生装置。  A soft decision data generator characterized by the above-mentioned.
8. 請求項 6記載の軟判定データ発生装置において、  8. The soft decision data generator according to claim 6,
中央のレベル範囲を第 0レベル範囲、 その両側のレベル範囲を第 1レベル範囲 とし、 一般に第 jレベル範囲の両側のレベル範囲を第(j+1)レベル範囲とするとき When the center level range is the 0th level range, the level ranges on both sides are the 1st level range, and the level ranges on both sides of the jth level range are the (j + 1) th level range in general.
、 前記軟判定データ決定部は、 第 jレベル範囲の境界レベルを次式 The soft decision data determination unit calculates the boundary level of the j-th level range as
E±{(j+l)/(m— 1)} j · k · V E ± {(j + l) / (m-1)} j · k · V
に基づいて決定すること (ただし、 Eはレベル平均値、 mは軟判定データの振幅 を Kビットで表現するとすれば、 m=2K—リ 、 (Where E is the average level, and m is the soft-decision data amplitude in K bits, m = 2 K
を特徴とする軟判定データ発生装置。  A soft decision data generator characterized by the above-mentioned.
9. 請求項 2または請求項 5記載の軟判定データ発生装置において、 該装置は更に、 入力データを記憶する記憶部を備え、  9. The soft-decision data generation device according to claim 2 or 5, further comprising a storage unit for storing input data,
前記軟判定データ決定部は、 平均値及び分散算出後に該記憶部よリ 1個づっ入 力データを読み出して軟判定データに変換して出力することを、  The soft decision data determining unit reads out the input data one by one from the storage unit after calculating the average value and the variance, converts the input data into soft decision data, and outputs the data.
特徴とする軟判定データ発生装置。 Characteristic soft decision data generator.
1 0 . 請求項 9記載の軟判定データ発生装置において、 10. The soft decision data generator according to claim 9,
該装置は更に、 ディンタリーブ順にァドレスを発生するディンタリープアドレ ス発生部を備え、  The apparatus further comprises a dint-leaved address generating unit for generating addresses in dint-leaving order,
前記記憶部はィンタリーブされた入力データを記憶し、  The storage unit stores the interleaved input data,
ディンタリーブァドレス発生部はディンタリーブ順にァドレスを発生し、 該ァ ドレスが指示する入力データを前記軟判定データ決定部に入力する、  A dinterly bad address generation unit that generates addresses in a dint leave order, and inputs input data specified by the address to the soft decision data determination unit;
ことを特徴とする軟判定データ発生装置。  A soft-decision data generator.
1 1 . レベルによリ重み付けされた入力データを該入力データよリビット数が 少なレ、軟判定デ一タにして出力する方法において、  1 1. In a method of outputting input data weighted according to level as soft decision data with a smaller number of rebits than the input data,
誤リ訂正符号長毎に入力データのレベル平均値を算出すると共に、 平均値から の入力データレベルの散らばリ具合を示す分散を算出し、  Calculate the average value of the input data level for each error correction code length, and calculate the variance that indicates the degree of variance of the input data level from the average value,
該レベル平均値を有する入力データの軟判定データが、 全ビッ ト " 1 " から全 ビット " 0 " までの全軟判定データの中央部に位置するようにし、 かつ、 分散に 基づいて入力データを全ビット " 1 " の軟判定データに変換する第 1の入カレべ ル範囲、 入力データを全ビット " 0 " の軟判定データに変換する第 2の入カレべ ル範囲を設定し、 更に、 第 1、 第 2のレベル範囲に挟まれた第 3のレベル範囲を 全ビット " 1 " 、 全ビット " 0 " 以外の残リの全軟判定データに均等割付けし、 入力データをそのレベルが含まれるレベル範囲に応じた軟判定データに変換し て出力する、  The soft decision data of the input data having the level average value is located at the center of all the soft decision data from all bits “1” to all bits “0”, and the input data is determined based on the variance. A first input level range for converting soft-decision data of all bits "1" and a second input level range for converting input data to soft-decision data of all bits "0" are set. The third level range sandwiched between the first and second level ranges is equally allocated to all soft decision data except for all bits "1" and all bits "0", and the input data includes that level. To convert to soft decision data according to the level range
ことを特徴とする軟判定データ発生方法。  A soft-decision data generating method, characterized in that:
1 2 . レベルに応じて重み付けされた軟判定入力データを該入力データよリビ ット数が少なレ、軟判定データにして出力する方法において、  1 2. In the method of outputting soft decision input data weighted according to the level as soft decision data with a smaller number of rebits than the input data,
誤リ訂正符号長毎に入力データのレベル平均値を算出すると共に、 平均値から の入力データレベルの散らばリ具合を示す分散を算出し、  Calculate the average value of the input data level for each error correction code length, and calculate the variance that indicates the degree of variance of the input data level from the average value,
該レベル平均値を有する入力データの軟判定データが、 全ビット " 1 " から全 ビット " 0 " までの全軟判定データの中央部に位置するようにし、 かつ、 算出さ れた分散に基づいて、 中央の 2つの軟判定データのレベル範囲、 その両側の 2つ の軟判定データのレベル範囲、 以下同様にして全軟判定データのレベル範囲を設 定し、 The soft decision data of the input data having the level average value is located at the center of all soft decision data from all bits “1” to all bits “0”, and based on the calculated variance. , The level range of the two soft decision data at the center, the level range of the two soft decision data on both sides, and so on. ,
入力データをそのレベルが含まれるレベル範囲に応じた軟判定データに変換し て出力すること、  Converting the input data into soft-decision data corresponding to the level range in which the level is included, and outputting the data;
を特徴とする軟判定データ発生装置。  A soft decision data generator characterized by the above-mentioned.
1 3 . 請求項 1 2記載の軟判定データ発生方法において、  13. The method for generating soft decision data according to claim 12.
前記レベル範囲を平均値から離れる程幅広にしたこと、  Widening the level range away from the average value,
を特徴とする軟判定データ発生方法。  A soft decision data generation method characterized by the above-mentioned.
1 4 . m個の値をとリ得る入力データの複数の値を、 n個 (m > n ) の値をと り得る出力データの各値に割リ当てることによリデータ変換を行なうデータ変換 装置において、  14. Data conversion that performs data conversion by assigning multiple values of input data that can take m values to each value of output data that can take n (m> n) values In the device,
入力データの値の平均値から少なくとも所定の範囲においては、 出力データの 1つの値に割り当てる入力データの値の数が等しくなるように割リ当てを行う調 整手段、  Adjusting means for allocating so that the number of input data values to be assigned to one output data value is equal to at least a predetermined range from the average value of the input data values;
を有することを特徴とするデータ変換装置。  A data conversion device comprising:
1 5 . m個の値をとり得る入力データの複数の値を、 n個 (m > n ) の値をと リ得る出力データの各値に割リ当てることによりデータ変換を行なうデータ変換 装置において、  15. In a data conversion device that performs data conversion by assigning a plurality of values of input data that can take m values to each value of output data that can take n (m> n) values ,
入力データの値の平均値から少なくとも所定の範囲においては、 出力データの 1つの値に割リ当てる入力データの値の数が、 その入力データの値と該平均値と の差が増大するに従って、 単調増加するように割リ当てを行なう調整手段、 を有することを特徵とするデータ変換装置。  In at least a predetermined range from the average value of the input data values, the number of input data values assigned to one value of the output data increases as the difference between the input data value and the average value increases. A data conversion device characterized by comprising adjustment means for performing allocation so as to monotonically increase.
1 6 . 請求項 1 4または請求項 1 5記載のデータ変換装置において、 正負の符号を除いたデータを前記入力データとすることを特徴とするデータ変  16. The data converter according to claim 14 or claim 15, wherein data excluding positive and negative signs is used as the input data.
1 7 . レベルにょリ重み付けされたデータを受信し、 該受信データを用いてビ タビ復号を行うビタビ復号装置において、 1 7. In a Viterbi decoding device that receives data weighted to a level and performs Viterbi decoding using the received data,
受信データのレベル平均値を算出する平均値算出部、  An average value calculation unit for calculating a level average value of received data,
該レベル平均値を有する受信データに応じた軟判定データが、 全ビッ ト " 1 " から全ビット " 0 " までの全軟判定データの中央部に位置するように変換し、 又 、 平均値両側のレベルを有する受信データをそのレベルに応じた軟判定データに 変換して出力する軟判定データ決定部、 The soft decision data corresponding to the received data having the level average value is converted so as to be located at the center of all the soft decision data from all bits “1” to all bits “0”, and A soft decision data determining unit that converts received data having levels on both sides of the average value into soft decision data corresponding to the level and outputs the soft decision data;
該軟判定データを用いてビタビ復号を行うビタビ復号器、  A Viterbi decoder that performs Viterbi decoding using the soft decision data,
を有することを特徴とするビタビ復号装置。 A Viterbi decoding device comprising:
1 8 . レベルにょリ重み付けされたデータを受信し、 該受信データを用いてビ タビ復号を行うビタビ復号装置において、  18. A Viterbi decoding device that receives level-weighted data and performs Viterbi decoding using the received data
m個の値をとり得る受信データの複数の値を、 n個 (m > n ) の値をとリ得る 出力データの各値に割リ当てることによりデータ変換を行なう場合、 受信データ の値の平均値から少なくとも所定の範囲においては、 出力データの 1つの値に変 換される受信データの値の数が等しくなるように割り当てる調整手段、  When data conversion is performed by assigning a plurality of values of received data that can take m values to each value of output data that can take n (m> n) values, Adjusting means for allocating, in at least a predetermined range from the average value, the number of received data values to be converted into one value of the output data,
前記変換後のデータを用いてビタビ復号を行うビタビ復号器、  A Viterbi decoder that performs Viterbi decoding using the converted data,
を有することを特徴とするビタビ復号装置。  A Viterbi decoding device comprising:
1 9 . レベルにょリ重み付けされたデータを受信し、 該受信データを用いてビ タビ復号を行うビタビ復号装置において、  1 9. In a Viterbi decoding device that receives data weighted to a level and performs Viterbi decoding using the received data,
m個の値をとリ得る受信データの複数の値を、 n個 (m > n ) の値をとリ得る 出力データの各値に割リ当てることによリデータ変換を行なう場合、 受信デ一タ の値の平均値から少なくとも所定の範囲においては、 出力データの 1つの値に変 換される入力データの値の数が、 その受信データの値と該平均値との差が増大す るに従って、 単調増加するように割リ当てを行なう調整手段、  When re-data conversion is performed by assigning a plurality of values of received data that can take m values to each value of output data that can take n (m> n) values, In at least a predetermined range from the average value of the data values, the number of input data values converted to one value of the output data increases as the difference between the received data value and the average value increases. Adjustment means for reallocating so as to increase monotonically,
前記変換後のデータを用いてビタビ復号を行うビタビ復号器、  A Viterbi decoder that performs Viterbi decoding using the converted data,
を有することを特徴とするビタビ復号装置。  A Viterbi decoding device comprising:
2 0 . レベルにょリ重み付けされたデータを受信し、 該受信データを用いてビ タビ復号を行う携帯電話装置において、  20. In a mobile phone device that receives data weighted to a level and performs Viterbi decoding using the received data,
受信データのレベル平均値を算出する平均値算出部、  An average value calculation unit for calculating a level average value of received data,
該レベル平均値を有する受信データに応じた軟判定データが、 全ビッ ト " 1 " から全ビット " 0 " までの全軟判定データの中央部に位置するように変換し、 又 、 平均値両側のレベルを有する受信データをそのレベルに応じた軟判定データに 変換して出力する軟判定データ決定部、  The soft decision data corresponding to the received data having the level average value is converted so as to be located at the center of all the soft decision data from all bits “1” to all bits “0”. A soft-decision data determining unit that converts received data having a level of
該軟判定データを用いてビタビ復号を行うビタビ復号器、 を有することを特徴とする携帯電話装置。 A Viterbi decoder that performs Viterbi decoding using the soft decision data, A mobile phone device comprising:
2 1 . レベルにより重み付けされたデータを受信し、 該受信データを用いてビ タビ復号を行う携帯電話装置において、  2 1. In a mobile phone device that receives data weighted by a level and performs Viterbi decoding using the received data,
m個の値をとリ得る受信データの複数の値を、 n個 (m > n ) の値をとリ得る 出力データの各値に割リ当てることによリデータ変換を行なう場合、 受信データ の値の平均値から少なくとも所定の範囲においては、 出力データの 1つの値に変 換される受信データの値の数が等しくなるように割り当てる調整手段、  When performing data conversion by assigning a plurality of values of received data that can obtain m values to each value of output data that can obtain n (m> n) values, Adjusting means for allocating so that the number of values of received data converted to one value of output data is equal to at least a predetermined range from the average value of the values;
前記変換後のデータを用いてビタビ復号を行うビタビ復号器、  A Viterbi decoder that performs Viterbi decoding using the converted data,
を有することを特徴とする携帯電話装置。  A mobile phone device comprising:
2 2 . レベルにょリ重み付けされたデータを受信し、 該受信データを用いてビ タビ復号を行う携帯電話装置において、  2 2. In a mobile phone device that receives data weighted by level and performs Viterbi decoding using the received data,
m個の値をとり得る受信データの複数の値を、 n個 (m〉n ) の値をとリ得る 出力データの各値に割リ当てることによリデータ変換を行なう場合、 受信デ一タ の値の平均値から少なくとも所定の範囲においては、 出力データの 1つの値に変 換される入力データの値の数が、 その受信データの値と該平均値との差が増大す るに従って、 単調増加するように割リ当てを行なう調整手段、  When performing data conversion by assigning a plurality of values of received data that can take m values to each value of output data that can take n (m> n) values, In at least a predetermined range from the average value of the input data values, the number of input data values converted to one output data value increases as the difference between the received data value and the average value increases. Adjustment means for reallocating so as to increase monotonically,
前記変換後のデータを用いてビタビ復号を行うビタビ復号器、  A Viterbi decoder that performs Viterbi decoding using the converted data,
を有することを特徴とする携帯電話装置。  A mobile phone device comprising:
PCT/JP1999/005053 1999-09-17 1999-09-17 Soft decision data creating method and device WO2001022598A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP1999/005053 WO2001022598A1 (en) 1999-09-17 1999-09-17 Soft decision data creating method and device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP1999/005053 WO2001022598A1 (en) 1999-09-17 1999-09-17 Soft decision data creating method and device

Publications (1)

Publication Number Publication Date
WO2001022598A1 true WO2001022598A1 (en) 2001-03-29

Family

ID=14236725

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP1999/005053 WO2001022598A1 (en) 1999-09-17 1999-09-17 Soft decision data creating method and device

Country Status (1)

Country Link
WO (1) WO2001022598A1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003078506A (en) * 2001-08-30 2003-03-14 Mitsubishi Electric Corp Device and method for reducing number of soft judgment processing bit, and receiver
WO2003026239A1 (en) * 2001-09-13 2003-03-27 Mitsubishi Denki Kabushiki Kaisha Optical reception apparatus
EP1383254A1 (en) * 2001-04-27 2004-01-21 Mitsubishi Denki Kabushiki Kaisha Reception apparatus
JP2012151913A (en) * 2012-05-18 2012-08-09 Sumitomo Electric Ind Ltd Soft decision decoding device and soft decision decoding program
WO2017175754A1 (en) * 2016-04-06 2017-10-12 日本電信電話株式会社 Wireless communication system and communication method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS56116350A (en) * 1980-02-19 1981-09-12 Kokusai Denshin Denwa Co Ltd <Kdd> Suprious noise generator for software discrimination demodulation
JPS60249447A (en) * 1984-05-25 1985-12-10 Kokusai Denshin Denwa Co Ltd <Kdd> Soft discrimination demodulating system
JPH05244017A (en) * 1992-02-26 1993-09-21 Mitsubishi Electric Corp Viterbi decoder

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS56116350A (en) * 1980-02-19 1981-09-12 Kokusai Denshin Denwa Co Ltd <Kdd> Suprious noise generator for software discrimination demodulation
JPS60249447A (en) * 1984-05-25 1985-12-10 Kokusai Denshin Denwa Co Ltd <Kdd> Soft discrimination demodulating system
JPH05244017A (en) * 1992-02-26 1993-09-21 Mitsubishi Electric Corp Viterbi decoder

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
YUTAKA YASUDA ET AL.: "THEORETICAL BIT ERROR RATE PERFORMANCE OF SOFT DECISION VITERBI DECODING, Nanhantei viterbi fukugou no riron bit ayamariritsu tokusei", TECHNICAL RESEARCH REPORT, DENSHI TSUUSHIN GAKKAI, vol. 80, no. 122, (CS80-126), 24 September 1980 (1980-09-24), pages 31 - 36, XP002946239 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1383254A1 (en) * 2001-04-27 2004-01-21 Mitsubishi Denki Kabushiki Kaisha Reception apparatus
EP1383254A4 (en) * 2001-04-27 2006-10-04 Mitsubishi Electric Corp Reception apparatus
JP2003078506A (en) * 2001-08-30 2003-03-14 Mitsubishi Electric Corp Device and method for reducing number of soft judgment processing bit, and receiver
JP4652632B2 (en) * 2001-08-30 2011-03-16 三菱電機株式会社 Soft decision processing bit number reduction device, receiver, and soft decision processing bit number reduction method
WO2003026239A1 (en) * 2001-09-13 2003-03-27 Mitsubishi Denki Kabushiki Kaisha Optical reception apparatus
US7239673B2 (en) 2001-09-13 2007-07-03 Mitsubishi Denki Kabashiki Kaisha Optical reception apparatus
JP2012151913A (en) * 2012-05-18 2012-08-09 Sumitomo Electric Ind Ltd Soft decision decoding device and soft decision decoding program
WO2017175754A1 (en) * 2016-04-06 2017-10-12 日本電信電話株式会社 Wireless communication system and communication method
CN108886372A (en) * 2016-04-06 2018-11-23 日本电信电话株式会社 Wireless communication system and communication means
US10404501B2 (en) 2016-04-06 2019-09-03 Nippon Telegraph And Telephone Corporation Wireless communication system and communication method
CN108886372B (en) * 2016-04-06 2022-08-23 日本电信电话株式会社 Wireless communication system and communication method

Similar Documents

Publication Publication Date Title
US11575394B2 (en) Transmitting apparatus and interleaving method thereof
CN1178399C (en) Highly parallel MAP decoder
KR100852083B1 (en) Scaling of demodulated data in an interleaver memory
JP4191485B2 (en) Random access multi-direction CDMA2000 turbo code interleaver
US8069393B2 (en) Method and system for providing long and short block length low density parity check (LDPC) codes
KR101373789B1 (en) Flash memory with coding and signal processing
US6519732B1 (en) Error-correcting encoding apparatus
JP3681759B2 (en) Confidence and frame signal quality detection in soft decision convolution decoder
US20070089027A1 (en) Apparatus and method for transmitting/receiving signal in a communication system using low density parity check code
JP2003528477A (en) Partitioned deinterleaver memory for map decoder
JP2006254466A (en) Apparatus for channel interleaving/deinterleaving in communication system using low density parity check code and control method thereof
WO2001061867A1 (en) Turbo decoder
CN108173621B (en) Data transmission method, transmitting device, receiving device and communication system
KR19980064845A (en) Coding and decoding system using seed check bits
US8194782B2 (en) Grouping bits interleaving apparatus and method thereof
CN101523734A (en) Method and apparatus for turbo encoding
EP1656737A1 (en) Method and apparatus for varying lengths of low density parity check codewords
WO2000064058A1 (en) Encoder and decoder
KR20040075954A (en) Dual chien search blocks in an error-correcting decoder
US20060129902A1 (en) Receiver and signal processing method thereof
CN1483246A (en) Space-efficient turbo decoder
RU2214679C2 (en) Method of quantization for iterative decoder in communication system
US7656973B2 (en) Apparatus and method for receiving broadcasting service in a broadcasting system
WO2008034287A1 (en) An interleaving scheme for an ldpc coded 32apsk system
WO2001022598A1 (en) Soft decision data creating method and device

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): JP US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE

121 Ep: the epo has been informed by wipo that ep was designated in this application
122 Ep: pct application non-entry in european phase
NENP Non-entry into the national phase

Ref country code: JP

Ref document number: 2001525854

Format of ref document f/p: F