WO2024089844A1 - 通信装置、学習装置、通信システム、制御回路、記憶媒体およびステップサイズ更新方法 - Google Patents

通信装置、学習装置、通信システム、制御回路、記憶媒体およびステップサイズ更新方法 Download PDF

Info

Publication number
WO2024089844A1
WO2024089844A1 PCT/JP2022/040183 JP2022040183W WO2024089844A1 WO 2024089844 A1 WO2024089844 A1 WO 2024089844A1 JP 2022040183 W JP2022040183 W JP 2022040183W WO 2024089844 A1 WO2024089844 A1 WO 2024089844A1
Authority
WO
WIPO (PCT)
Prior art keywords
learning
step size
unit
signal
tap coefficient
Prior art date
Application number
PCT/JP2022/040183
Other languages
English (en)
French (fr)
Inventor
学 酒井
明▲徳▼ 平
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to JP2023516268A priority Critical patent/JP7278520B1/ja
Priority to PCT/JP2022/040183 priority patent/WO2024089844A1/ja
Publication of WO2024089844A1 publication Critical patent/WO2024089844A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B3/00Line transmission systems
    • H04B3/02Details
    • H04B3/04Control of transmission; Equalising

Definitions

  • This disclosure relates to a communication device that performs equalization processing, a learning device, a communication system, a control circuit, a storage medium, and a step size update method.
  • Non-Patent Document 1 discloses a technology for updating filter tap coefficients in adaptive equalization using a fixed step size.
  • the method of updating filter tap coefficients using a fixed step size allows the step size to be determined empirically, but there is a problem in that it is difficult to empirically determine the optimal value. It is possible to perform a comprehensive search to determine the optimal step size, but the number of searches can become enormous depending on the number of conditions to be considered and the granularity of the search.
  • the present disclosure has been made in consideration of the above, and aims to obtain a communication device that can adjust the step size of adaptive equalization and reduce errors in adaptive equalization.
  • the communication device of the present disclosure includes a linear equalization unit that linearly equalizes a received signal, a tap coefficient adjustment unit that adjusts tap coefficients used in linear equalization based on a step size, and a step size learning unit that learns the step size.
  • the step size learning unit is characterized by including a plurality of neural network layers that each calculate an updated tap coefficient based on a specified initial tap coefficient or an updated tap coefficient output from a previous stage, a received signal, and a reference signal that is a specified signal sequence, and hold internal parameters used in the calculation, a learning processing unit that learns an error function in learning as a mean square error between a tap coefficient based on a least squares solution calculated from the received signal and the reference signal and an updated tap coefficient output from the last stage of the plurality of neural network layers, and updates the internal parameters, and an internal parameter collection unit that updates the step size based on internal parameters collected from the plurality of neural network layers.
  • the communication device has the effect of being able to adjust the step size of adaptive equalization and reduce errors in adaptive equalization.
  • FIG. 1 is a diagram showing a configuration example of a communication device according to a first embodiment
  • FIG. 1 is a diagram showing a configuration example of a transmission/reception processing unit included in a communication device according to a first embodiment
  • FIG. 1 is a diagram showing a configuration example of a reception processing unit included in a transmission/reception processing unit according to a first embodiment
  • FIG. 1 is a diagram showing a configuration example of an equalization processing unit included in a reception processing unit according to a first embodiment
  • FIG. 1 is a diagram showing an example of the configuration of a linear equalization unit included in an equalization processing unit according to a first embodiment
  • FIG. 1 is a diagram showing a configuration example of a tap coefficient adjustment unit included in an equalization processing unit according to a first embodiment
  • FIG. 1 is a diagram showing an example of the configuration of a step size learning unit included in an equalization processing unit according to a first embodiment
  • FIG. 1 is a diagram showing an example of the configuration of a Neural Network (NN) layer provided in a step size learning unit according to the first embodiment
  • FIG. 13 is a diagram showing a configuration example of a step size learning unit included in an equalization processing unit according to a third embodiment
  • FIG. 13 is a diagram showing a configuration example of a reception processing unit included in a transmission/reception processing unit according to a fifth embodiment
  • FIG. 13 is a diagram showing a configuration example of an equalization processing unit included in a reception processing unit according to a fifth embodiment
  • FIG. 23 is a diagram showing a configuration example of a tap coefficient adjustment unit included in an equalization processing unit according to a sixth embodiment
  • FIG. 23 is a diagram showing an example of the configuration of an NN layer included in a step size learning unit according to the sixth embodiment
  • FIG. 23 is a diagram showing a configuration example of a linear equalization unit included in an equalization processing unit according to a seventh embodiment
  • FIG. 13 is a diagram showing a configuration example of a communication device according to an eighth embodiment.
  • FIG. 23 is a diagram showing a configuration example of a transmission/reception processing unit included in a communication device according to an eighth embodiment
  • FIG. 23 is a diagram showing a configuration example of a reception processing unit included in a transmission/reception processing unit according to an eighth embodiment
  • FIG. 23 is a diagram showing a configuration example of an equalization processing unit included in a reception processing unit according to an eighth embodiment
  • FIG. 13 is a diagram showing a configuration example of a communication device according to a ninth embodiment
  • FIG. 23 is a diagram showing a configuration example of an equalization processing unit included in a reception processing unit according to a tenth embodiment
  • FIG. 23 is a diagram showing an example of the configuration of an NN layer included in a step size learning unit of a learning device according to a tenth embodiment.
  • FIG. 23 is a diagram showing a configuration example of a communication system in which federated learning is performed by M communication devices according to an eleventh embodiment; 12 is a flowchart showing the operation of a communication device according to a twelfth embodiment.
  • FIG. 23 is a diagram showing a configuration example of a processing circuit for implementing a communication device according to a twelfth embodiment when the processing circuit is implemented by a processor and a memory.
  • FIG. 23 is a diagram showing an example of a processing circuit for implementing a communication device according to a twelfth embodiment when the processing circuit is configured with dedicated hardware.
  • Fig. 1 is a diagram showing an example of the configuration of a communication device 100-1 according to the first embodiment.
  • the communication device 100-1 includes a transmission/reception processing unit 101 and a control unit 102 that controls the transmission/reception processing unit 101.
  • Fig. 1 also shows a communication device 100-2 that is a communication partner of the communication device 100-1.
  • the configuration of the communication device 100-2 may be the same as that of the communication device 100-1, or may be different from that of the communication device 100-1.
  • FIG. 2 is a diagram showing an example of the configuration of the transmission/reception processing unit 101 provided in the communication device 100-1 according to the first embodiment.
  • the transmission/reception processing unit 101 includes a transmission processing unit 201 and a reception processing unit 203.
  • the transmission processing unit 201 transmits a transmission signal 202 to the communication device 100-2, and the reception processing unit 203 receives a reception signal 204 from the communication device 100-2.
  • FIG. 3 is a diagram showing an example of the configuration of the reception processing unit 203 provided in the transmission/reception processing unit 101 according to embodiment 1.
  • the reception processing unit 203 includes a pre-equalization processing unit 301, an equalization processing unit 303, a post-equalization processing unit 305, and a reference signal generating unit 306.
  • FIG. 4 is a diagram showing an example of the configuration of the equalization processing unit 303 provided in the reception processing unit 203 according to the first embodiment.
  • the equalization processing unit 303 includes a linear equalization unit 401, a tap coefficient adjustment unit 402, a step size learning unit 404, and an input destination control unit 406.
  • FIG. 5 is a diagram showing an example of the configuration of the linear equalization unit 401 provided in the equalization processing unit 303 according to the first embodiment.
  • the linear equalization unit 401 has a transversal filter structure.
  • the linear equalization unit 401 includes L-1 delay elements 501-1 to 501-L-1, L multipliers 502-1 to 502-L, a coefficient distributor 503, and an adder 506.
  • L which determines the number of delay elements 501-1 to 501-L-1 and the number of multipliers 502-1 to 502-L, can be freely set according to the communication performance desired by the communication device 100-1, etc.
  • FIG. 6 is a diagram showing an example of the configuration of the tap coefficient adjustment unit 402 provided in the equalization processing unit 303 according to the first embodiment.
  • the tap coefficient adjustment unit 402 adjusts the tap coefficients 403 of the adaptive equalization performed in the equalization processing unit 303.
  • the tap coefficient adjustment unit 402 includes L-1 delay elements 601-1 to 601-L-1, L multipliers 602-1 to 602-L, a coefficient distributor 603, an adder 606, a subtractor 608, and a tap coefficient update unit 610.
  • FIG. 7 is a diagram showing an example of the configuration of the step size learning unit 404 provided in the equalization processing unit 303 according to the first embodiment.
  • the step size learning unit 404 has multiple NN layers, i.e. multiple neural network layers, and calculates the step size 405 of the adaptive equalization performed in the equalization processing unit 303.
  • the step size learning unit 404 has an internal parameter collection unit 700, an NN control unit 701, a deep NN unit 705 having K NN layers 704-1 to 704-K, and a learning processing unit 708.
  • the number K of NN layers 704-1 to 704-K can be freely set depending on the communication performance desired by the communication device 100-1.
  • FIG. 8 is a diagram showing an example of the configuration of NN layer 704-k provided in step size learning unit 404 according to embodiment 1.
  • k is an integer from 1 to K.
  • NN layer 704-k is used when learning step size 405 of adaptive equalization performed by equalization processing unit 303.
  • NN layer 704-k includes inner product calculator 800, subtractor 802, multipliers 804 and 806, adder 808, and internal parameter holding unit 809-k.
  • transmission/reception processing unit 101 performs transmission and reception processing in communication with communication device 100-2 under the control of control unit 102.
  • transmission processing unit 201 transmits transmission signal 202 to communication device 100-2, and reception processing unit 203 receives reception signal 204 from communication device 100-2.
  • the pre-equalization processing unit 301 performs necessary signal processing on the received signal 204 before the equalization processing in the equalization processing unit 303, i.e., before equalization, and outputs the pre-equalization signal 302 to the equalization processing unit 303.
  • the signal processing required before equalization may be any method that outputs the pre-equalization signal 302 suitable for processing in the equalization processing unit 303, such as correction of circuit mismatch in the transceiver, correction of Doppler shift, frequency conversion, analog-to-digital conversion, sampling rate conversion, level adjustment, etc.
  • the transceiver here refers to the communication device 100-1.
  • circuit mismatch in the transceiver examples include carrier frequency offset, frequency deviation, phase noise, and amplifier nonlinearity.
  • Frequency conversion is, for example, down-conversion.
  • Sampling rate conversion is, for example, upsampling, downsampling, etc.
  • Level adjustment is, for example, amplification, attenuation, etc.
  • the reference signal generating unit 306 outputs a predefined signal sequence, for example a pilot signal, to the equalization processing unit 303 as a reference signal 307.
  • the predefined signal sequence may be, for example, a PN (Pseudorandom Noise) sequence, a Gold sequence, an M sequence, a ZC (Zadoff-Chu) sequence, or any other sequence suitable for processing in the equalization processing unit 303.
  • the equalization processing unit 303 obtains the pre-equalization signal 302 from the pre-equalization processing unit 301, obtains the reference signal 307 from the reference signal generating unit 306, performs a prescribed process using the pre-equalization signal 302 and the reference signal 307, and then outputs the post-equalization signal 304 to the post-equalization processing unit 305.
  • the prescribed process in the equalization processing unit 303 will be described later.
  • the post-equalization processing unit 305 acquires the equalized signal 304 from the equalization processing unit 303, and performs processing on the equalized signal 304 that is necessary after the equalization processing in the equalization processing unit 303, i.e., after equalization.
  • Processing necessary after equalization includes, for example, sampling rate conversion, level adjustment, symbol determination, error correction, etc.
  • Sampling rate conversion includes, for example, upsampling, downsampling, etc.
  • Level adjustment includes, for example, amplification, attenuation, etc.
  • the input destination control unit 406 has three internal states: a linear equalization phase, a tap coefficient adjustment phase, and a learning phase, and distributes and outputs the pre-equalization signal 302 acquired from the pre-equalization processing unit 301 as an equalization unit input signal 407-1, a tap adjustment signal 407-2, and a learning signal 407-3 according to each phase.
  • the input destination control unit 406 outputs the pre-equalization signal 302 to the linear equalization unit 401 as an equalization unit input signal 407-1 in the time range in which a data signal is received.
  • the input destination control unit 406 outputs the pre-equalization signal 302 to the tap coefficient adjustment unit 402 as a tap adjustment signal 407-2 in the time range in which a known series such as a preamble is received. Also, the input destination control unit 406 outputs the pre-equalization signal 302 to the step size learning unit 404 as a learning signal 407-3 in the time range in which learning data is received. As mentioned above, when the pre-equalization signal 302 is the received signal 204, the equalization unit input signal 407-1, the tap adjustment signal 407-2, and the learning signal 407-3 are also the received signal 204. The same applies to the equalization processing unit described below.
  • the input destination control unit 406 outputs the pre-equalization signal 302 to two locations simultaneously, outputting it as tap adjustment signal 407-2 to the tap coefficient adjustment unit 402 and as learning signal 407-3 to the step size learning unit 404.
  • the equalization processing unit 303 may learn the step size 405 while adjusting the tap coefficient 403.
  • the reception processing unit 203 does not have a pre-equalization processing unit 301, the equalization unit input signal 407-1, tap adjustment signal 407-2, and learning signal 407-3 are the same as the reception signal 204.
  • the linear equalizer 401 linearly equalizes the equalizer input signal 407-1, i.e., the pre-equalization signal 302, using the tap coefficient 403 acquired from the tap coefficient adjustment unit 402.
  • the delay element 501-1 delays the equalizer input signal 407-1 acquired from the input destination control unit 406 by one specified time and outputs it as a signal 500-1.
  • one specified time is a value that can be set based on, for example, the clock period and sampling period of the circuit of the equalization processing unit 303.
  • the delay element 501-2 delays the signal 500-1 by one specified time and outputs it as a signal 500-2
  • the delay element 501-L-1 delays the signal 500-L-2 by one specified time and outputs it as a signal 500-L-1.
  • the operations of the L-1 delay elements 501-1 to 501-L-1 are all similar.
  • the coefficient distributor 503 distributes the tap coefficients 403 acquired from the tap coefficient adjustment unit 402 so that they are assigned to the multipliers 502-1 to 502-L, and outputs them as tap coefficients 504-1 to 504-L.
  • the multipliers 502-1 to 502-L perform complex conjugate multiplication of the equalization unit input signal 407-1 and the signals 500-1 to 500-L-1 with the tap coefficients 504-1 to 504-L, respectively, and output them as signals 505-1 to 505-L. Complex conjugate multiplication will be specifically explained using the multiplier 502-1 as an example. If the equalization unit input signal 407-1 is X, the tap coefficient 504-1 is W, and the signal 505-1 is Y, the complex conjugate multiplication follows the formula (1). Here, (W*) is the complex conjugate of W.
  • the adder 506 calculates the sum of the signals 505-1 to 505-L and outputs it as the equalized signal 304.
  • the tap coefficient adjustment unit 402 adjusts the tap coefficient 403 used in the linear equalization of the linear equalization unit 401 based on the step size 405 acquired from the step size learning unit 404.
  • the delay element 601-1 delays the tap adjustment signal 407-2 acquired from the input destination control unit 406 by one specified time and outputs it as a signal 600-1.
  • one specified time is a value that can be set based on, for example, the clock period and sampling period of the circuit of the equalization processing unit 303.
  • the delay element 601-2 delays the signal 600-1 by one specified time and outputs it as a signal 600-2
  • the delay element 601-L-1 delays the signal 600-L-2 by one specified time and outputs it as a signal 600-L-1.
  • the operations of the L-1 delay elements 601-1 to 601-L-1 are all similar.
  • the coefficient distributor 603 distributes the updated tap coefficient 611 obtained from the tap coefficient update unit 610 so as to be assigned to the multipliers 602-1 to 602-L, and outputs it as tap coefficients 604-1 to 604-L.
  • the multipliers 602-1 to 602-L perform complex conjugate multiplication of the tap adjustment signal 407-2 and the signals 600-1 to 600-L-1 with the tap coefficients 604-1 to 604-L, respectively, and output it as signals 605-1 to 605-L.
  • the complex conjugate multiplication process in the tap coefficient adjustment unit 402 is the same as the complex conjugate multiplication process in the linear equalization unit 401 described above.
  • the adder 606 calculates the sum of the signals 605-1 to 605-L, and outputs it as signal 607.
  • the subtractor 608 subtracts the signal 607 from the reference signal 307, and outputs it as signal 609.
  • the tap coefficient update unit 610 holds a "predefined initial tap coefficient", and when processing starts, holds the "predefined initial tap coefficient” internally as the current tap coefficient and outputs it as an updated tap coefficient 611.
  • the tap coefficient update unit 610 acquires the tap adjustment signal 407-2 from the input destination control unit 406, it starts the process of holding the tap adjustment signal 407-2 and holds it internally for the L specified time.
  • the process of holding the tap adjustment signal 407-2 in the tap coefficient update unit 610 is a FIFO (First-Input First-Output) process, and the first tap adjustment signal 407-2 is erased at the next timing after the L specified time has been acquired.
  • the tap coefficient update unit 610 calculates the next tap coefficient using the tap adjustment signal 407-2 held internally for the L specified time, the signal 609 acquired from the subtractor 608, the step size 405 acquired from the step size learning unit 404, and the current tap coefficient held internally. If the lth signal of the tap adjustment signal 407-2 that the tap coefficient update unit 610 holds internally for the L specified time is Y(l), the signal 609 is E, the step size 405 is ⁇ , the lth component of the current tap coefficient is W(l), and the next tap coefficient is V(l), then the relationship between them follows equation (2).
  • (E*) indicates the complex conjugate of E.
  • the tap coefficient update unit 610 outputs the next tap coefficient as the updated tap coefficient 611, and replaces the current tap coefficient with the next tap coefficient.
  • the tap coefficient adjustment unit 402 repeats this series of processes K times.
  • K is a value that is specified in advance based on the length of the reference signal 307, etc., and can be set freely.
  • V(l) W(l) + ( ⁇ x Y(l) x (E*)) ...
  • the step size learning unit 404 learns the step size 405 and outputs it to the tap coefficient adjustment unit 402.
  • the NN control unit 701 outputs a combination of the learning signals C(i+k), C(i+k-1), C(i+k-2), ..., C(i+k-L+1) and the reference signal D(k) to the NN layer 704-k as the kth layer data set 702-k, where i is the index of the learning signal 407-3 at the time of starting learning, C(i) is the i-th learning signal 407-3, and D(k) is the k-th reference signal 307.
  • the NN control unit 701 outputs the "predefined initial tap coefficient" to the NN layer 704-1 as the initial tap coefficient 703.
  • the "predefined initial tap coefficient” is assumed to be the same value as the "predefined initial tap coefficient” held in the tap coefficient adjustment unit 402.
  • the NN control unit 701 outputs layer data sets 702-1 to 702-K to the NN layers 704-1 to 704-K.
  • the learning processing unit 708 outputs the initial values of the predefined internal parameters 810 to the neural network layers 704-1 to 704-K as update parameters 709-1 to 709-K.
  • the deep NN unit 705 is a multi-layer neural network composed of NN layers 704-1 to 704-K.
  • the kth NN layer 704-k calculates the inner product of the signal 706-k-1 from the previous NN layer 704-k-1 and the learning signals C(i+k), C(i+k-1), ..., C(i+k-L+1) from the layer data set 702-k using the inner product calculator 800 shown in Figure 8 to obtain a signal 801.
  • the processing of the inner product calculator 800 follows formula (3).
  • (P(j)*) indicates the complex conjugate of P(j).
  • Subtractor 802 subtracts signal 801 from reference signal D(k) in layer data set 702-k and outputs the result as signal 803.
  • Multiplier 804 performs complex conjugate multiplication of training signals C(i+k), C(i+k-1), ..., C(i+k-L+1) from layer data set 702-k by signal 803, and outputs the result as signal 805. If signal 803 is A and the j-th component of signal 805 is B(j), the processing of multiplier 804 follows equation (4).
  • Multiplier 806 outputs the multiplication result of internal parameter 810 acquired from internal parameter storage unit 809-k and signal 805 as signal 807. If internal parameter 810 is ⁇ , the j-th component of signal 805 is B(j), and the j-th component of signal 807 is U(j), the processing of multiplier 806 follows equation (5).
  • Adder 808 outputs the result of adding signal 706-k-1 and signal 807 as signal 706-k. If signal 706-k-1 is P(j), the jth component of signal 807 is U(j), and signal 706-k is Q(j), the processing of adder 808 follows equation (6).
  • the NN layers 704-1 to 704-K output signals 706-1 to 706-K-1 through the above processing, and the final NN layer 704-K outputs the NN output 706-K through the above processing.
  • the internal parameter storage unit 809-k stores the internal parameters 810 to be learned, and when it acquires the update parameters 709-k from the learning processing unit 708, it updates the stored internal parameters 810 to the update parameters 709-k.
  • the NN control unit 701 outputs a combination of the training signals C(i+K), C(i+K-1), C(i+K-2), ..., C(i-L+1) and the reference signals D(0), D(1), ..., D(K-1) as the target data set 714.
  • the learning processing unit 708 uses the target data set 714 to calculate the data vector c according to equation (7), where " ⁇ T" indicates transposition.
  • the learning processing unit 708 calculates the correlation matrix R and the correlation vector r using the data vector c and the reference signals D(0), D(1), ..., D(K-1) according to equations (8) and (9).
  • the learning processing unit 708 calculates the target tap coefficient vector u from the correlation matrix R and the correlation vector r according to equation (10).
  • ⁇ (-1) indicates an inverse matrix operation.
  • the target tap coefficient vector u is a least square (LS) solution that can be calculated using the target data set 714.
  • the learning processing unit 708 learns the internal parameters 810 held by the internal parameter holding units 809-1 to 809-K in each NN layer 704-1 to 704-K of the deep NN unit 705, using the mean square error (MSE) between the target tap coefficient vector u and the NN output 706-K as an error function.
  • MSE mean square error
  • the learning processing unit 708 outputs update parameters 709-1 to 709-K and updates the internal parameters 810 held by the internal parameter holding units 809-1 to 809-K.
  • the learning processing unit 708 learns the internal parameters 810, for example, by the stochastic gradient descent method and the error backpropagation method.
  • the internal parameter collection unit 700 After the internal parameter collection unit 700 meets the predetermined learning termination condition, it collects the internal parameters 810 in the NN layers 704-1 to 704-K as the layer step sizes 707-1 to 707-K, and outputs them as the step size 405.
  • the NN layers 704-1 to 704-K each calculate an updated tap coefficient based on the specified initial tap coefficient 703 or the signal 706-k-1, which is the updated tap coefficient output from the previous NN layer 704-k-1, the pre-equalization signal 302, which is the learning signal 407-3 included in the layer data set 702-k, and the reference signal 307, which is the specified signal sequence included in the layer data set 702-k, and hold the internal parameters 810 used in the calculation.
  • the learning processing unit 708 learns the error function in learning as the mean square error between the tap coefficient based on the least square solution calculated from the pre-equalization signal 302, which is the learning signal 407-3, and the reference signal 307, and the NN output 706-K, which is the updated tap coefficient output from the NN layer 704-K, which is the last stage of the NN layers 704-1 to 704-K, and updates the internal parameters 810.
  • the internal parameter collection unit 700 updates the step size 405 based on the layer step sizes 707-1 to 707-K, which are the internal parameters 810 collected from the NN layers 704-1 to 704-K.
  • the equalization processing unit 303 of the reception processing unit 203 can adjust the tap coefficients 403 to the optimum value even when the number of updates of the tap coefficients 403 is restricted to K times by the step size learning unit 404 learning the step size 405 for updating the tap coefficients 403, and can minimize errors in the equalization process. Also, in the equalization processing unit 303, the step size learning unit 404 can prevent deterioration of the convergence characteristics during learning by setting the error function in learning to the MSE between the target tap coefficient vector u of the NN output 706-K, which is the LS estimated solution, and the NN output 706-K. The equalization processing unit 303 can adjust the step size 405 of adaptive equalization to reduce errors in adaptive equalization.
  • the learning of the deep NN unit 705 in the step-size learning unit 404 is performed by the stochastic gradient descent method and the backpropagation method, but any method can be used as long as it can learn a multilayer neural network.
  • the step-size learning unit 404 may use AdaGrad, momentum, or the like instead of the stochastic gradient descent method for learning the deep NN unit 705, or may perform learning using mini-batches.
  • the step size learning unit 404 has flexibility in the learning method, and can adjust the learning method to improve learning performance or reduce the computational load during learning.
  • Embodiment 3 the learning of the deep NN unit 705 in the step size learning unit 404 is a learning of all layers at once.
  • the third embodiment a case such as incremental learning in which learning is performed while increasing the NN layers 704-1 to 704-K one by one will be described.
  • FIG. 9 is a diagram showing an example of the configuration of the step-size learning unit 404 provided in the equalization processing unit 303 according to the third embodiment.
  • the step-size learning unit 404 includes an internal parameter collection unit 900, an NN control unit 901, a deep NN unit 905 including K NN layers 904-1 to 904-K and K-1 switches 906-1 to 906-K-1, and a learning processing unit 910.
  • the number K of NN layers 904-1 to 904-K can be freely set according to the communication performance desired by the communication device 100-1, etc.
  • the NN control unit 901 outputs layer data sets 902-1 to 902-K and outputs initial tap coefficients 903, similar to the processing of the NN control unit 701 in embodiment 1.
  • the learning processing unit 910 outputs the initial values of the internal parameters 810, which have been defined in advance, as update parameters 911-1 to 911-K.
  • the learning processing unit 910 also outputs SW control signals 912-1 to 912-K-1 to switches 906-1 to 906-K-1 as meaningless.
  • Switches 906-1 to 906-K-1 are switches that change the output destination of signals 907-1 to 907-K-1 obtained from NN layers 904-1 to 904-K-1, i.e., input signals. Switches 906-1 to 906-K-1 output the input signals as signals 908-1 to 908-K-1 when SW control signals 912-1 to 912-K-1 obtained from the learning processing unit 910 are significant, and output the input signals as signals 909-1 to 909-K-1 when SW control signals 912-1 to 912-K-1 are insignificant.
  • the deep NN unit 905 is a multi-layer neural network composed of NN layers 904-1 to 904-K.
  • the operation of each NN layer 904-1 to 904-K is the same as that of the NN layer 704-k in the first embodiment.
  • the NN layers 904-1 to 904-K output signals 907-1 to 907-K-1 to the switches 906-1 to 906-K-1.
  • the last NN layer 904-K of the NN layers 904-1 to 904-K outputs an NN output 907-K to the learning processing unit 910.
  • the output process of the target data set 914 in the NN control unit 901 is similar to the output process of the target data set 714 in the NN control unit 701 in embodiment 1. Furthermore, the learning in the learning processing unit 910 is similar to the learning in the learning processing unit 708 in embodiment 1, but since the only enabled NN layer is the NN layer 904-1, the learning processing unit 910 learns only the internal parameters 810 held in the internal parameter holding unit 809-1 of the NN layer 904-1. When updating the internal parameters 810 of the NN layer 904-1 in learning, the learning processing unit 910 outputs update parameters 911-1 to the NN layer 904-1, and updates the internal parameters 810 held in the internal parameter holding unit 809-1.
  • the learning processing unit 910 After satisfying a predetermined end condition of the individual learning of the incremental learning, the learning processing unit 910 makes SW control signal 912-1 significant and SW control signals 912-2 to 912-K-1 insignificant, and repeats the process from outputting the target data set 914 in the NN control unit 901 to learning in the learning processing unit 910. After satisfying a predetermined end condition of the individual learning of the incremental learning, the learning processing unit 910 makes SW control signals 912-1 and 912-2 significant and SW control signals 912-3 to 912-K-1 insignificant, and repeats the process from outputting the target data set 914 in the NN control unit 901 to learning in the learning processing unit 910.
  • the learning processing unit 910 makes SW control signals 912-3 and onwards significant one by one, and repeats the process from outputting the target data set 914 in the NN control unit 901 to learning in the learning processing unit 910.
  • the internal parameter collection unit 900 collects the internal parameters 810 in the NN layers 904-1 to 904-K as the layer step sizes 913-1 to 913-K, and outputs them as the step size 405.
  • the step size learning unit 404 learns the step size 405 by incremental learning. By adding NN layers 904-k one layer at a time during learning, the step size learning unit 404 can prevent overlearning that occurs when learning a deep NN layer all at once.
  • the step size learning unit 404 realizes the process of adding the NN layer 904-k one layer at a time during incremental learning by using the switches 906-1 to 906-K-1 and the SW control signals 912-1 to 912-K-1, but as long as a similar process is possible, any means for realizing the process is acceptable.
  • the learning processing unit 910 may set the update parameter 911-k output to the NN layer 904-k to be disabled to 0.
  • the step size learning unit 404 controls the enable/disable of the NN layer 904-k using only the value of the update parameter 911-k, thereby reducing the number of switches 906-1 to 906-K-1, suppressing the circuit size, and mitigating the processing load.
  • Embodiment 5 the reference signal 307 is used in adjusting the tap coefficient 403, learning the step size 405, etc.
  • a fifth embodiment a case will be described in which the equalized signal is used for adjusting the tap coefficient, learning the step size, etc., when a signal equivalent to the reference signal can be generated based on the equalized signal.
  • FIG. 10 is a diagram showing an example of the configuration of the reception processing unit 203 provided in the transmission/reception processing unit 101 according to embodiment 5.
  • the reception processing unit 203 includes a pre-equalization processing unit 1000, an equalization processing unit 1002, a post-equalization processing unit 1004, and a reference signal generating unit 1006.
  • FIG. 11 is a diagram showing an example of the configuration of the equalization processing unit 1002 provided in the reception processing unit 203 according to embodiment 5.
  • the equalization processing unit 1002 includes a linear equalization unit 1101, a tap coefficient adjustment unit 1102, a step size learning unit 1104, and an input signal storage memory 1106.
  • the pre-equalization processing unit 1000 performs pre-equalization processing on the received signal 204 and outputs the pre-equalization signal 1001.
  • the processing of the pre-equalization processing unit 1000 is similar to the processing of the pre-equalization processing unit 301 in embodiment 1.
  • the post-equalization processing unit 1004 acquires the post-equalization signal 1003 from the equalization processing unit 1002, and performs processing required after equalization, such as sampling rate conversion, level adjustment, symbol decision, error correction, etc., and outputs hard decision bit information, soft decision bit information, bit information after error correction, etc. as post-information 1005 to the reference signal generation unit 1006.
  • the sampling rate conversion is, for example, upsampling, downsampling, etc.
  • the level adjustment is, for example, amplification, attenuation, etc.
  • the reference signal generation unit 1006 generates a reference signal 1007 based on the post-information 1005 acquired from the post-equalization processing unit 1004.
  • the reference signal generating unit 1006 reconstructs data symbols from, for example, hard decision bit information, soft decision bit information, bit information after error correction, etc., and outputs the reconstructed data symbols as a reference signal 1007.
  • the post-equalization processing unit 1004 performs post-equalization processing on the post-equalization signal 1003 obtained by linearly equalizing the pre-equalization signal 1001 by the equalization processing unit 1002.
  • the reference signal generating unit 1006 generates the reference signal 1007 based on the posterior information 1005 obtained by the post-equalization processing of the post-equalization processing unit 1004.
  • the pre-equalization signal 1001 acquired from the pre-equalization processing unit 1000 is input to the linear equalization unit 1101 and the input signal storage memory 1106.
  • the input signal storage memory 1106 accumulates the pre-equalization signal 1001, and outputs the pre-equalization signal 1001 accumulated at the time corresponding to the reference signal 1007 as the tap adjustment signal 1107-2 and the learning signal 1107-3.
  • the tap coefficient adjustment unit 1102 and the step size learning unit 1104 perform the same processing as the tap coefficient adjustment unit 402 and the step size learning unit 404 in the first to fourth embodiments.
  • the step size learning unit 1104 learns the step size 1105 based on the learning signal 1107-3 and the reference signal 1007.
  • the tap coefficient adjustment unit 1102 adjusts the tap coefficient 1103 based on the tap adjustment signal 1107-2, the reference signal 1007, and the step size 1105.
  • the linear equalization unit 1101 performs linear equalization on the pre-equalization signal 1001 using the tap coefficients 1103, and outputs the equalized signal 1003.
  • the receiving processing unit 203 utilizes the pre-equalization signal 1001 to generate the reference signal 1007, which eliminates the need to include a predefined signal sequence in the transmission signal 202, thereby improving the transmission rate.
  • Embodiment 6 LMS is used to update the tap coefficients.
  • various adaptive algorithms such as Normalized LMS (NLMS), Affine Projection Algorithm (APA), and Recursive Least Squares (RLS) are used to update the tap coefficients.
  • NLMS Normalized LMS
  • APA Affine Projection Algorithm
  • RLS Recursive Least Squares
  • FIG. 12 is a diagram showing an example of the configuration of the tap coefficient adjustment unit 402 provided in the equalization processing unit 303 according to embodiment 6.
  • the tap coefficient adjustment unit 402 includes a pre-estimated error calculation unit 1200 and a tap update processing unit 1201.
  • FIG. 13 is a diagram showing an example of the configuration of NN layer 704-k provided in step-size learning unit 404 according to embodiment 6.
  • NN layer 704-k includes internal parameter holding unit 1300-k and linear calculation processing unit 1301-k. That is, although not shown, step-size learning unit 404 includes internal parameter holding units 1300-1 to 1300-K and linear calculation processing units 1301-1 to 1301-K in NN layers 704-1 to 704-K.
  • the pre-estimated error calculation unit 1200 calculates the estimated error 1202 using the tap adjustment signal 407-2, the reference signal 307, the updated tap coefficient 1203, and the step size 405, and outputs it to the tap update processing unit 1201.
  • the tap update processing unit 1201 calculates the updated tap coefficient 1203 using the tap adjustment signal 407-2, the reference signal 307, the estimated error 1202, and the step size 405, and outputs it to the pre-estimated error calculation unit 1200.
  • the tap coefficient adjustment unit 402 repeats this series of processes K times.
  • K is a value that is specified in advance based on the length of the reference signal 307, etc., and can be set freely.
  • the linear calculation processing in the linear calculation processing unit 1301-k is similar to the linear calculation processing in the pre-estimated error calculation unit 1200 and the tap update processing unit 1201 in the tap coefficient adjustment unit 402.
  • the internal parameter holding unit 1300-k has a configuration similar to that of the internal parameter holding unit 809-k shown in FIG. 8, and outputs the internal parameters 1310 to the linear calculation processing unit 1301-k.
  • the equalization processing unit 303 generalizes the processing in the tap coefficient adjustment unit 402 as a repetition of the calculation of the estimated error 1202 and the tap update processing, and replaces these processes in the NN layer 704-k as linear arithmetic processing with internal parameters 1310.
  • This enables the equalization processing unit 303 to adjust the tap coefficients using various adaptive algorithms such as the affine projection algorithm (APA) and the recursive least squares algorithm (RLS), and the internal parameters 1310 used in these adaptive algorithms can be learned in the step size learning unit 404.
  • APA affine projection algorithm
  • RLS recursive least squares algorithm
  • Embodiment 7 In the above-described first to sixth embodiments, the linear equalization unit performs linear processing. In the seventh embodiment, a case will be described in which the linear equalization unit performs wide linear processing.
  • FIG. 14 is a diagram showing an example of the configuration of a linear equalization unit 401 provided in the equalization processing unit 303 according to embodiment 7.
  • the linear equalization unit 401 includes L-1 delay elements 1400-1 to 1400-L-1, L signal distributors 1402-1 to 1402-L, 2L multipliers 1404-1 to 1404-2L, a coefficient distributor 1405, and an adder 1408.
  • the signal allocator 1402-1 outputs the equalizer input signal 407-1 acquired from the input destination control unit 406 as signal 1403-1 as is, and outputs the complex conjugate signal of the equalizer input signal 407-1 as signal 1403-2.
  • the delay elements 1400-1 to 1400-L-1 output signals 1401-1 to 1401-L-1 to the signal allocators 1402-2 to 1402-L.
  • the signal allocators 1402-2 to 1402-L also perform the same operation as the signal allocator 1402-1. That is, the signal allocators 1402-1 to 1402-L output signals 1403-1 to 1403-2L to the multipliers 1404-1 to 1404-2L.
  • the coefficient distributor 1405 distributes the tap coefficients 403 acquired from the tap coefficient adjustment unit 402 so that they are assigned to the multipliers 1404-1 to 1404-2L, and outputs them as tap coefficients 1406-1 to 1406-2L.
  • the multipliers 1404-1 to 1404-2L perform complex conjugate multiplication of the signals 1403-1 to 1403-2L and the tap coefficients 1406-1 to 1406-2L, respectively, and output the results as signals 1407-1 to 1407-2L.
  • the adder 1408 calculates the sum of the signals 1407-1 to 1407-2L, and outputs the result as the equalized signal 304.
  • the linear equalization unit 401 performs broad linear processing as linear equalization.
  • the linear equalization unit 401 also performs filter processing on the complex conjugate of the equalization unit input signal 407-1, so that it can perform equalization on circular signals in which there is a correlation between the real and imaginary parts of the signal, such as IQ imbalance.
  • Embodiment 8 In the above-described first to seventh embodiments, the learning of the step size is processed inside the communication device 100-1. In the eighth embodiment, a case will be described in which the learning of the step size is performed outside the communication device.
  • FIG. 15 is a diagram showing an example of the configuration of a communication device 1500-1 according to the eighth embodiment.
  • the communication device 1500-1 includes a control unit 1501 and a transmission/reception processing unit 1502.
  • the transmission/reception processing unit 1502 is connected to a learning device 1503 that is external to the communication device 1500-1.
  • FIG. 15 also shows a communication device 1500-2 that is the communication partner of the communication device 1500-1.
  • the configuration of the communication device 1500-2 may be the same as that of the communication device 1500-1, or may be different from that of the communication device 1500-1.
  • the learning device 1503 includes a step size learning unit 1505.
  • the communication device 1500-1 and the learning device 1503 form a communication system 1510.
  • FIG. 16 is a diagram showing an example of the configuration of the transmission/reception processing unit 1502 provided in the communication device 1500-1 according to the eighth embodiment.
  • the transmission/reception processing unit 1502 includes a transmission processing unit 1601 and a reception processing unit 1602.
  • the transmission processing unit 1601 transmits a transmission signal 1603 to the communication device 1500-2
  • the reception processing unit 1602 receives a reception signal 1604 from the communication device 1500-2.
  • the reception processing unit 1602 includes a pre-equalization processing unit 1701, an equalization processing unit 1703, a post-equalization processing unit 1705, and a reference signal generating unit 1706.
  • the pre-equalization processing unit 1701 performs pre-equalization processing on the received signal 1604, and outputs the pre-equalization signal 1702.
  • the reference signal generating unit 1706 generates a reference signal 1504-2.
  • the equalization processing unit 1703 outputs the learning signal 1504-1 to the learning device 1503, and performs equalization processing on the pre-equalization signal 1702 using the reference signal 1504-2 obtained from the reference signal generating unit 1706 and the step size 1504-3 obtained from the learning device 1503, and outputs the post-equalization signal 1704.
  • the pre-equalization processing unit 1701, the post-equalization processing unit 1705, and the reference signal generating unit 1706 perform the same operations as the pre-equalization processing unit 301, the post-equalization processing unit 305, and the reference signal generating unit 306 shown in FIG. 3.
  • the equalization processing unit 1703 includes a linear equalization unit 1801, a tap coefficient adjustment unit 1802, and an input destination control unit 1804.
  • the input destination control unit 1804 outputs the pre-equalization signal 1702 to the linear equalization unit 1801 as an equalization unit input signal 1805-1 during the time range in which a data signal is received.
  • the input destination control unit 1804 also outputs the pre-equalization signal 1702 to the tap coefficient adjustment unit 1802 as a tap adjustment signal 1805-2 during the time range in which a known sequence such as a preamble is received.
  • the input destination control unit 1804 also outputs the pre-equalization signal 1702 to the learning device 1503 as a learning signal 1504-1 during the time range in which learning data is received.
  • the tap coefficient adjustment unit 1802 uses the reference signal 1504-2, the step size 1504-3, and the tap adjustment signal 1805-2 to adjust the tap coefficient 1803.
  • the linear equalization unit 1801 uses the tap coefficient 1803 to perform linear equalization on the equalization unit input signal 1805-1, and outputs the equalized signal 1704.
  • the transmission/reception processing unit 1502 transmits the learning signal 1504-1 and the reference signal 1504-2 to the learning device 1503.
  • the step size learning unit 1505 adjusts the tap coefficient 1803 used in linear equalization based on the step size 1504-3 to learn the step size 1504-3 used in the communication device 1500-1, which performs linear equalization on the pre-equalization signal 1702, which is the equalization unit input signal 1805-1.
  • step size learning unit 1505 receives the learning signal 1504-1 and the reference signal 1504-2 from the transmission/reception processing unit 1502, it performs a learning process using the learning signal 1504-1 and the reference signal 1504-2, and outputs the learned step size 1504-3 to the transmission/reception processing unit 1502.
  • Step size learning unit 1505 of learning device 1503 has the same configuration as step size learning unit 404 or step size learning unit 1104 provided in communication device 100-1 in embodiment 1 to embodiment 7, and performs the same operation. That is, step size learning unit 1505 learns step size 1504-3 by a process similar to the process in which step size learning unit 404 learns step size 405 or the process in which step size learning unit 1104 learns step size 1105 in embodiment 1 to embodiment 7. In this way, since step size learning unit 1505 performs the same operation as step size learning unit 404 or step size learning unit 1104, a detailed description of the configuration and operation of step size learning unit 1505 will be omitted.
  • Communication system 1510 is such that the step size learning unit provided in communication device 100-1 in embodiment 1 etc. is provided in learning device 1503 external to communication device 100-1.
  • the communication device 1500-1 performs equalization processing using the step size 1504-3 acquired from the learning device 1503. Since the communication device 1500-1 learns the step size 1504-3 using the external learning device 1503, the load due to the learning processing can be reduced compared to the communication device 100-1 of the first embodiment and the like, and the accuracy of learning can be improved by using the higher performance external learning device 1503.
  • Embodiment 9 In the above-described eighth embodiment, learning of step size 1504-3 is performed outside communication device 1500-1. In a ninth embodiment, a case will be described in which a wireless communication network is used for exchanging signals between the communication device and the learning device.
  • FIG. 19 is a diagram showing an example of the configuration of a communication device 1900-1 according to the ninth embodiment.
  • the communication device 1900-1 includes a control unit 1901 and a transmission/reception processing unit 1902.
  • FIG. 19 also shows a communication device 1900-2, which is a communication partner of the communication device 1900-1.
  • the transmission/reception processing unit 1902 is connected to an access point 1903 via a wireless link 1904.
  • the access point 1903 is connected to a learning device 1905.
  • the access point 1903 is a device used in a wireless communication network, such as an access point of a wireless LAN (Local Area Network) or a base station in a public mobile line.
  • the communication device 1900-1, the access point 1903, and the learning device 1905 constitute a communication system 1910.
  • the transmission/reception processing unit 1902 of the communication device 1900-1 transmits the learning signal 1905-1 and the reference signal 1905-2 to the learning device 1905 as the signal 1906 via the wireless link 1904 and the access point 1903.
  • the learning device 1905 includes a step size learning unit 1908 having the same function as the step size learning unit 1505 shown in FIG. 15.
  • the step size learning unit 1908 when the step size learning unit 1908 receives the learning signal 1905-1 and the reference signal 1905-2 from the transmission/reception processing unit 1902, the step size learning unit 1908 performs a learning process using the learning signal 1905-1 and the reference signal 1905-2, and outputs the learned step size 1905-3 to the transmission/reception processing unit 1902 as the signal 1907.
  • learning device 1905 communicates with communication device 1900-1 by wireless communication via a wireless communication network.
  • communication device 1900-1 learns step size 1905-3 using external learning device 1905, communication device 1900-1 transmits and receives signals required for learning via wireless link 1904, eliminating the need for communication device 1900-1 and learning device 1905 to be in the same location, and allowing communication device 1900-1 to move.
  • Embodiment 10 the communication device 1900-1 transmits the transmission signal 1603 as the learning signal 1905-1 to the learning device 1905.
  • the communication device 1900-1 conceals the learning signal.
  • FIG. 20 is a diagram showing an example of the configuration of the equalization processing unit 1703 provided in the reception processing unit 1602 according to the tenth embodiment.
  • the equalization processing unit 1703 includes a linear equalization unit 2001, a tap coefficient adjustment unit 2002, an input destination control unit 2004, and a learning signal generation unit 2006.
  • the input destination control unit 2004 outputs the pre-equalization signal 1702 to the linear equalization unit 2001 as an equalization unit input signal 2005-1 during the time range in which the data signal is received.
  • the input destination control unit 2004 also outputs the pre-equalization signal 1702 to the tap coefficient adjustment unit 2002 as a tap adjustment signal 2005-2 during the time range in which a known sequence such as a preamble is received.
  • the input destination control unit 2004 also outputs the pre-equalization signal 1702 to the learning signal generation unit 2006 as a learning signal 2005-3 during the time range in which learning data is received.
  • the learning signal generation unit 2006 uses the reference signal 1905-2 and the learning signal 2005-3 to generate the learning signal 1905-1 and outputs it to the learning device 1905.
  • the tap coefficient adjustment unit 2002 uses the reference signal 1905-2, the step size 1905-3, and the tap adjustment signal 2005-2 to adjust the tap coefficient 2003.
  • the linear equalization unit 2001 uses the tap coefficient 2003 to perform linear equalization on the equalization unit input signal 2005-1 and outputs the equalized signal 1704.
  • FIG. 21 is a diagram showing an example of the configuration of an NN layer 704-k provided in the step size learning unit 1908 of the learning device 1905 according to embodiment 10.
  • the NN layer 704-k includes an internal parameter storage unit 2109-k, an inner product calculator 2100, a subtractor 2102, a multiplier 2106, and an adder 2108.
  • the learning signal generation unit 2006 calculates a data vector c(k) according to equation (7) from a combination of C(i+K), C(i+K-1), C(i+K-2), ..., C(i-L+1) and D(0), D(1), ..., D(K-1).
  • the learning signal generation unit 2006 also calculates a correlation matrix R(k) and a correlation vector r(k) according to equations (11) and (12) using the data vector c(k) and D(0), D(1), ..., D(K-1), and outputs the correlation matrix R(k) and the correlation vector r(k) as the learning signal 1905-1.
  • the learning device 1905 receives a learning signal 1905-1 from the communication device 1900-1.
  • the NN control unit 701 of the step size learning unit 1908 calculates the target tap coefficient vector u from the correlation matrix R(k) and correlation vector r(k) included in the learning signal 1905-1 according to equation (13).
  • the NN control unit 701 outputs the correlation matrix R(k) and correlation vector r(k) included in the learning signal 1905-1 as layer data set 702-k by matching them with the index k of the NN layers 704-1 to 704-K.
  • the internal parameter storage unit 2109-k stores the internal parameters 2110 to be learned, and when it acquires the update parameters 709-k from the learning processing unit 708, it updates the stored internal parameters 2110 to the update parameters 709-k. Since the step size learning unit 1908 is equipped with the NN layers 704-1 to 704-K, it is equipped with the internal parameter storage units 2109-1 to 2109-K.
  • the inner product calculator 2100 regards the signal 706-k-1 acquired from the previous layer as W(k-1), calculates the inner product Z with the correlation matrix R(k) included in the layer data set 702-k according to equation (14), and outputs it as the signal 2101.
  • Subtractor 2102 takes the difference r(k)-Z between signal 2101 obtained from dot product calculator 2100 and correlation vector r(k) contained in layer data set 702-k, and outputs it as signal 2105.
  • the multiplier 2106 multiplies the signal 2105 obtained from the subtractor 2102 by the internal parameter 2110 output from the internal parameter storage unit 2109-k, and outputs the result as the signal 2107.
  • the adder 2108 calculates the sum of the signal 706-k-1 and the signal 2107 obtained from the multiplier 2106, and outputs it as the signal 706-k.
  • the communication device 1900-1 calculates the correlation matrix R(k) and the correlation vector r(k) from the pre-equalization signal 1702, which is the learning signal 2005-3, and the reference signal 1905-2, and transmits the correlation matrix R(k) and the correlation vector r(k) to the learning device 1905 as the learning signal 1905-1.
  • the step size learning unit 1908 of the learning device 1905 learns the step size 1905-3 using the correlation matrix R(k) and the correlation vector r(k).
  • the communication device 1900-1 outputs the learning signal 1905-1 to the outside as the correlation matrix R(k) and the correlation vector r(k) instead of the received signal itself, and by making it impossible to easily estimate the received signal itself from the learning signal 1905-1, it is possible to utilize learning in an external device while maintaining the confidentiality of the received signal.
  • Embodiment 11 In the above-described embodiment 10, learning is performed within one communication device 1900-1. In embodiment 11, federated learning using a plurality of communication devices will be described.
  • FIG. 22 is a diagram showing an example of the configuration of a communication system 2210 in which federated learning is performed by M communication devices 2200-1 to 2200-M according to the eleventh embodiment.
  • the communication system 2210 includes communication devices 2200-1 to 2200-M, an access point 2202, and a learning device 2203.
  • the communication device 2200-m is the m-th communication device. m is an integer between 1 and M.
  • the communication devices 2200-1 to 2200-M are connected to the access point 2202 via wireless links 2201-1 to 2201-M.
  • the wireless links 2201-1 to 2201-M are the same as the wireless link 1904 shown in FIG. 19.
  • the access point 2202 is connected to the learning device 2203.
  • the communication devices 2200-1 to 2200-M transmit the reference signal 1905-2 and learning signal 1905-1 required for learning to the learning device 2203 via the access point 2202 through each of the wireless links 2201-1 to 2201-M.
  • the step size learning unit 2206 of the learning device 2203 performs learning using the reference signal 1905-2 and learning signal 1905-1, which are signals 2204 received from one or more of the communication devices 2200-1 to 2200-M, and calculates a step size 1905-3 common to the communication devices 2200-1 to 2200-M.
  • the learning device 2203 outputs the calculated step size 1905-3 as a signal 2205, and transmits it to the communication devices 2200-1 to 2200-M via the access point 2202 and the wireless links 2201-1 to 2201-M.
  • step size learning unit 2206 acquires learning signal 1905-1, i.e., pre-equalization signal 1702, and reference signal 1905-2 from multiple communication devices 2200-1 to 2200-M, and learns step size 1905-3.
  • learning signal 1905-1 i.e., pre-equalization signal 1702, and reference signal 1905-2 from multiple communication devices 2200-1 to 2200-M
  • step size learning unit 2206 can efficiently collect and use a large amount of data required for learning, thereby improving the accuracy of learning.
  • Embodiment 12 In the twelfth embodiment, the operation of the communication device 100-1 will be described with reference to a flowchart, taking the communication device 100-1 of the first embodiment as an example. Also, the hardware configuration of the communication device 100-1 will be described.
  • FIG. 23 is a flowchart showing the operation of the communication device 100-1 according to the twelfth embodiment.
  • the pre-equalization processing unit 301 of the reception processing unit 203 performs pre-equalization processing on the reception signal 204 (step S1).
  • the step size learning unit 404 learns the step size 405 using the reference signal 307 and the learning signal 407-3 (step S2).
  • the tap coefficient adjustment unit 402 adjusts the tap coefficient 403 using the reference signal 307, the step size 405, and the tap adjustment signal 407-2 (step S3).
  • the linear equalization unit 401 performs linear equalization on the equalization unit input signal 407-1 using the tap coefficient 403 (step S4) and outputs the equalized signal 304.
  • the post-equalization processing unit 305 of the reception processing unit 203 performs post-equalization processing on the equalized signal 304 (step S5).
  • the transmission/reception processing unit 101 and the control unit 102 are realized by processing circuits.
  • the processing circuit may be a processor and memory that executes a program stored in a memory, or may be dedicated hardware.
  • the processing circuit is also called a control circuit.
  • FIG. 24 is a diagram showing an example of the configuration of a processing circuit 90 in the case where the processing circuit for implementing the communication device 100-1 according to the twelfth embodiment is implemented by a processor 91 and a memory 92.
  • the processing circuit 90 shown in FIG. 24 is a control circuit and includes a processor 91 and a memory 92.
  • each function of the processing circuit 90 is implemented by software, firmware, or a combination of software and firmware.
  • the software or firmware is described as a program and stored in the memory 92.
  • each function is implemented by the processor 91 reading and executing the program stored in the memory 92.
  • the processing circuit 90 includes a memory 92 for storing a program that will result in the processing of the communication device 100-1 being executed.
  • This program can also be said to be a program for causing the communication device 100-1 to execute each function implemented by the processing circuit 90.
  • This program may be provided by a storage medium in which the program is stored, or may be provided by other means such as a communication medium.
  • the above program causes the communication device 100-1 to execute a linear equalization step in which the linear equalization unit 401 linearly equalizes the equalization unit input signal 407-1, which is a received signal; a tap coefficient adjustment step in which the tap coefficient adjustment unit 402 adjusts the tap coefficient 403 used in the linear equalization based on the step size 405; and a step size learning step in which the step size learning unit 404 learns the step size 405.
  • each of the NN layers 704-1 to 704-K adjusts the step size 405 based on the specified initial tap coefficient 703 or the signal 706-k, which is the updated tap coefficient output from the previous NN layer 704-k, the pre-equalization signal 302, which is the learning signal 407-3 included in the layer data set 702-k, and the reference signal 307, which is a specified signal sequence included in the layer data set 702-k.
  • the program causes the communication device 100-1 to execute the following steps: a calculation step in which the learning processing unit 708 calculates the updated tap coefficients based on the pre-equalization signal 302, which is the learning signal 407-3, and the reference signal 307, and learns the error function in learning as the mean square error between the tap coefficients based on the least square solution calculated from the pre-equalization signal 302 and the reference signal 307, which are the learning signal 407-3, and the NN output 706-K, which is the updated tap coefficient output from the NN layer 704-K, which is the last stage of the NN layers 704-1 to 704-K, and updates the internal parameters 810; and an update step in which the internal parameter collection unit 700 updates the step size 405 based on the layer step sizes 707-1 to 707-K, which are the internal parameters 810 collected from the NN layers 704-1 to 704-K.
  • the processor 91 is, for example, a CPU (Central Processing Unit), a processing device, an arithmetic unit, a microprocessor, a microcomputer, or a DSP (Digital Signal Processor).
  • the memory 92 is, for example, a RAM (Random Access Memory), a ROM (Read Only Memory), a flash memory, an EPROM (Erasable Programmable ROM), an EEPROM (Electrically EPROM), or other non-volatile or volatile semiconductor memory, a magnetic disk, a flexible disk, an optical disk, a compact disk, a mini disk, or a DVD (Digital Versatile Disc).
  • FIG. 25 is a diagram showing an example of a processing circuit 93 in the case where the processing circuit for implementing the communication device 100-1 according to embodiment 12 is configured with dedicated hardware.
  • the processing circuit 93 shown in FIG. 25 corresponds to, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC (Application Specific Integrated Circuit), an FPGA (Field Programmable Gate Array), or a combination of these.
  • the processing circuit may be partially implemented with dedicated hardware and partially implemented with software or firmware. In this way, the processing circuit can realize each of the above-mentioned functions by dedicated hardware, software, firmware, or a combination of these.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Cable Transmission Systems, Equalization Of Radio And Reduction Of Echo (AREA)

Abstract

通信装置は、受信信号を線形等化する線形等化部(401)と、ステップサイズ(405)に基づいてタップ係数(403)を調整するタップ係数調整部(402)と、ステップサイズ(405)を学習するステップサイズ学習部(404)と、を備え、ステップサイズ学習部(404)は、初期タップ係数または前段から出力された更新後のタップ係数、受信信号、および参照信号(307)に基づいて、更新後のタップ係数を演算し、内部パラメータを保持する複数のニューラルネットワーク層と、学習の誤差関数を、受信信号および参照信号(307)から算出される最小2乗解に基づくタップ係数と、複数のニューラルネットワーク層の最後段から出力される更新後のタップ係数との平均2乗誤差として学習を行い、内部パラメータを更新する学習処理部と、内部パラメータに基づいてステップサイズ(405)を更新する内部パラメータ収集部と、を備える。

Description

通信装置、学習装置、通信システム、制御回路、記憶媒体およびステップサイズ更新方法
 本開示は、等化処理を行う通信装置、学習装置、通信システム、制御回路、記憶媒体およびステップサイズ更新方法に関する。
 従来、無線通信システムでは、伝搬路の遅延分散により生じる波形歪みが伝送性能を著しく劣化させるため、波形歪みの影響を受信機において低減させるための等化処理が必要である。等化処理の代表的なものに、時間領域における線形等化がある。線形等化は、トランスバーサルフィルタによって実装することができ、サンプリングされた受信信号にフィルタタップ係数を乗算することで等化出力を得る。線形等化において、フィルタタップ係数を逐次的に更新する等化処理を適応等化という。適応等化では、繰り返し毎にフィルタタップ係数をどの程度更新するかを決めるステップサイズと呼ばれるパラメータが存在する。例えば、非特許文献1には、適応等化において、固定値のステップサイズを用いてフィルタタップ係数の更新を行う技術が開示されている。
S.U.H.QURESHI著 「Adaptive Equalization」in Proceedings of the IEEE,vol.73,no.9,pp.1349~1387,Sept.1985
 しかしながら、上記従来の技術によれば、固定値のステップサイズを用いてフィルタタップ係数の更新を行う方法では、経験則的にステップサイズを決めることはできるが、最適値を経験則的に求めることは困難である、という問題があった。最適なステップサイズを決定するために網羅的な探索を行うことも可能であるが、考慮する条件数、探索時の粒度などによっては探索数が膨大になる。
 本開示は、上記に鑑みてなされたものであって、適応等化のステップサイズを調整し、適応等化における誤差を低減可能な通信装置を得ることを目的とする。
 上述した課題を解決し、目的を達成するために、本開示の通信装置は、受信信号を線形等化する線形等化部と、ステップサイズに基づいて、線形等化で使用されるタップ係数を調整するタップ係数調整部と、ステップサイズを学習するステップサイズ学習部と、を備える。ステップサイズ学習部は、各々が、規定された初期タップ係数または前段から出力された更新後のタップ係数、受信信号、および規定された信号系列である参照信号に基づいて、更新後のタップ係数を演算し、かつ演算で使用される内部パラメータを保持する複数のニューラルネットワーク層と、学習における誤差関数を、受信信号および参照信号から算出される最小2乗解に基づくタップ係数と、複数のニューラルネットワーク層の最後段から出力される更新後のタップ係数との平均2乗誤差として学習を行い、内部パラメータを更新する学習処理部と、複数のニューラルネットワーク層から収集した内部パラメータに基づいて、ステップサイズを更新する内部パラメータ収集部と、を備えることを特徴とする。
 本開示に係る通信装置は、適応等化のステップサイズを調整し、適応等化における誤差を低減可能である、という効果を奏する。
実施の形態1に係る通信装置の構成例を示す図 実施の形態1に係る通信装置が備える送受信処理部の構成例を示す図 実施の形態1に係る送受信処理部が備える受信処理部の構成例を示す図 実施の形態1に係る受信処理部が備える等化処理部の構成例を示す図 実施の形態1に係る等化処理部が備える線形等化部の構成例を示す図 実施の形態1に係る等化処理部が備えるタップ係数調整部の構成例を示す図 実施の形態1に係る等化処理部が備えるステップサイズ学習部の構成例を示す図 実施の形態1に係るステップサイズ学習部が備えるNN(Neural Network)層の構成例を示す図 実施の形態3に係る等化処理部が備えるステップサイズ学習部の構成例を示す図 実施の形態5に係る送受信処理部が備える受信処理部の構成例を示す図 実施の形態5に係る受信処理部が備える等化処理部の構成例を示す図 実施の形態6に係る等化処理部が備えるタップ係数調整部の構成例を示す図 実施の形態6に係るステップサイズ学習部が備えるNN層の構成例を示す図 実施の形態7に係る等化処理部が備える線形等化部の構成例を示す図 実施の形態8に係る通信装置の構成例を示す図 実施の形態8に係る通信装置が備える送受信処理部の構成例を示す図 実施の形態8に係る送受信処理部が備える受信処理部の構成例を示す図 実施の形態8に係る受信処理部が備える等化処理部の構成例を示す図 実施の形態9に係る通信装置の構成例を示す図 実施の形態10に係る受信処理部が備える等化処理部の構成例を示す図 実施の形態10に係る学習装置のステップサイズ学習部が備えるNN層の構成例を示す図 実施の形態11に係るM台の通信装置によって連合学習を行う場合の通信システムの構成例を示す図 実施の形態12に係る通信装置の動作を示すフローチャート 実施の形態12に係る通信装置を実現する処理回路をプロセッサおよびメモリで実現する場合の処理回路の構成例を示す図 実施の形態12に係る通信装置を実現する処理回路を専用のハードウェアで構成する場合の処理回路の例を示す図
 以下に、本開示の実施の形態に係る通信装置、学習装置、通信システム、制御回路、記憶媒体およびステップサイズ更新方法を図面に基づいて詳細に説明する。
実施の形態1.
 図1は、実施の形態1に係る通信装置100-1の構成例を示す図である。通信装置100-1は、送受信処理部101と、送受信処理部101を制御する制御部102と、を備える。図1には、通信装置100-1の通信相手となる通信装置100-2も図示している。図1では記載を省略しているが、通信装置100-2の構成は、通信装置100-1と同じ構成であってもよいし、通信装置100-1と異なる構成であってもよい。
 図2は、実施の形態1に係る通信装置100-1が備える送受信処理部101の構成例を示す図である。送受信処理部101は、送信処理部201と、受信処理部203とを備える。送信処理部201は、通信装置100-2に対して送信信号202を送信し、受信処理部203は、通信装置100-2からの受信信号204を受信する。
 図3は、実施の形態1に係る送受信処理部101が備える受信処理部203の構成例を示す図である。受信処理部203は、等化前処理部301と、等化処理部303と、等化後処理部305と、参照信号生成部306と、を備える。
 図4は、実施の形態1に係る受信処理部203が備える等化処理部303の構成例を示す図である。等化処理部303は、線形等化部401と、タップ係数調整部402と、ステップサイズ学習部404と、入力先制御部406と、を備える。
 図5は、実施の形態1に係る等化処理部303が備える線形等化部401の構成例を示す図である。線形等化部401は、トランスバーサルフィルタ構造である。線形等化部401は、L-1個の遅延素子501-1~501-L-1と、L個の乗算器502-1~502-Lと、係数分配器503と、加算器506と、を備える。遅延素子501-1~501-L-1の数および乗算器502-1~502-Lの数を決定するLについては、通信装置100-1で所望する通信性能などに応じて、自由に設定できるものとする。
 図6は、実施の形態1に係る等化処理部303が備えるタップ係数調整部402の構成例を示す図である。タップ係数調整部402は、等化処理部303で行われる適応等化のタップ係数403を調整する。タップ係数調整部402は、L-1個の遅延素子601-1~601-L-1と、L個の乗算器602-1~602-Lと、係数分配器603と、加算器606と、減算器608と、タップ係数更新部610と、を備える。
 図7は、実施の形態1に係る等化処理部303が備えるステップサイズ学習部404の構成例を示す図である。ステップサイズ学習部404は、複数のNN層、すなわち複数のニューラルネットワーク層を備え、等化処理部303で行われる適応等化のステップサイズ405を算出する。ステップサイズ学習部404は、内部パラメータ収集部700と、NN制御部701と、K個のNN層704-1~704-Kを備える深層NN部705と、学習処理部708と、を備える。NN層704-1~704-Kの数Kについては、通信装置100-1で所望する通信性能などに応じて、自由に設定できるものとする。
 図8は、実施の形態1に係るステップサイズ学習部404が備えるNN層704-kの構成例を示す図である。ここで、k=1~Kの整数である。NN層704-kは、等化処理部303で行われる適応等化のステップサイズ405を学習する際に利用される。NN層704-kは、内積計算器800と、減算器802と、乗算器804,806と、加算器808と、内部パラメータ保持部809-kと、を備える。
 次に、通信装置100-1の動作について説明する。図1に示すように、通信装置100-1において、送受信処理部101は、制御部102の制御によって、通信装置100-2との通信における送信および受信の処理を行う。図2に示すように、送受信処理部101において、送信処理部201は、通信装置100-2に対して送信信号202を送信し、受信処理部203は、通信装置100-2からの受信信号204を受信する。
 図3に示すように、受信処理部203において、等化前処理部301は、受信信号204に対して、等化処理部303での等化処理の前、すなわち等化前に必要な信号処理を行い、等化前信号302を等化処理部303に出力する。等化前に必要な信号処理とは、等化処理部303における処理に適した等化前信号302を出力する方法であれば何でもよく、例えば、送受信機における回路不整合の補正、ドップラーシフトの補正、周波数変換、アナログディジタル変換、サンプリングレート変換、レベル調整などである。送受信機とは、ここでは、通信装置100-1のことである。送受信機における回路不整合とは、例えば、キャリア周波数オフセット、周波数偏差、位相雑音、増幅器の非線形性などである。周波数変換とは、例えば、ダウンコンバージョンである。サンプリングレート変換とは、例えば、アップサンプリング、ダウンサンプリングなどである。レベル調整とは、例えば、増幅、減衰などである。なお、受信信号204が等化処理部303での等化処理に使用できるものであった場合、すなわち等化処理部303が受信信号204に対して等化処理を行うことができる場合、受信処理部203は、等化前処理部301を備えていなくてもよい。この場合、等化処理部303に入力される等化前信号302は受信信号204となる。以降で説明する受信処理部についても同様である。
 参照信号生成部306は、事前に規定されたある信号系列、例えば、パイロット信号を参照信号307として等化処理部303に出力する。事前に規定されたある信号系列とは、例えば、PN(Pseudorandom Noise)系列、Gold系列、M系列、ZC(Zadoff-Chu)系列などであり、等化処理部303における処理に適したものであれば何でもよい。
 等化処理部303は、等化前処理部301から等化前信号302を取得し、参照信号生成部306から参照信号307を取得し、等化前信号302および参照信号307を用いて規定の処理を行った後、等化後信号304を等化後処理部305に出力する。等化処理部303における規定の処理については後述する。
 等化後処理部305は、等化処理部303から等化後信号304を取得し、等化後信号304に対して、等化処理部303での等化処理の後、すなわち等化後に必要な処理を行う。等化後に必要な処理とは、例えば、サンプリングレート変換、レベル調整、シンボル判定、誤り訂正などである。サンプリングレート変換とは、例えば、アップサンプリング、ダウンサンプリングなどである。レベル調整とは、例えば、増幅、減衰などである。
 図4に示すように、等化処理部303において、入力先制御部406は、線形等化フェーズ、タップ係数調整フェーズ、および学習フェーズの3つの内部状態を持ち、それぞれのフェーズに応じて、等化前処理部301から取得した等化前信号302を、等化部入力信号407-1、タップ調整信号407-2、および学習用信号407-3に振り分けて出力する。例えば、入力先制御部406は、データ信号が受信されている時間範囲において、等化前信号302を等化部入力信号407-1として線形等化部401に出力する。また、入力先制御部406は、プリアンブル等の既知系列が受信されている時間範囲において、等化前信号302をタップ調整信号407-2としてタップ係数調整部402に出力する。また、入力先制御部406は、学習用のデータが受信されている時間範囲において、等化前信号302を学習用信号407-3としてステップサイズ学習部404に出力する。なお、前述のように、等化前信号302が受信信号204である場合、等化部入力信号407-1、タップ調整信号407-2、および学習用信号407-3も受信信号204となる。以降で説明する等化処理部についても同様である。
 なお、これらの3つの内部状態は、互いに背反ではなく、同時に成立していてもよい。入力先制御部406は、例えば、既知系列を受信している時間範囲において、等化前信号302を、タップ調整信号407-2としてタップ係数調整部402に出力するとともに、学習用信号407-3としてステップサイズ学習部404に出力するように2カ所に同時に出力する。このように、等化処理部303は、タップ係数403の調整を行いながら、ステップサイズ405の学習を行ってもよい。また、受信処理部203が等化前処理部301を備えていない場合、等化部入力信号407-1、タップ調整信号407-2、および学習用信号407-3は、受信信号204と同じである。
 線形等化部401は、タップ係数調整部402から取得したタップ係数403を用いて、等化部入力信号407-1、すなわち等化前信号302を線形等化する。図5に示すように、線形等化部401において、遅延素子501-1は、入力先制御部406から取得した等化部入力信号407-1を1規定時間分遅延させ、信号500-1として出力する。ここで、1規定時間とは、例えば、等化処理部303の回路のクロック周期、サンプリング周期などに基づいて設定可能な値である。同様に、遅延素子501-2は、信号500-1を1規定時間分遅延させ、信号500-2として出力し、遅延素子501-L-1は、信号500-L-2を1規定時間分遅延させ、信号500-L-1として出力する。L-1個の遅延素子501-1~501-L-1の動作は全て同様である。
 係数分配器503は、タップ係数調整部402から取得したタップ係数403を、乗算器502-1~502-Lに割り当てるように分配し、タップ係数504-1~504-Lとして出力する。乗算器502-1~502-Lは、等化部入力信号407-1および信号500-1~500-L-1と、タップ係数504-1~504-Lとの複素共役乗算をそれぞれ行い、信号505-1~505-Lとして出力する。複素共役乗算を、乗算器502-1を例にして具体的に説明する。等化部入力信号407-1をXとし、タップ係数504-1をWとし、信号505-1をYとすると、複素共役乗算は式(1)に従う。ただし、(W*)はWの複素共役である。加算器506は、信号505-1~505-Lの総和を計算し、等化後信号304として出力する。
 Y=(W*)×X …(1)
 タップ係数調整部402は、ステップサイズ学習部404から取得したステップサイズ405に基づいて、線形等化部401の線形等化で使用されるタップ係数403を調整する。図6に示すように、タップ係数調整部402において、遅延素子601-1は、入力先制御部406から取得したタップ調整信号407-2を1規定時間分遅延させ、信号600-1として出力する。ここで、1規定時間とは、例えば、等化処理部303の回路のクロック周期、サンプリング周期などに基づいて設定可能な値である。同様に、遅延素子601-2は、信号600-1を1規定時間分遅延させ、信号600-2として出力し、遅延素子601-L-1は、信号600-L-2を1規定時間分遅延させ、信号600-L-1として出力する。L-1個の遅延素子601-1~601-L-1の動作は全て同様である。
 係数分配器603は、タップ係数更新部610から取得した更新後タップ係数611を、乗算器602-1~602-Lに割り当てるように分配し、タップ係数604-1~604-Lとして出力する。乗算器602-1~602-Lは、タップ調整信号407-2および信号600-1~600-L-1と、タップ係数604-1~604-Lとの複素共役乗算をそれぞれ行い、信号605-1~605-Lとして出力する。タップ係数調整部402における複素共役乗算の処理は、前述の線形等化部401における複素共役乗算の処理と同様である。加算器606は、信号605-1~605-Lの総和を計算し、信号607として出力する。減算器608は、参照信号307から信号607を減算し、信号609として出力する。
 タップ係数更新部610は、「事前に規定された初期タップ係数」を保持しており、処理開始時には、「事前に規定された初期タップ係数」を現在タップ係数として内部に保持するとともに、更新後タップ係数611として出力する。タップ係数更新部610は、入力先制御部406からタップ調整信号407-2を取得すると、タップ調整信号407-2を保持する処理を開始し、L規定時間分内部で保持する。タップ係数更新部610におけるタップ調整信号407-2を保持する処理は、FIFO(First-Input First-Output)の処理になっており、L規定時間分取得した次のタイミングでは、先頭のタップ調整信号407-2が消去される。タップ係数更新部610は、L規定時間分内部で保持するタップ調整信号407-2、減算器608から取得した信号609、ステップサイズ学習部404から取得したステップサイズ405、および内部で保持する現在タップ係数を用いて、次期タップ係数を算出する。タップ係数更新部610がL規定時間分内部で保持するタップ調整信号407-2のl番目の信号をY(l)とし、信号609をEとし、ステップサイズ405をμとし、現在タップ係数のl番目の成分をW(l)とし、次期タップ係数をV(l)とすると、これらの関係性は式(2)に従う。ただし、(E*)はEの複素共役を示す。タップ係数更新部610は、次期タップ係数を更新後タップ係数611として出力するとともに、現在タップ係数を次期タップ係数に置き換える。タップ係数調整部402は、この一連の処理をK回繰り返す。ここで、Kは参照信号307の長さなどを基に事前に規定された値であり、自由に設定することができる。
 V(l)=W(l)+(μ×Y(l)×(E*)) …(2)
 ステップサイズ学習部404は、ステップサイズ405を学習し、タップ係数調整部402に出力する。図7に示すように、ステップサイズ学習部404において、NN制御部701は、学習を開始した時点の学習用信号407-3のインデックスをiとし、i番目の学習用信号407-3をC(i)とし、k番目の参照信号307をD(k)とすると、学習用信号C(i+k),C(i+k-1),C(i+k-2),…,C(i+k-L+1)と、参照信号D(k)との組み合わせをk番目の層データセット702-kとしてNN層704-kに出力し、「事前に規定された初期タップ係数」を、初期タップ係数703としてNN層704-1に出力する。ここで、「事前に規定された初期タップ係数」とは、タップ係数調整部402において保持される「事前に規定された初期タップ係数」と同一の値であるとする。NN制御部701は、NN層704-1~704-Kに対して、層データセット702-1~702-Kを出力することになる。
 学習処理部708は、事前に規定された内部パラメータ810の初期値を、更新パラメータ709-1~709-KとしてNN層704-1~704-Kに出力する。
 深層NN部705は、NN層704-1~704-Kで構成される多層ニューラルネットワークである。深層NN部705において、k番目のNN層704-kは、1つ前段のNN層704-k-1からの信号706-k-1と、層データセット702-kのうち学習用信号C(i+k),C(i+k-1),…,C(i+k-L+1)とを、図8に示す内積計算器800によって内積計算し、信号801を得る。信号706-k-1のj番目の信号をP(j)とし、信号801をSとすると、内積計算器800の処理は式(3)に従う。ただし、(P(j)*)はP(j)の複素共役を示す。
 S=Σ_(j=0)^(j=L-1)(P(j)*)×C(i+k-j) …(3)
 減算器802は、層データセット702-kのうち参照信号D(k)から信号801を減算し、信号803として出力する。
 乗算器804は、層データセット702-kのうち学習用信号C(i+k),C(i+k-1),…,C(i+k-L+1)と信号803との複素共役乗算を行い、信号805として出力する。信号803をAとし、信号805のj番目の成分をB(j)とすると、乗算器804の処理は式(4)に従う。
 B(j)=(A*)×C(i+k-j) …(4)
 乗算器806は、内部パラメータ保持部809-kから取得した内部パラメータ810と信号805との乗算結果を信号807として出力する。内部パラメータ810をμとし、信号805のj番目の成分をB(j)とし、信号807のj番目の成分をU(j)とすると、乗算器806の処理は式(5)に従う。
 U(j)=μ×B(j) …(5)
 加算器808は、信号706-k-1と信号807との加算結果を信号706-kとして出力する。信号706-k-1をP(j)とし、信号807のj番目の成分をU(j)とし、信号706-kをQ(j)とすると、加算器808の処理は式(6)に従う。
 Q(j)=P(j)+U(j) …(6)
 NN層704-1~704-Kにおいて、NN層704-1~704-K-1は、上記の処理によって信号706-1~706-K-1を出力し、最後段のNN層704-Kは、上記の処理によってNN出力706-Kを出力する。
 内部パラメータ保持部809-kは、学習対象となる内部パラメータ810を保持しており、学習処理部708から更新パラメータ709-kを取得すると、保持している内部パラメータ810を更新パラメータ709-kに更新する。
 図7に示すように、NN制御部701は、i番目の学習用信号407-3をC(i)とし、k番目の参照信号307をD(k)とすると、学習用信号C(i+K)、C(i+K-1),C(i+K-2),…,C(i-L+1)と、参照信号D(0),D(1),…,D(K-1)との組み合わせを、目標データセット714として出力する。
 学習処理部708は、目標データセット714を用いて、式(7)に従ってデータベクトルcを算出する。ただし、「^T」は転置を示す。
 c(k)=[C(i+k),C(i+k-1),C(i+k-L+1)]^T …(7)
 学習処理部708は、データベクトルcと、参照信号D(0),D(1),…,D(K-1)とを用いて、式(8)および式(9)に従って、相関行列Rおよび相関ベクトルrを算出する。
 R=Σ_(k=0)^(k=K-1)c(k)c^H(k) …(8)
 r=Σ_(k=0)^(k=K-1)(D(k)*)×c(k) …(9)
 学習処理部708は、相関行列Rおよび相関ベクトルrから目標タップ係数ベクトルuを式(10)に従い算出する。ただし、「^(-1)」は逆行列演算を示す。
 u=R^(-1)r …(10)
 目標タップ係数ベクトルuは、目標データセット714を用いて算出できる最小2乗(Least Square:LS)解である。学習処理部708は、目標タップ係数ベクトルuとNN出力706-Kとの平均2乗誤差(Mean Square Error:MSE)を誤差関数として、深層NN部705の各NN層704-1~704-K内にある内部パラメータ保持部809-1~809-Kが保持する内部パラメータ810を学習する。学習処理部708は、学習において各NN層704-1~704-Kの内部パラメータ810を更新する際、更新パラメータ709-1~709-Kを出力し、内部パラメータ保持部809-1~809-Kが保持する内部パラメータ810を更新する。学習処理部708は、例えば、確率的勾配降下法および誤差逆伝搬法によって、内部パラメータ810を学習する。
 内部パラメータ収集部700は、予め定められた学習の終了条件を満たした後、NN層704-1~704-K内の内部パラメータ810を各層ステップサイズ707-1~707-Kとして収集し、ステップサイズ405として出力する。
 このように、ステップサイズ学習部404において、NN層704-1~704-Kは、各々が、規定された初期タップ係数703または前段のNN層704-k-1から出力された更新後のタップ係数である信号706-k-1、層データセット702-kに含まれる学習用信号407-3である等化前信号302、および層データセット702-kに含まれる規定された信号系列である参照信号307に基づいて、更新後のタップ係数を演算し、かつ演算で使用される内部パラメータ810を保持する。学習処理部708は、学習における誤差関数を、学習用信号407-3である等化前信号302および参照信号307から算出される最小2乗解に基づくタップ係数と、NN層704-1~704-Kの最後段であるNN層704-Kから出力される更新後のタップ係数であるNN出力706-Kとの平均2乗誤差として学習を行い、内部パラメータ810を更新する。内部パラメータ収集部700は、NN層704-1~704-Kから収集した内部パラメータ810である各層ステップサイズ707-1~707-Kに基づいて、ステップサイズ405を更新する。
 以上のように、通信装置100-1の送受信処理部101において、受信処理部203の等化処理部303は、タップ係数403の更新のためのステップサイズ405をステップサイズ学習部404が学習することで、タップ係数403の更新回数をK回に制約した場合でも、最適なタップ係数403に調整をすることができ、等化処理における誤差を最小化することができる。また、等化処理部303において、ステップサイズ学習部404は、学習における誤差関数を、LS推定解であるNN出力706-Kの目標タップ係数ベクトルuとNN出力706-KとのMSEとすることで、学習時の収束特性の劣化を防ぐことができる。等化処理部303は、適応等化のステップサイズ405を調整し、適応等化における誤差を低減可能である。
実施の形態2.
 以上の実施の形態1では、ステップサイズ学習部404における深層NN部705の学習は、確率的勾配降下法および誤差逆伝搬法によって行うものであるが、多層ニューラルネットワークを学習できる方法であれば、実現の手段は問わない。ステップサイズ学習部404は、例えば、深層NN部705の学習として、確率的勾配降下法の代わりにAdaGrad、モメンタムなどを用いてもよく、ミニバッチを用いた学習を行ってもよい。
 以上のように、ステップサイズ学習部404は、学習の方法に自由度があることで、学習性能を向上させるために、または学習時の計算負荷を軽減するために、学習方法を調整することができる。
実施の形態3.
 以上の実施の形態1から実施の形態2では、ステップサイズ学習部404における深層NN部705の学習は、全ての層を一気に学習するものであった。実施の形態3では、次にNN層704-1~704-Kまでを1層1層増やしながら学習を行うインクリメンタル学習のような場合について説明する。
 図9は、実施の形態3に係る等化処理部303が備えるステップサイズ学習部404の構成例を示す図である。ステップサイズ学習部404は、内部パラメータ収集部900と、NN制御部901と、K個のNN層904-1~904-KおよびK-1個のスイッチ906-1~906-K-1を備える深層NN部905と、学習処理部910と、を備える。NN層904-1~904-Kの数Kについては、通信装置100-1で所望する通信性能などに応じて、自由に設定できるものとする。
 次に、ステップサイズ学習部404の動作について説明する。ステップサイズ学習部404において、NN制御部901は、実施の形態1におけるNN制御部701の処理と同様に、層データセット902-1~902-Kを出力し、初期タップ係数903を出力する。
 学習処理部910は、事前に規定された内部パラメータ810の初期値を、更新パラメータ911-1~911-Kとして出力する。また、学習処理部910は、スイッチ906-1~906-K-1に対して、SW制御信号912-1~912-K-1を全て無意として出力する。
 スイッチ906-1~906-K-1は、NN層904-1~904-K-1から取得した信号907-1~907-K-1、すなわち入力信号の出力先を変更するスイッチである。スイッチ906-1~906-K-1は、学習処理部910から取得したSW制御信号912-1~912-K-1が有意の場合は入力信号を信号908-1~908-K-1として出力し、SW制御信号912-1~912-K-1が無意の場合は入力信号を信号909-1~909-K-1として出力する。
 深層NN部905は、NN層904-1~904-Kで構成される多層ニューラルネットワークである。各NN層904-1~904-Kの動作は、実施の形態1におけるNN層704-kの動作と同様である。NN層904-1~904-Kは、スイッチ906-1~906-K-1に対して信号907-1~907-K-1を出力する。また、NN層904-1~904-Kの最後段のNN層904-Kは、学習処理部910に対してNN出力907-Kを出力する。
 NN制御部901における目標データセット914の出力処理は、実施の形態1のNN制御部701における目標データセット714の出力処理と同様である。また、学習処理部910における学習は実施の形態1の学習処理部708における学習と同様であるが、有効となっているNN層はNN層904-1のみであるため、学習処理部910は、NN層904-1の内部パラメータ保持部809-1が保持する内部パラメータ810のみを学習する。学習処理部910は、学習においてNN層904-1の内部パラメータ810を更新する際、更新パラメータ911-1をNN層904-1に出力し、内部パラメータ保持部809-1が保持する内部パラメータ810を更新する。
 学習処理部910は、予め定められたインクリメンタル学習の個別学習の終了条件を満たした後、SW制御信号912-1を有意とし、SW制御信号912-2~912-K-1を無意とし、NN制御部901における目標データセット914の出力処理から学習処理部910における学習までを繰り返す。学習処理部910は、予め定められたインクリメンタル学習の個別学習の終了条件を満たした後、SW制御信号912-1,912-2を有意とし、SW制御信号912-3~912-K-1を無意とし、NN制御部901における目標データセット914の出力処理から学習処理部910における学習までを繰り返す。学習処理部910は、同様に、SW制御信号912-3以降を1つずつ有意にしていき、NN制御部901における目標データセット914の出力処理から学習処理部910における学習までを繰り返す。学習処理部910がSW制御信号912-K-1までを有意にして予め定められたインクリメンタル学習の個別学習の終了条件を満たした後、内部パラメータ収集部900は、NN層904-1~904-K内の内部パラメータ810を各層ステップサイズ913-1~913-Kとして収集し、ステップサイズ405として出力する。
 以上のように、ステップサイズ学習部404は、インクリメンタル学習によってステップサイズ405を学習する。ステップサイズ学習部404は、学習の際のNN層904-kを1層ずつ追加していくことで、深いNN層を一度に学習する際に発生する過学習を防止することができる。
実施の形態4.
 以上の実施の形態3では、ステップサイズ学習部404は、スイッチ906-1~906-K-1およびSW制御信号912-1~912-K-1によって、インクリメンタル学習の際にNN層904-kを1層ずつ追加する処理を実現しているが、同様の処理が可能であれば、その実現の手段は問わない。学習処理部910は、例えば、無効にするNN層904-kに対して出力する更新パラメータ911-kを0に設定してもよい。
 以上のように、ステップサイズ学習部404は、更新パラメータ911-kの値のみでNN層904-kの有効および無効を制御することで、スイッチ906-1~906-K-1を削減し、回路規模を抑制し、処理負荷を軽減することができる。
実施の形態5.
 以上の実施の形態1から実施の形態4では、タップ係数403の調整、ステップサイズ405の学習などにおいて参照信号307を利用するようにしたものである。次に、実施の形態5では、等化処理後の信号を基に参照信号と同等な信号を生成できるような場合に、等化処理後の信号をタップ係数の調整、ステップサイズの学習などに利用する場合について説明する。
 図10は、実施の形態5に係る送受信処理部101が備える受信処理部203の構成例を示す図である。受信処理部203は、等化前処理部1000と、等化処理部1002と、等化後処理部1004と、参照信号生成部1006と、を備える。
 図11は、実施の形態5に係る受信処理部203が備える等化処理部1002の構成例を示す図である。等化処理部1002は、線形等化部1101と、タップ係数調整部1102と、ステップサイズ学習部1104と、入力信号保存メモリ1106と、を備える。
 次に、受信処理部203の動作について説明する。等化前処理部1000は、受信信号204に対して等化前処理を行い、等化前信号1001を出力する。等化前処理部1000の処理は、実施の形態1における等化前処理部301の処理と同様である。等化後処理部1004は、等化処理部1002から等化後信号1003を取得し、等化後に必要な処理として、例えば、サンプリングレート変換、レベル調整、シンボル判定、誤り訂正等を行い、硬判定ビット情報、軟判定ビット情報、誤り訂正後のビット情報などを事後情報1005として参照信号生成部1006に出力する。サンプリングレート変換とは、例えば、アップサンプリング、ダウンサンプリングなどである。レベル調整とは、例えば、増幅、減衰などである。参照信号生成部1006は、等化後処理部1004から取得した事後情報1005を基に参照信号1007を生成する。参照信号生成部1006は、例えば、硬判定ビット情報、軟判定ビット情報、誤り訂正後のビット情報などからデータシンボルを復元し、復元したデータシンボルを参照信号1007として出力する。このように、等化後処理部1004は、等化処理部1002によって等化前信号1001が線形等化された等化後信号1003に対して等化後処理を行う。参照信号生成部1006は、等化後処理部1004の等化後処理によって得られた事後情報1005に基づいて、参照信号1007を生成する。
 等化処理部1002では、等化前処理部1000から取得された等化前信号1001が、線形等化部1101および入力信号保存メモリ1106に入力される。入力信号保存メモリ1106は、等化前信号1001を蓄積し、参照信号1007に対応する時刻に蓄積された等化前信号1001を、タップ調整信号1107-2および学習用信号1107-3として出力する。タップ係数調整部1102およびステップサイズ学習部1104は、実施の形態1から実施の形態4におけるタップ係数調整部402およびステップサイズ学習部404と同様の処理を行う。ステップサイズ学習部1104は、学習用信号1107-3および参照信号1007に基づいてステップサイズ1105を学習する。タップ係数調整部1102は、タップ調整信号1107-2、参照信号1007、およびステップサイズ1105に基づいて、タップ係数1103を調整する。線形等化部1101は、タップ係数1103を用いて、等化前信号1001に対して線形等化を行い、等化後信号1003を出力する。
 以上のように、受信処理部203は、参照信号1007の生成に等化前信号1001を活用することで、事前に規定されたある信号系列を送信信号202に含める必要がないため、伝送レートを向上させることができる。
実施の形態6.
 以上の実施の形態1から実施の形態5では、タップ係数の更新にLMSを利用するようにしたものである。実施の形態6では、タップ係数の更新において、Normalized LMS(NLMS)、アフィン射影法(Affine Projection Algorithm:APA)、再帰的最小二乗法(Recursive Least Squares:RLS)といったような、様々な適応アルゴリズムを用いる場合について説明する。
 図12は、実施の形態6に係る等化処理部303が備えるタップ係数調整部402の構成例を示す図である。タップ係数調整部402は、事前推定誤差計算部1200と、タップ更新処理部1201と、を備える。
 図13は、実施の形態6に係るステップサイズ学習部404が備えるNN層704-kの構成例を示す図である。NN層704-kは、内部パラメータ保持部1300-kと、線形演算処理部1301-kと、を備える。すなわち、ステップサイズ学習部404は、図示は省略するが、NN層704-1~704-Kにおいて、内部パラメータ保持部1300-1~1300-Kと、線形演算処理部1301-1~1301-Kを備えることになる。
 次に、等化処理部303の動作について説明する。図12に示すように、タップ係数調整部402において、事前推定誤差計算部1200は、タップ調整信号407-2、参照信号307、更新後タップ係数1203、およびステップサイズ405を用いて推定誤差1202を計算し、タップ更新処理部1201に出力する。タップ更新処理部1201は、タップ調整信号407-2、参照信号307、推定誤差1202、およびステップサイズ405を用いて、更新後タップ係数1203を計算し、事前推定誤差計算部1200に出力する。タップ係数調整部402は、これらの一連の処理をK回繰り返す。ここで、Kは参照信号307の長さなどを基に事前に規定された値であり、自由に設定することができる。
 ステップサイズ学習部404のNN層704-kにおいて、線形演算処理部1301-kにおける線形演算処理は、タップ係数調整部402における事前推定誤差計算部1200およびタップ更新処理部1201における線形演算処理と同様である。内部パラメータ保持部1300-kは、図8に示す内部パラメータ保持部809-kと同様の構成であり、内部パラメータ1310を線形演算処理部1301-kに出力する。
 以上のように、等化処理部303は、タップ係数調整部402における処理を推定誤差1202の計算およびタップ更新の処理の繰り返しとして一般化し、これらの処理を、内部パラメータ1310をもつ線形演算処理としてNN層704-kに置き換える。これにより、等化処理部303は、例えば、アフィン射影法(APA)、再帰的最小二乗法(RLS)などといった様々な適応アルゴリズムを用いたタップ係数調整が可能になり、これらの適応アルゴリズムで用いられる内部パラメータ1310をステップサイズ学習部404において学習することができる。
実施の形態7.
 以上の実施の形態1から実施の形態6では、線形等化部は、線形(Linear)処理を行うようにしたものである。実施の形態7では、線形等化部が広義線形(Widely Linear)処理を行う場合について説明する。
 図14は、実施の形態7に係る等化処理部303が備える線形等化部401の構成例を示す図である。線形等化部401は、L-1個の遅延素子1400-1~1400-L-1と、L個の信号配分器1402-1~1402-Lと、2L個の乗算器1404-1~1404-2Lと、係数分配器1405と、加算器1408と、を備える。
 次に、線形等化部401の動作について説明する。線形等化部401において、信号配分器1402-1は、入力先制御部406から取得した等化部入力信号407-1をそのまま信号1403-1として出力するとともに、等化部入力信号407-1の複素共役信号を信号1403-2として出力する。遅延素子1400-1~1400-L-1は、信号1401-1~1401-L-1を信号配分器1402-2~1402-Lに出力する。信号配分器1402-2~1402-Lも、信号配分器1402-1と同様の動作を行う。すなわち、信号配分器1402-1~1402-Lは、乗算器1404-1~1404-2Lに対して、信号1403-1~1403-2Lを出力する。
 係数分配器1405は、タップ係数調整部402から取得したタップ係数403を、乗算器1404-1~1404-2Lに割り当てるように分配し、タップ係数1406-1~1406-2Lとして出力する。乗算器1404-1~1404-2Lは、信号1403-1~1403-2Lと、タップ係数1406-1~1406-2Lとの複素共役乗算をそれぞれ行い、信号1407-1~1407-2Lとして出力する。加算器1408は、信号1407-1~1407-2Lの総和を計算し、等化後信号304として出力する。
 以上のように、線形等化部401は、線形等化として広義線形処理を行う。線形等化部401は、等化部入力信号407-1の複素共役に対してもフィルタ処理を行うことで、例えば、IQ不均衡のように、信号の実部と虚部との間に相関があるようなCircularな信号に対しても等化を行うことができる。
実施の形態8.
 以上の実施の形態1から実施の形態7では、ステップサイズの学習は通信装置100-1の内部で処理するようにしたものである。実施の形態8では、ステップサイズの学習を通信装置の外部で行う場合について説明する。
 図15は、実施の形態8に係る通信装置1500-1の構成例を示す図である。通信装置1500-1は、制御部1501と、送受信処理部1502と、を備える。送受信処理部1502は、通信装置1500-1の外部にある学習装置1503と接続されている。図15には、通信装置1500-1の通信相手となる通信装置1500-2も図示している。図15では記載を省略しているが、通信装置1500-2の構成は、通信装置1500-1と同じ構成であってもよいし、通信装置1500-1と異なる構成であってもよい。また、学習装置1503は、ステップサイズ学習部1505を備える。なお、通信装置1500-1および学習装置1503によって、通信システム1510を構成している。
 図16は、実施の形態8に係る通信装置1500-1が備える送受信処理部1502の構成例を示す図である。送受信処理部1502は、送信処理部1601と、受信処理部1602と、を備える。送信処理部1601は、通信装置1500-2に対して送信信号1603を送信し、受信処理部1602は、通信装置1500-2からの受信信号1604を受信する。
 図17は、実施の形態8に係る送受信処理部1502が備える受信処理部1602の構成例を示す図である。受信処理部1602は、等化前処理部1701と、等化処理部1703と、等化後処理部1705と、参照信号生成部1706と、を備える。等化前処理部1701は、受信信号1604に対して等化前処理を行い、等化前信号1702を出力する。参照信号生成部1706は、参照信号1504-2を生成する。等化処理部1703は、学習用信号1504-1を学習装置1503に出力し、参照信号生成部1706から取得した参照信号1504-2、および学習装置1503から取得したステップサイズ1504-3を用いて、等化前信号1702に対して等化処理を行い、等化後信号1704を出力する。等化前処理部1701、等化後処理部1705、および参照信号生成部1706は、図3に示す等化前処理部301、等化後処理部305、および参照信号生成部306と同様の動作を行う。
 図18は、実施の形態8に係る受信処理部1602が備える等化処理部1703の構成例を示す図である。等化処理部1703は、線形等化部1801と、タップ係数調整部1802と、入力先制御部1804と、を備える。入力先制御部1804は、データ信号が受信されている時間範囲において、等化前信号1702を等化部入力信号1805-1として線形等化部1801に出力する。また、入力先制御部1804は、プリアンブル等の既知系列が受信されている時間範囲において、等化前信号1702をタップ調整信号1805-2としてタップ係数調整部1802に出力する。また、入力先制御部1804は、学習用のデータが受信されている時間範囲において、等化前信号1702を学習用信号1504-1として学習装置1503に出力する。タップ係数調整部1802は、参照信号1504-2、ステップサイズ1504-3、およびタップ調整信号1805-2を用いて、タップ係数1803を調整する。線形等化部1801は、タップ係数1803を用いて、等化部入力信号1805-1に対して線形等化を行い、等化後信号1704を出力する。
 次に、通信装置1500-1の動作について説明する。通信装置1500-1において、送受信処理部1502は、学習用信号1504-1および参照信号1504-2を学習装置1503に送信する。学習装置1503において、ステップサイズ学習部1505は、ステップサイズ1504-3に基づいて線形等化で使用されるタップ係数1803を調整して等化部入力信号1805-1である等化前信号1702に対して線形等化を行う通信装置1500-1で使用されるステップサイズ1504-3を学習する。ステップサイズ学習部1505は、送受信処理部1502から学習用信号1504-1および参照信号1504-2を受信すると、学習用信号1504-1および参照信号1504-2を用いて学習処理を行い、学習後のステップサイズ1504-3を送受信処理部1502に出力する。
 学習装置1503のステップサイズ学習部1505は、実施の形態1から実施の形態7の通信装置100-1が備えるステップサイズ学習部404またはステップサイズ学習部1104と同様の構成を有し、同様の動作を行う。すなわち、ステップサイズ学習部1505は、実施の形態1から実施の形態7において、ステップサイズ学習部404がステップサイズ405を学習する処理またはステップサイズ学習部1104がステップサイズ1105を学習する処理と同様の処理によって、ステップサイズ1504-3を学習する。このように、ステップサイズ学習部1505は、ステップサイズ学習部404またはステップサイズ学習部1104と同様の動作を行うので、ステップサイズ学習部1505の詳細な構成および動作の説明については省略する。通信システム1510は、実施の形態1などにおいて通信装置100-1が備えていたステップサイズ学習部を、通信装置100-1の外部の学習装置1503が備えるようにしたものである。
 以上のように、通信装置1500-1は、学習装置1503から取得したステップサイズ1504-3を用いて等化処理を行う。通信装置1500-1は、ステップサイズ1504-3の学習を外部の学習装置1503で行うようにしているので、実施の形態1などの通信装置100-1と比較して、学習処理による負荷を低減できるとともに、より高性能な外部の学習装置1503を利用することで学習の精度を向上させることができる。
実施の形態9.
 以上の実施の形態8では、ステップサイズ1504-3の学習を通信装置1500-1の外部で行うようにしたものである。実施の形態9では、通信装置と学習装置との間の信号のやりとりに無線通信網を利用する場合について説明する。
 図19は、実施の形態9に係る通信装置1900-1の構成例を示す図である。通信装置1900-1は、制御部1901と、送受信処理部1902と、を備える。図19には、通信装置1900-1の通信相手となる通信装置1900-2も図示している。送受信処理部1902は、無線リンク1904を介してアクセスポイント1903に接続されている。アクセスポイント1903は、学習装置1905と接続されている。アクセスポイント1903とは、例えば、無線LAN(Local Area Network)のアクセスポイント、公衆モバイル回線における基地局など、無線通信網で利用される装置である。なお、通信装置1900-1、アクセスポイント1903、および学習装置1905によって、通信システム1910を構成している。
 次に、通信装置1900-1の動作について説明する。実施の形態8における通信装置1500-1の送受信処理部1502と同様に、通信装置1900-1の送受信処理部1902は、学習用信号1905-1および参照信号1905-2を、無線リンク1904を介してアクセスポイント1903を経由して、信号1906として学習装置1905に送信する。学習装置1905は、図15に示すステップサイズ学習部1505と同様の機能を有するステップサイズ学習部1908を備える。実施の形態8のステップサイズ学習部1505と同様に、ステップサイズ学習部1908は、送受信処理部1902から学習用信号1905-1および参照信号1905-2を受信すると、学習用信号1905-1および参照信号1905-2を用いて学習処理を行い、学習後のステップサイズ1905-3を信号1907として送受信処理部1902に出力する。
 以上のように、学習装置1905は、通信装置1900-1との間の通信を、無線通信網を介した無線通信によって行う。通信装置1900-1は、ステップサイズ1905-3の学習を外部の学習装置1905で行う際に、学習に必要となる信号の送受信を、無線リンク1904を介して行うことで、通信装置1900-1および学習装置1905が同一の場所にある必要がなくなり、通信装置1900-1の移動が可能になる。
実施の形態10.
 以上の実施の形態9では、通信装置1900-1は、学習用信号1905-1として送信信号1603を学習装置1905に送信している。実施の形態10では、通信装置1900-1が、学習用信号を秘匿化する場合について説明する。
 図20は、実施の形態10に係る受信処理部1602が備える等化処理部1703の構成例を示す図である。等化処理部1703は、線形等化部2001と、タップ係数調整部2002と、入力先制御部2004と、学習用信号生成部2006と、を備える。入力先制御部2004は、データ信号が受信されている時間範囲において、等化前信号1702を等化部入力信号2005-1として線形等化部2001に出力する。また、入力先制御部2004は、プリアンブル等の既知系列が受信されている時間範囲において、等化前信号1702をタップ調整信号2005-2としてタップ係数調整部2002に出力する。また、入力先制御部2004は、学習用のデータが受信されている時間範囲において、等化前信号1702を学習用信号2005-3として学習用信号生成部2006に出力する。学習用信号生成部2006は、参照信号1905-2および学習用信号2005-3を用いて、学習用信号1905-1を生成し、学習装置1905に出力する。タップ係数調整部2002は、参照信号1905-2、ステップサイズ1905-3、およびタップ調整信号2005-2を用いて、タップ係数2003を調整する。線形等化部2001は、タップ係数2003を用いて、等化部入力信号2005-1に対して線形等化を行い、等化後信号1704を出力する。
 図21は、実施の形態10に係る学習装置1905のステップサイズ学習部1908が備えるNN層704-kの構成例を示す図である。NN層704-kは、内部パラメータ保持部2109-kと、内積計算器2100と、減算器2102と、乗算器2106と、加算器2108と、を備える。
 次に、等化処理部1703の動作について説明する。学習用信号生成部2006は、i番目の学習用信号2005-3をC(i)とし、k番目の参照信号1905-2をD(k)とすると、C(i+K),C(i+K-1),C(i+K-2),…,C(i-L+1)と、D(0),D(1),…,D(K-1)との組み合わせから、式(7)に従いデータベクトルc(k)を算出する。また、学習用信号生成部2006は、データベクトルc(k)と、D(0),D(1),…,D(K-1)とを用いて、式(11)および式(12)に従い、相関行列R(k)および相関ベクトルr(k)を算出し、相関行列R(k)および相関ベクトルr(k)を学習用信号1905-1として出力する。
 R(k)=c(k)c^H(k) …(11)
 r(k)=(D(k)*)×c(k) …(12)
 学習装置1905は、通信装置1900-1から学習用信号1905-1を受信する。学習装置1905において、ステップサイズ学習部1908のNN制御部701は、学習用信号1905-1に含まれる相関行列R(k)および相関ベクトルr(k)から目標タップ係数ベクトルuを式(13)に従い算出する。また、NN制御部701は、学習用信号1905-1に含まれる相関行列R(k)および相関ベクトルr(k)をNN層704-1~704-Kのインデックスkに合わせて、層データセット702-kとして出力する。
 u=(Σ_(k=0)^(k=K-1)R(k))^(-1)(Σ_(k=0)^(k=K-1)r(k)) …(13)
 NN層704-kにおいて、内部パラメータ保持部2109-kは、学習対象となる内部パラメータ2110を保持しており、学習処理部708から更新パラメータ709-kを取得すると、保持している内部パラメータ2110を更新パラメータ709-kに更新する。ステップサイズ学習部1908は、NN層704-1~704-Kを備えているので、内部パラメータ保持部2109-1~2109-Kを備えることになる。内積計算器2100は、前段の層より取得した信号706-k-1をW(k-1)とし、層データセット702-kに含まれる相関行列R(k)との内積Zを式(14)に従い計算し、信号2101として出力する。
 Z=R(k)W(k-1) …(14)
 減算器2102は、内積計算器2100から取得した信号2101と、層データセット702-kに含まれる相関ベクトルr(k)との差分r(k)-Zをとり、信号2105として出力する。
 乗算器2106は、減算器2102から取得した信号2105と、内部パラメータ保持部2109-kから出力される内部パラメータ2110とを乗算し、信号2107として出力する。
 加算器2108は、信号706-k-1と、乗算器2106から取得した信号2107との和を計算し、信号706-kとして出力する。
 以上のように、通信装置1900-1は、学習用信号2005-3である等化前信号1702、および参照信号1905-2から相関行列R(k)および相関ベクトルr(k)を算出し、相関行列R(k)および相関ベクトルr(k)を学習用信号1905-1として学習装置1905に送信する。学習装置1905のステップサイズ学習部1908は、相関行列R(k)および相関ベクトルr(k)を用いてステップサイズ1905-3を学習する。通信装置1900-1は、外部に出力する学習用信号1905-1を、受信信号自体ではなく、相関行列R(k)および相関ベクトルr(k)とし、学習用信号1905-1からは容易に受信信号自体を推定することができないようにすることで、受信信号の秘匿性を保ったまま、外部装置での学習を利用することができる。
実施の形態11.
 以上の実施の形態10では、1台の通信装置1900-1に閉じた学習を行うものである。実施の形態11では、複数の通信装置を用いた連合学習(Federated Learning)について説明する。
 図22は、実施の形態11に係るM台の通信装置2200-1~2200-Mによって連合学習を行う場合の通信システム2210の構成例を示す図である。通信システム2210は、通信装置2200-1~2200-Mと、アクセスポイント2202と、学習装置2203と、を備える。通信装置2200-1~2200-Mにおいて、通信装置2200-mは、m番目の通信装置である。mは、1以上M以下の整数である。通信装置2200-1~2200-Mは、無線リンク2201-1~2201-Mを介して、アクセスポイント2202に接続されている。無線リンク2201-1~2201-Mは、図19に示す無線リンク1904と同様である。アクセスポイント2202は、学習装置2203に接続されている。
 次に、動作について説明する。通信装置2200-1~2200-Mは、学習に必要となる参照信号1905-2および学習用信号1905-1を、各無線リンク2201-1~2201-Mを介してアクセスポイント2202を経由して、学習装置2203に送信する。学習装置2203のステップサイズ学習部2206は、通信装置2200-1~2200-Mのうち1つ以上から受信した信号2204である参照信号1905-2および学習用信号1905-1を利用して学習を行い、通信装置2200-1~2200-Mで共通のステップサイズ1905-3を算出する。学習装置2203は、算出したステップサイズ1905-3を信号2205として出力し、アクセスポイント2202を経由して、無線リンク2201-1~2201-Mを介して通信装置2200-1~2200-Mに送信する。
 以上のように、ステップサイズ学習部2206は、複数の通信装置2200-1~2200-Mから学習用信号1905-1すなわち等化前信号1702、および参照信号1905-2を取得してステップサイズ1905-3を学習する。ステップサイズ学習部2206は、複数の通信装置2200-1~2200-Mのデータを用いて学習を行うことで、学習に必要な多数のデータを効率よく収集して利用することができ、学習の精度を向上させることができる。
実施の形態12.
 実施の形態12では、実施の形態1の通信装置100-1を例にして、通信装置100-1の動作を、フローチャートを用いて説明する。また、通信装置100-1のハードウェア構成について説明する。
 図23は、実施の形態12に係る通信装置100-1の動作を示すフローチャートである。通信装置100-1において、受信処理部203の等化前処理部301は、受信信号204に対して等化前処理を行う(ステップS1)。等化処理部303において、ステップサイズ学習部404は、参照信号307および学習用信号407-3を用いてステップサイズ405を学習する(ステップS2)。タップ係数調整部402は、参照信号307、ステップサイズ405、およびタップ調整信号407-2を用いて、タップ係数403を調整する(ステップS3)。線形等化部401は、タップ係数403を用いて、等化部入力信号407-1に対して線形等化を行い(ステップS4)、等化後信号304を出力する。受信処理部203の等化後処理部305は、等化後信号304に対して等化後処理を行う(ステップS5)。
 つづいて、通信装置100-1のハードウェア構成について説明する。通信装置100-1において、送受信処理部101および制御部102は、処理回路により実現される。処理回路は、メモリに格納されるプログラムを実行するプロセッサおよびメモリであってもよいし、専用のハードウェアであってもよい。処理回路は制御回路とも呼ばれる。
 図24は、実施の形態12に係る通信装置100-1を実現する処理回路をプロセッサ91およびメモリ92で実現する場合の処理回路90の構成例を示す図である。図24に示す処理回路90は制御回路であり、プロセッサ91およびメモリ92を備える。処理回路90がプロセッサ91およびメモリ92で構成される場合、処理回路90の各機能は、ソフトウェア、ファームウェア、またはソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェアまたはファームウェアはプログラムとして記述され、メモリ92に格納される。処理回路90では、メモリ92に記憶されたプログラムをプロセッサ91が読み出して実行することにより、各機能を実現する。すなわち、処理回路90は、通信装置100-1の処理が結果的に実行されることになるプログラムを格納するためのメモリ92を備える。このプログラムは、処理回路90により実現される各機能を通信装置100-1に実行させるためのプログラムであるともいえる。このプログラムは、プログラムが記憶された記憶媒体により提供されてもよいし、通信媒体など他の手段により提供されてもよい。
 上記プログラムは、線形等化部401が、受信信号である等化部入力信号407-1を線形等化する線形等化ステップと、タップ係数調整部402が、ステップサイズ405に基づいて、線形等化で使用されるタップ係数403を調整するタップ係数調整ステップと、ステップサイズ学習部404が、ステップサイズ405を学習するステップサイズ学習ステップと、を通信装置100-1に実行させ、ステップサイズ学習ステップにおいて、NN層704-1~704-Kの各々が、規定された初期タップ係数703または前段のNN層704-kから出力された更新後のタップ係数である信号706-k、層データセット702-kに含まれる学習用信号407-3である等化前信号302、および層データセット702-kに含まれる規定された信号系列である参照信号307に基づいて、更新後のタップ係数を演算し、かつ演算で使用される内部パラメータ810を保持する演算ステップと、学習処理部708が、学習における誤差関数を、学習用信号407-3である等化前信号302および参照信号307から算出される最小2乗解に基づくタップ係数と、NN層704-1~704-Kの最後段であるNN層704-Kから出力される更新後のタップ係数であるNN出力706-Kとの平均2乗誤差として学習を行い、内部パラメータ810を更新する学習ステップと、内部パラメータ収集部700が、NN層704-1~704-Kから収集した内部パラメータ810である各層ステップサイズ707-1~707-Kに基づいて、ステップサイズ405を更新する更新ステップと、を通信装置100-1に実行させるプログラムであるとも言える。
 ここで、プロセッサ91は、例えば、CPU(Central Processing Unit)、処理装置、演算装置、マイクロプロセッサ、マイクロコンピュータ、またはDSP(Digital Signal Processor)などである。また、メモリ92は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable ROM)、EEPROM(登録商標)(Electrically EPROM)などの、不揮発性または揮発性の半導体メモリ、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、またはDVD(Digital Versatile Disc)などが該当する。
 図25は、実施の形態12に係る通信装置100-1を実現する処理回路を専用のハードウェアで構成する場合の処理回路93の例を示す図である。図25に示す処理回路93は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)、またはこれらを組み合わせたものが該当する。処理回路については、一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現するようにしてもよい。このように、処理回路は、専用のハードウェア、ソフトウェア、ファームウェア、またはこれらの組み合わせによって、上述の各機能を実現することができる。
 以上の実施の形態に示した構成は、一例を示すものであり、別の公知の技術と組み合わせることも可能であるし、実施の形態同士を組み合わせることも可能であるし、要旨を逸脱しない範囲で、構成の一部を省略、変更することも可能である。
 100-1,100-2,1500-1,1500-2,1900-1,1900-2,2200-1~2200-M 通信装置、101,1502,1902 送受信処理部、102,1501,1901 制御部、201,1601 送信処理部、202,1603 送信信号、203,1602 受信処理部、204,1604 受信信号、301,1000,1701 等化前処理部、302,1001,1702 等化前信号、303,1002,1703 等化処理部、304,1003,1704 等化後信号、305,1004,1705 等化後処理部、306,1006,1706 参照信号生成部、307,1007,1504-2,1905-2 参照信号、401,1101,1801,2001 線形等化部、402,1102,1802,2002 タップ係数調整部、403,504-1~504-L,604-1~604-L,1103,1406-1~1406-2L,1803,2003 タップ係数、404,1104,1505,1908,2206 ステップサイズ学習部、405,1105,1504-3,1905-3 ステップサイズ、406,1804,2004 入力先制御部、407-1,1805-1,2005-1 等化部入力信号、407-2,1107-2,1805-2,2005-2 タップ調整信号、407-3,1107-3,1504-1,1905-1,2005-3 学習用信号、500-1~500-L-1,505-1~505-L,600-1~600-L-1,605-1~605-L,607,609,706-1~706-K-1,801,803,805,807,907-1~907-K-1,908-1~908-K-1,909-1~909-K-1,1401-1~1401-L-1,1403-1~1403-2L,1407-1~1407-2L,1906,1907,2101,2105,2107,2204,2205 信号、501-1~501-L-1,601-1~601-L-1,1400-1~1400-L-1 遅延素子、502-1~502-L,602-1~602-L,804,806,1404-1~1404-2L,2106 乗算器、503,603,1405 係数分配器、506,606,808,1408,2108 加算器、608,802,2102 減算器、610 タップ係数更新部、611,1203 更新後タップ係数、700,900 内部パラメータ収集部、701,901 NN制御部、702-1~702-K,902-1~902-K 層データセット、703,903 初期タップ係数、704-1~704-K,904-1~904-K NN層、705,905 深層NN部、706-K,907-K NN出力、707-1~707-K,913-1~913-K 各層ステップサイズ、708,910 学習処理部、709-1~709-K,911-1~911-K 更新パラメータ、714,914 目標データセット、800,2100 内積計算器、809-1~809-K,1300-1~1300-K,2109-1~2109-K 内部パラメータ保持部、810,1310,2110 内部パラメータ、906-1~906-K-1 スイッチ、912-1~912-K-1 SW制御信号、1005 事後情報、1106 入力信号保存メモリ、1200 事前推定誤差計算部、1201 タップ更新処理部、1202 推定誤差、1301-1~1301-K 線形演算処理部、1402-1~1402-L 信号配分器、1503,1905,2203 学習装置、1510,1910,2210 通信システム、1903,2202 アクセスポイント、1904,2201-1~2201-M 無線リンク、2006 学習用信号生成部。

Claims (12)

  1.  受信信号を線形等化する線形等化部と、
     ステップサイズに基づいて、前記線形等化で使用されるタップ係数を調整するタップ係数調整部と、
     前記ステップサイズを学習するステップサイズ学習部と、
     を備え、
     前記ステップサイズ学習部は、
     各々が、規定された初期タップ係数または前段から出力された更新後のタップ係数、前記受信信号、および規定された信号系列である参照信号に基づいて、更新後のタップ係数を演算し、かつ前記演算で使用される内部パラメータを保持する複数のニューラルネットワーク層と、
     前記学習における誤差関数を、前記受信信号および前記参照信号から算出される最小2乗解に基づくタップ係数と、前記複数のニューラルネットワーク層の最後段から出力される更新後のタップ係数との平均2乗誤差として学習を行い、前記内部パラメータを更新する学習処理部と、
     前記複数のニューラルネットワーク層から収集した前記内部パラメータに基づいて、前記ステップサイズを更新する内部パラメータ収集部と、
     を備えることを特徴とする通信装置。
  2.  前記ステップサイズ学習部は、インクリメンタル学習によって前記ステップサイズを学習する、
     ことを特徴とする請求項1に記載の通信装置。
  3.  前記線形等化部によって前記受信信号が線形等化された等化後信号に対して等化後処理を行う等化後処理部と、
     前記等化後処理によって得られた事後情報に基づいて、前記参照信号を生成する参照信号生成部と、
     を備えることを特徴とする請求項1または2に記載の通信装置。
  4.  前記線形等化部は、前記線形等化として広義線形処理を行う、
     ことを特徴とする請求項1から3のいずれか1つに記載の通信装置。
  5.  ステップサイズに基づいて線形等化で使用されるタップ係数を調整して受信信号に対して前記線形等化を行う通信装置で使用される前記ステップサイズを学習するステップサイズ学習部、
     を備え、
     前記ステップサイズ学習部は、
     各々が、規定された初期タップ係数または前段から出力された更新後のタップ係数、前記受信信号、および規定された信号系列である参照信号に基づいて、更新後のタップ係数を演算し、かつ前記演算で使用される内部パラメータを保持する複数のニューラルネットワーク層と、
     前記学習における誤差関数を、前記受信信号および前記参照信号から算出される最小2乗解に基づくタップ係数と、前記複数のニューラルネットワーク層の最後段から出力される更新後のタップ係数との平均2乗誤差として学習を行い、前記内部パラメータを更新する学習処理部と、
     前記複数のニューラルネットワーク層から収集した前記内部パラメータに基づいて、前記ステップサイズを更新する内部パラメータ収集部と、
     を備えることを特徴とする学習装置。
  6.  前記通信装置との間の通信を、無線通信網を介した無線通信によって行う、
     ことを特徴とする請求項5に記載の学習装置。
  7.  前記ステップサイズ学習部は、複数の前記通信装置から前記受信信号および前記参照信号を取得して前記ステップサイズを学習する、
     ことを特徴とする請求項6に記載の学習装置。
  8.  前記通信装置は、前記受信信号および前記参照信号から相関行列および相関ベクトルを算出し、前記相関行列および前記相関ベクトルを前記学習装置に送信し、
     前記ステップサイズ学習部は、前記相関行列および前記相関ベクトルを用いて前記ステップサイズを学習する、
     ことを特徴とする請求項6または7に記載の学習装置。
  9.  請求項5に記載の学習装置と、
     前記学習装置から取得したステップサイズを用いて等化処理を行う通信装置と、
     を備えることを特徴とする通信システム。
  10.  通信装置を制御するための制御回路であって、
     受信信号を線形等化、
     ステップサイズに基づいて、前記線形等化で使用されるタップ係数を調整、
     前記ステップサイズを学習、
     前記ステップサイズの学習において、
     複数のニューラルネットワーク層の各々において、規定された初期タップ係数または前段から出力された更新後のタップ係数、前記受信信号、および規定された信号系列である参照信号に基づいて、更新後のタップ係数を演算し、かつ前記演算で使用される内部パラメータを保持、
     前記学習における誤差関数を、前記受信信号および前記参照信号から算出される最小2乗解に基づくタップ係数と、前記複数のニューラルネットワーク層の最後段から出力される更新後のタップ係数との平均2乗誤差として学習を行い、前記内部パラメータを更新、
     前記複数のニューラルネットワーク層から収集した前記内部パラメータに基づいて、前記ステップサイズを更新、
     を前記通信装置に実施させることを特徴とする制御回路。
  11.  通信装置を制御するためのプログラムが記憶された記憶媒体であって、
     前記プログラムは、
     受信信号を線形等化、
     ステップサイズに基づいて、前記線形等化で使用されるタップ係数を調整、
     前記ステップサイズを学習、
     前記ステップサイズの学習において、
     複数のニューラルネットワーク層の各々において、規定された初期タップ係数または前段から出力された更新後のタップ係数、前記受信信号、および規定された信号系列である参照信号に基づいて、更新後のタップ係数を演算し、かつ前記演算で使用される内部パラメータを保持、
     前記学習における誤差関数を、前記受信信号および前記参照信号から算出される最小2乗解に基づくタップ係数と、前記複数のニューラルネットワーク層の最後段から出力される更新後のタップ係数との平均2乗誤差として学習を行い、前記内部パラメータを更新、
     前記複数のニューラルネットワーク層から収集した前記内部パラメータに基づいて、前記ステップサイズを更新、
     を前記通信装置に実施させることを特徴とする記憶媒体。
  12.  線形等化部が、受信信号を線形等化する線形等化ステップと、
     タップ係数調整部が、ステップサイズに基づいて、前記線形等化で使用されるタップ係数を調整するタップ係数調整ステップと、
     ステップサイズ学習部が、前記ステップサイズを学習するステップサイズ学習ステップと、
     を含み、
     前記ステップサイズ学習ステップは、
     複数のニューラルネットワーク層の各々が、規定された初期タップ係数または前段から出力された更新後のタップ係数、前記受信信号、および規定された信号系列である参照信号に基づいて、更新後のタップ係数を演算し、かつ前記演算で使用される内部パラメータを保持する演算ステップと、
     学習処理部が、前記学習における誤差関数を、前記受信信号および前記参照信号から算出される最小2乗解に基づくタップ係数と、前記複数のニューラルネットワーク層の最後段から出力される更新後のタップ係数との平均2乗誤差として学習を行い、前記内部パラメータを更新する学習ステップと、
     内部パラメータ収集部が、前記複数のニューラルネットワーク層から収集した前記内部パラメータに基づいて、前記ステップサイズを更新する更新ステップと、
     を含むことを特徴とするステップサイズ更新方法。
PCT/JP2022/040183 2022-10-27 2022-10-27 通信装置、学習装置、通信システム、制御回路、記憶媒体およびステップサイズ更新方法 WO2024089844A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2023516268A JP7278520B1 (ja) 2022-10-27 2022-10-27 通信装置、学習装置、通信システム、制御回路、記憶媒体およびステップサイズ更新方法
PCT/JP2022/040183 WO2024089844A1 (ja) 2022-10-27 2022-10-27 通信装置、学習装置、通信システム、制御回路、記憶媒体およびステップサイズ更新方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/040183 WO2024089844A1 (ja) 2022-10-27 2022-10-27 通信装置、学習装置、通信システム、制御回路、記憶媒体およびステップサイズ更新方法

Publications (1)

Publication Number Publication Date
WO2024089844A1 true WO2024089844A1 (ja) 2024-05-02

Family

ID=86382616

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/040183 WO2024089844A1 (ja) 2022-10-27 2022-10-27 通信装置、学習装置、通信システム、制御回路、記憶媒体およびステップサイズ更新方法

Country Status (2)

Country Link
JP (1) JP7278520B1 (ja)
WO (1) WO2024089844A1 (ja)

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
ARCHANA SARANGI: "A MLP Equalizer Trained by Variable Step Size Firefly AIgürithm für Channel Equalizatiün", 2016 IEEE 1ST INTERNATIONAL CONFERENCE ON POWER ELECTRONICS, INTELLIGENT CONTROL AND ENERGY SYSTEMS (ICPEICES, 1 July 2016 (2016-07-01) - 6 July 2016 (2016-07-06), pages 1 - 5, XP093162758 *
EVANDROC. VILAS BOAS;JEFFERSOND.S. E SILVA;FELIPEA.P. FIGUEIREDO;LUCIANOL. MENDES;RAUSLEYA.A. SOUZA: "Artificial intelligence for channel estimation in multicarrier systems for B5G/6G communications: a survey", EURASIP JOURNAL ON WIRELESS COMMUNICATIONS AND NETWORKING, BIOMED CENTRAL LTD, LONDON, UK, vol. 2022, no. 1, 2 December 2022 (2022-12-02), London, UK, pages 1 - 63, XP021311372, DOI: 10.1186/s13638-022-02195-3 *
HUA CAI: "MIMO-OFDM channel estimation based on Neural Network", 2010 6TH INTERNATIONAL CONFERENCE ON WIRELESS COMMUNICATIONS NETWORKING AND MOBILE COMPUTING (WICOM), vol. 47, 23 September 2010 (2010-09-23) - 25 September 2010 (2010-09-25), pages 114 - 116, XP093162752, DOI: 10.3778/j.issn.1002-8331.2011.34.031 *
XIE XI HAI; FAN CHEN ZHAO; WANG SHUAI; ZHOU LI NA: "Varible Step Size Multi-Layer Neural Network Blind Equalization Algorithm", 2022 4TH INTERNATIONAL CONFERENCE ON NATURAL LANGUAGE PROCESSING (ICNLP), IEEE, 25 March 2022 (2022-03-25), pages 477 - 481, XP034188088, DOI: 10.1109/ICNLP55136.2022.00087 *

Also Published As

Publication number Publication date
JP7278520B1 (ja) 2023-05-19

Similar Documents

Publication Publication Date Title
EP1430672B1 (en) Fast computation of decision feedback equalizer coefficients
Farhang-Boroujeny Adaptive filters: theory and applications
US7764732B2 (en) Adaptive error slicer and residual intersymbol interference estimator
US7382827B2 (en) Computation of decision feedback equalizer coefficients with constrained feedback tap energy
KR100708482B1 (ko) 채널 등화기 및 채널 등화 방법
US4550415A (en) Fractionally spaced equalization using nyquist-rate coefficient updating
JP2005510182A (ja) データレートに非同期のサンプリングレートで動作するアダプティブ・イコライザ
TW577207B (en) Method and circuit adapted for blind equalizer
WO1995012926A1 (fr) Procede de demodulation adaptative produisant des repliques et demodulateur l'utilisant
JP5484682B2 (ja) 無線通信装置、イコライザ、イコライザ重み係数演算プログラムおよびイコライザ重み係数演算方法
US5282225A (en) Adaptive blind channel equalizer system
JPH0511449B2 (ja)
WO2024089844A1 (ja) 通信装置、学習装置、通信システム、制御回路、記憶媒体およびステップサイズ更新方法
Zhao et al. Efficient Nonlinear Adaptive Filters: Design, Analysis and Applications
CN108574653B (zh) 基于双Sigmoid迟滞噪声混沌神经网络的信号盲检测方法
Miroshnikova Adaptive blind equalizer for HF channels
Klein et al. MMSE decision feedback equalization of pulse position modulated signals
Zerdoumi et al. Neural networks based equalizer for signal restoration in digital communication channels
Azpicueta-Ruiz et al. Combined Filtering Architectures For Complex Nonlinear Systems
Diniz et al. Fundamentals of adaptive filtering
Feng et al. The design of satellite equalizer based on CNN
Amgothu et al. Artificial Neural Network based interference mitigation through nonlinear channel equalization
Chen Adaptive equalisation using neural networks
Chen et al. Parallel Blind Adaptive Equalization of Improved Block Constant Modulus Algorithm with Decision-Directed Mode
Ali et al. Developing and Building an Intelligent Inter-Symbol Interference Reduction System Using Deep Learning Techniques

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22963492

Country of ref document: EP

Kind code of ref document: A1