WO2023144966A1 - シンボル判定装置、シンボル判定方法及びプログラム - Google Patents

シンボル判定装置、シンボル判定方法及びプログラム Download PDF

Info

Publication number
WO2023144966A1
WO2023144966A1 PCT/JP2022/003121 JP2022003121W WO2023144966A1 WO 2023144966 A1 WO2023144966 A1 WO 2023144966A1 JP 2022003121 W JP2022003121 W JP 2022003121W WO 2023144966 A1 WO2023144966 A1 WO 2023144966A1
Authority
WO
WIPO (PCT)
Prior art keywords
sequence
symbol
unit
transmission
signal sequence
Prior art date
Application number
PCT/JP2022/003121
Other languages
English (en)
French (fr)
Inventor
寛樹 谷口
秀人 山本
陽 増田
由明 木坂
Original Assignee
日本電信電話株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電信電話株式会社 filed Critical 日本電信電話株式会社
Priority to PCT/JP2022/003121 priority Critical patent/WO2023144966A1/ja
Publication of WO2023144966A1 publication Critical patent/WO2023144966A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B10/00Transmission systems employing electromagnetic waves other than radio-waves, e.g. infrared, visible or ultraviolet light, or employing corpuscular radiation, e.g. quantum communication
    • H04B10/60Receivers
    • H04B10/66Non-coherent receivers, e.g. using direct detection
    • H04B10/69Electrical arrangements in the receiver
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B3/00Line transmission systems
    • H04B3/02Details
    • H04B3/04Control of transmission; Equalising

Definitions

  • the present invention relates to a symbol determination device, a symbol determination method, and a program.
  • DC Data Center
  • Ethernet registered trademark
  • optical fiber communication is applied to transmission lines up to 40 km, except for 10GbE (Gigabit Ethernet (registered trademark))-ZR.
  • 10GbE Gigabit Ethernet (registered trademark)
  • up to 100 GbE an intensity modulation method that assigns binary information to on/off of light is used.
  • the receiving side is composed only of a photodetector, and has a less expensive configuration than the coherent receiving system used for long-distance transmission.
  • a transmission capacity of 100 Gbps is achieved by four-wave multiplexing of NRZ (Non-return-to-zero) signals with a modulation speed of 25 GBd (GigaBaud) and an information amount per symbol of 1 bit/symbol. Realized.
  • NRZ Non-return-to-zero
  • Methods to solve such problems include using DACs (Digital to Analog Converters) and ADCs (Analog to Digital Converters) that support high-speed communication, and using dispersion compensation modules that compensate for wavelength dispersion.
  • DACs Digital to Analog Converters
  • ADCs Analog to Digital Converters
  • dispersion compensation modules that compensate for wavelength dispersion.
  • FIG. 29 is a block diagram illustrating a conventional communication system 100 constructed using the low-cost narrowband devices described above.
  • the communication system 100 includes a signal generation device 3 on the transmission side, a transmission line 2, and an identification device 4z on the reception side.
  • the signal generator 3 takes in an externally supplied m-value data sequence and generates a transmission symbol sequence formed by arranging transmission symbols of a digital electrical signal in time series, that is, a transmission signal sequence ⁇ s t ⁇ .
  • m is the symbol multilevel degree and is an integer of 2 or more.
  • the intensity modulator 2-2 takes in the transmission signal sequence ⁇ s t ⁇ of the digital electric signal output from the signal generator 3.
  • FIG. The intensity modulator 2-2 intensity-modulates the light emitted from the light source 2-1 with the transmission signal sequence ⁇ s t ⁇ of the received digital electric signal to generate the transmission signal sequence ⁇ s t ⁇ of the optical signal.
  • the optical fiber 2-3 transmits the transmission signal sequence ⁇ s t ⁇ of the optical signal generated by the intensity modulator 2-2.
  • the optical receiver 2-4 receives the transmission signal sequence ⁇ s t ⁇ of the optical signal transmitted by the optical fiber 2-3 as the reception signal sequence ⁇ r t ⁇ of the optical signal, and converts the reception signal of the analog electric signal by the direct detection method. It is converted into a sequence ⁇ r t ⁇ and output.
  • the light receiver 2-4 is, for example, a photodiode.
  • the identifying device 4z comprises a receiving section 5, a symbol determining section 90 and a demodulating section 7.
  • the receiving unit 5 performs preprocessing such as converting a received signal sequence ⁇ r t ⁇ of analog electrical signals output by the photodetector 2-4 into a received signal sequence ⁇ r t ⁇ of digital electrical signals.
  • the received signal sequence ⁇ r t ⁇ of the obtained digital electric signal is output to the symbol decision section 90 .
  • the symbol decision unit 90 identifies and outputs an estimated value of the transmission symbol (hereinafter referred to as “estimated transmission symbol”) by performing transmission symbol determination on the received signal sequence ⁇ r t ⁇ .
  • the demodulator 7 restores and outputs an m-value data sequence from the estimated transmission signal sequence formed from the estimated transmission symbols output from the symbol determination unit 90 .
  • the transmission line 2 is represented by an equalization circuit
  • the configuration is as shown in FIG. In FIG. 30, on the transmission path 2, assuming that inter-symbol interference occurs to codes separated by L symbols each before and after the code at time t, the optical transmission signal sequence ⁇ s t ⁇ at time t A configuration in which L symbols before the symbol and L symbols after the symbol are given to the transfer function unit 83 is shown.
  • the delay device 81 takes in and stores the transmission symbols included in the transmission signal sequence ⁇ s t ⁇ , and outputs the stored transmission symbols after the elapse of time "-LT". Since the delay amount has a minus sign, the delay device 81 gives a negative delay of "LT".
  • T is the symbol interval, and the timing of calculation for each symbol is "tT”.
  • Each of the delay units 82-1 to 82-2L takes in and stores the transmission symbol output by the previous delay unit 81, 82-1 to 82-(2L-1) connected to each, and stores "T”. After the time elapses, the stored transmission symbol is output.
  • a transfer function unit 83 applies a transfer function (H) to the symbol sequences output from the delay units 81, 82-1 to 82-2L.
  • the adder 85 adds the noise component ⁇ t to the output value of the transfer function unit 83 to generate a received signal sequence ⁇ r t ⁇ .
  • ⁇ t is a mutually independent Gaussian random sequence with mean 0 and variance ⁇ 2 .
  • the received signal sequence ⁇ r t ⁇ generated by the equalization circuit of FIG. 30 is represented by the following equation (1).
  • an estimated transfer function (hereinafter referred to as "estimated transfer function (H')" is applied to all transmission signal sequences ⁇ s t ⁇ , and the output sequence is referred to as a received signal sequence ⁇ r t ⁇ to estimate the most likely transmission symbol corresponding to the received signal sequence ⁇ r t ⁇ .
  • H' estimated transfer function
  • a method of limiting the length of the sequence for comparison that is, maximizing the conditional joint probability density function p N ( ⁇ r N ⁇ s′ N ⁇ ) shown in the following equation (2)
  • a method of determining a transmission symbol is used by searching for a transmission signal sequence ⁇ s′ t ⁇ that makes .
  • the conditional joint probability density function p N ( ⁇ r N ⁇ ⁇ s' N ⁇ ) is the transmitted signal sequence ⁇ s' t ⁇ of sequence length N generated from the m-value data sequence through the transmission path 2. , the probability of receiving the received signal sequence ⁇ r t ⁇ is shown. As can be seen from Equation (2), the sequence length of the transmission signal sequence ⁇ s' t ⁇ corresponding to one t is limited to "2L+1" instead of "N".
  • transmission path state ⁇ t (hereinafter referred to as “transmission path state ⁇ t ”).
  • the transmission line 2 can be regarded as a finite state machine with mp finite transmission line states. Therefore, for example, the Viterbi algorithm or the like can be used to calculate the distance function d N by performing sequential calculation for each received signal sequence ⁇ r t ⁇ .
  • the distance function d t ( ⁇ t ⁇ ) reaching the transmission line state ⁇ t at time t is the distance function d t ⁇ 1 ( ⁇ t ⁇ 1 ⁇ ) at time t ⁇ 1 and the state transition at time t is represented by the following equation (4) using the likelihood associated with , that is, the metric b(r t ; ⁇ t ⁇ 1 ⁇ t ).
  • the metric b(r t ; ⁇ t-1 ⁇ t ) is expressed as the following equation (5) using the estimated transfer function (H').
  • the metric b at time t depends only on the state transition from t ⁇ 1 to t and not on the previous state transitions.
  • the minimum value d_min t ⁇ 1 ( ⁇ t ⁇ 1 ) of the distance function reaching the transmission line state ⁇ t and all state transitions corresponding to this are the all transmission line states ⁇ t ⁇ 1 is known.
  • the symbol determining unit 90 estimates the estimated transfer function (H'), and for the estimated estimated transfer function (H'), A symbol sequence (s' t - (p-1)/2 , ..., s' t , ..., s' t + (p-1)/2 ) representing the transmission channel state ⁇ t at time t is substituted.
  • the symbol decision unit 90 adds (s' t-(p-1)/2 , ..., s' t , ..., s' t + (p- 1)/2 ) is substituted, and the metric b(r t ; ⁇ t ⁇ 1 ⁇ t ) is calculated from the above equation (5).
  • the symbol determination unit 90 calculates d_min t ⁇ 1 ( ⁇ t ⁇ 1 )+b(r t ; ⁇ t ⁇ 1 ⁇ t ) shown in Equation (6) by, for example, the Viterbi algorithm, and the calculated value Let d_min t ( ⁇ t ) be the minimum value of the distance function d t ( ⁇ t ⁇ ).
  • the symbol determination unit 90 identifies an estimated transmission symbol by tracing the paths of the trellis based on the minimum value d_min t ( ⁇ t ) of the distance function d t ( ⁇ t ⁇ ).
  • Hiroki Taniguchi et al. "Demonstration of O-band 255-Gb/s PAM-8 optical transmission under 20-GHz band-limited environment using MLSE based on nonlinear channel estimation", IEICE Technical Report, OCS2019-18, (2019- 06)
  • Hiroki Taniguchi et al. "Demonstration of 255-Gbps PAM8 O-band SMF 10-km transmission by applying trellis path limited MLSE”
  • IEICE Technical Report, OCS2019-65 (2020-01)
  • Hiroki Taniguchi et al. "Demonstration of 255-Gbps PAM8 O-band SMF 20-km transmission by applying computation scale reduction nonlinear MLSE”
  • IEICE Conference Proceedings IEICE Society Conference Proceedings
  • No. 2020, B-10-20 No. 2020, B-10-20, (2020-09-01)
  • Non-Patent Documents 2 and 4 propose a method called non-linear maximum likelihood sequence estimation (hereinafter referred to as “NL-MLSE” (Non Linear-MLSE)) in order to solve these problems.
  • NL-MLSE non-linear maximum likelihood sequence estimation
  • FIG. 31 is a block diagram showing the configuration of a symbol determination section 90a of the NL-MLSE system applied in place of the symbol determination section 90 included in the communication system 100 shown in FIG.
  • the symbol determination unit 90 a includes a candidate symbol sequence generation unit 91 , a replica generation filter unit 92 , a subtractor 93 , a metric calculation unit 94 , a Viterbi decoding unit 95 and an update processing unit 96 .
  • the candidate symbol sequence generator 91 generates a candidate symbol sequence ⁇ s′ t ⁇ indicating the state of the transmission channel 2, that is, the symbol sequence ( s ' t-(p-1)/2 ,..., s' t ,..., s' t+(p-1)/2 ).
  • the replica generation filter unit 92 includes, for example, a nonlinear filter such as a Volterra filter.
  • the replica generation filter unit 92 applies a non-linear filter to the candidate symbol sequence ⁇ s′ t ⁇ output by the candidate symbol sequence generation unit 91 to generate a replica of the received signal sequence.
  • the subtractor 93 takes in the received signal sequence ⁇ r t ⁇ and the replica of the received signal sequence generated by the replica generation filter unit 92, subtracts the replica of the received signal sequence from the received signal sequence ⁇ r t ⁇ , and obtains a subtraction value is obtained, and the obtained subtraction value is output.
  • the metric calculator 94 squares the absolute value of the subtraction value output from the subtractor 93 to calculate the metric of the above equation (5).
  • the Viterbi decoding unit 95 applies the Viterbi algorithm to the metrics calculated by the metric calculation unit 94 to specify estimated transmission symbols.
  • the update processing unit 96 calculates an estimated transfer function (H') based on the metric calculated by the metric calculation unit 94.
  • the update processing unit 96 calculates tap gain values to be applied to the taps of the nonlinear filter of the replica generation filter unit 92 based on the calculated estimated transfer function (H'). For example, if the nonlinear filter is a Volterra filter, each Volterra kernel in the Volterra series is a tap.
  • the update processing unit 96 applies the calculated tap gain values to the taps of the nonlinear filter of the replica generation filter unit 92 to update the tap gain values.
  • a linear filter is applied as the filter of the replica generation filter unit 92, it becomes the structure which performs symbol determination by the conventional MLSE system.
  • a non-linear filter is applied as the filter of the replica generation filter unit 92 . Therefore, in the NL-MLSE system, even if the transfer function (H) of the transmission path 2 is affected by the nonlinear response, it is possible to estimate the transfer function taking into account the influence of the nonlinear response of the transmission path 2 .
  • the NL-MLSE method is a method in which noise enhancement due to nonlinear calculation does not occur, so it is an effective equalization method for estimating the correct transmission signal sequence ⁇ s t ⁇ from the received signal waveform distorted by intersymbol interference. You can say that. Therefore, the symbol decision unit 90a adopting the NL-MLSE scheme generates a replica of the received signal sequence using the estimated transfer function (H') that takes into account the influence of the nonlinear response, and the received signal sequence ⁇ r t ⁇ . By comparing and identifying the estimated transmission symbols, it is possible to obtain the most likely generated sequence, that is, the estimated transmission signal sequence formed by the identified estimated transmission symbols.
  • H' estimated transfer function
  • the nonlinear filter applied to the replica generation filter unit 92 is, for example, the third-order Volterra filter shown in the following equation (7), convolution of the nonlinear response can be performed only once. Therefore, there is a problem that the transfer function of the actual channel response, which is a repetition of linear and nonlinear responses, cannot be approximated with high accuracy.
  • An aspect of the present invention is a candidate symbol sequence generator that generates a plurality of candidate symbol sequences that are candidates for a transmission signal sequence formed by transmission symbols, and approximates a transfer function of a transmission channel that transmits the transmission signal sequences.
  • a transmission path estimator having a function approximator, and outputting an estimated received symbol obtained as an output of the function approximator when each of the plurality of candidate symbol sequences is given to the function approximator as an input sequence; Determination of the transmission symbol by maximum likelihood sequence estimation based on the received symbol sequence to be determined obtained from the received signal sequence when the transmission line transmits the transmission signal sequence and the estimated received symbol for each of the candidate symbol sequences.
  • a determination processing unit configured to specify an estimated transmission symbol corresponding to the received symbol sequence to be determined by performing a determination processing unit, and the transmission signal sequence transmitted when the received signal sequence is received, or the estimated transmission symbol.
  • an optimizing unit for optimizing the function approximator so that when a sequence obtained from the estimated transmission signal sequence obtained from the estimated transmission signal sequence is given as an input sequence, the determination target received symbol forming the determination target received symbol sequence is obtained as an output. and a symbol determination device.
  • a plurality of candidate symbol sequences that are candidates for a transmission signal sequence formed by transmission symbols are generated, each of the plurality of generated candidate symbol sequences is used as an input sequence, and the transmission signal sequence is transmitted.
  • an estimated received symbol obtained as an output of the function approximator is output, and a received signal sequence when the transmission line transmits the transmission signal sequence and an estimated transmission symbol corresponding to the determination target received symbol sequence by determining the transmission symbol by maximum likelihood sequence estimation based on the determination target received symbol sequence obtained from and given as an input sequence the transmission signal sequence transmitted when the received signal sequence is received or a sequence obtained from the estimated transmission signal sequence formed by the estimated transmission symbols
  • the symbol decision method optimizes the function approximator so that the received symbol to be decided forming the received symbol sequence to be decided is obtained as an output.
  • a computer comprises: candidate symbol sequence generation means for generating a plurality of candidate symbol sequences that are candidates for a transmission signal sequence formed by transmission symbols; Transmission path estimating means having a function approximator for approximation, and outputting an estimated received symbol obtained as an output of the function approximator when each of the plurality of candidate symbol sequences is given to the function approximator as an input sequence. and determining the transmission symbol by maximum likelihood sequence estimation based on the received symbol sequence to be judged obtained from the received signal sequence when the transmission line transmits the transmission signal sequence and the estimated received symbol for each of the candidate symbol sequences.
  • decision processing means for identifying an estimated transmission symbol corresponding to the received symbol sequence to be determined by making a decision; the transmission signal sequence transmitted when the received signal sequence is received; or formed by the estimated transmission symbol.
  • optimization means for optimizing the function approximator so that when a sequence obtained from the estimated transmission signal sequence obtained from the estimated transmission signal sequence is given as an input sequence, the determination target received symbol forming the determination target received symbol sequence is obtained as an output , is a program for functioning as
  • FIG. 1 is a block diagram showing the configuration of a communication system according to a first embodiment
  • FIG. 4 is a block diagram showing the internal configuration of a symbol determination section in the first embodiment
  • FIG. 3 is a block diagram showing the detailed internal configuration of a symbol determination unit in the first embodiment
  • FIG. FIG. 4 is a diagram for explaining a sequence taken in by a phase adjustment section in the first embodiment
  • FIG. FIG. 4 is a diagram illustrating an outline of pulse width compression in the first embodiment
  • It is a figure which shows an example of a structure of the neural network in 1st Embodiment. It is a figure which shows the flow of a process by the phase adjustment part in 1st Embodiment.
  • FIG. 11 is a block diagram showing the internal configuration of a symbol determination unit in the second embodiment
  • FIG. 9 is a block diagram showing the detailed internal configuration of a symbol determination unit in the second embodiment
  • FIG. 10 is a diagram showing the flow of processing by a maximum likelihood sequence estimator in the second embodiment
  • FIG. 12 is a block diagram showing the internal configuration of a symbol determination unit in the third embodiment
  • FIG. 11 is a block diagram showing the detailed internal configuration of a symbol determination unit according to the third embodiment;
  • FIG. 11 is a diagram showing the flow of processing by an optimization unit of a symbol determination unit in the third embodiment;
  • FIG. 11 is a block diagram showing the detailed internal configuration of a symbol determination unit according to the third embodiment;
  • FIG. 11 is a block diagram showing the detailed internal configuration of a symbol determination unit according to the third embodiment;
  • FIG. 12 is a diagram showing the flow of processing by a symbol determination unit in the third embodiment;
  • FIG. 12 is a block diagram showing the internal configuration of a symbol determination unit in the fourth embodiment;
  • FIG. It is a figure which shows the flow of a process by the phase adjustment part in 4th Embodiment.
  • 1 is a block diagram showing the configuration of a communication system used in experiments using an experimental system;
  • FIG. 10 is a graph showing the relationship between the bit error rate measured in the communication system used in the experiment using the experimental system and the number of intermediate layers;
  • FIG. 10 is a graph showing the relationship between the bit error rate measured in the communication system used in the experiment using the experimental system and the number of nodes in the intermediate layer.
  • FIG. 10 is a graph showing the effect of device bandwidth limitations as transmission capacity increases.
  • FIG. 4 is a graph showing the effect of chromatic dispersion when transmission capacity increases. 4 is a graph showing input/output characteristics of a driver and a photodetector; 4 is a graph showing input/output characteristics of a modulator; 4 is a graph showing loss characteristics in the frequency domain;
  • 1 is a block diagram showing the configuration of a conventional communication system;
  • FIG. 3 is a block diagram of an equalization circuit of a transmission line;
  • FIG. FIG. 11 is a block diagram showing the internal configuration of a symbol determination unit corresponding to the technology disclosed in Non-Patent Document 2;
  • FIG. 1 is a block diagram showing the configuration of a communication system 1 according to the first embodiment.
  • a communication system 1 includes a signal generator 3 , a transmission line 2 and an identification device 4 .
  • the signal generation device 3 and the transmission line 2 have the same configurations as the signal generation device 3 and the transmission line 2 included in the conventional communication system 100 shown in FIG.
  • the identifying device 4 comprises a receiving section 5 , a symbol determining section 6 and a demodulating section 7 .
  • the receiver 5 and demodulator 7 have the same configuration as the receiver 5 and demodulator 7 of the identification device 4z provided in the conventional communication system 100 shown in FIG.
  • the symbol determining unit 6 performs transmission symbol determination on the received signal sequence ⁇ r t ⁇ of the digital electrical signal output from the receiving unit 5 to specify an estimated transmission symbol corresponding to the received signal sequence ⁇ r t ⁇ . .
  • the symbol decision section 6 includes a phase adjustment section 30 and a maximum likelihood sequence estimation section 40 .
  • the phase adjustment unit 30 is, for example, an FFE (Feed Forward Equalizer), and outputs the received signal sequence ⁇ r t ⁇ of the digital electric signal by aligning the phase with the sampling phase.
  • the sampling phase is the phase of the transmission signal sequence ⁇ s t ⁇ .
  • Maximum-likelihood sequence estimator 40 applies an estimated transfer function (H′) to each of candidate symbol sequences ⁇ s′ t ⁇ , which are transmission signal sequences ⁇ s t ⁇ with a limited symbol sequence length, to obtain a plurality of Calculate the estimated received symbols for .
  • the maximum likelihood sequence estimator 40 determines a transmission symbol by maximum likelihood sequence estimation based on the calculated plurality of estimated received symbols and the determination target received symbol sequence obtained from the received signal sequence ⁇ r t ⁇ . Thereby, the maximum likelihood sequence estimator 40 identifies the estimated transmission symbol corresponding to the determination target received symbol sequence.
  • the phase adjustment section 30 includes an adaptive filter section 301 , a temporary decision processing section 302 and an update processing section 303 .
  • Adaptive filter section 301 is, for example, a linear transversal filter as shown in FIG.
  • Adaptive filter section 301 adaptively equalizes received signal sequence ⁇ r t ⁇ , which is an input signal, using an estimated inverse transfer function that approximates the inverse function of transfer function (H) of transmission line 2 .
  • the adaptive filter section 301 includes delay units 31, 32-1 to 32-(u-1), taps 33-1 to 33-u, and an adder 34, as shown in FIG.
  • the delay device 31 takes in u symbol sequences centered on the symbol at time t, which is part of the received signal sequence ⁇ r t ⁇ of sequence length N.
  • the delay unit 31 selects, from among the u number of symbol sequences taken in, "(u ⁇ 1)T/2" time before the time t, that is, "(u ⁇ 1)/2" number of symbols before the time t. , the symbol r t-(u-1)/2 is output. Therefore, r t-(u-1)/2 output from the delay device 31 is applied to the tap 33-1.
  • Each of the delay devices 32-1, 32-2 to 32-(u-1) has a delay time higher than the symbol output by the preceding delay device 31, 32-1 to 32-(u-2) connected to each. Output the symbol one symbol later.
  • the first delay unit 32-1 selects "(u-3)T/2" time before time t, that is, "(u-3)” before the symbol at time t, out of u symbol sequences. /2” symbols r t ⁇ (u ⁇ 3)/2 symbols are output.
  • the last delay unit 32-(u-1) delays "(u-1)T/2" time after time t, that is, "(u- 1)/2'' symbols later r t+(u ⁇ 1)/2 symbols are output.
  • the taps 33-1 to 33-u are supplied with a signal containing a symbol sequence of sequence length u given by the following equation (8).
  • These tap gain values f 1 to f u represent an estimated inverse transfer function that approximates the inverse function of the transfer function (H) of the transmission line 2 .
  • the taps 33-1 to 33-u multiply the given symbols by the respective tap gain values f 1 to f u and output the result.
  • the adder 34 sums and outputs the output values of the taps 33-1 to 33-u.
  • the sequence of signals shown in Equation (8) can be said to be a sequence centered on rt at time t, which is the “(u+1)/2”th element. Therefore, the output value of the adder 34 becomes a value obtained by the calculation shown in the following equation (9).
  • the temporary decision processing unit 302 performs temporary decision of transmission symbols by hard decision on the output value of the adaptive filter unit 301 .
  • Temporary determination processing section 302 outputs the temporarily determined transmission symbol (hereinafter referred to as “temporary determination symbol”) as a temporary determination result.
  • Update processing section 303 sets the target value of the output value of adaptive filter section 301 to the tap gain value f 1 to f u update values are calculated. For example, the update processing unit 303 calculates updated values of the tap gain values f 1 to f u representing the estimated inverse transfer function using an LMS (Least Mean Square) algorithm.
  • LMS Least Mean Square
  • the update processing unit 303 includes a filter update processing unit 35 and a subtractor 36, as shown in FIG.
  • subtractor 36 outputs a subtraction value obtained by subtracting the output value of adaptive filter section 301 from the temporary decision symbol output from temporary decision processing section 302 to filter update processing section 35 as an error.
  • the filter update processing unit 35 calculates updated values of the tap gain values f 1 to f u using the LMS algorithm so as to reduce the error output by the subtractor 36 .
  • the filter update processing unit 35 sets the calculated update values of the tap gain values f 1 to f u to the taps 33-1 to 33-u to update the tap gain values f 1 to f u .
  • Maximum likelihood sequence estimator 40 includes low-pass filter 401 , decision processor 402 , channel estimator 403 , optimizer 404 , candidate symbol sequence generator 405 and weight selector 406 .
  • the low-pass filter unit 401 is, for example, a linear transversal filter as shown in FIG. 3, and is a low-pass filter that suppresses high frequency components. Since the adaptive filter section 301 of the phase adjustment section 30 amplifies the high frequency components that have been reduced by the transmission line 2, it also amplifies the high frequency components of the white noise. The low-pass filter section 401 suppresses the high-frequency component of the white noise that has been amplified by the adaptive filter section 301 in the previous stage.
  • Low-pass filter section 401 compresses the impulse response of received signal sequence ⁇ r t ⁇ in order to reduce the storage length of channel estimation section 403 .
  • Impulse response compression here means compressing the pulse width of a signal sequence that spreads over time due to band limitation and chromatic dispersion, as shown in FIG. can do.
  • the low-pass filter unit 401 includes delay units 41, 42-1 to 42-(v-1), taps 43-1 to 43-v, and an adder 44, as shown in FIG. Similarly to the delay device 31, the delay device 41 uses the method shown in FIG. Import series.
  • the output signal sequence of adaptive filter section 301 is indicated as ⁇ r' t ⁇ .
  • the delay unit 41 selects "(v-1)T/2" time before the time t, that is, "(v-1)/2” symbols before the time t from among the v symbol sequences taken in. symbols, the previous symbol r't-(v-1)/2 is output. Therefore, r't-(v-1)/2 output from the delay unit 41 is applied to the tap 43-1.
  • Each of the delay devices 42-1, 42-1 to 42-(v-1) has a delay time higher than the symbol output by the preceding delay device 41, 42-1 to 42-(v-2) connected to each. Output the next symbol for one symbol.
  • the first delay unit 42-1 selects "(v ⁇ 3)T/2" time before time t, that is, "(v ⁇ 3) /2” symbols, output the previous r′ t ⁇ (v ⁇ 3)/2 symbols.
  • the final delay unit 42-(v-1) selects the symbol sequence "(v-1)T/2" after time t, that is, "(v-1)” after the symbol at time t. 1)/2'' symbols, output the following r't +(v ⁇ 1)/2 symbols.
  • taps 43-1 to 43-v are supplied with a signal containing a symbol sequence of sequence length v given by the following equation (10).
  • Equation (10) can be said to be a sequence centered on r′t at time t, which is the “(v+1)/2”-th element. It becomes a value obtained by calculation.
  • the low-pass filter unit 401 has its degree of influence adjusted by the tap gain values c 1 , c 2 , . . . , c (v+1)/2 , . is output as one output symbol in which the amount of information of the symbol series is compressed. It is known that the computational complexity of MLSE increases exponentially with respect to the width of the pulse spread.
  • the output value output from the adder 44 of the low-pass filter section 401 becomes the determination target received symbol, and the determination target received symbol sequence is formed by arranging the determination target received symbol in time series.
  • Candidate symbol sequence generation section 405 has the same configuration as candidate symbol sequence generation section 91 shown in FIG. 31, and generates candidate symbol sequence ⁇ s ' t ⁇ .
  • the candidate symbol sequence ⁇ s' t ⁇ is the symbol sequence (s ' t ⁇ (p ⁇ 1)/2 , . . . , s′ t , . . . , s′ t+(p ⁇ 1)/2 ).
  • candidate symbol sequence generation section 405 generates [0,0,0], [0,0,1], ⁇ , [2,2,3], [2,3,0 ], . .
  • Candidate symbol sequence generation section 405 sends the generated “m p ” candidate symbol sequences ⁇ s′ t ⁇ for each sequence to addition comparison selection section 52, path tracing determination section 51, and transmission path estimation section 403. Output.
  • the channel estimation unit 403 has a function approximator that approximates the transfer function (H) of the channel 2, that is, a deep neural network that is a function approximator that calculates the estimated transfer function (H').
  • Transmission path estimating section 403 supplies each of a plurality of candidate symbol sequences ⁇ s′ t ⁇ generated by candidate symbol sequence generating section 405 to the deep neural network as an input sequence, thereby corresponding to each of the input sequences. Calculate estimated received symbols.
  • An estimated received symbol sequence is formed by arranging a plurality of estimated received symbols calculated by transmission path estimation section 403 in time series.
  • the transmission channel estimation unit 403 includes a DNN (Deep Neural Network) unit 61 and a candidate symbol sequence input unit 62, as shown in FIG.
  • Candidate symbol sequence input section 62 sequentially acquires “m p ” candidate symbol sequences ⁇ s′ t ⁇ output by candidate symbol sequence generation unit 405 for each sequence, and obtains candidate symbol sequences ⁇ s′ t ⁇ in the order of acquisition.
  • is output to a corresponding node in the input layer of the DNN unit 61 .
  • candidate symbol sequence input section 62 outputs an optimal As with the delayers 72-1 to 72-(p-1) of the optimizing section 404, p-1 delayers for delaying the received symbols by T time and then outputting them may be connected.
  • the DNN unit 61 is, for example, a forward-propagating deep neural network, and performs iterative calculation of the recurrence formula of the following formula (12).
  • X i+1 is the output vector of the i layer
  • X i is the input vector of the i layer
  • W i is the weight parameter matrix
  • B i is the bias parameter matrix.
  • the function f( ⁇ ) is an activation function, and for example, a ReLU (Rectified Linear Unit) function given by the following equation (13) is applied.
  • the function f( ⁇ ) is a function that performs nonlinear operations. Therefore, the repetitive computation of the recurrence formula of the following equation (12) is a computation that repeats linear convolution and nonlinear computation. Therefore, by applying appropriate weight parameters and appropriate bias parameters, the DNN unit 61 can approximate the transfer function (H) representing the transmission response of the transmission line 2, which is a repetition of linear and nonlinear responses.
  • the DNN unit 61 is provided with, for example, a neural network 200 which is a forward propagation type deep neural network as shown in FIG. 6 and is a so-called multi-layer perceptron.
  • Neural network 200 includes input layer nodes 210-1, 210-2, 210-3, first intermediate layer nodes 220-1, 220-2, 220-3, second intermediate layer nodes 230-1, 230 -2, 230-3 and an output layer node 240.
  • the input layer nodes 210-1 to 210-3, the first intermediate layer nodes 220-1 to 220-3, the second intermediate layer nodes 230-1 to 230-3, and the output layer node 240 are represented by neuron Also called A connection between two neurons is also called a synapse.
  • Each of the input layer nodes 210-1, 210-2, 210-3 takes a symbol of each of the candidate symbol sequences ⁇ s' t-1 , s' t , s' t+1 ⁇ of sequence length three.
  • the input layer node 210-1 takes s' t-1 and outputs the taken s' t-1 as the output value i1 .
  • the input layer node 210-2 takes s't and outputs the taken s't as the output value i2 .
  • the input layer node 210-3 takes s' t+1 and outputs the taken s' t+1 as the output value i3 .
  • a vertical vector whose elements are the output values i 1 , i 2 , and i 3 of the input layer nodes 210-1, 210-2, and 210-3 is defined as vector i. .
  • the first hidden layer node 220-1 multiplies the output value i 1 output by the input layer node 210-1 by the weight w 1 1-1 , and the output value i 2 output by the input layer node 210-2. is multiplied by the weight w 1 1-2 , the output value i 3 output from the input layer node 210-3 is multiplied by the weight w 1 1-3 , and the sum of the multiplication values obtained by the three multiplications is apply an activation function f( ⁇ ) to it.
  • the first hidden layer node 220-1 calculates the output value h 1 1 by adding the bias b 1 1 to the output value of the activation function f( ⁇ ).
  • the horizontal vector whose elements are the weights w 1 1-1 , w 1 2-1 , and w 1 3-1 to be multiplied at the first intermediate layer node 220-1 is vector Define as W 1 1 .
  • the output value h 1 1 of the first intermediate layer node 220-1 can be expressed as the following equation (16) using equations (12), (14) and (15).
  • the output value h 1 2 of the first hidden layer node 220-2 can be expressed as the following equation (17).
  • the output value h 1 3 of the first hidden layer node 220-3 can be expressed as the following equation (18).
  • b 1 1 , b 1 2 , and b 1 3 are the biases added by the first intermediate layer nodes 220-1, 220-2, and 220-3, respectively. be.
  • Each of the first intermediate layer nodes 220-1, 220-2, 220-3 and each of the second intermediate layer nodes 230-1, 230-2, 230-3 are interconnected.
  • the output values h 1 1 , h 1 2 and h 1 2 of the first intermediate layer nodes 220-1, 220-2 and 220-3 are used as elements Define the vertical vector as vector h1 .
  • Equation (20) the output values h 2 1 , h 2 2 and h 2 3 of the second hidden layer nodes 230-1, 230-2 and 230-3 are expressed by the following equation (20) can be expressed as
  • b 2 1 , b 2 2 and b 3 3 are biases added by the second intermediate layer nodes 230-1, 230-2 and 230-3, respectively.
  • Equation (21) vectors W 2 1 , W 2 2 and W 2 3 are defined by Equation (21) below.
  • Each of the second hidden layer nodes 230 - 1 , 230 - 2 and 230 - 3 connects to an output layer node 240 .
  • a vertical vector be defined as the vector h2 .
  • the output value o1 of the output layer node 240 can be expressed as the following equation (23).
  • b 3 1 is the bias added by the output layer node 240 .
  • weights and biases representing an estimated transfer function (H′) by supervised learning processing performed in advance using combinations of multiple input sequences and correct labels of outputs corresponding to each of the multiple input sequences. can be done.
  • the weights and biases obtained by the supervised learning process are applied to the corresponding first hidden layer nodes 220-1 to 220-3, second hidden layer nodes 230-1 to 230-3, and the output layer node 240. set.
  • the candidate symbol sequence ⁇ s′ t ⁇ is given to the input layer nodes 210-1 to 210-3
  • the estimated received symbol is obtained as the output value o 1 of the output layer node 240.
  • FIG. In the following description, a combination of weight and bias applied to one neuron is also referred to as a coefficient.
  • the neural network 200 is provided with p input layer nodes of input layer nodes 210-1, 210-2, . . . , 210-p. Become.
  • the configuration of the neural network 200 shown in FIG. 6 is an example of a deep neural network that the DNN section 61 has.
  • the number of nodes in the input layer is made equal to the number of the sequence length p of the candidate symbol sequence ⁇ s′ t ⁇ generated by the candidate symbol sequence generation unit 405, and the number of nodes in the output layer is set to one.
  • the number of intermediate layers is not limited to two, and may be three or more.
  • the number of nodes in the intermediate layer is also not limited to six as shown in FIG. 6, and may be any number.
  • the number of layers in the intermediate layer and the number of nodes in the intermediate layer are appropriately determined in advance according to the complexity of the function to be approximated, the number of input sequences used in the learning process, and the like.
  • determination processing section 402 calculates a metric based on the determination target received symbol sequence output from low-pass filter section 401 and a plurality of estimated received symbols calculated by transmission path estimation section 403 .
  • Judgment processing section 402 identifies an estimated transmission symbol corresponding to the judgment target reception symbol sequence by judging the transmission symbol by maximum likelihood sequence estimation based on the calculated metric.
  • the determination processing unit 402 includes a subtractor 54, a metric calculation unit 53, an addition/comparison selection unit 52, and a path tracing determination unit 51, as shown in FIG.
  • Subtractor 54 subtracts each of the plurality of estimated received symbols H′(S′ t ) output from channel estimation section 403 from the determination target received symbol, which is the output value of low-pass filter section 401 shown by equation (11). Calculate the subtracted value.
  • “S′ t ” corresponds to each of the symbol sequences defined by the following equation (24), that is, the multiple candidate symbol sequences ⁇ s′ t ⁇ that are the input sequences of the DNN unit 61 .
  • the metric calculation unit 53 calculates a plurality of metrics by squaring the absolute value of each of the plurality of subtraction values output by the subtractor 54, that is, the calculation shown in the following equation (25).
  • the addition/comparison/selection unit 52 performs the method described with reference to the above equations (4) to (6) using, for example, the Viterbi algorithm. That is, based on the candidate symbol sequence ⁇ s′ t ⁇ output by candidate symbol sequence generation unit 405 and the multiple metrics output by metric calculation unit 53, addition comparison selection unit 52 corresponds to each of a plurality of metrics. A distance function d t ( ⁇ t ⁇ ) is calculated. The addition comparison selection unit 52 detects the minimum value d_min t ( ⁇ t ⁇ ) of the calculated distance function d t ( ⁇ t ⁇ ).
  • Path traceback determination section 51 determines the minimum value d_min t ( ⁇ t ⁇ ) and generate the paths of the trellis.
  • the path tracing determination unit 51 traces the path of the generated trellis to identify the estimated transmission symbol corresponding to the received symbol sequence to be determined.
  • the number of traces "w" when the path traceback determining unit 51 traces back paths is predetermined, and by setting the number of traces "w" to a fixed value, it is possible to reduce the amount of calculation required to determine the path traced back. can. It is known that the path converges by going back several times the input sequence length p of the DNN unit 61 provided in the channel estimation unit 403 .
  • the estimated transmission symbol corresponding to the time t identified by tracing the paths of the trellis by the path trace determination unit 51 is referred to as an estimated transmission symbol at .
  • the path tracing determination unit 51 outputs the estimated transmission symbol at as a determination result.
  • a sequence obtained by arranging p estimated transmission symbols a t in time sequence is the estimated transmission signal sequence A t .
  • Optimizing section 404 is based on a transmission signal sequence generated from training m-ary data sequence prepared in advance or an estimated transmission signal sequence At , and a determination target received symbol that is the output value of low-pass filter section 401. , optimization of the tap gain values c 1 to c v applied to the taps 43-1 to 43-v of the low-pass filter unit 401 and optimization of coefficients applied to the DNN units 61 and 71 are performed.
  • the optimization unit 404 includes a DNN unit 71, delay units 72-1 to 72-(p ⁇ 1), a training m-value data storage unit 73, an input switching unit 74, a filter update processing unit 75, a delay unit 76, and a subtractor. 77 and a learning processing unit 78 .
  • DNN section 71 has the same configuration as DNN section 61 of transmission path estimation section 403 .
  • the delay unit 72-1 delays the symbol output from the input switching unit 74 by one symbol and outputs the delayed symbol.
  • the delay devices 72-2 to 72-(p-1) delay the symbols output by one symbol from the symbols output by the delay devices 72-1 to 72-(p-2) one before the delay devices 72-1 to 72-(p-2). Output.
  • p is the sequence length of the candidate symbol sequence ⁇ s′ t ⁇ generated by candidate symbol sequence generation section 405 as described above, and matches the number of nodes in the input layers of DNN sections 61 and 71 .
  • the training m-value data storage unit 73 stores a plurality of predetermined training m-value data used when performing supervised learning in the DNN unit 71 in a predetermined order.
  • the predetermined order matches the order in which the plurality of m-value data for training are provided to the signal generation device 3 .
  • the signal generation device 3 can correspond to the training m-value data sequence.
  • a transmission signal sequence ⁇ s t ⁇ is generated and sent to the transmission path 2 .
  • a transmission signal sequence ⁇ s t ⁇ sent from the signal generation device 3 is transmitted to the identification device 4 through the transmission path 2 .
  • the receiving unit 5 of the identification device 4 receives the received signal sequence ⁇ r t ⁇ , performs preprocessing, and outputs the received signal sequence ⁇ r t ⁇ of the digital electrical signal to the symbol determination unit 6 .
  • the optimization unit 404 of the symbol determination unit 6 acquires the determination target received symbol sequence corresponding to the training m-value data sequence.
  • the determination target received symbols included in the acquired determination target received symbol sequence are used as the correct labels output from the DNN unit 71 in order from the beginning.
  • the transmission symbols included in the transmission signal sequence generated from the training m-value data sequence stored in the training m-value data storage unit 73 are sequentially shifted backward by one symbol from the beginning so that the sequence length becomes p.
  • Each of the extracted consecutive transmission symbol sequences is applied to DNN section 71 as an input sequence. This makes it possible to perform supervised learning processing for constructing the neural network 200 that calculates the estimated transfer function (H').
  • the input switching unit 74 has an area for storing information indicating the mode in an internal storage area, and information indicating the training mode or information indicating the operation mode is written as the information indicating the mode.
  • the input switching unit 74 sets the transmission symbol included in the transmission signal sequence generated in advance from the training m-value data sequence stored in the training m-value data storage unit 73 to the beginning. output in order from When the information indicating the mode indicates the operation mode, the input switching section 74 takes in the estimated transmission symbol output by the path traceback determination section 51 and outputs it to the delay device 72-1.
  • the delay unit 76 takes in the output value output from the low-pass filter unit 401, that is, the received symbol to be determined, and delays it for a period of "wT+(p-1)T/2", that is, "w+(p-1)/2" symbols. After the elapse of the time of minutes, the received symbol to be determined that is taken in is output to the subtractor 77 . In order to use the determination target received symbol output from the low-pass filter unit 401 as the correct label for the supervised learning of the DNN unit 71, the determination target received symbol is used by the metric calculation unit when the estimated transmission symbol at is obtained. 53 , addition comparison selection unit 52 , and path tracing determination unit 51 .
  • the time at which a certain received symbol to be determined is obtained is time t on the time axis of the received signal sequence ⁇ r t ⁇ . Since wT time elapses due to the processing performed by the path traceback determination unit 51, the estimated transmission symbol a t corresponding to the determination target reception symbol is subjected to the path traceback determination at time t+wT on the time axis of the received signal sequence ⁇ r t ⁇ . It will be output from the unit 51 .
  • the time at which the determination target received symbol corresponding to the estimated transmission symbol a t is obtained is time t on the time axis of the received signal sequence ⁇ r t ⁇ , but is indicated by the time axis of the estimated transmission symbol a t . and the time t-wT. Furthermore, it takes (p ⁇ 1)T/2 time for the estimated transmission symbol a t to reach the center position of the input sequence of sequence length p applied to the DNN unit 71 . Therefore, when representing the estimated transmission symbol a t on the time axis, the delay unit 76, at time t, delays the received symbol to be judged output by low-pass filter section 401 at time t ⁇ wT ⁇ (p ⁇ 1)T/2. is output to the subtractor 77 after the time of "wT+(p-1)T/2" has elapsed.
  • the subtractor 77 subtracts the output value of the delay device 76 from the output value of the DNN section 71 and outputs the error obtained by the subtraction to the filter update processing section 75 and the learning processing section 78 .
  • the filter update processing unit 75 calculates updated values of the tap gain values c 1 to c v by, for example, the LMS algorithm so as to reduce the error.
  • the filter update processing unit 75 sets the calculated updated values of the tap gain values c 1 to c v to the taps 43-1 to 43-v to update the tap gain values c 1 to c v .
  • the learning processing unit 78 calculates new coefficients, ie weights and biases, to be applied to the DNN unit 71 and the DNN unit 61 by, for example, the error backpropagation method so as to minimize the error output by the subtractor 77 .
  • the learning processing unit 78 outputs the calculated new coefficients to the weight selection unit 406 .
  • the weight selection section 406 performs the DNN section shown below. 61, 71 is processed to select the weights to be applied. That is, the weight selection unit 406 selects connections between neurons of the neural network 200 with small weight values based on the absolute values of the weights included in the coefficients output by the learning processing unit 78 and a predetermined weight threshold value. , to reduce synapses between neurons. For example, the weight selection unit 406 rewrites the weights whose absolute values are equal to or less than the weight threshold value to “0”, sets new coefficients for the DNN unit 71 and the DNN unit 61, and updates the coefficients. I do.
  • FIG. 7 is a flow chart showing the flow of processing by the phase adjustment unit 30, and FIG. 8 is a flow chart showing the flow of processing by the maximum likelihood sequence estimation unit 40.
  • FIG. 7 Before the processing shown in FIG. 7 is started, the following are performed as initial settings.
  • a user of the communication system 1 connects, for example, a terminal device for management to the identification device 4 and operates the terminal device for management.
  • the weight selection unit 406 is initialized as follows.
  • the taps 33-1 to 33-u of the adaptive filter section 301 are preset with initial values of arbitrarily determined tap gain values.
  • An arbitrarily determined initial tap gain value is preset in the taps 43-1 to 43-v of the low-pass filter unit 401.
  • the DNN units 61 and 71 are provided with a neural network 200 having input layer nodes 210-1 to 210-p.
  • Initial values for arbitrarily defined coefficients, ie weights and biases, are set for node 240 . For example, a random number generated using a random number generator is applied as the initial value of the coefficient.
  • the initial values of the coefficients applied to the neural network 200 provided in the DNN unit 61 are set to the neural It is also set for network 200 .
  • the initial values of the coefficients set for the neural network 200 are written in advance in an area for storing the coefficients being applied provided in the storage area inside the learning processing unit 78 .
  • the following information is written to the storage area inside the weight selection unit 406. That is, "ON" indicating that the weight selection process is to be performed is written in the area of the weight selection flag indicating whether or not the weight selection process is to be performed, provided in the storage area inside the weight selection unit 406. be
  • the initial values of the coefficients applied to the neural network 200 are written into the area for storing the coefficients being applied provided in the storage area inside the weight selection unit 406 .
  • An initial value of a predetermined weighting threshold is written in an area for storing weighting thresholds provided in a storage area inside the weighting selection unit 406 .
  • a predetermined value is written in an area for storing a convergence determination value used for determining whether or not the weights provided in the storage area inside the weight selection unit 406 have converged.
  • a predetermined value is written in an area for storing the width of decrease of the weight threshold provided in the storage area inside the weight selection unit 406 .
  • a predetermined value is written in an area for storing a synapse reduction upper limit value indicating an upper limit value for reducing synapses provided in a storage area inside the weight selection unit 406 .
  • a user of the communication system 1 prepares in advance a random sequence with a long period that can suppress over-learning as a training m-value data sequence to be transmitted using the signal generation device 3 .
  • a random sequence for suppressing over-learning for example, a random sequence generated by Mersenne Twister shown in Reference 1 below is applied. Training is performed so that the sequence length of the m-value data sequence for training, that is, the number of m-value data included in the m-value data sequence for training, is such that the coefficients applied to the DNN units 61 and 71 sufficiently converge.
  • An m-value data series for use is prepared in advance.
  • a user of the communication system 1 operates a terminal device for management and reads out a plurality of training signals prepared in advance so that they can be read out in the same order as the order in which the signal generation device 3 transmits them. is written in the training m-value data storage unit 73 of the optimization unit 404 .
  • the user of the communication system 1 operates the management terminal device to write information indicating the training mode in the area indicating the mode provided in the storage area inside the input switching unit 74 .
  • FIG. 7 is a flow chart showing the flow of processing by the phase adjustment section 30 of the symbol determination section 6.
  • the user of the communication system 1 gives the m-value data for training to the signal generator 3 in a predetermined order.
  • the signal generation device 3 generates a transmission signal sequence ⁇ s t ⁇ from a training m-value data sequence formed by arranging the given training m-value data in the given order, and generates a transmission signal sequence ⁇ s t ⁇ t ⁇ to the transmission line 2.
  • the adaptive filter section 301 of the phase adjustment section 30 of the symbol determination section 6 acquires the received signal sequence ⁇ r t ⁇ corresponding to the training m-value data sequence.
  • the delay unit 31 of the adaptive filter unit 301 acquires a symbol sequence of sequence length u from the received signal sequence ⁇ r t ⁇ (step Sa1).
  • Each of the delay unit 31 and the delay units 32-1 to 32-(u ⁇ 1) receives the received signal sequence ⁇ r t ⁇ whose sequence length is limited to u as shown in Equation (8), as described above.
  • the symbol sequence is output to taps 33-1 to 33-u connected to each.
  • the taps 33-1 to 33-u are provided with symbols r t ⁇ (u ⁇ 1)/2 to r t+(u ⁇ 1)/2 and tap gain values f 1 to f Multiply by u .
  • the output value of the estimated inverse transfer function is obtained by substituting the symbol sequence (r t ⁇ (u ⁇ 1)/2 to r t+(u ⁇ 1)/2 ) into the estimated inverse transfer function. An operation to obtain is performed.
  • the taps 33-1 to 33-u output the multiplication results to the adder .
  • the adder 34 sums the multiplication results to calculate the output value represented by the equation (9), and outputs it to the temporary decision processing section 302 , the subtractor 36 and the low-pass filter section 401 of the maximum likelihood sequence estimation section 40 .
  • the signal series of this output value becomes the above-described output signal series ⁇ r' t ⁇ (step Sa2).
  • the temporary decision processing unit 302 performs temporary decision of the transmission symbol by hard decision on the output value of the adaptive filter unit 301, and outputs the temporarily decided symbol as a temporary decision result (step Sa3).
  • Subtractor 36 outputs a subtraction value obtained by subtracting the output value of adaptive filter section 301 from the temporary decision symbol output from temporary decision processing section 302 to filter update processing section 35 as an error. Based on the error output from the subtractor 36, the filter update processing unit 35 calculates updated values of the tap gain values f 1 to f u using the LMS algorithm so as to reduce the error. The filter update processing unit 35 writes the calculated update values of the tap gain values f 1 to f u to the taps 33-1 to 33-u to update the tap gain values f 1 to f u (step Sa4). .
  • Step Sa5 Yes
  • the process of step Sa1 is performed again.
  • the delay device 31 cannot acquire from the received signal sequence ⁇ r t ⁇ the symbol sequence of the sequence length u in the range obtained by shifting the range of the symbol sequence of the sequence length u acquired in the previous step Sa1 by one symbol (step Sa5, No)
  • the process is terminated.
  • FIG. 8 is a flow chart showing the flow of processing by the maximum likelihood sequence estimating section 40 of the symbol determining section 6.
  • Delay device 41 of low-pass filter section 401 acquires a symbol sequence of sequence length v from output signal sequence ⁇ r′ t ⁇ , which is a sequence of output values output from adder 34 of adaptive filter section 301 of phase adjustment section 30 .
  • Each of the delay unit 41 and the delay units 42-1 to 42-(v ⁇ 1) outputs an output signal sequence ⁇ r′ t ⁇ whose sequence length is limited to v as shown in Equation (10), as described above. , are output to taps 43-1 to 43-v connected respectively.
  • Taps 43-1 to 43-v have symbols r't-(v-1)/2 to r't+(v-1)/2 given to them, respectively, and a tap gain value c 1 set to each. ⁇ c v and outputs the multiplied result to the adder 44 .
  • the adder 44 sums up the multiplication results to calculate the output value represented by the equation (11), that is, the determination target received symbol.
  • the adder 44 outputs the calculated determination target received symbol to the subtractor 54 of the determination processing section 402 (step Sb1).
  • candidate symbol sequence generation section 405 In parallel with the processing of step Sb1, candidate symbol sequence generation section 405 generates a plurality of candidate symbol sequences ⁇ s' t ⁇ .
  • candidate symbol sequence generation section 405 outputs multiple candidate symbol sequences ⁇ s′ t ⁇ generated for each sequence to addition comparison selection section 52 , path tracing determination section 51 , and transmission path estimation section 403 .
  • Candidate symbol sequence input unit 62 of channel estimation unit 403 sequentially takes in candidate symbol sequences ⁇ s′ t ⁇ output by candidate symbol sequence generation unit 405 for each sequence.
  • Candidate symbol sequence input unit 62 inputs each of a plurality of candidate symbols included in candidate symbol sequence ⁇ s′ t ⁇ to input layer nodes 210-1 to 210-p of DNN unit 61 corresponding to each, according to the order of acquisition. output to As a result, the sequence of symbols shown on the right side of equation (24) is given to the DNN unit 61 as an input sequence.
  • the DNN unit 61 when each of the input layer nodes 210-1 to 210-p takes in an input sequence, the input sequence is transferred to the first hidden layer nodes 220-1, 220-2, . Propagating in order of nodes 230-1, 230-2, . . . , output layer node 240 calculates an estimated received symbol as an output value. The output layer node 240 outputs the calculated estimated received symbol to the subtractor 54 (step Sb2).
  • Subtractor 54 subtracts each of the plurality of estimated received symbols output from DNN section 61 of transmission path estimation section 403 from the determination target received symbols included in the determination target received symbol sequence output from adder 44 of low-pass filter section 401. A plurality of subtraction values are calculated by subtracting.
  • the metric calculator 53 calculates a plurality of metrics by squaring the absolute value of each of the plurality of subtraction values output by the subtractor 54 (step Sb3).
  • addition comparison selection unit 52 calculates the distance corresponding to each of the plurality of metrics. Calculate the function d t ( ⁇ t ⁇ ). The addition comparison selection unit 52 detects the minimum value d_min t ( ⁇ t ⁇ ) of the calculated distance function d t ( ⁇ t ⁇ ) (step Sb4).
  • Path traceback determination section 51 determines the minimum value d_min t ( ⁇ t ⁇ ) and generate the paths of the trellis.
  • the path tracing determination unit 51 traces the path of the generated trellis to identify the estimated transmission symbol at corresponding to the received symbol sequence to be determined (step Sb5).
  • the input switching unit 74 of the optimization unit 404 takes in the estimated transmission symbol a t sequentially output by the path tracing determination unit 51 .
  • the optimization processing subroutine shown in FIG. 9 is started (step Sb6).
  • the following processing is performed by the input switching unit 74 before the processing of the subroutine of FIG. 9 is started. That is, the input switching unit 74 generates a transmission signal sequence ⁇ s t ⁇ from the training m-value data sequence stored in the training m-value data storage unit 73 upon completion of the initial setting described above.
  • the input switching unit 74 writes and stores the generated transmission signal sequence ⁇ s t ⁇ in an internal storage area. Note that while the input switching unit 74 is in the process of generating the transmission signal sequence ⁇ s t ⁇ from the training m-value data sequence, a certain number of transmission symbols are stored in the storage area inside the input switching unit 74. be in a state where Therefore, while the input switching unit 74 is generating the transmission signal sequence ⁇ s t ⁇ from the m-value data sequence for training, the processing after step Sc1 described below may be started.
  • the input switching unit 74 of the optimization unit 404 takes in the estimated transmission symbol at output from the path tracing determination unit 51 (step Sc1), the input switching unit 74 refers to the information indicating the mode stored in the internal storage area, and selects the mode. indicates the operation mode or the training mode (step Sc2). In the initial settings described above, since the information indicating the training mode is written as the information indicating the mode, the input switching unit 74 here determines that the information indicating the mode indicates the training mode (step Sc2, training mode).
  • the input switching unit 74 discards the estimated transmission symbol at taken in the process of step Sc1.
  • the input switching unit 74 reads one transmission symbol s t at the head of the transmission signal sequence ⁇ s t ⁇ stored in the internal storage area instead of the discarded estimated transmission symbol a t , and replaces the read transmission symbol with It is output to the DNN section 71 and the delay unit 72-1.
  • the input switching unit 74 deletes the head transmission symbol of the transmission signal sequence ⁇ s t ⁇ stored in the internal storage area, that is, the transmission symbol s t that was output immediately before. do.
  • the DNN section 71 and the delay device 72-1 sequentially take in the transmission symbols output by the input switching section 74.
  • FIG. The delay unit 72-1 delays the received transmission symbol by one symbol and outputs it.
  • the delay devices 72-2 to 72-(p-1) are connected to the delay devices 72-1 to 72-(p-2) one symbol before the transmission symbols output by one symbol. to output
  • the input switching unit 74 refers to the internal storage area and determines whether or not the transmission symbol to be read next is included in the transmission signal sequence ⁇ s t ⁇ (step Sc4). When the input switching unit 74 determines that the transmission symbol to be read next is not included in the transmission signal sequence ⁇ s t ⁇ (Step Sc4, No), the input switching unit 74 changes the information indicating the mode of the internal storage area to indicate the operation mode. Rewrite to information (step Sc5). After the process of step Sc5, or when the input switching unit 74 determines in the process of step Sc4 that the transmission signal sequence ⁇ s t ⁇ includes the transmission symbol to be read next (step Sc4, Yes), the process is , to step Sc7.
  • the input sequence is transferred to the first hidden layer nodes 220-1, 220-2, .
  • Propagate in the order of nodes 230-1, 230-2, . . . , and the output layer node 240 calculates the output value.
  • the output value calculated by the output layer node 240 can be said to be an estimated received symbol obtained by substituting the transmission signal sequence ⁇ s t ⁇ of sequence length p into the estimated transfer function (H′).
  • the output layer node 240 outputs the calculated output value to the subtractor 77 .
  • the delay unit 76 takes in the output value output from the low-pass filter unit 401, that is, the received symbol to be determined, and delays it for a period of "wT+(p-1)T/2", that is, "w+(p-1)/2" symbols. After the elapse of the time of minutes, the received symbols to be determined are output to the subtractor 77 .
  • the subtractor 77 subtracts the output value output by the delay device 76 from the output value of the DNN unit 71, and outputs the error obtained by the subtraction to the filter update processing unit 75 and the learning processing unit 78 (step Sc7 ).
  • the filter update processing unit 75 calculates updated values of the tap gain values c 1 to c v using the LMS algorithm so as to reduce the error.
  • the filter update processing unit 75 sets the calculated update values of the tap gain values c 1 to c v to the taps 43-1 to 43-v, and updates the tap gain values c 1 to c v (step Sc8 ) to end the optimization subroutine.
  • the learning processing unit 78 takes in the error output by the subtractor 77 and squares the taken error to calculate the squared error.
  • the learning processing unit 78 performs processing for calculating new coefficients to be applied to the neural networks 200 of the DNN units 61 and 71 so as to minimize the calculated square error. More specifically, the learning processing unit 78 uses the error backpropagation method to transfer data to the neural network 200 based on the calculated squared error and the coefficients written in the area that stores the coefficients being applied in the internal storage area. Calculate the new coefficients to apply.
  • the learning processing unit 78 rewrites the coefficients stored in the area storing the coefficients being applied in the internal storage area with the calculated new coefficients, and outputs the calculated new coefficients to the weight selection unit 406 .
  • the weight selection unit 406 takes in the new coefficient output by the learning processing unit 78 (step Sc9).
  • the weight selection unit 406 refers to the internal storage area and determines whether or not the weight selection flag is "ON” (step Sc10). Since "ON” is written as the weight selection flag in the initial setting described above, the weight selection unit 406 determines here that the weight selection flag is "ON” (Step Sc10, Yes).
  • the weight selector 406 reads the coefficients from the current coefficient area of the internal storage area. The weight selection unit 406 compares each weight included in the read coefficients with each weight included in the new fetched coefficients, and determines whether or not the weights have converged (step Sc11).
  • the weight selection unit 406 calculates the squared error between each of the weights being applied and each of the currently acquired weights corresponding to each of the weights being applied.
  • the weight selection unit 406 sums the calculated squared errors to calculate a total error value, and determines that convergence has occurred if the calculated total error value is equal to or less than the convergence determination value stored in the internal storage area. .
  • step Sc11 determines that the weights have not converged (step Sc11, No)
  • the process proceeds to step Sc17.
  • step Sc11, Yes determines that the weights have converged (step Sc11, Yes)
  • step Sc12 selects a weight whose absolute value is equal to or less than the weight threshold. 0” (step Sc12)
  • the weight selection unit 406 reads the width of decrease in the weighting threshold from the internal storage area, subtracts the value of the width of decrease in the weighting threshold from the weighting threshold, and stores the new weighting threshold obtained by the subtraction in the internal storage area.
  • the area for storing the provided weight threshold is overwritten (step Sc13).
  • the weight selection unit 406 counts the number of weights with a value of "0".
  • the weight selection unit 406 reads the synapse reduction upper limit value from the internal storage area, and determines whether or not the counted number is equal to or less than the synapse reduction upper limit value (step Sc14).
  • the weight selection unit 406 determines that the counted number is equal to or less than the synapse reduction upper limit value (step Sc14, Yes)
  • the weight selection unit 406 replaces the coefficients stored in the area of the coefficients being applied in the internal storage area with the latest Convert to coefficients.
  • the latest coefficient is the coefficient after the process of step Sc12 has been performed.
  • Weight selector 406 selects the latest coefficients from first intermediate layer nodes 220-1, 220-1, . , . . . , and the output layer node 240 to update the coefficients. Weight selection section 406 outputs the latest coefficients to learning processing section 78 .
  • the learning processing unit 78 takes in the latest coefficient output by the weight selection unit 406, and rewrites the coefficient stored in the area of the coefficient being applied in the internal storage area with the latest taken coefficient (step Sc16), Terminate the optimization subroutine.
  • step Sc14 when the weight selection unit 406 determines in the process of step Sc14 that the counted number, that is, the number of weights with a value of "0" is not equal to or less than the synapse reduction upper limit value (step Sc14, No), already Assuming that synapses have been sufficiently reduced, the weight selection flag in the internal storage area is rewritten to "OFF" (step Sc15).
  • the weight selection unit 406 replaces the coefficients written in the area for storing the coefficients being applied in the internal storage area with the new coefficients fetched in the process of step Sc9, that is, the new coefficients output by the learning processing unit 78.
  • the weight selection unit 406 takes in the new coefficient output by the learning processing unit 78 in the process of step Sc9, the new factor for rewriting the weight in the process of step Sc12 to "0" and the taken original are written and stored in the internal storage area.
  • the weight selection unit 406 assigns the new coefficients acquired in the processing of step Sc9 to the first intermediate layer nodes 220-1, 220-1, . , 230-1, 230-1, .
  • step Sc5 the process of step Sc5 is performed and the input switching unit 74 rewrites the information indicating the mode of the internal storage area to the information indicating the operation mode.
  • the input switching unit 74 determines in the process of step Sc2 that the information indicating the mode of the internal storage area indicates the operation mode (step Sc2, operation mode).
  • step Sc2 operation mode
  • the input switching unit 74 takes in one estimated transmission symbol a t output from the path tracing determination unit 51
  • the input switching unit 74 outputs the taken estimated transmission symbol a t as it is to the DNN unit 71 and the delay unit 72-1. do.
  • the DNN section 71 and the delay device 72-1 sequentially take in the estimated transmission symbol at output from the input switching section 74.
  • the delay device 72-1 delays the received estimated transmission symbol at by one symbol and outputs it.
  • the delay devices 72-2 to 72-(p-1) are one symbol after the estimated transmission symbol output by the delay devices 72-1 to 72-(p-2) one before connected to each. Print symbols.
  • (p ⁇ 1)T/2 time has elapsed since the input switching unit 74 took in the estimated transmission symbol at, ( at ⁇ (p ⁇ 1)/2 , . . . , A t , .
  • step Sc15 the process of step Sc15 is performed and the weight selection unit 406 rewrites the weight selection flag in the internal storage area to "OFF".
  • the weight selection unit 406 determines that the weight selection flag is "OFF" in the process of step Sc10 (step Sc10, No), and the process proceeds to step Sc17. I will proceed.
  • the delay unit 41 of the low-pass filter unit 401 shifts the range of the symbol sequence of the sequence length v acquired in the previous step Sb1 by one symbol to the symbol sequence of the sequence length v of the phase adjustment unit 30. If it can be captured from the output signal sequence ⁇ r' t ⁇ output by the adaptive filter unit 301 (step Sb7, Yes), the processes of steps Sb1 and Sb2 are performed again. On the other hand, the output of the adaptive filter unit 301 of the phase adjustment unit 30 outputs the symbol sequence of the sequence length v in the range obtained by shifting the range of the symbol sequence of the sequence length v acquired in the previous step Sb1 by the delay unit 41 by one symbol. If the data cannot be captured from the signal sequence ⁇ r' t ⁇ (step Sb7, No), the process ends.
  • the candidate symbol sequence generation unit 405 generates a plurality of candidate symbol sequences that are candidates for transmission signal sequences formed by transmission symbols.
  • Transmission path estimation section 403 has neural network 200 that approximates the transfer function of transmission path 2 that transmits a transmission signal sequence. Output the estimated received symbols obtained as the output of the network 200 .
  • Decision processing section 402 determines a transmission symbol by maximum likelihood sequence estimation based on a received symbol sequence to be determined obtained from a received signal sequence when transmission path 2 transmits a transmission signal sequence and an estimated received symbol for each candidate symbol sequence. , to identify the estimated transmission symbol corresponding to the received symbol sequence to be determined.
  • Optimizing section 404 receives, as an input sequence, a transmission signal sequence transmitted when a received signal sequence is received or a sequence obtained from an estimated transmission signal sequence formed by estimated transmission symbols.
  • the neural network 200 is optimized so that received symbols to be judged forming a received symbol sequence are obtained as outputs.
  • the neural network 200 enables computation that repeats linear convolution and nonlinear computation, and can express repetition of the linear response and nonlinear response, which is the transmission channel response of the actual transmission channel 2 . Therefore, by optimizing the neural network 200, in the NL-MLSE method, it becomes possible to approximate the transfer function of the actual channel response, which is a repetition of linear and nonlinear responses, with high accuracy.
  • the learning processing unit 78 shifts the transmission signal sequence ⁇ s t ⁇ generated from the training m-value data sequence prepared in advance by one symbol. Each of the transmission signal sequences ⁇ s t ⁇ of sequence length p extracted by .
  • the learning processing unit 78 determines the determination target reception symbol corresponding to the input sequence given to the DNN unit 71, which is the determination target reception symbol included in the determination target reception symbol sequence obtained when the training m-ary data sequence is transmitted.
  • a supervised learning process is performed using the symbols as correct labels.
  • the coefficients are sufficiently converged to an optimum state, so that the neural network 200 provided in the DNN units 61 and 71 can perform calculations using an estimated transfer function (H′) with high approximation accuracy.
  • learning processing section 78 supplies DNN section 71 with the estimated transmission signal sequence ⁇ a t ⁇ of sequence length p formed by the estimated transmission symbols output from decision processing section 402 as an input sequence.
  • the coefficients of the neural network 200 provided in the DNN units 61 and 71 can be adaptively updated even after operation. Therefore, even if the transmission line response of the transmission line 2 changes, it is possible to follow the change and update the estimated transfer function (H') to the optimum state.
  • Non-Patent Document 1 shows an MLSE using a neural network with a single intermediate layer, which solves the problem caused by a single nonlinear response in the transmission line.
  • the DNN units 61 and 71 of the first embodiment have a neural network 200 having at least two or more intermediate layers.
  • the symbol determination unit 6 of the first embodiment includes a phase adjustment unit 30 and a low-pass filter unit 401, which are not shown in Non-Patent Document 1.
  • FIG. therefore, unlike the technology disclosed in Non-Patent Document 1, the symbol decision unit 6 of the first embodiment approximates the transfer function of the actual channel response, which is a repetition of linear and nonlinear responses, with high accuracy. making it possible to
  • a random sequence called Mersenne Twister shown in Reference 1 is used as the training m-value data sequence to suppress overlearning.
  • the tap gain values of the adaptive filter unit 301 are converged in advance, the sampling phases of the output signal sequence ⁇ r′ t ⁇ output from the phase adjustment unit 30 are aligned and stabilized. It is considered that the coefficients are likely to converge in the learning process. Therefore, a random binary sequence of several hundred or about 1000 symbols may be inserted before the random sequence, and the tap gain values of adaptive filter section 301 may be converged first by this random binary sequence.
  • the update processing of the tap gain value by update processing section 303 is stopped, and the tap gain value of adaptive filter section 301 is fixed.
  • the learning processing unit 78 performs learning processing using the random sequence that follows the random binary sequence.
  • the weight selection unit 406 in the symbol determination unit 6 rewrites the weights below the weight threshold among the weights calculated by the learning processing unit 78 to "0", as shown as the processing of step Sc12. I have to.
  • the neural network 200 between two neurons connected to a synapse with a weight of "0", the output value of the preceding neuron is not propagated to the succeeding neuron. As a result, the amount of computation in the DNN units 61 and 71 is reduced, so that the amount of computation in maximum likelihood sequence estimation can be reduced.
  • the weight selection unit 406 reduces synapses with small repetitive weight values while gradually decreasing the weight threshold. In this way, by decreasing the weighting threshold in stages, the number of synapses to be deleted at one time is decreased, and the performance degradation due to synapse deletion is moderated. Therefore, it is possible to optimize the weights of the synapses that are finally used for computation, that is, the weights of the remaining synapses that have not been reduced.
  • the amount of decrease in the weighting threshold is set to a constant amount. As the number of times increases, the width of decrease may become smaller.
  • the weight selection unit 406 sets the weight selection flag to "OFF" and automatically , so that the process of reducing synapses is not performed.
  • the reason for such processing is that the processing for selecting the weights to be used can be performed once before the actual operation is performed.
  • the user of the communication system 1 uses the management terminal By connecting the device to the symbol determination unit 6, operating the terminal device for management, and rewriting the weight selection flag to "OFF", the process of forcibly reducing the synapse is stopped and the operation state is entered. can be made In this case, the synapse reduction upper limit value may not be appropriate. For this reason, for example, after the start of operation, when the processing after step Sc11 is periodically performed to optimize the state of the neural network 200, the processing for automatically reducing synapses is stopped. As such, it is desirable to change the synapse reduction upper limit value to an appropriate value.
  • the user of the communication system 1 connects the terminal device for management to the symbol determination unit 6, By operating the terminal device for management and rewriting the weight selection flag to "ON", processing for reducing synapses is performed again, and the number of synapses to which weights other than "0" are applied is optimized. state.
  • the weight selection unit 406 may have a timer and periodically rewrite the tap selection flag from "OFF" to "ON” to reduce synapses.
  • the maximum likelihood sequence estimator 40 is preceded by the phase adjuster 30 , and the maximum likelihood sequence estimator 40 is further provided with the low-pass filter 401 .
  • the sampling phases of the received signal sequence ⁇ r t ⁇ are aligned, or the memory length for storing the input sequence of the neural network 200, that is, the time indicated by the sequence length of the input sequence, If it is longer than the impulse response time in the transmission path 2 to be estimated, the received signal sequence ⁇ r t ⁇ may be directly applied to the subtractor 54 of the decision processing section 402 and the delay device 76 of the optimization section 404 .
  • the update processing unit 303 of the phase adjustment unit 30 calculates the error between the temporary decision symbol output by the temporary decision processing unit 302 and the output value of the adaptive filter unit 301.
  • the phase of the output signal sequence output by the adaptive filter unit 301 that calculates the estimated inverse transfer function converged by repeated updating matches the phase of the transmission symbol sequence obtained by the provisional decision, and the output signal sequence is sampled. The phases will match.
  • the output signal sequence output from the adaptive filter unit 301 that calculates the estimated inverse transfer function converged by repeated updating can also suppress ripples due to reflection on the transmission path 2 and the like.
  • the adaptive filter section 301 of the phase adjustment section 30 amplifies the high frequency components that have been reduced by the transmission path 2, it also amplifies the high frequency components of the white noise.
  • the first embodiment includes a low-pass filter section 401 .
  • the update processing unit 75 updates the output value of the DNN unit 71 as a target value. Therefore, by applying the low-pass filter section 401 to the output signal sequence ⁇ r′ t ⁇ of the adaptive filter section 301, it becomes possible to suppress the high frequency components of the white noise amplified by the adaptive filter section 301.
  • the low-pass filter unit 401 also performs processing for compressing the pulse width in addition to processing for suppressing high-frequency components of white noise.
  • the adaptive filter section 301 of the phase adjustment section 30 and the low-pass filter section 401 of the maximum likelihood sequence estimation section 40 are connected. Therefore, it is also possible to cause the adaptive filter section 301 of the phase adjustment section 30 to perform processing for compressing the pulse width.
  • the performance of compressing the pulse width improves as the number of taps increases.
  • the adaptive filter unit 301 of the phase adjustment unit 30 when the adaptive filter unit 301 of the phase adjustment unit 30 is caused to perform the process of compressing the pulse width, the number of u taps 33-1 to 33-u of the adaptive filter unit 301 of the phase adjustment unit 30 is requested. It must be determined according to the degree of pulse width compression.
  • the low-pass filter section 401 of the maximum likelihood sequence estimation section 40 only needs to suppress the high frequency components of the white noise. Ripple caused by reflection on the transmission path 2 has already been suppressed by the adaptive filter section 301 of the phase adjustment section 30 . Therefore, the number of taps 43-1 to 43-v of low-pass filter section 401 can be reduced, and the scale of low-pass filter section 401 can be reduced.
  • the condition for the value of v which indicates the number of symbols taken in by the low-pass filter section 401, is the number of symbols necessary for convergence of the coefficients applied to the DNN sections 61 and 71.
  • the identification device 4 includes a clock recovery circuit or the like that aligns the sampling phase of the received signal sequence ⁇ r t ⁇ generally provided on the receiving side, such a clock recovery circuit or the like is regarded as the phase adjustment unit 30.
  • a clock recovery circuit or the like is regarded as the phase adjustment unit 30.
  • FIG. 10 is a block diagram showing the configuration of the symbol determination section 6a according to the second embodiment.
  • the symbol determination unit 6a is a functional unit used in place of the symbol determination unit 6 included in the identification device 4 of the first embodiment, and is assumed to be used when the transmission path response of the transmission path 2 is unchanged. ing.
  • the identification device 4 including the symbol determination unit 6a instead of the symbol determination unit 6 will be referred to as an identification device 4a
  • the communication system 1 including the identification device 4a in place of the identification device 4 will be referred to as the communication system 1a. It says.
  • the same reference numerals are assigned to the same configurations as in the first embodiment, and the different configurations will be described below.
  • the symbol determination unit 6a includes a phase adjustment unit 30 and a maximum likelihood sequence estimation unit 40a.
  • Maximum likelihood sequence estimator 40 a includes low-pass filter 401 , decision processor 402 , channel estimator 403 a and candidate symbol sequence generator 405 .
  • the transmission path estimation unit 403a includes a lookup table storage unit 63 and a detection processing unit 64, as shown in FIG.
  • the lookup table storage unit 63 prestores the following data.
  • the estimated transfer function (H') also remains unchanged. Therefore, in the training mode of the symbol determination unit 6 of the first embodiment, when sufficiently converged learned coefficients are obtained by the learning processing performed by the learning processing unit 78 using the m-value data series for training, operation After starting , there is no need to update the coefficients.
  • the candidate symbol sequence Pre-obtain the estimated received symbols for each of ⁇ s′ t ⁇ .
  • a lookup table is generated in advance that associates the estimated received symbol corresponding to each, and the generated lookup table is stored in the lookup table storage unit 63. Write it down and store it.
  • the detection processing unit 64 reads a plurality of tap gain values from the lookup table storage unit 63, and sets each of the read plurality of tap gain values to the corresponding taps 43-1 to 43-v. Upon receiving the candidate symbol sequence ⁇ s′ t ⁇ from the candidate symbol sequence generation unit 405, the detection processing unit 64 refers to the lookup table stored in the lookup table storage unit 63, and extracts the received candidate symbol sequence ⁇ s′ t ⁇ . ⁇ is detected. The detection processing unit 64 outputs the detected estimated received symbol to the subtractor 54 .
  • detection processing section 64 includes candidate symbol sequence ⁇
  • the sequence length p of s′ t ⁇ is set in advance, and each time p symbols are received from the candidate symbol sequence generation unit 405, the p symbols are combined into one sequence and an estimated received symbol is detected from the lookup table. will do.
  • a user of the communication system 1a connects a terminal device for management to the identification device 4a, operates the terminal device for management, and sets the tap 33 of the adaptive filter unit 301 as the initial setting in the second embodiment.
  • An arbitrarily determined initial tap gain value is preset in -1 to 33-u.
  • the detection processing unit 64 of the transmission path estimation unit 403a reads a plurality of tap gain values from the lookup table storage unit 63, and assigns each of the read plurality of tap gain values to are set to the taps 43-1 to 43-v of the low-pass filter unit 401.
  • the communication system 1a enters an operational state, and the m-value data sequence for actual transmission, not for training, is given to the signal generation device 3, and the phase adjustment unit 30 of the symbol determination unit 6a adapts.
  • Filter section 301 takes in received signal sequence ⁇ r t ⁇ corresponding to the m-value data sequence.
  • phase adjustment unit 30 in the second embodiment is the same as the processing by the phase adjustment unit 30 in the first embodiment described with reference to FIG.
  • FIG. 12 is a flow chart showing the flow of processing by the maximum likelihood sequence estimating section 40a of the symbol determining section 6a.
  • the process of step Sd1 is the same process as the process of step Sb1 in FIG.
  • candidate symbol sequence generation section 405 generates a plurality of candidate symbol sequences ⁇ s' t ⁇ .
  • Candidate symbol sequence generation section 405 outputs the generated “m p ” candidate symbol sequences ⁇ s′ t ⁇ to addition comparison selection section 52, path tracing determination section 51, and detection processing section 64 for each sequence. .
  • the detection processing unit 64 When the detection processing unit 64 sequentially takes in the candidate symbol sequences ⁇ s′ t ⁇ output by the candidate symbol sequence generation unit 405 for each sequence, the detection processing unit 64 generates the estimated received symbols corresponding to the candidate symbol sequences ⁇ s′ t ⁇ in the order taken in, It is detected from the lookup table stored in the lookup table storage unit 63 . The detection processing unit 64 outputs the detected estimated received symbols to the subtractor 54 in the order of detection (step Sd2).
  • step Sd3 the same process as step Sb3 of FIG. 8 is performed by the subtractor 54 and the metric calculator 53.
  • step Sd4 the same processing as that of step Sb4 in FIG.
  • step Sd5 the same process as that of step Sb5 in FIG.
  • step Sd6 the same process as step Sb7 in FIG. 8 is performed by the low-pass filter section 401.
  • the use of the lookup table stored in the lookup table storage unit 63 eliminates the need to use the DNN unit 61 and the need to provide the optimization unit 404 . Therefore, it is possible to reduce the size of the symbol determination section 6a in the identification device 4a. Since the neural network 200 is not used during operation, an increase in the amount of sequential computation can be prevented. It is possible to scale up the network 200 . In the second embodiment, it is assumed that the transmission line response of the transmission line 2 is unchanged. The adaptive filter section 301 of the section 30 can absorb the time variation.
  • the symbol determination unit 6 of the first embodiment adopts a configuration that does not include the phase adjustment unit 30 and the low-pass filter unit 401. If so, the same configuration is adopted in the symbol determination section 6a of the second embodiment. If the symbol determination unit 6 of the first embodiment does not include the low-pass filter unit 401, the lookup table storage unit 63 of the second embodiment stores the taps 43-1 to 43-v of the low-pass filter unit 401. It is no longer necessary to store the tap gain values to be set for each, and the detection processing unit 64 also sets tap gain values for each of the taps 43-1 to 43-v of the low-pass filter unit 401 after completing the initial setting. no longer needed.
  • the tap gain values of the adaptive filter unit 301 are preliminarily converged using a random binary sequence.
  • a fixation method was described. However, even if this method is adopted, the learning process for updating the coefficients performed by the learning processing unit 78 and the process for updating the tap gain value of the low-pass filter unit 401 by the filter update processing unit 75 are performed in parallel.
  • the tap gain value of low-pass filter section 401 is updated, the determination target received symbol changes due to the update.
  • the received symbol to be determined corresponds to a correct label in supervised learning performed by the learning processing unit 78.
  • a supervised label using a general machine learning library such as TensorFlow (registered trademark) or PyTorch learning becomes difficult.
  • the symbol determination unit 6d performs supervised learning processing by applying a general machine learning library. is used to pre-generate the
  • the identification device 4 including the symbol determination unit 6b in place of the symbol determination unit 6 is referred to as an identification device 4b
  • the communication system 1 including the identification device 4b in place of the identification device 4 is referred to as the communication system 1b. It says.
  • the identification device 4 provided with the symbol determination unit 6c instead of the symbol determination unit 6 is referred to as an identification device 4c
  • the communication system 1 including the identification device 4c in place of the identification device 4 is referred to as a communication system 1c.
  • the symbol determination unit 6d is not connected to the transmission line 2 and is used off-line.
  • the same reference numerals are assigned to the same configurations as those of the first and second embodiments, and the configurations different from those of the first and second embodiments will be described.
  • the symbol determining section 6b includes a phase adjusting section 30 and a maximum likelihood sequence estimating section 40b.
  • Maximum likelihood sequence estimating section 40 b includes low-pass filter section 401 , decision processing section 402 , transmission path estimating section 403 b , optimizing section 404 b and candidate symbol sequence generating section 405 .
  • the channel estimation unit 403b has a configuration in which the DNN unit 61 in the channel estimation unit 403 of the first embodiment is replaced with a linear adaptive filter unit 61b.
  • the optimization unit 404b replaces the DNN unit 71 with a linear adaptive filter unit 71b, replaces the learning processing unit 78 with a filter update processing unit 78b, and replaces the input switching unit 74 with an input switching unit.
  • This is a configuration in which the portion 74b is replaced.
  • the linear adaptive filter section 61b and the linear adaptive filter section 71b have the same configuration.
  • the linear adaptive filter units 61b and 71b are, for example, linear transversal filters similar to the adaptive filter unit 301 and the low-pass filter unit 401, and the number of taps is equal to the candidate symbol sequence generated by the candidate symbol sequence generation unit 405 ⁇ s' t ⁇ with sequence length p.
  • the filter update processing unit 78b updates the tap gain value applied to the taps provided in the linear adaptive filter units 61b and 71b by, for example, the LMS algorithm so as to reduce the error.
  • the filter update processing unit 78b sets each of the calculated update values of the tap gain values to the corresponding linear adaptive filter units 61b and 71b taps to update the tap gain values.
  • the input switching unit 74b does not perform the process of rewriting the information indicating the mode to the information indicating the operation mode.
  • the configuration is the same as that of the input switching unit 74 of the first embodiment, except for the point of terminating the process.
  • a user of the communication system 1b having the symbol determination unit 6b connects, for example, a terminal device for management to the identification device 4b and operates the terminal device for management.
  • Initial values of tap gain values arbitrarily determined for the taps 33-1 to 33-u of the adaptive filter section 301, the taps 43-1 to 43-v of the low-pass filter section 401, and the taps of the linear adaptive filter sections 61b and 71b is preset.
  • An initial value is set to each of the taps of the linear adaptive filter units 61b and 71b so that the tap gain values of the respective taps are the same.
  • a random binary sequence of several hundred or about 1000 symbols is written in advance in the m-value data storage unit 73 for training as an m-value data sequence for training.
  • Information indicating the training mode is written in advance in the area indicating the mode provided in the storage area inside the input switching unit 74b.
  • the user of the communication system 1 b provides the signal generation device 3 with the same data series as the training m-value data series written in the training m-value data storage unit 73 .
  • the adaptive filter section 301 of the phase adjustment section 30 of the symbol determination section 6b acquires the received signal sequence ⁇ r t ⁇ corresponding to the training m-value data sequence.
  • the processing by the phase adjustment unit 30 in the third embodiment is the same as the processing by the phase adjustment unit 30 in the first embodiment described with reference to FIG.
  • the processing by the maximum likelihood sequence estimator 40b of the third embodiment is the optimization processing shown in FIG. 9 performed as the processing of step Sb6 in the processing by the maximum likelihood sequence estimator 40 of the first embodiment shown in FIG. is replaced with the optimization subroutine shown in FIG. 15, and the process of step Sb2 is replaced with the process described below.
  • step Sb2 Processing of step Sb2 of the third embodiment, instead of the DNN section 61, a linear adaptive filter section 61b is provided. Therefore, the following process is performed in step Sb2. That is, candidate symbol sequence generation section 405 generates a plurality of candidate symbol sequences ⁇ s′ t ⁇ in parallel with the processing of step Sb1. Candidate symbol sequence generation section 405 outputs multiple candidate symbol sequences ⁇ s′ t ⁇ generated for each sequence to addition comparison selection section 52 , path tracing determination section 51 , and transmission path estimation section 403 .
  • Candidate symbol sequence input unit 62 of channel estimation unit 403 sequentially takes in candidate symbol sequences ⁇ s′ t ⁇ output by candidate symbol sequence generation unit 405 for each sequence.
  • Candidate symbol sequence input section 62 outputs each of a plurality of candidate symbols included in candidate symbol sequence ⁇ s′ t ⁇ to the corresponding tap of linear adaptive filter section 61b in the order in which they are taken.
  • the sequence of symbols shown on the right side of Equation (24) is given as an input sequence to the linear adaptive filter unit 61b.
  • the linear adaptive filter unit 61b performs filtering processing in which an input sequence is substituted for the estimated transfer function (H′) represented by the tap gain values set to the taps, and a candidate symbol sequence ⁇ s′ t ⁇ is obtained.
  • output estimated received symbols corresponding to each of A subtractor 54 sequentially takes in a plurality of estimated received symbols output from the linear adaptive filter section 61b.
  • step Sb6 the optimization process subroutine shown in FIG. 15 is started.
  • step Sb6 of the third embodiment A subroutine for optimization processing in the third embodiment will be described with reference to FIG. Note that, similarly to the input switching unit 74 of the first embodiment, the input switching unit 74b changes the transmission signal from the training m-value data sequence stored in the training m-value data storage unit 73 to the transmission signal after the above initial setting is completed. A sequence ⁇ s t ⁇ is generated, and the generated transmission signal sequence ⁇ s t ⁇ is written and stored in an internal storage area.
  • steps Se1 and Se2 are the same as the processes of steps Sc1 and Sc2 in FIG. 9, respectively. Since the information indicating the training mode is written as the information indicating the mode in the initial setting described above, the input switching unit 74b here determines that the information indicating the mode indicates the training mode (step Se2, training mode).
  • the input switching unit 74b refers to the internal storage area and determines whether or not the transmission symbol to be read next is included in the transmission signal sequence ⁇ s t ⁇ (step Se3). When the input switching unit 74b determines that the transmission symbol to be read next is not included in the transmission signal sequence ⁇ s t ⁇ (step Se3, No), the optimization processing subroutine ends.
  • the input switching unit 74b determines that the transmission symbol to be read next is included in the transmission signal sequence ⁇ s t ⁇ (step Se3, Yes)
  • the estimated transmission symbol a t taken in the process of step Se1 is discarded. do.
  • the input switching unit 74b reads one transmission symbol s t at the head of the transmission signal sequence ⁇ s t ⁇ stored in the internal storage area instead of the discarded estimated transmission symbol a t , and reads the read transmission symbol s t is output to the linear adaptive filter section 71b and the delay unit 72-1. After outputting the read transmission symbol, the input switching unit 74b deletes the head transmission symbol of the transmission signal sequence ⁇ s t ⁇ stored in the internal storage area, that is, the transmission symbol s t that was output immediately before.
  • the linear adaptive filter section 71b and the delay device 72-1 sequentially take in transmission symbols output from the input switching section 74b.
  • the delay device 72-1 delays the received transmission symbol st by one symbol and outputs it.
  • the delay devices 72-2 to 72-(p-1) are connected to the delay devices 72-1 to 72-(p-2) one symbol before the transmission symbols output by one symbol. to output
  • the linear adaptive filter unit 71b performs a filtering process of performing an operation of substituting an input sequence for the estimated transfer function (H') represented by the tap gain values set to the taps, and outputs an output value.
  • the subtractor 77 takes in the output value output from the linear adaptive filter section 71b.
  • the delay unit 76 takes in the output value output from the low-pass filter unit 401, that is, the received symbol to be determined, and delays it for a period of "wT+(p-1)T/2", that is, "w+(p-1)/2" symbols. After the elapse of the time of minutes, the received symbol to be determined that is taken in is output to the subtractor 77 .
  • the subtractor 77 subtracts the output value output by the delay device 76 from the output value of the linear adaptive filter section 71b, and outputs the error obtained by the subtraction to the filter update processing section 75 and the filter update processing section 78b. (Step Se5).
  • the filter update processing unit 75 calculates updated values of the tap gain values c 1 to c v using the LMS algorithm so as to reduce the error.
  • the filter update processing unit 75 sets the calculated update values of the tap gain values c 1 to c v to the taps 43-1 to 43-v, and updates the tap gain values c 1 to c v (step Se6 ).
  • the filter update processing unit 78b updates the tap gain applied to the taps of the linear adaptive filter units 61b and 71b by the LMS algorithm so as to reduce the error based on the error output by the subtractor 77. Calculate the updated value of the value.
  • the filter update processing unit 78b sets each of the calculated update values of the tap gain values to the corresponding taps of the linear adaptive filter units 61b and 71b to update the tap gain values (step Se7). This terminates the subroutine for optimization processing. After that, the process of step Sb7 shown in FIG. 8 is performed.
  • the input switching unit 74b determines that the information indicated by the mode indicates the operation mode at step Se2 of the optimization processing subroutine shown in FIG. 15 (step Se2, operation mode). In this case, since there is an error in the initial setting, the input switching unit 74b outputs an error message indicating that the mode is incorrect to a display unit such as a display connected to the identification device 4b (step Se8). End the process.
  • the taps 33-1 to 33-u of the adaptive filter unit 301 and the taps 43-1 to 43-v of the low-pass filter unit 401 sufficiently converge.
  • the tap gain value is set.
  • FIG. 16 is a block diagram showing the configuration of the symbol determination section 6c.
  • the symbol determination unit 6c includes a phase adjustment unit 30c and a maximum likelihood sequence estimation unit 40c.
  • the phase adjustment section 30 c has an adaptive filter section 301 .
  • the taps 33-1 to 33-u of the adaptive filter section 301 of the symbol determination section 6b are connected to the taps 33-1 to 33-u of the adaptive filter section 301 of the symbol determination section 6b at the time when the above processing by the symbol determination section 6b ends. well-converged tap gain values that are set in each of . Since the phase adjustment section 30c does not have the update processing section 303 like the phase adjustment section 30, the tap gain values of the taps 33-1 to 33-u of the adaptive filter section 301 are fixed.
  • the maximum likelihood sequence estimation unit 40c includes a low-pass filter unit 401, a writing unit 407, and a correct label storage unit 408.
  • the taps 43-1 to 43-v of the low-pass filter unit 401 of the symbol determination unit 6b are connected to the taps 43-1 to 43-v of the low-pass filter unit 401 of the symbol determination unit 6b at the time when the above processing by the symbol determination unit 6b ends. well-converged tap gain values that are set in each of .
  • the maximum likelihood sequence estimating unit 40c does not include an optimizing unit 404b, so the tap gain values of the taps 43-1 to 43-v of the low-pass filter unit 401 are fixed become.
  • the writing unit 407 sequentially captures the determination target reception symbols calculated and output by the adder 44 of the low-pass filter unit 401, and writes and stores the captured determination target reception symbols in the correct label storage unit 408 in the order in which they were captured.
  • a training m-value data sequence which is a random sequence generated by Mersenne Twister, is prepared in advance.
  • a user of the communication system 1c gives the m-value data sequence for training to the signal generation device 3 of the communication system 1c including the symbol determination unit 6c, so that the phase adjustment unit 30c of the symbol determination unit 6c performs the training
  • a received signal sequence ⁇ r t ⁇ corresponding to the m-ary data sequence for use is captured. Since the provisional determination processing unit 302 and the update processing unit 303 do not exist in the processing by the phase adjustment unit 30c, steps Sa1 and Sa2 of the processing by the phase adjustment unit 30 of the first embodiment shown in FIG. After that, the processing of step Sa5 is performed.
  • the low-pass filter section 401 takes in the output signal sequence ⁇ r' t ⁇ output from the phase adjustment section 30c.
  • the low-pass filter unit 401 performs steps Sb1 and Sb7 of the processing by the maximum likelihood sequence estimating unit 40 of the first embodiment shown in FIG.
  • the writing unit 407 sequentially acquires the determination target reception symbols output from the low-pass filter unit 401, and writes the captured determination target reception symbols to the correct label storage unit 408 in order for storage.
  • the writing unit 407 writes the determination target received symbols to the correct label storage unit 408 so that the symbols can be read in the same order as the order output by the low-pass filter unit 401 when sequentially reading from the head.
  • the correct label storage unit 408 stores the output correct labels to be applied to supervised learning processing performed on the DNN units 61 and 71 .
  • FIG. 17 is a block diagram showing the configuration of the symbol determination section 6d.
  • the symbol determination unit 6d is used off-line, so it does not need to be connected to the transmission line 2.
  • FIG. Therefore, the symbol determination unit 6d does not need to be provided in the identification device 4, and can be operated as a single device.
  • the symbol determination unit 6d includes an optimization unit 404d, a correct label storage unit 408, and a reading unit 409.
  • the correct label storage unit 408 is the correct label storage unit 408 at the time when the processing by the symbol determination unit 6c is completed, and the received symbol sequence to be determined generated by the processing by the symbol determination unit 6c is written. Every time the reading unit 409 receives the training instruction signal from the learning processing unit 78d, the reading unit 409 reads out the determination target reception symbols one by one from the first determination target reception symbol stored in the correct label storage unit 408, and reads the read determination target reception symbol. is output to the subtractor 77 .
  • reading section 409 when reading section 409 receives the training instruction signal for the first time, reading section 409 reads one determination target reception symbol stored in correct label storage section 408 and outputs it to subtractor 77 .
  • readout section 409 Upon receiving the second training instruction signal, readout section 409 reads out one of the second received symbols to be determined from the top stored in correct label storage section 408 and outputs it to subtractor 77 .
  • the readout unit 409 reads out the determination target reception symbol corresponding to the number of times the training instruction signal is received from the correct label storage unit 408, and stores it in the subtractor 77. Output.
  • the readout unit 409 subtracts the determination target received symbols included in the determination target received symbol sequence generated by the symbol determination unit 6c one by one from the beginning. It can be considered that processing equivalent to outputting to 77 is performed.
  • the optimization unit 404d includes a DNN unit 71, a training m-value data storage unit 73, a transmission symbol sequence input unit 79, a subtractor 77, and a learning processing unit 78d.
  • the training m-value data storage unit 73 stores the training m-value data sequence and The same m-value data series is written in advance.
  • the transmission symbol sequence input unit 79 receives a training instruction signal from the learning processing unit 78d, the transmission signal sequence ⁇ s t ⁇ of the sequence length p is obtained from the training m-value data sequence stored in the training m-value data storage unit 73. Generate.
  • the transmission symbol sequence input unit 79 gives the generated transmission signal sequence ⁇ s t ⁇ of sequence length p to the DNN unit 71 as an input sequence.
  • the correct label read from the correct label storage unit 408 is the determination target reception corresponding to the time t on the time axis of the transmission signal sequence ⁇ s t ⁇ . be a symbol.
  • k is an integer of 1 or more.
  • the transmission symbol sequence input unit 79 generates a transmission signal sequence ⁇ s t ⁇ in advance from the training m-value data sequence, and when receiving the k-th training instruction signal, the transmission symbol sequence s t at time t is received. A transmission signal sequence ⁇ s t ⁇ to obtain the k-th input sequence.
  • the transmission symbol sequence input unit 79 each time the transmission symbol sequence input unit 79 receives the training instruction signal from the learning processing unit 78d, the transmission symbol sequence input unit 79 extracts a sequence of sequence length p corresponding to the number of times the training instruction signal is received from the training m-ary data sequence. An input sequence is extracted from the generated transmission signal sequence ⁇ s t ⁇ .
  • the transmission signal sequence (s t ⁇ (p ⁇ 1)/2 , . . . , s t , . s t+(p ⁇ 1)/2 ) is the transmission path signal generated by the signal generation device 3 when the symbol determination unit 6c generates the determination target reception symbol that the reading unit 409 outputs as the correct label at the timing of the training instruction signal. 2 matches the part of the sequence length p of the transmission signal sequence ⁇ s t ⁇ sent out in step 2. Therefore, the received symbol to be determined in this correspondence relationship and the transmission signal sequence (s t ⁇ (p ⁇ 1)/2 , . . . , s t , .
  • the transmission signal sequence (s t ⁇ (p ⁇ 1)/2 , . . . , s t , . If there is a deviation on the time axis between the label sequence and the determination target received symbol sequence, the deviation can be detected in advance using a cross-correlation function. If there is a deviation, the transmission symbol sequence input unit 79 generates a transmission signal sequence (s t ⁇ (p ⁇ 1)/2 , . . . , s t , , s t+(p ⁇ 1)/2 ) are output to the DNN unit 71 .
  • the subtractor 77 subtracts the determination target received symbol output by the readout section 409 from the output value of the DNN section 71, and outputs the error obtained by the subtraction to the learning processing section 78d.
  • the learning processing unit 78d calculates new coefficients, ie weights and biases, to be applied to the DNN unit 71 by, for example, the error backpropagation method so as to minimize the error output by the subtractor 77 .
  • FIG. 18 is a flow chart showing the flow of processing by the symbol determination section 6d.
  • a storage area in the learning processing unit 78d is provided with an area for storing four parameters: mini-batch size, mini-batch counter, mini-batch processing repetition count, and mini-batch processing counter.
  • the user of the symbol determination unit 6d connects, for example, a terminal device for management to the symbol determination unit 6d and operates the terminal device for management.
  • Settings are made.
  • the correct label storage unit 408 stores 10000 correct labels.
  • "100" is written in advance in the mini-batch size
  • "100" is written in advance in the mini-batch processing repetition count.
  • An intra-mini-batch counter and a counter for mini-batch processing are initialized to "0".
  • initial values of coefficients are set for the neural network 200 of the DNN unit 71 .
  • the initial values of the coefficients set for the neural network 200 are written in advance in an area for storing the coefficients being applied provided in the storage area inside the learning processing unit 78d.
  • the transmission symbol sequence input unit 79 After completing the initial setting, the transmission symbol sequence input unit 79 generates a transmission signal sequence ⁇ s t ⁇ from the training m-value data sequence stored in the training m-value data storage unit 73 .
  • the transmission symbol sequence input unit 79 writes and stores the generated transmission signal sequence ⁇ s t ⁇ in an internal storage area.
  • the learning processing unit 78d outputs the training instruction signal to the reading unit 409 and the transmission symbol sequence input unit 79 (step Sf1).
  • the reading unit 409 reads out the correct label corresponding to the number of times the training instruction signal is received from the correct label storage unit 408 and outputs it to the subtractor 77 (step Sf2).
  • the transmission symbol sequence input unit 79 receives the transmission signal sequence (s t-(p-1)/ 2 , . . . , s t , .
  • Transmission symbol sequence input section 79 outputs each of p transmission symbols included in the generated input sequence to corresponding input layer nodes 210-1 to 210-p.
  • the output layer node 240 of the neural network 200 included in the DNN unit 71 calculates an output value and outputs the calculated output value to the subtractor 77 (step Sf3).
  • the subtractor 77 calculates an error by subtracting the value indicated by the correct label output by the reading unit 409 from the output value of the DNN unit 71, and outputs the calculated error to the learning processing unit 78d.
  • the learning processing unit 78d takes in the error output from the subtractor 77 and writes and stores the taken error in an internal storage area.
  • the learning processing unit 78d adds 1 to the value indicated by the mini-batch counter in the internal storage area and sets the new value of the mini-batch counter in the internal storage area (step Sf4).
  • the learning processing unit 78d repeats the processing of steps Sf1 to Sf4 until the value of the mini-batch counter in the internal storage area reaches the value indicated by the mini-batch size in the internal storage area (loop Lf2s to Lf2e).
  • the learning processing unit 78d matches the mini-batch size stored in the internal storage area. 100 errors and the coefficients of the neural network 200 stored in the internal storage area. The learning processing unit 78d performs processing for calculating new coefficients to be applied to the neural network 200 of the DNN unit 71 so as to minimize the sum of squared errors, which is the sum of the values obtained by squaring each of the 100 read errors. conduct.
  • the learning processing unit 78d based on the calculated sum of squared errors and the coefficients applied to the neural network 200 written in the area storing the coefficients being applied in the internal storage area, New coefficients to be applied to the neural network 200 are calculated by error backpropagation (step Sf5).
  • the learning processing unit 78d initializes the value of the mini-batch intra-counter in the internal storage area to "0". The learning processing unit 78d adds 1 to the value indicated by the mini-batch processing counter in the internal storage area as a new value for the mini-batch processing counter in the internal storage area. The learning processing unit 78d rewrites the coefficients stored in the area storing the coefficients being applied in the internal storage area with the calculated new coefficients, and sets the new coefficients to the neural network 200 of the DNN unit 71. Then, the coefficient is updated (step Sf6).
  • the learning processing unit 78d repeats the processing of loops Lf2s to Lf2e and steps Sf5 and Sf6 until the value of the mini-batch processing counter in the internal storage area reaches the value indicated by the mini-batch processing repetition count in the internal storage area (loop Lf1s-Lf1e).
  • the learning processing unit 78d ends the process when the value of the mini-batch processing counter in the internal storage area reaches "100", that is, the value indicated by the mini-batch processing repetition count in the internal storage area.
  • the DNN unit 71 can determine the approximation accuracy
  • a neural network 200 is constructed that performs computation of an estimated transfer function (H') with a high .
  • the above learning process is a general supervised learning process performed using training data with correct labels, which is a combination of a plurality of input sequences and correct labels corresponding to each of the input sequences. It can be implemented using a simple machine learning library.
  • the learning process described above is a learning process based on the so-called mini-batch gradient descent method, and is a learning process included in a general machine learning library.
  • the symbol determination unit 6 can perform the learning process using the training m-value data series, which takes a long time. , the communication system 1 can be brought into operation.
  • the tap gain values set to the taps 33-1 to 33-u of the adaptive filter unit 301 and the tap gain values set to the taps 43-1 to 43-v of the low-pass filter unit 401 are the same as those in the first embodiment. or the taps 33-1 to 33-u of the adaptive filter unit 301 and the taps 43-1 to 43 of the low-pass filter unit 401 of the symbol determination unit 6c of the third embodiment. It may be the tap gain value set for ⁇ v.
  • the neural network 200 of the DNN unit 71 at the time when the processing of FIG. 18 is completed is used to generate a lookup table to be stored in the lookup table storage unit 63 of the symbol determination unit 6a of the second embodiment. good too.
  • the tap gain values set for the taps 43-1 to 43-v of the low-pass filter unit 401 of the symbol determination unit 6c of the third embodiment are written in the lookup table storage unit 63 in advance.
  • the tap gain values to be set to the taps 33-1 to 33-u of the adaptive filter unit 301 of the symbol determination unit 6a may be the initial setting values described in the second embodiment.
  • the phase adjustment section 30 and the low-pass filter section 401 need not be provided.
  • the correct label storage unit 408 in which the received signal sequence ⁇ r t ⁇ output by the reception unit 5 is written can be replaced by the symbol determination unit.
  • FIG. 19 is a block diagram showing the configuration of the symbol determination section 6e in the fourth embodiment.
  • the identification device 4 provided with the symbol determination unit 6e instead of the symbol determination unit 6 will be referred to as an identification device 4e
  • the communication system 1 including the identification device 4e in place of the identification device 4 will be referred to as a communication system 1e. It says.
  • the same reference numerals are assigned to the same configurations as in the first to third embodiments, and the different configurations will be described below.
  • the symbol determination unit 6e includes a phase adjustment unit 30e and a maximum likelihood sequence estimation unit 40.
  • the phase adjustment section 30 e includes an adaptive filter section 301 , a temporary decision processing section 302 , an update processing section 303 and an arithmetic mean calculation section 304 .
  • Arithmetic mean calculation section 304 is connected to adaptive filter section 301, more specifically, connected to adder 34 of adaptive filter section 301, and takes in the output value expressed by equation (9) output by adder 34. .
  • Arithmetic averaging section 304 averaging the output value output from adder 34 and outputs the result to low-pass filter section 401 of maximum likelihood sequence estimating section 40 .
  • FIG. 20 is a flow chart showing the flow of processing by the phase adjusting section 30e of the symbol determining section 6e.
  • Initial settings similar to those in the embodiment are performed, and further, the following initial settings are performed.
  • “ON” is written in the area of the averaging flag provided in the storage area inside the averaging calculation unit 304 and indicating whether or not to perform the averaging process.
  • a value “q” indicating the predetermined number of additions and averaging is written in the area of the number of additions and averaging provided in the storage area inside the averaging calculation unit 304 .
  • q is an integer of 2 or more.
  • steps Sg1-Sg5 is the same as that of steps Sa1-Sa5 of the first embodiment shown in FIG.
  • the averaging calculation unit 304 takes in the output value represented by Equation (9) output by the adder 34 of the adaptive filter unit 301 in the process of step Sg2 (step Sg10).
  • the averaging calculation unit 304 refers to the internal storage area and determines whether or not the averaging flag is "ON" (step Sg11).
  • the arithmetic mean calculation unit 304 determines that the arithmetic mean flag is not "ON" (step Sg11, No), it outputs the fetched output value to the low-pass filter unit 401 of the maximum likelihood sequence estimation unit 40 (step Sg12), The process of step Sg10 is performed again.
  • step Sg11, Yes when the addition/average calculating unit 304 determines that the addition/average flag is "ON" (step Sg11, Yes), it writes the captured output value to the internal storage area (step Sg13).
  • the averaging calculation unit 304 reads out the averaging count q from the internal storage area.
  • the arithmetic mean calculation unit 304 determines whether q output values exist in the internal storage area (step Sg14). When the arithmetic mean calculation unit 304 determines that q output values do not exist in the internal storage area (step Sg14, No), the process of step Sg10 is performed again.
  • step Sg14 when the arithmetic mean calculation unit 304 determines that q output values exist in the internal storage area (step Sg14, Yes), the value of 1/q of each value of the q output values is added. By doing so, an output value obtained by adding and averaging is calculated.
  • the averaging calculation unit 304 outputs the averaging output value to the low-pass filter unit 401 of the maximum likelihood sequence estimating unit 40 (step Sg15).
  • the arithmetic mean calculating unit 304 deletes the output value written first, that is, the oldest output value from the internal storage area (step Sg16), and performs the process of step Sg10 again.
  • the symbol determination unit 6e of the fourth embodiment described above has the following effects in addition to the effects of the symbol determination unit 6 of the first embodiment, by including the averaging calculation unit 304.
  • FIG. For example, by transmitting the transmission signal sequence ⁇ s t ⁇ generated from the m-value data sequence for training predetermined before operation from the signal generation device 3, the addition average calculation unit 304 performs so-called ensemble averaging. be able to. That is, the averaging section 304 can generate an output signal sequence for training ⁇ r' t ⁇ in which white noise is suppressed by averaging the received signal sequences ⁇ r t ⁇ with the same sampling phase.
  • the learning processing unit 78 of the maximum likelihood sequence estimating unit 40 learns the coefficients applied to the DNN units 61 and 71 based on the training output signal sequence ⁇ r′ t ⁇ generated by the arithmetic mean calculating unit 304.
  • the weight selection unit 406 performs processing to reduce the synapses of the neural network 200 provided in the DNN units 61 and 71 . This allows the weight selection unit 406 to reduce synapses while reducing the influence of white noise. Therefore, even if the tap gain value of the low-pass filter unit 401 that suppresses the high-frequency components of white noise has not converged, it is possible to obtain a determination-target received symbol sequence that is less affected by white noise and has the same sampling phase.
  • the user of the communication system 1e operates the terminal device for management to set the averaging flag provided in the storage area inside the averaging calculation unit 304. By writing "OFF" to the area of , it is possible to prevent the processing of steps Sg13 to Sg16 from being performed.
  • FIG. 21 is a block diagram showing the configuration of a communication system 500 used to measure the effect of the symbol decision section 6 of the first embodiment.
  • a communication system 500 is an experimental system for conducting 224 Gbps, PAM4, 2 km, 4 ch O-band optical transmission experiments.
  • VOA Variable Optical Attenuator
  • PIN-PD Photo Diode
  • DSO Digital Storage Oscilloscope
  • AWG 502 has a performance of 112 GSample / s and 65 GHz, captures the m-value data series generated by the transmission side offline DSP 501, based on the captured m-value data series, generates and outputs four transmission signal sequences do.
  • Each of amplifiers 503-1 to 503-4 amplifies each of the four transmission signal sequences output from AWG502.
  • TOSA is a TOSA for 4- ⁇ LAN (Local Area Network)-WDM (Wave Division Multiplexing), and each of the transmission signal series output by each of the amplifiers 503-1 to 503-4 is converted into light of four different wavelengths.
  • the signals are converted into signals, and the converted optical signals of four wavelengths are wavelength-multiplexed and sent to the optical fiber transmission line 505 .
  • the optical fiber transmission line 505 has a length of 2 km and is an SSMF (Standard Single Mode Fiber) having a chromatic dispersion amount of -4.2 ps/nm at a wavelength of 1295 nm. to transmit.
  • the DeMUX 506 is a DeMUX for LAN-WDM, demultiplexes optical signals of four wavelengths transmitted through the optical fiber transmission line 505, and outputs each of the demultiplexed optical signals from four output interfaces.
  • the VOA 507 switches and connects to one of the four output interfaces of the DeMUX 506, and adjusts the power of the optical signal received through the connected output interface.
  • the PIN-PD 508 has the performance of a cutoff frequency of 50 GHz, and converts the intensity-modulated modulated light into a received signal sequence of analog electrical signals by a direct detection method.
  • the amplifier 509 amplifies and outputs the received analog electrical signal sequence output from the PIN-PD 508 .
  • the DSO 510 has a performance of 160 GSample/s and 63 GHz, takes in the received analog electrical signal sequence output from the amplifier 509, and converts it into a received signal sequence of a digital signal.
  • the receiving-side offline DSP 511 takes in the received signal sequence of the digital electric signal converted and generated by the DSO 510 .
  • the receiving side offline DSP 511 performs resampling and normalizing on the received signal sequence taken in from the DSO 510, specifies the estimated transmission symbol by the symbol determination unit 6, performs PAM4 demapping, and converts the m-value data sequence. Restore.
  • the offline DSP 511 on the receiving side calculates the bit error rate of the restored m-value data series.
  • FIG. 22 is a graph showing the relationship between the bit error rate calculated in the offline DSP 511 on the receiving side and the number of intermediate layers of the neural network 200 of the DNN units 61 and 71 of the symbol determination unit 6.
  • the measurement conditions for obtaining the graph of FIG. 22 are that the number of intermediate layer nodes in each intermediate layer of the neural network 200 of the DNN units 61 and 71 of the symbol determination unit 6 is set to 50 each. For example, if there are two intermediate layers, the total number of intermediate layer nodes is 100. Also, the power of the optical signal received by the PIN-PD508 is set to 2 dBm by the VOA507.
  • the dotted line parallel to the horizontal axis indicates the "hard decision error correction limit".
  • the "hard decision error correction limit” is an error rate that indicates transmission performance that is sufficiently capable of error correction when using hard decision FEC (Forward Error Correction), such as MLSE. is an index for measuring the signal processing performance of The five types of graphs in FIG. It is a graph of measurement results obtained by measuring an optical signal obtained from each of four output interfaces, and a graph of black circles " ⁇ " is a graph showing an average value of the four graphs.
  • the bit error rate becomes lower than the hard decision error correction limit. It can be seen that the greater the number of intermediate layers, the lower the bit error rate and the better the transmission performance. However, when the number of intermediate layers is 3 or more, the learning process of the neural network 200 is not performed stably, so the bit error rate may or may not be improved. be. Therefore, in the average graph indicated by the black circles " ⁇ ", it can be seen that when the number of intermediate layers exceeds three layers, the bit error rate is almost the same as that obtained with three layers.
  • FIG. 23 is a graph showing the relationship between the bit error rate calculated in the offline DSP 511 on the receiving side and the number of nodes in the intermediate layer of the neural network 200 of the DNN units 61 and 71 of the symbol determination unit 6.
  • FIG. The measurement conditions for obtaining the graph of FIG. is set to 2 dBm by VOA507.
  • the dotted line parallel to the horizontal axis indicates the "hard decision error correction limit" as in FIG. .
  • the configuration of the neural network 200 shown in the above-described first to fourth embodiments is an example, and is a function approximator that approximates the transfer function (H) of the transmission line 2 and is an estimated transfer function (H').
  • H transfer function
  • H' estimated transfer function
  • it may be a neural network with another configuration, or may be based on a machine learning technique other than the neural network.
  • the activation function of the neural network 200 is the ReLU function shown in Equation (13). may be applied, or other activation functions may be applied.
  • is a gain, and a value greater than 0 is predetermined.
  • is the degree of modulation of the intensity modulator 2-2 of the transmission line 2, and is a value of 0 or more and 1 or less.
  • the value of ⁇ is the amplitude of the signal to be modulated by the intensity modulator 2-2 when the range from the minimum power to the maximum power that can be changed in the intensity modulator 2-2 is normalized by 1. indicates what to do. Basically, the minimum amplitude level of the signal to be modulated is 1- ⁇ and the maximum amplitude level is 1.
  • is a chirp factor in the intensity modulator 2-2, and is a parameter that indicates the degree to which different phase modulation occurs for each modulation frequency.
  • Modulation index ⁇ and chirp factor ⁇ play a hyperparameter-like role in some nonlinear functions, as can be seen from Eq. (28). Therefore, by applying the actual modulation depth ⁇ of the intensity modulator 2-2 of the transmission line 2 and the chirp factor ⁇ to the parameters of the activation function of the equation (28), the transmission line 2 can be an activation function that takes into account the input/output characteristics of the components that make up the .
  • the supervised learning process shown in the first embodiment above is a stochastic gradient descent method that calculates a new coefficient each time one error is obtained, but instead of this, the third implementation A mini-batch gradient descent method may be applied in which new coefficients are calculated based on multiple errors obtained for each mini-batch shown in the form.
  • the mini-batch gradient descent method By using the mini-batch gradient descent method, the coefficients of the neural network 200 are updated less frequently than the stochastic gradient descent method, so the amount of computation can be reduced, and the effect of outliers is suppressed. Learning processing can be performed.
  • the training mode may apply the stochastic gradient descent method
  • the operational mode may apply the mini-batch gradient descent method. applied, and in the operational mode, stochastic gradient descent may be applied.
  • the stochastic gradient descent method of calculating a new coefficient each time one error shown in the first embodiment is obtained may be applied.
  • Stochastic gradient descent like mini-batch gradient descent, is also a learning process included in popular machine learning libraries.
  • the mini-batch size shown in the third embodiment is an example, and an appropriate number may be determined as appropriate.
  • Techniques other than the stochastic gradient descent method and the mini-batch gradient descent method may be applied to the supervised learning processing of the first and third embodiments.
  • a function for calculating the squared error is applied as the error generation function
  • a function for calculating the sum of the squared errors is applied. It is also possible to apply an error generation function other than
  • the learning processing units 78 and 78d calculate new coefficients to be applied to the neural network 200 by the error backpropagation method. New coefficients to be applied to the neural network 200 may be calculated by other methods.
  • sequences generated by the Mersenne Twister shown in the above first and third embodiments are examples of m-value data sequences for training, and other long-cycle random sequences that can suppress overfitting are trained. It may be used as an m-value data series.
  • the learning process of the neural network 200 shown in the above first and third embodiments is used as a forward transfer function estimation method and a feature amount extraction method other than the transfer function estimation of the transmission line 2 in MLSE. good too.
  • the candidate symbol sequence input unit 62 performs operations such as normalization when fetching the candidate symbol sequence ⁇ s′ t ⁇ output by the candidate symbol sequence generation unit 405. Preprocessing may be performed.
  • the candidate symbol sequence input unit 62 may expand the candidate symbol sequence ⁇ s′ t ⁇ into a Volterra series and use it as an input sequence to be given to the DNN unit 61 including higher-order terms.
  • the sequence length of the input sequence is longer than the sequence length p of the candidate symbol sequence ⁇ s′ t ⁇ . . . and the number of taps of the linear adaptive filter unit 61b must be increased according to the number of input sequences given.
  • the input switching units 74 and 74b and the transmission symbol sequence input unit 79 generate a transmission signal sequence ⁇ s t ⁇ from the training m-value data sequence, and generate an input sequence from the generated transmission signal sequence ⁇ s t ⁇ . In this case, it is necessary to perform Volterra series expansion similar to that performed by the candidate symbol sequence input unit 62 .
  • the filter update processing unit 35 of the update processing unit 303 of the phase adjustment unit 30, 30e and the filter update processing unit of the optimization unit 404, 404b of the maximum likelihood sequence estimation unit 40, 40b 75 and 78b are adapted to calculate updated tap gain values by the LMS algorithm.
  • another update algorithm such as the RLS (Recursive Least Square) algorithm may be applied.
  • the weight selection unit 406 described in the first embodiment is inserted between the learning processing unit 78d of the symbol determination unit 6d shown in FIG. 17 of the third embodiment and the DNN unit 71. good too.
  • phase adjustment unit 30 included in the symbol determination unit 6a of the second embodiment and the symbol determination unit 6b shown in FIGS. 13 and 14 of the third embodiment is replaced with the phase adjustment unit 30e of the fourth embodiment. It may be replaced.
  • the averaging calculation unit 304 of the fourth embodiment is inserted between the adder 34 of the phase adjustment unit 30c of the symbol determination unit 6c shown in FIG. 16 of the third embodiment and the low-pass filter unit 401.
  • the delay device 76 included in the symbol determination unit 6 of the first embodiment, the symbol determination unit 6b of the third embodiment, and the symbol determination unit 6e of the fourth embodiment has an output value output by the low-pass filter unit 401. That is, after the time of "wT+(p-1)T/2", that is, the time of "w+(p-1)/2" symbols has elapsed after the received symbol to be determined is captured, the received symbol to be determined is captured. It is made to output to the subtractor 77.
  • the reason for doing this is that, for example, in the case of the symbol determination unit 6 of the first embodiment, the position of the estimated transmission symbol a t at time t is determined by the sequence length p given to the DNN unit 71, as described above.
  • the position of the estimated transmission symbol a t at time t does not have to be the center position of the input sequence of sequence length p supplied to DNN unit 71 . It may be included in some position. Even in this way, the learning process is only performed on the premise that the estimated transmission symbol at time t is deviated from the center position of the input sequence of sequence length p, and the state optimized by the learning process is performed.
  • the DNN unit 71 outputs an output value that substantially matches the received symbol to be determined at time t.
  • the delay device 76 sets any time from "wT" to "wT+(p-1)T/2" as the delay time, and subtracts the received symbols to be determined that are acquired after the delay time has elapsed. It is sufficient to output to the device 77.
  • the symbol determination unit 6 of the first embodiment, the symbol determination unit 6a of the second embodiment, the symbol determination unit 6b of the third embodiment, and the symbol determination unit 6e of the fourth embodiment each have a candidate symbol sequence A generating section 405 is provided, and the candidate symbol sequence generating section 405 repeatedly generates “m p ” candidate symbol sequences ⁇ s′ t ⁇ .
  • the candidate symbol sequence generation unit 405 instead of the candidate symbol sequence generation unit 405, the “m p ” candidate symbol sequences ⁇ s′ t ⁇ generated by the candidate symbol sequence generation unit 405 are set to continuous integer values from 1 to m p . You may make it provide the memory
  • the addition/comparison/selection unit 52, the path tracing determination unit 51, the candidate symbol sequence input unit 62 of the first, third, and fourth embodiments, and the detection processing unit 64 of the second embodiment are:
  • a counter is provided inside, the initial value of the counter is set to 1, the candidate symbol sequence ⁇ s′ t ⁇ corresponding to the value of the counter is read from the storage unit, and after reading, the value of the counter is incremented by 1.
  • the symbol determination units 6, 6a, 6b, 6c, 6d, and 6e of the first to fourth embodiments may be configured as a single symbol determination device.
  • the symbol determination units 6, 6a, 6b, 6c, 6d, and 6e in the above-described embodiments may be realized by computers.
  • a program for realizing this function may be recorded in a computer-readable recording medium, and the program recorded in this recording medium may be read into a computer system and executed.
  • the "computer system” referred to here includes hardware such as an OS and peripheral devices.
  • the term "computer-readable recording medium” refers to portable media such as flexible discs, magneto-optical discs, ROMs and CD-ROMs, and storage devices such as hard discs incorporated in computer systems.
  • “computer-readable recording medium” refers to a program that dynamically retains programs for a short period of time, like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. It may also include something that holds the program for a certain period of time, such as a volatile memory inside a computer system that serves as a server or client in that case. Further, the program may be for realizing a part of the functions described above, or may be capable of realizing the functions described above in combination with a program already recorded in the computer system. It may be implemented using a programmable logic device such as an FPGA (Field Programmable Gate Array).
  • FPGA Field Programmable Gate Array
  • It can be used as a device on the receiving side in 400GbE and 800GbE transmission.
  • symbol determination unit 30 phase adjustment unit 40 maximum likelihood sequence estimation unit 301 adaptive filter unit 302 temporary determination processing unit 303 update processing unit 401 low-pass filter unit 402 determination processing unit , 403...Transmission path estimation unit, 404...Optimization unit, 405...Candidate symbol sequence generation unit, 406...Weight selection unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Cable Transmission Systems, Equalization Of Radio And Reduction Of Echo (AREA)

Abstract

送信シンボルによって形成される送信信号系列の候補となる複数の候補シンボル系列を生成し、生成した複数の候補シンボル系列の各々を入力系列として、送信信号系列を伝送する伝送路の伝達関数を近似する関数近似器に与えた場合に出力として得られる推定受信シンボルを出力し、伝送路が送信信号系列を伝送した際の受信信号系列から得られる判定対象受信シンボル系列と、候補シンボル系列ごとの推定受信シンボルとに基づいて最尤系列推定により送信シンボルの判定を行うことにより判定対象受信シンボル系列に対応する推定送信シンボルを特定し、受信信号系列が受信された際に送信された送信信号系列、または、推定送信シンボルによって形成される推定送信信号系列から得られる系列を入力系列として与えた場合に、判定対象受信シンボル系列を形成する判定対象受信シンボルが出力として得られるように関数近似器を最適化する。

Description

シンボル判定装置、シンボル判定方法及びプログラム
 本発明は、シンボル判定装置、シンボル判定方法及びプログラムに関する。
 近年のスマートフォン、タブレットの急速な普及や高精細な動画配信サービスの様なリッチコンテンツの増加等により、インターネットのバックボーンネットワークが転送するトラフィックは増え続けている。企業におけるクラウドサービスの活用も進んでいる。これらのことから、データセンタ(以下「DC」(Data Center)という。)内、DC間のネットワークのトラフィックが年率約1.3倍の割合で増加することが予測されている。
 現在DC内やDC間の接続方式には主にイーサネット(登録商標)が導入されている。通信トラフィックの増大に伴い、単一拠点におけるDCの大規模化が困難になることが予想されている。そのため、今後は今まで以上にDC間連携の必要性が高まり、DC間で送受信されるトラフィックの更なる増大が考えられる。このような状況に対応するためには、低コストかつ大容量の短距離光伝送技術の確立が求められる。
 現行のイーサネット(登録商標)規格では、10GbE(Gigabit Ethernet(登録商標))-ZRを除き40kmまでの伝送路に光ファイバ通信が適用されている。100GbEまでは光のon、offに2値情報を割り当てる強度変調方式が用いられている。受信側は受光器のみで構成され、長距離伝送で用いるコヒーレント受信方式よりも安価な構成となっている。
 100GbEでは、変調スピードが25GBd(GigaBaud)、シンボルあたりの情報量が1bit/symbolのNRZ(Non-return-to-zero)信号を4波多重することで、100Gbps(Gigabit per second)の伝送容量を実現している。
 100GbEの次の世代にあたる400GbEの標準化においては、100GbEで用いられた経済的なデバイス構成の維持と、信号の帯域利用効率を考慮し、初めて2bits/symbolのPAM4(4-level pulse-amplitude-modulation)が採用されている。これにより、100GbpsのPAM4信号を4波多重することで400Gbpsの伝送容量を実現している。400GbEの規格として、例えば、400GBASE-FR4,LR4などがある。近年、今後の更なるトラフィック増大に向け、800GbE、1.6TbEの標準化が予定されている。これらの通信速度は、例えば、PAM4を採用して変調スピードを100GBaudとした200Gbpsの信号を4~8波長多重して実現することが予定されている。
 更なる大容量化に向けた課題として、伝送容量の増大に伴いデバイスの帯域制限や波長分散の影響が顕在化して信号品質劣化が増大することが想定される。例えば、図24に示すように、伝送容量が増大して利用帯域が増加すると、デバイスの帯域制限により、周波数領域601(斜め線のハッチング領域)が失われてしまう問題が発生する。図25に示すように、伝送容量が増大すると、波長分散の影響が大きくなり、干渉する領域602が増大したりする。
 このような問題を解決する手法として、高速な通信速度に対応したDAC(Digital to Analog Converter)やADC(Analog to Digital Converter)を用いたり、波長の分散を補償する分散補償モジュール等を用いたりする手法がある。しかし、こういった機器は高価であり、機器に要するコストが高くなるため、経済的な観点からは、採用を控えたい手法である。経済的な観点において、望まれている手法は、従来の送受信器の構成を維持したまま、多値化、帯域制限耐力、波長分散耐力を向上させて、低コストである狭帯域のデバイスを活用する手法である。
 しかし、低コストである狭帯域のデバイスを用いる場合、例えば、ドライバや受光器には、図26に示すような非線形な入出力の特性が存在し、変調器においても図27に示すような非線形な入出力の特性が存在する。そのため、非線形な波形歪みが生じるという問題がある。直接検波方式を用いる場合、波長分散と自乗検波の相互作用のために、周波数領域において図28に示すような非線形な損失特性が生じる。すなわち、低コストである狭帯域のデバイスを用いる場合、上記のような非線形な応答特性が存在するため、通信速度の高速化に伴う帯域制限や波長分散による符号間干渉に加えて、非線形な応答特性の影響を受けてしまう。そのため、従来の線形等化や推定方法では、正しい送信データを得ることが難しくなるという問題がある。
 この問題を、図29及び図30を参照しつつ具体的に説明する。図29は、上述した低コストである狭帯域デバイスを用いて構成された従来の通信システム100を示すブロック図である。通信システム100は、送信側の信号生成装置3、伝送路2、受信側の識別装置4zを備える。
 信号生成装置3は、外部から与えられるm値データ系列を取り込み、デジタル電気信号の送信シンボルを時系列に並べることにより形成される送信シンボル系列、すなわち、送信信号系列{s}を生成する。ここで、mは、シンボル多値度であり、2以上の整数である。送信信号系列{s}に含まれる送信シンボルの各々は、数字や記号で表される。例えば、PAM8が採用されて、m=8の場合、送信シンボルの各々は、[0,1,2,3,4,5,6,7]の数字で表される。tは、送信信号系列{s}に含まれる送信シンボルの各々を識別する識別番号であり、送信シンボルの各々が生成された相対的な時刻を示している。例えば、送信信号系列{s}が、ブロック単位で送信される場合、1つのブロックに含まれる送信信号系列{s}の送信シンボル数が、N個であるとき、t=1,2,…,N-1,Nとなる。
 伝送路2において、強度変調器2-2は、信号生成装置3が出力するデジタル電気信号の送信信号系列{s}を取り込む。強度変調器2-2は、取り込んだデジタル電気信号の送信信号系列{s}によって光源2-1が出射する光を強度変調し、光信号の送信信号系列{s}を生成する。光ファイバ2-3は、強度変調器2-2が生成した光信号の送信信号系列{s}を伝送する。受光器2-4は、光ファイバ2-3が伝送する光信号の送信信号系列{s}を光信号の受信信号系列{r}として受光し、直接検波方式によりアナログ電気信号の受信信号系列{r}に変換して出力する。受光器2-4は、例えばフォトダイオードである。
 識別装置4zは、受信部5、シンボル判定部90及び復調部7を備える。受信部5は、受光器2-4が出力するアナログ電気信号の受信信号系列{r}をデジタル電気信号の受信信号系列{r}に変換する等の前処理を行い、当該前処理により得られたデジタル電気信号の受信信号系列{r}をシンボル判定部90に出力する。シンボル判定部90は、受信信号系列{r}に対して送信シンボルの判定を行うことにより、送信シンボルの推定値(以下「推定送信シンボル」という。)を特定して出力する。復調部7は、シンボル判定部90が出力する推定送信シンボルから形成される推定送信信号系列からm値データ系列を復元して出力する。
 このとき、伝送路2を等化回路によって示すと、図30に示すような構成となる。図30では、伝送路2において、時刻tにおける符号の前と後の各々においてLシンボル分ずつ離れた符号まで符号間干渉が発生するものとして、光の送信信号系列{s}の時刻tにおけるシンボルの前のLシンボルと、後のLシンボルとが、伝達関数部83に与えられる構成を示している。
 遅延器81は、送信信号系列{s}に含まれる送信シンボルを取り込んで記憶し、「-LT」の時間経過後に記憶した送信シンボルを出力する。なお、遅延量にマイナス符号が付いているため、遅延器81は、「LT」の負遅延を与えていることになる。ここで、「T」は、シンボル間隔であり、シンボルごとの演算のタイミングは、「tT」となる。
 遅延器82-1~82-2Lの各々は、各々に接続する1つ前の遅延器81,82-1~82-(2L-1)が出力する送信シンボルを取り込んで記憶し、「T」の時間経過後に記憶した送信シンボルを出力する。
 伝達関数部83は、遅延器81,82-1~82-2Lが出力するシンボル系列に伝達関数(H)を適用する。加算器85は、伝達関数部83の出力値に対して、雑音成分であるωを加算して、受信信号系列{r}を生成する。ωは、平均0、分散δの互いに独立なガウスランダム系列である。図30の等化回路が生成する受信信号系列{r}を式で示すと次式(1)になる。
Figure JPOXMLDOC01-appb-M000001
 式(1)から分かるように、ωを除去して、シンボル判定部90において、正しい伝達関数(H)を算出することができれば、算出した伝達関数(H)の逆関数を利用して元の送信信号系列{s}を復元することができる。
 ただし、上記したような、符号間干渉や非線形応答の問題が存在する場合、正確な伝達関数(H)を算出することは困難である。このような、符号間干渉や非線形応答によって歪んだ受信信号波形から正しい送信データを得るための有効な等化方式として、例えば、最尤系列推定(以下「MLSE」(Maximum Likelihood Sequential Estimation)という。)という等化方式が知られている(例えば、非特許文献1、2、3、4参照)。
 ここで、MLSE方式の概略について説明する。MLSE方式は、全ての送信信号系列{s}に対して、推定した伝達関数(以下「推定伝達関数(H’)」という。)を適用し、その出力系列を、受信信号系列{r}と比較することにより、受信信号系列{r}に対応する最も尤もらしい送信シンボルを推定する方式である。ただし、送信信号系列{s}及び受信信号系列{r}のシンボルの系列長Nが大きくなると、比較するための演算量が膨大になる。
 そのため、MLSE方式では、系列の長さを制限して比較を行う手法、すなわち、次式(2)で示される条件付き結合確率密度関数p({r}{s’})を最大にする送信信号系列{s’}を探索することで、送信シンボルの判定を行う手法が用いられる。
Figure JPOXMLDOC01-appb-M000002
 条件付き結合確率密度関数p({r}{s’})は、伝送路2を通じて、m値データ系列から生成される系列長Nの送信信号系列{s’}が送信された場合に、受信信号系列{r}が受信される確率を示している。式(2)から分かるように、1つのtに対応する送信信号系列{s’}の系列長は「N」ではなく「2L+1」に制限されている。
 条件付き結合確率密度関数p({r}{s’})を最大にすることは、次式(3)で示される距離関数dを最小にすることと等価である。なお、式(3)では、(p-1)/2=Lとした置き換えを行っている。Lが1以上の整数であることから、pは、3以上の奇数の整数になる。
Figure JPOXMLDOC01-appb-M000003
 式(3)における(s’t-(p-1)/2,…,s’,…,s’t+(p-1)/2)は、時刻tにおける伝送路2の状態(ステート)μ(以下「伝送路状態μ」という。)を示している。系列長が「p」の場合、変調シンボルI=[i,i,…,i]の全ての組み合わせの数は、「m」となる。この場合、伝送路2は、m個の有限の伝送路状態を有する有限状態機械とみなすことができる。そのため、例えば、ビタビ・アルゴリズムなどを用いて、受信信号系列{r}ごとに逐次計算を行って距離関数dを算出することができる。
 時刻tにおいて、伝送路状態μに到達する距離関数d({μ})は、時刻t-1における距離関数dt-1({μt-1})と、時刻tにおける状態遷移に伴う尤度、すなわちメトリックb(r;μt-1→μ)とを用いて次式(4)によって表される。
Figure JPOXMLDOC01-appb-M000004
 メトリックb(r;μt-1→μ)は、推定伝達関数(H’)を用いて次式(5)として表される。
Figure JPOXMLDOC01-appb-M000005
 時刻tにおけるメトリックbは、t-1からtへの状態遷移にのみ依存し、それ以前の状態遷移には依存しない。ここで、伝送路状態μに到達する距離関数の最小値d_mint-1(μt-1)と、これに対応する全状態遷移が、時刻t-1における全ての伝送路状態μt-1において既知であると仮定する。
 この仮定の下で、伝送路状態μに到達する距離関数d({μ})の最小値を求める場合、全ての状態遷移に対応する距離関数d({μ})を求める必要はない。伝送路状態μに遷移する可能性のある全ての伝送路状態{μt-1}について、d_mint-1(μt-1)+b(r;μt-1→μ)を算出し、この中の最小値を求めれば、その値が伝送路状態μに到達する全ての距離関数d({μ})の最小値であるd_min(μ)になる。これを式で示すと次式(6)になる。
Figure JPOXMLDOC01-appb-M000006
 上記したような伝送路状態μに到達する距離関数d({μ})の最小値を求める手法として、例えば、ビタビ・アルゴリズムなどの手法がある。このような手法を用いることにより、全ての状態遷移に対応する距離関数d({μ})を算出することなく、伝送路状態μに遷移する可能性のある全ての伝送路状態{μt-1}について、d_mint-1(μt-1)+b(r;μt-1→μ)を算出することができる。そのため、系列長に対し指数的に増大する演算量を線形的な増大に抑えることができる。
 例えば、通信システム100のシンボル判定部90にMLSE方式が適用されている場合、シンボル判定部90は、推定伝達関数(H’)を推定し、推定した推定伝達関数(H’)に対して、時刻tにおける伝送路状態μを示す(s’t-(p-1)/2,…,s’,…,s’t+(p-1)/2)のシンボル系列を代入する。シンボル判定部90は、受信信号系列{r}と、推定伝達関数(H’)に(s’t-(p-1)/2,…,s’,…,s’t+(p-1)/2)を代入して得られる系列とに基づいて、上記の式(5)よりメトリックb(r;μt-1→μ)を算出する。
 シンボル判定部90は、例えば、ビタビ・アルゴリズムにより、式(6)に示すd_mint-1(μt-1)+b(r;μt-1→μ)を算出し、算出した値の中の最小値を距離関数d({μ})の最小値であるd_min(μ)とする。シンボル判定部90は、距離関数d({μ})の最小値d_min(μ)に基づいて、トレリスのパスを遡ることにより推定送信シンボルを特定する。
M. Ibnkahla and J. Yuan, "A neural network MLSE receiver based on natural gradient descent: application to satellite communications", Seventh International Symposium on Signal Processing and Its Applications, 2003. Proceedings., 2003, pp. 33-36 vol.1, doi: 10.1109/ISSPA.2003.1224633. 谷口寛樹 他,"非線形チャネル推定に基づくMLSEを用いた20-GHz帯域制限環境下におけるO帯255-Gb/s PAM-8光伝送の実証",信学技報,OCS2019-18,(2019-06) 谷口寛樹 他,"トレリスパス制限MLSE適用による255-Gbps PAM8 O帯 SMF 10-km伝送の実証",信学技報,OCS2019-65,(2020-01) 谷口寛樹 他,"演算規模削減非線形MLSE適用による255-Gbps PAM8 O帯 SMF 20-km伝送の実証",電子情報通信学会大会講演論文集(電子情報通信学会ソサイエティ大会講演論文集)、2020号、B-10-20、(2020-09-01)
 しかしながら、MLSE方式を用いた場合、伝送路2における信号系列のパルス広がり幅に対して演算量が指数的に増大するという問題がある。MLSE方式では、伝送路2の応答特性を推定する必要があるが、直接検波方式を用いる場合、自乗検波の非線形性のために応答特性の推定誤差が大きくなるという問題がある。非特許文献2,4に記載の技術では、これらの問題を解決するために、非線形最尤系列推定(以下「NL-MLSE」(Non Linear-MLSE)という。)という方式を提案している。
 図31は、図29に示した通信システム100が備えるシンボル判定部90に替えて適用されるNL-MLSE方式のシンボル判定部90aの構成を示すブロック図である。
 シンボル判定部90aは、候補シンボル系列生成部91、レプリカ生成フィルタ部92、減算器93、メトリック算出部94、ビタビ復号部95及び更新処理部96を備える。候補シンボル系列生成部91は、伝送路2の状態を示す候補シンボル系列{s’}、すなわち上記の式(3)において示した「m」個の伝送路状態μのシンボル系列(s’t-(p-1)/2,…,s’,…,s’t+(p-1)/2)を生成する。レプリカ生成フィルタ部92は、例えば、ボルテラフィルタ等の非線形フィルタを備える。レプリカ生成フィルタ部92は、候補シンボル系列生成部91が出力する候補シンボル系列{s’}に対して非線形フィルタを適用して受信信号系列のレプリカを生成する。
 減算器93は、受信信号系列{r}と、レプリカ生成フィルタ部92が生成する受信信号系列のレプリカとを取り込み、受信信号系列{r}から受信信号系列のレプリカを減算して減算値を求め、求めた減算値を出力する。メトリック算出部94は、減算器93が出力する減算値の絶対値を二乗して上記の式(5)のメトリックを算出する。ビタビ復号部95は、メトリック算出部94が算出したメトリックに対してビタビ・アルゴリズムを適用して推定送信シンボルを特定する。
 更新処理部96は、メトリック算出部94が算出したメトリックに基づいて、推定伝達関数(H’)を算出する。更新処理部96は、算出した推定伝達関数(H’)に基づいて、レプリカ生成フィルタ部92の非線形フィルタのタップに適用するタップ利得値を算出する。例えば、非線形フィルタが、ボルテラフィルタである場合、ボルテラ級数におけるボルテラ核の各々が、タップになる。更新処理部96は、算出したタップ利得値をレプリカ生成フィルタ部92の非線形フィルタのタップに適用してタップ利得値を更新する。
 レプリカ生成フィルタ部92のフィルタとして線形フィルタを適用すると、従来のMLSE方式によってシンボル判定を行う構成になる。これに対して、NL-MLSE方式では、レプリカ生成フィルタ部92のフィルタとして非線形フィルタを適用している。そのため、NL-MLSE方式では、伝送路2の伝達関数(H)に非線形応答の影響があっても、伝送路2の非線形応答の影響を加味した伝達関数を推定することが可能になる。NL-MLSE方式は、原理的に非線形演算によるノイズエンハンスが起きない方式であるため、符号間干渉によって歪んだ受信信号波形から正しい送信信号系列{s}を推定するための有効な等化方式であるといえる。したがって、NL-MLSE方式を採用したシンボル判定部90aは、非線形応答の影響を加味した推定伝達関数(H’)を用いて生成した受信信号系列のレプリカと、受信信号系列{r}とを比較して、推定送信シンボルの特定を行うことにより、最も尤もらしい生成系列、すなわち、特定した推定送信シンボルにより形成される推定送信信号系列を得ることができる。
 しかしながら、レプリカ生成フィルタ部92に適用する非線形フィルタが、例えば、次式(7)に示す三次ボルテラフィルタである場合、非線形応答の畳み込みを1回しか行うことができない。そのため、線形応答と非線形応答の繰り返しである実際の伝送路応答の伝達関数を高い精度で近似することができないという問題がある。
Figure JPOXMLDOC01-appb-M000007
 上記事情に鑑み、本発明は、NL-MLSE方式において、線形応答と非線形応答の繰り返しである実際の伝送路応答の伝達関数を高い精度で近似することを可能にする技術の提供を目的としている。
 本発明の一態様は、送信シンボルによって形成される送信信号系列の候補となる複数の候補シンボル系列を生成する候補シンボル系列生成部と、前記送信信号系列を伝送する伝送路の伝達関数を近似する関数近似器を有し、複数の前記候補シンボル系列の各々を入力系列として前記関数近似器に与えた場合に、前記関数近似器の出力として得られる推定受信シンボルを出力する伝送路推定部と、前記伝送路が前記送信信号系列を伝送した際の受信信号系列から得られる判定対象受信シンボル系列と、前記候補シンボル系列ごとの前記推定受信シンボルとに基づいて最尤系列推定により前記送信シンボルの判定を行うことにより前記判定対象受信シンボル系列に対応する推定送信シンボルを特定する判定処理部と、前記受信信号系列が受信された際に送信された前記送信信号系列、または、前記推定送信シンボルによって形成される推定送信信号系列から得られる系列を入力系列として与えた場合に、前記判定対象受信シンボル系列を形成する判定対象受信シンボルが出力として得られるように前記関数近似器を最適化する最適化部と、を備えるシンボル判定装置である。
 本発明の一態様は、送信シンボルによって形成される送信信号系列の候補となる複数の候補シンボル系列を生成し、生成した複数の前記候補シンボル系列の各々を入力系列として、前記送信信号系列を伝送する伝送路の伝達関数を近似する関数近似器に与えた場合に、前記関数近似器の出力として得られる推定受信シンボルを出力し、前記伝送路が前記送信信号系列を伝送した際の受信信号系列から得られる判定対象受信シンボル系列と、前記候補シンボル系列ごとの前記推定受信シンボルとに基づいて最尤系列推定により前記送信シンボルの判定を行うことにより前記判定対象受信シンボル系列に対応する推定送信シンボルを特定し、前記受信信号系列が受信された際に送信された前記送信信号系列、または、前記推定送信シンボルによって形成される推定送信信号系列から得られる系列を入力系列として与えた場合に、前記判定対象受信シンボル系列を形成する判定対象受信シンボルが出力として得られるように前記関数近似器を最適化する、シンボル判定方法である。
 本発明の一態様は、コンピュータを、送信シンボルによって形成される送信信号系列の候補となる複数の候補シンボル系列を生成する候補シンボル系列生成手段、前記送信信号系列を伝送する伝送路の伝達関数を近似する関数近似器を有し、複数の前記候補シンボル系列の各々を入力系列として前記関数近似器に与えた場合に、前記関数近似器の出力として得られる推定受信シンボルを出力する伝送路推定手段、前記伝送路が前記送信信号系列を伝送した際の受信信号系列から得られる判定対象受信シンボル系列と、前記候補シンボル系列ごとの前記推定受信シンボルとに基づいて最尤系列推定により前記送信シンボルの判定を行うことにより前記判定対象受信シンボル系列に対応する推定送信シンボルを特定する判定処理手段、前記受信信号系列が受信された際に送信された前記送信信号系列、または、前記推定送信シンボルによって形成される推定送信信号系列から得られる系列を入力系列として与えた場合に、前記判定対象受信シンボル系列を形成する判定対象受信シンボルが出力として得られるように前記関数近似器を最適化する最適化手段、として機能させるためのプログラムである。
 この発明によれば、NL-MLSE方式において、線形応答と非線形応答の繰り返しである実際の伝送路応答の伝達関数を高い精度で近似することが可能になる。
第1の実施形態における通信システムの構成を示すブロック図である。 第1の実施形態におけるシンボル判定部の内部構成を示すブロック図である。 第1の実施形態におけるシンボル判定部の内部の詳細構成を示すブロック図である。 第1の実施形態における位相調整部が取り込む系列を説明する図である。 第1の実施形態におけるパルス幅の圧縮の概要を説明する図である。 第1の実施形態におけるニューラルネットワークの構成の一例を示す図である。 第1の実施形態における位相調整部による処理の流れを示す図である。 第1の実施形態における最尤系列推定部による処理の流れを示す図である。 第1の実施形態における最適化部による処理の流れを示す図である。 第2の実施形態におけるシンボル判定部の内部構成を示すブロック図である。 第2の実施形態におけるシンボル判定部の内部の詳細構成を示すブロック図である。 第2の実施形態における最尤系列推定部による処理の流れを示す図である。 第3の実施形態におけるシンボル判定部の内部構成を示すブロック図である。 第3の実施形態におけるシンボル判定部の内部の詳細構成を示すブロック図である。 第3の実施形態におけるシンボル判定部の最適化部による処理の流れを示す図である。 第3の実施形態におけるシンボル判定部の内部の詳細構成を示すブロック図である。 第3の実施形態におけるシンボル判定部の内部の詳細構成を示すブロック図である。 第3の実施形態におけるシンボル判定部による処理の流れを示す図である。 第4の実施形態におけるシンボル判定部の内部構成を示すブロック図である。 第4の実施形態における位相調整部による処理の流れを示す図である。 実験用のシステムを用いた実験に用いた通信システムの構成を示すブロック図である。 実験用のシステムを用いた実験に用いた通信システムにおいて測定されたビット誤り率と中間層の層数の関係を示したグラフである。 実験用のシステムを用いた実験に用いた通信システムにおいて測定されたビット誤り率と中間層のノード数の関係を示したグラフである。 伝送容量が増大した場合のデバイスの帯域制限の影響を示すグラフである。 伝送容量が増大した場合の波長分散の影響を示すグラフである。 ドライバや受光器の入出力特性を示すグラフである。 変調器の入出力特性を示すグラフである。 周波数領域における損失特性を示すグラフである。 従来の通信システムの構成を示すブロック図である。 伝送路の等化回路のブロック図である。 非特許文献2に開示される技術に対応するシンボル判定部の内部構成を示すブロック図である。
(第1の実施形態)
 以下、本発明の実施形態について図面を参照して説明する。図1は、第1の実施形態における通信システム1の構成を示すブロック図である。通信システム1は、信号生成装置3、伝送路2及び識別装置4を備える。なお、信号生成装置3及び伝送路2は、図29に示した従来の通信システム100が備える信号生成装置3及び伝送路2と同一の構成である。
 識別装置4は、受信部5、シンボル判定部6及び復調部7を備える。受信部5及び復調部7は、図29に示した従来の通信システム100が備える識別装置4zの受信部5及び復調部7と同一の構成である。シンボル判定部6は、受信部5が出力するデジタル電気信号の受信信号系列{r}に対して送信シンボルの判定を行って、受信信号系列{r}に対応する推定送信シンボルを特定する。
 図2に示すように、シンボル判定部6は、位相調整部30と、最尤系列推定部40とを備える。位相調整部30は、例えば、FFE(Feed Forward Equalizer)であり、デジタル電気信号の受信信号系列{r}の位相をサンプリング位相に揃えて出力する。サンプリング位相は、送信信号系列{s}の位相である。
 最尤系列推定部40は、シンボルの系列長を制限した送信信号系列{s}である候補シンボル系列{s’}の各々に対して推定伝達関数(H’)を適用することにより複数の推定受信シンボルを算出する。最尤系列推定部40は、算出した複数の推定受信シンボルと、受信信号系列{r}から得られる判定対象受信シンボル系列とに基づいて最尤系列推定により送信シンボルの判定を行う。これにより、最尤系列推定部40は、判定対象受信シンボル系列に対応する推定送信シンボルを特定する。
 位相調整部30は、適応フィルタ部301、仮判定処理部302及び更新処理部303を備える。適応フィルタ部301は、例えば、図3に示すように線形トランスバーサルフィルタである。適応フィルタ部301は、伝送路2の伝達関数(H)の逆関数を近似する推定逆伝達関数により入力信号である受信信号系列{r}を適応等化する。
 適応フィルタ部301は、図3に示すように、遅延器31,32-1~32-(u-1)、タップ33-1~33-u及び加算器34を備える。遅延器31は、図4に示すように、系列長Nの受信信号系列{r}の一部である時刻tのシンボルを中心としたu個のシンボル系列を取り込む。遅延器31は、取り込んだu個のシンボル系列の中から、時刻tよりも「(u-1)T/2」時間前、すなわち時刻tのシンボルよりも「(u-1)/2」個のシンボル分前のシンボルrt-(u-1)/2を出力する。そのため、タップ33-1には、遅延器31が出力するrt-(u-1)/2が与えられる。
 遅延器32-1,32-2~32-(u-1)の各々は、各々に接続する1つ前の遅延器31,32-1~32-(u-2)が出力するシンボルよりも1シンボル分後のシンボルを出力する。例えば、最初の遅延器32-1は、u個のシンボル系列の中から、時刻tよりも「(u-3)T/2」時間前、すなわち時刻tのシンボルよりも「(u-3)/2」個のシンボル分前のrt-(u-3)/2のシンボルを出力する。最後の遅延器32-(u-1)は、u個のシンボル系列の中から、時刻tよりも「(u-1)T/2」時間後、すなわち時刻tのシンボルよりも「(u-1)/2」個のシンボル分後のrt+(u-1)/2のシンボルを出力する。これにより、タップ33-1~33-uには、次式(8)で示される系列長uのシンボル系列を含んだ信号が与えられることになる。
Figure JPOXMLDOC01-appb-M000008
 タップ33-1~33-uの各々には、いわゆるフィルタ係数であるf,f,…,f(u+1)/2,…,fのタップ利得値が設定されている。このタップ利得値f~fが、伝送路2の伝達関数(H)の逆関数を近似する推定逆伝達関数を表すことになる。タップ33-1~33-uは、各々に与えられるシンボルに対して各々のタップ利得値f~fを乗算して出力する。加算器34は、タップ33-1~33-uの出力値を合計して出力する。式(8)に示す信号の系列は、「(u+1)/2」番目の要素である時刻tのrを中心とした系列ということができる。そのため、加算器34の出力値は、次式(9)に示す演算により得られる値になる。
Figure JPOXMLDOC01-appb-M000009
 仮判定処理部302は、適応フィルタ部301の出力値に対して硬判定による送信シンボルの仮判定を行う。仮判定処理部302は、仮判定した送信シンボル(以下「仮判定シンボル」という。)を仮判定結果として出力する。
 更新処理部303は、適応フィルタ部301の出力値の目標値を仮判定処理部302が出力する仮判定シンボルとして、適応フィルタ部301のタップ33-1~33-uの各々のタップ利得値f~fの更新値を算出する。例えば、更新処理部303は、推定逆伝達関数を表すタップ利得値f~fの更新値をLMS(Least Mean Square)アルゴリズムにより算出する。
 更新処理部303は、図3に示すように、フィルタ更新処理部35と、減算器36とを備える。更新処理部303において、減算器36は、仮判定処理部302が出力する仮判定シンボルから適応フィルタ部301の出力値を減算して得られる減算値を誤差としてフィルタ更新処理部35に出力する。
 フィルタ更新処理部35は、減算器36が出力する誤差を小さくするようにLMSアルゴリズムによりタップ利得値f~fの更新値を算出する。フィルタ更新処理部35は、算出したタップ利得値f~fの更新値を、タップ33-1~33-uに設定して、タップ利得値f~fの更新を行う。
 最尤系列推定部40は、ローパスフィルタ部401、判定処理部402、伝送路推定部403、最適化部404、候補シンボル系列生成部405及び重み選択部406を備える。ローパスフィルタ部401は、例えば、図3に示すように線形トランスバーサルフィルタであり、高周波成分を抑制するローパスフィルタである。位相調整部30の適応フィルタ部301は、伝送路2によって低下した高周波成分を増幅するため、白色ノイズの高周波成分も増幅してしまう。ローパスフィルタ部401は、前段の適応フィルタ部301が増幅してしまった白色ノイズの高周波成分を抑制する。ローパスフィルタ部401は、伝送路推定部403の記憶長を削減するために、受信信号系列{r}のインパルスレスポンスを圧縮する。ここで、インパルスレスポンスの圧縮とは、図5に示すように、帯域制限や波長分散のために時間的に広がった信号系列のパルス幅を圧縮することであり、圧縮によりシンボル間の干渉を削減することができる。
 ローパスフィルタ部401は、図3に示すように、遅延器41,42-1~42-(v-1)、タップ43-1~43-v及び加算器44を備える。遅延器41は、遅延器31と同様に、図4に示した手法で、位相調整部30の適応フィルタ部301の出力信号系列の一部である時刻tのシンボルを中心としたv個のシンボル系列を取り込む。以下、適応フィルタ部301の出力信号系列を{r’}として示す。
 遅延器41は、取り込んだv個のシンボル系列の中から、時刻tよりも「(v-1)T/2」時間前、すなわち時刻tのシンボルよりも「(v-1)/2」個のシンボル分、前のシンボルr’t-(v-1)/2を出力する。そのため、タップ43-1には、遅延器41が出力するr’t-(v-1)/2が与えられる。
 遅延器42-1,42-1~42-(v-1)の各々は、各々に接続する1つ前の遅延器41,42-1~42-(v-2)が出力するシンボルよりも1シンボル分、後のシンボルを出力する。例えば、最初の遅延器42-1は、v個のシンボル系列の中から、時刻tよりも「(v-3)T/2」時間前、すなわち時刻tのシンボルよりも「(v-3)/2」個のシンボル分、前のr’t-(v-3)/2のシンボルを出力する。最後の遅延器42-(v-1)は、v個のシンボル系列の中から、時刻tよりも「(v-1)T/2」時間後、すなわち時刻tのシンボルよりも「(v-1)/2」個のシンボル分、後のr’t+(v-1)/2のシンボルを出力する。これにより、タップ43-1~43-vには、次式(10)で示される系列長vのシンボル系列を含んだ信号が与えられることになる。
Figure JPOXMLDOC01-appb-M000010
 タップ43-1~43-vの各々には、いわゆるフィルタ係数であるc,c,…,c(v+1)/2,…,cのタップ利得値が設定されている。タップ43-1~43-vは、各々に与えられるシンボルに対して各々のタップ利得値を乗算して出力する。加算器44は、タップ43-1~43-vの出力値を合計して出力する。式(10)は、「(v+1)/2」番目の要素である時刻tのr’を中心とした系列ということができるため、加算器44の出力値は、次式(11)に示す演算により得られる値になる。
Figure JPOXMLDOC01-appb-M000011
 式(11)から分かるように、ローパスフィルタ部401は、タップ利得値c,c,…,c(v+1)/2,…,cにより影響度合いが調整されているが、v個分のシンボル系列の情報量を圧縮した1つの出力シンボルを出力していることになる。MLSEの演算量は、パルスの広がり幅に対して指数的に増大することが知られているが、ローパスフィルタ部401によってパルス幅を圧縮することにより演算量の増大を抑えることができる。ローパスフィルタ部401の加算器44が出力する出力値が、判定対象受信シンボルになり、判定対象受信シンボルを時系列に並べることにより判定対象受信シンボル系列が形成されることになる。
 候補シンボル系列生成部405は、図31に示した候補シンボル系列生成部91と同一の構成を有しており、シンボルの系列長を制限した送信信号系列{s}である候補シンボル系列{s’}を生成する。候補シンボル系列{s’}は、上記の式(3)において示した「m」個の伝送路状態μのシンボル系列(s’t-(p-1)/2,…,s’,…,s’t+(p-1)/2)である。例えば、PAM4が採用されて、m=4となり、各シンボルが、[0,1,2,3]の数字で表されるとする。系列長p=3であるとすると、候補シンボル系列生成部405は、[0,0,0],[0,0,1],~,[2,2,3],[2,3,0],~,[3,3,3]という4個、すなわち64個の候補シンボル系列{s’}を生成する。候補シンボル系列生成部405は、生成した「m」個の候補シンボル系列{s’}を系列ごとに、加算比較選択部52と、パス遡り判定部51と、伝送路推定部403とに出力する。
 伝送路推定部403は、伝送路2の伝達関数(H)を近似する関数近似器、すなわち、推定伝達関数(H’)の演算を行う関数近似器である深層ニューラルネットワークを備えている。伝送路推定部403は、深層ニューラルネットワークに対して、候補シンボル系列生成部405が生成する複数の候補シンボル系列{s’}の各々を入力系列として与えることにより、入力系列の各々に対応する推定受信シンボルを算出する。伝送路推定部403が算出する複数の推定受信シンボルを時系列に並べることにより推定受信シンボル系列が形成される。
 伝送路推定部403は、図3に示すように、DNN(Deep Neural Network)部61と、候補シンボル系列入力部62とを備える。候補シンボル系列入力部62は、候補シンボル系列生成部405が系列ごとに出力する「m」個の候補シンボル系列{s’}を順次取り込み、取り込んだ順で、候補シンボル系列{s’}に含まれる複数の候補シンボルの各々を、各々に対応するDNN部61の入力層のノードに出力する。なお、候補シンボル系列生成部405が、候補シンボル系列{s’}に含まれるシンボルをT時間ごとに1シンボルずつ出力する構成になっている場合、候補シンボル系列入力部62は、後述する最適化部404の遅延器72-1~72-(p-1)と同様に、取り込んだシンボルをT時間遅延させてから出力する遅延器をp-1個連結した構成になっていてもよい。
 DNN部61は、例えば、順伝播型の深層ニューラルネットワークであり、次式(12)の漸化式の繰り返しの演算を行う。
Figure JPOXMLDOC01-appb-M000012
 上記の式(12)において、Xi+1は、i層の出力ベクトルであり、Xは、i層の入力ベクトルであり、Wは、重みパラメータ行列であり、Bは、バイアスパラメータ行列である。関数f(・)は、活性化関数であり、例えば、次式(13)で示されるReLU(Rectified Linear Unit)関数が適用される。
Figure JPOXMLDOC01-appb-M000013
 関数f(・)は、非線形演算を行う関数である。そのため、次式(12)の漸化式の繰り返しの演算とは、線形畳み込みと、非線形演算とを繰り返す演算ということになる。したがって、適切な重みパラメータ及び適切なバイアスパラメータを適用することにより、線形応答と非線形応答の繰り返しである伝送路2の伝送応答を示す伝達関数(H)をDNN部61によって近似することができる。
 例えば、候補シンボル系列生成部405が生成する候補シンボル系列{s’}の系列長pが「3」であるとする。この場合、DNN部61は、例えば、図6に示すような順伝播型の深層ニューラルネットワークであって、いわゆる多層パーセプトロンであるニューラルネットワーク200を備えることになる。ニューラルネットワーク200は、入力層ノード210-1,210-2,210-3と、第1の中間層ノード220-1,220-2,220-3、第2の中間層ノード230-1,230-2,230-3及び出力層ノード240を備える。以下、入力層ノード210-1~210-3と、第1の中間層ノード220-1~220-3、第2の中間層ノード230-1~230-3及び出力層ノード240の各々をニューロンともいう。2つのニューロン間の接続をシナプスともいう。
 入力層ノード210-1,210-2,210-3の各々は、系列長3の候補シンボル系列{s’t-1,s’,s’t+1}の各々のシンボルを取り込む。例えば、入力層ノード210-1は、s’t-1を取り込み、取り込んだs’t-1を出力値iとして出力する。入力層ノード210-2は、s’を取り込み、取り込んだs’を出力値iとして出力する。入力層ノード210-3は、s’t+1を取り込み、取り込んだs’t+1を出力値iとして出力する。
 ここで、次式(14)に示すように、入力層ノード210-1,210-2,210-3の出力値i,i,iを要素とする縦ベクトルをベクトルiとして定義する。
Figure JPOXMLDOC01-appb-M000014
 入力層ノード210-1,210-2,210-3の各々と、第1の中間層ノード220-1,220-2,220-3の各々とは相互に接続する。第1の中間層ノード220-1は、入力層ノード210-1が出力する出力値iに対して重みw 1-1を乗算し、入力層ノード210-2が出力する出力値iに対して重みw 1-2を乗算し、入力層ノード210-3が出力する出力値iに対して重みw 1-3を乗算し、3つの乗算によって得られる乗算値の総和に対して活性化関数f(・)を適用する。第1の中間層ノード220-1は、活性化関数f(・)の出力値に対してバイアスb を加算することにより出力値h を算出する。ここで、次式(15)に示すように、第1の中間層ノード220-1において乗算する重みw 1-1,w 2-1,w 3-1を要素する横ベクトルをベクトルW として定義する。
Figure JPOXMLDOC01-appb-M000015
 この場合、第1の中間層ノード220-1の出力値h を、式(12),(14)、(15)を用いて、次式(16)として表すことができる。
Figure JPOXMLDOC01-appb-M000016
 同様に、第1の中間層ノード220-2の出力値h は、次式(17)として表すことができる。
Figure JPOXMLDOC01-appb-M000017
 同様に、第1の中間層ノード220-3の出力値h は、次式(18)として表すことができる。
Figure JPOXMLDOC01-appb-M000018
 上記の式(16)~(18)において、b ,b ,b は、それぞれ第1の中間層ノード220-1,220-2,220-3の各々が加算するバイアスである。第1の中間層ノード220-1,220-2,220-3の各々と、第2の中間層ノード230-1,230-2,230-3の各々とは相互に接続する。ここで、次式(19)に示すように、第1の中間層ノード220-1,220-2,220-3の各々の出力値h ,h ,h を要素とする縦ベクトルをベクトルhとして定義する。
Figure JPOXMLDOC01-appb-M000019
 この場合、ベクトルhを用いて、第2の中間層ノード230-1,230-2,230-3の各々の出力値h ,h ,h を、次式(20)として表すことができる。なお、次式(20)において、b ,b ,b は、それぞれ第2の中間層ノード230-1,230-2,230-3の各々が加算するバイアスである。次式(20)において、ベクトルW ,W ,W は、次式(21)により定義される。
Figure JPOXMLDOC01-appb-M000020
Figure JPOXMLDOC01-appb-M000021
 第2の中間層ノード230-1,230-2,230-3の各々は、出力層ノード240に接続する。ここで、次式(22)に示すように、第2の中間層ノード230-1,230-2,230-3の出力値h ,h ,h を要素とする縦ベクトルをベクトルhとして定義する。
Figure JPOXMLDOC01-appb-M000022
 この場合、ベクトルhを用いて、出力層ノード240の出力値oを、次式(23)として表すことができる。なお、次式(23)において、b は、出力層ノード240が加算するバイアスである。
Figure JPOXMLDOC01-appb-M000023
 複数の入力系列と、複数の入力系列の各々に対応する出力の正解ラベルとの組み合わせを用いて事前に行う教師あり学習処理により、推定伝達関数(H’)を表す重みとバイアスとを得ることができる。教師あり学習処理によって得られた重みとバイアスを、それぞれに対応する第1の中間層ノード220-1~220-3、第2の中間層ノード230-1~230-3及び出力層ノード240に設定する。これにより、入力層ノード210-1~210-3に候補シンボル系列{s’}を与えた場合に、出力層ノード240の出力値oとして推定受信シンボルが得られることになる。なお、以下において、ある1つのニューロンに適用される重みとバイアスの組み合わせを係数ともいう。
 候補シンボル系列{s’}の系列長がpである場合、ニューラルネットワーク200は、入力層ノード210-1,210-2,…,210-pというp個の入力層のノードを備えることになる。図6に示したニューラルネットワーク200の構成は、DNN部61が備える深層ニューラルネットワークの一例である。入力層のノード数を、候補シンボル系列生成部405が生成する候補シンボル系列{s’}の系列長pの数に一致させ、かつ、出力層のノード数を、1個にするという構造上の制限が存在するが、中間層の層数は、2層に限られるものではなく、3層以上であってもよい。中間層のノード数も、図6に示す6個に限定されるわけではなく、任意の個数としてもよい。中間層の層数や中間層のノード数は、近似する関数の複雑さ、学習処理に用いられる入力系列の数などによって、適宜、適切な数が予め定められる。
 図2に戻り、判定処理部402は、ローパスフィルタ部401が出力する判定対象受信シンボル系列と、伝送路推定部403が算出する複数の推定受信シンボルとに基づいてメトリックを算出する。判定処理部402は、算出したメトリックに基づいて最尤系列推定により送信シンボルの判定を行うことにより判定対象受信シンボル系列に対応する推定送信シンボルを特定する。
 判定処理部402は、図3に示すように、減算器54、メトリック算出部53、加算比較選択部52及びパス遡り判定部51を備える。減算器54は、式(11)によって示されるローパスフィルタ部401の出力値である判定対象受信シンボルから、伝送路推定部403が出力する複数の推定受信シンボルH’(S’)の各々を減算した減算値を算出する。ここで、「S’」は、次式(24)で定義されるシンボル系列、すなわち、DNN部61の入力系列となる複数の候補シンボル系列{s’}の各々に対応する。
Figure JPOXMLDOC01-appb-M000024
 減算器54が、算出する減算値の数は、候補シンボル系列生成部405が生成した候補シンボル系列{s’}の数に一致するため、m個になる。メトリック算出部53は、次式(25)に示す演算、すなわち減算器54が出力する複数の減算値の各々の絶対値を二乗して複数のメトリックを算出する。
Figure JPOXMLDOC01-appb-M000025
 加算比較選択部52は、上記の式(4)~(6)を参照して説明した手法を、例えば、ビタビ・アルゴリズムにより行う。すなわち、加算比較選択部52は、候補シンボル系列生成部405が出力する候補シンボル系列{s’}と、メトリック算出部53が出力する複数のメトリックとに基づいて、複数のメトリックの各々に対応する距離関数d({μ})を算出する。加算比較選択部52は、算出した距離関数d({μ})の最小値d_min({μ})を検出する。
 パス遡り判定部51は、候補シンボル系列生成部405が出力する候補シンボル系列{s’}と、加算比較選択部52が検出した距離関数d({μ})の最小値d_min({μ})とに基づいてトレリスのパスを生成する。パス遡り判定部51は、生成したトレリスのパスを遡って、判定対象受信シンボル系列に対応する推定送信シンボルを特定する。パス遡り判定部51がパスを遡る際の遡り数「w」は予め定められており、遡り数「w」を固定値にすることで遡るパスを判定するのに要する演算量を削減することができる。なお、伝送路推定部403が備えるDNN部61の入力系列長pの数倍程度遡ることで、パスが収束することが知られている。
 以下、パス遡り判定部51が、トレリスのパスを遡ることにより特定した時刻tに対応する推定送信シンボルを推定送信シンボルaという。パス遡り判定部51は、推定送信シンボルaを判定結果として出力する。次式(26)に示すように、推定送信シンボルaを時系列にp個並べた系列が、推定送信信号系列Aになる。
Figure JPOXMLDOC01-appb-M000026
 最適化部404は、予め準備される訓練用m値データ系列から生成する送信信号系列、または、推定送信信号系列Aと、ローパスフィルタ部401の出力値である判定対象受信シンボルとに基づいて、ローパスフィルタ部401のタップ43-1~43-vに適用するタップ利得値c~cの最適化と、DNN部61,71に適用する係数の最適化を行う。
 最適化部404は、DNN部71、遅延器72-1~72-(p-1)、訓練用m値データ記憶部73、入力切替部74、フィルタ更新処理部75、遅延器76、減算器77及び学習処理部78を備える。DNN部71は、伝送路推定部403のDNN部61と同一の構成を有している。遅延器72-1は、入力切替部74が出力するシンボルを1シンボル分、遅延させて出力する。遅延器72-2~72-(p-1)は、各々に接続する1つ前の遅延器72-1~72-(p-2)が出力するシンボルよりも1シンボル分、後のシンボルを出力する。ここで、pは、上記したように、候補シンボル系列生成部405が生成する候補シンボル系列{s’}の系列長であり、DNN部61,71の入力層のノード数に一致する。
 訓練用m値データ記憶部73は、DNN部71において教師あり学習を行う際に用いられる予め定められる訓練用のm値データを予め定められる順番で複数記憶する。ここで、予め定められる順番は、複数の訓練用のm値データを信号生成装置3に与える順番に一致する。
 つまり、当該順番で並べられた複数の訓練用のm値データにより形成される訓練用m値データ系列を信号生成装置3に与えることにより、信号生成装置3は、訓練用m値データ系列に対応する送信信号系列{s}を生成して伝送路2に送出する。信号生成装置3が送出した送信信号系列{s}は、伝送路2によって識別装置4まで伝送される。識別装置4の受信部5は、受信信号系列{r}を受信し、前処理を行って、デジタル電気信号の受信信号系列{r}をシンボル判定部6に出力する。これにより、シンボル判定部6の最適化部404は、訓練用m値データ系列に対応する判定対象受信シンボル系列を取得することになる。取得した判定対象受信シンボル系列に含まれる判定対象受信シンボルを先頭から順にDNN部71の出力の正解ラベルとする。その一方で、訓練用m値データ記憶部73が記憶する訓練用m値データ系列から生成する送信信号系列に含まれる送信シンボルを系列長がpになるように先頭から順に1シンボルずつ後にずらしながら抽出した連続する送信シンボルの系列の各々を入力系列としてDNN部71に与える。これにより、推定伝達関数(H’)の演算を行うニューラルネットワーク200を構築する教師あり学習処理を行うことが可能になる。
 入力切替部74は、内部の記憶領域にモードを示す情報を記憶する領域を設けており、モードを示す情報として、訓練モードを示す情報、または、運用モードを示す情報が書き込まれる。入力切替部74は、モードを示す情報が訓練モードを示している場合、訓練用m値データ記憶部73が記憶する訓練用m値データ系列から予め生成する送信信号系列に含まれる送信シンボルを先頭から順に出力する。入力切替部74は、モードを示す情報が運用モードを示している場合、パス遡り判定部51が出力した推定送信シンボルを取り込んで遅延器72-1に出力する。
 遅延器76は、ローパスフィルタ部401が出力する出力値、すなわち、判定対象受信シンボルを取り込み、「wT+(p-1)T/2」の時間、すなわち「w+(p-1)/2」シンボル分の時間経過してから取り込んだ判定対象受信シンボルを減算器77に出力する。ローパスフィルタ部401が出力する判定対象受信シンボルを、DNN部71の教師あり学習の正解ラベルとして用いるためには、当該判定対象受信シンボルが、推定送信シンボルaが得られた際にメトリック算出部53、加算比較選択部52、パス遡り判定部51における処理対象となった判定対象受信シンボルになっている必要がある。
 ここで、ある判定対象受信シンボルが得られた時刻を、受信信号系列{r}の時間軸において時刻tであるとする。パス遡り判定部51が行う処理によってwT時間が経過するため、当該判定対象受信シンボルに対応する推定送信シンボルaは、受信信号系列{r}の時間軸において時刻t+wTの時点でパス遡り判定部51から出力されることになる。言い換えると、当該推定送信シンボルaに対応する判定対象受信シンボルが得られた時刻は、受信信号系列{r}の時間軸では時刻tであるが、推定送信シンボルaの時間軸で示すと時刻t-wTになる。更に、推定送信シンボルaが、DNN部71に与えられる系列長pの入力系列の中心の位置になるまでに(p-1)T/2の時間を要することになる。したがって、推定送信シンボルaの時間軸で表すと、遅延器76は、時刻tの時点で、時刻t-wT-(p-1)T/2においてローパスフィルタ部401が出力した判定対象受信シンボルを「wT+(p-1)T/2」の時間経過してから減算器77に出力する。
 減算器77は、DNN部71の出力値から、遅延器76の出力値を減算し、減算により得られた誤差をフィルタ更新処理部75と、学習処理部78とに出力する。
 フィルタ更新処理部75は、減算器77が出力する誤差に基づいて、誤差を小さくするように、例えば、LMSアルゴリズムによりタップ利得値c~cの更新値を算出する。フィルタ更新処理部75は、算出したタップ利得値c~cの更新値を、タップ43-1~43-vに設定して、タップ利得値c~cの更新を行う。
 学習処理部78は、減算器77が出力する誤差を最小化するように、例えば、誤差逆伝播法によってDNN部71及びDNN部61に適用する新たな係数、すなわち、重み及びバイアスを算出する。学習処理部78は、算出した新たな係数を重み選択部406に出力する。
 重み選択部406は、内部の記憶領域に記憶されている重み選択の処理を行うか否かを示す重み選択フラグが、重み選択の処理を行うことを示している場合、以下に示す、DNN部61、71に適用される重みを選択する処理を行う。すなわち、重み選択部406は、学習処理部78が出力する係数に含まれる重みの絶対値と、予め定められる重み閾値とに基づいて、重みの値が小さいニューラルネットワーク200のニューロン間の接続、すなわち、ニューロン間のシナプスを削減する。例えば、重み選択部406は、重みの絶対値が、重み閾値以下の重みを「0」に書き替えた上で、DNN部71とDNN部61に対して新たな係数を設定して係数の更新を行う。これにより、重みが「0」にされたシナプスの両端に接続するニューロンにおいて、前段のニューロンの出力値が、後段のニューロンに伝播しないことになり、2つのニューロン間のシナプスが失われることになる。
(第1の実施形態の処理)
 次に、図7から図9を参照しつつ第1の実施形態において行われる処理について説明する。図7は、位相調整部30による処理の流れを示すフローチャートであり、図8は、最尤系列推定部40による処理の流れを示すフローチャートである。図7に示す処理が開始される前に、初期設定として以下のことが行われる。
 通信システム1の利用者が、例えば、識別装置4に管理用の端末装置を接続して管理用の端末装置を操作することにより、適応フィルタ部301、ローパスフィルタ部401、DNN部61,71及び重み選択部406に対して、以下の初期設定が行われる。
 適応フィルタ部301のタップ33-1~33-uに、任意に定められるタップ利得値の初期値が予め設定される。ローパスフィルタ部401のタップ43-1~43-vに、任意に定められるタップ利得値の初期値が予め設定される。
 ここでは、候補シンボル系列{s’}の系列長をpとし、入力層ノード210-1~210-pを備えるニューラルネットワーク200がDNN部61,71に備えられているものとする。第1の中間層ノード220-1,220-1,…、及び第2の中間層ノード230-1,230-2,…の数は、予め定められた適切な数であるものとする。伝送路推定部403のDNN部61が備えるニューラルネットワーク200の第1の中間層ノード220-1,220-1,…、第2の中間層ノード230-1,230-1,…、及び出力層ノード240に対して、任意に定められる係数、すなわち重み及びバイアスの初期値が設定される。例えば、係数の初期値として、乱数生成器を用いて生成した乱数などが適用される。DNN部61とDNN部72は、初期状態において、同一の係数が適用された状態なるように、DNN部61が備えるニューラルネットワーク200に対して適用された係数の初期値が、DNN部71のニューラルネットワーク200に対しても設定される。学習処理部78の内部の記憶領域に設けられている適用中の係数を記憶する領域に、ニューラルネットワーク200に対して設定された係数の初期値が予め書き込まれる。
 重み選択部406の内部の記憶領域に対して、以下に示す情報が書き込まれる。すなわち、重み選択部406の内部の記憶領域に設けられている重み選択の処理を行うか否かを示す重み選択フラグの領域に対して、重み選択の処理を行うことを示す「ON」が書き込まれる。重み選択部406の内部の記憶領域に設けられている適用中の係数を記憶する領域に対して、ニューラルネットワーク200に対して適用された係数の初期値が書き込まれる。重み選択部406の内部の記憶領域に設けられている重み閾値を記憶する領域に対して予め定められる重み閾値の初期値が書き込まれる。重み選択部406の内部の記憶領域に設けられている重みが収束しているか否かの判定に用いられる収束判定値を記憶する領域に対して予め定められる値が書き込まれる。重み選択部406の内部の記憶領域に設けられている重み閾値の減少幅を記憶する領域に対して予め定められる値が書き込まれる。重み選択部406の内部の記憶領域に設けられているシナプスを削減する上限値を示すシナプス削減上限値を記憶する領域に予め定められる値が書き込まれる。
 通信システム1の利用者は、信号生成装置3を用いて送信する訓練用m値データ系列として、過学習を抑制することができる周期の長いランダム系列を予め準備する。ここで、過学習を抑制するランダム系列として、例えば、以下の参考文献1に示されるメルセンヌ・ツイスタによって生成するランダム系列が適用される。訓練用m値データ系列の系列長、すなわち、訓練用m値データ系列に含まれるm値データの数が、DNN部61,71に適用する係数が十分に収束する程度の数になるように訓練用m値データ系列が予め準備される。
[参考文献1:Makoto Matsumoto and Takuji Nishimura, “Mersenne Twister: A 623-Dimensionally Equidistributed Uniform Pseudorandom Number Generator.” ACM Transactions on Modeling and Computer Simulation, 8(1):3-30. 1998.]
 通信システム1の利用者は、管理用の端末装置を操作して、先頭から順に読み出す際に、信号生成装置3が送信する順番と同一の順番で読み出せるように、予め準備した複数の訓練用のm値データを最適化部404の訓練用m値データ記憶部73に書き込む。通信システム1の利用者は、管理用の端末装置を操作して、入力切替部74の内部の記憶領域に設けられているモードを示す領域に訓練モードを示す情報を書き込む。
(第1の実施形態の位相調整部による処理)
 図7は、シンボル判定部6の位相調整部30による処理の流れを示すフローチャートである。上記した初期設定が完了した後、通信システム1の利用者は、訓練用m値データを予め定めた順番にしたがって、信号生成装置3に与える。信号生成装置3は、与えられた訓練用m値データを与えられた順に並べることにより形成される訓練用m値データ系列から送信信号系列{s}を生成し、生成した送信信号系列{s}を伝送路2に送出する。これにより、シンボル判定部6の位相調整部30の適応フィルタ部301は、訓練用m値データ系列に対応する受信信号系列{r}を取り込むことになる。
 適応フィルタ部301の遅延器31が、受信信号系列{r}から系列長uのシンボル系列を取り込む(ステップSa1)。遅延器31、遅延器32-1~32-(u-1)の各々は、上記したように、式(8)で示される系列長がu個に制限された受信信号系列{r}のシンボル系列を、各々に接続するタップ33-1~33-uに出力する。タップ33-1~33-uは、各々に与えられるシンボルrt-(u-1)/2~rt+(u-1)/2と、各々に設定されているタップ利得値f~fとを乗算する。これにより、適応フィルタ部301において、推定逆伝達関数にシンボル系列(rt-(u-1)/2~rt+(u-1)/2)を代入して推定逆伝達関数の出力値を得る演算が行われることになる。
 タップ33-1~33-uは、乗算した結果を加算器34に出力する。加算器34は、乗算結果を合計して式(9)で示される出力値を算出して仮判定処理部302、減算器36及び最尤系列推定部40のローパスフィルタ部401に出力する。この出力値の信号系列が、上記した出力信号系列{r’}になる(ステップSa2)。
 仮判定処理部302は、適応フィルタ部301の出力値に対して硬判定による送信シンボルの仮判定を行い、仮判定シンボルを仮判定結果として出力する(ステップSa3)。
 減算器36は、仮判定処理部302が出力する仮判定シンボルから適応フィルタ部301の出力値を減算して得られる減算値を誤差としてフィルタ更新処理部35に出力する。フィルタ更新処理部35は、減算器36が出力する誤差に基づいて、誤差を小さくするようにLMSアルゴリズムによりタップ利得値f~fの更新値を算出する。フィルタ更新処理部35は、算出したタップ利得値f~fの更新値を、タップ33-1~33-uに書き込んで、タップ利得値f~fの更新を行う(ステップSa4)。
 適応フィルタ部301の遅延器31が、前回のステップSa1において取り込んだ系列長uのシンボル系列の範囲を1シンボル分ずらした範囲の系列長uのシンボル系列を受信信号系列{r}から取り込める場合(ステップSa5、Yes)、ステップSa1の処理が再び行われる。一方、遅延器31が、前回のステップSa1において取り込んだ系列長uのシンボル系列の範囲を1シンボル分ずらした範囲の系列長uのシンボル系列を受信信号系列{r}から取り込めない場合(ステップSa5、No)、処理を終了する。
(第1の実施形態の最尤系列推定部による処理)
 図8は、シンボル判定部6の最尤系列推定部40による処理の流れを示すフローチャートである。ローパスフィルタ部401の遅延器41が、位相調整部30の適応フィルタ部301の加算器34が出力する出力値の系列である出力信号系列{r’}から系列長vのシンボル系列を取り込む。遅延器41、遅延器42-1~42-(v-1)の各々は、上記したように、式(10)で示される系列長がv個に制限された出力信号系列{r’}のシンボル系列を、各々に接続するタップ43-1~43-vに出力する。
 タップ43-1~43-vは、各々に与えられるシンボルr’t-(v-1)/2~r’t+(v-1)/2と、各々に設定されているタップ利得値c~cとを乗算し、乗算した結果を加算器44に出力する。加算器44は、乗算結果を合計して式(11)により示される出力値、すなわち判定対象受信シンボルを算出する。加算器44は、算出した判定対象受信シンボルを判定処理部402の減算器54に出力する(ステップSb1)。
 ステップSb1の処理と並列に、候補シンボル系列生成部405は、複数の候補シンボル系列{s’}を生成する。候補シンボル系列生成部405は、生成した複数の候補シンボル系列{s’}を系列ごとに加算比較選択部52と、パス遡り判定部51と、伝送路推定部403とに出力する。
 伝送路推定部403の候補シンボル系列入力部62は、候補シンボル系列生成部405が系列ごとに出力する候補シンボル系列{s’}を順次取り込む。候補シンボル系列入力部62は、取り込んだ順にしたがって、候補シンボル系列{s’}に含まれる複数の候補シンボルの各々を、各々に対応するDNN部61の入力層ノード210-1~210-pに出力する。これにより、DNN部61に対して、式(24)の右辺に示すシンボルの系列が入力系列として与えられる。
 DNN部61において、入力層ノード210-1~210-pの各々が入力系列を取り込むと、入力系列は、第1の中間層ノード220-1,220-2,…、及び第2の中間層ノード230-1,230-2,…の順に伝播し、出力層ノード240が、出力値として推定受信シンボルを算出する。出力層ノード240は、算出した推定受信シンボルを減算器54に出力する(ステップSb2)。
 減算器54は、ローパスフィルタ部401の加算器44が出力する判定対象受信シンボル系列に含まれる判定対象受信シンボルから、伝送路推定部403のDNN部61が出力する複数の推定受信シンボルの各々を減算することにより、複数の減算値を算出する。メトリック算出部53は、式(25)に示す演算、すなわち減算器54が出力する複数の減算値の各々の絶対値を二乗して複数のメトリックを算出する(ステップSb3)。
 加算比較選択部52は、候補シンボル系列生成部405が出力する候補シンボル系列{s’}と、メトリック算出部53が出力する複数のメトリックとに基づいて、複数のメトリックの各々に対応する距離関数d({μ})を算出する。加算比較選択部52は、算出した距離関数d({μ})の最小値d_min({μ})を検出する(ステップSb4)。
 パス遡り判定部51は、候補シンボル系列生成部405が出力する候補シンボル系列{s’}と、加算比較選択部52が検出した距離関数d({μ})の最小値d_min({μ})とに基づいてトレリスのパスを生成する。パス遡り判定部51は、生成したトレリスのパスを遡って、判定対象受信シンボル系列に対応する推定送信シンボルaを特定する(ステップSb5)。
 最適化部404の入力切替部74は、パス遡り判定部51が順次出力する推定送信シンボルaを取り込む。入力切替部74が、推定送信シンボルaを取り込むことにより、図9に示す最適化処理のサブルーチンが開始される(ステップSb6)。
(最適化部による最適化処理)
 図9のサブルーチンの処理が開始されるまでに、入力切替部74により、以下の処理が行われる。すなわち、入力切替部74は、上記した初期設定が完了すると、訓練用m値データ記憶部73が記憶する訓練用m値データ系列から送信信号系列{s}を生成する。入力切替部74は、生成した送信信号系列{s}を内部の記憶領域に書き込んで記憶させる。なお、入力切替部74が訓練用m値データ系列から送信信号系列{s}を生成している途中であれば、ある程度の数の送信シンボルが、入力切替部74の内部の記憶領域に記憶されている状態になる。そのため、入力切替部74が訓練用m値データ系列から送信信号系列{s}を生成している途中で、以下に示すステップSc1以降の処理が開始されてもよい。
 最適化部404の入力切替部74は、パス遡り判定部51が出力する推定送信シンボルaを取り込むと(ステップSc1)、内部の記憶領域に記憶されているモードを示す情報を参照し、モードを示す情報が、運用モードを示しているか、訓練モードを示しているかを判定する(ステップSc2)。上記した初期設定において、モードを示す情報として、訓練モードを示す情報が書き込まれているため、ここでは、入力切替部74は、モードを示す情報が、訓練モードを示していると判定する(ステップSc2、訓練モード)。
 入力切替部74は、ステップSc1の処理において取り込んだ推定送信シンボルaを廃棄する。入力切替部74は、廃棄した推定送信シンボルaに替えて、内部の記憶領域に記憶されている送信信号系列{s}の先頭の送信シンボルsを1つ読み出し、読み出した送信シンボルをDNN部71と、遅延器72-1とに出力する。入力切替部74は、読み出した送信シンボルsの出力後に、内部の記憶領域に記憶されている送信信号系列{s}の先頭の送信シンボル、すなわち、直前に出力した送信シンボルsを削除する。
 この場合、DNN部71と、遅延器72-1とは、入力切替部74が出力する送信シンボルを順次取り込む。遅延器72-1は、取り込んだ送信シンボルを1シンボル分、遅延させて出力する。遅延器72-2~72-(p-1)は、各々に接続する1つ前の遅延器72-1~72-(p-2)が出力する送信シンボルよりも1シンボル分、後のシンボルを出力する。これにより、入力切替部74が推定送信シンボルaを取り込んでから、(p-1)T/2時間経過した後に、DNN部71に、(st-(p-1)/2,…,s,…,st+(p-1)/2)という系列長pの送信信号系列{s}が入力系列として与えられることになる(ステップSc3)。
 入力切替部74は、内部の記憶領域を参照し、送信信号系列{s}に次に読み出す送信シンボルが含まれているか否かを判定する(ステップSc4)。入力切替部74は、送信信号系列{s}に次に読み出す送信シンボルが含まれていないと判定した場合(ステップSc4、No)、内部の記憶領域のモードを示す情報を、運用モードを示す情報に書き換える(ステップSc5)。ステップSc5の処理の後、または、入力切替部74がステップSc4の処理において送信信号系列{s}に次に読み出す送信シンボルが含まれていると判定した場合(ステップSc4、Yes)、処理は、ステップSc7に進められる。
 DNN部61において、入力層ノード210-1~210-pの各々が入力系列を取り込むと、入力系列は、第1の中間層ノード220-1,220-2,…、及び第2の中間層ノード230-1,230-2,…の順に伝播し、出力層ノード240が、出力値を算出する。出力層ノード240が算出する出力値は、推定伝達関数(H’)に系列長pの送信信号系列{s}を代入することによって得られる推定受信シンボルということができる。出力層ノード240は、算出した出力値を減算器77に出力する。
 遅延器76は、ローパスフィルタ部401が出力する出力値、すなわち、判定対象受信シンボルを取り込み、「wT+(p-1)T/2」の時間、すなわち「w+(p-1)/2」シンボル分の時間経過してから、取り込んだ判定対象受信シンボルを減算器77に出力する。減算器77は、DNN部71の出力値から、遅延器76が出力する出力値を減算し、減算により得られた誤差をフィルタ更新処理部75と、学習処理部78とに出力する(ステップSc7)。
 フィルタ更新処理部75は、減算器77が出力する誤差に基づいて、誤差を小さくするようにLMSアルゴリズムによりタップ利得値c~cの更新値を算出する。フィルタ更新処理部75は、算出したタップ利得値c~cの更新値を、タップ43-1~43-vに設定して、タップ利得値c~cの更新を行い(ステップSc8)、最適化処理のサブルーチンを終了する。
 ステップSc8の処理と並列に、学習処理部78は、減算器77が出力する誤差を取り込み、取り込んだ誤差を二乗して二乗誤差を算出する。学習処理部78は、算出した二乗誤差を最小化するように、DNN部61,71のニューラルネットワーク200に適用する新たな係数を算出する処理を行う。より詳細には、学習処理部78は、算出した二乗誤差と、内部の記憶領域の適用中の係数を記憶する領域に書き込まれている係数とに基づいて、誤差逆伝播法によりニューラルネットワーク200に適用する新たな係数を算出する。学習処理部78は、内部の記憶領域の適用中の係数を記憶する領域に記憶されている係数を、算出した新たな係数に書き換え、算出した新たな係数を重み選択部406に出力する。重み選択部406は、学習処理部78が出力する新たな係数を取り込む(ステップSc9)。
 重み選択部406は、内部の記憶領域を参照して、重み選択フラグが「ON」であるか否かを判定する(ステップSc10)。上記した初期設定において、重み選択フラグとして、「ON」が書き込まれているため、ここでは、重み選択部406は、重み選択フラグが「ON」であると判定する(ステップSc10、Yes)。重み選択部406は、内部の記憶領域の適用中の係数の領域から係数を読み出す。重み選択部406は、読み出した係数に含まれる重みの各々と、取り込んだ新たな係数に含まれる重みの各々とを比較し、重みが収束しているか否かを判定する(ステップSc11)。
 例えば、重み選択部406は、適用中の重みの各々と、適用中の重みの各々に対応する今回取り込んだ重みの各々との二乗誤差を算出する。重み選択部406は、算出した二乗誤差を合計して合計誤差値を算出し、算出した合計誤差値が、内部の記憶領域が記憶する収束判定値以下であれば、収束していると判定する。
 重み選択部406は、重みが収束していないと判定した場合(ステップSc11、No)、処理をステップSc17に進める。一方、重み選択部406は、重みが収束していると判定した場合(ステップSc11、Yes)、内部の記憶領域から重み閾値を読み出し、取り込んだ重みの絶対値が、重み閾値以下の重みを「0」に書き替える(ステップSc12)
 重み選択部406は、内部の記憶領域から重み閾値の減少幅を読み出し、重み閾値から、重み閾値の減少幅分の値を減算し、減算により得られた新たな重み閾値を内部の記憶領域に設けられている重み閾値を記憶する領域に上書きする(ステップSc13)。
 重み選択部406は、値が「0」である重みの数をカウントする。重み選択部406は、内部の記憶領域からシナプス削減上限値を読み出し、カウントした数が、シナプス削減上限値以下であるか否かを判定する(ステップSc14)。重み選択部406は、カウントした数が、シナプス削減上限値以下であると判定した場合(ステップSc14、Yes)、内部の記憶領域の適用中の係数の領域に記憶されている係数を、最新の係数に書き換える。ここで、最新の係数とは、ステップSc12の処理が行われた後の係数のことである。重み選択部406は、最新の係数を、各々に対応するDNN部61,71の第1の中間層ノード220-1,220-1,…、第2の中間層ノード230-1,230-1,…、及び出力層ノード240に設定して係数の更新を行う。重み選択部406は、最新の係数を学習処理部78に出力する。学習処理部78は、重み選択部406が出力する最新の係数を取り込み、内部の記憶領域の適用中の係数の領域に記憶されている係数を、取り込んだ最新の係数に書き換え(ステップSc16)、最適化処理のサブルーチンを終了する。
 一方、重み選択部406は、ステップSc14の処理において、カウントした数、すなわち、値が「0」である重みの数が、シナプス削減上限値以下でないと判定した場合(ステップSc14、No)、既に十分にシナプスを削減することができているとみなして、内部の記憶領域の重み選択フラグを「OFF」に書き替える(ステップSc15)。重み選択部406は、内部の記憶領域の適用中の係数を記憶する領域に書き込まれている係数を、ステップSc9の処理において取り込んだ新たな係数、すなわち、学習処理部78が出力した新たな係数に書き換える。例えば、重み選択部406は、ステップSc9の処理において学習処理部78が出力した新たな係数を取り込んだ際、ステップSc12の処理における重みを「0」に書き換える用の新たな係数と、取り込んだオリジナルの新たな係数とを内部の記憶領域に書き込んで記憶させているものとする。重み選択部406は、ステップSc9の処理において取り込んだ新たな係数を、各々に対応するDNN部61,71の第1の中間層ノード220-1,220-1,…、第2の中間層ノード230-1,230-1,…、及び出力層ノード240に設定して係数の更新を行い(ステップSc17)、最適化処理のサブルーチンを終了する。
 上記の最適化処理のサブルーチンにおいて、ステップSc5の処理が行われて、入力切替部74が、内部の記憶領域のモードを示す情報を、運用モードを示す情報に書き換えているとする。この場合、再び行われる最適化処理のサブルーチンにおいて、入力切替部74は、ステップSc2の処理において、内部の記憶領域のモードを示す情報が、運用モードを示していると判定する(ステップSc2、運用モード)。この場合、入力切替部74は、パス遡り判定部51が出力した推定送信シンボルaを1つ取り込むと、取り込んだ推定送信シンボルaをそのままDNN部71と、遅延器72-1とに出力する。
 この場合、DNN部71と、遅延器72-1とは、入力切替部74が出力する推定送信シンボルaを順次取り込む。遅延器72-1は、取り込んだ推定送信シンボルaを1シンボル分、遅延させて出力する。遅延器72-2~72-(p-1)は、各々に接続する1つ前の遅延器72-1~72-(p-2)が出力する推定送信シンボルよりも1シンボル分、後のシンボルを出力する。これにより、入力切替部74が推定送信シンボルaを取り込んでから、(p-1)T/2時間経過した後に、DNN部71に、(at-(p-1)/2,…,a,…,at+(p-1)/2)という系列長pの推定送信信号系列が入力系列として与えられることになる(ステップSc6)。
 上記の最適化処理のサブルーチンにおいて、ステップSc15の処理が行われて、重み選択部406が、内部の記憶領域の重み選択フラグを「OFF」に書き替えているとする。この場合、再び行われる最適化処理のサブルーチンにおいて、重み選択部406は、ステップSc10の処理において、重み選択フラグが「OFF」であると判定し(ステップSc10、No)、処理を、ステップSc17に進めることになる。
 図8に戻り、ローパスフィルタ部401の遅延器41が、前回のステップSb1において取り込んだ系列長vのシンボル系列の範囲を1シンボル分ずらした範囲の系列長vのシンボル系列を位相調整部30の適応フィルタ部301が出力する出力信号系列{r’}から取り込める場合(ステップSb7、Yes)、ステップSb1,Sb2の処理が再び行われる。一方、遅延器41が、前回のステップSb1において取り込んだ系列長vのシンボル系列の範囲を1シンボル分ずらした範囲の系列長vのシンボル系列を位相調整部30の適応フィルタ部301が出力する出力信号系列{r’}から取り込めない場合(ステップSb7、No)、処理を終了する。
 上記の第1の実施形態のシンボル判定部6において、候補シンボル系列生成部405は、送信シンボルによって形成される送信信号系列の候補となる複数の候補シンボル系列を生成する。伝送路推定部403は、送信信号系列を伝送する伝送路2の伝達関数を近似するニューラルネットワーク200を有し、複数の候補シンボル系列の各々を入力系列としてニューラルネットワーク200に与えた場合に、ニューラルネットワーク200の出力として得られる推定受信シンボルを出力する。判定処理部402は、伝送路2が送信信号系列を伝送した際の受信信号系列から得られる判定対象受信シンボル系列と、候補シンボル系列ごとの推定受信シンボルとに基づいて最尤系列推定により送信シンボルの判定を行うことにより判定対象受信シンボル系列に対応する推定送信シンボルを特定する。最適化部404は、受信信号系列が受信された際に送信された送信信号系列、または、推定送信シンボルによって形成される推定送信信号系列から得られる系列を入力系列として与えた場合に、判定対象受信シンボル系列を形成する判定対象受信シンボルが出力として得られるようにニューラルネットワーク200を最適化する。ニューラルネットワーク200は、線形畳み込みと、非線形演算とを繰り返す演算を可能にしており、実際の伝送路2の伝送路応答である線形応答と非線形応答の繰り返しを表現することができる。したがって、ニューラルネットワーク200を最適化することにより、NL-MLSE方式において、線形応答と非線形応答の繰り返しである実際の伝送路応答の伝達関数を高い精度で近似することが可能になる。
 上記の第1の実施形態のシンボル判定部6において、学習処理部78は、訓練モードにおいて、予め準備された訓練用m値データ系列より生成された送信信号系列{s}から1シンボルずつずらして抽出する系列長pの送信信号系列{s}の各々をDNN部71の入力系列とする。学習処理部78は、当該訓練用m値データ系列を送信した場合に得られる判定対象受信シンボル系列に含まれている判定対象受信シンボルであってDNN部71に与える入力系列に対応する判定対象受信シンボルを正解ラベルとして、教師あり学習処理を行う。当該学習処理により、係数を十分収束させて最適な状態にすることにより、DNN部61,71が備えるニューラルネットワーク200は、近似精度の高い推定伝達関数(H’)による演算を行うことが可能になる。訓練モードが終了した後、学習処理部78は、判定処理部402が出力する推定送信シンボルによって形成される系列長pの推定送信信号系列{a}を入力系列として、DNN部71に与えることにより、運用後においても適応的にDNN部61,71が備えるニューラルネットワーク200の係数を更新することができる。そのため、伝送路2に伝送路応答に変化が生じた場合でも、当該変化に追随して、推定伝達関数(H’)を更新して最適な状態にすることが可能である。
 非特許文献1に開示されている技術では、中間層が1層のニューラルネットワークを用いたMLSEが示されており、これにより、伝送路における1か所の非線形応答によって生じる問題を解決している。これに対して、上記の第1の実施形態のDNN部61,71は、少なくも2層以上の中間層を有するニューラルネットワーク200を備えている。また、第1の実施形態のシンボル判定部6は、非特許文献1には示されていない、位相調整部30、及びローパスフィルタ部401を備えている。そのため、第1の実施形態のシンボル判定部6では、非特許文献1に開示されている技術とは異なり、線形応答と非線形応答の繰り返しである実際の伝送路応答の伝達関数を高い精度で近似することを可能としている。
 上記の第1の実施形態では、訓練用m値データ系列として、参考文献1に示されているメルセンヌ・ツイスタというランダム系列を用いて、過学習を抑制するようにしている。ところで、適応フィルタ部301のタップ利得値を事前に収束させておく方が、位相調整部30が出力する出力信号系列{r’}のサンプリング位相が揃って安定するため、学習処理部78による学習処理において、係数が収束しやすくなると考えられる。そのため、ランダム系列の前に数百、または、1000シンボルほどのランダムバイナリ系列を挿入し、このランダムバイナリ系列により、適応フィルタ部301のタップ利得値を先に収束させるようにしてもよい。この場合、適応フィルタ部301のタップ利得値が収束した後は、更新処理部303によるタップ利得値の更新処理を停止して、適応フィルタ部301のタップ利得値を固定し、固定した状態で、学習処理部78がランダムバイナリ系列の後に続くランダム系列によって学習処理を行うことになる。
 上記の第1の実施形態のシンボル判定部6のDNN部61,71が備えるニューラルネットワーク200において、重みの値が小さいシナプスは、出力層ノード240が出力する出力値に与える影響が小さく、重みの値が小さいシナプスを削減したとしても、大きな性能劣化にならない。そこで、シンボル判定部6における重み選択部406は、上記のステップSc12の処理として示したように、学習処理部78が算出した重みの中で、重み閾値以下の重みを「0」に書き替えるようにしている。ニューラルネットワーク200において、重みが「0」であるシナプスに接続する2つのニューロンの間では、前段のニューロンの出力値が後段のニューロンに伝播されないことになる。これにより、DNN部61,71の演算量が少なくなるため、最尤系列推定における演算量を減少させることが可能になる。
 重み選択部406は、ステップSc13の処理として示したように、重み閾値を少しずつ減らしながら、繰り返し重みの値が小さいシナプスを削減するようにしている。このように、段階的に重み閾値を小さくしていくことで、一度に削減するシナプスの数を少なくして、シナプスを削減することによる性能劣化を緩やかにしている。そのため、最終的に演算に使用するシナプス、すなわち削減されずに残ったシナプスの重みを最適化することを可能にしている。なお、上記のステップSc13の処理では、重み閾値の減少幅を一定量にしているが、複数の重み閾値の減少幅を設定しておき、最初は、減少幅を大きくし、ステップSc13の繰り返しの回数が増えるにつれて、減少幅が小さくなるようにしてもよい。
 重み選択部406は、ステップSc14の処理として示したように、値が「0」である重みの数が、シナプス削減上限値を超える場合に、重み選択フラグを「OFF」にして、自動的に、シナプスを削減する処理が行われなくなるようにしている。このような処理にしているのは、使用する重みを選択する処理は、実際の運用が行われる前に、一度、行えばよいためである。なお、値が「0」である重みの数が、シナプス削減上限値を超える前に、重みが重み閾値を超える値で収束してしまった場合、通信システム1の利用者が、管理用の端末装置をシンボル判定部6に接続し、管理用の端末装置を操作して、重み選択フラグを「OFF」に書き替えることにより、強制的にシナプスを削減する処理を停止させて、運用状態に移行させることができる。この場合、シナプス削減上限値が適切でないとも考えられる。そのため、例えば、運用が開始された後に、定期的にステップSc11以降の処理を行ってニューラルネットワーク200の状態を最適な状態にする処理を行う場合に、自動的にシナプスを削減する処理が停止するように、シナプス削減上限値を適切な値に変更しておくのが望ましい。
 運用が開始された後に伝送路2の光ファイバ2-3を交換するなどして、構成が変わった場合、通信システム1の利用者が、管理用の端末装置をシンボル判定部6に接続し、管理用の端末装置を操作して、重み選択フラグを「ON」に書き替えることにより、再び、シナプスを削減する処理を行わせて、「0」以外の重みが適用されるシナプスの数を最適な状態にすることが可能である。重み選択部406がタイマを備えており、定期的に、自らタップ選択フラグを「OFF」から「ON」に書き替えて、シナプスを削減する処理を行うようにしてもよい。
 上記の第1の実施形態では、最尤系列推定部40の前段に位相調整部30を備え、更に、最尤系列推定部40がローパスフィルタ部401を備えるようにしている。これに対して、受信信号系列{r}のサンプリング位相が揃っている場合、または、ニューラルネットワーク200の入力系列を記憶しておくメモリ長、すなわち、当該入力系列の系列長が示す時間が、推定対象の伝送路2におけるインパルス応答時間よりも長い場合、位相調整部30と、ローパスフィルタ部401とを備えずに、位相調整部30の適応フィルタ部301が取り込んでいる受信信号系列{r}を判定処理部402の減算器54と、最適化部404の遅延器76とに直接与えるようにしてもよい。
 ただし、現実には、受信信号系列{r}のサンプリング位相が揃っていない場合があり、受信信号系列{r}の位相条件が一定でない場合、DNN部61,71は、受信信号系列{r}の位相条件の影響を受けてしまい、重み選択部406は、削減すべきシナプスを固定することが難しくなる。
 位相調整部30を備えることにより、位相調整部30の更新処理部303は、仮判定処理部302が出力する仮判定シンボルと、適応フィルタ部301の出力値との誤差を算出し、例えば、最小二乗法により誤差を小さくするように推定逆伝達関数を更新する。繰り返し行われる更新により収束した推定逆伝達関数の演算を行う適応フィルタ部301が出力する出力信号系列の位相は、仮判定により得られた送信シンボルの系列の位相に一致し、出力信号系列のサンプリング位相が揃うことになる。繰り返し行われる更新により収束した推定逆伝達関数の演算を行う適応フィルタ部301が出力する出力信号系列は、伝送路2の反射などによるリップルも抑制することができている。
 ただし、位相調整部30の適応フィルタ部301は、伝送路2によって低下した高周波成分を増幅するため、白色ノイズの高周波成分も増幅してしまう。この白色ノイズの高周波成分を抑制するため、第1の実施形態では、ローパスフィルタ部401を備えている。ローパスフィルタ部401のタップ利得値c,c,…,c(v+1)/2,…,cは、DNN部61,71に新たな係数が適用されるタイミングと同一のタイミングで、フィルタ更新処理部75によってDNN部71の出力値を目標値として更新される。そのため、適応フィルタ部301の出力信号系列{r’}にローパスフィルタ部401を適用することで、適応フィルタ部301が増幅した白色ノイズの高周波成分を抑制することが可能になる。
 なお、第1の実施形態の構成では、ローパスフィルタ部401は、白色ノイズの高周波成分を抑制する処理に加えて、パルス幅を圧縮する処理も行っている。第1の実施形態のシンボル判定部6では、位相調整部30の適応フィルタ部301と、最尤系列推定部40のローパスフィルタ部401が接続する構成となっている。そのため、パルス幅を圧縮する処理を位相調整部30の適応フィルタ部301に行わせるようにすることもできる。パルス幅を圧縮する性能は、タップ数を増加させる程、向上する。そのため、パルス幅を圧縮する処理を位相調整部30の適応フィルタ部301に行わせる場合、位相調整部30の適応フィルタ部301のu個のタップ33-1~33-uの数を、要求するパルス幅の圧縮の度合いに応じて定める必要がある。
 パルス幅を圧縮する処理を位相調整部30の適応フィルタ部301に行わせる場合、最尤系列推定部40のローパスフィルタ部401は、白色ノイズの高周波成分の抑制のみを行えばよいことになる。伝送路2の反射などによるリップルは、既に位相調整部30の適応フィルタ部301により抑制されている。そのため、ローパスフィルタ部401のタップ43-1~43-vの数を、少なくしてローパスフィルタ部401の規模を小さくすることができる。この場合、ローパスフィルタ部401が取り込むシンボルの数を示すvの値の条件としては、DNN部61,71に適用される係数を収束させるのに必要なシンボルの数ということになる。
 上記の第1の実施形態では、位相調整部30の適応フィルタ部301と、最尤系列推定部40のローパスフィルタ部401とに対して、線形トランスバーサルフィルタを適用した例を示している。これに対して、適応フィルタ部301と、ローパスフィルタ部401とに対して、他の線形フィルタや非線形フィルタなど、線形トランスバーサルフィルタ以外のフィルタを適用してもよい。位相調整部30は、サンプリング位相を揃えることができればよいため、サンプリング位相を揃えることができる任意の回路を適用してもよい。
 例えば、一般的に受信側に備えられる受信信号系列{r}のサンプリング位相を揃えるクロックリカバリー回路等を識別装置4が備えている場合、このようなクロックリカバリー回路等を位相調整部30とみなしてもよい。この場合、サンプリング位相が揃えられた受信信号系列{r}の白色ノイズの高周波成分が少ないのであれば、ローパスフィルタ部401を備えずに、クロックリカバリー回路等によってサンプリング位相が揃えられた受信信号系列{r}を判定処理部402の減算器54と、最適化部404の遅延器76とに直接与える構成にしてもよい。
(第2の実施形態)
 図10は、第2の実施形態によるシンボル判定部6aの構成を示すブロック図である。シンボル判定部6aは、第1の実施形態の識別装置4が備えるシンボル判定部6に替えて用いられる機能部であり、伝送路2の伝送路応答が不変である場合に用いられることを想定している。以下、説明の便宜上、シンボル判定部6に替えてシンボル判定部6aを備える識別装置4を、識別装置4aといい、識別装置4に替えて、識別装置4aを備える通信システム1を、通信システム1aという。第2の実施形態において、第1の実施形態と同一の構成については、同一の符号を付し、以下、異なる構成について説明する。
 図10に示すように、シンボル判定部6aは、位相調整部30と、最尤系列推定部40aとを備える。最尤系列推定部40aは、ローパスフィルタ部401、判定処理部402、伝送路推定部403a及び候補シンボル系列生成部405を備える。
 伝送路推定部403aは、図11に示すように、ルックアップテーブル記憶部63と、検出処理部64とを備える。ルックアップテーブル記憶部63は、以下に示すデータを予め記憶する。
 伝送路2の伝送路応答が不変である場合、推定伝達関数(H’)も不変になる。そのため、第1の実施形態のシンボル判定部6の訓練モードにおいて、学習処理部78が訓練用m値データ系列を用いて行う学習処理によって十分に収束した学習済みの係数が得られた場合、運用を開始した後に、係数を更新する必要がなくなる。
 そこで、候補シンボル系列生成部405が生成する「m」個の候補シンボル系列{s’}の各々を入力系列として学習済みの係数が適用されたDNN部61に与えることにより、候補シンボル系列{s’}の各々に対する推定受信シンボルを予め取得する。「m」個の候補シンボル系列{s’}の各々に対して、各々に対応する推定受信シンボルを関連付けたルックアップテーブルを予め生成し、生成したルックアップテーブルをルックアップテーブル記憶部63に書き込んで記憶させておく。
 伝送路2の伝送路応答が不変である場合、訓練モードが終了して、運用を開始した後に、ローパスフィルタ部401のタップ43-1~43-vの各々に設定されているタップ利得値も、更新する必要がなくなる。そのため、訓練モードが終了した際に、ローパスフィルタ部401のタップ43-1~43-vの各々に設定されているタップ利得値を、ルックアップテーブル記憶部63に書き込んで記憶させておく。
 検出処理部64は、ルックアップテーブル記憶部63から、複数のタップ利得値を読み出し、読み出した複数のタップ利得値の各々を、各々に対応するタップ43-1~43-vに設定する。検出処理部64は、候補シンボル系列生成部405から候補シンボル系列{s’}を受けると、ルックアップテーブル記憶部63が記憶するルックアップテーブルを参照し、受けた候補シンボル系列{s’}に対応する推定受信シンボルを検出する。検出処理部64は、検出した推定受信シンボルを減算器54に出力する。なお、候補シンボル系列生成部405が、候補シンボル系列{s’}に含まれるシンボルをT時間ごとに1シンボルずつ出力する構成になっている場合、検出処理部64には、候補シンボル系列{s’}の系列長pが予め設定されており、候補シンボル系列生成部405からp個のシンボルを受けるごとに、p個のシンボルを一系列にして、ルックアップテーブルから推定受信シンボルを検出することになる。
(第2の実施形態の処理)
 以下、第2の実施形態において行われる処理について説明する。通信システム1aの利用者は、例えば、識別装置4aに管理用の端末装置を接続して管理用の端末装置を操作して、第2の実施形態における初期設定として、適応フィルタ部301のタップ33-1~33-uに、任意に定められるタップ利得値の初期値を予め設定する。
 上記の初期設定が完了すると、伝送路推定部403aの検出処理部64は、ルックアップテーブル記憶部63から、複数のタップ利得値を読み出し、読み出した複数のタップ利得値の各々を、各々に対応するローパスフィルタ部401のタップ43-1~43-vに設定する。
 これにより、通信システム1aは、運用状態になり、信号生成装置3に対して、訓練用ではなく、実際に送信を行うm値データ系列が与えられ、シンボル判定部6aの位相調整部30の適応フィルタ部301は、当該m値データ系列に対応する受信信号系列{r}を取り込むことになる。
 第2の実施形態における位相調整部30による処理は、図7を参照して説明した第1の実施形態の位相調整部30による処理と同一の処理が行われる。
(第2の実施形態の最尤系列推定部による処理)
 図12は、シンボル判定部6aの最尤系列推定部40aによる処理の流れを示すフローチャートである。ステップSd1の処理は、図8のステップSb1の処理と同一の処理が、ローパスフィルタ部401によって行われる。ステップSd1の処理と並列に、候補シンボル系列生成部405は、複数の候補シンボル系列{s’}を生成する。候補シンボル系列生成部405は、生成した「m」個の候補シンボル系列{s’}を系列ごとに加算比較選択部52と、パス遡り判定部51と、検出処理部64とに出力する。
 検出処理部64は、候補シンボル系列生成部405が系列ごとに出力する候補シンボル系列{s’}を順次取り込むと、取り込んだ順に候補シンボル系列{s’}に対応する推定受信シンボルを、ルックアップテーブル記憶部63が記憶するルックアップテーブルから検出する。検出処理部64は、検出した順に、検出した推定受信シンボルを減算器54に出力する(ステップSd2)。
 その後、ステップSd3の処理において、図8のステップSb3と同一の処理が、減算器54と、メトリック算出部53とによって行われる。ステップSd4の処理において、図8のステップSb4と同一の処理が、加算比較選択部52によって行われる。ステップSd5の処理において、図8のステップSb5と同一の処理が、パス遡り判定部51によって行われる。これにより、推定送信シンボルaが得らえることになる。ステップSd6の処理において、図8のステップSb7と同一の処理が、ローパスフィルタ部401によって行われる。
 上記の第2の実施形態では、ルックアップテーブル記憶部63が記憶するルックアップテーブルを用いることで、DNN部61を用いる必要がなく、最適化部404を備える必要もなくなる。そのため、識別装置4aにおけるシンボル判定部6aの装置規模を小さくすることができる。運用時にニューラルネットワーク200を用いないことから逐次演算量の増大を防ぐことができるので、ルックアップテーブルを生成する際に用いる第1の実施形態のシンボル判定部6のDNN部61,71が備えるニューラルネットワーク200の規模を拡大することが可能である。なお、第2の実施形態では、伝送路2の伝送路応答が不変であることを前提としているが、仮に、受信信号系列{r}のバイアス変化などの時間変動が生じた場合、位相調整部30の適応フィルタ部301によって、当該時間変動を吸収することが可能である。
 上記の第2の実施形態において、第1の実施形態において説明したように、第1の実施形態のシンボル判定部6において、位相調整部30と、ローパスフィルタ部401とを備えない構成が採用されている場合、第2の実施形態のシンボル判定部6aにおいても同様の構成が採用されることになる。なお、第1の実施形態のシンボル判定部6がローパスフィルタ部401を備えない場合、第2の実施形態のルックアップテーブル記憶部63は、ローパスフィルタ部401のタップ43-1~43-vの各々に設定するタップ利得値を記憶しておく必要がなくなり、検出処理部64も、初期設定の完了後に、ローパスフィルタ部401のタップ43-1~43-vの各々にタップ利得値を設定する必要がなくなる。
(第3の実施形態)
 第1の実施形態の学習処理部78が行う学習処理において、係数の収束が安定して行われるようにするため、ランダムバイナリ系列を用いて事前に適応フィルタ部301のタップ利得値を収束させて固定する手法について述べた。ただし、この手法を採用したとしても、学習処理部78が行う係数を更新する学習処理と、フィルタ更新処理部75によるローパスフィルタ部401のタップ利得値を更新する処理は並列に行われる。ローパスフィルタ部401のタップ利得値が更新されると、当該更新により、判定対象受信シンボルが変動することになる。判定対象受信シンボルは、学習処理部78が行う教師あり学習における正解ラベルに相当しており、正解ラベルが変動すると、TensorFlow(登録商標)やPyTorchなどの一般的な機械学習ライブラリを利用した教師あり学習を行うことが難しくなる。
 第3の実施形態では、一般的な機械学習ライブラリの利用を前提とした構成について説明する。第3の実施形態では、図13に示すシンボル判定部6b、図16に示すシンボル判定部6c及び図17に示すシンボル判定部6dという3種類の構成が用いられる。この中で、一般的な機械学習ライブラリを適用して教師あり学習の処理を行うのがシンボル判定部6dであり、シンボル判定部6b,6cは、教師あり学習の処理の際に用いられる正解ラベルを予め生成するために用いられる。
 以下、説明の便宜上、シンボル判定部6に替えてシンボル判定部6bを備える識別装置4を、識別装置4bといい、識別装置4に替えて、識別装置4bを備える通信システム1を、通信システム1bという。シンボル判定部6に替えてシンボル判定部6cを備える識別装置4を、識別装置4cといい、識別装置4に替えて、識別装置4cを備える通信システム1を、通信システム1cという。シンボル判定部6dは、伝送路2に接続されず、オフラインで用いられる。第3の実施形態において、第1及び第2の実施形態と同一の構成について同一の符号を付し、第1及び第2の実施形態と異なる構成について説明する。
(第3の実施形態のシンボル判定部6bの構成)
 図13に示すように、シンボル判定部6bは、位相調整部30と、最尤系列推定部40bとを備える。最尤系列推定部40bは、ローパスフィルタ部401、判定処理部402、伝送路推定部403b、最適化部404b及び候補シンボル系列生成部405を備える。伝送路推定部403bは、図14に示すように、第1の実施形態の伝送路推定部403において、DNN部61を、線形適応フィルタ部61bに置き換えた構成である。
 最適化部404bは、第1の実施形態の最適化部404において、DNN部71を線形適応フィルタ部71bに置き換え、学習処理部78をフィルタ更新処理部78bに置き換え、入力切替部74を入力切替部74bに置き換えた構成である。線形適応フィルタ部61bと、線形適応フィルタ部71bとは、同一の構成である。線形適応フィルタ部61b,71bは、例えば、適応フィルタ部301及びローパスフィルタ部401と同様の線形トランスバーサルフィルタであり、タップの数が、候補シンボル系列生成部405が生成する候補シンボル系列{s’}の系列長pである小規模の線形適応フィルタである。
 フィルタ更新処理部78bは、減算器77が出力する誤差に基づいて、誤差を小さくするように、例えば、LMSアルゴリズムにより線形適応フィルタ部61b,71bが備えるタップに適用されるタップ利得値の更新値を算出する。フィルタ更新処理部78bは、算出したタップ利得値の更新値の各々を、各々に対応する線形適応フィルタ部61b,71bタップに設定して、タップ利得値の更新を行う。入力切替部74bは、モードを示す情報が運用モードを示す情報である場合、または、次に出力するシンボルが存在しない場合、モードを示す情報を、運用モードを示す情報に書き換える処理を行わずに、処理を終了する点以外の構成については、第1の実施形態の入力切替部74と同一の構成を備える。
(第3の実施形態のシンボル判定部6bを用いる場合の処理)
 以下、第3の実施形態のシンボル判定部6bを用いた処理について説明する。シンボル判定部6bを備える通信システム1bの利用者が、例えば、識別装置4bに管理用の端末装置を接続して管理用の端末装置を操作することにより、第3の実施形態における初期設定として、以下のことが行われる。適応フィルタ部301のタップ33-1~33-uと、ローパスフィルタ部401のタップ43-1~43-vと、線形適応フィルタ部61b,71bのタップに任意に定められるタップ利得値の初期値が予め設定される。なお、線形適応フィルタ部61b,71bのタップの各々には、各々のタップのタップ利得値が同一になるように、初期値が設定される。訓練用m値データ記憶部73に訓練用m値データ系列として数百、または、1000シンボル程度のランダムバイナリ系列が予め書き込まれる。入力切替部74bの内部の記憶領域に設けられているモードを示す領域に訓練モードを示す情報が予め書き込まれる。
 上記の初期設定が完了すると、通信システム1bの利用者は、訓練用m値データ記憶部73に書き込んだ訓練用m値データ系列と同一のデータ系列を、信号生成装置3に対して与える。これにより、シンボル判定部6bの位相調整部30の適応フィルタ部301は、当該訓練用m値データ系列に対応する受信信号系列{r}を取り込むことになる。
 第3の実施形態における位相調整部30による処理は、図7を参照して説明した第1の実施形態の位相調整部30による処理と同一の処理が行われる。
(第3の実施形態の最尤系列推定部による処理)
 第3の実施形態の最尤系列推定部40bによる処理は、図8に示す第1の実施形態の最尤系列推定部40による処理において、ステップSb6の処理として行われる図9に示す最適化処理のサブルーチンが、図15に示す最適化処理のサブルーチンに置き換えられ、ステップSb2の処理が、以下で説明する処理に置き換えられる他は、図8に示す処理と同一の処理が行われる。
(第3の実施形態のステップSb2の処理)
 第3の実施形態では、DNN部61に替えて線形適応フィルタ部61bが備えられている。そのため、ステップSb2において、以下の処理が行われる。すなわち、ステップSb1の処理と並列に、候補シンボル系列生成部405は、複数の候補シンボル系列{s’}を生成する。候補シンボル系列生成部405は、生成した複数の候補シンボル系列{s’}を系列ごとに加算比較選択部52と、パス遡り判定部51と、伝送路推定部403とに出力する。
 伝送路推定部403の候補シンボル系列入力部62は、候補シンボル系列生成部405が系列ごとに出力する候補シンボル系列{s’}を順次取り込む。候補シンボル系列入力部62は、取り込んだ順で、候補シンボル系列{s’}に含まれる複数の候補シンボルの各々を、各々に対応する線形適応フィルタ部61bのタップに出力する。これにより、線形適応フィルタ部61bに対して、式(24)の右辺に示すシンボルの系列が入力系列として与えられる。
 線形適応フィルタ部61bは、タップに設定されたタップ利得値によって表される推定伝達関数(H’)に対して入力系列を代入する演算を行うフィルタリング処理を行い、候補シンボル系列{s’}の各々に対応する推定受信シンボルを出力する。減算器54は、線形適応フィルタ部61bが出力する複数の推定受信シンボルを順次取り込む。
 その後、ステップSb3,Sb4,Sb5の処理が行われ、ステップSb6において、図15に示す最適化処理のサブルーチンが開始される。
(第3の実施形態のステップSb6において行われる最適化処理)
 図15を参照しつつ第3の実施形態における最適化処理のサブルーチンについて説明する。なお、入力切替部74bは、第1の実施形態の入力切替部74と同様に、上記した初期設定が完了すると、訓練用m値データ記憶部73が記憶する訓練用m値データ系列から送信信号系列{s}を生成し、生成した送信信号系列{s}を内部の記憶領域に書き込んで記憶させる。
 ステップSe1,Se2の処理は、それぞれ図9のステップSc1,Sc2の処理と同一の処理が行われる。上記した初期設定において、モードを示す情報として、訓練モードを示す情報が書き込まれているため、ここでは、入力切替部74bは、モードを示す情報が、訓練モードを示していると判定する(ステップSe2、訓練モード)。
 入力切替部74bは、内部の記憶領域を参照し、送信信号系列{s}に次に読み出す送信シンボルが含まれているか否かを判定する(ステップSe3)。入力切替部74bは、送信信号系列{s}に次に読み出す送信シンボルが含まれていないと判定した場合(ステップSe3、No)、最適化処理のサブルーチンを終了する。
 一方、入力切替部74bが送信信号系列{s}に次に読み出す送信シンボルが含まれていると判定した場合(ステップSe3、Yes)、ステップSe1の処理において取り込んだ推定送信シンボルaを廃棄する。入力切替部74bは、廃棄した推定送信シンボルaに替えて、内部の記憶領域に記憶されている送信信号系列{s}の先頭の送信シンボルsを1つ読み出し、読み出した送信シンボルsを線形適応フィルタ部71bと、遅延器72-1とに出力する。入力切替部74bは、読み出した送信シンボルの出力後に、内部の記憶領域に記憶されている送信信号系列{s}の先頭の送信シンボル、すなわち、直前に出力した送信シンボルsを削除する。
 線形適応フィルタ部71bと、遅延器72-1とは、入力切替部74bが出力する送信シンボルを順次取り込む。遅延器72-1は、取り込んだ送信シンボルsを1シンボル分、遅延させて出力する。遅延器72-2~72-(p-1)は、各々に接続する1つ前の遅延器72-1~72-(p-2)が出力する送信シンボルよりも1シンボル分、後のシンボルを出力する。これにより、入力切替部74bが推定送信シンボルaを取り込んでから、(p-1)T/2時間経過した後に、線形適応フィルタ部71bに、(st-(p-1)/2,…,s,…,st+(p-1)/2)という系列長pの送信信号系列{s}が入力系列として与えられることになる(ステップSe4)。
 線形適応フィルタ部71bは、タップに設定されたタップ利得値によって表される推定伝達関数(H’)に対して、入力系列を代入する演算を行うフィルタリング処理を行い、出力値を出力する。減算器77は、線形適応フィルタ部71bが出力する出力値を取り込む。
 遅延器76は、ローパスフィルタ部401が出力する出力値、すなわち、判定対象受信シンボルを取り込み、「wT+(p-1)T/2」の時間、すなわち「w+(p-1)/2」シンボル分の時間経過してから取り込んだ判定対象受信シンボルを減算器77に出力する。減算器77は、線形適応フィルタ部71bの出力値から、遅延器76が出力する出力値を減算し、減算により得られた誤差をフィルタ更新処理部75と、フィルタ更新処理部78bとに出力する(ステップSe5)。
 フィルタ更新処理部75は、減算器77が出力する誤差に基づいて、誤差を小さくするようにLMSアルゴリズムによりタップ利得値c~cの更新値を算出する。フィルタ更新処理部75は、算出したタップ利得値c~cの更新値を、タップ43-1~43-vに設定して、タップ利得値c~cの更新を行う(ステップSe6)。
 ステップSe6の処理と並列に、フィルタ更新処理部78bは、減算器77が出力する誤差に基づいて、誤差を小さくするようにLMSアルゴリズムにより線形適応フィルタ部61b,71bのタップに適用されるタップ利得値の更新値を算出する。フィルタ更新処理部78bは、算出したタップ利得値の更新値の各々を、各々に対応する線形適応フィルタ部61b,71bのタップに設定して、タップ利得値の更新を行う(ステップSe7)。これにより、最適化処理のサブルーチンを終了する。その後、図8に示すステップSb7の処理が行われる。
 図15に示す最適化処理のサブルーチンのステップSe2において、入力切替部74bが、モードが示す情報が、運用モードを示していると判定したとする(ステップSe2、運用モード)。この場合、初期設定に誤りがあるため、入力切替部74bは、例えば、識別装置4bに接続するディスプレイ等の表示部にモードが誤っていることを示すエラーメッセージを出力して(ステップSe8)、処理を終了する。
 上記したシンボル判定部6cによる処理が終了すると、その時点で、適応フィルタ部301のタップ33-1~33-uと、ローパスフィルタ部401のタップ43-1~43-vとには、十分収束したタップ利得値が設定されている状態になる。
(第3の実施形態のシンボル判定部6cの構成)
 図16は、シンボル判定部6cの構成を示すブロック図である。シンボル判定部6cは、位相調整部30cと、最尤系列推定部40cとを備える。位相調整部30cは、適応フィルタ部301を備えている。適応フィルタ部301のタップ33-1~33-uの各々には、上記したシンボル判定部6bによる処理が終了した時点において、シンボル判定部6bの適応フィルタ部301のタップ33-1~33-uの各々に設定されている十分に収束したタップ利得値が予め設定される。位相調整部30cは、位相調整部30のように更新処理部303を備えていないことから、適応フィルタ部301のタップ33-1~33-uのタップ利得値は固定された状態になる。
 最尤系列推定部40cは、ローパスフィルタ部401と、書込部407と、正解ラベル記憶部408とを備える。ローパスフィルタ部401のタップ43-1~43-vの各々には、上記したシンボル判定部6bによる処理が終了した時点において、シンボル判定部6bのローパスフィルタ部401のタップ43-1~43-vの各々に設定されている十分に収束したタップ利得値が予め設定される。最尤系列推定部40cは、最尤系列推定部40bのように最適化部404bを備えていないことから、ローパスフィルタ部401のタップ43-1~43-vのタップ利得値は固定された状態になる。
 書込部407は、ローパスフィルタ部401の加算器44が算出して出力する判定対象受信シンボルを順次取り込み、取り込んだ判定対象受信シンボルを取り込んだ順に正解ラベル記憶部408に書き込んで記憶させる。
(第3の実施形態のシンボル判定部6cを用いる場合の処理)
 メルセンヌ・ツイスタによって生成したランダム系列である訓練用m値データ系列を予め準備しておく。通信システム1cの利用者が、当該訓練用m値データ系列を、シンボル判定部6cを備えた通信システム1cの信号生成装置3に与えることにより、シンボル判定部6cの位相調整部30cは、当該訓練用m値データ系列に対応する受信信号系列{r}を取り込むことになる。位相調整部30cによる処理は、仮判定処理部302と、更新処理部303とが存在しないため、図7に示した第1の実施形態の位相調整部30による処理のうち、ステップSa1,Sa2の後、ステップSa5の処理が行われる処理になる。
 ローパスフィルタ部401は、位相調整部30cが出力する出力信号系列{r’}を取り込む。ローパスフィルタ部401は、図8に示した第1の実施形態の最尤系列推定部40による処理のうち、ステップSb1と、ステップSb7の処理を行う。書込部407は、ローパスフィルタ部401が出力する判定対象受信シンボルを順次取り込み、取り込んだ判定対象受信シンボルを順に正解ラベル記憶部408に書き込んで記憶させる。書込部407は、先頭から順に読み出す際に、ローパスフィルタ部401が出力した順番と同一の順番で読み出すことができるように、判定対象受信シンボルを正解ラベル記憶部408に書き込む。これにより、正解ラベル記憶部408は、DNN部61,71に対して行う教師あり学習の処理に適用する出力の正解ラベルを記憶することになる。
(第3の実施形態のシンボル判定部6dの構成)
 図17は、シンボル判定部6dの構成を示すブロック図である。上記したように、シンボル判定部6dは、オフラインで利用されるため、伝送路2に接続する必要がない。そのため、シンボル判定部6dは、識別装置4に備える必要がなく、単体の装置として動作させることが可能である。
 シンボル判定部6dは、最適化部404d、正解ラベル記憶部408及び読出部409を備える。正解ラベル記憶部408は、上記したシンボル判定部6cによる処理が終了した時点の正解ラベル記憶部408であり、シンボル判定部6cによる処理によって生成された判定対象受信シンボル系列が書き込まれている。読出部409は、学習処理部78dから訓練指示信号を受けるごとに、正解ラベル記憶部408が記憶する先頭の判定対象受信シンボルから順に1つずつ判定対象受信シンボルを読み出し、読み出した判定対象受信シンボルを減算器77に出力する。すなわち、読出部409は、初回の訓練指示信号を受けると、正解ラベル記憶部408が記憶する先頭の判定対象受信シンボルを1つ読み出して減算器77に出力する。読出部409は、2回目の訓練指示信号を受けると、正解ラベル記憶部408が記憶する先頭から2番目の判定対象受信シンボルを1つ読み出して減算器77に出力する。このようにして、読出部409は、学習処理部78dから訓練指示信号を受けるごとに、訓練指示信号を受けた回数に応じた判定対象受信シンボルを正解ラベル記憶部408から読み出して減算器77に出力する。
 さらに別の言い方をすると、読出部409は、訓練指示信号を受けるごとに、上記したシンボル判定部6cが生成した判定対象受信シンボル系列に含まれる判定対象受信シンボルを先頭から順に1つずつ減算器77に出力するのと同等の処理を行っているとみなすことができる。
 最適化部404dは、DNN部71、訓練用m値データ記憶部73、送信シンボル系列入力部79、減算器77及び学習処理部78dを備える。訓練用m値データ記憶部73は、正解ラベル記憶部408に記憶されている判定対象受信シンボル系列をシンボル判定部6cが生成する際に、信号生成装置3に与えた訓練用m値データ系列と同一のm値データ系列が予め書き込まれている。
 送信シンボル系列入力部79は、学習処理部78dから訓練指示信号を受けるごとに、訓練用m値データ記憶部73が記憶する訓練用m値データ系列から系列長pの送信信号系列{s}生成する。送信シンボル系列入力部79は、生成した系列長pの送信信号系列{s}を入力系列としてDNN部71に与える。
 例えば、読出部409が、k回目の訓練指示信号を受けた場合に、正解ラベル記憶部408から読み出す正解ラベルが、送信信号系列{s}の時間軸において、時刻tに対応する判定対象受信シンボルであるとする。ここで、kは、1以上の整数である。この場合、送信シンボル系列入力部79は、予め訓練用m値データ系列から送信信号系列{s}を生成しておき、k回目の訓練指示信号を受けた場合、時刻tの送信シンボルsを中心とする系列長pの送信信号系列(st-(p-1)/2,…,s,…,st+(p-1)/2)を、生成した送信信号系列{s}から抽出してk回目の入力系列とする。このようにして、送信シンボル系列入力部79は、学習処理部78dから訓練指示信号を受けるごとに、訓練指示信号を受けた回数に応じた系列長pの系列を、訓練用m値データ系列から生成した送信信号系列{s}から抽出して入力系列とする。
 言い換えると、学習処理部78dから訓練指示信号を受けて、送信シンボル系列入力部79が生成する系列長pの送信信号系列(st-(p-1)/2,…,s,…,st+(p-1)/2)は、当該訓練指示信号のタイミングで読出部409が正解ラベルとして出力する判定対象受信シンボルをシンボル判定部6cが生成した際に、信号生成装置3が伝送路2に送出した送信信号系列{s}の系列長pの部分に一致することになる。したがって、この対応関係にある判定対象受信シンボルと、系列長pの送信信号系列(st-(p-1)/2,…,s,…,st+(p-1)/2)との組み合わせは、DNN部71が備えるニューラルネットワーク200において教師あり学習を行う際に使用する正解ラベル付きの訓練データということができる。なお、送信シンボル系列入力部79が生成する系列長pの送信信号系列(st-(p-1)/2,…,s,…,st+(p-1)/2)と、正解ラベルの系列である判定対象受信シンボル系列とに時間軸上でのズレが生じている場合、予め相互相関関数を用いて、そのズレを検出することができる。ズレが存在する場合、送信シンボル系列入力部79は、予め検出したズレを考慮したタイミングで、生成した系列長pの送信信号系列(st-(p-1)/2,…,s,…,st+(p-1)/2)をDNN部71に出力することになる。
 減算器77は、DNN部71の出力値から、読出部409が出力する判定対象受信シンボルを減算し、減算により得られた誤差を学習処理部78dに出力する。学習処理部78dは、減算器77が出力する誤差を最小化するように、例えば、誤差逆伝播法によってDNN部71に適用する新たな係数、すなわち、重み及びバイアスを算出する。
(第3の実施形態のシンボル判定部6dによる処理)
 図18は、シンボル判定部6dによる処理の流れを示すフローチャートである。学習処理部78dの内部の記憶領域にミニバッチサイズ、ミニバッチ内カウンタ、ミニバッチ処理繰り返し回数及びミニバッチ処理用カウンタという4つのパラメータを記憶する領域が設けられる。
 図18の処理が開始される前に、シンボル判定部6dの利用者が、例えば、シンボル判定部6dに管理用の端末装置を接続して管理用の端末装置を操作することにより、以下の初期設定が行われる。例えば、正解ラベル記憶部408に10000個の正解ラベルが記憶されているとする。この場合、一例として、ミニバッチサイズに「100」が予め書き込まれ、ミニバッチ処理繰り返し回数に「100」が予め書き込まれる。ミニバッチ内カウンタと、ミニバッチ処理用カウンタとが「0」に初期化される。第1の実施形態と同様に、DNN部71のニューラルネットワーク200に対して係数の初期値が設定される。学習処理部78dの内部の記憶領域に設けられている適用中の係数を記憶する領域に、ニューラルネットワーク200に対して設定された係数の初期値が予め書き込まれる。
 送信シンボル系列入力部79は、上記した初期設定が完了すると、訓練用m値データ記憶部73が記憶する訓練用m値データ系列から送信信号系列{s}を生成する。送信シンボル系列入力部79は、生成した送信信号系列{s}を内部の記憶領域に書き込んで記憶させる。
 学習処理部78dは、訓練指示信号を読出部409と、送信シンボル系列入力部79とに出力する(ステップSf1)。読出部409は、訓練指示信号を受けると、訓練指示信号を受けた回数に応じた正解ラベルを正解ラベル記憶部408から読み出して減算器77に出力する(ステップSf2)。
 ステップSf2の処理と並列に、送信シンボル系列入力部79は、訓練指示信号を受けると、訓練指示信号を受けた回数に応じた系列長pの送信信号系列(st-(p-1)/2,…,s,…,st+(p-1)/2)を、内部の記憶領域に記憶されている送信信号系列{s}から抽出して入力系列とする。送信シンボル系列入力部79は、生成した入力系列に含まれるp個の送信シンボルの各々を、各々に対応する入力層ノード210-1~210-pに出力する。これにより、DNN部71が備えるニューラルネットワーク200の出力層ノード240が、出力値を算出し、算出した出力値を減算器77に出力する(ステップSf3)。
 減算器77は、DNN部71の出力値から、読出部409が出力する正解ラベルが示す値を減算して誤差を算出し、算出した誤差を学習処理部78dに出力する。学習処理部78dは、減算器77が出力する誤差を取り込み、取り込んだ誤差を内部の記憶領域に書き込んで記憶させる。学習処理部78dは、内部の記憶領域のミニバッチ内カウンタが示す値に1を加えた値を内部の記憶領域のミニバッチ内カウンタの新たな値とする(ステップSf4)。
 学習処理部78dは、内部の記憶領域のミニバッチ内カウンタの値が、内部の記憶領域のミニバッチサイズが示す値になるまで、ステップSf1~Sf4の処理を繰り返し行う(ループLf2s~Lf2e)。
 学習処理部78dは、内部の記憶領域のミニバッチ内カウンタの値が、「100」、すなわち、内部の記憶領域のミニバッチサイズが示す値になると、内部の記憶領域が記憶するミニバッチサイズに一致する個数の誤差、すなわち、100個の誤差と、内部の記憶領域が記憶するニューラルネットワーク200の係数とを読み出す。学習処理部78dは、読み出した100個の誤差の各々を二乗した値の総和である二乗誤差和を最小化するように、DNN部71のニューラルネットワーク200に適用する新たな係数を算出する処理を行う。より詳細には、学習処理部78dは、算出した二乗誤差和と、内部の記憶領域の適用中の係数を記憶する領域に書き込まれているニューラルネットワーク200に適用されている係数とに基づいて、誤差逆伝播法により、ニューラルネットワーク200に適用する新たな係数を算出する(ステップSf5)。
 学習処理部78dは、内部の記憶領域のミニバッチ内カウンタの値を「0」に初期化する。学習処理部78dは、内部の記憶領域のミニバッチ処理用カウンタが示す値に1を加えた値を内部の記憶領域のミニバッチ処理用カウンタの新たな値とする。学習処理部78dは、内部の記憶領域の適用中の係数を記憶する領域に記憶されている係数を、算出した新たな係数に書き換え、DNN部71のニューラルネットワーク200に対して新たな係数を設定して、係数の更新を行う(ステップSf6)。
 学習処理部78dは、内部の記憶領域のミニバッチ処理用カウンタの値が、内部の記憶領域のミニバッチ処理繰り返し回数が示す値になるまでループLf2s~Lf2e及びステップSf5、Sf6の処理を繰り返し行う(ループLf1s~Lf1e)。
 学習処理部78dは、内部の記憶領域のミニバッチ処理カウンタの値が、「100」、すなわち、内部の記憶領域のミニバッチ処理繰り返し回数が示す値になると、処理を終了する。これにより、正解ラベル付き訓練データに含まれる組み合わせの数が、DNN部71の係数を収束させるのに十分な数であれば、図18の処理が終了した際に、DNN部71において、近似精度の高い推定伝達関数(H’)の演算を行うニューラルネットワーク200が構築されていることになる。
 上記の学習処理は、複数の入力系列と、入力系列の各々に対応する正解ラベルとの組み合わせである正解ラベル付き訓練データを用いて行う一般的な教師あり学習の処理であることから、一般的な機械学習ライブラリを用いて実装することが可能である。上記の学習処理は、いわゆるミニバッチ勾配降下法による学習処理であり、一般的な機械学習ライブラリに含まれている学習処理である。
 図18の処理が終了した時点でのDNN部71のニューラルネットワーク200に適用されている係数を、例えば、第1の実施形態のシンボル判定部6のDNN部61,71に適用し、学習処理部78の内部の記憶領域の適用中の係数を記憶する領域に書き込む。その上で、入力切替部74の内部の記憶領域のモードを示す情報を運用モードを示す情報にすることにより、シンボル判定部6において、長時間を要する訓練用m値データ系列を用いた学習処理を行うことなく、通信システム1を運用状態にすることができる。この場合において、適応フィルタ部301のタップ33-1~33-uに設定するタップ利得値及びローパスフィルタ部401のタップ43-1~43-vに設定するタップ利得値は、第1の実施形態において説明した初期設定の際の値としてもよいし、第3の実施形態のシンボル判定部6cの適応フィルタ部301のタップ33-1~33-u及びローパスフィルタ部401のタップ43-1~43-vに対して設定したタップ利得値としてもよい。
 図18の処理が終了した時点でのDNN部71のニューラルネットワーク200を用いて、第2の実施形態のシンボル判定部6aのルックアップテーブル記憶部63に記憶させるルックアップテーブルを生成するようにしてもよい。この場合、第3の実施形態のシンボル判定部6cのローパスフィルタ部401のタップ43-1~43-vとに対して設定したタップ利得値を、ルックアップテーブル記憶部63に予め書き込むローパスフィルタ部401のタップ43-1~43-vのタップ利得値とする。なお、シンボル判定部6aの適応フィルタ部301のタップ33-1~33-uに設定するタップ利得値については、第2の実施形態において説明した初期設定の際の値としてもよいし、第3の実施形態のシンボル判定部6cの適応フィルタ部301のタップ33-1~33-uに対して設定したタップ利得値としてもよい。
 なお、第1の実施形態において説明したように、受信信号系列{r}のサンプリング位相が揃っている場合、または、ニューラルネットワーク200の入力系列を記憶しておくメモリ長、すなわち、当該入力系列の系列長が示す時間が、推定対象の伝送路2におけるインパルス応答時間よりも長い場合、位相調整部30と、ローパスフィルタ部401とを備える必要がない。この場合、上記の第3の実施形態のシンボル判定部6b,6cを用いる必要がなく、受信部5が出力する受信信号系列{r}が書き込まれた正解ラベル記憶部408を、シンボル判定部6dに適用することで、教師あり学習の処理を行うことが可能になる。
(第4の実施形態)
 図19は、第4の実施形態におけるシンボル判定部6eの構成を示すブロック図である。以下、説明の便宜上、シンボル判定部6に替えてシンボル判定部6eを備える識別装置4を、識別装置4eといい、識別装置4に替えて、識別装置4eを備える通信システム1を、通信システム1eという。第4の実施形態において、第1から第3の実施形態と同一の構成については、同一の符号を付し、以下、異なる構成について説明する。
 シンボル判定部6eは、位相調整部30eと、最尤系列推定部40とを備える。位相調整部30eは、適応フィルタ部301、仮判定処理部302、更新処理部303及び加算平均算出部304を備える。
 加算平均算出部304は、適応フィルタ部301に接続、より詳細には、適応フィルタ部301の加算器34に接続しており、加算器34が出力する式(9)で示される出力値を取り込む。加算平均算出部304は、加算器34が出力する出力値を加算平均して最尤系列推定部40のローパスフィルタ部401に出力する。
(第4の実施形態の位相調整部による処理)
 図20は、シンボル判定部6eの位相調整部30eによる処理の流れを示すフローチャートである。図20に示すフローチャートの処理が行われる前処理として、通信システム1eの利用者が、例えば、識別装置4eに管理用の端末装置を接続し、管理用の端末装置を操作することにより、第1の実施形態と同様の初期設定が行われ、更に、以下の初期設定が行われる。加算平均算出部304の内部の記憶領域に設けられている加算平均の処理を行うか否かを示す加算平均フラグの領域に対して「ON」が書き込まれる。加算平均算出部304の内部の記憶領域に設けられている加算平均回数の領域に対して予め定められる加算平均回数を示す値「q」が書き込まれる。ここで、qは、2以上の整数である。
 ステップSg1~Sg5の処理は、図7に示した第1の実施形態のステップSa1~Sa5と同一の処理が、適応フィルタ部301、仮判定処理部302及び更新処理部303によって行われる。
 加算平均算出部304は、ステップSg2の処理において適応フィルタ部301の加算器34が出力した式(9)で示される出力値を取り込む(ステップSg10)。加算平均算出部304は、内部の記憶領域を参照して、加算平均フラグが「ON」であるか否かを判定する(ステップSg11)。加算平均算出部304は、加算平均フラグが「ON」でないと判定した場合(ステップSg11、No)、取り込んだ出力値を最尤系列推定部40のローパスフィルタ部401に出力し(ステップSg12)、再びステップSg10の処理を行う。
 一方、加算平均算出部304は、加算平均フラグが「ON」であると判定した場合(ステップSg11、Yes)、取り込んだ出力値を内部の記憶領域に書き込む(ステップSg13)。加算平均算出部304は、内部の記憶領域から加算平均回数qを読み出す。加算平均算出部304は、内部の記憶領域にq個の出力値が存在するか否かを判定する(ステップSg14)。加算平均算出部304は、内部の記憶領域にq個の出力値が存在しないと判定した場合(ステップSg14、No)、再びステップSg10の処理を行う。
 一方、加算平均算出部304は、内部の記憶領域にq個の出力値が存在すると判定した場合(ステップSg14、Yes)、q個の出力値の各々の値の1/qの値を足し合わせることにより加算平均した出力値を算出する。加算平均算出部304は、加算平均した出力値を最尤系列推定部40のローパスフィルタ部401に出力する(ステップSg15)。加算平均算出部304は、内部の記憶領域から最先に書き込んだ、すなわち最も古い出力値を削除し(ステップSg16)、再びステップSg10の処理を行う。
 上記の第4の実施形態のシンボル判定部6eは、加算平均算出部304を備えることにより、第1の実施形態のシンボル判定部6が有する効果に加えて、以下のような効果を有する。例えば、運用前に予め定められた訓練用のm値データ系列より生成される送信信号系列{s}を信号生成装置3から送信することで、加算平均算出部304により、いわゆるアンサンブル平均を行うことができる。すなわち、加算平均算出部304は、サンプリング位相の揃った受信信号系列{r}を加算平均して白色ノイズを抑えた訓練用の出力信号系列{r’}を生成することができる。最尤系列推定部40の学習処理部78は、加算平均算出部304が生成した訓練用の出力信号系列{r’}に基づいて、DNN部61,71に適用される係数を学習処理によって収束させ、重み選択部406が、DNN部61,71が備えるニューラルネットワーク200のシナプスを削減する処理を行う。これにより、白色ノイズの影響を低下させた状態で、重み選択部406がシナプスを削減する処理を行うことができる。そのため、白色ノイズの高周波成分を抑制するローパスフィルタ部401のタップ利得値が収束していない状態であっても、サンプリング位相の揃った白色ノイズの影響が低い判定対象受信シンボル系列を得ることができるので、より速く、より高い精度で、推定伝達関数(H’)を表すのに大きな影響を与えるシナプスを抽出することが可能になる。シナプスの抽出が完了し、運用状態に移行する場合、通信システム1eの利用者が、管理用の端末装置を操作して、加算平均算出部304の内部の記憶領域に設けられている加算平均フラグの領域に対して「OFF」を書き込ことにより、ステップSg13~Sg16の処理を行わないようにさせることができる。
(実験用のシステムを用いた実験による結果)
 図21は、第1の実施形態のシンボル判定部6による効果を測定するために用いた通信システム500の構成を示すブロック図である。通信システム500は、224Gbps、PAM4、2km、4chのO帯光伝送実験を行う実験用のシステムであり、送信側オフラインDSP501、任意波形発生器(以下「AWG」(Arbitrary Waveform Generator)という。)502、増幅器503-1~503-4、TOSA(Transmitter Optical Sub-Assembly)504、光ファイバ伝送路505、DeMUX(De-Multiplexer)506、可変光アッテネータ(以下「VOA」(Variable Optical Attenuator)という。)507、PIN型フォトダイオード(以下「PIN-PD」(Photo Diode)という。)508、増幅器509、デジタルストレージオシロスコープ(以下「DSO」(Digital Storage Oscilloscope)という。)510及び受信側オフラインDSP511を備える。
 送信側オフラインDSP501は、送信データに対して、PAM4マッピング、オーバサンプリング、プリエンファシス、リサンプリングを行ってm=4のm値データ系列を生成する。AWG502は、112GSample/s及び65GHzの性能を有しており、送信側オフラインDSP501が生成したm値データ系列を取り込み、取り込んだm値データ系列に基づいて、4つの送信信号系列を生成して出力する。増幅器503-1~503-4の各々は、AWG502が出力した4つの送信信号系列の各々を増幅する。TOSAは、4-λ LAN(Local Area Network)-WDM(Wave Division Multiplexing)用のTOSAであり、増幅器503-1~503-4の各々が出力する送信信号系列の各々を4つの異なる波長の光信号に変換し、変換した4つの波長の光信号を波長多重して、光ファイバ伝送路505に送出する。
 光ファイバ伝送路505は、2kmの長さであり、1295nmの波長における波長分散量が-4.2ps/nmであるSSMF(Standard Single Mode Fiber)であり、TOSA504が送出した波長多重された光信号を伝送する。DeMUX506は、LAN-WDM用のDeMUXであり、光ファイバ伝送路505が伝送した4つ波長の光信号を分波し、分波した光信号の各々を4つの出力インタフェースから出力する。
 VOA507は、DeMUX506の4つの出力インタフェースのいずれか1つに切り替えて接続し、接続した出力インタフェースを通じて受光する光信号のパワーを調整する。PIN-PD508は、遮断周波数50GHzの性能を有しており、強度変調された変調光を直接検波方式でアナログ電気信号の受信信号系列に変換する。増幅器509は、PIN-PD508が出力するアナログ電気信号の受信信号系列を増幅して出力する。DSO510は、160GSample/s及び63GHzの性能を有しており、増幅器509が出力するアナログ電気信号の受信信号系列を取り込み、デジタル信号の受信信号系列に変換する。
 受信側オフラインDSP511は、DSO510が変換して生成したデジタル電気信号の受信信号系列を取り込む。受信側オフラインDSP511は、DSO510から取り込んだ受信信号系列に対して、リサンプリング、ノーマライジングを行い、シンボル判定部6によって推定送信シンボルの特定を行い、PAM4デマッピングを行って、m値データ系列を復元する。受信側オフラインDSP511は、復元したm値データ系列のビット誤り率を算出する。
 図22は、受信側オフラインDSP511において算出したビット誤り率と、シンボル判定部6のDNN部61,71のニューラルネットワーク200の中間層の層数との関係を示すグラフである。図22のグラフが得られた際の測定条件は、シンボル判定部6のDNN部61,71のニューラルネットワーク200の中間層の各々の中間層ノードの数を50個ずつにしている。例えば、中間層が2層であれば、中間層ノードの総数は100個になる。また、PIN-PD508が受ける光信号のパワーをVOA507によって2dBmとしている。
 図22において、横軸と平行になっている点線は、「硬判定誤り訂正限界」を示している。ここで、「硬判定誤り訂正限界」とは、硬判定(Hard Decision)のFEC(Forward Error Correction)を用いた際に、誤り訂正が十分可能である伝送性能を示す誤り率であり、MLSEなどの信号処理の性能を測定する指標である。図22の5つのグラフの種類は、凡例に示すように、白丸「〇」、四角「□」、菱形「◇」、三角「△」という4種類のマークで示される4つのグラフが、DeMUX506の4つの出力インタフェースの各々から得られた光信号を測定した測定結果のグラフであり、黒丸「●」のグラフは、当該4つのグラフの平均値を示すグラフである。
 図22から分かるように、中間層の層数が2層以上になれば、ビット誤り率が硬判定誤り訂正限界より低くなる。中間層の層数が多いほど、ビット誤り率が低くなり、伝送性能が向上していることが分かる。ただし、中間層の層数が3層以上の場合は、ニューラルネットワーク200の学習処理が安定して行われないために、ビット誤り率が改善されている場合もあれば、改善されていない場合もある。そのため、黒丸「●」で示す平均のグラフでは、中間層の層数が3層を超えた場合、3層の際のビット誤り率とほぼ同一のビット誤り率しか得られていないことが分かる。
 図23は、受信側オフラインDSP511において算出したビット誤り率と、シンボル判定部6のDNN部61,71のニューラルネットワーク200の中間層のノード数との関係を示すグラフである。図23のグラフが得られた際の測定条件は、シンボル判定部6のDNN部61,71のニューラルネットワーク200の中間層の層数を3層にしており、PIN-PD508が受ける光信号のパワーをVOA507によって2dBmとしている。図23において、横軸と平行になっている点線は、図22と同様に「硬判定誤り訂正限界」を示しており、グラフの種類を示す5つのマークの意味は、図22と同一である。
 図23のグラフから分かるように、中間層のノード数を10以上にした場合、いずれもビット誤り率が硬判定誤り訂正限界より低くなる。中間層のノード数が多いほどビット誤り率が低くなり、伝送性能が向上していることが分かる。特に、中間層のノード数が10から50の間で顕著な改善が得られているが、黒丸「●」で示す平均のグラフが示すように、50を超えた場合、大きな改善は得られないことが分かる。
(各実施形態の補足事項)
 上記の第1から第4の実施形態において示したニューラルネットワーク200の構成は、一例であり、伝送路2の伝達関数(H)を近似する関数近似器であって推定伝達関数(H’)の演算を行う関数近似器であれば、他の構成のニューラルネットワークであってもよいし、ニューラルネットワーク以外の機械学習の手法によるものであってもよい。
 上記の第1から第4の実施形態において、ニューラルネットワーク200の活性化関数は、式(13)に示すReLU関数であるとしているが、例えば、次式(27)に示すシグモイド関数を適用してもよいし、それ以外の活性化関数を適用するようにしてもよい。なお、式(27)において、αは、ゲインであり、0より大きい値が予め定められる。
Figure JPOXMLDOC01-appb-M000027
 例えば、ReLU関数、シグモイド関数以外の活性化関数として、以下の参考文献2に記載されている内容から導かれる次式(28)で示される関数を適用するようにしてもよい。
Figure JPOXMLDOC01-appb-M000028
[参考文献2:F. Koyama and K. Iga, “Frequency chirping in external modulators”, in Journal of Lightwave Technology, vol. 6, no. 1, pp. 87-93, Jan. 1988, doi: 10.1109/50.3969]
 上記の式(28)において、βは、伝送路2の強度変調器2-2の変調度であり、0以上、1以下の値である。βの値は、強度変調器2-2において変更が可能な最小パワーから最大パワーの間を1で規格化した場合に、どれぐらいの振幅の信号を強度変調器2-2の変調対象の信号にするかを示している。基本的には、変調対象の信号の最小の振幅レベルが1-βになり、最大の振幅レベルが1になる。変調度βを変えることで強度変調器2-2の応答が線形性を保つ領域で変調を行うとするのか、非線形な応答をするがノイズの影響が少なくなるように大きな振幅を確保するのかといった調整を行うことができる。式(28)においてγは、強度変調器2-2におけるチャープファクタであり、変調周波数ごとに異なる位相変調が発生してしまう度合いを示すパラメータである。変調度β及びチャープファクタγは、式(28)からも分かるように、ある種の非線形関数におけるハイパーパラメータのような役割を有している。したがって、伝送路2の強度変調器2-2の実際の変調度βと、チャープファクタγとを、式(28)の活性化関数のパラメータに適用することにより、式(28)を、伝送路2を構成する部品の入出力特性を加味した活性化関数とすることができる。このような活性化関数をニューラルネットワーク200に適用することにより、伝送路2を構成する部品の理論的な応答特性を加味したニューラルネットワークを構築することができ、ReLU関数やシグモイド関数を用いる場合よりも特徴量の抽出精度を向上させることができるので、近似精度の高い推定伝達関数(H’)を得ることが可能になる。
 上記の第1の実施形態に示した教師あり学習の処理は、1つの誤差が得られるごとに、新たな係数を算出する確率的勾配降下法であるが、これに替えて、第3の実施形態に示したミニバッチごとに得られる複数の誤差に基づいて新たな係数を算出するミニバッチ勾配降下法を適用するようにしてもよい。ミニバッチ勾配降下法を用いることにより、確率的勾配降下法よりもニューラルネットワーク200の係数を更新する頻度が少なくなるため、演算量を削減することができ、外れ値の影響を抑えた安定した教師あり学習の処理を行うことができる。第1の実施形態において、訓練モードでは、確率的勾配降下法を適用し、運用モードでは、ミニバッチ勾配降下法を適用するようにしてもよいし、逆に、訓練モードでは、ミニバッチ勾配降下法を適用し、運用モードでは、確率的勾配降下法を適用するようにしてもよい。第3の実施形態において、第1の実施形態に示した1つの誤差が得られるごとに、新たな係数を算出する確率的勾配降下法を適用するようにしてもよい。確率的勾配降下法も、ミニバッチ勾配降下法と同様に、一般的な機械学習ライブラリに含まれている学習処理である。第1及び第3の実施形態において、ミニバッチ勾配降下法を適用する場合、第3の実施形態に示したミニバッチサイズは、一例であり、適宜、適切な数を定めるようにしてもよい。第1及び第3の実施形態の教師あり学習の処理に適用する手法として、確率的勾配降下法、ミニバッチ勾配降下法以外の手法を適用するようにしてもよい。
 上記の第1の実施形態では、誤差生成関数として、二乗誤差を算出する関数を適用しており、第3の実施形態では、二乗誤差和を算出する関数を適用しているが、これらの関数以外の誤差生成関数を適用するようにしてもよい。
 上記の第1、第3及び第4の実施形態では、学習処理部78,78dは、誤差逆伝播法によってニューラルネットワーク200に適用する新たな係数を算出するようにしているが、誤差逆伝播法以外の手法によってニューラルネットワーク200に適用する新たな係数を算出するようにしてもよい。
 上記の第1、第3の実施形態において示したメルセンヌ・ツイスタによって生成する系列は、訓練用m値データ系列の一例であり、過学習を抑制することができる他の周期が長いランダム系列を訓練用m値データ系列としてもよい。
 上記の第1、第3の実施形態において示したニューラルネットワーク200の学習処理を、MLSEにおける伝送路2の伝達関数の推定以外の順方向伝達関数の推定手法及び特徴量抽出手法として用いるようにしてもよい。
 上記の第1から第4の実施形態において、候補シンボル系列入力部62は、候補シンボル系列生成部405が出力する候補シンボル系列{s’}を取り込んだ際に、規格化などの演算を行う前処理を行うようにしてもよい。例えば、候補シンボル系列入力部62は、候補シンボル系列{s’}をボルテラ級数展開し、高次の項も含めてDNN部61に与えられる入力系列としてもよい。ただし、この場合、入力系列の系列長は、候補シンボル系列{s’}の系列長pよりも長くなるため、DNN部61が備えるニューラルネットワーク200の入力層ノード210-1,210-2,…の数及び線形適応フィルタ部61bのタップ数は、与えられる入力系列の数に応じて増やす必要がある。この場合、DNN部71が備えるニューラルネットワーク200の入力層ノード210-1,210-2,…の数及び線形適応フィルタ部71bのタップ数も同様に増やす必要がある。そのため、入力切替部74,74b、送信シンボル系列入力部79は、訓練用m値データ系列から送信信号系列{s}を生成し、生成した送信信号系列{s}から入力系列を生成する際、候補シンボル系列入力部62が行うのと同様のボルテラ級数展開を行う必要がある。
 上記の第1から第4の実施形態において、位相調整部30,30eの更新処理部303のフィルタ更新処理部35及び最尤系列推定部40,40bの最適化部404,404bのフィルタ更新処理部75、78bは、LMSアルゴリズムによりタップ利得値の更新値を算出するようにしている。これに対して、LMSアルゴリズムに替えて、RLS(Recursive Least Square)アルゴリズムなどの他の更新アルゴリズムを適用するようにしてもよい。
 上記の第1から第4の実施形態では、判定処理部402の最尤系列推定の処理において、ビタビ・アルゴリズムを適用した例を示しているが、BCJRアルゴリズムを適用してもよい。
 上記の第3の実施形態の図17に示したシンボル判定部6dの学習処理部78dと、DNN部71との間に、第1の実施形態において説明した重み選択部406を挿入するようにしてもよい。
 上記の第2の実施形態のシンボル判定部6a及び第3の実施形態の図13及び図14に示したシンボル判定部6bが備える位相調整部30を、第4の実施形態の位相調整部30eに置き換えるようにしてもよい。第3の実施形態の図16に示したシンボル判定部6cの位相調整部30cの加算器34と、ローパスフィルタ部401との間に第4の実施形態の加算平均算出部304を挿入するようにしてもよい。
 上記の第1の実施形態のシンボル判定部6、及び第3の実施形態のシンボル判定部6b、第4実施形態のシンボル判定部6eが備える遅延器76は、ローパスフィルタ部401が出力する出力値、すなわち、判定対象受信シンボルを取り込み、「wT+(p-1)T/2」の時間、すなわち「w+(p-1)/2」シンボル分の時間経過してから取り込んだ判定対象受信シンボルを減算器77に出力するようにしている。このようにしている理由は、上記したように、例えば、第1の実施形態のシンボル判定部6の場合、時刻tの推定送信シンボルaの位置を、DNN部71に与えられる系列長pの入力系列の中心の位置にするためである。ただし、時刻tの推定送信シンボルaの位置は、DNN部71に与えられる系列長pの入力系列の中心の位置でなくてもよく、DNN部71に与えられる系列長pの入力系列のいずれかの位置に含まれているようにしてもよい。このようにしても、時刻tの推定送信シンボルaが系列長pの入力系列の中心の位置からずれた状態を前提とした学習処理が行われるに過ぎず、学習処理によって最適化された状態のDNN部71は、時刻tの判定対象受信シンボルに、ほぼ一致した出力値を出力することになる。時刻tの推定送信シンボルaの位置が入力系列の中心の位置でなくてもよいということは、第3の実施形態のシンボル判定部6b、第4の実施形態のシンボル判定部6eについても同様にあてはまる。したがって、遅延器76は、「wT」から「wT+(p-1)T/2」までの時間のいずれかの時間を遅延時間とし、遅延時間が経過してから取り込んだ判定対象受信シンボルを減算器77に出力すればよいことになる。
 上記の第1の実施形態のシンボル判定部6、第2の実施形態のシンボル判定部6a、第3の実施形態のシンボル判定部6b、第4の実施形態のシンボル判定部6eは、候補シンボル系列生成部405を備えており、候補シンボル系列生成部405は、「m」個の候補シンボル系列{s’}を繰り返し生成するようにしている。これに対して、候補シンボル系列生成部405に替えて、候補シンボル系列生成部405が生成する「m」個の候補シンボル系列{s’}を、1~mの連続する整数値に関連付けて予め記憶する記憶部を備えるようにしてもよい。この場合、加算比較選択部52と、パス遡り判定部51と、第1、第3、第4の実施形態の候補シンボル系列入力部62と、第2の実施形態の検出処理部64とは、内部にカウンタを設けて、カウンタの初期値を1とし、カウンタの値に対応する候補シンボル系列{s’}を記憶部から読み出し、読み出した後、カウンタの値を1増加させることを繰り返すようにしてもよい。なお、カウンタの値が「m」になると、加算比較選択部52、パス遡り判定部51、候補シンボル系列入力部62、及び検出処理部64の各々は、次のカウンタの値を「m+1」にせずに「1」にすることになる。
 上記の第1の実施形態の構成では、図9に示すステップSc11,Sc12,Sc14の処理において、等号付き不等号を用いた判定処理を行っている。しかしながら、本発明は、当該実施の形態に限られるものではなく、「以下であるか否か」という判定処理は一例に過ぎず、閾値の定め方に応じて、それぞれ「未満であるか否か」という判定処理に置き換えられてもよい。
 上記の第1から第4の実施形態のシンボル判定部6,6a,6b,6c,6d,6eを単体のシンボル判定装置として構成するようにしてもよい。
 上述した実施形態におけるシンボル判定部6,6a,6b,6c,6d,6eをコンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、FPGA(Field Programmable Gate Array)等のプログラマブルロジックデバイスを用いて実現されるものであってもよい。
 以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
 400GbE、800GbEの伝送における受信側の装置として利用することができる。
6…シンボル判定部,30…位相調整部,40…最尤系列推定部,301…適応フィルタ部,302…仮判定処理部,303…更新処理部,401…ローパスフィルタ部,402…判定処理部,403…伝送路推定部,404…最適化部,405…候補シンボル系列生成部,406…重み選択部

Claims (8)

  1.  送信シンボルによって形成される送信信号系列の候補となる複数の候補シンボル系列を生成する候補シンボル系列生成部と、
     前記送信信号系列を伝送する伝送路の伝達関数を近似する関数近似器を有し、複数の前記候補シンボル系列の各々を入力系列として前記関数近似器に与えた場合に、前記関数近似器の出力として得られる推定受信シンボルを出力する伝送路推定部と、
     前記伝送路が前記送信信号系列を伝送した際の受信信号系列から得られる判定対象受信シンボル系列と、前記候補シンボル系列ごとの前記推定受信シンボルとに基づいて最尤系列推定により前記送信シンボルの判定を行うことにより前記判定対象受信シンボル系列に対応する推定送信シンボルを特定する判定処理部と、
     前記受信信号系列が受信された際に送信された前記送信信号系列、または、前記推定送信シンボルによって形成される推定送信信号系列から得られる系列を入力系列として与えた場合に、前記判定対象受信シンボル系列を形成する判定対象受信シンボルが出力として得られるように前記関数近似器を最適化する最適化部と、
     を備えるシンボル判定装置。
  2.  前記伝送路の伝達関数の逆関数を近似する推定逆伝達関数を、前記受信信号系列に適用することにより、前記受信信号系列のサンプリング位相を揃え、サンプリング位相を揃えた受信信号系列を出力する位相調整部をさらに備え、
     前記判定処理部は、
     前記位相調整部が出力するサンプリング位相が揃えられた前記受信信号系列のシンボル系列を、前記判定対象受信シンボル系列として取り込む、
     請求項1に記載のシンボル判定装置。
  3.  前記位相調整部が出力するサンプリング位相が揃えられた前記受信信号系列の高周波成分を抑制するローパスフィルタ部をさらに備え、
     前記判定処理部は、
     前記ローパスフィルタ部により高周波成分が抑制された前記受信信号系列のシンボル系列を、前記判定対象受信シンボル系列として取り込む、
     請求項2に記載のシンボル判定装置。
  4.  正解ラベル記憶部をさらに備え、
     前記最適化部は、
     前記関数近似器に替えて線形適応フィルタが備えられている状態で、前記ローパスフィルタ部に対する最適なフィルタ係数を算出し、
     前記位相調整部は、
     前記関数近似器に替えて前記線形適応フィルタが備えられている状態で、前記推定逆伝達関数を最適化し、
     前記正解ラベル記憶部には、予め定められる訓練用の前記送信信号系列が送信された際に、前記推定逆伝達関数が最適化されている前記位相調整部と、前記最適化部が算出した最適な前記フィルタ係数が適用されている前記ローパスフィルタ部とを通じて得られる前記判定対象受信シンボル系列に含まれる判定対象受信シンボルの各々が正解ラベルとして記憶され、
     前記最適化部は、
     前記正解ラベル記憶部に記憶されている前記正解ラベルが得られた際に送信された前記訓練用の送信信号系列の部分を入力系列とし、前記入力系列を与えた場合に、前記入力系列に対応する前記正解ラベルを出力するように前記関数近似器を最適化する、
     請求項3に記載のシンボル判定装置。
  5.  前記位相調整部は、
     前記推定逆伝達関数を前記受信信号系列に適用することにより得られる出力値の系列を、前記サンプリング位相を揃えた受信信号系列として出力するか、
     または、
     前記推定逆伝達関数を前記受信信号系列に適用することにより得られる出力値を加算平均し、加算平均により得られた加算平均値の系列を、前記サンプリング位相を揃えた受信信号系列として出力する、
     請求項2から請求項4のいずれか一項に記載のシンボル判定装置。
  6.  前記最適化部は、前記関数近似器を最適化する過程において、前記関数近似器に適用する新たな係数を繰り返し算出し、算出した前記新たな係数を適用することにより前記関数近似器の最適化を行っており、
     前記最適化部が前記関数近似器に前記新たな係数を適用する前に、前記新たな係数に含まれる重みと、予め定められる重み閾値とに基づいて、前記関数近似器に適用する前記重みを選択する重み選択部、
     をさらに備える請求項1から請求項5のいずれか一項に記載のシンボル判定装置。
  7.  送信シンボルによって形成される送信信号系列の候補となる複数の候補シンボル系列を生成し、
     生成した複数の前記候補シンボル系列の各々を入力系列として、前記送信信号系列を伝送する伝送路の伝達関数を近似する関数近似器に与えた場合に、前記関数近似器の出力として得られる推定受信シンボルを出力し、
     前記伝送路が前記送信信号系列を伝送した際の受信信号系列から得られる判定対象受信シンボル系列と、前記候補シンボル系列ごとの前記推定受信シンボルとに基づいて最尤系列推定により前記送信シンボルの判定を行うことにより前記判定対象受信シンボル系列に対応する推定送信シンボルを特定し、
     前記受信信号系列が受信された際に送信された前記送信信号系列、または、前記推定送信シンボルによって形成される推定送信信号系列から得られる系列を入力系列として与えた場合に、前記判定対象受信シンボル系列を形成する判定対象受信シンボルが出力として得られるように前記関数近似器を最適化する、
     シンボル判定方法。
  8.  コンピュータを、
     送信シンボルによって形成される送信信号系列の候補となる複数の候補シンボル系列を生成する候補シンボル系列生成手段、
     前記送信信号系列を伝送する伝送路の伝達関数を近似する関数近似器を有し、複数の前記候補シンボル系列の各々を入力系列として前記関数近似器に与えた場合に、前記関数近似器の出力として得られる推定受信シンボルを出力する伝送路推定手段、
     前記伝送路が前記送信信号系列を伝送した際の受信信号系列から得られる判定対象受信シンボル系列と、前記候補シンボル系列ごとの前記推定受信シンボルとに基づいて最尤系列推定により前記送信シンボルの判定を行うことにより前記判定対象受信シンボル系列に対応する推定送信シンボルを特定する判定処理手段、
     前記受信信号系列が受信された際に送信された前記送信信号系列、または、前記推定送信シンボルによって形成される推定送信信号系列から得られる系列を入力系列として与えた場合に、前記判定対象受信シンボル系列を形成する判定対象受信シンボルが出力として得られるように前記関数近似器を最適化する最適化手段、
     として機能させるためのプログラム。
PCT/JP2022/003121 2022-01-27 2022-01-27 シンボル判定装置、シンボル判定方法及びプログラム WO2023144966A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/003121 WO2023144966A1 (ja) 2022-01-27 2022-01-27 シンボル判定装置、シンボル判定方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/003121 WO2023144966A1 (ja) 2022-01-27 2022-01-27 シンボル判定装置、シンボル判定方法及びプログラム

Publications (1)

Publication Number Publication Date
WO2023144966A1 true WO2023144966A1 (ja) 2023-08-03

Family

ID=87470893

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/003121 WO2023144966A1 (ja) 2022-01-27 2022-01-27 シンボル判定装置、シンボル判定方法及びプログラム

Country Status (1)

Country Link
WO (1) WO2023144966A1 (ja)

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
MASUDA AKIRA; YAMAMOTO SHUTO; TANIGUCHI HIROKI; NAKAMURA MASANORI; KISAKA YOSHIAKI: "255-Gbps PAM-8 Transmission under 20-GHz Bandwidth Limitation using NL-MLSE Based on Volterra Filter", 2019 OPTICAL FIBER COMMUNICATIONS CONFERENCE AND EXHIBITION (OFC), OSA, 3 March 2019 (2019-03-03), pages 1 - 3, XP033540247 *
TANIGUCHI HIROKI; YAMAMOTO SHUTO; MASUDA AKIRA; KISAKA YOSHIAKI; KANAZAWA SHIGERU: "800-Gbps PAM-4 2-km Transmission using $4-\lambda$ LAN-WDM TOSA with MLSE based on Deep Neural Network", 2022 OPTICAL FIBER COMMUNICATIONS CONFERENCE AND EXHIBITION (OFC), OSA, 6 March 2022 (2022-03-06), pages 1 - 3, XP034109651 *
YAMAMOTO SHUTO, TANIGUCHI HIROKI, NAKAMURA MASANORI, KISAKA YOSHIAKI: "93-Gbaud PAM4 O-Band Transmission Using Nonlinear Spectral Shaping with Transition-Likelihood-Based Decoding", 2020 EUROPEAN CONFERENCE ON OPTICAL COMMUNICATIONS (ECOC), IEEE, 1 December 2020 (2020-12-01) - 10 December 2020 (2020-12-10), pages 1 - 4, XP093081595, ISBN: 978-1-7281-7361-0, DOI: 10.1109/ECOC48923.2020.9333259 *
谷口寛樹 他, トレリスパス制限MLSE適用による255-Gbps PAM8 O帯 SMF 10-km伝送の実証, 信学技報, 09 January 2020, vol. 119, no. 366 , OCS2019-65, pp. 1-6 *
谷口寛樹 他, 非線形チャネル推定に基づくMLSEを用いた20-GHz帯域制限環境下におけるO帯255-Gb/s PAM-8光伝送の実証, 信学技報, 13 June 2019, vol. 119, no. 93, OCS2019-18, pp. 43-46 *

Similar Documents

Publication Publication Date Title
US7023912B2 (en) Hybrid adaptive equalizer for optical communications systems
Schaedler et al. Recurrent neural network soft-demapping for nonlinear ISI in 800Gbit/s DWDM coherent optical transmissions
Wang et al. System impairment compensation in coherent optical communications by using a bio-inspired detector based on artificial neural network and genetic algorithm
CN105610517A (zh) 相干光接收机的迭代后均衡
JP2015510366A (ja) 波長分散処理の装置及び方法
US8208529B2 (en) Equalization apparatus and method of compensating distorted signal and data receiving apparatus
CN112598072A (zh) 基于SVM训练的权重系数迁移的改进Volterra滤波器的均衡方法
KR101363122B1 (ko) 데이터의 고속 전송을 위한 적응 알고리즘을 적용한 등화기 및 등화 방법
CN113472443A (zh) 一种针对强度调制直接检测系统的发射端迭代色散补偿方法
CN113726434A (zh) 基于低量化位宽dac的低成本im/dd系统长距离传输方法
CN112036543A (zh) 神经网络均衡与线性均衡相结合的时域均衡器及均衡方法
WO2020226172A1 (ja) シンボル判定装置、及びシンボル判定方法
WO2023144966A1 (ja) シンボル判定装置、シンボル判定方法及びプログラム
CN112714084B (zh) 用于光通信的设备、方法和计算机可读存储介质
JP6859457B2 (ja) シンボル判定装置及びシンボル判定方法
Al Barakeh et al. Electronic dispersion compensation and functional link neural network equalization for IM/DD links
Reza et al. Blind nonlinearity mitigation of 10G DMLs using sparse Volterra equalizer in IM/DD PAM-4 transmission systems
CN114204993A (zh) 基于多项式映射的特征构建的非线性均衡方法及系统
WO2022044077A1 (ja) シンボル判定装置及びタップ選択方法
CN112242871B (zh) 用于光通信的方法、设备和计算机可读存储介质
CN113938199A (zh) 一种信号的处理方法及装置、存储介质、电子装置
Wang et al. Low-complexity nonlinear equalizer based on artificial neural network for 112 Gbit/s PAM-4 transmission using DML
Ni et al. Joint Tx and Rx Look-Up-Table Based Nonlinear Distortion Mitigation in Reduced State MLSE for 180 Gbit/s PAM-8 IM-DD System
WO2022224296A1 (ja) デジタル信号処理装置及びコヒーレントデジタル信号処理装置
WO2023152947A1 (ja) 通信システム、受信機、等化信号処理回路、方法、及びコンピュータ可読媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22923831

Country of ref document: EP

Kind code of ref document: A1