KR20020085302A - Decision feedback recurrent neural network equalizer and learning method for the equalizer - Google Patents

Decision feedback recurrent neural network equalizer and learning method for the equalizer Download PDF

Info

Publication number
KR20020085302A
KR20020085302A KR1020010024732A KR20010024732A KR20020085302A KR 20020085302 A KR20020085302 A KR 20020085302A KR 1020010024732 A KR1020010024732 A KR 1020010024732A KR 20010024732 A KR20010024732 A KR 20010024732A KR 20020085302 A KR20020085302 A KR 20020085302A
Authority
KR
South Korea
Prior art keywords
output
signal
learning
delay
neural network
Prior art date
Application number
KR1020010024732A
Other languages
Korean (ko)
Inventor
곽경섭
장홍뢰
Original Assignee
주식회사 씨노드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 씨노드 filed Critical 주식회사 씨노드
Priority to KR1020010024732A priority Critical patent/KR20020085302A/en
Publication of KR20020085302A publication Critical patent/KR20020085302A/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B3/00Line transmission systems
    • H04B3/02Details
    • H04B3/04Control of transmission; Equalising

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Cable Transmission Systems, Equalization Of Radio And Reduction Of Echo (AREA)

Abstract

PURPOSE: A decision feedback recurrent neural network equalizer and a learning method being used in the same are provided to obtain a stable equalizing performance by performing a neural network learning effectively although an interference and a non-linear distortion are strong. CONSTITUTION: The first buffers(10) include a tap delay line structure for delaying a channel input signal(Xk) by a predetermined period of data. Nodes(20) perform a function calculation by inputting the delayed channel input signal(Xk), decision feedback delay signals, and feedback outputs of each node. Decision devices(30) calculate and output a presumptive value of a digital form by substituting output signals(Yk) of each node(20) with absolute values. The second buffers(40) delay and output the presumptive value being output from the decision devices(30) as a decision feedback delay signal. A switching unit(S) selects one out of the output of the decision devices(30) and a learning signal(dn) and inputs the selected one to the second buffer(40). Accumulators(50) accumulate a difference between each output signal(yn) and the learning signal(dn) of the nodes(20) and calculate an instantaneous error(en).

Description

결정 귀환 재귀 신경망 등화 장치 및 그에 이용되는 학습방법{DECISION FEEDBACK RECURRENT NEURAL NETWORK EQUALIZER AND LEARNING METHOD FOR THE EQUALIZER}DECISION FEEDBACK RECURRENT NEURAL NETWORK EQUALIZER AND LEARNING METHOD FOR THE EQUALIZER}

본 발명은 디지털 통신을 위한 등화 장치에 관한 것으로, 특히 디지털 통신시스템에서 신호간의 간섭 및 채널 왜곡을 보상하여 줄 수 있는 결정 귀환 재귀 신경망 등화장치(Decision Feedback Recurrent Neural Network Equalizer:DFRNNE) 및 그에 이용되는 학습방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an equalization device for digital communication, and more particularly, a decision feedback recurrent neural network equalizer (DFRNNE) used to compensate for interference and channel distortion between signals in a digital communication system. It's about learning.

채널 등화는 하나의 모드 분류 문제로서 간주될 수 있다. 신경망들은 우수한 모드 분류 특성을 가지기 때문에, 여러가지의 신경망 구조들이 신경망 기술의 발전과 함께 적응형 채널 등화에 적용되고 있다. 등화기들의 다양한 구조 및 알고리즘 각각은 고유의 장점 및 단점들을 가지고 있다. 예를 들면, 충분한 자유도가 제공된다면 다층 퍼셉트론(multilayer perceptron)이 임의의 복잡한 비선형 채널 등화에 적용될 수 있다. 그러나 신경망 등화기들의 다양한 구조 및 알고리즘을 구현함에 있어서, 구현의 복잡성과 해당 알고리즘의 특징 사이에는 모순이 존재한다. 구조가 크면 클수록, 연산에 소요되는 시간이 길면 길수록 데이터의 전송율은 작아진다.Channel equalization can be considered as a mode classification problem. Since neural networks have excellent mode classification characteristics, various neural network structures are being applied to adaptive channel equalization with the development of neural network technology. Each of the various structures and algorithms of the equalizers has its own advantages and disadvantages. For example, multilayer perceptrons can be applied to any complex nonlinear channel equalization if sufficient degrees of freedom are provided. However, in implementing various structures and algorithms of neural equalizers, there is a contradiction between the complexity of the implementation and the features of the algorithm. The larger the structure, the longer the time required for calculation, the smaller the data transfer rate.

재귀 신경망(Recurrent Neural Network)은 소형이면서도 성능이 우수하다는 특징을 가지면서도, 채널 등화에 있어서 상기와 같은 모순을 완화시켜 준다는 장점이 있기 때문에 널리 사용되고 있다. 재귀 신경망은 무한 임펄스 응답(IIR) 필터와 유사하기 때문에 우수한 등화 성능을 얻을 수 있고, 복잡한 비션형 맵을 수 개의 노드만으로 완성할 수도 있다.Recurrent Neural Networks are widely used because of their small size and excellent performance, and because of the advantages of alleviating such contradictions in channel equalization. A recursive neural network is similar to an infinite impulse response (IIR) filter, so you get good equalization performance, and even complex nonlinear maps can be completed with just a few nodes.

도 1은 일반적인 재귀 신경망 등화기(Recurrent Neural Network Equalizer:RNNE) 구성을 예시한 것이다. 도 1에 도시되어 있는 바와 같이 일반적인 재귀 신경망에서의 각 노드 출력은 귀환하게 되는데, 이러한 귀환은 재귀 신경망 등화기(Recurrent Neural Network Equalizer)의 일관성과 안정성을 나쁘게 한다.또한 일반적인 재귀 신경망 등화기에서는 신경망 학습을 위한 초기값들을 설정하여 망을 학습시킨후 데이터 전송모드로 전환하게 되는데, 일반적인 RNNE에서는 학습모드 수행을 위해 최초 설정되는 다양한 초기값들에 매우 민감하게 반응하기 때문에 채널의 왜곡이 심하거나 비선형성이 강한 경우 정상적인 학습이 이루어지지 않는 문제점이 있다. 이러한 학습의 불안정성은 곧 시스템 동작의 지연을 초래하게 되며, 통신장애의 원인으로 작용할 수 있다.1 illustrates a typical Recurrent Neural Network Equalizer (RNNE) configuration. As shown in Fig. 1, the output of each node in a general recursive neural network is fed back, which in turn impairs the consistency and stability of the recurrent neural network equalizer. After setting the initial values for learning, the network is trained and then switched to the data transmission mode. In general, RNNE is very sensitive to various initial values set for performing the learning mode. If the gender is strong there is a problem that normal learning is not made. Such instability of learning may cause delays in system operation and may cause communication failure.

따라서 본 발명의 목적은 상술한 종래기술의 문제점을 해결하기 위하여 창작된 것으로, 심볼간 간섭과 비선형 왜곡이 강한 경우에도 효과적으로 신경망 학습이 이루어지도록 하여 안정된 등화 성능을 얻을 수 있는 결정 귀환 재귀 신경망 등화 장치와 그에 이용되는 학습방법을 제공함에 있다.Accordingly, an object of the present invention was created to solve the above-described problems of the prior art, and the decision feedback recursive neural network equalizer capable of obtaining stable equalization performance by effectively performing neural network learning even in case of strong inter-symbol interference and nonlinear distortion. And learning methods used therefor.

본 발명의 또 다른 목적은 적응형 등화기에 있어서 학습 단계의 적응적 조절을 통해 학습 알고리즘이 보다 빠르고 안정성 있게 수렴할 수 있는 결정 귀환 재귀 신경망 등화장치와 그에 이용되는 학습방법을 제공함에 있다.It is still another object of the present invention to provide a decision feedback recursive neural network equalizer and a learning method used therein, in which an adaptive equalizer can quickly and stably converge a learning algorithm through adaptive adjustment of a learning stage.

도 1은 일반적인 재귀 신경망(Recurrent Neural Network) 구조 예시도.1 is a diagram illustrating a general recurrent neural network structure.

도 2는 본 발명의 바람직한 실시예에 따른 시리얼 출력을 가지는 결정 귀환 재귀 신경망 구성을 도시한 블럭도.2 is a block diagram illustrating a decision feedback recursive neural network configuration having a serial output according to a preferred embodiment of the present invention.

도 3은 본 발명의 또 다른 실시예에 따른 병렬 출력을 가지는 결정 귀환 재귀 신경망 구성을 도시한 블럭도.3 is a block diagram illustrating a decision feedback recursive neural network configuration with parallel outputs in accordance with another embodiment of the present invention.

도 4는 서로 다른 학습단계(α)를 가지는 일반적인 재귀 신경망 등화기의 학습 곡선 예시도.4 is a diagram illustrating a learning curve of a general recursive neural equalizer having different learning stages (α).

도 5는 내지 도 8은 본 발명의 실시예에 따른 시리얼 출력을 가지는 결정 귀환 재귀 신경망 등화기(S-DFRNNE)와 일반적인 재귀 신경망 등화기(RNNE)의 성능 대비를 설명하기 위한 학습 곡선 예시도.5 to 8 are examples of learning curves for explaining performance comparison between a decision regression recursive neural network equalizer (S-DFRNNE) and a general recursive neural network equalizer (RNNE) having a serial output according to an embodiment of the present invention.

상기 목적을 달성하기 위한 본 발명의 바람직한 일 양상에 따른 결정 귀환 재귀 신경망 등화기는;Decision return recursive neural network equalizer according to a preferred aspect of the present invention for achieving the above object;

채널 입력신호를 지연시키기 위한 다수의 버퍼들이 하나의 라인을 형성하는 제1지연 버퍼들과;First delay buffers in which a plurality of buffers for delaying a channel input signal form a line;

상기 지연 버퍼들에서 지연된 채널 입력신호들과 결정 귀환 지연신호들 및각 노드의 귀환 출력을 입력받아 각각의 가중치와 함수연산하는 연산수단들과,Arithmetic means for receiving the channel input signals, the decision feedback delay signals, and the feedback output of each node, which are delayed in the delay buffers, and for calculating the respective weights and functions;

상기 연산수단 각각의 출력신호를 절대치로 치환하여 디지털 형태의 추정값을 산출하여 출력하는 결정기들과,Determinators for calculating and outputting an estimated value in digital form by substituting an absolute value of each output signal of the computing means;

상기 결정기들로부터 출력되는 상기 디지털 형태의 추정값을 상기 결정 귀환 지연신호로서 지연 출력하기 위한 다수의 버퍼들이 하나의 라인을 형성하는 제2지연 버퍼들과,Second delay buffers for forming a line with a plurality of buffers for delaying the digital form estimated values outputted from the determiners as the decision feedback delay signal;

상기 결정기들의 출력과 학습신호중 하나를 선택하여 상기 제2지연 버퍼로 입력하기 위한 스위칭 수단과,Switching means for selecting one of an output of the determiners and a learning signal and inputting it to the second delay buffer;

상기 노드들 각각의 출력신호와 학습신호 차이를 누적하여 상기 가중치 보정을 위한 순시 에러를 산출하는 누적기를 포함함을 특징으로 한다.And accumulating the difference between the output signal and the learning signal of each of the nodes to calculate an instantaneous error for the weight correction.

또한 본 발명의 부가적인 양상에 따른 등화기는 상기 연산수단 각각의 출력신호를 절대치로 치환하여 디지털 형태의 추정값을 산출하고 이를 상기 제2지연 버퍼들을 통해 결정 귀환 지연 신호로서 상기 연산수단들에 입력시키기 위한 제2의 결정기들과,Also, an equalizer according to an additional aspect of the present invention substitutes an absolute value of the output signal of each of the computing means to calculate an estimated value in digital form, and inputs it to the computing means as a decision feedback delay signal through the second delay buffers. Second determinants for,

상기 제2의 결정기들의 출력과 학습신호중 하나를 선택하여 상기 제2지연 버퍼로 입력하기 위한 제2스위칭 수단과,Second switching means for selecting one of an output of the second determinants and a learning signal and inputting it to the second delay buffer;

상기 노드들 각각의 출력신호와 학습신호 차이를 누적하여 상기 가중치 보정을 위한 순시 에러를 산출하는 제2누적기를 포함함을 특징으로 한다.And a second accumulator for accumulating the difference between the output signal and the learning signal of each of the nodes to calculate an instantaneous error for the weight correction.

이하 첨부 도면을 참조하여 본 발명의 실시예에 따른 결정 귀환 재귀 신경망 등화 장치의 구성 및 동작을 상세히 설명하기로 한다.Hereinafter, the configuration and operation of a decision feedback recursive neural network equalizer according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings.

도 2는 본 발명의 바람직한 실시예에 따른 시리얼 출력을 가지는 결정 귀환 재귀 신경망 등화기(S-DFRNNE)구성을 도시한 블럭도로서, 데이터의 일정 주기 단위로 채널 입력신호를 지연시키도록 탭 지연 선 구조를 가지는 제1버퍼들(10)과, 지연된 상기 채널 입력신호()들과 결정 귀환 지연신호들 및 각 노드의 귀환 출력을 입력으로 하여 함수연산하는 노드들(20)과, 노드들(20) 각각의 출력신호를 절대치로 치환하여 디지털 형태의 추정값()을 산출하여 출력하는 결정기(30)들과, 상기 결정기(30)들로부터 출력되는 상기 디지털 형태의 추정값을 결정 귀환 지연신호로서 지연 출력하는 제2버퍼(40)들과, 상기 결정기(30)들의 출력과 학습신호()중 하나를 선택하여 상기 제2버퍼(40)로 입력하기 위한 스위칭 수단(S)과, 상기 노드들(20) 각각의 출력신호()와 학습신호() 차이를 누적하여 순시 에러()를 산출하는 누적기(50)들로 구성된다.2 is a block diagram illustrating a configuration of a decision feedback recursive neural network equalizer (S-DFRNNE) having a serial output according to a preferred embodiment of the present invention. First buffers 10 having a tap delay line structure and a delayed channel input signal Nodes and the output signals of the nodes 20 and the nodes 20, which function Replace with an absolute value to estimate the digital form ( Determinants 30 for calculating and outputting?), Second buffers 40 for delaying and outputting the digital estimated values outputted from the determinators 30 as decision feedback delay signals, and the determiner 30 Output and learning signal Switching means (S) for selecting one of the inputs to the second buffer 40 and an output signal of each of the nodes 20 ) And learning signal ( ) By accumulating the difference It is composed of accumulators (50) yielding.

도 2에서 n, m 및 l은 각각 내부 노드의 수, 지연 입력의 수, 그리고 결정 귀환 지연 입력의 수로 정의한다.In FIG. 2, n, m, and l are defined as the number of internal nodes, the number of delay inputs, and the number of decision feedback delay inputs, respectively.

도 2를 참조하면, 우선 데이터 전송처리 과정에서 채널로부터 공급되는 입력신호는 탭 지연선 구조를 가지는 제1버퍼들(10)을 통과하여 데이터 주기 단위로 지연된 후 가중치와 곱해져서 n 개의 노드들(20)에 입력된다. 이와 동시에 노드들(10)의 이전 출력값은 각 결정기(30)에 의해 추정값으로 계산되어 출력된다. 이러한 추정값은 시리얼 접속된 제2버퍼들(40)을 통과하여 데이터 주기 단위로 지연된후 가중치와 곱해져서 다시 n개의 노드들(20)에 입력된다. 이에 따라 각 노드들(20)은 하기 수학식 1에 의한 값을 출력하게 된다. 하기 수학식 1은 p(p=1,2,..,n)번째 노드의 입력 가중치 합을 나타낸 것이다.Referring to FIG. 2, first, an input signal supplied from a channel in a data transmission process Is delayed in units of data periods after passing through the first buffers 10 having the tap delay line structure, multiplied by a weight, and input to the n nodes 20. At the same time, the previous output values of the nodes 10 are calculated and output by the determinants 30 as estimated values. This estimated value is passed through the serially connected second buffers 40, delayed by data period, and multiplied by a weight to be input to the n nodes 20 again. Accordingly, each node 20 outputs a value according to Equation 1 below. Equation 1 shows the sum of input weights of the p (p = 1,2, .., n) th node.

상기 수학식 1에서은 지연 입력신호를 나타낸 것이고,는 i번째 노드의 출력을,(d는 채널 지연)는 귀환 지연 신호를,는 i번째 노드로부터 p번째 노드까지의 가중치를,는 각 지연 입력신호(j=n+1, ...., n+m)로부터 p번째 노드까지의 가중치를,는 각 결정 귀환 지연 신호(h=n+m+1, ..., n+m+l)로부터 p번째 노드까지의 가중치를 나타낸 것이다. 여기서 결정 귀환 지연 신호는 학습모드에서 학습신호()에 의해 결정되고, 직접 결정 모드, 즉 데이터 전송 모드에서는 각 노드들(20)의 출력값에 따라 결정된다.In Equation 1 Is the delay input signal, Is the output of the i th node, (d is the channel delay) for the feedback delay signal, Is the weight from the i th node to the p th node, Is the weight from each delayed input signal (j = n + 1, ...., n + m) to the p-th node, Denotes the weight from each decision feedback delay signal (h = n + m + 1, ..., n + m + l) to the p-th node. The decision feedback delay signal may be a learning signal ( In the direct decision mode, that is, in the data transmission mode, the output value of each node 20 is determined.

참고적으로이면, f(x)는 하기 수학식 2와 같이 표현할 수 있고, 추정값은 하기 수학식 3과 같이 표현된다.For reference In this case, f (x) can be expressed as Equation 2 below, and the estimated value is expressed as Equation 3 below.

한편 도 3은 본 발명의 또 다른 실시예에 따른 병렬 출력을 가지는 결정 귀환 재귀 신경망 등화기(Decision Feedback Recurrent Neural Network Equalizer with Parrarel outputs:P-DFRNNE라함) 구성을 도시한 블럭도로서, 병렬 출력을 위해 각 노드들(20)이 두 개의 결정기(30,35)와 접속되어 있으며, 각각의 결정기(30,35) 역시 도 2에 도시되어 있는 바와 같이 스위칭 수단(S)의 절환에 의해 결정기(30,35) 각각의 출력을 상기 제2버퍼(40)로 귀환시킨다. 이러한 P-DFRNNE에서의 p번째 노드의 입력 가중치 합을 나타내면 하기 수학식 4와 같고, 나머지 수학식들은 상기 시리얼 출력을 가지는 DFRNNE에 기재된 수학식과 동일하다.3 is a block diagram illustrating a configuration of a decision feedback recurrent neural network equalizer with parallel outputs (P-DFRNNE) according to another embodiment of the present invention. Each node 20 is connected to two determinants 30 and 35, and each determinant 30 and 35 is also determined by switching of the switching means S as shown in FIG. 35) return each output to the second buffer 40. The sum of the input weights of the p-th node in the P-DFRNNE is shown in Equation 4 below, and the remaining equations are the same as in Equation DFRNNE having the serial output.

상기 수학식 4에서는 d+1 타임 지연된 i번째 노드의 결정 귀환 입력신호를 나타낸 것이다.In Equation 4 Denotes the decision feedback input signal of the i-th node with d + 1 time delay.

한편 재귀 신경망 등화기에서의 학습 방법은 일반적으로 노드들의 출력값을 산출하는 단계와, 순시 에러값을 산출하는 단계 및 민감도 함수를 산출하는 단계, 그리고 산출된 순시 에러값 및 민감도 함수를 이용하여 가중치를 보정하는 단계의 반복으로 이루어진다.On the other hand, a learning method in a recursive neural equalizer generally calculates output values of nodes, calculates instantaneous error values, calculates a sensitivity function, and calculates weights using the calculated instantaneous error values and sensitivity functions. It consists of a repetition of the step of correcting.

본 발명에서도 역시 상술한 두 개의 신경망 등화기 구조(S-DFRNNE, P-DFRNNE)각각에 맞게 상술한 4단계의 반복을 거쳐 가중치를 실시간으로 보정해야 하는데, 이러한 경우 실시간 재귀 학습(RTRL) 알고리즘의 수정이 가해져야 한다. 본발명에서는 학습 단계 α의 적응적 조절로 인해 학습 알고리즘이 보다 빠르고 안정성 있게 수렴할 수 있도록 함에 특징이 있는데, 이를 이하에서 보다 구체적으로 설명하기로 한다.In the present invention, the weights must be corrected in real time through the above four steps of repetition for each of the two neural network equalizer structures (S-DFRNNE, P-DFRNNE) described above. In this case, the real-time recursive learning (RTRL) algorithm Modifications must be made. In the present invention, the learning algorithm can be converged more quickly and stably due to the adaptive adjustment of the learning stage α, which will be described in more detail below.

우선 본 발명에서도 역시 단계 1로서, 노드들(20)의 출력값을 상기 수학식 1에 의해 산출한다.First, in the present invention, as step 1, the output values of the nodes 20 are calculated by the above equation (1).

그리고 단계 2로서 순시 에러값을 산출한다. h번째 뉴런의 순시 에러는 하기 수학식 5로 정의할 수 있으며, 신경망의 전체 순시 에러는 하기 수학식 6에 의해 구해질 수 있다.In step 2, the instantaneous error value is calculated. The instantaneous error of the h-th neuron may be defined by Equation 5 below, and the total instantaneous error of the neural network may be obtained by Equation 6 below.

한편 단계 3으로서, 민감도 함수를 산출한다. 이러한 민감도 함수를 산출하기 위해서는 우선적으로(Kronecker delta)를 하기 수학식 7과 같이 정의하고, 수학식 2의 도함수(수학식 8)를 구하여야 한다. 민감도 함수는 하기 수학식 9과 같이 나타낼 수 있다.On the other hand, as step 3, a sensitivity function is calculated. In order to calculate this sensitivity function, (Kronecker delta) is defined as Equation 7 below, and the derivative of Equation 2 (Equation 8) should be obtained. The sensitivity function may be expressed as in Equation 9 below.

그리고 마지막 단계로서 산출된 각각의 순시에러, 민감도 함수를 이용하여 하기 수학식 10에 의해 가중치를 보정한다.Then, each instantaneous error calculated as the last step is corrected by the following equation (10) using the sensitivity function.

상기 수학식 9와 10에서는 적응형 등화기의 학습 단계를 나타낸다. 그리고>0이며, p=1,2,..., n; i= 1,2,..., n; j = 1,2,..., n, n+1, ...., n+m, n+m+1, ...., n+m+l이다.는 도 2에 도시한 시리얼 출력을 가지는 결정 귀환 재귀 신경망 등화기의 내부 노드들(j=1,2,...,n), 외부 입력신호(j=n+1, ...., n+m) 또는 귀환 입력 신호(j=n+m+1, ...., n+m+l)의 출력을 나타내고 있다. 더욱이 모멘트 계수 u(0<u<0.001)는 상기 가중치들을 갱신하기 위해 유도된다.In Equations 9 and 10 Denotes the learning phase of the adaptive equalizer. And > 0, p = 1,2, ..., n; i = 1,2, ..., n; j = 1,2, ..., n, n + 1, ...., n + m, n + m + 1, ...., n + m + l. Is the internal nodes (j = 1, 2, ..., n) of the decision feedback recursive neural network equalizer having the serial output shown in FIG. + m) or the output of the feedback input signal (j = n + m + 1, ..., n + m + l). Moreover, the moment coefficient u (0 <u <0.001) is derived to update the weights.

병렬 출력을 가지는 결정 귀환 재귀 신경망 등화기(P-DFRNNE)에서는 1, 2, ..., n, n+1, ..., n+m, n+m+l, ..., n+m+n으로 정의되는 j를 제외하고는 상술한 S-DFRNNE에서 서술한 수학식들과 동일하다.In decision-recursive recursive neural network equalizer (P-DFRNNE) with parallel output, 1, 2, ..., n, n + 1, ..., n + m, n + m + l, ..., n + Except for j defined by m + n, the equations described in S-DFRNNE are the same.

도 4는 서로 다른 학습단계(α)를 가지는 일반적인 재귀 신경망 등화기의 학습 곡선 예시도를 도시한 것이며, 도 5는 내지 도 8은 본 발명의 실시예에 따른 시리얼 출력을 가지는 결정 귀환 재귀 신경망 등화기(S-DFRNNE)와 일반적인 재귀 신경망 등화기(RNNE)의 성능 대비를 설명하기 위한 학습 곡선 예시도를 도시한 것이다.4 is a diagram illustrating a learning curve of a general recursive neural equalizer having different learning stages α, and FIGS. 5 to 8 are decision feedback recursive neural network equalization having a serial output according to an embodiment of the present invention. An example of a learning curve for explaining the performance comparison between the S-DFRNNE and the general recursive neural network equalizer (RNNE) is shown.

우선 상기 수학식 10에 나타난 학습 단계 α는 일반적으로 알고리즘의 수렴 속도에 영향을 미친다. 도 4에 도시한 것처럼, 알고리즘의 수렴 속도는 학습단계 α의 증가와 함께 일정 범위내에서 증가한다. α가 증가할수록 알고리즘은 빠르게 수렴하지만 상대적으로 진동이 많고 불안정하다. α가 작을수록 상기 알고리즘은 느리게 수렴하고 국부적인 최소값으로 빠지게 된다.First, the learning step α shown in Equation 10 generally affects the convergence speed of the algorithm. As shown in Fig. 4, the convergence speed of the algorithm increases within a certain range with the increase of the learning stage α. As α increases, the algorithm converges quickly but is relatively oscillating and unstable. The smaller α is, the more slowly the algorithm converges and falls to a local minimum.

따라서 학습단계인 α를 적절하게 선택하는 것이 등화기의 수렴속도를 향상시키기 위한 하나의 방법이다. 이를 위해 본 발명에서는 매 반복후에 학습단계 α를 계속적으로 조절함으로서, 학습 알고리즘이 국부적인 최소값을 스킵 아웃하도록 하여 수렴 처리속도의 향상을 기하였으며, 알고리즘의 불안정성을 해소하도록 하였다.Therefore, the proper selection of the learning phase α is one way to improve the convergence speed of the equalizer. To this end, in the present invention, by continuously adjusting the learning step α after every iteration, the learning algorithm skips the local minimum value to improve the convergence processing speed and solve the algorithm instability.

우선 시스템의 총 에러 En을과 같다고 정의한다. 그리고 α를 적응적으로 조절하기 위해 지수함수를 사용한다. 이러한 함수는 독립변수로서 En으로 간주하고,로 설정한다. 그러면 학습 알고리즘은 학습의 반복처리과정중에 학습 단계 α를 적응적으로 조절할 것이다. 만약 전체 에러가 크면 α는 감소할 것이고, 전체 에러가 작으면 α는 증가할 것이다. 따라서전체 에러는 반복의 증가에도 불구하고 작아질 것이며, α는 점차적으로 소정(certain) 레벨을 유지하게 될 것이다.First of all the total error in the system It is defined as And we use exponential function to adjust α adaptively. These functions are considered En as an independent variable , Set to. The learning algorithm will then adaptively adjust the learning phase α during the iterative process of learning. If the total error is large, α will decrease; if the total error is small, α will increase. Thus, the overall error will be small despite the increase in repetition, and α will gradually maintain a certain level.

이하 동일 조건하에서의 일반적인 재귀 신경망 등화기(RNNE)와 본 발명의 실시예에 따른 시리얼 출력을 가지는 결정 귀환 재귀 신경망 등화기(S-DFRNNE)의 시뮬레이션 결과를 설명하면,Hereinafter, a simulation result of a general recursive neural network equalizer (RNNE) and a decision feedback recursive neural network equalizer (S-DFRNNE) having a serial output according to an embodiment of the present invention will be described.

우선 초기 가중치, 초기 민감도와 각 노드의 초기 출력과 동일한 혹은 이 보다 작은 절대치를 가지는 랜덤 넘버들이라 하고, 일반적인 RNNE와 S-DFRNNE의 파라미터들을 각각 m=2, n=1, α=0.5 이고, m=2, n=1, l=3,= 0.5이라 하면, 서로 다른 왜곡 채널에 따라 두 그룹의 학습곡선이 얻어진다.First weight , Initial sensitivity And the initial output of each node Is These are random numbers with absolute values equal to or less than, and the general RNNE and S-DFRNNE parameters are m = 2, n = 1, α = 0.5, and m = 2, n = 1, l = 3, = 0.5, two groups of learning curves are obtained according to different distortion channels.

도 5(학습커브)에서 왜곡 채널은 LCH, SNR = 16dB이다. 도 6(LCH + NLCH 학습 곡선)에서 왜곡 채널은 NLCH와 종속접속된 LCH이고 SNR = 18dB이다. 도 5에 따르면, S-DFRNNE는 약 -30dB에 수렴하는 반면, RNNE는 보다 큰 진동을 수반하며 약 -10dB에 수렴한다. 도 6에 따르면 S-DFRNNE는 약 -30dB에 수렴하고, RNNE는 수렴하지 못하고 있다. 간단히 말하여, S-DFRNNE는 일반적인 RNNE에 비하여 보다 우수한 학습 성능을 가짐을 알 수 있다.In Figure 5 (learning curve), the distortion channel is LCH, SNR = 16 dB. In FIG. 6 (LCH + NLCH learning curve), the distortion channel is LCH cascaded with NLCH and SNR = 18 dB. According to FIG. 5, S-DFRNNE converges at about -30 dB, while RNNE carries greater vibration and converges at about -10 dB. According to FIG. 6, the S-DFRNNE converges at about −30 dB, and the RNNE does not converge. In short, it can be seen that S-DFRNNE has better learning performance than general RNNE.

이하 비트 에러율(BER)을 비교해 보면, 우선 상술한 왜곡 채널에 대해서 도 7 및 도 8에 도시한 바와 같은 두개의 BER 곡선을 얻을 수 있다. 이러한 곡선들에 따르면, S-DFRNNE의 성능이 RNNE 성능보다 우수하다는 것을 알 수 있다. 시뮬레이션 처리과정중에 두 개의 주어진 왜곡 채널들에 대하여 RNNE의 BER에는 항상 불일치가 나타나고 있으며 어떠한 진동을 수반한다는 것을 알 수 있었다. 그리고 BER 성능들은 SNR의 증가와 함께 감소하는데, 이것은 채널 등화에 적용되는 RNNE의 결점인 반면, S-DFRNNE는 상기 결점을 보완하며 일관성있는 BER을 나타낸 다는 것을 확인할 수 있었다.Comparing the bit error rate BER below, two BER curves as shown in FIGS. 7 and 8 can be obtained for the above-described distortion channel. According to these curves, it can be seen that the performance of the S-DFRNNE is superior to the RNNE performance. During the simulation process, it was found that for two given distortion channels, the BER of RNNE always showed inconsistencies and was accompanied by some vibration. And BER performances decrease with increasing SNR, which is a drawback of RNNE applied to channel equalization, while S-DFRNNE compensates for the drawback and shows consistent BER.

결론적으로 본 발명은 적응형 학습 단계 α를 매 반복후마다 지수함수를 사용하여 가변시킴으로서, 심각한 심볼간 간섭과 비선형 왜곡이 강하더라도 신경망 학습이 안정적이고도 신속하게 이루어지도록 함으로서, 결과적으로 안정된 등화 성능을 얻을 수 있게 되는 것이다.In conclusion, the present invention uses the exponential function to vary the adaptive learning phase α after every iteration, so that neural network learning can be performed stably and quickly even with severe intersymbol interference and nonlinear distortion, resulting in stable equalization performance. You will get it.

상술한 바와 같이 본 발명은 학습 단계 α를 신경망 학습을 위한 반복시마다 순시 에러의 지수함수()에 비례하여 가변시킴으로서, 심각한 심볼간 간섭과 비선형 왜곡이 강하더라도 신경망 학습이 안정적이고도 신속하게 이루어지도록 하여 정상적인 통신이 이루어지도록 하는 효과가 있다. 또한 본 발명은 병렬 출력을 가지는 결정 귀환 재귀 신경망 등화기를 제공함으로써, 재귀 신경망 등화기 구조의 호환성을 향상시켜 주는 효과도 있다.As described above, the present invention provides an exponential function of instantaneous error for each iteration for learning the neural network. By varying in proportion to), even if severe intersymbol interference and nonlinear distortion are strong, neural network learning can be performed stably and quickly so that normal communication can be achieved. In addition, the present invention also has an effect of improving the compatibility of the structure of the recursive neural equalizer by providing a decision feedback recursive neural network equalizer having a parallel output.

한편 본 발명은 도면에 도시된 실시예들을 참고로 설명 되었으나 이는 예시적인 것에 불과하며, 당해 기술분야에 통상의 지식을 지닌자라면 이로부터 다양한 변형 및 균등한 타실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호범위는 첨부된 특허청구범위에 의해서만 정해져야 할 것이다.On the other hand, the present invention has been described with reference to the embodiments shown in the drawings, which are merely exemplary, and those skilled in the art will understand that various modifications and equivalent other embodiments are possible therefrom. Therefore, the true technical protection scope of the present invention should be defined only by the appended claims.

Claims (6)

결정 귀환 재귀 신경망 등화 장치에 있어서,In the crystal feedback recursive neural network equalizer, 채널 입력신호를 지연시키기 위한 다수의 버퍼들이 하나의 라인을 형성하는 제1지연 버퍼들과;First delay buffers in which a plurality of buffers for delaying a channel input signal form a line; 상기 지연 버퍼들에서 지연된 채널 입력신호들과 결정 귀환 지연신호들 및 각 노드의 귀환 출력을 입력받아 각각의 가중치와 함수연산하는 연산수단들과;Arithmetic means for receiving the channel input signals, the decision feedback delay signals and the feedback output of each node, which are delayed in the delay buffers, and for calculating the respective weights and functions; 상기 연산수단 각각의 출력신호를 절대치로 치환하여 디지털 형태의 추정값을 산출하여 출력하는 결정기들과;Determinators for calculating and outputting an estimated value in digital form by substituting an absolute value of the output signal of each computing means; 상기 결정기들로부터 출력되는 상기 디지털 형태의 추정값을 상기 결정 귀환 지연신호로서 지연 출력하기 위한 다수의 버퍼들이 하나의 라인을 형성하는 제2지연 버퍼들과;Second delay buffers for forming a line with a plurality of buffers for delaying the digital form estimated values output from the decision units as the decision feedback delay signal; 상기 결정기들의 출력과 학습신호중 하나를 선택하여 상기 제2지연 버퍼로 입력하기 위한 스위칭 수단과;Switching means for selecting one of an output of said determiners and a learning signal and inputting it to said second delay buffer; 상기 노드들 각각의 출력신호와 학습신호 차이를 누적하여 상기 가중치 보정을 위한 순시 에러를 산출하는 누적기;를 포함함을 특징으로 하는 결정 귀환 재귀 신경망 등화기.And an accumulator for accumulating the difference between the output signal and the learning signal of each of the nodes and calculating an instantaneous error for the weight correction. 청구항 1에 있어서, 상기 연산수단의 출력은 하기 수학식 11에 따라 계산된 값을 가짐을 특징으로 하는 결정 귀환 재귀 신경망 등화기.The decision feedback recursive neural network equalizer of claim 1, wherein the output of the computing means has a value calculated according to Equation 11 below. 은 지연 입력신호. Is a delayed input signal. 는 i번째 노드의 출력. Is the output of the i node. (d는 채널 지연)는 귀환 지연 신호 (d is the channel delay) is the feedback delay signal 는 i번째 노드로부터 p번째 노드까지의 가중치 Is the weight from the i th node to the p th node 는 각 지연 입력신호(j=n+1, ...., n+m)로부터 p번째 노드까지의 가중치 Is a weight from each delayed input signal (j = n + 1, ...., n + m) to the p th node. 는 각 결정 귀환 지연 신호(h=n+m+1, ..., n+m+l)로부터 p번째 노드까지의 가중치 Is the weight from each decision feedback delay signal (h = n + m + 1, ..., n + m + l) to the pth node. 청구항 1에 있어서, 상기 연산수단 각각의 출력신호를 절대치로 치환하여 디지털 형태의 추정값을 산출하고 이를 상기 제2지연 버퍼들을 통해 결정 귀환 지연 신호로서 상기 연산수단들에 입력시키기 위한 제2의 결정기들과;The apparatus of claim 1, further comprising: second determinators for substituting an absolute value of an output signal of each of the computing means to calculate an estimated value in digital form and inputting the estimated value to the computing means as a decision feedback delay signal through the second delay buffers. and; 상기 제2의 결정기들의 출력과 학습신호중 하나를 선택하여 상기 제2지연 버퍼로 입력하기 위한 제2스위칭 수단과;Second switching means for selecting one of an output of said second determiners and a learning signal and inputting it to said second delay buffer; 상기 노드들 각각의 출력신호와 학습신호 차이를 누적하여 상기 가중치 보정을 위한 순시 에러를 산출하는 제2누적기;를 더 포함함을 특징으로 하는 결정 귀환 재귀 신경망 등화기.And a second accumulator for accumulating the difference between the output signal and the learning signal of each of the nodes and calculating an instantaneous error for the weight correction. 청구항 3에 있어서, 상기 연산수단의 출력은 하기 수학식 12에 따라 계산된 값을 가짐을 특징으로 하는 결정 귀환 재귀 신경망 등화기.4. The decision feedback recursive neural network equalizer of claim 3, wherein the output of the computing means has a value calculated according to Equation 12 below. 는 d+1 타임 지연된 i번째 노드의 결정 귀환 입력신호 Is the decision feedback input signal of the i-th node with d + 1 time delay. 결정 귀환 재귀 신경망 등화기의 신경망 학습방법에 있어서,In the neural network learning method of the decision feedback recursive neural network equalizer, 채널 지연된 입력신호들과 출력단의 결정 귀환 지연신호들 및 각 노드의 귀환 출력을 입력받아 가중치와 함수연산하여 출력하는 제1단계와,A first step of receiving the channel-delayed input signals, the decision feedback delay signals of the output terminal, and the feedback output of each node, and outputting the result by performing a weight and a function operation; 상기 가중치 보정을 위해 필요한 각 노드의 순시 에러를 산출하는 제2단계와;Calculating an instantaneous error of each node necessary for the weight correction; 하기 수학식 13에 기초하여 민감도 함수를 산출하는 제3단계와;Calculating a sensitivity function based on Equation 13 below; 상기 산출된 순시 에러값 및 민감도 함수를 이용하여 하기 수학식 14에 기초하여 가중치를 산출하고 이를 상기 제1단계의 가중치로 보정하는 제4단계로 이루어짐을 특징으로 하는 결정 귀환 재귀 신경망 등화기의 신경망 학습방법.The neural network of the decision feedback recursive neural equalizer, comprising the fourth step of calculating a weight based on Equation 14 using the calculated instantaneous error value and the sensitivity function and correcting the weight based on the weight of the first step. Learning method. , , 모멘트 인자 u : 0 <u<0.001Moment factor u: 0 <u <0.001 각 노드의 순시 에러 : Instantaneous error on each node: 학습 신호 : Learning signal: 청구항 5에 있어서, 상기 제4단계의 학습 단계 α는 신경망 학습을 위한 반복시마다 상기 하기 수학식 15에 기초하여 산출된 값만큼 가변시킴을 특징으로 하는 결정 귀환 재귀 신경망 등화기의 신경망 학습방법.The method according to claim 5, wherein the learning step α of the fourth step is varied by a value calculated based on Equation 15 at every iteration for neural network learning. , En은 신경망 전체 순시 에러. , En is the neural network full instantaneous error.
KR1020010024732A 2001-05-07 2001-05-07 Decision feedback recurrent neural network equalizer and learning method for the equalizer KR20020085302A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020010024732A KR20020085302A (en) 2001-05-07 2001-05-07 Decision feedback recurrent neural network equalizer and learning method for the equalizer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020010024732A KR20020085302A (en) 2001-05-07 2001-05-07 Decision feedback recurrent neural network equalizer and learning method for the equalizer

Publications (1)

Publication Number Publication Date
KR20020085302A true KR20020085302A (en) 2002-11-16

Family

ID=27703953

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020010024732A KR20020085302A (en) 2001-05-07 2001-05-07 Decision feedback recurrent neural network equalizer and learning method for the equalizer

Country Status (1)

Country Link
KR (1) KR20020085302A (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1991017607A1 (en) * 1990-05-01 1991-11-14 Dancall Radio A/S A method of equalization in a receiver of signals having passed a transmission channel
US5268930A (en) * 1991-12-19 1993-12-07 Novatel Communications Ltd. Decision feedback equalizer
US5432794A (en) * 1991-01-29 1995-07-11 Canon Kabushiki Kaisha Automatic Equalizer
KR19980064798A (en) * 1996-12-30 1998-10-07 배순훈 Adaptive equalizer
US5828701A (en) * 1995-04-24 1998-10-27 Nokia Technology Gmbh Method and circuit arrangement for compensating for delayed components in transmission signal
KR100262961B1 (en) * 1998-01-21 2000-08-01 구자홍 Equalization Apparatus and Method Using Decision Feedback Recursive Neural Network
KR100285436B1 (en) * 1998-12-31 2001-04-02 김덕중 Adaptive equalizer

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1991017607A1 (en) * 1990-05-01 1991-11-14 Dancall Radio A/S A method of equalization in a receiver of signals having passed a transmission channel
US5432794A (en) * 1991-01-29 1995-07-11 Canon Kabushiki Kaisha Automatic Equalizer
US5268930A (en) * 1991-12-19 1993-12-07 Novatel Communications Ltd. Decision feedback equalizer
US5828701A (en) * 1995-04-24 1998-10-27 Nokia Technology Gmbh Method and circuit arrangement for compensating for delayed components in transmission signal
KR19980064798A (en) * 1996-12-30 1998-10-07 배순훈 Adaptive equalizer
KR100262961B1 (en) * 1998-01-21 2000-08-01 구자홍 Equalization Apparatus and Method Using Decision Feedback Recursive Neural Network
KR100285436B1 (en) * 1998-12-31 2001-04-02 김덕중 Adaptive equalizer

Similar Documents

Publication Publication Date Title
US5068873A (en) Equalizer
US6483872B2 (en) Method and apparatus for reducing convergence time
US5175747A (en) Equalizer
US7120193B2 (en) Decision feedback equalizer with dynamic feedback control
US6314135B1 (en) Method and apparatus for updating precoder coefficients in a data communication transmitter
US4633482A (en) Method of and arrangement for determining the optimum position of the reference tap of an adaptive equalizer
US5282225A (en) Adaptive blind channel equalizer system
JP4462946B2 (en) Method and system for processing sample signals
KR0134340B1 (en) Algorithm control method of blind equalization system
CN108292512A (en) The pipeline-type multiplexer ring stand structure of decision feedback equalization circuit
JP4524119B2 (en) Signal processing method and system using vector output from scalar data
JPH0411406A (en) Equalizer
KR100340178B1 (en) equalizer with Decision Feedback Equalizer structure
KR20020020960A (en) Channel equalizer
KR100282071B1 (en) Rotation prediction adaptive filter
CN113408726A (en) Method for designing complex value neural network channel equalizer based on AP-NAG algorithm
JP2004064681A (en) Adaptive filter
KR20020085302A (en) Decision feedback recurrent neural network equalizer and learning method for the equalizer
He et al. Blind equalization of nonlinear communication channels using recurrent wavelet neural networks
CN112600774B (en) Equalizer of high-speed interface circuit and control method thereof
WO2012092890A2 (en) Adaptive equalization method and adaptive equalizer
KR0172928B1 (en) High speed adaptive channel equalizer
KR100227804B1 (en) Tap coefficient updating method of channel equalizer and its appratus using variable adaptive constant
JP2986488B2 (en) Equalizer
JPH03145827A (en) Equalizer

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
NORF Unpaid initial registration fee