KR100361168B1 - Neural network model with node-expansion learning - Google Patents

Neural network model with node-expansion learning Download PDF

Info

Publication number
KR100361168B1
KR100361168B1 KR1020000000386A KR20000000386A KR100361168B1 KR 100361168 B1 KR100361168 B1 KR 100361168B1 KR 1020000000386 A KR1020000000386 A KR 1020000000386A KR 20000000386 A KR20000000386 A KR 20000000386A KR 100361168 B1 KR100361168 B1 KR 100361168B1
Authority
KR
South Korea
Prior art keywords
learning
node
vector
representative
nodes
Prior art date
Application number
KR1020000000386A
Other languages
Korean (ko)
Other versions
KR20010068459A (en
Inventor
이병래
Original Assignee
이병래
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이병래 filed Critical 이병래
Priority to KR1020000000386A priority Critical patent/KR100361168B1/en
Publication of KR20010068459A publication Critical patent/KR20010068459A/en
Application granted granted Critical
Publication of KR100361168B1 publication Critical patent/KR100361168B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Character Discrimination (AREA)

Abstract

본 발명은패턴인식에 사용되는 노드 확장 학습 신경망 모델 형성 및 학습방법에 관한 것이다. The present invention relates to a node extended learning neural network model formation and learning method used for pattern recognition.

본 발명은 다차원 초평면 특징공간상에서 복잡한 군집 형태를 갖는 패턴 클래스들에 속하는 표본 벡터의 집합을 이용하여 적절한 결정경계를 형성하기 위해서필요한 여러 개의 은닉층 노드 즉, 내부단 노드의 수를 고정시키지 않고 필요에 따라 노드를 생성 및 소멸시킴으로써, 적절한 규모의 신경회로망을 구성하도록 한다.The present invention utilizes a set of sample vectors belonging to pattern classes with complex cluster shapes in a multidimensional hyperplanar feature space, and does not fix the number of hidden layer nodes, that is, inner node nodes, which are necessary to form an appropriate crystal boundary. By creating and destroying nodes accordingly, we construct neural networks of appropriate scale.

이를 위해, 각각의 내부단 노드들은 패턴 공간상에서 군집들을 대표하는 대표벡터를 형성하게 된다. 생성된 노드들과 유사한 표본벡터가 많이 존재할 경우에는 그 노드의 학습 강도를 강화시킨다. 반면 타 클래스에 속하는 표본벡터가 인접한 위치에 많이 존재하면 그 노드의 학습 강도를 약화시키며, 적정 수준 이하로 학습 강도가 떨어지면 노드를 소멸시킨다.To this end, each inner end node forms a representative vector representing clusters in the pattern space. If there are many sample vectors similar to the generated nodes, the learning strength of the nodes is enhanced. On the other hand, if there are many sample vectors belonging to other classes in the adjacent position, the learning strength of the node is weakened. If the learning strength drops below a proper level, the node is destroyed.

이러한 본 발명에 따르면, 학습시 표본벡터 집합에 따라 필요한 은닉층 노드의 수를 적절히 제어하며, 각 노드의 학습율을 동적으로 제어할 수 있다. According to the present invention, it is possible to appropriately control the number of hidden layer nodes required according to a set of sample vectors during learning, and to dynamically control the learning rate of each node .

Description

노드 확장 학습 신경망 모델 형성 및 학습방법 {Neural network model with node-expansion learning}Node extension learning neural network model formation and learning method {Neural network model with node-expansion learning}

본 발명은 인공신경회로망(artificial neural network; 이하 신경망으로 부름) 모델 및 그 학습 방법에 관한 것으로,구체적으로 노드 확장 학습 신경망 모델 형성 및 학습방법에 관한 것이다.신경망은 생물체의 인지 과정을 모델링함으로써 기존 방법들에서 겪어온 지능적 처리의 어려움을 극복하고자 하는 시도이다. 신경망 모델은 패턴분류 및 인식, 신호처리, 부호화 등 다양한 분야에서 활용이 되고 있다.The present invention relates to an artificial neural network (hereinafter referred to as a neural network) model and a learning method thereof, and more particularly, to a method for forming and learning a node extended learning neural network model. Neural networks attempt to overcome the difficulties of intelligent processing experienced by existing methods by modeling the cognitive processes of living organisms. Neural network models are used in various fields such as pattern classification and recognition, signal processing, and coding.

특히, 정해진 범주의 패턴을 분류 및 인식하기 위한 신경망 모델로 대표적인 것은 다층 퍼셉트론의 학습 모델인 BP(back propagation)와 경쟁학습 모델인 Kohonen의 Self-Organizing Feature Map, RCE 모델 등이 있다.In particular, the neural network model for classifying and recognizing patterns of a predetermined category includes BP (back propagation), which is a learning model of multilayer perceptron, and Kohonen's Self-Organizing Feature Map, RCE model, which is a competitive learning model.

BP는 다층 피드포워드 퍼셉트론(perceptron)의출력과 원하는 출력의 평균자승오차(mean square error)를 최소화하기 위해 반복적으로 델타룰(delta rule)을 적용한다. BP로 학습된 다층 퍼셉트론은 층수에 따라 판별해 낼 수 있는 결정영역의 형태가 다른데, 2층 구조일 경우 전형적인 볼록(convex) 영역, 3층 구조일 경우에는 임의 형태의 결정영역을 학습할 수 있다. BP 알고리즘은 신호처리, 패턴인식 등 여러 분야에서 성공적으로 학습이 이루어짐으로써 그 성능을 인정받고 있다.그러나 클래스의 수가 많고 결정 영역의 형태가 복잡해질 경우 필요한 내부노드의 수를 결정하기 어렵고, 연결가중치 값의 수렴이 어려워지는 문제가 있다. 또한 이미 학습된 신경망에 새로운 패턴만을 추가로 학습시키면 과거에 학습되었던 내용을 잃어버릴 수 있으므로 모든 패턴을 한꺼번에 다시 학습시켜야 하는 문제가 있다.BP repeatedly applies delta rules to minimize the mean square error of the output of the multi-layer feedforward perceptron and the desired output. Multilayered perceptrons learned by BP have different types of crystal regions that can be distinguished according to the number of layers. In the case of a two-layer structure, a typical convex region can be studied. . The BP algorithm has been recognized for its successful learning in various fields such as signal processing and pattern recognition, but it is difficult to determine the number of internal nodes required when the number of classes and the complexity of decision domains are complicated. There is a problem that it is difficult to converge values. In addition, if a new pattern is added to the already learned neural network, the previously learned content may be lost, so there is a problem that all the patterns must be re-learned at once.

Self-Organizing Feature은 입력 신호를 근사화 하기 위해 전체 양자화 오차를 최소화하도록 각 노드의 대표벡터를 결정한다. 그런데 패턴 인식기에서는 입력된 신호를 유한한 개수의 클래스로 분류하며, 이 때 대표벡터들은 각각의 클래스를 잘 표현할 수 있도록 하는 것이 중요하다. 또한 학습시에 각각의 표본신호가 어떤 클래스에 해당되는가, 즉 원하는 출력을 지정해 주는 지도학습을 하는 것이 요구된다. 이를 위해 Kohonen이 제시한 것이 지도학습 LVQ(learning vector quantizer)이다.The Self-Organizing Feature determines the representative vector of each node to minimize the total quantization error to approximate the input signal. However, the pattern recognizer classifies the input signal into a finite number of classes, and it is important for the representative vectors to represent each class well. In addition, it is required to conduct supervised learning in which class each sample signal corresponds to, namely, the desired output. Kohonen's suggestion for this is a teaching-learning vector quantizer (LVQ).

LVQ에서는 학습 벡터의 집합을 대표하는 정해진 개수의 대표 벡터를 학습시킨다. 각각의 학습벡터 x에 대하여 대표 벡터들을 학습시키는 과정은 다음과 같다. 우선x와 가장 근사하게 정합되는 대표 벡터 mc를 찾는다. 만일 mc가 학습벡터 x와 같은 클래스일 경우 이를 (식1)에 의해 조정한다.In LVQ, a predetermined number of representative vectors representing a set of learning vectors are trained. The process of learning the representative vectors for each learning vector x is as follows. First find the representative vector m c that most closely matches x. If m c is the same class as the learning vector x, adjust it by (Equation 1).

반면 mc가 학습벡터 x와 다른 클래스일 경우 이를 (식2)에 의해 조정한다.On the other hand, if m c is a different class from the learning vector x, this is adjusted by (2).

여기서 t는 시간축이며, a(t)는 대표벡터를 학습벡터 방향 또는 반대 방향으로 이동시키는 양을 조절하는 값으로 학습율이라 할 수 있다. 0 < a(t) < 1이며, t에 따라 단조 감소하도록 한다. 그런데 주어진 학습 데이터로 학습시키기 위해 필요한 대표벡터의 수는 표본 군집의 형태에 따라 다르다. 만일 클래스의 수가 많고 특징공간상의 클래스 형태가 단순하지 않을 경우 적절한 결정경계를 형성하기 위해 필요한 대표벡터의 개수를 예상하기가 어려우며, 따라서 효율적인 신경망을 구성하기 위해 많은 시행착오를 거쳐야 한다. 따라서 클래스의 형태에 적응적으로 대처하여 능동적으로 대표벡터를 형성할 수 있고, 빠른 학습시간을 갖는 모델이 요구된다.Here, t is the time axis, and a (t) is a value that adjusts the amount of shifting the representative vector in the learning vector direction or the opposite direction. 0 <a (t) <1 and decrease monotonically with t. However, the number of representative vectors required to train with a given learning data depends on the type of sample cluster. If the number of classes is large and the class shape in the feature space is not simple, it is difficult to estimate the number of representative vectors needed to form an appropriate decision boundary. Therefore, a lot of trial and error are required to construct an efficient neural network. Accordingly, a model having a fast learning time and a representative vector can be actively formed by adaptively coping with the form of the class.

그러므로, 본 발명이 이루고자 하는 기술적 과제는 패턴 분류 및 인식에 유용하게 사용될 수 있는 신경망 모델을 형성하고 학습하는 방법을 제공하고자 하는데 있다.Therefore, an object of the present invention is to provide a method for forming and learning neural network model that can be usefully used for pattern classification and recognition. 본 발명에 따라 형성되는 모델은 다양한 형태의 패턴 클래스에 대한 적응성을 갖는 신경망 모델로서 다음과 같은 특성을 갖는다.The model formed according to the present invention is a neural network model having adaptability to various types of pattern classes and has the following characteristics.

① 학습에 소요되는 수렴 시간이 짧고, 수렴이 보장되어야 한다.① Convergence time required for learning is short, and convergence must be guaranteed.

② 특징공간 상에서 각 클래스가 형성하는 군집의 형태를 잘 나타내기 위해 필요한 내부단 노드의 수를 미리 알 수 없으므로, 학습 데이터에 따라 필요한 만큼 내부단 노드가 자기 조직적으로 생성되어야 한다. 즉, 실제 응용분야의 패턴들은 특징공간 상에서 분포 형태가 단순하게 구성되는 경우는 극히 드물고, 형태를 예측하기 어려우므로 표본 패턴에 따라 내부단 노드를 형성하는 능력이 필요하다.② Since the number of inner-end nodes needed to represent the cluster type formed by each class in the feature space cannot be known in advance, the inner-end nodes should be self-organized as needed according to the training data. That is, the patterns of the actual application field are extremely rare in the distribution form in the feature space, and since the patterns are difficult to predict, the ability to form inner node according to the sample pattern is required.

③ 클래스들을 구분하는 결정경계가 보다 정확히 형성되어야 한다.③ The decision boundary to classify should be formed more accurately.

도 1 : 본 발명의 신경망 구조도1: Neural network structure diagram of the present invention

도 2 : 학습강도의 조정 과정을 나타내는 개념도2 is a conceptual diagram showing a process of adjusting learning intensity

도 3 : 학습강도의 조정량을 구하는 과정의 개념도3 is a conceptual diagram of a process of obtaining an adjustment amount of learning intensity

도 4 : 표본벡터에 의해 대표벡터를 학습하는 과정의 개념도4: Conceptual diagram of the process of learning the representative vector by the sample vector

본 발명에서 제안하는 신경망 모델은 LVQ(learning vector quantizer) 모델에 기반을 두고 있다. 그러나 LVQ 모델과는 달리 학습시키고자 하는 군집의 형태에 따라 적절한 개수의 대표벡터를 형성할 수 있도록 하며, 이 때 생성된 대표벡터의 위치가 얼마나 확실한가에 따라 적응적인 학습율 조정을 할 수 있도록 한다.The neural network model proposed in the present invention is based on a learning vector quantizer (LVQ) model. Unlike the LVQ model, however, it is possible to form an appropriate number of representative vectors according to the type of cluster to be trained, and to adjust the adaptive learning rate according to how sure the position of the generated representative vectors is.

본 발명에서 제안하는 신경망의 구조는 도 1과 같다. 각각의 내부단 노드는 모든 입력단과 연결되어 하나의 대표벡터를 형성한다. 하나의 대표벡터는 하나의 내부단 노드와 입력노드들간의 연결 가중치라 할 수 있다. 각각의 내부단 노드들은 활성영역이 있어서, 입력된 학습벡터가 자기의 활성영역에 속할 경우에만 동작한다. 학습벡터가 내부노드의 활성영역에 속하는지 여부는 학습벡터와 내부노드가 표현하는 대표벡터 사이의 거리를 계산하여 그 거리가 정해진 값 이내인가를 기준으로 판단한다. 학습벡터 x와 대표벡터 m 사이의 거리D(x, m)은 (식3)의 유클리드 거리를 사용하여 계산한다.The structure of the neural network proposed in the present invention is shown in FIG. 1. Each inner end node is connected to all input terminals to form a representative vector. One representative vector may be referred to as a connection weight between one inner end node and input nodes. Each inner-end node has an active region, and operates only when the input learning vector belongs to its active region. Whether the learning vector belongs to the active region of the inner node is determined based on the calculation of the distance between the learning vector and the representative vector represented by the inner node. The distance D (x, m) between the learning vector x and the representative vector m is calculated using the Euclidean distance of (3).

학습시 어떠한 내부노드의 활성영역에 그 내부노드와 동일 클래스에 속하는 학습벡터가 입력되면 내부노드는 양의 자극을 받아 강화된다. 이때 강화되는 정도는 학습벡터가 내부노드에 가까울수록 크다. 반대로 어떠한 내부노드의 활성영역에 그 내부노드와 다른 클래스에 속하는 학습벡터가 입력되면 음의 자극을 받아 그 내부노드는 약화된다. 도 2에서 클래스A에 속하는 표본벡터 xA가 입력되었을 경우 노드A에는 양의 자극이 가해지고, 노드B와 C에는 음의 자극이 가해진다. 이와 같이 변화하는 내부노드의 강도를 본 발명에서는 학습강도라고 정의하였다. 학습강도가 클수록 그 노드가 표현하는 대표벡터의 위치는 확실한 것으로 보며, 따라서 학습과정 중 학습벡터에 의해 이동하는 양을 적게 한다. 반면 학습강도가 작을수록 그 내부노드는 불확실한 것으로 볼 수 있으며, 따라서 학습벡터에 의해 대표벡터를 수정해야 할 경우 이동 거리가 커진다.During learning, if a learning vector belonging to the same class as the inner node is input to the active region of any inner node, the inner node is reinforced by positive stimulation. At this time, the degree of reinforcement is larger as the learning vector is closer to the internal node. On the contrary, when a learning vector belonging to a class different from that of the internal node is input to the active region of the internal node, the internal node is weakened by receiving a negative stimulus. In FIG. 2, when a sample vector x A belonging to class A is input, a positive stimulus is applied to node A, and a negative stimulus is applied to nodes B and C. FIG. The strength of the internal node thus changed is defined as learning strength in the present invention. The greater the learning intensity, the more obvious the position of the representative vector represented by the node. Therefore, the less the amount of movement by the learning vector during the learning process is. On the other hand, as the learning intensity is smaller, the internal node may be regarded as uncertain, and thus the moving distance increases when the representative vector needs to be modified by the learning vector.

내부노드ni의 학습강도Ci는 (식4) 및 (식5)를 이용하여 조정한다. (식4)는 내부노드가 양의 자극을 받았을 경우, (식5)는 음의 자극을 받았을 경우이다. α는 활성영역의 반경이다. 도 3은 표본벡터에 의해 변화하게 되는 학습강도를 나타내는 그림으로, 하나의 표본벡터는 1의 강도를 갖고, 중심점에서 멀어질수록 그 강도가 1/α의 기울기로 감소한다고 본 것이다.The learning intensity Ci of the internal node ni is adjusted by using Equations 4 and 5. (Equation 4) is when the internal node is positively stimulated, and (Eq. 5) is negatively stimulated. α is the radius of the active area. FIG. 3 is a diagram showing the learning intensity changed by the sample vector. One sample vector has an intensity of 1, and as the distance from the center point decreases, the intensity decreases with a slope of 1 / α.

내부단 노드들은 학습 강도에 따라 활동메모리와 대기메모리의 두 부류로 나뉜다. 활동메모리의 노드들은 학습 중 충분한 양의 자극을 받은 노드들, 즉 학습강도가 일정 임계치 이상인 것다. 반면 대기메모리의 노드들은 학습 과정에서 음의 자극을 많이 받아 학습강도가 임계치 이하로 약화된 노드들이다. 대기메모리의 노드들은 학습과정에는 참여하지만 실제로 인식을 할 때에는 동작하지 않으며, 따라서 결정경계의 형성에 영향을 미치지 못한다.Internal nodes are divided into two classes, active memory and standby memory, depending on the learning intensity. The nodes of the active memory are nodes that are stimulated with sufficient amount of learning, that is, the learning intensity is above a certain threshold. On the other hand, the nodes in the standby memory are nodes whose learning intensity is lowered below the threshold due to a lot of negative stimuli in the learning process. Nodes in the standby memory participate in the learning process but do not work when they are actually aware, and thus do not affect the formation of the decision boundary.

하나의 학습벡터가 제시되어 학습강도의 조정을 마치고 나면 대표벡터들의 위치 학습을 실시한다. 학습은 지도학습으로 이루어지며, 이때 학습벡터 x의 위치에 따라 다음과 같이 대표벡터를 조정한다.After a learning vector is presented and the adjustment of the learning intensity is completed, the position learning of the representative vectors is performed. Learning consists of supervised learning, where the representative vector is adjusted as follows according to the position of the learning vector x.

① 활성화된 내부노드가 없을 경우 : 새로운 노드를 생성한다. 학습강도의 초기값은 1이다.① If no internal node is active: Create a new node. The initial value of the learning intensity is 1.

② 학습벡터와 같은 클래스에 속하는 내부노드ni만 활성화된 경우 : 최소거리 내부 노드의 대표벡터를 (식6)에 의해 조정한다. (식6)에서 βi는 대표벡터를 조정하는 정도를 나타내는 학습율로서 (식7)과 같이 정의된다. m ini의 대표벡터이다. 이 과정은 도 4와 같다.② When only the inner node ni belonging to the same class as the learning vector is activated: The representative vector of the minimum distance inner node is adjusted by (Equation 6). Β i in Equation 6 is a learning rate indicating the degree to which the representative vector is adjusted, as defined by Equation 7. m i is the representative vector of ni . This process is shown in FIG.

③ 학습벡터와 다른 클래스에 속하는 내부노드nj만 활성화된 경우 : 학습벡터의 클래스에 해당되는 새로운 내부노드ni를 생성한다. 새로운 내부노드의 대표벡터는 학습벡터와 동일하며, 학습강도Ci는 (식8)과 같다.Cjnj의 학습강도이다.③ When only the inner node nj belonging to a class different from the learning vector is activated: A new inner node ni corresponding to the class of the learning vector is created. The representative vector of the new internal node is the same as the learning vector, and the learning intensity Ci is as shown in (8). Cj is the learning intensity of nj .

④ 학습벡터와 같은 클래스에 속하는 내부노드 중에도 활성화된 것이 있고, 다른 클래스에 속하는 내부노드 중에도 활성화된 것이 있을 경우 : 같은 클래스와 다른 클래스의 최소거리 내부노드를 각각ninj라 할 때,ni와 학습벡터 사이의 거리가nj와 학습벡터 사이의 거리보다 작을 경우에는 (식6)에 따라 그 노드를 학습한다. 그렇지 않은 경우에는 (식9)와 같이 구한 내적의 값이 0보다 작을 경우 ③에서와 같이 새로운 노드를 생성하고, 그렇지 않으면ni는 (식6)에 따라 조정하고,nj는 (식10)에 따라 조정한다.④ can be activated while the internal nodes belonging to the same class as the learning vector, if it is activated during an internal node belongs to a different class: when the same class and the other classes the minimum distance inside the node in La Each ni and nj, ni and If the distance between the learning vectors is smaller than the distance between nj and the learning vector, the node is learned according to (6). Otherwise, if the dot product obtained as in (9) is less than 0, create a new node as in (3), otherwise ni is adjusted according to (6), and nj is according to (10). Adjust

상술한 바와 같이 본 발명에서 제시한 노드확장학습 신경망 모델은 특징공간상에서 다양한 형태의 분포를 갖는 패턴 클래스들에 대해 자기 조직적으로 내부노드들을 형성한다. 그 뿐만 아니라 각 내부단 노드가 자기 자신의 학습강도를 관리하여, 정해진 임계치 이상일 경우에만 정상적인 내부노드로 동작하도록 함으로써, 잡음이 포함되어 있거나 결정경계가 모호한 경우에도 보다 정확한 결정경계를 형성할 수 있다. 이러한 특성은 다양한 패턴인식 분야에서 유용하게 활용할 수 있다.As described above, the node-expanded learning neural network model proposed in the present invention forms internal nodes autonomously for pattern classes having various types of distributions in a feature space. In addition, each internal node manages its own learning intensity so that it operates as a normal internal node only when it is above a predetermined threshold, so that a more accurate crystal boundary can be formed even when noise is included or the crystal boundary is ambiguous. . This feature can be usefully used in various pattern recognition fields.

Claims (4)

(정정) a) 활성 영역이 부여되어 있는 내부단의 다수의 노드들 각각에 대하여 모든 입력단을 연결하여 각 노드에 대한 대표 벡터를 형성하는 단계;(Correction) a) connecting all input terminals to each of the plurality of nodes of the inner end to which the active region is assigned to form a representative vector for each node; b) 상기 입력단을 통하여 입력되는 학습 벡터가 하나의 노드의 대표 벡터 사이의 거리를 토대로, 상기 학습 벡터가 상기 노드의 활성 영역에 속하는지를 판단하는 단계;b) determining whether the learning vector belongs to an active region of the node based on the distance between the learning vectors input through the input terminal and the representative vector of one node; c) 상기 학습 벡터가 노드의 활성 영역에 속하는 경우, 상기 학습 벡터가 상기 노드와 동일 클래스에 속하는 경우에 상기 노드의 학습 강도를 증가시키고, 상기 학습 벡터가 상기 노드와 동일 클래스에 속하지 않는 경우에는 상기 노드의 학습 강도를 감소시켜, 각 노드의 학습 강도를 조정하는 단계; 및c) when the learning vector belongs to the active region of the node, increases the learning intensity of the node when the learning vector belongs to the same class as the node, and when the learning vector does not belong to the same class as the node. Reducing the learning intensity of the node to adjust the learning intensity of each node; And d) 학습 강도가 설정값보다 크면 학습 벡터에 의하여 대표 벡터들을 수정하는 학습율을 크게 하고 학습 강도가 설정값보다 작으면 상기 학습율을 작게 하여, 노드의 각 대표 벡터들의 위치 학습을 수행하는 단계d) if the learning intensity is greater than the set value, increase the learning rate for modifying the representative vectors by the learning vector; if the learning intensity is less than the set value, reduce the learning rate, and perform position learning of each representative vector of the node. 를 포함하는 노드 확장 학습 신경망 모델 형성 및 학습 방법.Node extended learning neural network model formation and learning method comprising a. (신설) 제1항에 있어서,(Newly made up) according to claim 1, 상기 c) 단계에서,In step c), 상기 학습 벡터가 상기 노드와 동일 클래스에 속하는 경우에는 상기 노드(n i )의 학습 강도(C i )는 의 조건에 따라 가변되고, 상기 학습 벡터가 상기 노드와 동일 클래스에 속하지 않는 경우에는 의 조건에 따라 가변되는 노드 확장 학습 신경망 모델 형성 및 학습 방법. When the learning vector belongs to the same class as the node , the learning intensity C i of the node n i is If the learning vector does not belong to the same class as the node Node extension learning neural network model formation and learning method that is variable according to the conditions of. 여기서, α: 활성 영역의 반경Where α is the radius of the active area x: 학습 벡터x: learning vector m : 대표벡터m: representative vector D(x,m) : 학습 벡터와 대표벡터 사이의 거리D (x, m): distance between the learning vector and the representative vector (신설) 제1항에 있어서,(Newly made up) according to claim 1, 상기 d) 단계는Step d) d-1) 활성화된 노드가 없을 경우 새로운 노드를 생성하는 단계;d-1) creating a new node if there is no active node; d-2) 입력된 상기 학습벡터와 같은 클래스에 속하는 노드 ni 만 활성화된 경우, 최소거리 내부 노드의 대표벡터가 (여기서, 이며, ni 의 대표 벡터이다)의 조건에 따라 조정되는 단계; 및 d-2) When only the node ni belonging to the same class as the input learning vector is activated, the representative vector of the minimum distance internal node is (here, silver Is, Is a representative vector of ni ); And d-3) 입력된 상기 학습벡터와 다른 클래스에 속하는 노드d-3) a node belonging to a different class from the inputted learning vector njnj 만 활성화된 경우, 학습 벡터의 클래스에 해당하는 새로운 노드If only active, a new node corresponding to the class of the learning vector nini 를 생성하는 단계Steps to generate 를 포함하며,Including; 상기 d-3) 단계에서, 새로이 생성된 노드 ni 의 대표 벡터는 상기 학습 벡터와 동일하며, 학습 강도 를 만족하는 것을 특징으로 하는 노드 확장 학습 신경망 모델 형성 및 학습 방법. In step d-3), the representative vector of the newly generated node ni is the same as the learning vector, and the learning intensity Is Node extended learning neural network model formation and learning method, characterized in that to satisfy. (신설) 제3항에 있어서,(Newly set forth in paragraph 3), 상기 d) 단계는,Step d), 입력된 상기 학습벡터와 같은 클래스에 속하는 내부노드 중에도 활성화된 것이 있고, 다른 클래스에 속하는 내부노드 중에도 활성화된 것이 있을 경우, 같은 클래스와 다른 클래스의 최소거리 내부노드를 각각 ni nj 라 할 때, ni 와 학습벡터 사이의 거리가 nj 와 학습벡터 사이의 거리보다 작을 경우에는 에 따라 그 노드에 대한 학습이 이루어지는 단계; When there are activated internal nodes belonging to the same class as the learning vector, and there are activated internal nodes belonging to another class, when the minimum distance internal nodes of the same class and different classes are called ni and nj , If the distance between ni and the learning vector is less than the distance between nj and the learning vector Learning according to the node according to the; 상기 ni 와 학습벡터 사이의 거리가 nj 와 학습벡터 사이의 거리보다 클 경우에는, 의 값이 0보다 작으면 새로운 노드를 생성하는 단계; 및 If the distance between ni and the learning vector is greater than the distance between nj and the learning vector, Creating a new node if the value of is less than 0; And 상기 의 값이 0보다 크면, 에 따라 그 노드에 대한 학습이 이루어지는 단계 remind If the value of is greater than 0, According to the learning process for that node 를 포함하는 노드 확장 학습 신경망 모델 형성 및 학습 방법.Node extended learning neural network model formation and learning method comprising a.
KR1020000000386A 2000-01-06 2000-01-06 Neural network model with node-expansion learning KR100361168B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020000000386A KR100361168B1 (en) 2000-01-06 2000-01-06 Neural network model with node-expansion learning

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020000000386A KR100361168B1 (en) 2000-01-06 2000-01-06 Neural network model with node-expansion learning

Publications (2)

Publication Number Publication Date
KR20010068459A KR20010068459A (en) 2001-07-23
KR100361168B1 true KR100361168B1 (en) 2002-11-18

Family

ID=19636589

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020000000386A KR100361168B1 (en) 2000-01-06 2000-01-06 Neural network model with node-expansion learning

Country Status (1)

Country Link
KR (1) KR100361168B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190041836A (en) * 2017-10-13 2019-04-23 주식회사 포스코 Apparatus and method for evaluating conditions of equipment
KR102054743B1 (en) * 2018-03-27 2020-01-22 테크와이드 주식회사 Methods, systems and programs of remote diagnosis of equipment
KR102082999B1 (en) 2018-09-14 2020-02-28 한국항공대학교산학협력단 RCE neural network learning apparatus and method thereof

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190041836A (en) * 2017-10-13 2019-04-23 주식회사 포스코 Apparatus and method for evaluating conditions of equipment
KR102045626B1 (en) * 2017-10-13 2019-12-02 주식회사 포스코 Apparatus and method for evaluating conditions of equipment
KR102054743B1 (en) * 2018-03-27 2020-01-22 테크와이드 주식회사 Methods, systems and programs of remote diagnosis of equipment
KR102082999B1 (en) 2018-09-14 2020-02-28 한국항공대학교산학협력단 RCE neural network learning apparatus and method thereof

Also Published As

Publication number Publication date
KR20010068459A (en) 2001-07-23

Similar Documents

Publication Publication Date Title
Karayiannis et al. An integrated approach to fuzzy learning vector quantization and fuzzy c-means clustering
Srinivasan et al. Evaluation of adaptive neural network models for freeway incident detection
Denoeux A neural network classifier based on Dempster-Shafer theory
Shrestha et al. Stable spike-timing dependent plasticity rule for multilayer unsupervised and supervised learning
CN102622418B (en) Prediction device and equipment based on BP (Back Propagation) nerve network
CN106600059A (en) Intelligent power grid short-term load predication method based on improved RBF neural network
Bruske et al. Dynamic cell structures
Kohonen Learning vector quantisation and the self organising map
CN110766138A (en) Method and system for constructing self-adaptive neural network model based on brain development mechanism
CN114266351A (en) Pulse neural network training method and system based on unsupervised learning time coding
CN116796207A (en) Self-organizing mapping clustering method based on impulse neural network
KR100361168B1 (en) Neural network model with node-expansion learning
Wann et al. A Comparative study of self-organizing clustering algorithms Dignet and ART2
Ballini et al. Learning in recurrent, hybrid neurofuzzy networks
Kim An unsupervised neural network using a fuzzy learning rule
CN113344202A (en) Novel deep multi-core learning network model training method, system and medium
Singh et al. DCT-Yager FNN: A novel Yager-based fuzzy neural network with the discrete clustering technique
Papageorgiou et al. Activation hebbian learning rule for fuzzy cognitive maps
Barreto et al. Nonstationary time series prediction using local models based on competitive neural networks
Goh et al. Fuzzy associative conjuncted maps network
Pal et al. Soft computing and image analysis: features, relevance and hybridization
Dai et al. Self-adaptive fuzzification in fuzzy decision tree induction
Tan et al. Learning by supervised clustering and matching
Tsapatsoulis et al. Improving the performance of resource allocation networks through hierarchical clustering of high-dimensional data
Iyoda et al. Evolutionary design of neurofuzzy networks for pattern classification

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee