KR100496414B1 - An user clustering method using hybrid som for web information recommending and a recordable media thereof - Google Patents

An user clustering method using hybrid som for web information recommending and a recordable media thereof Download PDF

Info

Publication number
KR100496414B1
KR100496414B1 KR10-2003-0045537A KR20030045537A KR100496414B1 KR 100496414 B1 KR100496414 B1 KR 100496414B1 KR 20030045537 A KR20030045537 A KR 20030045537A KR 100496414 B1 KR100496414 B1 KR 100496414B1
Authority
KR
South Korea
Prior art keywords
distribution
weight
initializing
vector
clustering
Prior art date
Application number
KR10-2003-0045537A
Other languages
Korean (ko)
Other versions
KR20050005594A (en
Inventor
윤경배
최준혁
이문규
Original Assignee
(주)넥솔위즈빌
최준혁
윤경배
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)넥솔위즈빌, 최준혁, 윤경배 filed Critical (주)넥솔위즈빌
Priority to KR10-2003-0045537A priority Critical patent/KR100496414B1/en
Publication of KR20050005594A publication Critical patent/KR20050005594A/en
Application granted granted Critical
Publication of KR100496414B1 publication Critical patent/KR100496414B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0641Shopping interfaces
    • G06Q30/0643Graphical representation of items or shoppers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/02Protocols based on web technology, e.g. hypertext transfer protocol [HTTP]

Abstract

본 발명은 인터넷 등에서 사용자에게 필요한 맞춤 정보를 제공하기 위해 사용되는 웹 정보 추천을 위한 하이브리드 자기 조직화 형상지도(Hybrid Self- Organizing feature Maps)를 이용한 사용자 군집화 방법에 관한 것이다.The present invention relates to a user clustering method using hybrid self-organizing feature maps for recommending web information used to provide customized information necessary for a user on the Internet.

최근 인터넷 쇼핑몰과 같은 웹 사이트를 대상으로 각 사용자에게 가장 필요한 맞춤 정보를 제공하기 위한 웹 정보 추천 시스템에 대한 연구가 활발히 진행되고 있는데, 웹 정보 추천 시스템의 많은 유형 중에서 군집화를 이용한 정보 추천방법은 웹 사용자에 대하여 군집화를 수행한 한 후 새로운 사용자에 대한 특성과 그 사용자에게 가장 유사한 해당 군집의 대표 특성을 이용하여 차별화된 웹 정보 서비스를 행하는 방법이다.Recently, researches on the web information recommendation system for providing personalized information necessary for each user to the web sites such as internet shopping malls are actively conducted. Among many types of web information recommendation systems, the information recommendation method using clustering is web. After clustering a user, a method of performing differentiated web information service using characteristics of a new user and representative characteristics of a corresponding cluster most similar to the user is performed.

그런데 상기와 같은 군집화를 위한 방법의 하나로서 종래에는 자기조직형상지도(SOM) 모형이 이용되었으나, 이는 빠른 수행 속도와 간편하게 사용할 수 있는 장점이 있는 반면 수렴성을 보장할 수 없는 등 여러가지 문제점들이 있다. By the way, as one of the methods for clustering as described above, a conventional self-organization map (SOM) model is used, but there are various problems such as fast performance and ease of use, but it cannot guarantee convergence.

따라서, 본 발명에서는 종래의 문제점을 해결하기 위하여 하이브리드 자기조직 형상지도(HSOM)을 모형을 제안한다.Therefore, the present invention proposes a hybrid self-organization shape map (HSOM) model to solve the conventional problems.

본 발명에서 제안하는 HSOM 모형은 기존 SOM 모형의 초기 가중치 결정과 가중치 갱신에 확률분포를 적용한 모형으로서 군집화에 있어 정확한 수렴성을 보장할 수 있다.The HSOM model proposed by the present invention is a model in which probability distribution is applied to initial weight determination and weight update of an existing SOM model, thereby ensuring accurate convergence in clustering.

Description

웹정보 추천을 위한 하이브리드 자기 조직화 형상지도를 이용한 사용자 군집화 방법 및 기록매체 {AN USER CLUSTERING METHOD USING HYBRID SOM FOR WEB INFORMATION RECOMMENDING AND A RECORDABLE MEDIA THEREOF}User clustering method and recording medium using hybrid self-organizing shape map for web information recommendation {AN USER CLUSTERING METHOD USING HYBRID SOM FOR WEB INFORMATION RECOMMENDING AND A RECORDABLE MEDIA THEREOF}

본 발명은 인터넷 등에서 사용자에게 필요한 맞춤 정보를 제공하기 위해 사용되는 웹 정보 추천을 위한 하이브리드 자기 조직화 형상지도(Hybrid Self-Organizing feature Maps: 이하, “HSOM”이라 한다)를 이용한 사용자 군집화 방법 및 그 방법을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체에 관한 것이다.The present invention provides a method and method for clustering users using hybrid self-organizing feature maps (hereinafter referred to as “HSOM”) for recommending web information used to provide personalized information necessary for a user on the Internet. The present invention relates to a computer-readable recording medium having recorded thereon a program for realizing this.

최근 인터넷 쇼핑몰과 같은 웹 사이트를 대상으로 각 사용자에게 가장 필요한 맞춤 정보를 제공하기 위한 웹 정보 추천 시스템에 대한 연구가 활발히 진행되고 있는데, 웹 정보 추천 시스템의 많은 유형 중에서 군집화를 이용한 정보 추천방법은 웹 사용자에 대하여 군집화를 수행한 한 후 새로운 사용자에 대한 특성과 그 사용자에게 가장 유사한 해당 군집의 대표 특성을 이용하여 차별화된 웹 정보 서비스를 행하는 방법이다.Recently, researches on the web information recommendation system for providing personalized information necessary for each user to the web sites such as internet shopping malls are actively conducted. Among many types of web information recommendation systems, the information recommendation method using clustering is web. After clustering a user, a method of performing differentiated web information service using characteristics of a new user and representative characteristics of a corresponding cluster most similar to the user is performed.

군집화(clustering)란 주어진 학습 데이터에서 각각의 개체들을 다양한 특성의 유사성을 바탕으로 동질적인 몇 개의 군집(cluster)으로 분류하는 방법이다. 이러한 군집화의 바람직한 결과는 같은 군집에 속한 개체들끼리는 어떤 종류의 밀접한 상사성이 있으며, 서로 다른 군집에 속한 개체 사이에는 상대적 비상사성이 존재해야 한다. 판별분석(discriminant analysis)은 각 개체가 어느 군집에 속해있는지를 알고 주어진 데이터를 이용하여 판별 함수를 유도하고 이를 이용하여 군집이 알려지지 않은 각 개체를 분류하고자 하는 방법인데 반해 군집분석은 각 개체가 어느 군집에 속해 있는지를 모르며 전체 군집이 몇 개인지도 모르는 데이터를 이용하여 개체를 동질적인 군집으로 할당하는 방법이다. Clustering is a method of classifying each individual object into several homogeneous clusters based on similarity of various characteristics in a given learning data. The desirable result of such clustering is that there is some kind of close similarity between individuals belonging to the same community, and there must be relative incompatibility between individuals belonging to different clusters. Discriminant analysis is a method that knows which clusters each entity belongs to and derives a discriminant function using the given data, and uses them to classify each unknown entity. This is a method of assigning objects to homogeneous clusters using data that does not know whether they belong to a cluster and how many total clusters.

일반적으로 종래에 많이 사용되어 온 군집방법 중에는 AHC(Agglomerative Hierarchical Clustering) 알고리즘이 있는데, 이 알고리즘은 대상 데이터가 많은 경우에 속도가 떨어진다는 단점이 있다. 또 다른 방법으로는 싱글 링크(Single-link)와 그룹 평균(Group-average) 방법이 있는데, 이는 알고리즘이 수행되기 위해 많은 시간이 소요되는 문제점이 있었다.In general, there is an AHC (Agglomerative Hierarchical Clustering) algorithm among the clustering methods that have been widely used in the prior art, this algorithm has a disadvantage that the speed is slow when there is a lot of target data. Another method is a single-link and group-average method, which takes a long time to perform the algorithm.

한편, 또다른 방법인 신경망의 SOM을 이용한 군집화 방법은 여러 가지 신경망 모형 중에서 인간의 뇌 구조를 가장 잘 모형화한 자기조직화 형상지도(Self-Organizing feature Maps: 이하, “SOM”이라 한다)로 1980년대 초에 Kohonen에 의해 제안된 신경망(neural networks) 모형인데 상기 SOM은 신경망 중에서도 학습 자료에 대한 결과값을 모르고 학습이 수행되는 자율 학습(unsupervised learning) 구조를 가지고 있다. On the other hand, the clustering method using SOM of neural network is Self-Organizing feature Maps (hereinafter referred to as “SOM”) that best models the human brain structure among various neural network models. The neural networks model proposed by Kohonen at the beginning is the SOM, which has an unsupervised learning structure in which learning is performed without knowing the result of the learning data among neural networks.

그러나 상기의 SOM이 광범위하게 적용되어 왔고 또 많은 중요한 연구들이 이루어져 왔지만 여기에는 아직도 해결되지 않은 다음과 같은 여러 문제들이 있다. However, although the above-mentioned SOM has been widely applied and many important studies have been made, there are a number of problems that are still unresolved.

첫째로, SOM은 자료 공간(data space) 내에서 밀도 함수(density function)가 정의되고 있지 않다. 즉 학습 데이터의 분포와 가중치 분포간의 관계가 정형화되는 방법을 갖고 있지 못한다.First, SOM does not have a density function defined in the data space. In other words, it does not have a way of formalizing the relationship between the distribution of the training data and the weight distribution.

둘째로, SOM의 학습 알고리즘에는 오차(error)를 관리하는 목적 함수(objective function)를 최적화하는 과정이 없다. 따라서 이러한 목적 함수의 역할을 담당하는 확률적 분포를 이용하여 목적 함수를 구축하고 최적화하는 작업이 필요하다. Second, there is no process of optimizing an objective function that manages errors in the learning algorithm of SOM. Therefore, it is necessary to build and optimize the objective function using the stochastic distribution that plays the role of the objective function.

셋째로, SOM의 학습 알고리즘이 항상 수렴한다는 일반적인 보장이 없다. 특히 학습이 끝난 최종 모형이 국지적 최적값(local optimal value)로 빠지는 경우가 종종 있게 된다. 따라서 학습 데이터를 이용한 모델이 허용 한계 내에서 전역적 최적값(global optimal value)에 수렴하게 하는 방안이 필요하다. Third, there is no general guarantee that SOM's learning algorithms always converge. In particular, the final model after learning often falls into local optimal values. Therefore, there is a need for a method using a training data that converges to a global optimal value within tolerance.

넷째로, SOM은 모형의 모수로 선택되는 최적값을 결정하는 이론적인 구조(theoretical framework)가 없다. 즉 SOM은 입력층으로부터 출력층으로의 연결을 통한 가중치의 갱신을 통한 모형이지만 새로운 입력에 대한 예측값을 계산할 때 예측값이 나오게 된 과정보다는 예측값 자체에 의미를 주기 때문에 예측 모형에 대한 설명이 절대적으로 부족하다. 예를 들어 학습률(learning rate)에 대한 초기값의 결정과 변화 규칙, 이웃 함수(neighborhood function)의 감소율 등에 대한 함수, 가중치의 갱신 분포 등에 대한 이론적 구조가 전혀 없다. 이렇게 이론적 바탕이 부족한 신경망 모형에서 예측 결과값에 대한 모형적 해석을 가능하게 하는 방안이 필요하다. Fourth, SOM does not have a theoretical framework that determines the optimal value chosen as the model parameter. In other words, SOM is a model through the update of the weight through the connection from the input layer to the output layer, but the description of the prediction model is absolutely insufficient because it gives meaning to the prediction value itself rather than the process of generating the prediction value when calculating the prediction value for the new input. . For example, there is no theoretical structure for determining the initial value for the learning rate, changing rules, functions for decreasing the neighborhood function, and update distribution of weights. In this neural network model that lacks the theoretical basis, there is a need for a method that enables a model interpretation of prediction results.

다섯째로, SOM은 다른 SOM 모형이나 이질적인 구조(architectures)의 학습 모형들과의 비교가 불가능하다. 이는 모형에 대한 명확한 수리적 규칙이 정의되지 않기 때문이며 일반적인 모형 평가의 수리적 측도를 SOM 모형에도 적용시켜야 한다. Fifth, SOM cannot be compared with other SOM models or learning models of heterogeneous architectures. This is because no explicit mathematical rules for the model are defined, and the mathematical measures of general model evaluation should also be applied to the SOM model.

따라서, 본 발명은 빠른 학습능력을 유지하면서 군집결과에 대한 수렴성을 보장하는 HSOM을 제안함으로써 상기와 같은 SOM에서는 해결할 수 없는 모형적 한계를 극복할 수 있는 방안을 제공하는 것을 목적으로 한다. Accordingly, an object of the present invention is to provide a method for overcoming the model limitations that cannot be solved in the SOM by proposing a HSOM that guarantees convergence of clustering results while maintaining fast learning ability.

상기와 같은 문제점을 해결하기 위한 본 발명에 따른 웹 정보 추천을 위한 사용자 군집화 방법은 초기화 단계; 승자노드 결정 단계; 가중치 분포의 모수갱신 단계; 군집화 단계로 이루어지고, 상기 초기화 단계는 가중치 벡터를 초기화하는 단계; 학습률을 초기화 단계; 이웃함수의 초기화 단계를 포함하며, 상기 승자노드 결정 단계는 입력벡터를 초기화하는 단계; 가중치 분포를 선택하는 단계; 입력벡터와 출력벡터 사이의 유클리디안 거리를 이용하여 승리노드를 선택하는 단계를 포함하고, 상기 가중치 분포의 모수갱신 단계는 새로운 가중치로 갱신하는 단계; 이전의 갱신분포를 새로운 갱신 분포로 대체하는 단계를 포함하며, 상기 가중치 벡터의 초기화 단계 및 가중치 갱신 단계는 지수족의 사전확률분포에 기반한 베이지안 추론기법을 적용함으로써 수렴성을 보장하는 것을 특징으로 한다.A user clustering method for recommending web information according to the present invention for solving the above problems includes an initialization step; Determining a winner node; Parameter updating of the weight distribution; A clustering step, wherein the initializing step comprises: initializing a weight vector; Initializing the learning rate; Initializing a neighbor function, wherein determining a winner node comprises: initializing an input vector; Selecting a weight distribution; Selecting a victory node using a Euclidean distance between an input vector and an output vector, wherein updating the parameters of the weight distribution comprises: updating with new weights; Replacing the previous update distribution with a new update distribution, wherein the initializing and weighting updating of the weight vector are characterized by ensuring convergence by applying a Bayesian inference technique based on the prior probability distribution of the exponential group.

이하, 본 발명에 관하여 수학식과 도면을 참조하여 보다 구체적으로 기술한다.Hereinafter, the present invention will be described in more detail with reference to equations and drawings.

일반적으로 군집분석은 총 N개의 개체에 대해 p개의 군집 변수를 이용하여 모든 개체들 사이의 비유사성(dissimilarity)을 나타내는 거리 행렬(distance matrix)을 계산한 후 이 거리 행렬을 이용하여 군집을 형성하는 과정으로 이루어진다. 군집의 유형은 계층적 군집(hierarchical cluster)과 상호 배반적 군집(disjoint cluster) 두 가지의 경우가 있다. In general, cluster analysis calculates a distance matrix representing dissimilarity among all the individuals using p cluster variables for a total of N individuals, and then uses the distance matrix to form a cluster. The process takes place. There are two types of clusters: hierarchical clusters and disjoint clusters.

계층적 군집은 한 군집이 다른 군집의 내부에 포함되나 군집 간에는 중복이 허용되지 않고 나무 모양 그림(dendrogram)의 형식을 취하는 유형이며, 상호 배반적 군집은 각 개체가 상호 배반적인 여러 군집 중 하나에만 속하는 유형을 말한다. 총 N개의 개체에 대하여 p개의 군집변수를 이용하는 경우 이는 [수학식1]과 같이 N×p 데이터 행렬로 같이 표시할 수 있다. 여기서 p개의 군집변수는 표준화된 변수를 이용한다. 그리고, 각 경우의 유사성을 측정하는 기본적인 방법은 두개의 관찰 벡터 xi'= (x1i, x2i, …, xpi)xj'= (x1j, x2j, …, xpj) 간의 거리 dij= d(xi, xj)를 계산하여 다음의 [수학식 2]와 같은 크기가 N×N 인 거리 행렬을 만드는 것이다. 이 거리 행렬을 이용하여 상대적으로 거리가 가까운 개체들끼리 같은 군집을 이루게 하는 것이다. 두 개의 벡터 x1, x2 에 대한 거리를 측정하는 측도로는 유클리드 거리(Euclid distance), 유클리드 거리제곱, 체비쉐프의 거리(Chebychev distance), 시가거리(Manhattan distance), 그리고 마하라노비스 거리(Mahalanobis distance) 등이 이용될 수 있다. 이 중에서 가장 많이 사용되는 거리 측도인 유클리드 거리는 [수학식 3]과 같이 정의된다. , 여기서 Q는 합계(∑)을 의미한다. 이들 외에도 민코우스키(Minkowski) 거리, 파워(Power) 거리, 상관 계수, 두 백터간의 코사인 등이 이용될 수 있다.Hierarchical clusters are a type in which one cluster is contained within another cluster, but no overlap is allowed between clusters, but in the form of a tree-like dendogram. Say what type it belongs to. When p cluster variables are used for a total of N objects, this can be expressed as an N × p data matrix as shown in [Equation 1]. Here p cluster variables use standardized variables. And, the basic method for measuring the similarity in each case is between two observation vectors x i '= (x 1i , x 2i ,…, x pi ) and x j ' = (x 1j , x 2j ,…, x pj ) The distance d ij = d (x i , x j ) is calculated to produce a distance matrix of size N × N , as shown in Equation 2 below. This distance matrix is used to bring objects that are relatively close together to form the same cluster. Measured distances for two vectors x 1 and x 2 are Euclidean distance, Euclidean distance square, Chebychev distance, Manhattan distance, and Maharanobis distance ( Mahalanobis distance) and the like can be used. Euclidean distance, the most widely used distance measure among these, is defined as shown in [Equation 3]. , Where Q stands for ∑. In addition, Minkowski distance, Power distance, correlation coefficient, and cosine between two vectors can be used.

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

상기와 같이 N×N 거리 행렬이 주어진 경우의 계층적 군집화 방법에는 병합적(agglomerative) 방법과 분할적(division) 방법이 있다. 병합적 방법은 가까운 객체들끼리 묶어감으로써 군집을 만들어가는 방법이며, 분할적 방법은 반대로 먼 객체들을 나누어가는 방법이다. 이와 같은 군집들이 병합 또는 분리되는 과정은 나무 모양 그림을 이용하여 간단히 표현할 수 있다. 병합적 방법을 이용하여 군집을 형성하는 과정은 다음과 같다.As described above, hierarchical clustering methods in a case where an N × N distance matrix is given include an agglomerative method and a division method. The merging method is a method of making clusters by tying nearby objects together, while the partitioning method is a method of dividing distant objects. The process of merging or separating these clusters can be expressed simply using a tree-shaped figure. The process of forming a cluster using a merging method is as follows.

1) 최초에 N 개의 군집으로 시작하며, N×N 거리 행렬 D 를 만든다.1) Start with N clusters first, then create an N × N distance matrix, D.

2) 군집간의 거리가 가장 작은 두 군을 묶어 하나의 군집으로 만든다.2) Combine two groups with the smallest distance between them into one cluster.

3) 2)에서 형성된 새로운 군집과 나머지 군집들 간의 거리를 계산하여 새로운 거리 행렬 D1을 만든다.3) Create a new distance matrix D1 by calculating the distance between the new cluster formed in 2) and the remaining clusters.

4) 2)와 3)의 과정을 N-1 번 반복한다.4) Repeat the process of 2) and 3) N-1 times.

또한 병합적인 방법은 군집간의 거리를 정의하는 방법에 따라서 최단 연결법(single linkage method), 최장 연결법(complete linkage method), 중심 연결법(centroid linkage method), 중앙값 연결법(median linkage method), 평균 연결법(average linkage method) 등이 있다. 예를 들어 이들 방법 중에서 최단 연결법은 두 군집 C1, C2 사이의 거리를 각 군집에 속하는 두 개체들 사이의 거리 중 최단거리를 이용하는 방법으로서 [수학식 4]와 같이 나타낼 수 있다. d{C1, C2} = min{d(x,y) | x∈C1, y∈C2 } 최장 연결법도 비슷한 과정으로 연결하며 군집간의 거리에서 두 군집사이에 있는 개체들 사이의 거리 중 최장거리를 이용한다. [수학식 5]는 최장 연결법의 식을 나타낸다. d{C1, C2} = max{d(x,y) | x∈C1, y∈C2} In addition, the merging method can be defined as the single linkage method, the longest linkage method, the centroid linkage method, the median linkage method, and the average linkage method. linkage method). For example, the shortest connecting method among these methods is a method using a shortest distance of the distance between two objects belonging to the distance between two clusters C 1, C 2 of each cluster can be expressed as [Equation 4]. d {C 1 , C 2 } = min {d (x, y) | x∈C 1 , y∈C 2 } The longest linking method uses a similar process and uses the longest distance between the two groups in the distance between the clusters. [Equation 5] shows the equation of the longest link method. d {C 1 , C 2 } = max {d (x, y) | x∈C 1 , y∈C 2 }

삭제delete

삭제delete

삭제delete

한편, 음성 인식, 문자 인식, 구문 분석 등 다양한 분야에 응용되는 SOM은 도 1과 같이 입력층과 출력층으로 구성된 순방향 단층 신경망 구조를 가지고 있다. SOM의 연결강도인 가중치는 정규화된 입력 벡터에 대응되는 출력 노드의 중심값(centroid value)과 같은 역할을 하며 학습 동안에 입력 벡터와 가장 가까운 측도(유클리디안 거리)를 갖는 출력 노드가 승자(winner)가 되고, 이 승자 노드와 이웃하는 노드들의 가중치만이 갱신된다. 특히 SOM은 다층 신경망(multi-layer perceptron)과 같은 지도 학습(supervised learning) 모형에 비해 매우 단순한 2개의 층(layer)으로 이루어지면서 다차원의 자료를 2차원의 형상 지도(feature maps)로 투영(projection)시켜 스스로 경쟁 학습(competitive learning)을 할 수 있도록 한다. 이때 2개의 층은 입력 벡터를 갖는 입력층(input layer)과 형상 지도를 갖는 출력층(output layer)이다. 출력층으로서의 경쟁층(competitive layer)은 일반적으로 2차원 지도(maps)로 되어 있다. 자기 조직화 형상 지도 모형은 오류 역전파(back propagation) 모형과는 달리 여러 단계의 피드백을 거치지 않고 오직 한 번의 전방 전달(feedforward flow)만을 사용하며 입력층에서 출력층으로 모두가 연결(fully connected)되어 있는 구조를 가지고 있다.Meanwhile, the SOM applied to various fields such as speech recognition, character recognition, and syntax analysis has a forward monolayer neural network structure composed of an input layer and an output layer as shown in FIG. 1. The weight, which is the connection strength of the SOM, acts like the centroid value of the output node corresponding to the normalized input vector, and the output node with the closest measure (Euclidian distance) to the input vector during training is the winner. ), Only the weights of this winner node and neighboring nodes are updated. In particular, SOM consists of two very simple layers compared to supervised learning models such as multi-layer perceptrons, and projects multidimensional data into two-dimensional feature maps. So that you can do competitive learning yourself. In this case, the two layers are an input layer having an input vector and an output layer having a shape map. Competitive layers as output layers are generally two-dimensional maps. Self-organized shape map models, unlike error back propagation models, use only one feedforward flow without multiple levels of feedback and are fully connected from the input layer to the output layer. It has a structure.

SOM에서 초기 뉴런의 연결강도는 0에서 1사이의 균일 분포(uniform distribution)에서 생성된 난수값으로 적당히 초기화한다. 이때 입력 벡터는 0에서 1사이의 값을 갖도록 정규화 된다. 이러한 초기화 이후의 학습은 출력층의 각 노드의 가중치와 대응되는 입력 벡터의 각 값들의 거리를 계산하며, 거리 측도로는 보통 유클리디안 거리를 사용한다. 최종적으로는 주어진 입력 벡터와의 거리가 가장 작은 출력 노드가 승리하게 된다. 그리고 이 승자 노드만이 출력되게 된다. 하지만 가중치의 갱신 학습은 승자 노드와 이에 이웃하는 노드들도 할 수 있다. 즉 SOM의 학습 규칙은 승자 독점(winner take all)으로서, 모든 출력과 갱신이 승자 노드를 중심으로 이루어진다. 승자 노드의 이웃 영역은 아주 가까운 노드만 제한하지 않고 학습의 초기에는 영역의 범위(neighborhood size)를 층내의 모든 뉴런으로 확장한 후 학습이 진행되는 동안 점차로 줄여 나가는 방법을 사용한다. 최종적으로는 단지 승자 노드의 가중치만이 갱신된다. 승자 노드를 중심으로 한 가중치 갱신은 [수학식 6]과 같이 계산된다. W(new) = W(old)+ α(X - W(old)) 상기 [수학식 6]에서 W(old) 는 갱신되기 이전의 연결 강도 벡터이며, W(new) 는 갱신된 후의 새로운 연결 강도 벡터이다. X는 입력 벡터이고 α는 학습율로 α를 크게 하면 가중치의 갱신 폭이 커진다.In SOM, the initial strength of neurons is properly initialized with random numbers generated from a uniform distribution between 0 and 1. At this time, the input vector is normalized to have a value between 0 and 1. The learning after this initialization calculates the distance of each value of the input vector corresponding to the weight of each node of the output layer, and the distance measure usually uses Euclidean distance. Finally, the output node with the smallest distance to the given input vector wins. Only this winner node will be output. However, the update learning of the weight may be performed by the winner node and neighboring nodes. In other words, the learning rules of SOM are winner take all, and all output and updates are centered on the winner node. The neighboring region of the winner node does not limit only the very closest nodes, and at the beginning of learning, it extends the neighborhood size to all the neurons in the layer and gradually reduces it during the learning process. Finally, only the weight of the winner node is updated. The weight update around the winner node is calculated as shown in [Equation 6]. W (new) = W (old) + α (X-W (old) ) In Equation 6, W (old) is a connection strength vector before being updated, and W (new) is a new connection strength vector after being updated. X is an input vector and α is a learning rate, and if α is increased, the update width of the weight increases.

삭제delete

삭제delete

SOM의 학습은 단순히 연결강도 벡터와 입력 벡터의 차이를 계산하여 이 값을 학습율 만큼 이전의 연결강도 벡터에 더한다. 이때 승자 노드의 연결 강도만을 변화시키는 것이 아니고 승자 노드의 이웃 영역 내의 노드들도 같은 방식에 의해 변화시킨다. 다시 말해 이 때에는 승자노드만 갱신할 수도 있고 승자 노드와 이에 이웃하는 노드들도 함께 갱신될 수 있는데, 승자노드만 갱신하는 것은 이웃의 범위를 0으로 하는 특별한 경우에 해당한다.SOM learning simply calculates the difference between the link strength vector and the input vector and adds this value to the previous link strength vector by the learning rate. In this case, not only the connection strength of the winner node is changed but also the nodes in the neighboring region of the winner node are changed in the same manner. In other words, in this case, only the winner node may be updated or the winner node and neighboring nodes may be updated together, and updating only the winner node corresponds to a special case where the range of the neighbor is zero.

SOM의 자료가 학습되는 동안 입력 벡터는 2차원의 형상 지도에 투영되어 출력 노드의 경쟁학습을 일으킨다. 즉 다차원의 입력 벡터는 SOM의 형상 지도로 투영되면서 차원의 축소가 일어나고, 개개의 학습 자료는 군집의 개수에 대한 제약 없이 서로 경쟁적으로 군집을 형성한다. While the SOM's data is being learned, the input vector is projected onto a two-dimensional shape map, resulting in competitive learning of the output nodes. In other words, the multidimensional input vector is projected onto the shape map of the SOM, and the dimension reduction occurs, and the individual learning materials form clusters competitively with each other without limitation on the number of clusters.

SOM에서는 반복적인 학습이 이루어지기 때문에 학습을 종료시키는 조건이 있어야 하는데, Kohonen이 제안한 학습 종료의 수렴 조건은 학습 데이터와 형상 지도의 각 노드의 거리가 학습하기 전에 명시한 수렴값 보다 작게 되면 학습을 종료한다. 학습의 최대 반복 회수를 미리 정하여 수렴 조건과 병행하여 사용할 수도 있다.In SOM, there is a condition to terminate learning because repetitive learning occurs. Kohonen's proposed convergence condition of learning termination is that learning ends when the distance between each data node in the shape map is smaller than the specified convergence value before learning. do. A maximum number of iterations of learning may be predetermined and used in parallel with convergence conditions.

그런데, SOM은 앞에서도 언급한 바와 같이 학습 알고리즘이 항상 수렴한다는 일반적인 보장이 없고, 특히 학습이 끝난 최종 모형이 종종 국지적 최적값(local optimal value)로 빠지는 문제점이 있다. 따라서 학습 데이터를 이용한 모델이 허용 한계 내에서 전역적 최적값(global optimal value)에 수렴하게 하는 방안이 필요하다.However, as mentioned above, the SOM does not have a general guarantee that the learning algorithm always converges, and in particular, the final model that has been learned often falls into a local optimal value. Therefore, there is a need for a method using a training data that converges to a global optimal value within tolerance.

따라서, 본 발명에서는 빠른 학습 능력을 유지하면서 군집 결과에 대한 수렴성을 보장하는 HSOM을 제안한다. 본 발명에서 제안하는 HSOM은 기존의 SOM 모형의 초기 가중치 결정과 가중치 갱신에 확률분포를 적용한 것이다. 여기에서, 확률분포란 확률변수가 취할 수 있는 값의 확률을 의미하는데, 본 발명에서는 신경망의 가중치를 확률변수로 정의하고 가중치에 대한 확률분포를 구하게 된다.Therefore, the present invention proposes an HSOM that guarantees convergence of clustering results while maintaining fast learning ability. The HSOM proposed by the present invention applies probability distribution to initial weight determination and weight update of the existing SOM model. Here, the probability distribution means the probability of the value that the random variable can take. In the present invention, the weight of the neural network is defined as the random variable and the probability distribution for the weight is obtained.

이하, 본 발명에서 제안하는 HSOM에 대하여 보다 구체적을 기술한다.Hereinafter, the HSOM proposed by the present invention will be described in more detail.

도 2 는 HSOM 알고리즘의 처리 과정을 나타낸 흐름도이다. 도에서 알 수 있는 바와 같이 HSOM 알고리즘은 먼저 관련된 파라미터들을 초기화 한다(S100). 그리고 다음 단계에서는 정해진 방법에 의하여 승자 노드를 결정하고(S110), 가중치를 갱신한다(S120). 그리고 HSOM 알고리즘은 상기 승자 노드를 결정 단계와 가중치를 갱신 단계를 주어진 조건이 만족할 때까지 반복한 후 과정을 종료하게 된다.도 3은 HSOM의 초기화 과정을 나타낸 흐름도이고, [알고리즘 1]은 HSOM의 초기화를 수행하는 코드를 나열한 것이다.[알고리즘 1]2 is a flowchart illustrating a process of the HSOM algorithm. As can be seen from the HSOM algorithm first initializes the relevant parameters (S100). In the next step, the winner node is determined according to a predetermined method (S110), and the weight is updated (S120). The HSOM algorithm repeats the determining of the winner node and the updating of the weight until the given condition is satisfied. FIG. 3 is a flowchart illustrating the initialization of HSOM, and [Algorithm 1] is List the code that performs the initialization. [Algorithm 1]

삭제delete

삭제delete

Algorithm: Initialize_HSOM (Input[i]) Algorithm: Initialize_HSOM (Input [i])

// HSOM의 초기화1: 네트워크 상수의 초기화 // initialization of HSOM 1: initialization of network constants

Initialize network parameter; Input_layer(int i, int o, int init_neigh_size)Initialize network parameter; Input_layer (int i, int o, int init_neigh_size)

num_inputs=i, num_outputs=o // 입력 벡터와 출력 벡터의 초기화       num_inputs = i, num_outputs = o // Initialize the input and output vectors

neighborhood_size=init_neigh_size // 형상 지도의 이웃반경의 초기화neighborhood_size = init_neigh_size // Initialize the neighbor radius of the shape map

weights = new float[num_inputs*num_outputs] // 가중치 지정weights = new float [num_inputs * num_outputs] // specify weights

outputs = new float[num_outputs] // 출력값 지정outputs = new float [num_outputs] // specify outputs

// HSOM의 초기화1: 확률 분포의 초기화 // initialization of HSOM 1: initialization of probability distribution

Initialize bayesian distributions // 베이지안 확률 분포 결정 Initialize bayesian distributions // Determine Bayesian Probability Distributions

Initialization of the weight vector, wj(0) to haveInitialization of the weight vector, w j (0) to have

probabilistic distribution, N(0, 1). probabilistic distribution, N (0, 1).

// 초기 가중치의 분포를 평균과 분산이 각각 0과 1인 가우시안        // the distribution of the initial weights is a Gaussian with mean and variance of 0 and 1, respectively

분포로 결정           Determined by distribution

Initialization of the learning rate α(0), α(t)∝t; 0<α<1,. Initialization of the learning rate α (0), α (t) ∝t ; 0 <α <1 ,.

// 학습율 함수의 결정// determine the learning rate function

Initialization of the neighborhood function K(j, j*),Initialization of the neighborhood function K (j, j * ) ,

K decreases as to increase |j-j*|// 이웃 반경 함수의 결정 K decreases as to increase | jj * | // Determine neighbor radius function

삭제delete

여기에서, 입력함수의 i는 입력벡터, o는 출력벡터, 그리고 init_neigh_size 는 이웃 반경을 의미한다.Where i is the input vector, o is the output vector, and init_neigh_size is the neighbor radius.

도 3과 상기 알고리즘에서와 같이 HSOM의 초기화 과정은 먼저, 가중치 벡터를 초기화 한다(S200). 이 때, 초기 가중치 벡터 wj(0)는 확률분포를 갖는다. 다음으로 학습률을 초기화 한다(S210). 초기 학습률 α(0) α(t)∝t-α 0<α<1의 조건을 만족해야 한다. 그리고 다음 단계에서는 본 발명에서 새롭게 도입된 이웃함수(또는 “이웃반경함수”라고도 함) K(j, j*)를 초기화 한다(S220). 이웃함수는 |j-j*| 값이 증가함에 따라 K값은 감소하도록 한다.As shown in FIG. 3 and the above algorithm, the initialization process of the HSOM first initializes the weight vector (S200). At this time, the initial weight vector w j (0) has a probability distribution. Next, the learning rate is initialized (S210). The initial learning rate α (0) must satisfy the conditions α (t) ∝ t-α and 0 <α <1 . In the next step, the neighbor function (or “neighbor radius function”) K (j, j * ) newly introduced in the present invention is initialized (S220). Neighbor function | jj * | As the value increases, the K value decreases.

이와 같이 초기화 단계를 거친 HSOM은 우선적으로 가중치의 사전확률분포를 고려해야 한다. 이 분포는 구축하려는 모형의 구조로부터 가중치에 대한 사전정보(prior knowledge)를 갖는데, 일반적으로 초기 가중치의 분포는 [수학식 7]에서 나타낸 것과 같은 지수족(exponential family)의 사전확률분포(prior probability distribution)를 갖는다. 여기에서, Zw(α)는 다음의 [수학식 8]과 같은 정규화 인자(normalization factor)이고, α는 하이퍼 파라미터(hyper parameter)이다. 또한, 확률분포 Ew 는 [수학식 9]와 같은 형태를 갖는다. [수학식 9]에서 M 은 모형의 가중치의 총 수이다. 사전확률분포를 지수족으로 지정하게 되면 사후확률분포의 계산이 용이하게 된다. 물론 사전확률분포를 지수족 이외의 임의의 분포로 결정할 수도 있다.This initial stage of HSOM must first consider the prior probability distribution of the weights. This distribution has prior knowledge of the weights from the structure of the model to be constructed. In general, the initial weight distribution is the prior probability distribution of the exponential family as shown in Equation 7. distribution). Here, Z w (α) is a normalization factor as shown in Equation 8 below, and α is a hyper parameter. In addition, the probability distribution E w has the form as shown in [Equation 9]. In Equation 9, M is the total number of weights of the model. Specifying the prior probability distribution as an exponential group makes it easier to calculate the posterior probability distribution. Of course, the prior probability distribution can be determined by any distribution other than the exponential group.

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

또한, 이 사전확률분포의 모수는 하이퍼 파라미터를 갖는다. 예를 들어 가중치 벡터는 가우시안 분포를 따르는 확률변수라고 가정하면, 이 가우시안 분포는 가중치 벡터내의 각 요소(component)들에 대한 각기 다른 모수를 갖는다. 즉, i번째 가중치인 ω i 는 평균이 μi 이고 분산이 σi 2 인 가우시안 분포를 따르게 되고, 이러한 가우시안 분포에서 μ N(0, 1)의 사전 분포(prior distribution)를 가지며, 분산은 알고 있는 고정된 값으로 결정하거나 위치 모수와 형상 모수를 갖는 역 감마분포(inverse gamma distribution)의 사전 분포를 갖는 초기 가중치를 고려할 수 있다.In addition, the parameter of this prior probability distribution has a hyperparameter. For example, assuming that the weight vector is a random variable following a Gaussian distribution, this Gaussian distribution has different parameters for each component in the weight vector. That is, the i th weight ω i follows a Gaussian distribution with mean μ i and variance σ i 2 , where μ has a prior distribution of N (0, 1) , where variance is It is possible to determine with a known fixed value or consider an initial weight with a prior distribution of an inverse gamma distribution with position and shape parameters.

p 차원의 입력벡터에서 각각의 노드들 간의 서로 다른 척도(scale)에 의한 영향을 없애기 위해서 각각의 입력 노드들에 대한 표준화(normalization)가 필요하다. i 번째 입력 노드 xi = (xi1, …, xip)의 표준화는 각 노드의 값들에서 각 노드의 전체 평균을 빼고, 다시 이 값을 각 노드의 전체 표준편차로 나누어 계산한다. 즉 표준화된 i 번째 입력노드는 다음의 [수학식 10]과 같다. HSOM의 형상지도에서 승리 노드를 결정하는 측도(measure)로는 표준화된 입력벡터와 출력 노드간의 유클리디안 거리(euclidean distance)를 사용한다. i번째 입력노드와 j번째 출력노드의 가중치 사이의 유클리디안 거리는 [수학식 11]을 이용하여 계산할 수 있다. i번째 입력벡터에 대한 승리노드 w의 결정은 가장 작은 거리 즉, dist(xi normal, wj) 를 갖는 노드로 한다. HSOM에서 승리노드의 영역 크기는 초기에는 상당히 넓은 범위로 결정한다. 하지만 학습이 진행되어 감에 따라서 점차적으로 그 범위는 줄어든다. 이것은 학습이 진행됨에 따라 모수의 참 값의 범위를 줄여가는 것이다.In order to remove the influence of different scales between the nodes in the p-dimensional input vector, normalization of each input node is required. The standardization of the i th input node x i = (x i1 ,…, x ip ) is calculated by subtracting the total mean of each node from the values of each node and dividing this value by the total standard deviation of each node. That is, the i- th input node normalized is represented by Equation 10 below. As a measure for determining the victory node in the shape map of the HSOM, the euclidean distance between the standardized input vector and the output node is used. The Euclidean distance between the weight of the i th input node and the j th output node can be calculated using Equation 11. The determination of the victory node w for the i th input vector is made with the node having the smallest distance, dist (x i normal , w j ) . In HSOM, the region size of the winning node is initially determined to be quite wide. However, as learning progresses, the range gradually decreases. This decreases the range of true values of the parameters as learning progresses.

삭제delete

삭제delete

삭제delete

삭제delete

각 학습마다 승리노드와 그 영역크기(neighborhood size)내의 노드의 가중치를 갱신하는 HSOM은 SOM에서는 고려되지 않는 갱신 분포의 분산에 대한 고려가 필요하다. 이는 분포의 평균과는 달리 분산은 학습을 통해 모형이 최적화 되어 감에 따라 점차로 분포의 변화가 심하지 않게 줄여 나가는 작업이 필요하기 때문이다. For each learning, HSOM, which updates the weights of victory nodes and nodes within its neighborhood size, needs to consider the distribution of update distributions that are not considered in SOM. This is because, unlike the mean of the distribution, variance needs to be gradually reduced as the model is optimized through learning.

가중치에 대한 사전확률분포와 학습 데이터의 우도 함수에 의한 사후확률분포의 분산은 베이즈 정리에 의해서 사전분포의 분산에 비해 작아진다. 이 사후 분포가 다시 새로운 학습 데이터의 사전 분포가 되기 때문에 갱신 분포의 분산은 작아지게 된다. 이처럼 모형이 지능화되어 가면서 분산도 작아지게 되기 때문에 SOM의 학습률과 함께 분산의 감소에 대한 고려는 HSOM에서 자연스럽게 이루어진다. The variance of the post-probability distribution by the likelihood function of the weights and the prior probability distribution for the weights is smaller than the variance of the prior distribution by Bayes' theorem. Since this post-distribution becomes a pre-distribution of new learning data, the variance of the update distribution becomes small. As the model becomes intelligent, the variance becomes smaller, so consideration of the reduction of variance along with the learning rate of SOM is naturally made in HSOM.

사전확률분포와 우도 함수가 결정되면 베이즈 정리에 의해서 [수학식 12]의 사후 확률 분포의 형태를 얻게 된다. 여기에서, S(w) = βED + αEw 이고, Zs(α, β) = ∫exp(-βED - αEw)dw 이다. S(w)를 다시 풀어 정리하면 [수학식 13]와 같다. [수학식 13]에서 갱신해야 할 새로운 가중치 분포의 평균은 학습 데이터와 상관없이 사전에 고려되는 사전확률분포와 학습 데이터에 의한 우도 함수의 곱에 의한 사후 확률 분포의 평균에 대한 기대값(expectation)으로 계산된다. 이 때 사후확률분포의 기대값의 계산을 위한 적분은 몬테카를로 방법에 의해서 구해지는데, 이러한 방법들 중에서 특히 메트로폴리스(Metropolis) 알고리즘이 보편적으로 사용된다. 메트로폴리스 알고리즘에 의해 정의된 마코프 체인(markov chain)에서 새로운 상태, θ(t+1) 은 이전 상태인 θ(t) 로부터 생성된 특정 제안 분포(specified proposal distribution)의 후보 상태(candidate state)가 된다. 이 후보 상태는 이전 상태와 원래 분포의 확률값에 의해 받아들여지거나 기각된다.다음의 [알고리즘 2]는 HSOM의 계층(layer)의 크기를 결정하는 과정을 나타낸다.[알고리즘 2]When the prior probability distribution and the likelihood function are determined, the Bayes' theorem gives the form of the posterior probability distribution of Equation 12. Here, S (w) = βE D + αE w , and Z s (α, β) = ∫exp (−βE D −αE w ) dw . Solving S (w) again and summarizing [Equation 13]. The mean of the new weight distribution to be updated in Equation 13 is the expectation for the mean of the posterior probability distribution by the product of the prior probability distribution and the likelihood function of the training data, which are considered beforehand regardless of the training data. Is calculated. In this case, the integral for calculating the expected value of the posterior probability distribution is obtained by the Monte Carlo method. Among these methods, the Metropolis algorithm is commonly used. In the markov chain defined by the Metropolis algorithm, the new state, θ (t + 1), becomes the candidate state of the specified proposal distribution generated from the previous state, θ (t) . . This candidate state is either accepted or rejected by the probabilities of the previous state and the original distribution. [Algorithm 2] shows the process of determining the size of the HSOM layer.

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

Algorithm: HSOM_Size (Layer[k]) Algorithm: HSOM_Size (Layer [k])

Determine initial size of feature maps // 형상 지도의 차원 결정 Determine initial size of feature maps // Determine dimension of shape maps

for (i=0; i<=max; i++)for (i = 0; i <= max; i ++)

choose layer_size,choose layer_size,

input_layer_size[0]input_layer_size [0]

feature_layer_size[i] // 입력층과 형상 지도의 차원 결정feature_layer_size [i] // Determine dimension of input layer and shape map

endend

Set layers // 형상지도의 계층 구조 결정 Set layers // Determine hierarchy of shape map

current layer replaces as new feature_layer(layer_size[i]) current layer replaces as new feature_layer (layer_size [i])

// 차원의 변화에 따른 계층 구조 결정                                      // Determine hierarchy structure according to the change of dimension

for (i=0; i<=max; i++)for (i = 0; i <= max; i ++)

if (layer_ptr[i] == convergence_const) if (layer_ptr [i] == convergence_const)

// 차원의 수렴에 대한 조사// investigation of the convergence of dimensions

end 」HSOM의 계층(layer)의 크기를 결정하는 과정은 크게 2가지의 계층 구조로 구성되어 있는데, 우선 주어진 학습 데이터를 이용하여 학습을 하기 전에 HSOM의 초기 계층 구조를 결정한다. 이 단계에서는 학습 데이터의 입력구조가 초기화되고, 이 데이터로부터 처음 학습하기 위한 형상지도의 계층 크기가 결정된다. 한번 결정된 입력 데이터에 대한 구조는 HSOM의 최종 학습이 끝날 때까지 바뀌지 않지만 형상 지도의 계층 크기는 학습이 진행되는 동안 순차적으로 증가하여 주어진 조건이 만족될 때까지, 그리고 최적 군집의 결과에 대한 수렴이 이루어 질 때까지 계속된다.도 4와 도 5 및 [알고리즘 3]은 SOM 모형의 승리 노드 결정과 가중치의 확률적 분포 갱신 전략을 사용한 HSOM의 가중치 분포에 대한 갱신 절차를 나타낸 것이다. end 」The process of determining the size of the HSOM layer consists of two hierarchical structures. First, the initial hierarchical structure of the HSOM is determined before learning using the given training data. In this step, the input structure of the learning data is initialized, and the hierarchical size of the shape map for the first learning from this data is determined. The structure of the input data once determined does not change until the end of HSOM's final learning, but the hierarchical size of the shape map increases sequentially during the learning, until the given conditions are satisfied and the convergence of the optimal cluster results. 4, 5, and [Algorithm 3] show an update procedure for the weight distribution of HSOM using the winning node determination of the SOM model and the probabilistic distribution update strategy of the weights.

삭제delete

삭제delete

[알고리즘 3]Algorithm 3

Algorithm: Train_HSOM (Train[j]) Algorithm: Train_HSOM (Train [j])

// HSOM의 베이지안 확률 분포의 갱신   // update the Bayesian probability distribution of HSOM

Determine the winner node // 승리 노드의 결정 Determine the winner node // determine the winner node

// 가우시안 분포를 따르는 입력 벡터의 정규화        // normalize input vector along Gaussian distribution

Normalization of input vector, Gaussian distribution with mean 0, variance 1Normalization of input vector, Gaussian distribution with mean 0, variance 1

// 가중치의 hyper=parameter 결정         // determine hyper = parameter of weight

Choose the distribution of weights, w~f(θ) Choose the distribution of weights, w ~ f (θ)

// 최소 유클리디안 거리를 갖는 노드를 승자로 결정        // determine the node with the minimum Euclidean distance as the winner

Choose the winner node j*= arg max y, using Euclidean criteria.Choose the winner node j * = arg max y , using Euclidean criteria.

Update of parameters // 가중치 분포의 모수 갱신 Update of parameters // Update Parameter of Weight Distribution

wj New = wj Old+ α(j)K(j, j*)(X-wj Old),w j New = w j Old + α (j) K (j, j *) (Xw j Old ),

where, K(j, j*); Neighborhood functionwhere, K (j, j * ) ; Neighborhood function

endend

// 가중치 분포의 모수 갱신 작업의 반복 // iterate the parameter update task of the weight distribution

Replace old distribution by current. Replace old distribution by current.

// HSOM의 승리 노드 결정 // Determine Victory Node Of HSOM

Set Winner_index=0, Set Winner_index = 0,

maxval=-1000000 // 최대 반복 회수 지정     maxval = -1000000 // Specify maximum number of iterations

Find the winner neuron // 승리 노드 결정 Find the winner neuron // Determine Winning Node

for (j=0; j<=num_outputs; j++) for (j = 0; j <= num_outputs; j ++)

for (i=0; i<num_inputs; i++)for (i = 0; i <num_inputs; i ++)

// 최소 유클리디안 거리를 갖는 노드가 승리 노드가 됨// node with minimum Euclidean distance becomes the winning node

winner[i, j] = arg min x(k) - wj winner [i, j] = arg minx (k)-w j

endend

// 가중치 분포의 갱신 // update weight distribution

Set m=(int)alpha, delta=alpha-m Set m = (int) alpha, delta = alpha-m

// 가우시안 분포로부터 모수 생성// create parameter from Gaussian distribution

while(count<data_size)while (count <data_size)

v=rand()/32767.0, w=pow(y/m,delta)/(1+(y/m-1)*delta)v = rand () / 32767.0, w = pow (y / m, delta) / (1+ (y / m-1) * delta)

endend

// 수렴될 때까지 반복 학습 // iterate until convergence

Repeat Until given criteria satisfaction. Repeat Until given criteria satisfaction.

도 4와 상기 알고리즘에 나타낸 바와 같이 본 발명은, 먼저 입력벡터를 초기화 하고(S300) 초기의 가우시안 분포에서 각 형상 지도의 노드에 사용할 가중치들을 생성한다(S310). 초기의 사전분포는 평균이 0이고 분산이 1인 가우시안 분포를 사용한다. 이는 HSOM의 형상 지도에서 승리 노드의 결정에 있어서 유클리디안 거리를 사용하고, 또 입력 벡터의 값들이 평균이 0 분산이 1을 따르도록 초기화되었기 때문이다. 따라서 처음부터 가중치의 갱신은 자신들이 속한 분포의 모수에 대한 갱신이 된다. 이 값들이 계속되는 학습에 의해 갱신되는 것이다. As shown in FIG. 4 and the above algorithm, the present invention first initializes an input vector (S300) and generates weights to be used for nodes of each shape map in an initial Gaussian distribution (S310). The initial predistribution uses a Gaussian distribution with a mean of 0 and a variance of 1. This is because the Euclidean distance is used to determine the triumph node in the shape map of HSOM, and the values of the input vectors are initialized such that the mean follows zero variance. Therefore, updating the weight from the beginning is updating the parameters of the distribution to which they belong. These values are updated by subsequent learning.

다음으로 HSOM의 승리 노드를 결정한다(S320). 이 단계에서는 주어진 반복 학습의 최대 범위를 지정하고, 최종 가중치 값이 갱신될 형상 지도의 노드를 결정하게 된다. Next, the victory node of the HSOM is determined (S320). In this step, the maximum range of a given iterative learning is specified, and the node of the shape map whose final weight value is to be updated is determined.

도 5는 가중치의 분포를 갱신하는 절차를 나타낸 것이다. 새로운 가중치의 계산(S400)은 다음 [수학식 14]와 같이 행해진다. wj New = wj Old + α(j)K(j, j*)(X-wj Old) 5 shows a procedure for updating the distribution of weights. Calculation of the new weight (S400) is performed as shown in Equation 14 below. w j New = w j Old + α (j) K (j, j *) (Xw j Old )

삭제delete

여기에서, K(j, j*)는 이웃함수을 의미한다. 이때에는 가중치 분포인 가우시안 분포의 모수에 대한 하이퍼 파라미터에 대한 분포로부터 갱신이 이루어진다(S410). 상기 알고리즘에서는 하이퍼 파라미터에 대한 분포로서 감마 분포를 사용한 것인데, 그 이유는 베이지안의 사후 확률이 공액 분포가 되어 계산이 용이하게 되기 때문이다.Here, K (j, j * ) means a neighbor function. At this time, an update is made from the distribution of the hyperparameters for the parameters of the Gaussian distribution, which is the weight distribution (S410). The algorithm uses a gamma distribution as a distribution for the hyperparameters, because the Bayesian posterior probability becomes a conjugate distribution, making calculations easier.

본 발명에서 도시되고 설명된 방법들은 단지 하나의 실시예를 보인 것으로, 다양한 변화들이 본 발명의 범위와 정신을 벗어남이 없이 당업자에 의해 용이하게 구현될 수 있을 것이다.The methods shown and described in the present invention have shown only one embodiment, and various changes can be readily implemented by those skilled in the art without departing from the scope and spirit of the invention.

또한, 본 발명의 방법은 하드웨어 및 적절히 프로그램된 컴퓨터에 의해 구현될 수 있다. “컴퓨터 프로그램”은 플로피 디스크나 CD 등 컴퓨터로 판독 가능한 매체에 저장되거나 또는 인터넷과 같은 네트워크를 통해 다운로드할 수 있는, 또는 임의의 다른 방법으로 판매되는 임의의 소프트웨어 제품을 의미하는 것으로 이해되어야 한다.In addition, the method of the present invention may be implemented by hardware and a suitably programmed computer. A “computer program” is to be understood as meaning any software product that is stored on a computer readable medium, such as a floppy disk or CD, can be downloaded over a network such as the Internet, or sold in any other way.

이상에서 기술한 바와 같이 본 발명에서는 기존 SOM 모형의 초기 가중치 결정과 가중치 갱신에 확률분포를 적용한 HSOM 모형을 이용한 군집화 방법을 제안하였다.As described above, the present invention proposes a clustering method using the HSOM model in which a probability distribution is applied to initial weight determination and weight update of an existing SOM model.

본 발명에 의한 HSOM 모형을 이용한 군집화 방법은 초기 가중치 결정과 가중치 갱신에 확률분포에 기반한 베이지안 추론기법을 적용하여 기존 SOM의 비수렴성 문제를 해결함으로써 각 군집에 대한 대표 선호도 등을 구하는데 용이하게 이용될 수 있다.The clustering method using the HSOM model according to the present invention can be easily used to calculate the representative preference for each cluster by solving the non-convergence problem of the existing SOM by applying the Bayesian inference method based on probability distribution to initial weight determination and weight update. Can be.

도 1은 종래 자기형상지도(SOM)의 구조도1 is a structural diagram of a conventional magnetic shape map (SOM)

도 2는 본 발명에 따른 HSOM의 처리 과정을 나타낸 흐름도2 is a flowchart illustrating a process of HSOM according to the present invention.

도 3는 본 발명에 따른 HSOM의 초기화 과정을 나타낸 흐름도3 is a flowchart illustrating an initialization process of the HSOM according to the present invention.

도 4은 본 발명에 따른 HSOM의 승리 노드 결정 과정을 나타낸 흐름도4 is a flowchart illustrating a process of determining a victory node of HSOM according to the present invention.

도 5는 본 발명에 따른 HSOM의 가중치 분포에 대한 갱신절차를 나타낸 흐름도5 is a flowchart illustrating an update procedure for a weight distribution of HSOM according to the present invention.

Claims (6)

웹정보 추천을 위한 사용자 군집화 방법에 있어서:In the user clustering method for recommending web information: 초기화 단계;An initialization step; 승자노드 결정 단계;Determining a winner node; 가중치 분포의 모수갱신 단계;Parameter updating of the weight distribution; 군집화 단계로 이루어지고,In the clustering stage, 상기 초기화 단계는 가중치 벡터를 초기화하는 단계; 학습률을 초기화 단계; 이웃함수의 초기화 단계를 포함하며,The initializing step may include initializing a weight vector; Initializing the learning rate; Including the initialization of the neighbor function, 상기 승자노드 결정 단계는 입력벡터를 초기화하는 단계; 가중치 분포를 선택하는 단계; 입력벡터와 출력벡터 사이의 유클리디안 거리를 이용하여 승리노드를 선택하는 단계를 포함하고, The determining of the winner node may include initializing an input vector; Selecting a weight distribution; Selecting the victory node using the Euclidean distance between the input vector and the output vector, 상기 가중치 분포의 모수갱신 단계는 새로운 가중치로 갱신하는 단계; 이전의 갱신분포를 새로운 갱신 분포로 대체하는 단계를 포함하며, The parameter updating of the weight distribution may include updating with new weights; Replacing the previous update distribution with a new update distribution, 상기 가중치 벡터의 초기화 단계 및 가중치 갱신 단계는 지수족의 사전확률분포에 기반한 베이지안 추론기법을 적용함으로써 수렴성을 보장하는 것을 특징으로 하는 하이브리드 자기 조직화 형상지도를 이용한 사용자 군집화 방법.The user clustering method using a hybrid self-organizing shape map, wherein the initializing and weight updating steps of the weight vector ensure convergence by applying a Bayesian inference technique based on a prior probability distribution of the exponential group. 삭제delete 삭제delete 웹정보 추천을 위한 사용자 군집화 방법에 있어서,In the user clustering method for recommending web information, 초기화 단계;An initialization step; 승자노드 결정 단계;Determining a winner node; 가중치 분포의 모수갱신 단계;Parameter updating of the weight distribution; 군집화 단계로 이루어지고,In the clustering stage, 상기 초기화 단계는 가중치 벡터를 초기화하는 단계; 학습률을 초기화 단계; 이웃함수의 초기화 단계를 포함하며,The initializing step may include initializing a weight vector; Initializing the learning rate; Including the initialization of the neighbor function, 상기 승자노드 결정 단계는 입력벡터를 초기화하는 단계; 가중치 분포를 선택하는 단계; 입력벡터와 출력벡터 사이의 유클리디안 거리를 이용하여 승리노드를 선택하는 단계를 포함하고, The determining of the winner node may include initializing an input vector; Selecting a weight distribution; Selecting the victory node using the Euclidean distance between the input vector and the output vector, 상기 가중치 분포의 모수갱신 단계는 새로운 가중치로 갱신하는 단계; 이전의 갱신분포를 새로운 갱신 분포로 대체하는 단계를 포함하며, The parameter updating of the weight distribution may include updating with new weights; Replacing the previous update distribution with a new update distribution, 상기 가중치 벡터의 초기화 단계 및 가중치 갱신 단계는 지수족의 사전확률분포에 기반한 베이지안 추론기법을 적용함으로써 수렴성을 보장하는 것을 특징으로 하는 하이브리드 자기 조직화 형상지도를 이용한 사용자 군집화 프로그램을 기록한 기록매체.And a step of initializing the weight vector and updating the weight vector to ensure convergence by applying Bayesian inference techniques based on the prior probability distribution of the exponential group. 삭제delete 삭제delete
KR10-2003-0045537A 2003-07-05 2003-07-05 An user clustering method using hybrid som for web information recommending and a recordable media thereof KR100496414B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR10-2003-0045537A KR100496414B1 (en) 2003-07-05 2003-07-05 An user clustering method using hybrid som for web information recommending and a recordable media thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR10-2003-0045537A KR100496414B1 (en) 2003-07-05 2003-07-05 An user clustering method using hybrid som for web information recommending and a recordable media thereof

Publications (2)

Publication Number Publication Date
KR20050005594A KR20050005594A (en) 2005-01-14
KR100496414B1 true KR100496414B1 (en) 2005-06-21

Family

ID=37219794

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-2003-0045537A KR100496414B1 (en) 2003-07-05 2003-07-05 An user clustering method using hybrid som for web information recommending and a recordable media thereof

Country Status (1)

Country Link
KR (1) KR100496414B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102120150B1 (en) * 2018-09-07 2020-06-16 서울대학교산학협력단 Learning method and learning device for variational interference using neural network and test method and test device for variational interference using the same

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5729662A (en) * 1995-06-07 1998-03-17 Rozmus; J. Michael Neural network for classification of patterns with improved method and apparatus for ordering vectors
US6260036B1 (en) * 1998-05-07 2001-07-10 Ibm Scalable parallel algorithm for self-organizing maps with applications to sparse data mining problems
KR20020015851A (en) * 2000-08-23 2002-03-02 전홍건 Method for re-adjusting ranking document based cluster depending on entropy information and Bayesian SOM(Self Organizing feature Map)

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5729662A (en) * 1995-06-07 1998-03-17 Rozmus; J. Michael Neural network for classification of patterns with improved method and apparatus for ordering vectors
US6260036B1 (en) * 1998-05-07 2001-07-10 Ibm Scalable parallel algorithm for self-organizing maps with applications to sparse data mining problems
KR20020015851A (en) * 2000-08-23 2002-03-02 전홍건 Method for re-adjusting ranking document based cluster depending on entropy information and Bayesian SOM(Self Organizing feature Map)
US20020042793A1 (en) * 2000-08-23 2002-04-11 Jun-Hyeog Choi Method of order-ranking document clusters using entropy data and bayesian self-organizing feature maps

Also Published As

Publication number Publication date
KR20050005594A (en) 2005-01-14

Similar Documents

Publication Publication Date Title
CN110263227B (en) Group partner discovery method and system based on graph neural network
US20200293890A1 (en) One-shot learning for neural networks
US10762426B2 (en) Multi-iteration compression for deep neural networks
Purwar et al. Hybrid prediction model with missing value imputation for medical data
CN111542843A (en) Active development with collaboration generators
Bishop Bayesian neural networks
WO2002086814A1 (en) An on-line method for self-organized learning and extraction of fuzzy rules
CN112287166B (en) Movie recommendation method and system based on improved deep belief network
Barbakh et al. Review of clustering algorithms
Vadimovich et al. Self-adjusted evolutionary algorithms based approach for automated design of fuzzy logic systems
US20220129708A1 (en) Segmenting an image using a neural network
Ros et al. Automatic design of growing radial basis function neural networks based on neighboorhood concepts
Choudhury et al. Deep and structure-preserving autoencoders for clustering data with missing information
Aushev et al. Likelihood-free inference with deep Gaussian processes
KR100496414B1 (en) An user clustering method using hybrid som for web information recommending and a recordable media thereof
Zhou et al. Online recommendation based on incremental-input self-organizing map
Shi et al. An efficient hyper-parameter optimization method for supervised learning
EP4206998A1 (en) Computerized method for determining the reliability of a prediction output of a prediction model
KR100505755B1 (en) A System of Web Information Prediction Dynamic Recommendation in Internet Environment and A Methode Thereof
Saikia et al. Unsupervised pre-training on improving the performance of neural network in regression
Dalkilic et al. A fuzzy adaptive network approach to parameter estimation in cases where independent variables come from an exponential distribution
Thacker et al. Supervised learning extensions to the clam network
Alsalamah et al. Heart disease diagnosis based on deep radial basis function kernel machine
Zhou et al. Learning manifold implicitly via explicit heat-kernel learning
JP2004062482A (en) Data classifier

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130603

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20140602

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20150603

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20160608

Year of fee payment: 12

FPAY Annual fee payment

Payment date: 20170504

Year of fee payment: 13

FPAY Annual fee payment

Payment date: 20190605

Year of fee payment: 15