KR100496414B1 - An user clustering method using hybrid som for web information recommending and a recordable media thereof - Google Patents
An user clustering method using hybrid som for web information recommending and a recordable media thereof Download PDFInfo
- Publication number
- KR100496414B1 KR100496414B1 KR10-2003-0045537A KR20030045537A KR100496414B1 KR 100496414 B1 KR100496414 B1 KR 100496414B1 KR 20030045537 A KR20030045537 A KR 20030045537A KR 100496414 B1 KR100496414 B1 KR 100496414B1
- Authority
- KR
- South Korea
- Prior art keywords
- distribution
- weight
- initializing
- vector
- clustering
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0641—Shopping interfaces
- G06Q30/0643—Graphical representation of items or shoppers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/02—Protocols based on web technology, e.g. hypertext transfer protocol [HTTP]
Abstract
본 발명은 인터넷 등에서 사용자에게 필요한 맞춤 정보를 제공하기 위해 사용되는 웹 정보 추천을 위한 하이브리드 자기 조직화 형상지도(Hybrid Self- Organizing feature Maps)를 이용한 사용자 군집화 방법에 관한 것이다.The present invention relates to a user clustering method using hybrid self-organizing feature maps for recommending web information used to provide customized information necessary for a user on the Internet.
최근 인터넷 쇼핑몰과 같은 웹 사이트를 대상으로 각 사용자에게 가장 필요한 맞춤 정보를 제공하기 위한 웹 정보 추천 시스템에 대한 연구가 활발히 진행되고 있는데, 웹 정보 추천 시스템의 많은 유형 중에서 군집화를 이용한 정보 추천방법은 웹 사용자에 대하여 군집화를 수행한 한 후 새로운 사용자에 대한 특성과 그 사용자에게 가장 유사한 해당 군집의 대표 특성을 이용하여 차별화된 웹 정보 서비스를 행하는 방법이다.Recently, researches on the web information recommendation system for providing personalized information necessary for each user to the web sites such as internet shopping malls are actively conducted. Among many types of web information recommendation systems, the information recommendation method using clustering is web. After clustering a user, a method of performing differentiated web information service using characteristics of a new user and representative characteristics of a corresponding cluster most similar to the user is performed.
그런데 상기와 같은 군집화를 위한 방법의 하나로서 종래에는 자기조직형상지도(SOM) 모형이 이용되었으나, 이는 빠른 수행 속도와 간편하게 사용할 수 있는 장점이 있는 반면 수렴성을 보장할 수 없는 등 여러가지 문제점들이 있다. By the way, as one of the methods for clustering as described above, a conventional self-organization map (SOM) model is used, but there are various problems such as fast performance and ease of use, but it cannot guarantee convergence.
따라서, 본 발명에서는 종래의 문제점을 해결하기 위하여 하이브리드 자기조직 형상지도(HSOM)을 모형을 제안한다.Therefore, the present invention proposes a hybrid self-organization shape map (HSOM) model to solve the conventional problems.
본 발명에서 제안하는 HSOM 모형은 기존 SOM 모형의 초기 가중치 결정과 가중치 갱신에 확률분포를 적용한 모형으로서 군집화에 있어 정확한 수렴성을 보장할 수 있다.The HSOM model proposed by the present invention is a model in which probability distribution is applied to initial weight determination and weight update of an existing SOM model, thereby ensuring accurate convergence in clustering.
Description
본 발명은 인터넷 등에서 사용자에게 필요한 맞춤 정보를 제공하기 위해 사용되는 웹 정보 추천을 위한 하이브리드 자기 조직화 형상지도(Hybrid Self-Organizing feature Maps: 이하, “HSOM”이라 한다)를 이용한 사용자 군집화 방법 및 그 방법을 실현시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체에 관한 것이다.The present invention provides a method and method for clustering users using hybrid self-organizing feature maps (hereinafter referred to as “HSOM”) for recommending web information used to provide personalized information necessary for a user on the Internet. The present invention relates to a computer-readable recording medium having recorded thereon a program for realizing this.
최근 인터넷 쇼핑몰과 같은 웹 사이트를 대상으로 각 사용자에게 가장 필요한 맞춤 정보를 제공하기 위한 웹 정보 추천 시스템에 대한 연구가 활발히 진행되고 있는데, 웹 정보 추천 시스템의 많은 유형 중에서 군집화를 이용한 정보 추천방법은 웹 사용자에 대하여 군집화를 수행한 한 후 새로운 사용자에 대한 특성과 그 사용자에게 가장 유사한 해당 군집의 대표 특성을 이용하여 차별화된 웹 정보 서비스를 행하는 방법이다.Recently, researches on the web information recommendation system for providing personalized information necessary for each user to the web sites such as internet shopping malls are actively conducted. Among many types of web information recommendation systems, the information recommendation method using clustering is web. After clustering a user, a method of performing differentiated web information service using characteristics of a new user and representative characteristics of a corresponding cluster most similar to the user is performed.
군집화(clustering)란 주어진 학습 데이터에서 각각의 개체들을 다양한 특성의 유사성을 바탕으로 동질적인 몇 개의 군집(cluster)으로 분류하는 방법이다. 이러한 군집화의 바람직한 결과는 같은 군집에 속한 개체들끼리는 어떤 종류의 밀접한 상사성이 있으며, 서로 다른 군집에 속한 개체 사이에는 상대적 비상사성이 존재해야 한다. 판별분석(discriminant analysis)은 각 개체가 어느 군집에 속해있는지를 알고 주어진 데이터를 이용하여 판별 함수를 유도하고 이를 이용하여 군집이 알려지지 않은 각 개체를 분류하고자 하는 방법인데 반해 군집분석은 각 개체가 어느 군집에 속해 있는지를 모르며 전체 군집이 몇 개인지도 모르는 데이터를 이용하여 개체를 동질적인 군집으로 할당하는 방법이다. Clustering is a method of classifying each individual object into several homogeneous clusters based on similarity of various characteristics in a given learning data. The desirable result of such clustering is that there is some kind of close similarity between individuals belonging to the same community, and there must be relative incompatibility between individuals belonging to different clusters. Discriminant analysis is a method that knows which clusters each entity belongs to and derives a discriminant function using the given data, and uses them to classify each unknown entity. This is a method of assigning objects to homogeneous clusters using data that does not know whether they belong to a cluster and how many total clusters.
일반적으로 종래에 많이 사용되어 온 군집방법 중에는 AHC(Agglomerative Hierarchical Clustering) 알고리즘이 있는데, 이 알고리즘은 대상 데이터가 많은 경우에 속도가 떨어진다는 단점이 있다. 또 다른 방법으로는 싱글 링크(Single-link)와 그룹 평균(Group-average) 방법이 있는데, 이는 알고리즘이 수행되기 위해 많은 시간이 소요되는 문제점이 있었다.In general, there is an AHC (Agglomerative Hierarchical Clustering) algorithm among the clustering methods that have been widely used in the prior art, this algorithm has a disadvantage that the speed is slow when there is a lot of target data. Another method is a single-link and group-average method, which takes a long time to perform the algorithm.
한편, 또다른 방법인 신경망의 SOM을 이용한 군집화 방법은 여러 가지 신경망 모형 중에서 인간의 뇌 구조를 가장 잘 모형화한 자기조직화 형상지도(Self-Organizing feature Maps: 이하, “SOM”이라 한다)로 1980년대 초에 Kohonen에 의해 제안된 신경망(neural networks) 모형인데 상기 SOM은 신경망 중에서도 학습 자료에 대한 결과값을 모르고 학습이 수행되는 자율 학습(unsupervised learning) 구조를 가지고 있다. On the other hand, the clustering method using SOM of neural network is Self-Organizing feature Maps (hereinafter referred to as “SOM”) that best models the human brain structure among various neural network models. The neural networks model proposed by Kohonen at the beginning is the SOM, which has an unsupervised learning structure in which learning is performed without knowing the result of the learning data among neural networks.
그러나 상기의 SOM이 광범위하게 적용되어 왔고 또 많은 중요한 연구들이 이루어져 왔지만 여기에는 아직도 해결되지 않은 다음과 같은 여러 문제들이 있다. However, although the above-mentioned SOM has been widely applied and many important studies have been made, there are a number of problems that are still unresolved.
첫째로, SOM은 자료 공간(data space) 내에서 밀도 함수(density function)가 정의되고 있지 않다. 즉 학습 데이터의 분포와 가중치 분포간의 관계가 정형화되는 방법을 갖고 있지 못한다.First, SOM does not have a density function defined in the data space. In other words, it does not have a way of formalizing the relationship between the distribution of the training data and the weight distribution.
둘째로, SOM의 학습 알고리즘에는 오차(error)를 관리하는 목적 함수(objective function)를 최적화하는 과정이 없다. 따라서 이러한 목적 함수의 역할을 담당하는 확률적 분포를 이용하여 목적 함수를 구축하고 최적화하는 작업이 필요하다. Second, there is no process of optimizing an objective function that manages errors in the learning algorithm of SOM. Therefore, it is necessary to build and optimize the objective function using the stochastic distribution that plays the role of the objective function.
셋째로, SOM의 학습 알고리즘이 항상 수렴한다는 일반적인 보장이 없다. 특히 학습이 끝난 최종 모형이 국지적 최적값(local optimal value)로 빠지는 경우가 종종 있게 된다. 따라서 학습 데이터를 이용한 모델이 허용 한계 내에서 전역적 최적값(global optimal value)에 수렴하게 하는 방안이 필요하다. Third, there is no general guarantee that SOM's learning algorithms always converge. In particular, the final model after learning often falls into local optimal values. Therefore, there is a need for a method using a training data that converges to a global optimal value within tolerance.
넷째로, SOM은 모형의 모수로 선택되는 최적값을 결정하는 이론적인 구조(theoretical framework)가 없다. 즉 SOM은 입력층으로부터 출력층으로의 연결을 통한 가중치의 갱신을 통한 모형이지만 새로운 입력에 대한 예측값을 계산할 때 예측값이 나오게 된 과정보다는 예측값 자체에 의미를 주기 때문에 예측 모형에 대한 설명이 절대적으로 부족하다. 예를 들어 학습률(learning rate)에 대한 초기값의 결정과 변화 규칙, 이웃 함수(neighborhood function)의 감소율 등에 대한 함수, 가중치의 갱신 분포 등에 대한 이론적 구조가 전혀 없다. 이렇게 이론적 바탕이 부족한 신경망 모형에서 예측 결과값에 대한 모형적 해석을 가능하게 하는 방안이 필요하다. Fourth, SOM does not have a theoretical framework that determines the optimal value chosen as the model parameter. In other words, SOM is a model through the update of the weight through the connection from the input layer to the output layer, but the description of the prediction model is absolutely insufficient because it gives meaning to the prediction value itself rather than the process of generating the prediction value when calculating the prediction value for the new input. . For example, there is no theoretical structure for determining the initial value for the learning rate, changing rules, functions for decreasing the neighborhood function, and update distribution of weights. In this neural network model that lacks the theoretical basis, there is a need for a method that enables a model interpretation of prediction results.
다섯째로, SOM은 다른 SOM 모형이나 이질적인 구조(architectures)의 학습 모형들과의 비교가 불가능하다. 이는 모형에 대한 명확한 수리적 규칙이 정의되지 않기 때문이며 일반적인 모형 평가의 수리적 측도를 SOM 모형에도 적용시켜야 한다. Fifth, SOM cannot be compared with other SOM models or learning models of heterogeneous architectures. This is because no explicit mathematical rules for the model are defined, and the mathematical measures of general model evaluation should also be applied to the SOM model.
따라서, 본 발명은 빠른 학습능력을 유지하면서 군집결과에 대한 수렴성을 보장하는 HSOM을 제안함으로써 상기와 같은 SOM에서는 해결할 수 없는 모형적 한계를 극복할 수 있는 방안을 제공하는 것을 목적으로 한다. Accordingly, an object of the present invention is to provide a method for overcoming the model limitations that cannot be solved in the SOM by proposing a HSOM that guarantees convergence of clustering results while maintaining fast learning ability.
상기와 같은 문제점을 해결하기 위한 본 발명에 따른 웹 정보 추천을 위한 사용자 군집화 방법은 초기화 단계; 승자노드 결정 단계; 가중치 분포의 모수갱신 단계; 군집화 단계로 이루어지고, 상기 초기화 단계는 가중치 벡터를 초기화하는 단계; 학습률을 초기화 단계; 이웃함수의 초기화 단계를 포함하며, 상기 승자노드 결정 단계는 입력벡터를 초기화하는 단계; 가중치 분포를 선택하는 단계; 입력벡터와 출력벡터 사이의 유클리디안 거리를 이용하여 승리노드를 선택하는 단계를 포함하고, 상기 가중치 분포의 모수갱신 단계는 새로운 가중치로 갱신하는 단계; 이전의 갱신분포를 새로운 갱신 분포로 대체하는 단계를 포함하며, 상기 가중치 벡터의 초기화 단계 및 가중치 갱신 단계는 지수족의 사전확률분포에 기반한 베이지안 추론기법을 적용함으로써 수렴성을 보장하는 것을 특징으로 한다.A user clustering method for recommending web information according to the present invention for solving the above problems includes an initialization step; Determining a winner node; Parameter updating of the weight distribution; A clustering step, wherein the initializing step comprises: initializing a weight vector; Initializing the learning rate; Initializing a neighbor function, wherein determining a winner node comprises: initializing an input vector; Selecting a weight distribution; Selecting a victory node using a Euclidean distance between an input vector and an output vector, wherein updating the parameters of the weight distribution comprises: updating with new weights; Replacing the previous update distribution with a new update distribution, wherein the initializing and weighting updating of the weight vector are characterized by ensuring convergence by applying a Bayesian inference technique based on the prior probability distribution of the exponential group.
이하, 본 발명에 관하여 수학식과 도면을 참조하여 보다 구체적으로 기술한다.Hereinafter, the present invention will be described in more detail with reference to equations and drawings.
일반적으로 군집분석은 총 N개의 개체에 대해 p개의 군집 변수를 이용하여 모든 개체들 사이의 비유사성(dissimilarity)을 나타내는 거리 행렬(distance matrix)을 계산한 후 이 거리 행렬을 이용하여 군집을 형성하는 과정으로 이루어진다. 군집의 유형은 계층적 군집(hierarchical cluster)과 상호 배반적 군집(disjoint cluster) 두 가지의 경우가 있다. In general, cluster analysis calculates a distance matrix representing dissimilarity among all the individuals using p cluster variables for a total of N individuals, and then uses the distance matrix to form a cluster. The process takes place. There are two types of clusters: hierarchical clusters and disjoint clusters.
계층적 군집은 한 군집이 다른 군집의 내부에 포함되나 군집 간에는 중복이 허용되지 않고 나무 모양 그림(dendrogram)의 형식을 취하는 유형이며, 상호 배반적 군집은 각 개체가 상호 배반적인 여러 군집 중 하나에만 속하는 유형을 말한다. 총 N개의 개체에 대하여 p개의 군집변수를 이용하는 경우 이는 [수학식1]과 같이 N×p 데이터 행렬로 같이 표시할 수 있다. 여기서 p개의 군집변수는 표준화된 변수를 이용한다.
삭제delete
삭제delete
삭제delete
삭제delete
삭제delete
삭제delete
상기와 같이 N×N 거리 행렬이 주어진 경우의 계층적 군집화 방법에는 병합적(agglomerative) 방법과 분할적(division) 방법이 있다. 병합적 방법은 가까운 객체들끼리 묶어감으로써 군집을 만들어가는 방법이며, 분할적 방법은 반대로 먼 객체들을 나누어가는 방법이다. 이와 같은 군집들이 병합 또는 분리되는 과정은 나무 모양 그림을 이용하여 간단히 표현할 수 있다. 병합적 방법을 이용하여 군집을 형성하는 과정은 다음과 같다.As described above, hierarchical clustering methods in a case where an N × N distance matrix is given include an agglomerative method and a division method. The merging method is a method of making clusters by tying nearby objects together, while the partitioning method is a method of dividing distant objects. The process of merging or separating these clusters can be expressed simply using a tree-shaped figure. The process of forming a cluster using a merging method is as follows.
1) 최초에 N 개의 군집으로 시작하며, N×N 거리 행렬 D 를 만든다.1) Start with N clusters first, then create an N × N distance matrix, D.
2) 군집간의 거리가 가장 작은 두 군을 묶어 하나의 군집으로 만든다.2) Combine two groups with the smallest distance between them into one cluster.
3) 2)에서 형성된 새로운 군집과 나머지 군집들 간의 거리를 계산하여 새로운 거리 행렬 D1을 만든다.3) Create a new distance matrix D1 by calculating the distance between the new cluster formed in 2) and the remaining clusters.
4) 2)와 3)의 과정을 N-1 번 반복한다.4) Repeat the process of 2) and 3) N-1 times.
또한 병합적인 방법은 군집간의 거리를 정의하는 방법에 따라서 최단 연결법(single linkage method), 최장 연결법(complete linkage method), 중심 연결법(centroid linkage method), 중앙값 연결법(median linkage method), 평균 연결법(average linkage method) 등이 있다. 예를 들어 이들 방법 중에서 최단 연결법은 두 군집 C1, C2 사이의 거리를 각 군집에 속하는 두 개체들 사이의 거리 중 최단거리를 이용하는 방법으로서 [수학식 4]와 같이 나타낼 수 있다.
삭제delete
삭제delete
삭제delete
한편, 음성 인식, 문자 인식, 구문 분석 등 다양한 분야에 응용되는 SOM은 도 1과 같이 입력층과 출력층으로 구성된 순방향 단층 신경망 구조를 가지고 있다. SOM의 연결강도인 가중치는 정규화된 입력 벡터에 대응되는 출력 노드의 중심값(centroid value)과 같은 역할을 하며 학습 동안에 입력 벡터와 가장 가까운 측도(유클리디안 거리)를 갖는 출력 노드가 승자(winner)가 되고, 이 승자 노드와 이웃하는 노드들의 가중치만이 갱신된다. 특히 SOM은 다층 신경망(multi-layer perceptron)과 같은 지도 학습(supervised learning) 모형에 비해 매우 단순한 2개의 층(layer)으로 이루어지면서 다차원의 자료를 2차원의 형상 지도(feature maps)로 투영(projection)시켜 스스로 경쟁 학습(competitive learning)을 할 수 있도록 한다. 이때 2개의 층은 입력 벡터를 갖는 입력층(input layer)과 형상 지도를 갖는 출력층(output layer)이다. 출력층으로서의 경쟁층(competitive layer)은 일반적으로 2차원 지도(maps)로 되어 있다. 자기 조직화 형상 지도 모형은 오류 역전파(back propagation) 모형과는 달리 여러 단계의 피드백을 거치지 않고 오직 한 번의 전방 전달(feedforward flow)만을 사용하며 입력층에서 출력층으로 모두가 연결(fully connected)되어 있는 구조를 가지고 있다.Meanwhile, the SOM applied to various fields such as speech recognition, character recognition, and syntax analysis has a forward monolayer neural network structure composed of an input layer and an output layer as shown in FIG. 1. The weight, which is the connection strength of the SOM, acts like the centroid value of the output node corresponding to the normalized input vector, and the output node with the closest measure (Euclidian distance) to the input vector during training is the winner. ), Only the weights of this winner node and neighboring nodes are updated. In particular, SOM consists of two very simple layers compared to supervised learning models such as multi-layer perceptrons, and projects multidimensional data into two-dimensional feature maps. So that you can do competitive learning yourself. In this case, the two layers are an input layer having an input vector and an output layer having a shape map. Competitive layers as output layers are generally two-dimensional maps. Self-organized shape map models, unlike error back propagation models, use only one feedforward flow without multiple levels of feedback and are fully connected from the input layer to the output layer. It has a structure.
SOM에서 초기 뉴런의 연결강도는 0에서 1사이의 균일 분포(uniform distribution)에서 생성된 난수값으로 적당히 초기화한다. 이때 입력 벡터는 0에서 1사이의 값을 갖도록 정규화 된다. 이러한 초기화 이후의 학습은 출력층의 각 노드의 가중치와 대응되는 입력 벡터의 각 값들의 거리를 계산하며, 거리 측도로는 보통 유클리디안 거리를 사용한다. 최종적으로는 주어진 입력 벡터와의 거리가 가장 작은 출력 노드가 승리하게 된다. 그리고 이 승자 노드만이 출력되게 된다. 하지만 가중치의 갱신 학습은 승자 노드와 이에 이웃하는 노드들도 할 수 있다. 즉 SOM의 학습 규칙은 승자 독점(winner take all)으로서, 모든 출력과 갱신이 승자 노드를 중심으로 이루어진다. 승자 노드의 이웃 영역은 아주 가까운 노드만 제한하지 않고 학습의 초기에는 영역의 범위(neighborhood size)를 층내의 모든 뉴런으로 확장한 후 학습이 진행되는 동안 점차로 줄여 나가는 방법을 사용한다. 최종적으로는 단지 승자 노드의 가중치만이 갱신된다. 승자 노드를 중심으로 한 가중치 갱신은 [수학식 6]과 같이 계산된다.
삭제delete
삭제delete
SOM의 학습은 단순히 연결강도 벡터와 입력 벡터의 차이를 계산하여 이 값을 학습율 만큼 이전의 연결강도 벡터에 더한다. 이때 승자 노드의 연결 강도만을 변화시키는 것이 아니고 승자 노드의 이웃 영역 내의 노드들도 같은 방식에 의해 변화시킨다. 다시 말해 이 때에는 승자노드만 갱신할 수도 있고 승자 노드와 이에 이웃하는 노드들도 함께 갱신될 수 있는데, 승자노드만 갱신하는 것은 이웃의 범위를 0으로 하는 특별한 경우에 해당한다.SOM learning simply calculates the difference between the link strength vector and the input vector and adds this value to the previous link strength vector by the learning rate. In this case, not only the connection strength of the winner node is changed but also the nodes in the neighboring region of the winner node are changed in the same manner. In other words, in this case, only the winner node may be updated or the winner node and neighboring nodes may be updated together, and updating only the winner node corresponds to a special case where the range of the neighbor is zero.
SOM의 자료가 학습되는 동안 입력 벡터는 2차원의 형상 지도에 투영되어 출력 노드의 경쟁학습을 일으킨다. 즉 다차원의 입력 벡터는 SOM의 형상 지도로 투영되면서 차원의 축소가 일어나고, 개개의 학습 자료는 군집의 개수에 대한 제약 없이 서로 경쟁적으로 군집을 형성한다. While the SOM's data is being learned, the input vector is projected onto a two-dimensional shape map, resulting in competitive learning of the output nodes. In other words, the multidimensional input vector is projected onto the shape map of the SOM, and the dimension reduction occurs, and the individual learning materials form clusters competitively with each other without limitation on the number of clusters.
SOM에서는 반복적인 학습이 이루어지기 때문에 학습을 종료시키는 조건이 있어야 하는데, Kohonen이 제안한 학습 종료의 수렴 조건은 학습 데이터와 형상 지도의 각 노드의 거리가 학습하기 전에 명시한 수렴값 보다 작게 되면 학습을 종료한다. 학습의 최대 반복 회수를 미리 정하여 수렴 조건과 병행하여 사용할 수도 있다.In SOM, there is a condition to terminate learning because repetitive learning occurs. Kohonen's proposed convergence condition of learning termination is that learning ends when the distance between each data node in the shape map is smaller than the specified convergence value before learning. do. A maximum number of iterations of learning may be predetermined and used in parallel with convergence conditions.
그런데, SOM은 앞에서도 언급한 바와 같이 학습 알고리즘이 항상 수렴한다는 일반적인 보장이 없고, 특히 학습이 끝난 최종 모형이 종종 국지적 최적값(local optimal value)로 빠지는 문제점이 있다. 따라서 학습 데이터를 이용한 모델이 허용 한계 내에서 전역적 최적값(global optimal value)에 수렴하게 하는 방안이 필요하다.However, as mentioned above, the SOM does not have a general guarantee that the learning algorithm always converges, and in particular, the final model that has been learned often falls into a local optimal value. Therefore, there is a need for a method using a training data that converges to a global optimal value within tolerance.
따라서, 본 발명에서는 빠른 학습 능력을 유지하면서 군집 결과에 대한 수렴성을 보장하는 HSOM을 제안한다. 본 발명에서 제안하는 HSOM은 기존의 SOM 모형의 초기 가중치 결정과 가중치 갱신에 확률분포를 적용한 것이다. 여기에서, 확률분포란 확률변수가 취할 수 있는 값의 확률을 의미하는데, 본 발명에서는 신경망의 가중치를 확률변수로 정의하고 가중치에 대한 확률분포를 구하게 된다.Therefore, the present invention proposes an HSOM that guarantees convergence of clustering results while maintaining fast learning ability. The HSOM proposed by the present invention applies probability distribution to initial weight determination and weight update of the existing SOM model. Here, the probability distribution means the probability of the value that the random variable can take. In the present invention, the weight of the neural network is defined as the random variable and the probability distribution for the weight is obtained.
이하, 본 발명에서 제안하는 HSOM에 대하여 보다 구체적을 기술한다.Hereinafter, the HSOM proposed by the present invention will be described in more detail.
도 2 는 HSOM 알고리즘의 처리 과정을 나타낸 흐름도이다. 도에서 알 수 있는 바와 같이 HSOM 알고리즘은 먼저 관련된 파라미터들을 초기화 한다(S100). 그리고 다음 단계에서는 정해진 방법에 의하여 승자 노드를 결정하고(S110), 가중치를 갱신한다(S120). 그리고 HSOM 알고리즘은 상기 승자 노드를 결정 단계와 가중치를 갱신 단계를 주어진 조건이 만족할 때까지 반복한 후 과정을 종료하게 된다.도 3은 HSOM의 초기화 과정을 나타낸 흐름도이고, [알고리즘 1]은 HSOM의 초기화를 수행하는 코드를 나열한 것이다.[알고리즘 1]2 is a flowchart illustrating a process of the HSOM algorithm. As can be seen from the HSOM algorithm first initializes the relevant parameters (S100). In the next step, the winner node is determined according to a predetermined method (S110), and the weight is updated (S120). The HSOM algorithm repeats the determining of the winner node and the updating of the weight until the given condition is satisfied. FIG. 3 is a flowchart illustrating the initialization of HSOM, and [Algorithm 1] is List the code that performs the initialization. [Algorithm 1]
삭제delete
삭제delete
Algorithm: Initialize_HSOM (Input[i]) Algorithm: Initialize_HSOM (Input [i])
// HSOM의 초기화1: 네트워크 상수의 초기화 // initialization of HSOM 1: initialization of network constants
Initialize network parameter; Input_layer(int i, int o, int init_neigh_size)Initialize network parameter; Input_layer (int i, int o, int init_neigh_size)
num_inputs=i, num_outputs=o // 입력 벡터와 출력 벡터의 초기화 num_inputs = i, num_outputs = o // Initialize the input and output vectors
neighborhood_size=init_neigh_size // 형상 지도의 이웃반경의 초기화neighborhood_size = init_neigh_size // Initialize the neighbor radius of the shape map
weights = new float[num_inputs*num_outputs] // 가중치 지정weights = new float [num_inputs * num_outputs] // specify weights
outputs = new float[num_outputs] // 출력값 지정outputs = new float [num_outputs] // specify outputs
// HSOM의 초기화1: 확률 분포의 초기화 // initialization of HSOM 1: initialization of probability distribution
Initialize bayesian distributions // 베이지안 확률 분포 결정 Initialize bayesian distributions // Determine Bayesian Probability Distributions
Initialization of the weight vector, wj(0) to haveInitialization of the weight vector, w j (0) to have
probabilistic distribution, N(0, 1). probabilistic distribution, N (0, 1).
// 초기 가중치의 분포를 평균과 분산이 각각 0과 1인 가우시안 // the distribution of the initial weights is a Gaussian with mean and variance of 0 and 1, respectively
분포로 결정 Determined by distribution
Initialization of the learning rate α(0), α(t)∝t-α; 0<α<1,. Initialization of the learning rate α (0), α (t) ∝t -α ; 0 <α <1 ,.
// 학습율 함수의 결정// determine the learning rate function
Initialization of the neighborhood function K(j, j*),Initialization of the neighborhood function K (j, j * ) ,
K decreases as to increase |j-j*|// 이웃 반경 함수의 결정 K decreases as to increase | jj * | // Determine neighbor radius function
삭제delete
여기에서, 입력함수의 i는 입력벡터, o는 출력벡터, 그리고 init_neigh_size 는 이웃 반경을 의미한다.Where i is the input vector, o is the output vector, and init_neigh_size is the neighbor radius.
도 3과 상기 알고리즘에서와 같이 HSOM의 초기화 과정은 먼저, 가중치 벡터를 초기화 한다(S200). 이 때, 초기 가중치 벡터 wj(0)는 확률분포를 갖는다. 다음으로 학습률을 초기화 한다(S210). 초기 학습률 α(0)은 α(t)∝t-α 와 0<α<1의 조건을 만족해야 한다. 그리고 다음 단계에서는 본 발명에서 새롭게 도입된 이웃함수(또는 “이웃반경함수”라고도 함) K(j, j*)를 초기화 한다(S220). 이웃함수는 |j-j*| 값이 증가함에 따라 K값은 감소하도록 한다.As shown in FIG. 3 and the above algorithm, the initialization process of the HSOM first initializes the weight vector (S200). At this time, the initial weight vector w j (0) has a probability distribution. Next, the learning rate is initialized (S210). The initial learning rate α (0) must satisfy the conditions α (t) ∝ t-α and 0 <α <1 . In the next step, the neighbor function (or “neighbor radius function”) K (j, j * ) newly introduced in the present invention is initialized (S220). Neighbor function | jj * | As the value increases, the K value decreases.
이와 같이 초기화 단계를 거친 HSOM은 우선적으로 가중치의 사전확률분포를 고려해야 한다. 이 분포는 구축하려는 모형의 구조로부터 가중치에 대한 사전정보(prior knowledge)를 갖는데, 일반적으로 초기 가중치의 분포는 [수학식 7]에서 나타낸 것과 같은 지수족(exponential family)의 사전확률분포(prior probability distribution)를 갖는다.
삭제delete
삭제delete
삭제delete
삭제delete
삭제delete
삭제delete
또한, 이 사전확률분포의 모수는 하이퍼 파라미터를 갖는다. 예를 들어 가중치 벡터는 가우시안 분포를 따르는 확률변수라고 가정하면, 이 가우시안 분포는 가중치 벡터내의 각 요소(component)들에 대한 각기 다른 모수를 갖는다. 즉, i번째 가중치인 ω i 는 평균이 μi 이고 분산이 σi 2 인 가우시안 분포를 따르게 되고, 이러한 가우시안 분포에서 μ는 N(0, 1)의 사전 분포(prior distribution)를 가지며, 분산은 알고 있는 고정된 값으로 결정하거나 위치 모수와 형상 모수를 갖는 역 감마분포(inverse gamma distribution)의 사전 분포를 갖는 초기 가중치를 고려할 수 있다.In addition, the parameter of this prior probability distribution has a hyperparameter. For example, assuming that the weight vector is a random variable following a Gaussian distribution, this Gaussian distribution has different parameters for each component in the weight vector. That is, the i th weight ω i follows a Gaussian distribution with mean μ i and variance σ i 2 , where μ has a prior distribution of N (0, 1) , where variance is It is possible to determine with a known fixed value or consider an initial weight with a prior distribution of an inverse gamma distribution with position and shape parameters.
p 차원의 입력벡터에서 각각의 노드들 간의 서로 다른 척도(scale)에 의한 영향을 없애기 위해서 각각의 입력 노드들에 대한 표준화(normalization)가 필요하다. i 번째 입력 노드 xi = (xi1, …, xip)의 표준화는 각 노드의 값들에서 각 노드의 전체 평균을 빼고, 다시 이 값을 각 노드의 전체 표준편차로 나누어 계산한다. 즉 표준화된 i 번째 입력노드는 다음의 [수학식 10]과 같다.
삭제delete
삭제delete
삭제delete
삭제delete
각 학습마다 승리노드와 그 영역크기(neighborhood size)내의 노드의 가중치를 갱신하는 HSOM은 SOM에서는 고려되지 않는 갱신 분포의 분산에 대한 고려가 필요하다. 이는 분포의 평균과는 달리 분산은 학습을 통해 모형이 최적화 되어 감에 따라 점차로 분포의 변화가 심하지 않게 줄여 나가는 작업이 필요하기 때문이다. For each learning, HSOM, which updates the weights of victory nodes and nodes within its neighborhood size, needs to consider the distribution of update distributions that are not considered in SOM. This is because, unlike the mean of the distribution, variance needs to be gradually reduced as the model is optimized through learning.
가중치에 대한 사전확률분포와 학습 데이터의 우도 함수에 의한 사후확률분포의 분산은 베이즈 정리에 의해서 사전분포의 분산에 비해 작아진다. 이 사후 분포가 다시 새로운 학습 데이터의 사전 분포가 되기 때문에 갱신 분포의 분산은 작아지게 된다. 이처럼 모형이 지능화되어 가면서 분산도 작아지게 되기 때문에 SOM의 학습률과 함께 분산의 감소에 대한 고려는 HSOM에서 자연스럽게 이루어진다. The variance of the post-probability distribution by the likelihood function of the weights and the prior probability distribution for the weights is smaller than the variance of the prior distribution by Bayes' theorem. Since this post-distribution becomes a pre-distribution of new learning data, the variance of the update distribution becomes small. As the model becomes intelligent, the variance becomes smaller, so consideration of the reduction of variance along with the learning rate of SOM is naturally made in HSOM.
사전확률분포와 우도 함수가 결정되면 베이즈 정리에 의해서 [수학식 12]의 사후 확률 분포의 형태를 얻게 된다.
삭제delete
삭제delete
삭제delete
삭제delete
삭제delete
삭제delete
Algorithm: HSOM_Size (Layer[k]) Algorithm: HSOM_Size (Layer [k])
Determine initial size of feature maps // 형상 지도의 차원 결정 Determine initial size of feature maps // Determine dimension of shape maps
for (i=0; i<=max; i++)for (i = 0; i <= max; i ++)
choose layer_size,choose layer_size,
input_layer_size[0]input_layer_size [0]
feature_layer_size[i] // 입력층과 형상 지도의 차원 결정feature_layer_size [i] // Determine dimension of input layer and shape map
endend
Set layers // 형상지도의 계층 구조 결정 Set layers // Determine hierarchy of shape map
current layer replaces as new feature_layer(layer_size[i]) current layer replaces as new feature_layer (layer_size [i])
// 차원의 변화에 따른 계층 구조 결정 // Determine hierarchy structure according to the change of dimension
for (i=0; i<=max; i++)for (i = 0; i <= max; i ++)
if (layer_ptr[i] == convergence_const) if (layer_ptr [i] == convergence_const)
// 차원의 수렴에 대한 조사// investigation of the convergence of dimensions
end 」HSOM의 계층(layer)의 크기를 결정하는 과정은 크게 2가지의 계층 구조로 구성되어 있는데, 우선 주어진 학습 데이터를 이용하여 학습을 하기 전에 HSOM의 초기 계층 구조를 결정한다. 이 단계에서는 학습 데이터의 입력구조가 초기화되고, 이 데이터로부터 처음 학습하기 위한 형상지도의 계층 크기가 결정된다. 한번 결정된 입력 데이터에 대한 구조는 HSOM의 최종 학습이 끝날 때까지 바뀌지 않지만 형상 지도의 계층 크기는 학습이 진행되는 동안 순차적으로 증가하여 주어진 조건이 만족될 때까지, 그리고 최적 군집의 결과에 대한 수렴이 이루어 질 때까지 계속된다.도 4와 도 5 및 [알고리즘 3]은 SOM 모형의 승리 노드 결정과 가중치의 확률적 분포 갱신 전략을 사용한 HSOM의 가중치 분포에 대한 갱신 절차를 나타낸 것이다. end 」The process of determining the size of the HSOM layer consists of two hierarchical structures. First, the initial hierarchical structure of the HSOM is determined before learning using the given training data. In this step, the input structure of the learning data is initialized, and the hierarchical size of the shape map for the first learning from this data is determined. The structure of the input data once determined does not change until the end of HSOM's final learning, but the hierarchical size of the shape map increases sequentially during the learning, until the given conditions are satisfied and the convergence of the optimal cluster results. 4, 5, and [Algorithm 3] show an update procedure for the weight distribution of HSOM using the winning node determination of the SOM model and the probabilistic distribution update strategy of the weights.
삭제delete
삭제delete
[알고리즘 3]Algorithm 3
Algorithm: Train_HSOM (Train[j]) Algorithm: Train_HSOM (Train [j])
// HSOM의 베이지안 확률 분포의 갱신 // update the Bayesian probability distribution of HSOM
Determine the winner node // 승리 노드의 결정 Determine the winner node // determine the winner node
// 가우시안 분포를 따르는 입력 벡터의 정규화 // normalize input vector along Gaussian distribution
Normalization of input vector, Gaussian distribution with mean 0, variance 1Normalization of input vector, Gaussian distribution with mean 0, variance 1
// 가중치의 hyper=parameter 결정 // determine hyper = parameter of weight
Choose the distribution of weights, w~f(θ) Choose the distribution of weights, w ~ f (θ)
// 최소 유클리디안 거리를 갖는 노드를 승자로 결정 // determine the node with the minimum Euclidean distance as the winner
Choose the winner node j*= arg max y, using Euclidean criteria.Choose the winner node j * = arg max y , using Euclidean criteria.
Update of parameters // 가중치 분포의 모수 갱신 Update of parameters // Update Parameter of Weight Distribution
wj New = wj Old+ α(j)K(j, j*)(X-wj Old),w j New = w j Old + α (j) K (j, j *) (Xw j Old ),
where, K(j, j*); Neighborhood functionwhere, K (j, j * ) ; Neighborhood function
endend
// 가중치 분포의 모수 갱신 작업의 반복 // iterate the parameter update task of the weight distribution
Replace old distribution by current. Replace old distribution by current.
// HSOM의 승리 노드 결정 // Determine Victory Node Of HSOM
Set Winner_index=0, Set Winner_index = 0,
maxval=-1000000 // 최대 반복 회수 지정 maxval = -1000000 // Specify maximum number of iterations
Find the winner neuron // 승리 노드 결정 Find the winner neuron // Determine Winning Node
for (j=0; j<=num_outputs; j++) for (j = 0; j <= num_outputs; j ++)
for (i=0; i<num_inputs; i++)for (i = 0; i <num_inputs; i ++)
// 최소 유클리디안 거리를 갖는 노드가 승리 노드가 됨// node with minimum Euclidean distance becomes the winning node
winner[i, j] = arg min ∥x(k) - wj ∥ winner [i, j] = arg min ∥ x (k)-w j ∥
endend
// 가중치 분포의 갱신 // update weight distribution
Set m=(int)alpha, delta=alpha-m Set m = (int) alpha, delta = alpha-m
// 가우시안 분포로부터 모수 생성// create parameter from Gaussian distribution
while(count<data_size)while (count <data_size)
v=rand()/32767.0, w=pow(y/m,delta)/(1+(y/m-1)*delta)v = rand () / 32767.0, w = pow (y / m, delta) / (1+ (y / m-1) * delta)
endend
// 수렴될 때까지 반복 학습 // iterate until convergence
Repeat Until given criteria satisfaction. Repeat Until given criteria satisfaction.
도 4와 상기 알고리즘에 나타낸 바와 같이 본 발명은, 먼저 입력벡터를 초기화 하고(S300) 초기의 가우시안 분포에서 각 형상 지도의 노드에 사용할 가중치들을 생성한다(S310). 초기의 사전분포는 평균이 0이고 분산이 1인 가우시안 분포를 사용한다. 이는 HSOM의 형상 지도에서 승리 노드의 결정에 있어서 유클리디안 거리를 사용하고, 또 입력 벡터의 값들이 평균이 0 분산이 1을 따르도록 초기화되었기 때문이다. 따라서 처음부터 가중치의 갱신은 자신들이 속한 분포의 모수에 대한 갱신이 된다. 이 값들이 계속되는 학습에 의해 갱신되는 것이다. As shown in FIG. 4 and the above algorithm, the present invention first initializes an input vector (S300) and generates weights to be used for nodes of each shape map in an initial Gaussian distribution (S310). The initial predistribution uses a Gaussian distribution with a mean of 0 and a variance of 1. This is because the Euclidean distance is used to determine the triumph node in the shape map of HSOM, and the values of the input vectors are initialized such that the mean follows zero variance. Therefore, updating the weight from the beginning is updating the parameters of the distribution to which they belong. These values are updated by subsequent learning.
다음으로 HSOM의 승리 노드를 결정한다(S320). 이 단계에서는 주어진 반복 학습의 최대 범위를 지정하고, 최종 가중치 값이 갱신될 형상 지도의 노드를 결정하게 된다. Next, the victory node of the HSOM is determined (S320). In this step, the maximum range of a given iterative learning is specified, and the node of the shape map whose final weight value is to be updated is determined.
도 5는 가중치의 분포를 갱신하는 절차를 나타낸 것이다. 새로운 가중치의 계산(S400)은 다음 [수학식 14]와 같이 행해진다.
삭제delete
여기에서, K(j, j*)는 이웃함수을 의미한다. 이때에는 가중치 분포인 가우시안 분포의 모수에 대한 하이퍼 파라미터에 대한 분포로부터 갱신이 이루어진다(S410). 상기 알고리즘에서는 하이퍼 파라미터에 대한 분포로서 감마 분포를 사용한 것인데, 그 이유는 베이지안의 사후 확률이 공액 분포가 되어 계산이 용이하게 되기 때문이다.Here, K (j, j * ) means a neighbor function. At this time, an update is made from the distribution of the hyperparameters for the parameters of the Gaussian distribution, which is the weight distribution (S410). The algorithm uses a gamma distribution as a distribution for the hyperparameters, because the Bayesian posterior probability becomes a conjugate distribution, making calculations easier.
본 발명에서 도시되고 설명된 방법들은 단지 하나의 실시예를 보인 것으로, 다양한 변화들이 본 발명의 범위와 정신을 벗어남이 없이 당업자에 의해 용이하게 구현될 수 있을 것이다.The methods shown and described in the present invention have shown only one embodiment, and various changes can be readily implemented by those skilled in the art without departing from the scope and spirit of the invention.
또한, 본 발명의 방법은 하드웨어 및 적절히 프로그램된 컴퓨터에 의해 구현될 수 있다. “컴퓨터 프로그램”은 플로피 디스크나 CD 등 컴퓨터로 판독 가능한 매체에 저장되거나 또는 인터넷과 같은 네트워크를 통해 다운로드할 수 있는, 또는 임의의 다른 방법으로 판매되는 임의의 소프트웨어 제품을 의미하는 것으로 이해되어야 한다.In addition, the method of the present invention may be implemented by hardware and a suitably programmed computer. A “computer program” is to be understood as meaning any software product that is stored on a computer readable medium, such as a floppy disk or CD, can be downloaded over a network such as the Internet, or sold in any other way.
이상에서 기술한 바와 같이 본 발명에서는 기존 SOM 모형의 초기 가중치 결정과 가중치 갱신에 확률분포를 적용한 HSOM 모형을 이용한 군집화 방법을 제안하였다.As described above, the present invention proposes a clustering method using the HSOM model in which a probability distribution is applied to initial weight determination and weight update of an existing SOM model.
본 발명에 의한 HSOM 모형을 이용한 군집화 방법은 초기 가중치 결정과 가중치 갱신에 확률분포에 기반한 베이지안 추론기법을 적용하여 기존 SOM의 비수렴성 문제를 해결함으로써 각 군집에 대한 대표 선호도 등을 구하는데 용이하게 이용될 수 있다.The clustering method using the HSOM model according to the present invention can be easily used to calculate the representative preference for each cluster by solving the non-convergence problem of the existing SOM by applying the Bayesian inference method based on probability distribution to initial weight determination and weight update. Can be.
도 1은 종래 자기형상지도(SOM)의 구조도1 is a structural diagram of a conventional magnetic shape map (SOM)
도 2는 본 발명에 따른 HSOM의 처리 과정을 나타낸 흐름도2 is a flowchart illustrating a process of HSOM according to the present invention.
도 3는 본 발명에 따른 HSOM의 초기화 과정을 나타낸 흐름도3 is a flowchart illustrating an initialization process of the HSOM according to the present invention.
도 4은 본 발명에 따른 HSOM의 승리 노드 결정 과정을 나타낸 흐름도4 is a flowchart illustrating a process of determining a victory node of HSOM according to the present invention.
도 5는 본 발명에 따른 HSOM의 가중치 분포에 대한 갱신절차를 나타낸 흐름도5 is a flowchart illustrating an update procedure for a weight distribution of HSOM according to the present invention.
Claims (6)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2003-0045537A KR100496414B1 (en) | 2003-07-05 | 2003-07-05 | An user clustering method using hybrid som for web information recommending and a recordable media thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR10-2003-0045537A KR100496414B1 (en) | 2003-07-05 | 2003-07-05 | An user clustering method using hybrid som for web information recommending and a recordable media thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20050005594A KR20050005594A (en) | 2005-01-14 |
KR100496414B1 true KR100496414B1 (en) | 2005-06-21 |
Family
ID=37219794
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR10-2003-0045537A KR100496414B1 (en) | 2003-07-05 | 2003-07-05 | An user clustering method using hybrid som for web information recommending and a recordable media thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100496414B1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102120150B1 (en) * | 2018-09-07 | 2020-06-16 | 서울대학교산학협력단 | Learning method and learning device for variational interference using neural network and test method and test device for variational interference using the same |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5729662A (en) * | 1995-06-07 | 1998-03-17 | Rozmus; J. Michael | Neural network for classification of patterns with improved method and apparatus for ordering vectors |
US6260036B1 (en) * | 1998-05-07 | 2001-07-10 | Ibm | Scalable parallel algorithm for self-organizing maps with applications to sparse data mining problems |
KR20020015851A (en) * | 2000-08-23 | 2002-03-02 | 전홍건 | Method for re-adjusting ranking document based cluster depending on entropy information and Bayesian SOM(Self Organizing feature Map) |
-
2003
- 2003-07-05 KR KR10-2003-0045537A patent/KR100496414B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5729662A (en) * | 1995-06-07 | 1998-03-17 | Rozmus; J. Michael | Neural network for classification of patterns with improved method and apparatus for ordering vectors |
US6260036B1 (en) * | 1998-05-07 | 2001-07-10 | Ibm | Scalable parallel algorithm for self-organizing maps with applications to sparse data mining problems |
KR20020015851A (en) * | 2000-08-23 | 2002-03-02 | 전홍건 | Method for re-adjusting ranking document based cluster depending on entropy information and Bayesian SOM(Self Organizing feature Map) |
US20020042793A1 (en) * | 2000-08-23 | 2002-04-11 | Jun-Hyeog Choi | Method of order-ranking document clusters using entropy data and bayesian self-organizing feature maps |
Also Published As
Publication number | Publication date |
---|---|
KR20050005594A (en) | 2005-01-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110263227B (en) | Group partner discovery method and system based on graph neural network | |
US20200293890A1 (en) | One-shot learning for neural networks | |
US10762426B2 (en) | Multi-iteration compression for deep neural networks | |
Purwar et al. | Hybrid prediction model with missing value imputation for medical data | |
CN111542843A (en) | Active development with collaboration generators | |
Bishop | Bayesian neural networks | |
WO2002086814A1 (en) | An on-line method for self-organized learning and extraction of fuzzy rules | |
CN112287166B (en) | Movie recommendation method and system based on improved deep belief network | |
Barbakh et al. | Review of clustering algorithms | |
Vadimovich et al. | Self-adjusted evolutionary algorithms based approach for automated design of fuzzy logic systems | |
US20220129708A1 (en) | Segmenting an image using a neural network | |
Ros et al. | Automatic design of growing radial basis function neural networks based on neighboorhood concepts | |
Choudhury et al. | Deep and structure-preserving autoencoders for clustering data with missing information | |
Aushev et al. | Likelihood-free inference with deep Gaussian processes | |
KR100496414B1 (en) | An user clustering method using hybrid som for web information recommending and a recordable media thereof | |
Zhou et al. | Online recommendation based on incremental-input self-organizing map | |
Shi et al. | An efficient hyper-parameter optimization method for supervised learning | |
EP4206998A1 (en) | Computerized method for determining the reliability of a prediction output of a prediction model | |
KR100505755B1 (en) | A System of Web Information Prediction Dynamic Recommendation in Internet Environment and A Methode Thereof | |
Saikia et al. | Unsupervised pre-training on improving the performance of neural network in regression | |
Dalkilic et al. | A fuzzy adaptive network approach to parameter estimation in cases where independent variables come from an exponential distribution | |
Thacker et al. | Supervised learning extensions to the clam network | |
Alsalamah et al. | Heart disease diagnosis based on deep radial basis function kernel machine | |
Zhou et al. | Learning manifold implicitly via explicit heat-kernel learning | |
JP2004062482A (en) | Data classifier |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20130603 Year of fee payment: 9 |
|
FPAY | Annual fee payment |
Payment date: 20140602 Year of fee payment: 10 |
|
FPAY | Annual fee payment |
Payment date: 20150603 Year of fee payment: 11 |
|
FPAY | Annual fee payment |
Payment date: 20160608 Year of fee payment: 12 |
|
FPAY | Annual fee payment |
Payment date: 20170504 Year of fee payment: 13 |
|
FPAY | Annual fee payment |
Payment date: 20190605 Year of fee payment: 15 |