KR20050005591A - A System of Web Information Prediction Dynamic Recommendation in Internet Environment and A Methode Thereof - Google Patents

A System of Web Information Prediction Dynamic Recommendation in Internet Environment and A Methode Thereof Download PDF

Info

Publication number
KR20050005591A
KR20050005591A KR1020030045534A KR20030045534A KR20050005591A KR 20050005591 A KR20050005591 A KR 20050005591A KR 1020030045534 A KR1020030045534 A KR 1020030045534A KR 20030045534 A KR20030045534 A KR 20030045534A KR 20050005591 A KR20050005591 A KR 20050005591A
Authority
KR
South Korea
Prior art keywords
user
data
web
information
function
Prior art date
Application number
KR1020030045534A
Other languages
Korean (ko)
Other versions
KR100505755B1 (en
Inventor
이문규
윤경배
최준혁
Original Assignee
(주)넥솔위즈빌
윤경배
최준혁
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)넥솔위즈빌, 윤경배, 최준혁 filed Critical (주)넥솔위즈빌
Priority to KR10-2003-0045534A priority Critical patent/KR100505755B1/en
Publication of KR20050005591A publication Critical patent/KR20050005591A/en
Application granted granted Critical
Publication of KR100505755B1 publication Critical patent/KR100505755B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/02Protocols based on web technology, e.g. hypertext transfer protocol [HTTP]

Landscapes

  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

PURPOSE: A system and a method for dynamically predicting/recommending web information based on the Internet are provided to predict/offer the web information most needed from each user without depending on a feed-back technique and a user profile. CONSTITUTION: A preprocessor(10) processes only the information needed for constructing a model to a proper form by extracting click stream information of the users from log data of a web server and refining/filtering the log data. A predictor(31) makes a web page preference predicting model for the user with the ESVM(Ensemble Support Vector Machine) using the data processed in the preprocessor as learning data and applying kernel functions, and predicts user's preference of each page by using test data. A clustering part(32) clusters the users by using the HSOM(Hybrid Self-Organizing feature Maps). A recommender(40) recommends the web information to a new user based on a result predicted by the predictor and clustered by the clustering part. A feed-back part(50) feeds bask satisfaction of the user for the recommended web information.

Description

인터넷 기반의 동적 웹 정보 추천 시스템 및 방법 {A System of Web Information Prediction Dynamic Recommendation in Internet Environment and A Methode Thereof}A System of Web Information Prediction Dynamic Recommendation in Internet Environment and A Method Thereof}

본 발명은 인터넷 기반의 동적 웹 정보 추천 시스템 및 방법에 관한 것으로, 보다 구체적으로는 웹 정보 서비스에 있어 사용자들의 명시적 피드백 기법과 사용자 프로파일에 의존하지 않고도 각 사용자가 가장 필요로 하는 웹 정보를 예측하여 제공할 수 있는 동적 웹 정보 전력 변환부 및 방법에 관한 것이다.The present invention relates to a dynamic web information recommendation system and method based on the Internet, and more particularly, to predict web information required by each user without relying on explicit feedback techniques and user profiles of the web information service. The present invention relates to a dynamic web information power converter and a method that can be provided.

인터넷의 대중화는 기하급수적인 정보량의 증가를 가져왔고 네티즌들은 전세계에 분산되어 있는 정보들을 매우 적은 비용으로 얻을 수 있는 시대가 되었을 뿐만 아니라 인터넷의 발전은 전반적인 사회구조까지 변화시켰으며, 이제는 인터넷을 떠나서는 살아갈 수 없을 정도로 인간 활동의 대부분은 인터넷에 의존하게 되었다. 이러한 환경에서 인터넷 사용자들은 대부분의 시간을 정보를 탐색하는데 소요하고 있으며, 그 외의 시간은 사용자의 관심 영역이 아닌 전혀 엉뚱한 곳에서 시간을 소비하고 있음은 주목할 만한 사실이다.The popularization of the Internet has led to an exponential increase in the amount of information and netizens have been able to obtain information scattered around the world at very low cost, as well as the development of the Internet has changed the overall social structure. Most of human activities depended on the Internet so that they could not live. It is remarkable that Internet users spend most of their time searching for information in this environment, and the rest of the time is spent in the wrong place and not in the user's area of interest.

그러나, 이와 같은 상황에도 불구하고 종래의 정보 추천시스템은 아직까지정보의 정확도와 신속성 측면에서는 만족할 만한 성과를 거두지 못하고 있다. 그 이유는 종래의 대부분의 웹 정보 추천 시스템에서는 사용자의 피드백 정보를 사용자 프로파일과 컨텐츠, 상품 등에 대한 만족도를 이용하여 사용자로부터 직접 의견을 얻어낸 정보인 명시적 피드백에 의존하여 필요한 정보를 얻고 있으나, 인터넷 공간에서 웹 사용자들은 번거롭기도 하고 자신의 속마음을 잘 드러내지 않는 특성과 자신의 정보에 대한 공개나 정확한 기재를 원하지 않기 때문에 웹 정보 전력 변환부으로부터 관련 정보를 제공받은 대부분의 사용자는 서비스 받은 정보에 대한 만족도를 명시적으로 웹 서버에 피드백하지 않기 때문이다.However, despite such a situation, the conventional information recommendation system has not yet achieved satisfactory results in terms of information accuracy and speed. The reason is that most conventional web information recommendation systems obtain necessary information by relying on explicit feedback, which is information obtained directly from the user by using user's profile, content, product, and the like. In the space, web users are cumbersome and do not want to reveal their own feelings, and they do not want to disclose or accurately describe their information. This is because the satisfaction is not explicitly fed back to the web server.

따라서 기존의 웹 정보 추천 시스템으로부터 유용한 정보를 얻기란 현실적으로 매우 어려운 실정이고 따라서, 전체 사용자로부터 안정적인 반응을 얻기가 힘들기 때문에 데이터의 희소성 문제를 유발하고, 등급평가 정보와 같은 이산적인 데이터가 아닌 연속형 피드백 정보일 때 나타나는 연속성 데이터를 다룰 수 있는 방법이 없는 등의 문제점이 있어 왔다.Therefore, it is very difficult to obtain useful information from the existing web information recommendation system. Therefore, it is difficult to obtain a stable response from all users, which causes the scarcity of the data, and it is not a discrete data such as rating information. There has been a problem that there is no way to deal with the continuity data that appears in the form of feedback information.

이에, 본 발명은 인터넷 기반의 웹 정보 서비스에 있어 사용자들의 명시적 피드백 기법과 사용자 프로파일에 의존하지 않고도 각 사용자가 가장 필요로 하는 웹 정보를 예측하여 제공할 수 있는 동적 웹 정보 추천 시스템을 제공하는 것을 목적으로 한다.Accordingly, the present invention provides a dynamic web information recommendation system capable of predicting and providing the web information that each user needs most without relying on explicit feedback techniques and user profiles of the Internet-based web information service. For the purpose of

또한, 이를 위해 본 발명은 앙상블 서포트 벡터 머신(Ensemble SupportVector Machine: 이하, “ESVM"이라 한다)을 설계하여 사용함으로서 웹 로그 데이터의 희소성 문제를 해결하고, 하이브리드 자기 조직화 형상 지도(Hybrid Self-Organizing feature Maps: 이하 ”HSOM“이라 한다)를 이용하여 웹 사용자에 대한 군집화를 수행함으로써 새로운 사용자에 대한 특성과 가장 유사한 해당 군집의 대표 특성을 이용하여 차별화된 웹 정보 서비스를 행할 수 있는 동적 웹 정보 추천 시스템을 제공하는 것을 목적으로 한다.In addition, the present invention solves the scarcity problem of web log data by designing and using an Ensemble Support Vector Machine (hereinafter referred to as "ESVM"), and Hybrid Self-Organizing feature map (Hybrid Self-Organizing feature) Dynamic web information recommendation system that performs clustering of web users using "Maps" (hereinafter referred to as "HSOM") to perform differentiated web information services using representative characteristics of the corresponding clusters most similar to those of new users. The purpose is to provide.

도 1은 본 발명에 따른 동적 웹 정보 추천 시스템 구성도1 is a configuration diagram of a dynamic web information recommendation system according to the present invention

도 2는 본 발명에 따른 동적 웹 정보 추천 방법을 나타낸 흐름도2 is a flowchart illustrating a dynamic web information recommendation method according to the present invention.

도 3은 ESVM 모형의 개념도3 is a conceptual diagram of an ESVM model

도 4는 희소한 특성을 갖는 웹 데이터의 구조4 is a structure of web data having rare characteristics

도 5는 웹 페이지 예측모형의 구조도5 is a structural diagram of a web page prediction model

도 6은 최적함수 결정을 위한 흐름도6 is a flowchart for determining an optimal function

도 7은 최적 이상평면을 구하는 과정을 나타낸 흐름도7 is a flowchart illustrating a process of obtaining an optimal abnormal plane.

도 8은 HSOM의 초기화 과정을 나타낸 흐름도8 is a flowchart illustrating an initialization process of the HSOM.

도 9는 HSOM의 승리노드를 결정하는 과정을 나타낸 흐름도9 is a flowchart illustrating a process of determining a victory node of HSOM.

도 10은 HSOM의 가중치 분포에 대한 갱신절차를 나타낸 흐름도10 is a flowchart showing an update procedure for the weight distribution of the HSOM.

* 도면의 주요부분에 대한 부호의 설명* Explanation of symbols for main parts of the drawings

10 : 전처리부, 20: 지식베이스부10: preprocessor, 20: knowledge base

30 : 학습부, 31 : 예측부30: learning unit, 31: prediction unit

32 : 군집화부, 40 추천부32: clustering department, 40 recommendation

50 : 피드백부, 100 : 웹 정보 추천 시스템50: feedback unit, 100: web information recommendation system

상기와 같은 목적을 달성하기 위한 본 발명에 따른 동적 웹 정보 추천 시스템은 웹 서버의 로그 데이터로부터 사용자들의 클릭 스트림 정보를 추출한 후 추출된 상기의 로그 데이터를 정제 및 필터링하여 모델 구축에 필요한 정보만을 적절한 형태로 가공하는 전처리부; 상기 전처리부에서 가공된 데이터를 학습 데이터로 사용하고 다수의 커널함수를 적용한 앙상블 서포 벡터 머신(ESVM)을 이용하여 사용자에 대한 웹 페이지 선호도 예측 모형을 만들고, 테스트 데이터를 이용하여 각 페이지에 대한 사용자의 선호도를 예측하는 예측부; 상기 예측부에서 희소성이 제거된 완전한 정보를 하이브리드 자기 조직화 형상지도(HSOM)을 이용하여 사용자들을 군집화하는 군집화부; 상기 예측부에서 예측되고, 상기 군집화부에서 군집화된 결과를 근거로 웹 정보를 새로운 사용자에게 추천하는 추천부; 및 추천한 웹 정보에 대한 사용자의 만족도를 피드백하는 피드백부로 구성된 것을 특징으로 한다.Dynamic web information recommendation system according to the present invention for achieving the above object is to extract the click stream information of the user from the log data of the web server, and then to refine and filter the extracted log data is only appropriate information necessary for building the model A preprocessing unit for processing into a form; By using the data processed by the preprocessor as training data and using the ensemble support vector machine (ESVM) to which a plurality of kernel functions are applied, a web page preference prediction model is created for the user, and the user for each page using the test data. A prediction unit for predicting the preference of the; A clustering unit for clustering users using hybrid self-organizing shape maps (HSOMs) with complete information from which the scarcity is removed from the prediction unit; A recommendation unit predicted by the prediction unit and recommending web information to a new user based on the clustering result in the clustering unit; And a feedback unit for feeding back a user's satisfaction with the recommended web information.

또한, 상기와 같은 목적을 달성하기 위한 본 발명에 따른 동적 웹 정보 추천방법은 웹 서버의 로그 데이터로부터 사용자들의 클릭 스트림 정보를 얻는 단계; 추출된 상기의 로그 데이터를 정제하고 필터링하여 모델 구축에 필요한 정보만을 적절한 형태로 추출하는 단계; 상기 정제된 로그 정보를 사용자가 방문한 페이지와 페이지에 머문 시간을 모아서 하나의 인스턴스로 이용하고, 여기에 적절한 수의 인스턴스를 다시 추출하여 학습 데이터로 사용함으로서 사용자에 대한 웹 페이지 선호도 예측 모형을 만드는 단계; 테스트 데이터를 이용하여 얻은 정보를 전체 웹 페이지의 앙상블 서포 벡터 머신(ESVM) 모델에 적용시켜 각 페이지에 대한 사용자의 선호도를 예측해 내는 단계; 상기의 과정들을 통해 얻은 각 페이지들에 대한 예측 값에 각 사용자의 평균 관심도와 각 페이지의 평균 관심도를 고려하여 선호도를 계산하는 단계; 희소한 웹 데이터의 결측치를 완성하여 완전한 데이터 구조를 만드는 단계; 상기 과정에서 얻어진 완전한 데이터를 이용하고, 하이브리드 자기 조직화 형상지도(HSOM) 알고리즘을 이용하여 사용자에 대한 군집화를 실행하는 단계; 각 군집에 속한 사용자들의 웹 페이지에 대한 평균접속시산을 계산하여 해당 군집에 속하는 사용자의 대표선호도를 계산하는 단계; 및 사용자로부터 추천한 결과에 대한 만족도를 피드백 받아 지식베이스를 지능화시키는 단계를 포함한 것을 특징으로 한다.In addition, the dynamic web information recommendation method according to the present invention for achieving the above object comprises the steps of obtaining the user click stream information from the log data of the web server; Purifying and filtering the extracted log data to extract only information necessary for building a model into a proper form; Creating a web page preference prediction model for the user by using the purified log information as a single instance by collecting the pages and time spent on the page as a user, and extracting an appropriate number of instances as the training data. ; Applying information obtained using the test data to an ensemble support vector machine (ESVM) model of an entire web page to predict a user's preference for each page; Calculating a preference in consideration of the average interest of each user and the average interest of each page in the prediction value for each page obtained through the above processes; Completing missing data of the rare web data to create a complete data structure; Using the complete data obtained in the above process and performing clustering for a user using a hybrid self-organizing shape map (HSOM) algorithm; Calculating a representative preference of users belonging to the cluster by calculating an average access time for the web pages of the users belonging to each cluster; And intelligentizing the knowledge base by receiving a feedback on the satisfaction of the result recommended by the user.

이하, 본 발명에 관하여 도면을 참조하여 보다 구체적으로 설명한다.Hereinafter, the present invention will be described in more detail with reference to the drawings.

도 1은 본 발명에 따른 동적 웹 정보 추천 시스템의 구성을 나타낸 블록도이다. 도 1에 나타낸 바와 같이 본 발명에 따른 동적 웹 정보 추천 시스템(100)은 전처리부(10), 지식베이스부(20), 학습부(30), 추천부(40), 피드백부(50)로 구성되는데, 먼저 전처리부(10)는 최초의 웹 로그 데이터를 추천 시스템에 적용하기 적합하도록 필요한 클릭 스트림 정보만을 추출한다. 그리고 지식베이스부(20)는 학습부(30)에서 예측한 결과와, 새로운 사용자에게 추천한 결과에 대한 사용자로부터의 피드백을 통하여 갱신되는 선호도 정보를 저장한다. 즉 지식베이스부(20)는 동적 웹 정보 추천 시스템이 새로운 사용자를 통하여 학습한 결과를 바탕으로 계속하여 지능화되어 간다.1 is a block diagram showing the configuration of a dynamic web information recommendation system according to the present invention. As shown in FIG. 1, the dynamic web information recommendation system 100 according to the present invention includes a preprocessor 10, a knowledge base 20, a learning unit 30, a recommendation unit 40, and a feedback unit 50. First, the preprocessing unit 10 extracts only the click stream information necessary for applying the first web log data to the recommendation system. The knowledge base unit 20 stores preference information updated through feedback from the user about the result predicted by the learner 30 and the result recommended for the new user. That is, the knowledge base unit 20 continues to be intelligent based on the results of the dynamic web information recommendation system learned through the new user.

또한, 학습부(30)는 예측부(31)와 군집화부(32)로 구성되는데, 예측부(31)는 상기 전처리부(20)에서 정제된 희소성을 가지고 있는 정보를 ESVM 알고리즘을 이용하여 희소성을 제거하고 선호도를 예측하는 역할을 하며, 군집화부(32)는 상기 예측부(31)에서 희소성이 제거된 완전한 정보를 HSOM 알고리즘을 이용하여 군집화하는 역할을 한다.In addition, the learning unit 30 includes a predicting unit 31 and a clustering unit 32. The predicting unit 31 uses the ESVM algorithm to process the information having the scarcity refined by the preprocessor 20 using an ESVM algorithm. Removes and predicts a preference, and the clustering unit 32 serves to cluster the complete information whose scarcity is removed from the predicting unit 31 by using the HSOM algorithm.

추천부(40)는 학습부(30)로부터 예측된 웹 정보를 새로운 사용자에게 추천한다. 그리고 최종적으로 피드백부(50)는 추천부(40)에서 추천한 웹 정보에 대한 최종 만족도를 피드백 받게 된다.The recommender 40 recommends web information predicted from the learner 30 to a new user. Finally, the feedback unit 50 receives the final satisfaction with the web information recommended by the recommendation unit 40.

다음은 도 2를 참조하여 본 발명에 따른 동적 웹 정보 추천 방법에 대하여 설명한다.Next, a dynamic web information recommendation method according to the present invention will be described with reference to FIG. 2.

도 1에 도시한 동적 웹 정보 추천 시스템은 여러 단계의 과정을 거쳐 정보를 예측하고 추천하게 되는데, 첫째 단계로 추천 시스템은 웹 서버의 로그 데이터로부터 사용자들의 클릭 스트림 정보를 얻는다(S100). 그런데 일반적으로 웹 로그 데이터는 로그를 생성한 서버의 종류와 웹 사이트의 성격, 그리고 사이트를 제공하는 주체의 성격에 따라 다양한 형태를 나타낸다. 따라서 초기의 로그 데이터는 전처리 과정을 통하여 모델을 구축하는 데 있어 필요한 정보만을 적절한 형태로 추출하게 된다.The dynamic web information recommendation system shown in FIG. 1 predicts and recommends information through a process of several steps. In the first step, the recommendation system obtains click stream information of users from log data of a web server (S100). In general, web log data has various forms depending on the type of server generating the log, the nature of the web site, and the nature of the subject providing the site. Therefore, the initial log data extracts only the information necessary for building the model through the preprocessing process in an appropriate form.

상기의 과정에서 정제된 로그 정보는 사용자가 방문한 페이지와 페이지에 머문 시간을 모아서 하나의 인스턴스로 이용하고, 여기서 적절한 수의 인스턴스를 다시 추출하여 학습 데이터로 사용함으로서 추후 사용자에 대한 웹 페이지 선호도를 예측하는데 사용된다.The log information refined in the above process is used as a single instance by collecting the page and time spent on the page, and extracting the appropriate number of instances as the training data to predict the web page preference for the user later. It is used to

다음 단계는 웹 로그 데이터의 희소성을 제거하는 단계이다(S110). 일반적으로 웹 서버에 존재하는 수많은 웹 페이지 중에서 사용자가 한번의 접속으로 보는 웹 페이지의 수는 상대적으로 매우 적다. 따라서 개개의 사용자에 대한 인스턴스는 매우 많은 셀에서 결측치(missing data)로 남게 되는데, 이와 같은 웹 로그 데이터의 희소성 문제를 해결하고 학습 시간의 단축을 위해서 본 발명에서는 ESVM을 이용하여 웹 정보를 예측한다.The next step is to remove the scarcity of the web log data (S110). In general, among the numerous web pages in the web server, the number of web pages viewed by a user in a single connection is relatively small. Therefore, instances for individual users remain as missing data in a large number of cells. In order to solve such a problem of scarcity of web log data and to reduce learning time, the present invention predicts web information using ESVM. .

상기 ESVM은 모든 웹 페이지들에 대하여 개별적으로 예측 모형을 만들 수 있기 때문에 기존의 웹 정보 추천 알고리즘이 분석할 수 없었던 희소한 데이터에 대한 모형화가 가능하다.Since the ESVM can make a predictive model for all web pages individually, it is possible to model rare data that cannot be analyzed by the existing web information recommendation algorithm.

그리고 이 단계에서는 테스트 데이터를 이용하여 얻은 정보를 전체 웹 페이지의 ESVM 알고리즘에 적용시켜 각 페이지에 대한 사용자의 선호도를 예측해 낸다.여기서 테스트 데이터는 정제된 로그파일에서 학습 데이터에 포함되지 않은 데이터들 중에 무작위로 추출한 데이터를 말하며, 이는 후에 성능 평가를 위하여 사용한다.In this step, the information obtained from the test data is applied to the ESVM algorithm of the entire web page to predict the user's preference for each page, where the test data is selected from among the data not included in the training data in the purified log file. Refers to randomly extracted data, which is used later for performance evaluation.

또한, 이 단계에서는 앞의 각 과정들을 통해 얻은 각 페이지들에 대한 예측 값에 각 사용자의 평균 관심도와 각 페이지의 평균 관심도를 고려하여 선호도를 계산한다. 이 과정을 통해 희소한 웹 데이터는 결측셀이 모두 채워지는 완전한 데이터 구조를 이루게 된다.In addition, in this step, the preference is calculated by considering the average interest of each user and the average interest of each page in the prediction values for the pages obtained through the above processes. Through this process, rare web data forms a complete data structure in which all missing cells are filled.

다음 단계는 사용자 군집화 단계이다(S120). 상기의 과정에서 얻어진 완전한 데이터를 이용하여 새로운 사용자에 대한 웹 정보 추천을 하기 위해서는 전체 사용자에 대한 군집화가 필요하다. 왜냐하면 이러한 군집을 통하여 새로운 사용자에 대한 웹 정보를 추천하기 때문이다.The next step is a user clustering step (S120). In order to recommend web information to new users using the complete data obtained in the above process, clustering of all users is required. This is because these clusters recommend web information about new users.

다음은 각 군집의 대표 선호도를 계산하는 단계이다(S130). 본 발명에서는 HSOM을 이용하여 군집화를 수행하는데, 군집화된 결과는 대표 선호도를 얻는데 사용된다. 즉, 각 군집에 속한 사용자들의 웹 페이지에 대한 평균 접속 시간을 계산하고, 그 결과 값을 해당 군집에 속하는 사용자의 대표 선호도로 한다. 그리고 이 정보를 이용하여 새로운 사용자에 대하여 각 군집과의 유사도를 계산하여 가장 가까운 군집을 할당하게 된다.Next, the step of calculating the representative preference of each cluster (S130). In the present invention, clustering is performed using HSOM, and the clustered results are used to obtain a representative preference. That is, the average access time for the web pages of the users belonging to each cluster is calculated, and the result is the representative preference of the users belonging to the cluster. Using this information, the similarity with each cluster is calculated for the new user and the nearest cluster is assigned.

새로운 사용자와 각 군집간의 유사도를 계산하는 측도로서 유클리디안 거리를 사용한다. 그리고 사용자 군집화 단계에서는 새로운 사용자에 대하여 할당되는 해당 군집의 대표 선호도를 이용하여 우선순위가 높은 페이지를 추천하게 된다.Euclidean distance is used as a measure to calculate the similarity between the new user and each cluster. In the user clustering step, a page having a high priority is recommended using the representative preference of the corresponding cluster allocated to the new user.

또한 이 단계에서는 전체 시스템에 대한 평가 방법으로서 실제 주어진 선호도와 예측한 선호도의 오차정도를 최소 제곱 오차(Minimum Square Error)로 측정하는 작업도 동시에 수행된다. 즉 우선순위가 높은 페이지와 낮은 페이지를 특정 개수 임의로 추출하여 실제로 해당 페이지에 대하여 어떠한 반응을 보였는지를 측정함으로서 시스템의 성능을 평가하는데 이용한다.In this step, as an evaluation method for the entire system, the measurement of the error degree between the given preference and the predicted preference as the minimum square error is also performed at the same time. In other words, a certain number of high priority pages and low pages are randomly extracted and used to evaluate the performance of the system by measuring how they reacted to the pages.

이상의 과정을 통하여 얻어진 정보는 지식베이스부에 저장되며, 지식베이스부는 동적 웹 정보 추천 시스템이 새로운 사용자를 통하여 학습한 결과를 바탕으로 계속하여 지능화되어 간다(S140).The information obtained through the above process is stored in the knowledge base unit, and the knowledge base unit is continuously intelligent based on the result of the learning by the new web user through the dynamic web information recommendation system (S140).

다음은 ESVM을 이용한 예측부(31)에 대하여 보다 구체적으로 설명한다.Next, the prediction unit 31 using the ESVM will be described in more detail.

Vapnik이 제안한 종래의 SVM 모형은 크게 분류(classification) 모형인 Support Vector Classification(SVC)과 예측(prediction) 모형인 Support Vector Regression(SVR)의 2개의 모형을 갖는 지도 학습(supervised learning) 알고리즘으로, 사전에 결정하는 1개의 커널 함수를 사용한다. 그러나 상기의 종래 모형은 최종 모형에 대한 성능이 떨어지는 경우에는 다른 커널 함수를 사용하여 또 다시 학습을 해야 하는 문제가 발생한다.The conventional SVM model proposed by Vapnik is a supervised learning algorithm with two models: support vector classification (SVC), which is a classification model, and support vector regression (SVR), which is a prediction model. Use one kernel function to determine. However, when the performance of the conventional model is poor, the conventional model needs to learn again by using another kernel function.

따라서 본 발명은 학습이 진행되는 동안 다수의 커널 함수를 사용하여 가장 좋은 커널 함수가 한 번의 학습을 통하여 결정하는 것이 바람직하다는 것에 착안하여 ESVM을 이용하여 사전에 다수의 커널 함수를 사용하여 주어진 데이터에 대하여 학습 할 수 있는 방법을 제공한다. 이 방법은 주어진 학습 데이터를 이용하여 예측모형이 구축되는 과정에서 가장 우수한 커널 함수가 결정되는 앙상블 구조를 사용한 것으로 이러한 ESVM 방법은 한 개의 커널 함수가 사전에 결정되어 사용되는 기존의 SVM에 비해 예측의 정확도가 높아지는 특징으로 갖는다.Therefore, the present invention is based on the fact that it is desirable to determine the best kernel function through a single learning using a plurality of kernel functions during the learning process, using ESVM in advance to a given data using a plurality of kernel functions in advance. Provide a way to learn about This method uses an ensemble structure in which the best kernel function is determined in the process of constructing the prediction model using the given training data. This ESVM method compares the predicted SVM with one kernel function. It is characterized by higher accuracy.

한편, ESVM을 이용한 학습에서는 다수 개의 커널 함수를 사용하는 경우 한 개의 커널 함수를 사용할 때 보다 적용 커널 함수의 개수에 해당하는 배수만큼의 시간이 더 필요하게 된다. 즉 예를 들어 ESVM이 5개의 커널 함수에 대한 모형을 구축하게 되면 SVM보다 5배의 학습 시간이 더 걸리게 된다. 그러나 이와 같이 되면 동적 웹 정보 전력 변환부은 빠른 예측력이 불가능하다. 따라서, 이러한 예측 시간의 문제점을 해결하기 위하여 본 발명에서는 붓스트랩 기법을 적용한다. 즉 다수의 커널 함수를 사용하여 최적 커널 함수를 선택하는 과정에서는 전체 데이터를 모두 사용하지 않고, 전체 학습 데이터로부터 재표본 기법(resampling)을 이용하여 커널 함수의 수만큼의 표본을 만든다. 이때 만들어진 각 표본은 서로 같은 표본으로 볼 수 있다. 왜냐하면 붓스트랩 재표본 기법을 사용했기 때문이다. 또한 붓스트랩 기법을 사용했기 때문에 각 표본은 전체 데이터를 대표할 수 있으면서도 전체 데이터의 크기에 비해서 매우 작게 된다.On the other hand, learning using ESVM requires more time than the number of kernel functions applied when using multiple kernel functions than multiple kernel functions. For example, if ESVM builds a model of five kernel functions, it will take five times more learning time than SVM. However, in this case, the dynamic web information power conversion unit cannot be fast predictive power. Therefore, in order to solve the problem of prediction time, the bootstrap technique is applied in the present invention. In other words, the process of selecting the optimal kernel function using multiple kernel functions does not use all of the data, but makes a sample of the number of kernel functions by resampling from the entire training data. Each sample created at this time can be seen as the same sample. This is because the bootstrap resampling technique was used. In addition, because of the bootstrap technique, each sample can represent the entire data but is very small compared to the size of the entire data.

그 결과, 본 발명에 따른 동적 웹 정보 전력 변환부은 매우 작은 표본 데이터만을 이용하여 학습을 수행하기 때문에 커널 함수를 구하게 되는 학습 시간은 전체 ESVM 모형을 구축하기 위해 수행되는 학습 시간에 거의 영향을 미치지 않게 된다. 물론 SVM에 비해서 학습 시간이 더 소요되기는 하지만 전체 학습 시간에 대해서 차지하는 비율은 극히 미미하다고 할 수 있다.As a result, since the dynamic web information power converter according to the present invention performs learning using only very small sample data, the learning time for obtaining the kernel function has little effect on the learning time performed to construct the entire ESVM model. do. Of course, it takes more learning time than SVM, but the percentage of total learning time is very small.

도 3은 ESVM 모형의 개념을 나타낸 것으로, 도에서 중앙의 굵은 직선이 바로 ESVM이 되며, ESVM에서 수행한 최적 커널 함수에 의해서 중앙의 굵은 직선의 형태가 결정된다. 만약 커널 함수가 선형(linear)이 아니고 비선형(non-linear)이 되면 도 3의 중앙의 ESVM이 곡선으로 나타나게 된다.3 illustrates the concept of an ESVM model, in which a thick thick line in the center becomes an ESVM, and the shape of the thick thick line is determined by an optimal kernel function performed in the ESVM. If the kernel function is non-linear and non-linear, the ESVM in the center of FIG. 3 appears as a curve.

본 발명은 도 3에 보인 중앙의 굵은 직선 즉, 초평면(hyperplane)을 구하는 것이 ESVM 설계의 목표가 되는데, 이러한 이상 평면(optimal hyperplane)은 각 개체들과의 폭(1/w)을 최대로 하는 분류기(classifier)가 된다. 커널 함수는 여러 함수 형태를 적용하여 표본 데이터를 이용한 학습을 한 후에 가장 우수한 결과를 나타내는 함수를 선택(voting)하게 된다. 즉 가장 작은 MSE 값을 갖는 결과의 커널 함수를 결정하게 된다.In the present invention, the goal of ESVM design is to obtain a central thick straight line, that is, a hyperplane, as shown in FIG. 3. The optimal hyperplane is a classifier that maximizes the width (1 / w) with each individual object. (classifier) Kernel functions apply various function types to learn using sample data and then select the function that shows the best results. That is, the kernel function of the result with the smallest MSE value is determined.

한편, 도 4은 ESVM이 적용되는 정제된 웹 데이터 구조를 나타낸 것인데, 이와 같이 ESVM을 적용하게 되는 정제된 웹 로그 데이터의 구조는 희소성 구조를 띠고 있다.Meanwhile, FIG. 4 illustrates a refined web data structure to which ESVM is applied. Thus, the structure of the refined web log data to which ESVM is applied has a scarcity structure.

도 4에서 열은 웹 서버에 존재하는 각 페이지를 나타내고, 행은 접속한 사용자(session id)를 나타내고 있다. 각 셀은 각각의 사용자가 해당 페이지에 머문 시간(dutation time)을 나타낸다.In FIG. 4, a column represents each page existing in the web server, and a row represents a session ID. Each cell represents the duration time each user spent on the page.

도 4에서 보는 것과 같이 이러한 웹 로그 데이터의 클릭 스트림 정보의 특징은 데이터가 매우 희소한 구조를 갖고 있다는 것이다. 한 고객이 해당 웹 사이트에접속하여 보게 되는 페이지 수는 해당 웹 사이트의 전체 페이지 수에 비해 매우 적기 때문에 나머지 페이지에 대한 셀 값은 모두 비워 있게 된다. 따라서 일반적인 데이터 마이닝 알고리즘으로는 이러한 희소한 웹 데이터에 대한 분석을 통해 예측 모형을 만들기가 매우 어렵다. 따라서 이러한 문제점을 해결하기 위하여 ESVM 모형을 제안하여 적용한다.As shown in FIG. 4, the characteristic of the click stream information of the web log data is that the data has a very sparse structure. The number of pages a customer sees on the web site is very small compared to the total number of pages on the web site, so the cell values for the remaining pages are all empty. Therefore, it is very difficult to generate predictive model through analysis of such rare web data with general data mining algorithm. Therefore, to solve this problem, we propose and apply an ESVM model.

이 모형은 각 웹 페이지에 대하여 구축되며 해당 페이지를 제외한 나머지 페이지들에 대한 선호도를 축으로 하는 예측 모형으로 작성된다. 즉 예측하려는 특정 페이지가 목표 변수가 되고 나머지 웹 페이지가 설명 변수가 되는 회귀 모형(regression)과 같은 구조가 된다.This model is constructed for each web page and is created as a predictive model based on the preferences for the remaining pages. In other words, it is a regression structure in which a specific page to be predicted becomes a target variable and the remaining web pages become explanatory variables.

도 5는 이러한 웹 페이지 예측 모형의 구조를 시각적으로 나타낸 것이다.5 visually illustrates the structure of such a web page prediction model.

도 5에서 예측하려는 웹 페이지는k이고, 이 페이지가 목표 변수에 대한 설명 변수로서의 역할을 수행하는 웹 페이지가 페이지i와 페이지j인 2개 페이지에 대한 단순 구조를 나타내고 있다.In FIG. 5, the web page to be predicted is k , and a simple structure of two pages, i.e., page i and page j , is a web page which serves as an explanatory variable for the target variable.

도 5의 각 점은 한 명의 사용자를 나타내며 평면에 있는 축들은 이미 사용자가 지나온 페이지 브라우징 시간, 세로축은 해당 페이지에 대한 브라우징 시간을 나타낸다. 따라서 그림은 해당 페이지를 제외한 다른 페이지의 시간에 따라 해당 사용자의 해당 페이지에 관한 브라우징 시간을 예측하게 된다.Each point in FIG. 5 represents one user and the axes in the plane represent the page browsing time already passed by the user, and the vertical axis represents the browsing time for the page. Therefore, the figure predicts the browsing time for the page of the user according to the time of other pages except the page.

예를 들어 도 5의 희소한 웹 페이지 데이터 구조에서i번째 페이지에 대한 선호도 예측 모형은 [수학식 1]과 같이 나타낼 수 있다.For example, in the rare web page data structure of FIG. 5, the preference prediction model for the i- th page may be expressed as Equation 1 below.

선호도page i=f(page 1 , …, page i-1 , page i+1 , …, page M ) Affinity page i = f (page 1 ,…, page i-1 , page i + 1 ,…, page M )

[수학식 1]을 통해i번째 페이지에 대한 선호도를 예측할 수 있다. 즉 특정 사용자에 대한 접속 정보가 없어 해당 셀이 비어있는 웹 페이지에 대한 선호도를 [수학식 1]에 의해 계산하여 선호도가 가장 큰 값을 갖는 웹 페이지를 사용자에게 추천하게 된다. [수학식 1]에서 함수,f(·)는 앙상블 기법을 적용하여 얻은 커널 함수가 된다.Equation 1 can be used to predict the preference for the i th page. That is, the web page having the highest value is recommended to the user by calculating the preference for the web page in which the corresponding cell is empty because there is no access information for the specific user. In Equation 1, the function, f (·), is a kernel function obtained by applying the ensemble technique.

도 6과 [알고리즘 1]은 상기의 최적 커널함수 결정을 위한 앙상블 기법과 붓스트랩 재표본 절차를 나타낸 것이다.6 and [Algorithm 1] illustrate an ensemble technique and bootstrap resampling procedure for determining the optimal kernel function.

[알고리즘 1]Algorithm 1

[Algorithm:Voting_Kernel(Sel_ker[k]) ][ Algorithm: Voting_Kernel (Sel_ker [k])]

// 다수의 커널 함수를 사용하여 최적의 모수를 결정// determine the optimal parameter using multiple kernel functions

Chooseoptimal kernel K* such thatmin?ω? Choose optimal kernel K * such that min? Ω?

// 1-scatter smoothing, 2-bin, 3-running mean, 4-kernel smoother// 1-scatter smoothing, 2-bin, 3-running mean, 4-kernel smoother

// 5-equivalent kernel, 6-regression spline, 7-cubic smoothing spline// 5-equivalent kernel, 6-regression spline, 7-cubic smoothing spline

// 붓스트랩 샘플링// bootstrap sampling

for(i=1; i=<N; i++) for (i = 1; i = <N; i ++)

if random_number < 0.1if random_number <0.1

re_sampling// 붓스트래핑의 재 표본 기법 적용 re_sampling // Apply Bootstrap's Resampling Technique

endend

// 최적 커널 함수의 결정// determine optimal kernel function

for(k=1; k=<7; k++) for (k = 1; k = <7; k ++)

MSE[k]=risk(Sel_ker[k]) // 위험함수 값의 최소 제곱 오차 계산 MSE [k] = risk (Sel_ker [k]) // Calculate Minimum Square Error of Hazard Function Values

if mse[k]=min;if mse [k] = min;

voting// 최소 제곱 오차 값이 가장 작은 커널함수를 선택 voting // Select kernel function with smallest square error

endend

도 6에서 알 수 있는 바와 같이, 본 발명은 모형 구축 전략인 앙상블 기법을 사용하기 위하여 커널함수를 다양하게 변형한다(S200). 본 발명에서 사용되는 커널함수는 주로 간단한 스캐터 스무더(scatter smoothing) 함수부터 빈(bin)함수, 이동평균(running-mean) 함수, 커널 스무더(kernel smoothers) 함수, 등가 커널(equivalent kernels) 함수, 회귀 스플라인(regression spline) 함수, 그리고 큐빅 스무딩 스플라인(cubic smoothing splines) 함수가 사용된다. 여기에는 또한 연속형 데이터에 대한 커널함수로서 사용할 수 있는 스플라인(spline) 계열의 가법(additive) 함수가 사용될 수도 있다.As can be seen in Figure 6, the present invention various modifications to the kernel function in order to use the ensemble technique as a model construction strategy (S200). The kernel functions used in the present invention mainly include a simple scatter smoothing function, a bin function, a running-mean function, a kernel smoothers function, an equivalent kernels function, Regression spline function and cubic smoothing splines function are used. It can also be used as a spline family of additive functions that can be used as kernel functions for continuous data.

도 6에 기재된 다수의 커널함수를 사용하여 최적의 모수를 결정하는 과정은 먼저 학습시간을 단축하기 위하여 붓스트랩 재표본 과정을 거치게 된다(S210). 그리고 각 위험함수 값의 최소제곱오차를 계산한 후(S220) 상기 최소제곱오차 값이 가장 작은 커널함수를 ESVM에 적용할 함수로서 선택하게 된다(S230).The process of determining an optimal parameter using the plurality of kernel functions described in FIG. 6 first undergoes a bootstrap resampling process to shorten the learning time (S210). After calculating the least square error of each risk function value (S220), the kernel function having the smallest least square error value is selected as a function to be applied to the ESVM (S230).

도 7과 [알고리즘 2]는 커널함수에 대한 앙상블 적용과 최적의 이상평면을 구하는 과정을 설명한 것이다.7 and [Algorithm 2] illustrate the process of applying an ensemble to a kernel function and obtaining an optimal ideal plane.

[알고리즘 2]Algorithm 2

[Algorithm:Find_Hyperplane (Input[i]) ][ Algorithm: Find_Hyperplane (Input [i])]

// 입력 데이터를 이용하여 이상 평면을 구축하는 알고리즘// Algorithm for constructing an ideal plane using input data

Choose(1)an origin point<ω, x 1 > + b = +1,<ω, x 1 > + b = -1 Choose (1) an origin point <ω, x 1 > + b = +1 , <ω, x 1 > + b = -1

Choose(2)initial ω0such thaty i <ω, x i > + b ≥ 1, for alli Choose (2) initial ω 0 such that y i <ω, x i > + b ≥ 1 , for all i

// 최적 이상 평면 발견// find the ideal anomaly plane

CalculateSupport Vector through {x|<ω, x 1 > + b}= 0 Calculate Support Vector through {x | <ω, x 1 > + b } = 0

Selectionif minimize subject toy i <ω, x i > + b ≥ 1, for alli Selection if minimize subject to y i <ω, x i > + b ≥ 1 , for all i

then 'best hyper-plane found'then 'best hyper-plane found'

else choose optimization problemelse choose optimization problem

determine the ω*with minimal margindetermine the ω * with minimal margin

if(y*>0) then ξi= (X-+X*)/2 else ξi *= (X++X*)/2 if (y *> 0) then ξ i = (X - + X *) / 2 else ξ i * = (X + + X *) / 2

ωh= ωk-1- Δω and ωk'= ωk/∥ωkω h = ω k-1 -Δω and ω k '= ω k / ∥ω k

if[y*f(x*)]<0 after update then go to Choose(1) if [y * f (x * )] <0 after update then go to Choose (1)

RepeatCalculate and Selection maximally min{N, l} times. Repeat Calculate and Selection maximally min { N, l } times.

// 근사적인 초평면(hyper-plane) 발견// approximate hyper-plane discovery

Go toChoose(1), or if maximal trials is attained, Go to Choose (1), or if maximal trials is attained,

'approximative hyper-plane found''approximative hyper-plane found'

도 7에서는 먼저, 기준점을 선정하고(S300), 모든 개체에 대하여 다음의 [수학식 2]을 만족하도록 집단의 간격을 나타내는 가중치 모수의 초기값 ω0를 선정한 후(S310), 최적이상평면을 찾기 위하여 다음의 [수학식 3]을 만족하는 서포트 벡터(Support Vector: 이하 "SV"라 한다)를 구한다(S320).In FIG. 7, first, a reference point is selected (S300), and an initial value ω 0 of a weight parameter representing a group interval is satisfied for all individuals (S310), and then an optimal ideal plane is selected. In order to find out, a support vector (hereinafter referred to as "SV") satisfying the following Equation 3 is obtained (S320).

y i <ω, x i > + b ≥ 1, for alli y i <ω, x i > + b ≥ 1 , for all i

{x|<ω, x 1 > + b}=0{x | <ω, x 1 > + b } = 0

그리고, 모든 개체에 대해 다음의 [수학식 2]로 나타낸 우수한 이상평면 조건을 만족하면서 최소의 마진(margin)을 가지는 평면을 최적의 이상평면으로 간주한다(S330). 그러나 만약 그렇지 않으면 다음의 [수학식 4]에 나타낸 것과 같이 최적화 문제를 선택하여 최소의 마진(margin)을 갖는 ω*를 정한다(S340).Then, the plane having the minimum margin while satisfying the excellent ideal plane condition represented by the following [Equation 2] for all the objects is regarded as the optimal ideal plane (S330). If not, however, the optimization problem is selected as shown in Equation 4 below to determine ω * having a minimum margin (S340).

, 여기서 Q는 합계(∑)을 의미한다. , Where Q stands for ∑.

그리고 y*값의 크기에 따라 소정의 계산식을 수행하거나 또는 데이터를 갱신하고 다시 단계 1을 실행한다(S350). 이와 같은 과정을 N과 l 중 작은 수에 해당한 만큼 반복한다. 그런 후에도 최적 이상평면이 발견되지 않으면 근접 초평면을 선정한다(S360). 상기와 같은 절차에 의해 하나의 커널 함수에 대한 ESVM의 최적의 모형이 결정되는데, 이 절차에서는 라그랑지 전개에 의해 최적 방정식의 해가 결정된다. 그리고 이와 같은 과정을 반복하여 최종 ESVM 모형에 의해 계산되어지는 SV를 구하고(S370), 이를 통해 사용자에 대한 웹 페이지의 방문 시간을 예측할 수가있다(S380).Then, a predetermined calculation is performed according to the size of y * value, or data is updated and step 1 is executed again (S350). This process is repeated for the smaller of N and l. After that, if the optimum abnormal plane is not found, the near superplane is selected (S360). The above procedure determines the optimal model of ESVM for one kernel function. In this procedure, the solution of the optimal equation is determined by Lagrange expansion. By repeating the above process, the SV calculated by the final ESVM model is obtained (S370), and through this, the visit time of the web page for the user can be predicted (S380).

다음은 HSOM을 이용한 군집화부(32)에 대하여 보다 구체적으로 설명한다.Next, the clustering unit 32 using the HSOM will be described in more detail.

예측부에서 ESVM을 이용하여 데이터의 희소성이 제거된 후에는 다음 단계로 HSOM을 이용하여 각 사용자들에 대한 군집화가 수행되는데. 먼저 HSOM의 확률 구조에 대한 디자인은 가우시안 분포에 기반한다. 그리고 주어진 데이터를 이용하여 군집화를 위해서는 HSOM의 사전 확률 분포, 우도 함수 그리고 사후 확률 분포의 구체적인 구조를 결정할 필요가 있다. 본 발명에서 가우시안 분포를 사용한 이유는 웹 사용자의 페이지 접속 시간의 데이터가 가우시안 분포를 따르고 있고, 또한 베이지안 추론의 적용을 용이하게 하기 위해서이다. 따라서 군집화를 시작하기 전에 가우시안 분포의 사전 확률 분포, 우도 함수, 그리고 사후 확률 분포에 대한 결정을 해야 한다. 본 발명에서는 가중치에 관한 사전 확률 분포는 일 실시예로써 [수학식 5]와 같은 가우시안 분포로 가정한다.After the scarcity of the data is removed by using the ESVM in the prediction unit, clustering for each user is performed by using the HSOM. First, the design of the probability structure of HSOM is based on Gaussian distribution. For clustering using the given data, it is necessary to determine the concrete structure of the prior probability distribution, the likelihood function and the posterior probability distribution of HSOM. The reason why the Gaussian distribution is used in the present invention is that the data of the page access time of the web user follows the Gaussian distribution and facilitates the application of Bayesian inference. Therefore, before starting clustering, the prior probability distribution, the likelihood function, and the posterior probability distribution of the Gaussian distribution must be determined. In the present invention, the prior probability distribution regarding the weight is assumed to be a Gaussian distribution as shown in Equation 5 as an embodiment.

[수학식 5]에서 초기 가중치 분포의 하이퍼 파라메타로 사용되는μ는 평균이 0이고 분산이 1인 가우시안 분포를 갖는다.σ w 2 은 알고 있는 고정된 값이다. 이러한 사전 확률 분포는 가우시안 분포로 공액 사전 확률 분포(conjugate prior)가 된다. 물론σ w 2 에 대한 하이퍼 파라메타를 정의할 수 있는데, 일반적으로 역 감마 분포(inverse gamma distribution)를 사용한다.Equation 5 used as a hyperparameter of the initial weight distributionμHas a Gaussian distribution with mean 0 and variance 1.σ w 2 Is a known fixed value. This prior probability distribution is a Gaussian distribution, resulting in a conjugate prior probability distribution. sureσ w 2 You can define a hyperparameter for, usually using an inverse gamma distribution.

학습 데이터x의 분포인 우도함수도 [수학식 6]과 같은 가우시안 분포로 가정한다.The likelihood function, which is the distribution of the training data x , is also assumed to be a Gaussian distribution as shown in [Equation 6].

[수학식 6]에서w는 사전 확률 분포를 갖고 있으며, 일반적으로σ w 2 은 알고 있는 고정된 값으로 가정한다. 사후 확률 분포는 베이즈 정리에 의하여 계산된다.In Equation 6, w has a prior probability distribution, and in general, σ w 2 is assumed to be a known fixed value. The posterior probability distribution is calculated by Bayes' theorem.

HSOM은 각각의 학습 자료마다 사후 확률 분포의 갱신이 이루어진다. 그래서 하나의 자료에 대한 우도 함수를 고려해야 한다. [수학식 7]은 사후 분포를 구하는 계산식이다.HSOM updates the posterior probability distribution for each learning resource. So we should consider the likelihood function for a single piece of data. [Equation 7] is a calculation formula for calculating the posterior distribution.

[수학식 7]의 사후 분포 계산 과정에서 가중치는 사전 확률 분포와 학습 자료에 의한 우도 함수를 통해서 평균이이고, 분산이인 가우시안 분포로 갱신됨을 알 수 있다. [수학식 7]의w의 사후 확률 분포는 한 개의 자료를 학습하고 다시 새로운 학습 데이터를 위한 갱신된 사전 확률 분포가 된다. 또한 위 식에서 보면 사후 확률 분포의 분산은 사전 확률 분포에 비해 감소됨을 알 수 있다. 학습이 진행되면서 모형이 학습 데이터에 적합되어 감에 따라 가중치 갱신의 변동폭도 감소된다. 하지만 분산이 너무 작아지는 것을 막기 위해 허용 한계치 이하로 분산이 작아지게 되면 더 이상의 분산의 감소는 없도록 한다.In the post hoc distribution process of Equation (7), the weights are averaged through the likelihood function of prior probability distribution and learning data. , The variance is It can be seen that it is updated to the Gaussian distribution. The posterior probability distribution of w in Equation 7 is to learn one data and become an updated prior probability distribution for new training data. In addition, it can be seen from the above equation that the variance of the posterior probability distribution is reduced compared to the prior probability distribution. As training progresses, as the model fits into the training data, the variation of the weight update decreases. However, to prevent the variance from becoming too small, if the variance becomes smaller than the allowable limit, there is no further reduction in variance.

도 8은 HSOM의 초기화 과정을 나타낸 흐름도이고, [알고리즘 3]은 HSOM의 초기화를 수행하는 코드를 나열한 것이다.8 is a flowchart illustrating an initialization process of HSOM, and [Algorithm 3] lists codes for performing initialization of HSOM.

[알고리즘 3]Algorithm 3

Algorithm: Initialize_HSOM (Input[i])Algorithm: Initialize_HSOM (Input [i])

// HSOM의 초기화1: 네트워크 상수의 초기화// initialization of HSOM 1: initialization of network constants

Initialize network parameter; Input_layer(int i, int o, int init_neigh_size)Initialize network parameter; Input_layer (int i, int o, int init_neigh_size)

num_inputs=i, num_outputs=o // 입력 벡터와 출력 벡터의 초기화num_inputs = i, num_outputs = o // Initialize the input and output vectors

neighborhood_size=init_neigh_size // 형상 지도의 이웃반경의 초기화neighborhood_size = init_neigh_size // Initialize the neighbor radius of the shape map

weights = new float[num_inputs*num_outputs] // 가중치 지정weights = new float [num_inputs * num_outputs] // specify weights

outputs = new float[num_outputs] // 출력값 지정outputs = new float [num_outputs] // specify outputs

// HSOM의 초기화1: 확률 분포의 초기화// initialization of HSOM 1: initialization of probability distribution

Initialize bayesian distributions // 베이지안 확률 분포 결정Initialize bayesian distributions // Determine Bayesian Probability Distributions

Initialization of the weight vector,w j (0)to haveInitialization of the weight vector, w j (0) to have

probabilistic distribution,N(0, 1). probabilistic distribution, N (0, 1).

// 초기 가중치의 분포를 평균과 분산이 각각 0과 1인 가우시안// the distribution of the initial weights is a Gaussian with mean and variance of 0 and 1, respectively

분포로 결정Determined by distribution

Initialization of the learning rateα(0), α(t)∝t ; 0<α<1,. Initialization of the learning rate α (0), α (t) ∝t ; 0 <α <1 ,.

// 학습율 함수의 결정// determine the learning rate function

Initialization of the neighborhood functionK(j, j * ),Initialization of the neighborhood function K (j, j * ) ,

Kdecreases as to increase|j-j * | K decreases as to increase | jj * |

// 이웃 반경 함수의 결정// Determine neighbor radius function

여기에서, 입력함수의i는 입력벡터,o는 출력벡터, 그리고init_neigh_size는 이웃 반경을 의미한다.Where i is the input vector, o is the output vector, and init_neigh_size is the neighbor radius.

도 8과 상기 알고리즘에서와 같이 HSOM의 초기화 과정은 먼저, 가중치 벡터를 초기화 한다(S400). 이 때, 초기 가중치 벡터w j (0)는 확률분포를 갖는다. 다음으로 학습률을 초기화 한다(S410). 초기 학습률α(0)α(t)∝ t-α 0<α<1의 조건을 만족해야 한다. 그리고 다음 단계에서는 본 발명에서 새롭게 도입된 이웃함수(또는 “이웃반경함수”라고도 함)K(j, j * )를 초기화 한다(S420). 이웃함수는|j-j * |값이 증가함에 따라 K값은 감소하도록 한다.As shown in FIG. 8 and the algorithm, the initialization process of the HSOM first initializes the weight vector (S400). At this time, the initial weight vector w j (0) has a probability distribution. Next, the learning rate is initialized (S410). The initial learning rate α (0) must satisfy the conditions α (t) ∝ t-α and 0 <α <1 . In the next step, the neighbor function (or “neighbor radius function”) K (j, j * ) newly introduced in the present invention is initialized (S420). Neighbor function | jj * | As the value increases, the K value decreases.

이와 같이 초기화 단계를 거친 HSOM은 우선적으로 가중치의 사전확률분포를 고려해야 한다. 이 분포는 구축하려는 모형의 구조로부터 가중치에 대한 사전정보(prior knowledge)를 갖는데, 일반적으로 초기 가중치의 분포는 [수학식 8]에서 나타낸 것과 같은 지수족(exponential family)의 사전확률분포(prior probability distribution)를 갖는다.This initial stage of HSOM must first consider the prior probability distribution of the weights. This distribution has prior knowledge of the weights from the structure of the model to be constructed. In general, the initial weight distribution is the prior probability distribution of the exponential family, as shown in Equation 8. distribution).

여기에서,Z w (α)는 다음의 [수학식 9]와 같은 정규화 인자(normalization factor)이고,α는 하이퍼 파라미터(hyper parameter)이다.Here, Z w (α) is a normalization factor as shown in Equation 9 below, and α is a hyper parameter.

또한, 확률분포E w 는 [수학식 10]과 같은 형태를 갖는다.In addition, the probability distribution E w has the form as shown in [Equation 10].

[수학식 10]에서M은 모형의 가중치의 총 수이다. 사전확률분포를 지수족으로 지정하게 되면 사후확률분포의 계산이 용이하게 된다. 물론 사전확률분포를 지수족 이외의 임의의 분포로 결정할 수도 있다.In Equation 10, M is the total number of weights of the model. Specifying the prior probability distribution as an exponential group makes it easier to calculate the posterior probability distribution. Of course, the prior probability distribution can be determined by any distribution other than the exponential group.

또한, 이 사전확률분포의 모수는 하이퍼 파라미터를 갖는다. 예를 들어 가중치 벡터는 가우시안 분포를 따르는 확률변수라고 가정하면, 이 가우시안 분포는 가중치 벡터내의 각 요소(component)들에 대한 각기 다른 모수를 갖는다. 즉, i번째 가중치인 ω i 는 평균이μ i 이고 분산이 σi 2인 가우시안 분포를 따르게 되고, 이러한 가우시안 분포에서μN(0, 1)의 사전 분포(prior distribution)를 가지며, 분산은 알고 있는 고정된 값으로 결정하거나 위치 모수와 형상 모수를 갖는 역 감마분포(inverse gamma distribution)의 사전 분포를 갖는 초기 가중치를 고려할 수 있다.In addition, the parameter of this prior probability distribution has a hyperparameter. For example, assuming that the weight vector is a random variable following a Gaussian distribution, this Gaussian distribution has different parameters for each component in the weight vector. That is, the i th weight ω i follows a Gaussian distribution with mean μ i and variance σ i 2 , where μ has a prior distribution of N (0, 1) , where variance is It is possible to determine with a known fixed value or consider an initial weight with a prior distribution of an inverse gamma distribution with position and shape parameters.

p 차원의 입력벡터에서 각각의 노드들 간의 서로 다른 척도(scale)에 의한 영향을 없애기 위해서 각각의 입력 노드들에 대한 표준화(normalization)가 필요하다.i번째 입력 노드x i = (x i1 , …, x ip )의 표준화는 각 노드의 값들에서 각 노드의 전체 평균을 빼고, 다시 이 값을 각 노드의 전체 표준편차로 나누어 계산한다. 즉 표준화된i번째 입력노드는 다음의 [수학식 11]과 같다.In order to remove the influence of different scales between the nodes in the p-dimensional input vector, normalization of each input node is required. Normalization of the i th input node x i = (x i1 ,…, x ip ) is calculated by subtracting the total mean of each node from the values of each node and dividing this value by the total standard deviation of each node. That is, the standardized i th input node is expressed by Equation 11 below.

HSOM의 형상지도에서 승리 노드를 결정하는 측도(measure)로는 표준화된 입력벡터와 출력 노드간의 유클리디안 거리(euclidean distance)를 사용한다.i번째 입력노드와j번째 출력노드의 가중치 사이의 유클리디안 거리는 [수학식 12]를 이용하여 계산할 수 있다.As a measure for determining the victory node in the shape map of the HSOM, the euclidean distance between the standardized input vector and the output node is used. The Euclidean distance between the weight of the i th input node and the j th output node can be calculated using Equation 12.

i번째 입력벡터에 대한 승리노드w의 결정은 가장 작은 거리 즉,dist(x i normal , w j )를 갖는 노드로 한다. HSOM에서 승리노드의 영역 크기는 초기에는 상당히 넓은 범위로 결정한다. 하지만 학습이 진행되어 감에 따라서 점차적으로 그 범위는 줄어든다. 이것은 학습이 진행됨에 따라 모수의 참 값의 범위를 줄여가는 것이다. 마찬가지로 HSOM도 이러한 SOM의 영역 크기의 결정 방안을 따른다.The determination of the victory node w for the i th input vector is made with the node having the smallest distance, dist (x i normal , w j ) . In HSOM, the region size of the winning node is initially determined to be quite wide. However, as learning progresses, the range gradually decreases. This decreases the range of true values of the parameters as learning progresses. Similarly, HSOM follows the method of determining the area size of this SOM.

각 학습마다 승리노드와 그 영역크기(neighborhood size)내의 노드의 가중치를 갱신하는 HSOM은 SOM에서는 고려되지 않는 갱신 분포의 분산에 대한 고려가 필요하다. 이는 분포의 평균과는 달리 분산은 학습을 통해 모형이 최적화 되어 감에 따라 점차로 분포의 변화가 심하지 않게 줄여 나가는 작업이 필요하기 때문이다.For each learning, HSOM, which updates the weights of victory nodes and nodes within its neighborhood size, needs to consider the distribution of update distributions that are not considered in SOM. This is because, unlike the mean of the distribution, variance needs to be gradually reduced as the model is optimized through learning.

가중치에 대한 사전확률분포와 학습 데이터의 우도 함수에 의한 사후확률분포의 분산은 베이즈 정리에 의해서 사전분포의 분산에 비해 작아진다. 이 사후 분포가 다시 새로운 학습 데이터의 사전 분포가 되기 때문에 갱신 분포의 분산은 작아지게 된다. 이처럼 모형이 지능화되어 가면서 분산도 작아지게 되기 때문에 SOM의 학습률과 함께 분산의 감소에 대한 고려는 HSOM에서 자연스럽게 이루어진다.The variance of the post-probability distribution by the likelihood function of the weights and the prior probability distribution for the weights is smaller than the variance of the prior distribution by Bayes' theorem. Since this post-distribution becomes a pre-distribution of new learning data, the variance of the update distribution becomes small. As the model becomes intelligent, the variance becomes smaller, so consideration of the reduction of variance along with the learning rate of SOM is naturally made in HSOM.

사전확률분포와 우도 함수가 결정되면 베이즈 정리에 의해서 [수학식 13]의 사후 확률 분포의 형태를 얻게 된다.Once the prior probability distribution and the likelihood function are determined, the Bayes' theorem gives the form of the posterior probability distribution of Equation (13).

여기에서,S(w) = βE D + αE w 이고,Z s (α, β) = ∫exp(-βE D - αE w )dw이다.S(w)를 다시 풀어 정리하면 [수학식 14]와 같다. Here, S (w) = βE D + and αE w, Z s (α, β) = ∫exp - a (-βE D αE w) dw. Solving S (w) again and summarizing [Equation 14].

[수학식 14]에서 갱신해야 할 새로운 가중치 분포의 평균은 학습 데이터와 상관없이 사전에 고려되는 사전확률분포와 학습 데이터에 의한 우도 함수의 곱에 의한 사후 확률 분포의 평균에 대한 기대값(expectation)으로 계산된다. 이 때 사후확률분포의 기대값의 계산을 위한 적분은 몬테카를로 방법에 의해서 구해진다.이러한 방법들 중에서 특히 메트로폴리스(Metropolis) 알고리즘이 보편적으로 사용된다. 메트로폴리스 알고리즘에 의해 정의된 마코프 체인(markov chain)에서 새로운 상태,θ (t+1) 은 이전 상태인θ (t) 로부터 생성된 특정 제안 분포(specified proposal distribution)의 후보 상태(candidate state)가 된다. 이 후보 상태는 이전 상태와 원래 분포의 확률값에 의해 받아들여지거나 기각된다.The mean of the new weight distribution to be updated in Equation (14) is the expectation for the mean of the posterior probability distribution by the product of the prior probability distribution and the likelihood function of the learning data, which are considered beforehand regardless of the training data. Is calculated. In this case, the integral for calculating the expected value of the posterior probability distribution is obtained by the Monte Carlo method, among which the Metropolis algorithm is commonly used. In the markov chain defined by the Metropolis algorithm, the new state, θ (t + 1), becomes the candidate state of the specified proposal distribution generated from the previous state, θ (t) . . This candidate state is accepted or rejected by the probability values of the previous state and the original distribution.

다음의 [알고리즘 4]는 HSOM의 계층(layer)의 크기를 결정하는 과정을 나타낸다.Algorithm 4 below shows the process of determining the size of the HSOM layer.

[알고리즘 4]Algorithm 4

Algorithm:HSOM_Size (Layer[k]) Algorithm: HSOM_Size (Layer [k])

Determineinitial size of feature maps // 형상 지도의 차원 결정 Determine initial size of feature maps // Determine dimension of shape maps

for (i=0; i<=max; i++)for (i = 0; i <= max; i ++)

choose layer_size,choose layer_size,

input_layer_size[0]input_layer_size [0]

feature_layer_size[i] // 입력층과 형상 지도의 차원 결정feature_layer_size [i] // Determine dimension of input layer and shape map

endend

Setlayers // 형상지도의 계층 구조 결정 Set layers // Determine hierarchy of shape map

current layer replaces as new feature_layer(layer_size[i])current layer replaces as new feature_layer (layer_size [i])

// 차원의 변화에 따른 계층 구조 결정// Determine hierarchy structure according to the change of dimension

for (i=0; i<=max; i++)for (i = 0; i <= max; i ++)

if (layer_ptr[i] == convergence_const)if (layer_ptr [i] == convergence_const)

// 차원의 수렴에 대한 조사// investigation of the convergence of dimensions

endend

HSOM의 계층(layer)의 크기를 결정하는 과정은 크게 2가지의 계층 구조로 구성되어 있는데, 우선 주어진 학습 데이터를 이용하여 학습을 하기 전에 HSOM의 초기 계층 구조를 결정한다. 이 단계에서는 학습 데이터의 입력구조가 초기화되고, 이 데이터로부터 처음 학습하기 위한 형상지도의 계층 크기가 결정된다. 한번 결정된 입력 데이터에 대한 구조는 HSOM의 최종 학습이 끝날 때까지 바뀌지 않지만 형상 지도의 계층 크기는 학습이 진행되는 동안 순차적으로 증가하여 주어진 조건이 만족될 때까지, 그리고 최적 군집의 결과에 대한 수렴이 이루어 질 때까지 계속된다.The process of determining the size of the HSOM layer consists of two hierarchical structures. First, the initial hierarchical structure of the HSOM is determined before learning using the given learning data. In this step, the input structure of the training data is initialized, and the hierarchical size of the shape map for the first learning from this data is determined. The structure of the input data once determined does not change until the end of HSOM's final learning, but the hierarchical size of the shape map increases sequentially during the learning, until the given conditions are met and the convergence of the optimal cluster results. Continue until it is done.

도 9와 도 10 및 [알고리즘 5]은 SOM 모형의 승리 노드 결정과 가중치의 확률적 분포 갱신 전략을 사용한 HSOM의 가중치 분포에 대한 갱신 절차를 나타낸 것이다.9, 10, and [Algorithm 5] show an update procedure for weight distribution of HSOM by using a victory node determination of a SOM model and a probabilistic distribution update strategy of weights.

[알고리즘 5]Algorithm 5

Algorithm:Train_HSOM (Train[j]) Algorithm: Train_HSOM (Train [j])

// HSOM의 베이지안 확률 분포의 갱신// update the Bayesian probability distribution of HSOM

Determinethe winner node // 승리 노드의 결정 Determine the winner node // determine the winner node

// 가우시안 분포를 따르는 입력 벡터의 정규화// normalize input vector along Gaussian distribution

Normalization of input vector, Gaussian distribution with mean 0, variance 1Normalization of input vector, Gaussian distribution with mean 0, variance 1

// 가중치의 hyper=parameter 결정// determine hyper = parameter of weight

Choose the distribution of weights,w~f(θ) Choose the distribution of weights, w ~ f (θ)

// 최소 유클리디안 거리를 갖는 노드를 승자로 결정// determine the node with the minimum Euclidean distance as the winner

Choose the winner nodej * = arg max y, using Euclidean criteria.Choose the winner node j * = arg max y , using Euclidean criteria.

Updateof parameters // 가중치 분포의 모수 갱신 Update of parameters // Update Parameter of Weight Distribution

ww jj NewNew = w= w jj OldOld + α(j)K(j, j*)(X-w+ α (j) K (j, j *) (X-w jj OldOld ),),

where,K(j, j * ); Neighborhood functionwhere, K (j, j * ) ; Neighborhood function

endend

// 가중치 분포의 모수 갱신 작업의 반복// iterate the parameter update task of the weight distribution

Replaceold distribution by current. Replace old distribution by current.

// HSOM의 승리 노드 결정// Determine Victory Node Of HSOM

SetWinner_index=0, Set Winner_index = 0,

maxval=-1000000 // 최대 반복 회수 지정maxval = -1000000 // Specify maximum number of iterations

Findthe winner neuron // 승리 노드 결정 Find the winner neuron // Determine Winning Node

for(j=0; j<=num_outputs; j++) for (j = 0; j <= num_outputs; j ++)

for (i=0; i<num_inputs; i++)for (i = 0; i <num_inputs; i ++)

// 최소 유클리디안 거리를 갖는 노드가 승리 노드가 됨// node with minimum Euclidean distance becomes the winning node

winner[i, j] = arg minx(k) - w j winner [i, j] = arg minx (k)-w j

endend

// 가중치 분포의 갱신// update weight distribution

Setm=(int)alpha, delta=alpha-m Set m = (int) alpha, delta = alpha-m

// 가우시안 분포로부터 모수 생성// create parameter from Gaussian distribution

while(count<data_size)while (count <data_size)

v=rand()/32767.0, w=pow(y/m,delta)/(1+(y/m-1)*delta)v = rand () / 32767.0, w = pow (y / m, delta) / (1+ (y / m-1) * delta)

endend

// 수렴될 때까지 반복 학습// iterate until convergence

RepeatUntil given criteria satisfaction. Repeat Until given criteria satisfaction.

도 9와 상기 알고리즘에 나타낸 바와 같이 본 발명은, 먼저 입력벡터를 초기화 하고(S500) 초기의 가우시안 분포에서 각 형상 지도의 노드에 사용할 가중치들을 생성한다(S510). 초기의 사전분포는 평균이 0이고 분산이 1인 가우시안 분포를사용한다. 이는 HSOM의 형상 지도에서 승리 노드의 결정에 있어서 유클리디안 거리를 사용하고, 또 입력 벡터의 값들이 평균이 0 분산이 1을 따르도록 초기화되었기 때문이다. 따라서 처음부터 가중치의 갱신은 자신들이 속한 분포의 모수에 대한 갱신이 된다. 이 값들이 계속되는 학습에 의해 갱신되는 것이다.As shown in FIG. 9 and the algorithm, the present invention first initializes an input vector (S500) and generates weights to be used for nodes of each shape map in an initial Gaussian distribution (S510). The initial predistribution uses a Gaussian distribution with a mean of 0 and a variance of 1. This is because the Euclidean distance is used to determine the triumph node in the shape map of HSOM, and the values of the input vectors are initialized such that the mean follows zero variance. Therefore, updating the weight from the beginning is updating the parameters of the distribution to which they belong. These values are updated by subsequent learning.

다음으로 HSOM의 승리 노드를 결정한다(S520). 이 단계에서는 주어진 반복 학습의 최대 범위를 지정하고, 최종 가중치 값이 갱신될 형상 지도의 노드를 결정하게 된다.Next, the victory node of the HSOM is determined (S520). In this step, the maximum range of a given iterative learning is specified, and the node of the shape map whose final weight value is to be updated is determined.

도 10는 가중치의 분포를 갱신하는 절차를 나타낸 것이다. 새로운 가중치의 계산(S600)은 다음 [수학식 15]와 같이 행해진다.10 shows a procedure for updating the distribution of weights. Calculation of the new weight (S600) is performed as shown in Equation 15 below.

ww jj NewNew = w= w jj OldOld + α(j)K(j, j*)(X-w+ α (j) K (j, j *) (X-w jj OldOld ))

여기에서,K(j, j * )는 이웃함수을 의미한다. 이때에는 가중치 분포인 가우시안 분포의 모수에 대한 하이퍼 파라미터에 대한 분포로부터 갱신이 이루어진다(S610). 상기 알고리즘에서는 하이퍼 파라미터에 대한 분포로서 감마 분포를 사용한 것인데, 그 이유는 베이지안의 사후 확률이 공액 분포가 되어 계산이 용이하게 되기 때문이다.Here, K (j, j * ) means a neighbor function. At this time, an update is made from the distribution of the hyperparameters for the parameters of the Gaussian distribution, which is the weight distribution (S610). The algorithm uses a gamma distribution as a distribution for the hyperparameters, because the Bayesian posterior probability becomes a conjugate distribution, making calculations easier.

이와 같이 동적 웹 정보 전력 변환부은 ESVM을 이용한 예측부와 HSOM을 이용한 군집화부가 유기적으로 결합된 학습 모듈이 매우 중요한 역할을 수행한다.As such, the dynamic web information power converter plays a very important role in the learning module in which the prediction unit using the ESVM and the clustering unit using the HSOM are organically combined.

이상의 과정을 통하여 최종적으로 새로운 사용자에 대한 추천 시스템에 사용할 수 있는 웹 페이지에 대한 선호도 예측 정보를 구할 수 있으며, 상기의 정보는 베이스부에 저장된다.Through the above process, preference prediction information for a web page that can be finally used in the recommendation system for a new user can be obtained, and the information is stored in the base unit.

이상에서 살펴본 바와 같이 본 발명에 따른 동적 웹 정보 추천 시스템은 사용자별로 적합한 웹 정보를 추천하는 일련의 과정이 실시간으로 이루어지며 기존의 추천 시스템보다 정확도, 예측을 위한 학습 시간, 그리고 모형의 수렴성면에서 더욱 우수한 특성을 보인다. 특히 학습 시간의 측면에서 기존의 추천 알고리즘 인 SVM에 비해 전혀 뒤지지 않고, 모형의 정확도 측면에서는 기존의 추천 시스템에 비해 우수한 성능을 보임이 실험을 통하여 입증되었다. 또한 정확도 면에서도 현재 가장 많이 사용되고 있는 피어슨의 상관 계수 알고리즘에 비해서도 우수함을 실험을 통하여 확인하였다.As described above, in the dynamic web information recommendation system according to the present invention, a series of processes for recommending suitable web information for each user is performed in real time, and in terms of accuracy, learning time for prediction, and convergence of the model, compared to the existing recommendation system. More excellent properties. In particular, it is proved through experiments that the learning time is inferior to the existing recommendation algorithm SVM, and the performance of the model is superior to the existing recommendation system. In addition, the experimental results show that the accuracy is superior to Pearson's correlation coefficient algorithm, which is currently used most.

Claims (9)

인터넷 환경에서 사용자에게 웹 정보를 제공하는 시스템에 있어서,In the system for providing web information to the user in the Internet environment, 웹 서버의 로그 데이터로부터 사용자들의 클릭 스트림 정보를 추출한 후 추출된 상기의 로그 데이터를 정제 및 필터링하여 모델 구축에 필요한 정보만을 적절한 형태로 가공하는 전처리부;A pre-processing unit extracting click stream information of users from log data of a web server, and then refining and filtering the extracted log data to process only information necessary for building a model into a proper form; 상기 전처리부에서 가공된 데이터를 학습 데이터로 사용하고 다수의 커널함수를 적용한 앙상블 서포 벡터 머신(ESVM)을 이용하여 사용자에 대한 웹 페이지 선호도 예측 모형을 만들고, 테스트 데이터를 이용하여 각 페이지에 대한 사용자의 선호도를 예측하는 예측부;By using the data processed by the preprocessor as training data and using the ensemble support vector machine (ESVM) to which a plurality of kernel functions are applied, a web page preference prediction model is created for the user, and the user for each page using the test data. A prediction unit for predicting the preference of the; 상기 예측부에서 희소성이 제거된 완전한 정보를 하이브리드 자기 조직화 형상지도(HSOM)을 이용하여 사용자들을 군집화하는 군집화부;A clustering unit for clustering users using hybrid self-organizing shape maps (HSOMs) with complete information from which the scarcity is removed from the prediction unit; 상기 예측부에서 예측되고, 상기 군집화부에서 군집화된 결과를 근거로 웹 정보를 새로운 사용자에게 추천하는 추천부; 및A recommendation unit predicted by the prediction unit and recommending web information to a new user based on the clustering result in the clustering unit; And 추천한 웹 정보에 대한 사용자의 만족도를 피드백하는 피드백부를 포함하는 것을 특징으로 하는 동적 웹 정보 추천 시스템.Dynamic web information recommendation system comprising a feedback unit for feeding back a user's satisfaction with the recommended web information. 청구항 제1항에 있어서, 상기 예측부는 모형의 학습시간을 단축시키기 위하여 전체 데이터에서 표본을 재추출하는 역할을 하는 붓스트래핑부와 최적의커널(Kernel)함수를 결정하는 커널결정부를 더 포함하는 것을 특징으로 하는 동적 웹 정보 추천 시스템.The method of claim 1, wherein the prediction unit further comprises a bootstrapping unit, which serves to resample a sample from the entire data, and a kernel determination unit that determines an optimal kernel function to shorten the learning time of the model. Features a dynamic web information recommendation system. 인터넷 환경에서 사용자에게 웹 정보를 제공하는 방법에 있어서,In the method of providing web information to the user in the Internet environment, 웹 서버의 로그 데이터로부터 사용자들의 클릭 스트림 정보를 얻는 단계;Obtaining click stream information of users from log data of a web server; 추출된 상기의 로그 데이터를 정제하고 필터링하여 모델 구축에 필요한 정보만을 적절한 형태로 추출하는 단계(S110);Purifying and filtering the extracted log data to extract only information necessary for building a model in a suitable form (S110); 상기 정제된 로그 정보를 사용자가 방문한 페이지와 페이지에 머문 시간을 모아서 하나의 인스턴스로 이용하고, 여기에 적절한 수의 인스턴스를 다시 추출하여 학습 데이터로 사용함으로서 사용자에 대한 웹 페이지 선호도 예측 모형을 만드는 단계;Creating a web page preference prediction model for the user by using the purified log information as a single instance by collecting the pages and time spent on the page as a user, and extracting an appropriate number of instances as the training data. ; 테스트 데이터를 이용하여 얻은 정보를 전체 웹 페이지의 앙상블 서포 벡터 머신(ESVM) 모델에 적용시켜 각 페이지에 대한 사용자의 선호도를 예측해 내는 단계;Applying information obtained using the test data to an ensemble support vector machine (ESVM) model of an entire web page to predict a user's preference for each page; 상기의 과정들을 통해 얻은 각 페이지들에 대한 예측 값에 각 사용자의 평균 관심도와 각 페이지의 평균 관심도를 고려하여 선호도를 계산하는 단계;Calculating a preference in consideration of the average interest of each user and the average interest of each page in the prediction value for each page obtained through the above processes; 희소한 웹 데이터의 결측치를 완성하여 완전한 데이터 구조를 만드는 단계;Completing missing data of the rare web data to create a complete data structure; 상기 과정에서 얻어진 완전한 데이터를 이용하고, 하이브리드 자기 조직화 형상지도(HSOM) 알고리즘을 이용하여 사용자에 대한 군집화를 실행하는 단계;Using the complete data obtained in the above process and performing clustering for a user using a hybrid self-organizing shape map (HSOM) algorithm; 각 군집에 속한 사용자들의 웹 페이지에 대한 평균접속시산을 계산하여 해당 군집에 속하는 사용자의 대표선호도를 계산하는 단계; 및Calculating a representative preference of users belonging to the cluster by calculating an average access time for the web pages of the users belonging to each cluster; And 사용자로부터 추천한 결과에 대한 만족도를 피드백 받아 지식베이스를 지능화시키는 단계를 포함한 것을 특징으로 하는 동적 웹 정보 추천 방법.Dynamic Web information recommendation method comprising the step of intelligentizing the knowledge base receiving feedback on the satisfaction of the results recommended by the user. 청구항 제3항에 있어서, 상기 선호도를 예측하는 단계는,The method of claim 3, wherein the predicting the preference comprises: 커널함수를 결정하는 단계;Determining a kernel function; 최적의 모수를 결정하는 단계;Determining an optimal parameter; 붓스트래핑 샘플링 단계;Bootstrapping sampling step; 최적의 커널함수 결정 단계;Determining an optimal kernel function; 최적의 이상평면 결정 단계;Optimal out-of-plane determination; 희소 데이터 구축 단계를 포함하고, 상기 최적의 커널함수를 결정하는 단계는 복수개의 커널함수 중 오차를 최소로 하는 하나의 함수를 선택하는 것을 특징으로 하는 동적 웹 정보 추천 방법.And a rare data building step, wherein the determining of the optimal kernel function comprises selecting one function among the plurality of kernel functions to minimize an error. 청구항 제4항에 있어서, 상기 복수개의 커널함수는 스캐터 스무딩(scatter smoothing) 함수, 바이너리(binary) 함수, 이동평균(running mean) 함수, 커널 스무더(kernel smoother) 함수, 등가 커널(equivalent kernel) 함수, 회귀스플라인(regression spline) 함수 또는 큐빅 스무딩 스플라인(cubic smoothing spline) 함수인 것을 특징으로 하는 동적 웹 정보 추천 방법.5. The kernel of claim 4, wherein the plurality of kernel functions include a scatter smoothing function, a binary function, a running mean function, a kernel smoother function, and an equivalent kernel. Dynamic web information recommendation method characterized in that it is a function, a regression spline function or a cubic smoothing spline function. 청구항 제4항에 있어서, 상기 최적의 이상평면 결정 단계는,The method of claim 4, wherein the determining the optimal out-of-plane 기준점 선정 단계;Reference point selection step; 가중치 초기화 단계;A weight initialization step; 서포트 벡터(Support Vector) 계산 단계;A support vector calculation step; 최적 이상평면이 발견되면 그 평면을 이상평면으로 선정하는 단계로 이루어진 것을 특징으로 하는 동적 웹 정보 추천 방법.Dynamic web information recommendation method comprising the step of selecting the plane as an ideal plane, if the optimum abnormal plane is found. 청구항 제6항에 있어서, 상기 최적의 이상평면 선정 단계에서는,The method according to claim 6, wherein in the optimum abnormal plane selection step, 최적 이상평면이 발견되지 않으면 갱신된 서포트 벡터(Support Vector)를 이용하여 모수를 추정하는 단계;Estimating a parameter using an updated support vector if an optimal anomaly is not found; 데이터를 갱신하는 단계를 더 포함하는 것을 특징으로 하는 동적 웹 정보 추천 방법.Dynamic data recommendation method further comprising the step of updating the data. 청구항 제3항에 있어서, 사용자 군집화 단계는,The method of claim 3, wherein the user clustering step, 가중치 벡터를 초기화하는 단계와 학습률을 초기화 단계와 이웃함수의 초기화 단계로 이루어진 초기화 단계;An initialization step comprising initializing a weight vector, initializing a learning rate, and initializing a neighbor function; 입력벡터를 초기화하는 단계와 가중치 분포를 선택하는 단계와 승리노드를 선택하는 단계로 이루어진 승자노드 결정 단계; 및A winner node determination step comprising initializing an input vector, selecting a weight distribution, and selecting a victory node; And 새로운 가중치로 갱신하는 단계와 이전의 갱신분포를 새로운 갱신 분포로 대체하는 단계로 이루어진 가중치 분포의 모수갱신 단계를 포함하고, 상기 가중치 벡터의 초기화 단계 및 가중치 갱신 단계는 확률분포에 기반한 베이지안 추론기법을 적용함으로써 수렴성을 보장하는 것을 특징으로 하는 동적 웹 정보 추천 방법.Updating the parameter with a new weight and replacing the previous update with a new update distribution. The parameter updating step of the weight vector includes a Bayesian inference technique based on a probability distribution. A dynamic web information recommendation method characterized by ensuring convergence by applying. 청구항 제8항에 있어서, 상기 승리 노드 결정 단계는 입력벡터와 출력벡터 사이의 유클리디안 거리를 이용한 것을 특징으로 하는 동적 웹 정보 추천 방법.10. The method of claim 8, wherein the determining of the victory node uses a Euclidean distance between an input vector and an output vector.
KR10-2003-0045534A 2003-07-05 2003-07-05 A System of Web Information Prediction Dynamic Recommendation in Internet Environment and A Methode Thereof KR100505755B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR10-2003-0045534A KR100505755B1 (en) 2003-07-05 2003-07-05 A System of Web Information Prediction Dynamic Recommendation in Internet Environment and A Methode Thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR10-2003-0045534A KR100505755B1 (en) 2003-07-05 2003-07-05 A System of Web Information Prediction Dynamic Recommendation in Internet Environment and A Methode Thereof

Publications (2)

Publication Number Publication Date
KR20050005591A true KR20050005591A (en) 2005-01-14
KR100505755B1 KR100505755B1 (en) 2005-08-03

Family

ID=37219791

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-2003-0045534A KR100505755B1 (en) 2003-07-05 2003-07-05 A System of Web Information Prediction Dynamic Recommendation in Internet Environment and A Methode Thereof

Country Status (1)

Country Link
KR (1) KR100505755B1 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006080820A1 (en) * 2005-01-28 2006-08-03 Sk Telecom Co., Ltd. Method and system for recommending preferred service using mobile robot
WO2007098249A2 (en) * 2006-02-21 2007-08-30 Hewlett-Packard Development Company, L.P. Website analysis combining quantitative and qualitative data
KR100837798B1 (en) * 2006-12-18 2008-06-13 고려대학교 산학협력단 Method for providing serivce with situation aware personalization, recording medium thereof and system for providing serivce with situation aware personalization
KR101103646B1 (en) * 2009-10-01 2012-01-11 성균관대학교산학협력단 Web page recommendation apparatus and method
CN104809136A (en) * 2014-01-28 2015-07-29 中国银联股份有限公司 Hybrid clustering method and device
KR20200092479A (en) * 2019-01-09 2020-08-04 주식회사 니블스카이 Method and system of automating marketing
CN112269927A (en) * 2020-10-22 2021-01-26 辽宁工程技术大学 Recommendation method based on session sequence dynamic behavior preference coupling relation analysis

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006080820A1 (en) * 2005-01-28 2006-08-03 Sk Telecom Co., Ltd. Method and system for recommending preferred service using mobile robot
WO2007098249A2 (en) * 2006-02-21 2007-08-30 Hewlett-Packard Development Company, L.P. Website analysis combining quantitative and qualitative data
WO2007098249A3 (en) * 2006-02-21 2007-12-06 Hewlett Packard Development Co Website analysis combining quantitative and qualitative data
US8396737B2 (en) 2006-02-21 2013-03-12 Hewlett-Packard Development Company, L.P. Website analysis combining quantitative and qualitative data
KR100837798B1 (en) * 2006-12-18 2008-06-13 고려대학교 산학협력단 Method for providing serivce with situation aware personalization, recording medium thereof and system for providing serivce with situation aware personalization
KR101103646B1 (en) * 2009-10-01 2012-01-11 성균관대학교산학협력단 Web page recommendation apparatus and method
CN104809136A (en) * 2014-01-28 2015-07-29 中国银联股份有限公司 Hybrid clustering method and device
CN104809136B (en) * 2014-01-28 2019-03-15 中国银联股份有限公司 A kind of mixing clustering method and device
KR20200092479A (en) * 2019-01-09 2020-08-04 주식회사 니블스카이 Method and system of automating marketing
KR20210056989A (en) * 2019-01-09 2021-05-20 주식회사 니블스카이 Method and system of automating marketing
CN112269927A (en) * 2020-10-22 2021-01-26 辽宁工程技术大学 Recommendation method based on session sequence dynamic behavior preference coupling relation analysis
CN112269927B (en) * 2020-10-22 2024-05-28 辽宁工程技术大学 Recommendation method based on session sequence dynamic behavior preference coupling relation analysis

Also Published As

Publication number Publication date
KR100505755B1 (en) 2005-08-03

Similar Documents

Publication Publication Date Title
CN110263227B (en) Group partner discovery method and system based on graph neural network
Hadavandi et al. Integration of genetic fuzzy systems and artificial neural networks for stock price forecasting
Wang Predicting tourism demand using fuzzy time series and hybrid grey theory
Luna et al. Top-down strategies based on adaptive fuzzy rule-based systems for daily time series forecasting
Hassan et al. A hybrid of multiobjective Evolutionary Algorithm and HMM-Fuzzy model for time series prediction
CN110503531A (en) The dynamic social activity scene recommended method of timing perception
CN110647626B (en) REST data service clustering method based on Internet service domain
Azzouz et al. Steady state IBEA assisted by MLP neural networks for expensive multi-objective optimization problems
Dash et al. A differential harmony search based hybrid interval type2 fuzzy EGARCH model for stock market volatility prediction
US10963802B1 (en) Distributed decision variable tuning system for machine learning
CN107092812B (en) Method for identifying key protein based on genetic algorithm in PPI network
CN110222838B (en) Document sorting method and device, electronic equipment and storage medium
KR100537415B1 (en) A System of Web Information Prediction in Internet Environment Using Ensemble Support Vector Machine and A Methode Thereof
Mehrizi et al. A Bayesian Poisson–Gaussian process model for popularity learning in edge-caching networks
CN111210072B (en) Prediction model training and user resource limit determining method and device
Huynh et al. Multi-output Gaussian processes for multi-population longevity modelling
KR100505755B1 (en) A System of Web Information Prediction Dynamic Recommendation in Internet Environment and A Methode Thereof
CN110659363B (en) Web service mixed evolution clustering method based on membrane computing
François et al. Resample and combine: an approach to improving uncertainty representation in evidential pattern classification
Verma et al. A systematic review on the advancement in the study of fuzzy variational problems
CN113610299A (en) Information propagation prediction method and device based on characteristic attenuation reinforced neural network
Ometov et al. On applicability of imagery-based CNN to computational offloading location selection
CN115470927A (en) Automatic extraction method of surrogate model, terminal and storage medium
Zhang et al. Neural collaborative filtering recommendation algorithm based on popularity feature
Sang et al. Graph convolution with topology refinement for automatic reinforcement learning

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130718

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20140708

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20150603

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20160707

Year of fee payment: 12

FPAY Annual fee payment

Payment date: 20190605

Year of fee payment: 15