WO2022114364A1 - 비지도학습에서의 사용자의도 반영 방법 및 그 장치 - Google Patents

비지도학습에서의 사용자의도 반영 방법 및 그 장치 Download PDF

Info

Publication number
WO2022114364A1
WO2022114364A1 PCT/KR2020/018787 KR2020018787W WO2022114364A1 WO 2022114364 A1 WO2022114364 A1 WO 2022114364A1 KR 2020018787 W KR2020018787 W KR 2020018787W WO 2022114364 A1 WO2022114364 A1 WO 2022114364A1
Authority
WO
WIPO (PCT)
Prior art keywords
cluster
clusters
model
generating
unsupervised learning
Prior art date
Application number
PCT/KR2020/018787
Other languages
English (en)
French (fr)
Inventor
최유리
김지훈
고재현
최정혁
Original Assignee
주식회사 솔리드웨어
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 솔리드웨어 filed Critical 주식회사 솔리드웨어
Publication of WO2022114364A1 publication Critical patent/WO2022114364A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • G06N5/025Extracting rules from data

Definitions

  • An embodiment of the present invention relates to a method and apparatus for reflecting user intention in unsupervised learning, and more particularly, to a method and apparatus for generating a model reflecting user intention in unsupervised learning.
  • Supervised learning is a learning method using learning data in which result values for input values are given. Therefore, for the supervised learning method, labeling of data is required. In supervised learning, it is possible to create a model that meets the user's intention through the data labeling process. However, most of the data generated in the industrial field is unlabeled data. Therefore, supervised learning methods cannot be used with these data and unsupervised learning methods can be applied. Since unsupervised learning is a learning method that clusters data using a data structure or pattern, it has a problem in that it cannot reflect the user's intention.
  • a technical problem to be achieved by an embodiment of the present invention is to provide a method and an apparatus for generating a model by using an unsupervised learning method and generating a model reflecting a user's intention.
  • an example of a method for generating a model in which a user intention is reflected in unsupervised learning includes: grouping data into a plurality of initial clusters using an unsupervised learning model; generating a plurality of final clusters by performing a process of cluster division or cluster integration with respect to the plurality of initial clusters; and generating an integrated model grouping the data into the final cluster.
  • an example of a model generating apparatus includes a clustering unit for grouping data into a plurality of initial clusters using an unsupervised learning model; a feedback unit for generating a plurality of final clusters by performing a process of cluster division or cluster integration with respect to the plurality of initial clusters; and a model generator for generating an integrated model for grouping the data into the final cluster.
  • a model intended by a user may be generated using an unsupervised learning model.
  • FIG. 1 is a flowchart illustrating an example of a model generation method according to an embodiment of the present invention
  • FIG. 2 is a diagram illustrating an example of a process of generating an integrated model reflecting user intention according to an embodiment of the present invention
  • 3 and 4 are views showing various examples of displaying cluster properties according to an embodiment of the present invention.
  • FIG. 5 is a diagram illustrating an example of a method for generating a supervised learning model for interpreting cluster properties according to an embodiment of the present invention
  • FIG. 6 is a diagram illustrating an example of a method for identifying a cluster attribute using a supervised learning model according to an embodiment of the present invention
  • FIG. 7 is a diagram illustrating a configuration of an example of a model generating apparatus according to an embodiment of the present invention.
  • FIG. 1 is a flowchart illustrating an example of a model generation method according to an embodiment of the present invention.
  • the model generating apparatus groups data into a plurality of clusters using an unsupervised learning model ( S100 ).
  • the data is not limited to any one object or type, such as company management data, customer data, sensing data of various equipment without manufacturing, or various online information.
  • the data of the present embodiment is unlabeled data, or even if it is labeled, it does not fit the purpose intended by the user, so it is unsuitable for use in the supervised learning model.
  • the unsupervised learning model may be a variety of conventional models that group data into a plurality of clusters based on a pattern or structure between the data. For example, K-Means exists as an unsupervised learning model. According to an embodiment, the number of clusters generated by the unsupervised learning model may or may not be predefined.
  • the model generating apparatus divides or merges a plurality of clusters generated by the unsupervised learning model to generate a final cluster intended by the user (S110). For example, the model generating apparatus divides 230 a part of the initial clusters 220,222,224 generated by the unsupervised learning model 210 as shown in FIG. 2 to generate detailed clusters 240 and 242, and detailed clusters 240,242. Another cluster 260 may be created by merging ( 250 ) some of the initial clusters ( 220 ). The model generating apparatus may receive an input from a user of a group to be divided or a group to be merged through the screen interface.
  • the model generating apparatus may further include a configuration for identifying and providing attribute information of each cluster so that the user can understand the properties of each cluster.
  • the model generating apparatus may display statistical values such as the average of each variable of data belonging to each cluster as shown in FIGS. 3 and 4 .
  • the conventional method for displaying various cluster properties is a method of statistically analyzing and displaying data belonging to a cluster, and it is not possible to know the degree of influence of a variable on each cluster or the classification condition of the variable. Accordingly, the present embodiment proposes a method of identifying cluster properties such as the degree of influence of a variable on each cluster or the classification condition of the variable, examples of which are shown in FIGS. 5 and 6 .
  • the model generating device When the final cluster intended by the user is created, the model generating device generates and provides an integrated model for grouping data into the final cluster (S120). For example, when the final clusters 260,262,264,266,224 are created through cluster division 230,252 and cluster merging 250, as shown in FIG. ) and merging 250 may provide an integrated model including the arrangement relationship. In another embodiment, the model generating apparatus may generate and provide a supervised learning model for predicting any one of the final clusters desired by the user as an integrated model by using the final clusters 260,262,264,266,224.
  • FIG. 2 is a diagram illustrating an example of a process of generating an integrated model reflecting user intention according to an embodiment of the present invention.
  • the model generating apparatus groups data 200 into N initial clusters 220 , 222 , and 224 using the unsupervised learning model 210 .
  • the model generating apparatus may receive a selection of a group to be divided or merged from the user through the screen interface.
  • the model generating apparatus divides the second cluster 222 into at least two sub-groups 240 and 242 .
  • the model generating apparatus may divide the second cluster 222 using the unsupervised learning model or divide the second cluster 222 based on a rule. For example, the model generating apparatus generates a plurality of detailed clusters 240 and 242 by inputting data of the second cluster 222 to the unsupervised learning model 210 used for initial clustering, or a previously used unsupervised learning model.
  • the second cluster 222 may be grouped into a plurality of detailed clusters 240 and 242 by using a second unsupervised learning model different from .
  • the model generating apparatus may divide the second cluster 222 into a plurality of detailed clusters 240 and 242 according to a user-defined rule or a pre-defined rule.
  • the model generating apparatus may provide a screen interface so that a user can create a rule by defining conditions for at least one or more variables.
  • the number of detailed clusters may be pre-designated by the user or may be arbitrarily determined.
  • the division 230 process of the second cluster 222 is completed, the first initial cluster 220 , the 2-1 sub-group 240 , the 2-2 sub-group 242 , and the 3 to N initial clusters are completed. (224) exists. If the user does not perform any further cluster division or merging, the current cluster becomes the final cluster.
  • the model generating device When the user requests the merging 250 of the first initial cluster 220 and the 2-1 sub-group 240 and the split 252 of the 2-2 sub-group 242, respectively, the model generating device performs cluster merging. (250) and cluster division (252) are performed. The process of cluster merging 250 or cluster division 252 may be repeatedly performed several times according to a user's request.
  • the final cluster is a 1-2-1 cluster 260, a 2-2-1 cluster 262, a 2-2-2 cluster 264, and a 2-2-3 cluster 266. ), and the third to N clusters 224 .
  • the model generating apparatus includes the unsupervised learning model 210, the cluster division 230 for the second initial cluster 222, and the merging 250 of the first initial cluster 220 and the 2-1 detailed cluster 240. , and an integrated model composed of the additional division 252 of the 2-2 detailed cluster 242 is generated and output. That is, the integrated model may have the structure of FIG. 2 .
  • 3 and 4 are diagrams illustrating various examples of displaying a cluster attribute according to an embodiment of the present invention.
  • the model generating apparatus may display statistical analysis results of data belonging to each cluster in two dimensions. For example, by using a two-dimensional heatmap 310 in which the horizontal axis is the variable of data and the vertical axis is each cluster, the average of the data belonging to each cluster is displayed in numbers, graphs, or different colors according to the size. can For example, when the first variable is age, the model generating device sets the average age of data belonging to the first cluster, the second cluster, and the third cluster in different colors in the column 310 where each cluster and the variable meet. can be displayed
  • the model generating apparatus may display a plurality of variables constituting data of each cluster in 2D or 3D.
  • the model generating apparatus may use various dimensionality reduction methods such as Principal Component Analysis (PCA), Uniform Maniford Approximation and Projection (UMAP), and t-Distributed Stochastic Neighbor Embedding (t-SNE).
  • PCA Principal Component Analysis
  • UMAP Uniform Maniford Approximation and Projection
  • t-SNE t-Distributed Stochastic Neighbor Embedding
  • FIG. 5 is a diagram illustrating an example of a method for generating a supervised learning model for interpreting cluster properties according to an embodiment of the present invention.
  • the model generating apparatus includes a first group 510 including any one cluster from N clusters 500 , 502 , and 504 generated through an unsupervised learning model, and a second group 512 including the remaining clusters. create That is, the model generating apparatus labels the data into the first group 510 and the second group 512 .
  • the model generating apparatus may tag data belonging to the first group 510 as '1' and data belonging to the second group 512 as '0'.
  • Various methods of labeling data belonging to each group other than '1' and '0' may be applied to the present embodiment.
  • the model generating apparatus trains the supervised learning model 520 by using the training data composed of data labeled with the first group 510 and the second group 512 .
  • the supervised learning model 520 receives training data, it outputs a result of predicting where the data belongs to among the first group 510 and the second group 512 , and learns the prediction result 530 . It performs a learning process that compares the ground truth of the data and adjusts internal parameters, etc.
  • the model generating apparatus predicts the cluster a (500) using the first group 510 including the cluster a (500) and the second group 512 including the remaining clusters b to k (502,504).
  • the supervised learning model 520 may be trained to do so.
  • the model generating apparatus divides the data of the second initial cluster 222 and the data of the remaining clusters into the first group 510 , respectively. After classifying into and second group 512 , the supervised learning model 520 can be trained using this.
  • FIG. 6 is a diagram illustrating an example of a method of identifying a cluster attribute using a supervised learning model according to an embodiment of the present invention.
  • the supervised learning model 520 is a decision tree model.
  • the decision tree model consists of a parent node (600), a decision node (610,612,620,622,624,626) of each layer, and a terminal node (630 ⁇ 644).
  • the terminal nodes 630 to 644 of the decision tree model are two It belongs to any one of the groups 510 and 512 .
  • first, second, fifth, and eighth end nodes 630,632,638,644 may belong to the first group, and the third, fourth, sixth, and seventh end nodes 634,636,640,642 may belong to the second group. It is possible to determine which group the data belongs to according to which end node the data belongs to.
  • the path from the parent node 600 to the end nodes 630 to 644 of the decision tree model is determined by the branching conditions of the decision nodes 610,612,620,622,624,626.
  • the first branch condition of the first decision node 610 and the second branch condition of the second decision node 620 exist. do.
  • the property of data classified as the second end node 6320 may be described by the first branch condition and the second branch condition 650 . If the first group 510 is composed of the cluster a 500 , the attributes of the cluster a 500 may be expressed as a first branch condition and a second branch condition.
  • FIG. 7 is a diagram illustrating a configuration of an example of a model generating apparatus according to an embodiment of the present invention.
  • the model generating apparatus 700 includes a clustering unit 710 , a feedback unit 720 , and a model generating unit 730 .
  • the model generating device 700 may be implemented as various types of computing devices including a memory, a processor, an input/output device, and the like.
  • each of the components 710 , 720 , and 730 may be implemented as software and loaded in a memory and then performed by a processor.
  • the clustering unit 700 groups data into a plurality of clusters using the unsupervised learning model. For example, as shown in FIG. 2 , the clustering unit 700 may group the data 200 into N clusters 220 , 222 , and 224 using the unsupervised learning model 210 .
  • the feedback unit 720 divides or merges the clusters according to receiving a cluster division or cluster merging command from the user so as to generate a cluster according to the user's intention. For example, cluster division and merging may be performed in various forms as shown in FIG. 2 .
  • the feedback unit 720 may display the cluster attribute to help the user in cluster division or cluster merging. For example, the feedback unit 720 may visually display each cluster property as shown in FIG. 3 or 4 , or identify and provide each cluster property through a supervised learning model as shown in FIGS. 5 and 6 .
  • the feedback unit 720 may provide a screen interface through which the user can select a group to be divided or merged. Referring to the example of FIG. 2 , when the user selects the second cluster 222 through the screen interface, the feedback unit 720 may display a cluster attribute for the second cluster. When the user requests division 230 for the second cluster 222, the feedback unit 720 divides the second cluster 222 and then divides the second cluster 222 in the form of a graph in the form of a 2-1 sub-group 240. and a 2-2 detailed cluster 242 may be displayed on the screen. When the user selects the second-first detailed cluster 240 again, the feedback unit 720 may identify and display the cluster properties for the second-first detailed cluster 240 .
  • the model generator 730 generates and provides an integrated model for grouping data into the final cluster when the final cluster is generated through the process of cluster division or cluster merging. For example, when the final clusters 260, 262, 264, 266, 224 as shown in FIG. 2 are created by the user's cluster division or cluster integration, the model generator 730 may provide an integrated model configured with the structure of FIG. 2 .
  • the model generator 730 may generate a supervised learning model for predicting a desired cluster by a user by using the final cluster. For example, when generating a supervised learning model for predicting the 2-2-1 cluster 262 in FIG. 2 , the model generating unit 730 generates data belonging to the 2-2-1 cluster 262 . After generating training data tagged with the first group and tagging the data belonging to the remaining clusters 260 , 264 , 266 , and 224 as the second group, the supervised learning model may be trained using the training data.
  • the present invention can also be implemented as computer-readable codes on a computer-readable recording medium.
  • the computer-readable recording medium includes all types of recording devices in which data readable by a computer system is stored. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, and optical data storage device.
  • the computer-readable recording medium is distributed in a network-connected computer system so that the computer-readable code can be stored and executed in a distributed manner.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

비지도학습에서 사용자 의도를 반영하는 방법 및 그 장치가 개시된다. 사용자 의도가 반영된 모델을 생성하는 장치는 비지도학습모델을 이용하여 데이터를 복수 개의 초기 군집으로 그룹핑하고, 복수 개의 초기 군집에 대하여 군집 분할 또는 군집 통합의 과정을 수행하여 복수 개의 최종 군집을 생성한 후 데이터를 최종 군집으로 그룹핑하는 통합모델을 생성한다.

Description

비지도학습에서의 사용자의도 반영 방법 및 그 장치
본 발명의 실시 예는 비지도학습에서 사용자 의도를 반영하는 방법 및 그 장치에 관한 것으로, 보다 상세하게는 비지도학습에서 사용자 의도를 반영한 모델을 생성하는 방법 및 그 장치에 관한 것이다.
지도학습(Supervised Learning)은 입력값에 대한 결과값이 주어지는 학습데이터를 이용하는 학습방법이다. 따라서 지도학습방법을 위해서는 데이터의 레이블링(labeling)이 필요하다. 지도학습은 데이터 레이블링 과정을 통해 사용자 의도에 맞는 모델의 생성이 가능하다. 그러나 산업 현장에서 발생하는 대부분의 데이터는 레이블링되지 않은 데이터이다. 따라서 이들 데이터로는 지도학습방법을 사용할 수 없으며 비지도학습방법을 적용할 수 있다. 비지도학습(Unsupervised Learning)은 데이터의 구조나 패턴을 이용하여 데이터를 군집화(cluster)하는 학습방법이므로 사용자의 의도를 반영할 수 없다는 문제점을 가진다.
본 발명의 실시 예가 이루고자 하는 기술적 과제는, 비지도학습방법을 이용하여 모델을 생성하되 사용자의 의도를 반영한 모델을 생성할 수 있는 방법 및 그 장치를 제공하는 데 있다.
상기의 기술적 과제를 해결하기 위한, 본 발명의 실시 예에 따른 비지도학습에 사용자 의도를 반영한 모델생성방법의 일 예는, 비지도학습모델을 이용하여 데이터를 복수 개의 초기 군집으로 그룹핑하는 단계; 상기 복수 개의 초기 군집에 대하여 군집 분할 또는 군집 통합의 과정을 수행하여 복수 개의 최종 군집을 생성하는 단계; 및 상기 데이터를 상기 최종 군집으로 그룹핑하는 통합모델을 생성하는 단계;를 포함한다.
상기의 기술적 과제를 해결하기 위한, 본 발명의 실시 예에 따른 모델생성장치의 일 예는, 비지도학습모델을 이용하여 데이터를 복수 개의 초기 군집으로 그룹핑하는 군집화부; 상기 복수 개의 초기 군집에 대하여 군집 분할 또는 군집 통합의 과정을 수행하여 복수 개의 최종 군집을 생성하는 피드백부; 및 상기 데이터를 상기 최종 군집으로 그룹핑하는 통합모델을 생성하는 모델생성부;를 포함한다.
본 발명의 실시 예에 따르면, 비지도학습모델을 이용하여 사용자가 의도하는 모델을 생성할 수 있다.
도 1은 본 발명의 실시 예에 따른 모델생성방법의 일 예를 도시한 흐름도,
도 2는 본 발명의 실시 예에 따른 사용자 의도를 반영한 통합모델을 생성하는 과정의 일 예를 도시한 도면,
도 3 및 도 4는 본 발명의 실시 예에 따른 군집 속성을 표시하는 다양한 예를 도시한 도면,
도 5는 본 발명의 실시 예에 따른 군집 속성을 해석하기 위한 지도학습모델을 생성하는 방법의 일 예를 도시한 도면,
도 6은 본 발명의 실시 예에 따른 지도학습모델을 이용하여 군집 속성을 파악하는 방법의 일 예를 도시한 도면, 그리고,
도 7은 본 발명의 실시 예에 따른 모델생성장치의 일 예의 구성을 도시한 도면이다.
이하에서, 첨부된 도면들을 참조하여 본 발명의 실시 예에 따른 비지도학습방법을 이용한 모델생성방법 및 그 장치에 대해 상세히 설명한다.
도 1은 본 발명의 실시 예에 따른 모델생성방법의 일 예를 도시한 흐름도이다.
도 1을 참조하면, 모델생성장치는 비지도학습모델을 이용하여 데이터를 복수 개의 군집으로 그룹화한다(S100). 데이터는 기업의 경영 데이터나 고객 데이터, 제조없의 각종 장비의 센싱데이터 또는 온라인 상의 각종 정보 등 그 대상이나 종류는 어느 하나로 한정되는 것은 아니다. 다만, 본 실시 예의 데이터는 레이블링(labeling)되지 않은 데이터이거나, 레이블링이 되었다고 하여도 사용자가 의도하는 목적에 맞지 않아 지도학습모델에 사용하기 부적합한 데이터이다.
비지도학습모델은 데이터 사이의 패턴이나 구조를 기초로 데이터를 복수의 군집으로 그룹화하는 종래의 다양한 모델일 수 있다. 예를 들어, 비지도학습모델로 K-Means 등이 존재한다. 실시 예에 따라, 비지도학습모델이 생성하는 군집의 개수는 미리 정의되거나 정의되지 않을 수 있다.
모델생성장치는 비지도학습모델에 의해 생성된 복수 개의 군집을 분할 또는 병합하여 사용자가 의도하는 최종 군집을 생성한다(S110). 예를 들어, 모델생성장치는 도 2와 같이 비지도학습모델(210)에 의해 생성된 초기 군집(220,222,224)의 일부를 분할(230)하여 세부 군집(240,242)을 생성하고, 세부 군집(240,242) 중 일부를 초기 군집(220)과 병합(250)하여 또 다른 군집(260)을 만들 수 있다. 모델생성장치는 화면 인터페이스를 통해 분할할 군집 또는 병합할 군집을 사용자로부터 입력받을 수 있다.
모델생성장치는 사용자가 각 군집의 속성을 이해할 수 있도록 각 군집의 속성 정보를 파악하여 제공하는 구성을 더 포함할 수 있다. 예를 들어, 모델생성장치는 각 군집에 속한 데이터의 각 변수의 평균 등 통계값을 도 3 및 도 4와 같이 표시할 수 있다.
종래의 다양한 군집 속성 표시방법은 군집에 속한 데이터를 통계적으로 분석하여 표시하는 방법일 뿐 각 군집에 대한 변수의 영향도나 변수의 분류 조건 등을 알 수 없다. 이에 본 실시 예는, 각 군집에 대한 변수의 영향도나 변수의 분류 조건 등의 군집 속성을 파악하는 방법을 제시하며, 이에 대한 예가 도 5 및 도 6에 도시되어 있다.
모델생성장치는 사용자가 의도하는 최종 군집이 만들어지면 데이터를 최종 군집으로 그룹핑하는 통합모델을 생성하여 제공한다(S120). 예를 들어, 도 2와 같이 군집 분할(230,252)과 군집 병합(250) 등을 통해 최종 군집(260,262,264,266,224)이 만들어지면, 모델생성장치는 비지도학습모델(210)을 포함하여 군집의 분할(230,252)과 병합(250)의 배치 관계를 포함하는 통합모델을 제공할 수 있다. 다른 실시 예로, 모델생성장치는 최종 군집(260,262,264,266,224)을 이용하여 사용자가 원하는 최종 군집 중 어느 하나를 예측하는 지도학습모델을 통합모델로 생성하여 제공할 수 있다.
도 2는 본 발명의 실시 예에 따른 사용자 의도를 반영한 통합모델을 생성하는 과정의 일 예를 도시한 도면이다.
도 2를 참조하면, 모델생성장치는 비지도학습모델(210)을 이용하여 데이터(200)를 N개의 초기 군집(220,222,224)으로 그룹핑한다. 모델생성장치는 화면 인터페이스를 통해 사용자로부터 분할 또는 병합할 군집을 선택받을 수 있다.
사용자가 제2 군집(222)의 분할(230)을 선택하면, 모델생성장치는 제2 군집(222)을 적어도 둘 이상 세부군집(240,242)으로 분할한다. 모델생성장치는 비지도학습모델을 이용하여 제2 군집(222)을 분할하거나 규칙 기반으로 제2 군집(222)을 분할할 수 있다. 예를 들어, 모델생성장치는 초기 군집화에 사용된 비지도학습모델(210)에 제2 군집(222)의 데이터를 입력하여 복수 개의 세부 군집(240,242)을 생성하거나, 이전 사용된 비지도학습모델과 다른 제2 비지도학습모델을 이용하여 제2 군집(222)을 복수 개의 세부 군집(240,242)으로 그룹화할 수 있다. 규칙 기반인 경우에, 모델생성장치는 사용자가 정의한 규칙 또는 기 정의된 규칙에 따라 제2 군집(222)을 복수 개의 세부 군집(240,242)으로 나눌 수 있다. 이때 모델생성장치는 사용자가 적어도 하나 이상의 변수에 대한 조건을 정의하여 규칙을 생성할 수 있도록 화면 인터페이스를 제공할 수 있다. 세부 군집의 개수는 사용자가 미리 지정하거나 임의로 정해질 수 있다.
제2 군집(222)의 분할(230) 과정이 완료되면, 제1 초기 군집(220), 제2-1 세부군집(240), 제2-2 세부군집(242), 제3~N 초기 군집(224)이 존재한다. 사용자가 더 이상의 군집 분할이나 병합을 수행하지 않으면 현재의 군집이 최종 군집이 된다.
사용자가 제1 초기 군집(220)과 제2-1 세부 군집(240)의 병합(250)과 제2-2 세부군집(242)의 분할(252)을 각각 요청하면, 모델생성장치는 군집병합(250)과 군집분할(252) 과정을 수행한다. 이와 같은 군집병합(250) 또는 군집분할(252)의 과정이 사용자의 요청에 따라 수 차례 반복 수행될 수 있다.
본 실시 예에서, 최종 군집은 제1-2-1 군집(260), 제2-2-1 군집(262), 제2-2-2 군집(264), 제2-2-3 군집(266), 제3~N 군집(224)으로 구성된다. 모델생성장치는 비지도학습모델(210)과, 제2 초기 군집(222)에 대한 군집분할(230), 제1 초기 군집(220)과 제2-1 세부 군집(240)의 병합(250), 제2-2 세부 군집(242)의 추가 분할(252)로 구성된 통합모델을 생성하여 출력한다. 즉, 통합모델은 도 2의 구조로 구성될 수 있다.
도 3 및 도 4는 본 발명의 실시 예에 따른 군집 속성을 표시하는 다양한 예를 도시한 도면이다.
도 3을 참조하면, 모델생성장치는 각 군집에 속한 데이터의 통계적 분석 결과를 2차원으로 표시할 수 있다. 예를 들어, 가로축은 데이터의 변수, 세로축은 각 군집으로 하는 2차원 히트맵(heapmap)(310)을 이용하여 각 군집에 속한 데이터의 평균을 숫자나 그래프 또는 크기에 따른 서로 다른 색상으로 표시할 수 있다. 예를 들어, 제1 변수가 나이인 경우에, 모델생성장치는 제1 군집, 제2 군집 및 제3 군집에 속한 데이터의 나이 평균을 각 군집과 변수가 만나는 칸(310)에 서로 다른 색상으로 표시할 수 있다.
도 4를 참조하면, 모델생성장치는 각 군집의 데이터를 구성하는 복수의 변수를 2차원 또는 3차원으로 표시할 수 있다. 예를 들어, 모델생성장치는 PCA(Principal Component Analysis), UMAP(Uniform Maniford Approximation and Projection), t-SNE(t-distributed Stochastic Neighbor Embedding) 등의 다양한 차원축소방법을 이용할 수 있다.
도 5는 본 발명의 실시 예에 따른 군집 속성을 해석하기 위한 지도학습모델을 생성하는 방법의 일 예를 도시한 도면이다.
도 5를 참조하면, 모델생성장치는 비지도학습모델을 통해 생성된 N개의 군집(500,502,504)에서 어느 하나의 군집을 포함하는 제1 그룹(510)과 나머지 군집을 포함하는 제2 그룹(512)을 생성한다. 즉, 모델생성장치는 데이터를 제1 그룹(510)과 제2 그룹(512)으로 레이블링한다. 예를 들어, 모델생성장치는 제1 그룹(510)에 속한 데이터를 '1'로 태깅하고, 제2 그룹(512)에 속한 데이터를 '0'으로 태깅할 수 있다. '1'과 '0' 외에 각 그룹에 속한 데이터를 레이블링하는 다양한 방법이 본 실시 예에 적용될 수 있다.
모델생성장치는 제1 그룹(510)과 제2 그룹(512)으로 레이블링된 데이터로 구성된 학습데이터를 이용하여 지도학습모델(520)을 학습시킨다. 예를 들어, 지도학습모델(520)은 학습데이터를 입력받으면 데이터가 제1 그룹(510)과 제2 그룹(512) 중 어디에 속하는지 예측한 결과를 출력하고, 그 예측 결과(530)를 학습데이터의 정답지(ground truth)와 비교하여 내부 파라메터 등을 조정하는 학습 과정을 수행한다.
예를 들어, 모델생성장치는 군집a(500)를 포함하는 제1 그룹(510)과 나머지 군집b~k(502,504)를 포함하는 제2 그룹(512)을 이용하여 군집a(500)를 예측하도록 지도학습모델(520)을 학습시킬 수 있다. 도 2의 예에서, 제2 초기 군집(222)에 대한 군집 속성을 파악하고자 하는 경우에, 모델생성장치는 제2 초기 군집(222)의 데이터와 나머지 군집의 데이터를 각각 제1 그룹(510)과 제2 그룹(512)으로 분류한 후 이를 이용하여 지도학습모델(520)을 학습시킬 수 있다.
도 6은 본 발명의 실시 예에 따른 지도학습모델을 이용하여 군집 속성을 파악하는 방법의 일 예를 도시한 도면이다.
도 6을 참조하면, 지도학습모델(520)이 의사결정나무모델인 경우이다. 의사결정나무모델은 부모노드(parent node)(600), 각 계층의 결정노드(decision node)(610,612,620,622,624,626), 그리고 종단노드(terminal node)(630~644)로 구성된다. 도 5와 같이 군집을 제1 그룹(510)과 제2 그룹(512)으로 분할한 학습데이터를 이용하여 의사결정나무모델을 학습시키는 경우에 의사결정나무모델의 종단노드(630~644)는 두 그룹(510,512) 중 어느 하나의 그룹에 속하게 된다. 예를 들어, 제1,2,5,8 종단노드(630,632,638,644)는 제1 그룹에 속하고, 제3,4,6,7 종단노드(634,636,640,642)는 제2 그룹에 속할 수 있다. 데이터가 어느 종단노드에 속하는지에 따라 데이터가 어느 그룹에 속하는지 판단할 수 있다.
의사결정나무모델의 부모노드(600)에서 종단노드(630~644)에 이르는 경로는 결정노드(610,612,620,622,624,626)의 분기조건에 의해 결정된다. 예를 들어, 부모노드(600)에서 제2 종단노드(632)에 이르는 의사결정 경로에는 제1 결정노드(610)의 제1 분기조건과 제2 결정노드(620)의 제2 분기조건이 존재한다. 따라서 제2 종단노드(6320)로 분류되는 데이터의 속성은 제1 분기조건과 제2 분기조건(650)에 의해 설명될 수 있다. 제1 그룹(510)이 군집a(500)로 구성되었다면, 군집a(500)의 속성은 제1 분기조건과 제2 분기조건으로 표시될 수 있다.
도 7은 본 발명의 실시 예에 따른 모델생성장치의 일 예의 구성을 도시한 도면이다.
도 7을 참조하면, 모델생성장치(700)는 군집화부(710), 피드백부(720) 및 모델생성부(730)를 포함한다. 모델생성장치(700)는 메모리, 프로세서, 입출력장치 등을 포함하는 다양한 종류의 컴퓨팅 장치로 구현될 수 있다. 예를 들어, 각 구성(710,720,730)은 소프트웨어로 구현되어 메모리에 탑재된 후 프로세서에 의해 수행될 수 있다.
군집화부(700)는 비지도학습모델을 이용하여 데이터를 복수 개의 군집으로 그룹화한다. 예를 들어 도 2와 같이 군집화부(700)는 비지도학습모델(210)을 이용하여 데이터(200)를 N개의 군집(220,222,224)으로 그룹화할 수 있다.
피드백부(720)는 사용자의 의도에 맞는 군집을 생성할 수 있도록 사용자로부터 군집분할 또는 군집병합 명령을 수신하면 그에 따라 군집을 분할하거나 병합한다. 예를 들어, 도 2와 같이 다양한 형태로 군집분할과 병합이 이루어질 수 있다.
피드백부(720)는 사용자의 군집분할 또는 군집병합에 도움을 줄 수 있도록 군집 속성을 표시할 수 있다. 예를 들어, 피드백부(720)는 도 3 또는 도 4와 같이 각 군집 속성을 시각적으로 표시하거나, 도 5 및 도 6과 같이 지도학습모델을 통해 각 군집 속성을 파악하여 제공할 수 있다.
일 실시 예로, 피드백부(720)는 사용자가 분할 또는 병합할 군집을 선택할 수 있는 화면 인터페이스를 제공할 수 있다. 도 2의 예를 참조하면, 사용자가 화면 인터페이스를 통해 제2 군집(222)을 선택하면, 피드백부(720)는 제2 군집에 대한 군집 속성을 표시할 수 있다. 사용자가 제2 군집(222)에 대한 분할(230)을 요청하면, 피드백부(720)는 제2 군집(222)을 분할한 후 도 2와 같이 그래프 형태로 제2-1 세부군집(240) 및 제2-2 세부군집(242)을 화면에 표시할 수 있다. 사용자가 다시 제2-1 세부군집(240)을 선택하면, 피드백부(720)는 제2-1 세부군집(240)에 대한 군집 속성을 파악하여 표시할 수 있다.
모델생성부(730)는 군집분할 또는 군집병합의 과정을 통해 최종 군집이 생성되면 데이터를 최종 군집으로 그룹핑하는 통합모델을 생성하여 제공한다. 예를 들어, 사용자의 군집분할 또는 군집통합에 의해 도 2와 같은 최종 군집(260,262,264,266,224)이 만들어지면, 모델생성부(730)는 도 2의 구조로 구성된 통합모델을 제공할 수 있다.
다른 실시 예로, 모델생성부(730)는 최종 군집을 이용하여 사용자가 원하는 군집을 예측하는 지도학습모델을 생성할 수 있다. 예를 들어, 도 2에서 제2-2-1 군집(262)을 예측하는 지도학습모델을 생성하고자 하는 경우, 모델생성부(730)는 제2-2-1 군집(262)에 속한 데이터를 제1 그룹으로 태깅하고 나머지 군집(260,264,266,224)에 속한 데이터를 제2 그룹으로 태깅한 학습 데이터를 생성한 후 그 학습데이터를 이용하여 지도학습모델을 학습시킬 수 있다.
본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광데이터 저장장치 등이 있다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
이제까지 본 발명에 대하여 그 바람직한 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.

Claims (8)

  1. 비지도학습모델을 이용하여 데이터를 복수 개의 초기 군집으로 그룹핑하는 단계;
    상기 복수 개의 초기 군집에 대하여 군집 분할 또는 군집 통합의 과정을 수행하여 복수 개의 최종 군집을 생성하는 단계; 및
    상기 데이터를 상기 최종 군집으로 그룹핑하는 통합모델을 생성하는 단계;를 포함하는 것을 특징으로 하는 비지도학습을 이용한 모델생성방법.
  2. 제 1항에 있어서, 상기 최종 군집을 생성하는 단계는,
    상기 복수 개의 초기 군집에 대하여 적어도 둘 이상의 군집을 통합하거나 적어도 하나 이상의 군집을 적어도 둘 이상의 군집으로 분할하여 복수 개의 중간 군집을 생성하는 단계; 및
    상기 중간 군집에 대하여 적어도 둘 이상의 군집을 통합하거나 적어도 하나 이상의 군집을 적어도 둘 이상의 군집으로 분할하여 최종 군집을 생성하는 단계;를 포함하는 것을 특징으로 하는 비지도학습을 이용한 모델생성방법.
  3. 제 1항에 있어서,
    상기 최종 군집을 생성하는 단계는, 제2 비지도학습모델 또는 규칙을 적용하여 군집을 적어도 둘 이상의 세부 군집으로 분할하는 단계를 포함하는 것을 특징으로 하는 비지도학습을 이용한 모델생성방법.
  4. 제 1항에 있어서,
    상기 통합모델은 상기 비지도학습모델과 상기 제2 비지도학습모델 또는 규칙을 포함하여 구성되는 것을 특징으로 하는 모델생성방법.
  5. 제 1항에 있어서,
    상기 최종 군집을 생성하는 단계 이전에 군집 속성을 표시하는 단계를 더 포함하고,
    상기 군집 속성을 표시하는 단계는,
    상기 복수 개의 초기 군집 중 적어도 하나의 군집을 포함하는 제1 그룹과 나머지 군집을 포함하는 제2 그룹을 이용하여 지도학습모델을 학습시키는 단계;
    학습 완료된 지도학습모델을 이용하여 군집에 대한 변수의 영향도 또는 변수의 분류 조건을 포함하는 군집 속성을 파악하는 단계; 및
    상기 군집 속성을 표시하는 단계;를 포함하는 것을 특징으로 하는 비지도학습을 이용한 모델생성방법.
  6. 제 1항에 있어서, 상기 통합모델을 생성하는 단계는,
    상기 복수 개의 최종 군집 중 적어도 하나의 군집을 포함하는 제1 그룹과 나머지 군집을 포함하는 제2 그룹을 이용하여 지도학습모델을 학습시키는 단계; 및
    학습 완료된 지도학습모델을 제공하는 단계;를 포함하는 것을 특징으로 하는 비지도학습을 이용한 모델생성방법.
  7. 비지도학습모델을 이용하여 데이터를 복수 개의 초기 군집으로 그룹핑하는 군집화부;
    상기 복수 개의 초기 군집에 대하여 군집 분할 또는 군집 통합의 과정을 수행하여 복수 개의 최종 군집을 생성하는 피드백부; 및
    상기 데이터를 상기 최종 군집으로 그룹핑하는 통합모델을 생성하는 모델생성부;를 포함하는 것을 특징으로 하는 모델생성장치.
  8. 제 1항에 기재된 방법을 수행하기 위한 컴퓨터 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
PCT/KR2020/018787 2020-11-27 2020-12-21 비지도학습에서의 사용자의도 반영 방법 및 그 장치 WO2022114364A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2020-0163344 2020-11-27
KR1020200163344A KR102273868B1 (ko) 2020-11-27 2020-11-27 비지도학습에서의 사용자의도 반영 방법 및 그 장치

Publications (1)

Publication Number Publication Date
WO2022114364A1 true WO2022114364A1 (ko) 2022-06-02

Family

ID=76860714

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2020/018787 WO2022114364A1 (ko) 2020-11-27 2020-12-21 비지도학습에서의 사용자의도 반영 방법 및 그 장치

Country Status (2)

Country Link
KR (1) KR102273868B1 (ko)
WO (1) WO2022114364A1 (ko)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180293464A1 (en) * 2017-04-07 2018-10-11 Hrl Laboratories, Llc Method for understanding machine-learning decisions based on camera data
JP2020042330A (ja) * 2018-09-06 2020-03-19 株式会社リコー 情報処理装置、データ分類方法およびプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180293464A1 (en) * 2017-04-07 2018-10-11 Hrl Laboratories, Llc Method for understanding machine-learning decisions based on camera data
JP2020042330A (ja) * 2018-09-06 2020-03-19 株式会社リコー 情報処理装置、データ分類方法およびプログラム

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
JEON YONGKWEON, LEE JONGSUN, YOON SUNGROH: " A Performance Improvement Study on Hierarchical Clustering by Minimizing Redundant Computation", PROCEEDINGS OF KOREAN INSTITUTE OF INFORMATION SCIENTISTS AND ENGINEERS CONFERENCE, 1 December 2016 (2016-12-01), pages 163 - 165, XP055935806, [retrieved on 20220627] *
JUNG DUCK-YOUNG, PARK SANG-SUNG, KIM JONG-CHAN: "A Study on the Technology Analysis of Neuromorphic Chip using Unsupervised Learning", JOURNAL OF KOREAN INSTITUTE OF INTELLIGENT SYSTEMS, vol. 29, no. 6, 31 December 2019 (2019-12-31), pages 470 - 475, XP055935793, ISSN: 1976-9172, DOI: 10.5391/JKIIS.2019.29.6.470 *
KIM YONG-JUN: "Rule-based Big 5 Personality Analysis Using Unsupervised Learning", 1 February 2020 (2020-02-01), Korea, pages 1 - 75, XP055936320 *

Also Published As

Publication number Publication date
KR102273868B1 (ko) 2021-07-06

Similar Documents

Publication Publication Date Title
Mu et al. Classification under streaming emerging new classes: A solution using completely-random trees
WO2022188648A1 (zh) 数据处理方法、装置、设备、计算机可读存储介质及计算机程序产品
US11804069B2 (en) Image clustering method and apparatus, and storage medium
Azzag et al. A hierarchical ant based clustering algorithm and its use in three real-world applications
CN110781919A (zh) 分类模型训练方法、分类方法、装置及设备
CN113761261A (zh) 图像检索方法、装置、计算机可读介质及电子设备
CN111639291A (zh) 内容分发方法、装置、电子设备以及存储介质
WO2019098418A1 (ko) 뉴럴 네트워크 학습 방법 및 디바이스
Barry-Straume et al. An evaluation of training size impact on validation accuracy for optimized convolutional neural networks
Gorokhovatskyi et al. Explanation of CNN image classifiers with hiding parts
Song et al. Gratis: Deep learning graph representation with task-specific topology and multi-dimensional edge features
WO2023063486A1 (ko) 기계학습모델의 생성 방법 및 그 장치
WO2022114363A1 (ko) 비지도학습방법론에 기인한 지도학습모델 생성 방법 및 그 장치와, 이를 이용한 비지도학습모델 해석 방법 및 그 장치
WO2022114364A1 (ko) 비지도학습에서의 사용자의도 반영 방법 및 그 장치
US8078559B2 (en) System and method for the automated discovery of unknown unknowns
CN110852082B (zh) 同义词的确定方法及装置
Bhatnagar et al. A sentiment analysis based approach for customer segmentation
Debbi Causal explanation of convolutional neural networks
CN116776157A (zh) 支持模态增加的模型学习方法及其装置
CN115439919B (zh) 模型更新方法、装置、设备、存储介质及程序产品
CN116541166A (zh) 一种超算算力调度服务器及资源管理方法
CN114612246A (zh) 对象集合识别方法、装置、计算机设备及存储介质
Finzel Deriving temporal prototypes from saliency map clusters for the analysis of deep-learning-based facial action unit classification
Gao et al. Command2Vec: Feature Learning of 3D Modeling Behavior Sequence—A Case Study on “Spiral-stair”
KR20190050230A (ko) 피쳐 영향 판단 방법 및 그 시스템

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20963758

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20963758

Country of ref document: EP

Kind code of ref document: A1

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 241023)