KR102144010B1 - Methods and apparatuses for processing data based on representation model for unbalanced data - Google Patents

Methods and apparatuses for processing data based on representation model for unbalanced data Download PDF

Info

Publication number
KR102144010B1
KR102144010B1 KR1020180106142A KR20180106142A KR102144010B1 KR 102144010 B1 KR102144010 B1 KR 102144010B1 KR 1020180106142 A KR1020180106142 A KR 1020180106142A KR 20180106142 A KR20180106142 A KR 20180106142A KR 102144010 B1 KR102144010 B1 KR 102144010B1
Authority
KR
South Korea
Prior art keywords
data
class
representation model
unbalanced
class data
Prior art date
Application number
KR1020180106142A
Other languages
Korean (ko)
Other versions
KR20200027834A (en
Inventor
임윤규
김누리
이지형
이상헌
Original Assignee
성균관대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 성균관대학교산학협력단 filed Critical 성균관대학교산학협력단
Priority to KR1020180106142A priority Critical patent/KR102144010B1/en
Publication of KR20200027834A publication Critical patent/KR20200027834A/en
Application granted granted Critical
Publication of KR102144010B1 publication Critical patent/KR102144010B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • G06F16/353Clustering; Classification into predefined classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

본 발명은 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 방법 및 장치에 관한 것으로, 본 발명의 일 실시 예에 따른 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 방법은, 불균형 원본 데이터를 복수의 클래스 데이터로 구분하고, 상기 구분된 복수의 클래스 데이터를 각각 학습하여 각각의 클래스에 대한 리프리젠테이션 모델(Representation model)을 구축하는 단계, 및 상기 복수의 클래스 데이터와 상기 구축된 복수의 리프리젠테이션 모델을 각각 조합하여 계산된 클래스 데이터 및 리프리젠테이션 모델 간의 적합도에 따라, 상기 계산된 적합도가 임계값 미만인 클래스 데이터를 제거하여 상기 불균형 원본 데이터를 언더 샘플링(Under-sampling)하는 단계를 포함한다.The present invention relates to a data processing method and apparatus based on a representation model for unbalanced data, and the data processing method based on a representation model for unbalanced data according to an embodiment of the present invention includes a plurality of unbalanced original data. Class data of, and learning the divided plurality of class data, respectively, to construct a representation model for each class, and the plurality of class data and the constructed plurality of representations And under-sampling the unbalanced original data by removing class data whose calculated fitness is less than a threshold value according to the class data calculated by combining the presentation models and the fitness level between the representation model. .

Figure R1020180106142
Figure R1020180106142

Description

불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 방법 및 장치{METHODS AND APPARATUSES FOR PROCESSING DATA BASED ON REPRESENTATION MODEL FOR UNBALANCED DATA}Data processing method and device based on representation model for unbalanced data {METHODS AND APPARATUSES FOR PROCESSING DATA BASED ON REPRESENTATION MODEL FOR UNBALANCED DATA}

본 발명은 불균형 데이터를 위한 데이터 처리 기술에 관한 것으로, 보다 상세하게는, 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 방법 및 장치에 관한 것이다.The present invention relates to a data processing technology for unbalanced data, and more particularly, to a data processing method and apparatus based on a representation model for unbalanced data.

데이터 분석을 통한 예측은 주로 과거데이터를 기반으로 학습을 통한 데이터마이닝 기법 중 분류분석(Classification)을 통해 이루어진다. 분류분석은 주어지는 학습데이터를 학습하여 답을 얻고자 하는 목표 변수에 판단 기준이 되는 학습모델을 만들고, 이를 기반으로 새로운 예측 변수로 이루어진 데이터가 주어졌을 때, 모델은 결과를 기존 내용을 모방하여 예측한다. 이런 일련의 작업과정을 위해서는 충분한 학습데이터 확보가 필요하다.Prediction through data analysis is mainly made through classification analysis among data mining techniques through learning based on past data. Classification analysis creates a learning model that is a criterion for determining the target variable to obtain an answer by learning the given learning data, and when data consisting of new predictor variables is given based on this, the model predicts the result by imitating the existing content. do. It is necessary to secure sufficient learning data for this series of work processes.

기존에 존재하는 데이터와 계속적으로 새로운 데이터들이 생성되지만, 새로운 예측모델을 만드는 것 외에도 예측 모델의 구축에는 몇 가지 문제점이 있다.Existing data and new data are continuously generated, but in addition to creating a new predictive model, there are several problems in constructing a predictive model.

첫 번째 문제로는 데이터의 불균형 문제이다. 데이터의 불균형이란 하나의 데이터 셋에서 관측되는 데이터 집단들 간에 관측 크기 차이가 크게 나는 것으로, 신용카드 회원 중 기존 회원과 탈퇴 회원, 우리나라의 기상 중 맑은 날씨와 태풍, 통신사 고객 중 기존 회원과 탈퇴 회원, 또는 교통 데이터 중 비사고 관련 데이터와 사고 관련 데이터와 같은 데이터가 관측되는 수의 차이가 현저히 차이 나는 것을 말한다. 이런 데이터의 불균형인 상태로 학습을 진행하고 학습모델을 생성한다면, 학습 모델은 관측 수가 큰 결과만을 예상하는 왜곡된 결과 값만을 예측하게 된다. The first problem is the data imbalance problem. Data imbalance is a large difference in the size of observations between data groups observed in one data set, existing members and withdrawal members among credit card members, sunny weather and typhoons in Korea's weather, existing members and withdrawal members among telecom customers , Or it means that the difference between the number of observed data such as non-accident-related data and accident-related data is significantly different among traffic data. If training is performed in such an unbalanced state of data and a learning model is generated, the learning model predicts only distorted result values that only predict results with a large number of observations.

데이터 불균형 문제를 해결하기 위해 가중치(Weight)를 활용하는 방법과 샘플링(Sampling)방법이 있다. In order to solve the data imbalance problem, there are a method using weight and a method of sampling.

가중치 활용 방법은 관측 수가 적은 데이터에는 높은 가중치를 부여하고 관측 수가 많은 데이터에는 낮은 가중치를 부여하여 가중치 값을 참조하여 분석 모델을 생성하는 방법이다. 이는 가중치 값을 정하는 것과 결과 분석에 대한 계산 복잡도를 야기한다. In the weighting method, a high weight is assigned to data with a small number of observations and a low weight is assigned to data with a large number of observations, and an analysis model is created by referring to the weight value. This leads to computational complexity for determining weight values and analyzing results.

샘플링 방법은 관측되는 수가 적은 클래스 데이터는 모두 사용하며 관측 수가 큰 클래스의 데이터는 일부만을 사용하는 언더 샘플링(Under-Sampling)과 관측되는 수가 많은 클래스 데이터는 모두 사용하며 관측 수가 적은 클래스의 데이터는 증대시켜 사용하는 오버 샘플링(Over-Sampling)이 있다. The sampling method uses all the data of the class with a small number of observations, and under-sampling, which uses only a part of the data of the class with a large number of observations, and the data of the class with a large number of observations, is increased. There is over-sampling that is used by making.

언더 샘플링은 전체 데이터에서 일부를 손해 본 후 계산이 수행된다. 이를 통해 데이터의 처리속도 측면에서는 유리할 수 있지만, 데이터의 신뢰도는 손실할 수밖에 없다. 오버 샘플링은 전체 데이터를 모두 활용할 수 있다는 장점이 있지만, 대용량 데이터인 경우 전체 데이터에서 추가로 데이터가 더 발생하기 때문에 데이터를 처리하기 위한 더 많은 자원을 요구한다.Undersampling is performed after losing some of the data. This can be advantageous in terms of data processing speed, but data reliability is inevitably lost. Oversampling has the advantage of being able to utilize all of the entire data, but in case of large data, since additional data is generated from the entire data, more resources are required to process the data.

종래 샘플링 기술은 불균형 환경을 개선하기 위해 데이터의 전체적인 구조적 특징을 고려하지 않고 지역적인 정보만으로 불균형도를 완화하였다. 이로 인해 불균형 환경에서 서로 다른 클래스에 속하는 데이터들의 분포가 중첩되어 클래스 간의 구분이 모호해지는 오버랩핑(overlapping) 등의 구조적 문제에 취약하다. In order to improve the unbalanced environment, the conventional sampling technique has alleviated the degree of unbalance with only local information without considering the overall structural characteristics of the data. As a result, the distribution of data belonging to different classes overlaps in an unbalanced environment, making it vulnerable to structural problems such as overlapping, which makes the division between classes obscure.

본 발명의 실시 예들은 리프리젠테이션 모델(representation model)을 통해 불균형 데이터의 구조적 특징을 파악하고, 파악된 구조적 특징을 기반으로 언더 샘플링(under-sampling)함으로써, 데이터의 불균형도를 완화하여 분류 성능을 개선할 수 있는, 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 방법 및 장치에 관한 것이다.Embodiments of the present invention identify structural features of unbalanced data through a representation model, and under-sampling based on the identified structural features, thereby mitigating the degree of unbalance of the data to provide classification performance. It relates to a data processing method and apparatus based on a representation model for unbalanced data that can improve

본 발명의 실시 예들은 리프리젠테이션 모델을 통해 불균형 데이터의 전체적인 구조적 특징을 파악하고, 이러한 특징에 부합하지 않는 데이터를 언더 샘플링하여 불균형도를 완화함으로써, 인공지능을 이용한 데이터 분류 성능을 향상할 수 있는, 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 방법 및 장치에 관한 것이다.Embodiments of the present invention can improve data classification performance using artificial intelligence by grasping the overall structural characteristics of unbalanced data through a representation model and mitigating the unbalance by under-sampling data that does not conform to these characteristics. The present invention relates to a data processing method and apparatus based on a representation model for unbalanced data.

본 발명의 일 실시 예에 따르면, 데이터 처리 장치에 의해 수행되는 불균형 데이터를 위한 데이터 처리 방법으로서, 불균형 원본 데이터를 복수의 클래스 데이터로 구분하고, 상기 구분된 복수의 클래스 데이터를 각각 학습하여 각각의 클래스에 대한 리프리젠테이션 모델(Representation model)을 구축하는 단계; 및 상기 복수의 클래스 데이터와 상기 구축된 복수의 리프리젠테이션 모델을 각각 조합하여 계산된 클래스 데이터 및 리프리젠테이션 모델 간의 적합도에 따라, 상기 계산된 적합도가 임계값 미만인 클래스 데이터를 제거하여 상기 불균형 원본 데이터를 언더 샘플링(Under-sampling)하는 단계를 포함하는 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 방법이 제공될 수 있다.According to an embodiment of the present invention, as a data processing method for unbalanced data performed by a data processing device, the unbalanced original data is divided into a plurality of class data, and each of the divided plurality of class data is learned. Building a representation model for the class; And according to the class data calculated by combining the plurality of class data and the plurality of constructed representation models, and the fitness between the representation model, the unbalanced original by removing the class data whose calculated fitness is less than a threshold. A data processing method based on a representation model for unbalanced data including the step of under-sampling data may be provided.

상기 방법은, 상기 언더 샘플링된 불균형 원본 데이터를 분류기를 이용하여 분류하는 단계를 더 포함할 수 있다.The method may further include classifying the under-sampled unbalanced original data using a classifier.

상기 방법은, 상기 분류기의 분류 결과, 분류기의 성능이 기설정된 분류 기준치 미만인 경우 상기 임계값을 업데이트하는 단계를 더 포함할 수 있다.The method may further include updating the threshold value when the classification result of the classifier and the performance of the classifier is less than a preset classification reference value.

상기 임계값을 업데이트하는 단계는, 상기 임계값을 임계 조정값만큼 조정할 수 있다.In updating the threshold value, the threshold value may be adjusted by a threshold adjustment value.

상기 모델을 구축하는 단계는, 각 클래스 데이터의 구조적 특징을 학습하여 각 클래스 데이터에 대한 리프리젠테이션 모델을 생성할 수 있다.In the step of constructing the model, a representation model for each class data may be generated by learning structural characteristics of each class data.

상기 모델을 구축하는 단계는, 각 클래스 데이터에 대한 리프리젠테이션 모델 생성 시, 각 클래스 데이터에 대한 리프리젠테이션 모델의 입력과 출력을 동일한 데이터로 설정할 수 있다.In the step of constructing the model, when generating a representation model for each class data, the input and output of the representation model for each class data may be set to the same data.

상기 리프리젠테이션 모델은, 오토 인코더(Auto-encoder) 구조를 사용하고, 복수의 층 구조와 정류된 선형 유닛(ReLU, Rectified Linear Unit) 함수로 이루어지는 인코더(encoder)와, 복수의 층 구조와 쌍곡선 탄젠트 함수(tanh, Hyperbolic Tangent) 함수로 이루어지는 디코더(decoder)를 포함할 수 있다.The representation model uses an auto-encoder structure, an encoder comprising a plurality of layer structures and a rectified linear unit (ReLU) function, and a plurality of layer structures and hyperbolic curves. It may include a decoder composed of a tangent function (tanh, Hyperbolic Tangent) function.

상기 언더 샘플링하는 단계는, 상기 복수의 클래스 데이터 중에서 어느 하나의 클래스 데이터와, 상기 복수의 리프리젠테이션 모델 중에서 어느 하나의 리프리젠테이션 모델을 조합하여 데이터 및 모델 간의 적합도를 계산할 수 있다.In the under-sampling step, a degree of fit between the data and the model may be calculated by combining any one of the plurality of class data and one of the plurality of representation models.

상기 언더 샘플링하는 단계는, 데이터 및 모델 간의 적합도 계산 시, 조합된 클래스 데이터의 인스턴스(instance)와 조합된 리프리젠테이션 모델 간의 복원 에러(reconstruction error)를 데이터 및 모델 간의 적합도로 계산할 수 있다.In the undersampling step, when calculating a fitness between data and models, a reconstruction error between an instance of the combined class data and a combined representation model may be calculated as a fit between the data and the model.

상기 방법은, 상기 복수의 클래스 데이터 중에서 제2 클래스 데이터의 적합도가 특정값을 초과하는 제2 클래스 데이터의 집합 수가, 제1 클래스 데이터의 수 이상이고 제2 클래스 데이터의 수 미만인 경우에 상기 특정값을 탐색하여 임계값으로 정의하는 단계를 더 포함할 수 있다.The method includes the specific value when the number of sets of second class data in which the suitability of the second class data exceeds a specific value among the plurality of class data is greater than the number of first class data and less than the number of second class data. It may further include the step of searching for and defining the threshold value.

본 발명의 다른 실시 예에 따르면, 불균형 원본 데이터를 저장하는 메모리; 및 상기 메모리와 연결된 프로세서를 포함하고, 상기 프로세서는 불균형 원본 데이터를 복수의 클래스 데이터로 구분하고, 상기 구분된 복수의 클래스 데이터를 각각 학습하여 각각의 클래스에 대한 리프리젠테이션 모델(Representation model)을 구축하고, 상기 복수의 클래스 데이터와 상기 구축된 복수의 리프리젠테이션 모델을 각각 조합하여 계산된 클래스 데이터 및 리프리젠테이션 모델 간의 적합도에 따라, 상기 계산된 적합도가 임계값 미만인 클래스 데이터를 제거하여 상기 불균형 원본 데이터를 언더 샘플링(Under-sampling)하는 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 장치가 제공될 수 있다.According to another embodiment of the present invention, a memory for storing unbalanced original data; And a processor connected to the memory, wherein the processor divides the unbalanced original data into a plurality of class data, learns each of the divided plurality of class data, and generates a representation model for each class. And, according to the class data calculated by combining the plurality of class data and the plurality of constructed representation models, and the degree of fitness between the representation model, the calculated fitness level is removed by removing the class data A data processing apparatus based on a representation model for unbalanced data for under-sampling the unbalanced original data may be provided.

상기 장치는, 상기 언더 샘플링된 불균형 원본 데이터를 분류하는 분류기를 더 포함할 수 있다.The apparatus may further include a classifier for classifying the under-sampled unbalanced original data.

상기 프로세서는, 상기 분류기의 분류 결과, 분류기의 성능이 기설정된 분류 기준치 미만인 경우 상기 임계값을 업데이트할 수 있다.As a result of the classification of the classifier, the processor may update the threshold value when the performance of the classifier is less than a preset classification reference value.

상기 프로세서는, 상기 임계값을 임계 조정값만큼 조정할 수 있다.The processor may adjust the threshold value by a threshold adjustment value.

상기 프로세서는, 각 클래스 데이터의 구조적 특징을 학습하여 각 클래스 데이터에 대한 리프리젠테이션 모델을 생성할 수 있다.The processor may generate a representation model for each class data by learning structural characteristics of each class data.

상기 프로세서는, 각 클래스 데이터에 대한 리프리젠테이션 모델 생성 시, 각 클래스 데이터에 대한 리프리젠테이션 모델의 입력과 출력을 동일한 데이터로 설정할 수 있다.When generating a representation model for each class data, the processor may set inputs and outputs of the representation model for each class data to the same data.

상기 리프리젠테이션 모델은, 오토 인코더(Auto-encoder) 구조를 사용하고, 복수의 층 구조와 정류된 선형 유닛(ReLU, Rectified Linear Unit) 함수로 이루어지는 인코더(encoder)와, 복수의 층 구조와 쌍곡선 탄젠트 함수(tanh, Hyperbolic Tangent) 함수로 이루어지는 디코더(decoder)를 포함할 수 있다.The representation model uses an auto-encoder structure, an encoder consisting of a plurality of layer structures and a rectified linear unit (ReLU) function, and a plurality of layer structures and hyperbolic curves. It may include a decoder composed of a tangent function (tanh, Hyperbolic Tangent) function.

상기 프로세서는, 상기 복수의 클래스 데이터 중에서 어느 하나의 클래스 데이터와, 상기 복수의 리프리젠테이션 모델 중에서 어느 하나의 리프리젠테이션 모델을 조합하여 데이터 및 모델 간의 적합도를 계산할 수 있다.The processor may calculate a fit between the data and the models by combining any one of the plurality of class data and any one of the plurality of representation models.

상기 프로세서는, 데이터 및 모델 간의 적합도 계산 시, 조합된 클래스 데이터의 인스턴스(instance)와 조합된 리프리젠테이션 모델 간의 복원 에러(reconstruction error)를 데이터 및 모델 간의 적합도로 계산할 수 있다.When calculating the fitness between the data and the model, the processor may calculate a reconstruction error between an instance of the combined class data and the combined representation model as a fitness between the data and the model.

상기 프로세서는, 상기 복수의 클래스 데이터 중에서 제2 클래스 데이터의 적합도가 특정값을 초과하는 제2 클래스 데이터의 집합 수가, 제1 클래스 데이터의 수 이상이고 제2 클래스 데이터의 수 미만인 경우에 상기 특정값을 탐색하여 임계값으로 정의할 수 있다.The processor includes the specific value when the number of sets of second class data in which the suitability of second class data exceeds a specific value among the plurality of class data is greater than the number of first class data and less than the number of second class data. You can search for and define it as a threshold.

본 발명의 다른 실시 예에 따르면, 불균형 데이터를 위한 리프리젠테이션 모델 기반의 언더 샘플링 방법을 컴퓨터에 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체로서, 불균형 원본 데이터를 복수의 클래스 데이터로 구분하고, 상기 구분된 복수의 클래스 데이터를 각각 학습하여 각각의 클래스에 대한 리프리젠테이션 모델(Representation model)을 구축하는 단계; 및 상기 복수의 클래스 데이터와 상기 구축된 복수의 리프리젠테이션 모델을 각각 조합하여 계산된 클래스 데이터 및 리프리젠테이션 모델 간의 적합도에 따라 상기 불균형 원본 데이터를 언더 샘플링(Under-sampling)하는 단계를 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체가 제공될 수 있다.According to another embodiment of the present invention, as a computer-readable recording medium recording a program for executing an undersampling method based on a representation model for unbalanced data on a computer, unbalanced original data is divided into a plurality of class data. And building a representation model for each class by learning each of the divided plurality of class data; And under-sampling the unbalanced original data according to a degree of fit between the class data and the representation model calculated by combining the plurality of class data and the constructed plurality of representation models, respectively. A computer-readable recording medium may be provided on which a program for use is recorded.

본 발명의 실시 예들은 리프리젠테이션 모델(representation model)을 통해 불균형 데이터의 구조적 특징을 파악하고, 파악된 구조적 특징을 기반으로 언더 샘플링(under-sampling)함으로써, 데이터의 불균형도를 완화하여 분류 성능을 개선할 수 있다.Embodiments of the present invention identify structural features of unbalanced data through a representation model, and under-sampling based on the identified structural features, thereby mitigating the degree of unbalance of data, and classification performance. Can be improved.

본 발명의 실시 예들은 리프리젠테이션 모델을 통해 불균형 데이터의 전체적인 구조적 특징을 파악하고, 이러한 특징에 부합하지 않는 데이터를 언더 샘플링하여 불균형도를 완화함으로써, 인공지능을 이용한 데이터 분류 성능을 향상할 수 있다.Embodiments of the present invention can improve data classification performance using artificial intelligence by grasping the overall structural characteristics of unbalanced data through a representation model and mitigating the unbalance by under-sampling data that does not conform to these characteristics. have.

도 1은 본 발명의 일 실시 예에 따른 데이터 처리 장치의 전체 구조를 설명하기 위한 도면이다.
도 2는 본 발명의 일 실시 예에 따른 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 방법을 설명하기 위한 도면이다.
도 3은 본 발명의 일 실시 예에 따른 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 방법의 상세 흐름을 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시 예에서 사용되는 리프리젠테이션 모델의 구조를 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시 예에 사용된 적합도의 정의를 설명하기 위한 도면이다.
도 6은 본 발명의 일 실시 예에서 사용된 임계값을 계산하는 수식을 설명하기 위한 도면이다.
도 7은 본 발명의 일 실시 예와 다양한 기법들 간의 실험 비교 결과를 설명하기 위한 도면이다.
도 8은 본 발명의 일 실시 예에 따른 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 장치의 구성을 설명하기 위한 구성도이다.
도 9는 본 발명의 다른 실시 예에 따른 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 장치의 구성을 설명하기 위한 구성도이다.
1 is a diagram illustrating an overall structure of a data processing apparatus according to an embodiment of the present invention.
FIG. 2 is a diagram illustrating a data processing method based on a representation model for unbalanced data according to an embodiment of the present invention.
3 is a diagram illustrating a detailed flow of a data processing method based on a representation model for unbalanced data according to an embodiment of the present invention.
4 is a diagram illustrating a structure of a representation model used in an embodiment of the present invention.
5 is a view for explaining the definition of the suitability used in an embodiment of the present invention.
6 is a diagram for explaining an equation for calculating a threshold value used in an embodiment of the present invention.
7 is a diagram for explaining an experiment comparison result between an embodiment of the present invention and various techniques.
8 is a configuration diagram illustrating a configuration of a data processing apparatus based on a representation model for unbalanced data according to an embodiment of the present invention.
9 is a configuration diagram illustrating a configuration of a data processing apparatus based on a representation model for unbalanced data according to another embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는바, 특정 실시 예들을 도면에 예시하고 상세하게 설명하고자 한다.In the present invention, various modifications may be made and various embodiments may be provided, and specific embodiments will be illustrated in the drawings and described in detail.

그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.However, this is not intended to limit the present invention to a specific embodiment, it should be understood to include all changes, equivalents, and substitutes included in the spirit and scope of the present invention.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Terms such as first and second may be used to describe various elements, but the elements should not be limited by the terms. These terms are only used for the purpose of distinguishing one component from another component. For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, a second component may be referred to as a first component. The term and/or includes a combination of a plurality of related listed items or any of a plurality of related listed items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. When a component is referred to as being "connected" or "connected" to another component, it is understood that it is directly connected to or may be connected to the other component, but other components may exist in the middle. Should be. On the other hand, when a component is referred to as being "directly connected" or "directly connected" to another component, it should be understood that there is no other component in the middle.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the present application are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In the present application, terms such as "comprise" or "have" are intended to designate the presence of features, numbers, steps, actions, components, parts, or combinations thereof described in the specification, but one or more other features. It is to be understood that the presence or addition of elements or numbers, steps, actions, components, parts, or combinations thereof does not preclude in advance.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs. Terms such as those defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning of the related technology, and should not be interpreted as an ideal or excessively formal meaning unless explicitly defined in this application. Does not.

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.Hereinafter, preferred embodiments of the present invention will be described in more detail with reference to the accompanying drawings. In describing the present invention, in order to facilitate an overall understanding, the same reference numerals are used for the same elements in the drawings, and duplicate descriptions for the same elements are omitted.

도 1은 본 발명의 일 실시 예에 따른 데이터 처리 장치의 전체 구조를 설명하기 위한 도면이다.1 is a diagram illustrating an overall structure of a data processing apparatus according to an embodiment of the present invention.

도 1에 도시된 바와 같이, 본 발명의 일 실시 예에 따른 데이터 처리 장치(10)는 언더 샘플링 장치(100) 및 분류기(10)를 포함한다.As shown in FIG. 1, a data processing apparatus 10 according to an embodiment of the present invention includes an under-sampling apparatus 100 and a classifier 10.

도 1과 같이, 불균형 원본 데이터는 복수의 클래스 데이터로 구분되고, 구체적으로 제1 클래스 데이터 및 제2 클래스 데이터로 구분되는 경우를 일례로 살펴보기로 한다.As shown in FIG. 1, a case in which the unbalanced original data is divided into a plurality of class data and specifically divided into first class data and second class data will be described as an example.

여기서, 제1 클래스 데이터는 불균형 원본 데이터의 메이저 클래스(Major class) 데이터를 나타낸다. 제2 클래스 데이터는 불균형 원본 데이터의 마이너 클래스(Minor class) 데이터를 나타낸다. Here, the first class data represents major class data of the unbalanced original data. The second class data represents minor class data of the unbalanced original data.

제품의 불량을 감지하기 위한 불균형 원본 데이터의 일례를 설명하기로 한다.An example of unbalanced original data for detecting product defects will be described.

제조 공정에서 제품의 불량 여부를 판단하기 위하여 여러 단계의 검사 과정이 이루어진다. 과정마다 센서 또는 검사기를 통한 막대한 정보가 수집될 수 있다.In the manufacturing process, a multi-step inspection process is performed to determine whether a product is defective. In each process, a huge amount of information can be collected through sensors or inspectors.

일반적으로 불량제품보다 정상제품의 수가 많기 때문에, 정상 클래스 및 불량 클래스 간 데이터 수의 불균형이 발생할 수 있다. 이러한 불균형은 기계학습을 이용한 분류 시 성능을 악화시키는 요인이 될 수 있다. 또한, 모든 데이터를 이용한 경우 수집된 데이터의 크기가 매우 크기 때문에, 기계학습 모델 학습과정에 소모되는 시간이 클 수 있다. In general, since the number of normal products is greater than that of defective products, an imbalance in the number of data between the normal and defective classes may occur. This imbalance can be a factor that deteriorates the performance of classification using machine learning. In addition, when all data is used, the size of the collected data is very large, and thus the time spent in the machine learning model training process may be large.

다른 예로, 영화의 흥행 여부를 예측하기 위한 불균형 원본 데이터의 일례를 설명하기로 한다.As another example, an example of unbalanced original data for predicting the success of a movie will be described.

영화의 흥행 여부를 판단하기 위하여 영화 흥행에 필요한 여러가지 데이터가 수집될 수 있다. Various data necessary for the movie box office may be collected in order to determine whether the movie is a box office.

일반적으로 흥행이 되는 영화보다는 흥행이 안되는 영화의 수가 많기 때문에, 미흥행 영화 클래스 및 흥행 영화 클래스 간 데이터 수의 불균형이 발생할 수 있다. 이러한 불균형은 기계학습을 이용한 분류 시 성능을 악화시키는 요인이 될 수 있다. 또한, 모든 데이터를 이용한 경우 수집된 데이터의 크기가 매우 크기 때문에, 기계학습 모델 학습과정에 소모되는 시간이 클 수 있다. In general, since the number of movies that are not box offices is larger than that of movies that are box offices, there may be an imbalance in the number of data between the classes of movies that are not appearing and the movies that are not appearing. This imbalance can be a factor that deteriorates the performance of classification using machine learning. In addition, when all data is used, the size of the collected data is very large, and thus the time spent in the machine learning model training process may be large.

이러한 적용 예들을 위해, 본 발명의 일 실시 예에 따른 데이터 처리 장치(10)는 각 클래스에 대한 리프리젠테이션 모델을 기반으로 정보 손실을 최소화하며 데이터의 수를 줄이는 언더 샘플링 기법을 이용한다. 이를 통해, 데이터 처리 장치(10)는 데이터 감소로 인한 학습시간 감소와 불균형도 개선을 통한 기계학습 분류기(200)의 성능을 향상시킬 수 있다.For these application examples, the data processing apparatus 10 according to an embodiment of the present invention uses an under-sampling technique that minimizes information loss and reduces the number of data based on a representation model for each class. Through this, the data processing apparatus 10 may improve the performance of the machine learning classifier 200 by reducing a learning time due to data reduction and improving an imbalance.

본 발명의 일 실시 예에 따른 언더 샘플링 장치(100)는 우선 불균형 원본 데이터를 메이저 클래스 데이터와 마이너 클래스 데이터로 나눈다. 그리고 언더 샘플링 장치(100)는 메이저 클래스 데이터와 마이너 클래스 데이터 각각에 대해 각각의 리프리젠테이션 모델(representation model)을 학습시켜 각 클래스 데이터의 전체적인 데이터의 구조적 특징을 파악한다.The undersampling apparatus 100 according to an embodiment of the present invention first divides the unbalanced original data into major class data and minor class data. In addition, the under-sampling apparatus 100 learns a representation model for each of the major class data and the minor class data to grasp the structural characteristics of the overall data of each class data.

이후, 본 발명의 일 실시 예에 따른 언더 샘플링 장치(100)는 불균형 원본 데이터의 메이저 클래스 데이터 및 마이너 클래스 데이터를 각각의 리프리젠테이션 모델에 통과시켜, 각 데이터와 각 리프리젠테이션 모델 간의 적합도를 계산한다. 이는 실험방법에 따라 달라질 수 있다. 여기서, 본 발명의 일 실시 예에 따른 언더 샘플링 장치(100)는 가장 좋은 성능을 보이는 최적의 임계값을 탐색한다. 최적의 임계값을 바탕으로 부적합한 데이터를 제거하고 분류기(200)를 학습시킨다.Thereafter, the under-sampling apparatus 100 according to an embodiment of the present invention passes the major class data and the minor class data of the unbalanced original data through each representation model to determine the fit between each data and each representation model. Calculate. This may vary depending on the experimental method. Here, the under-sampling apparatus 100 according to an embodiment of the present invention searches for an optimum threshold value showing the best performance. Based on the optimal threshold, inappropriate data is removed and the classifier 200 is trained.

도 2는 본 발명의 일 실시 예에 따른 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 방법을 설명하기 위한 도면이다.FIG. 2 is a diagram illustrating a data processing method based on a representation model for unbalanced data according to an embodiment of the present invention.

도 2에 도시된 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 방법은 본 발명의 일 실시 예에 따른 데이터 처리 장치(10)에 의해 수행된다.The data processing method based on the representation model for unbalanced data shown in FIG. 2 is performed by the data processing apparatus 10 according to an embodiment of the present invention.

S101 단계에서, 데이터 처리 장치(10)는, 불균형 원본 데이터를 복수의 클래스 데이터로 구분하고, 그 구분된 복수의 클래스 데이터를 각각 학습하여 각각의 클래스에 대한 리프리젠테이션 모델을 구축한다.In step S101, the data processing apparatus 10 divides the unbalanced original data into a plurality of class data, learns each of the divided plurality of class data, and constructs a representation model for each class.

S102 단계에서, 데이터 처리 장치(10)는, 복수의 클래스 데이터와 구축된 복수의 리프리젠테이션 모델을 각각 조합하여 데이터 및 모델 간의 적합도를 계산한다.In step S102, the data processing apparatus 10 calculates a degree of fit between the data and the models by combining a plurality of class data and a plurality of constructed representation models, respectively.

S103 단계에서, 데이터 처리 장치(10)는, 계산된 적합도가 임계값 미만인 클래스 데이터를 제거하여 불균형 원본 데이터를 언더 샘플링한다.In step S103, the data processing apparatus 10 undersamples the unbalanced original data by removing class data whose calculated fitness is less than the threshold value.

도 3은 본 발명의 일 실시 예에 따른 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 방법의 상세 흐름을 설명하기 위한 도면이다.3 is a diagram illustrating a detailed flow of a data processing method based on a representation model for unbalanced data according to an embodiment of the present invention.

우선, S201 내지 S208 단계에서, 데이터 처리 장치(10)는, 불균형 원본 데이터를 메이저 클래스 데이터와 마이너 클래스 데이터로 나누고, 각 데이터를 이용하여 리프리젠테이션 모델을 학습한다. First, in steps S201 to S208, the data processing device 10 divides the unbalanced original data into major class data and minor class data, and learns a representation model using each data.

S201 단계에서, 데이터 처리 장치(10)는, 각 클래스 데이터의 수가 서로 다른 불균형 원본 데이터를 입력받는다.In step S201, the data processing apparatus 10 receives unbalanced original data having different numbers of data for each class.

S202 단계에서, 데이터 처리 장치(10)는, 입력된 불균형 원본 데이터 중에서 메이저 클래스 데이터인지를 구분한다. In step S202, the data processing device 10 discriminates whether it is major class data among the input unbalanced original data.

상기 확인 결과(S202), 입력된 불균형 원본 데이터 중에서 메이저 클래스 데이터가 아닌 경우, 데이터 처리 장치(10)는, S203 단계에서, 마이너 클래스 데이터를 저장한다. If the check result (S202) is not the major class data among the input unbalanced original data, the data processing device 10 stores the minor class data in step S203.

S204 단계에서, 데이터 처리 장치(10)는, 마이너 클래스 데이터를 학습한다.In step S204, the data processing device 10 learns minor class data.

S205 단계에서, 데이터 처리 장치(10)는, 마이너 클래스 데이터에 대한 학습 결과를 이용하여 마이너 클래스에 대한 리프리젠테이션 모델을 구축한다.In step S205, the data processing apparatus 10 constructs a representation model for the minor class by using the learning result for the minor class data.

한편, 상기 확인 결과(S202), 입력된 불균형 원본 데이터 중에서 메이저 클래스 데이터인 경우, 데이터 처리 장치(10)는, S206 단계에서, 메이저 클래스 데이터를 저장한다. On the other hand, as a result of the verification (S202), if the input unbalanced original data is major class data, the data processing apparatus 10 stores the major class data in step S206.

S207 단계에서, 데이터 처리 장치(10)는, 메이저 클래스 데이터를 학습한다.In step S207, the data processing device 10 learns major class data.

S208 단계에서, 데이터 처리 장치(10)는, 메이저 클래스 데이터에 대한 학습 결과를 이용하여 메이저 클래스에 대한 리프리젠테이션 모델을 구축한다.In step S208, the data processing apparatus 10 constructs a representation model for the major class by using the learning result for the major class data.

이후, S209 단계에서, 데이터 처리 장치(10)는, 메이저 클래스 데이터와 마이너 클래스에 대한 리프리젠테이션 모델을 이용하여 적합도 E(x)를 계산한다.Thereafter, in step S209, the data processing apparatus 10 calculates the degree of fitness E(x) by using the major class data and the representation model for the minor class.

S210 단계에서, 데이터 처리 장치(10)는, 적합도가 임계값 T 미만인지를 확인한다.In step S210, the data processing apparatus 10 checks whether the suitability is less than the threshold value T.

S211 단계에서, 데이터 처리 장치(10)는, 적합도가 임계값 T 미만이면, 메이저 클래스 데이터에 대해 언더 샘플링을 적용한다.In step S211, the data processing apparatus 10 applies under-sampling to the major class data if the suitability is less than the threshold value T.

반면, 적합도가 임계값 T 이상이면, 데이터 처리 장치(10)는, S212 단계에서, 적합도가 임계값 이상인 메이저 클래스 데이터와, 불균형 원본 데이터 중에서 마이너 클래스 데이터를 더한다.On the other hand, if the fitness level is equal to or greater than the threshold value T, the data processing apparatus 10 adds the major class data having the fitness level equal to or greater than the threshold value and minor class data from the unbalanced original data in step S212.

이를 통해, S213 단계에서, 데이터 처리 장치(10)는, 언더 샘플링된 메이저 클래스 데이터와 더해진 마이너 클래스 데이터를 새로운 원본 데이터를 얻는다. Through this, in step S213, the data processing apparatus 10 obtains new original data from the undersampled major class data and the added minor class data.

S214 단계에서, 데이터 처리 장치(10)는, 새로운 원본 데이터를 이용하여 분류기(200)를 학습시킨다.In step S214, the data processing device 10 learns the classifier 200 using the new original data.

S215 단계에서, 데이터 처리 장치(10)는, 분류기(200)의 성능이 기설정된 분류 기준치 미만인지를 확인한다.In step S215, the data processing apparatus 10 checks whether the performance of the classifier 200 is less than a preset classification reference value.

S215 단계에서, 데이터 처리 장치(10)는, 분류기(200)의 성능이 기설정된 분류 기준치 미만인 경우, 임계값을 업데이트한다.In step S215, when the performance of the classifier 200 is less than a preset classification reference value, the data processing apparatus 10 updates the threshold value.

반면, 데이터 처리 장치(10)는, 분류기(200)의 성능이 기설정된 분류 기준치 이상인 경우, 리프리젠테이션 모델 기반의 데이터 처리 과정을 종료한다.On the other hand, when the performance of the classifier 200 is greater than or equal to a preset classification reference value, the data processing apparatus 10 ends the data processing process based on the representation model.

이와 같이, S215 내지 S215 단계를 통해, 데이터 처리 장치(10)는, 분류기(200) 학습을 수행하여 새로운 원본 데이터에 대한 분류기(200)의 성능을 측정한다. 그리고 데이터 처리 장치(10)는, 분류기(200) 성능이 기준보다 낮은 경우, 임계값 T를 업데이트하고 다시 언더 샘플링을 적용하는 과정을 반복할 수 있다.In this way, through steps S215 to S215, the data processing apparatus 10 measures the performance of the classifier 200 for new original data by performing learning of the classifier 200. In addition, when the performance of the classifier 200 is lower than the reference, the data processing apparatus 10 may repeat a process of updating the threshold T and applying undersampling again.

도 4는 본 발명의 일 실시 예에서 사용되는 리프리젠테이션 모델의 구조를 설명하기 위한 도면이다.4 is a diagram illustrating a structure of a representation model used in an embodiment of the present invention.

도 4에는 본 발명의 일 실시 예에 따른 데이터 처리 장치(10)에서 사용되는 딥 리프리젠테이션 모델(Deep representation model)이 도시되어 있다. 본 발명의 일 실시 예에 따른 데이터 처리 장치(10)는 불균형 원본 데이터의 구조적 문제에 대응하기 위해 각 클래스 데이터의 속성을 학습하는 딥 리프리젠테이션 모델을 이용한다. 4 illustrates a deep representation model used in the data processing apparatus 10 according to an embodiment of the present invention. The data processing apparatus 10 according to an embodiment of the present invention uses a deep representation model that learns properties of each class data in order to cope with the structural problem of unbalanced original data.

딥 리프리젠테이션 모델은 오토 인코더(Auto-encoder) 구조를 사용한다. 딥 리프리젠테이션 모델은 인코더(encoder, 510)와, 디코더(decoder, 520)로 이루어진다. 인코더(510)는 복수의 층 구조와 정류된 선형 유닛(ReLU, Rectified Linear Unit) 함수로 이루어진다. 일례로, 인코더(510)는 7개의 층 구조와 ReLU 함수로 이루어질 수 있다. 디코더(520)는 복수의 층 구조와 쌍곡선 탄젠트 함수(tanh, Hyperbolic Tangent) 함수로 이루어진다. 일례로, 디코더(520)는 4개의 층 구조와 tanh 함수로 이루어질 수 있다. The deep representation model uses an auto-encoder structure. The deep representation model consists of an encoder (encoder) 510 and a decoder (decoder) 520. The encoder 510 includes a plurality of layer structures and a rectified linear unit (ReLU) function. As an example, the encoder 510 may have a seven-layer structure and a ReLU function. The decoder 520 includes a plurality of layer structures and a hyperbolic tangent function (tanh). For example, the decoder 520 may have a four-layer structure and a tanh function.

여기서, 리프리젠테이션 모델의 입력과 출력은 동일한 데이터로 설정될 수 있다. 본 발명의 일 실시 예에 따른 데이터 처리 장치(10) 이러한 리프리젠테이션 모델을 통해 메이저 클래스 데이터와 마이너 클래스 데이터의 구조적 특징을 학습하고 추출할 수 있다.Here, the input and output of the representation model may be set to the same data. The data processing apparatus 10 according to an embodiment of the present invention may learn and extract structural features of major class data and minor class data through such a representation model.

도 5는 본 발명의 일 실시 예에 사용된 적합도의 정의를 설명하기 위한 도면이다.5 is a view for explaining the definition of the suitability used in an embodiment of the present invention.

도 5에는 본 발명의 일 실시 예에서 사용된 적합도의 정의가 도시되어 있다.Fig. 5 shows the definition of the suitability used in an embodiment of the present invention.

클래스별 구조적 특징을 파악하기 위해, 일례로, 데이터 처리 장치(10)는 메이저 클래스 데이터를 이용하여 학습된 모델 M과 마이너 클래스 데이터를 이용하여 학습된 모델 m을 구축할 수 있다. 각 모델은 학습에 이용된 클래스의 데이터 분포를 파악하고 있으므로 이를 조합하여 각 클래스의 구조적 적합도를 계산한다. 적합도는 부합도로 지칭될 수 있다. 적합도는 딥 리프리젠테이션 모델의 복원 에러(reconstruction error) E로 판단될 수 있다. E는 도 6의 수식과 같이 표현된다.In order to grasp the structural characteristics of each class, for example, the data processing apparatus 10 may construct a model M trained using major class data and a model m trained using minor class data. Since each model understands the data distribution of the classes used for training, it combines them to calculate the structural fit of each class. Goodness of fit may be referred to as the degree of fit. The fit can be determined as a reconstruction error E of the deep representation model. E is expressed by the equation of FIG. 6.

x는 입력 데이터, f는 M 또는 m 모델을 의미한다. mD는 원본 데이터의 마이너 클래스 데이터, MD는 원본 데이터의 메이저 클래스 데이터를 의미한다. x는 mD와 MD의 인스턴스(instance)이다. M은 원본 데이터의 메이저 클래스 데이터만으로 학습된 메이저 클래스에 대한 리프리젠테이션 모델, m은 원본 데이터의 마이너 클래스 데이터만으로 학습된 리프리젠테이션 모델을 나타낸다.x is the input data, and f is the M or m model. mD is the minor class data of the original data, and MD is the major class data of the original data. x is an instance of mD and MD. M denotes a representation model for a major class trained only with major class data of the original data, and m denotes a representation model trained with only minor class data of the original data.

데이터 처리 장치(10)는 메이저 클래스 데이터의 인스턴스(instance) x의 마이너 클래스에 대한 리프리젠테이션 모델에 대한 적합도를 계산하기 위하여, 마이너 클래스 모델에 대한 E를 계산한다. 메이저 클래스 데이터는 마이너 클래스 데이터로 학습된 딥 리프리젠테이션 모델을 통해 계산한 E가 임계값보다 큰 값을 가져야 한다. 임계값보다 작은 값을 가진 경우, 데이터 처리 장치(10)는 해당 인스턴스 x가 마이너 클래스의 특징을 갖고 있는 것이므로 이를 제거한다. 데이터 처리 장치(10)는 반대로 메이저 클래스의 인스턴스 x를 메이저 클래스에 대한 리프리젠테이션 모델에 대한 E를 계산하거나, 마이너 클래스의 인스턴스 x를 마이너 클래스에 대한 리프리젠테이션 모델에 대한 E를 계산하는 것도 가능하다. The data processing apparatus 10 calculates E for the minor class model in order to calculate the fitness of the representation model for the minor class of the instance x of the major class data. For major class data, E calculated through a deep representation model trained with minor class data must have a value greater than the threshold value. If the value is smaller than the threshold value, the data processing device 10 removes the instance x because it has the characteristics of a minor class. Conversely, the data processing device 10 calculates E for the representation model for the major class by using the instance x of the major class, or calculating E for the representation model for the minor class by using the instance x of the minor class. It is possible.

실험 방법에 따라 x와 f는 여러 가지 방법으로 조합될 수 있다. 예를 들어, 각각의 조합에는 마이너 클래스 데이터(mD)와 메이저 클래스에 대한 리프리젠테이션 모델(M)의 조합 1, 마이너 클래스 데이터(mD)와 마이너 클래스에 대한 리프리젠테이션 모델(m)의 조합 2, 메이저 클래스 데이터(MD)와 마이너 클래스에 대한 리프리젠테이션 모델(m)의 조합 3, 및 메이저 클래스 데이터(MD)와 메이저 클래스에 대한 리프리젠테이션 모델(M)의 조합 4이 포함될 수 있다.Depending on the experimental method, x and f can be combined in several ways. For example, in each combination, a combination of minor class data (mD) and a representation model for a major class (M) 1, a combination of minor class data (mD) and a representation model for a minor class (m) 2, a combination 3 of major class data MD and a representation model m for a minor class, and a combination 4 of major class data MD and a representation model M for a major class may be included. .

도 6은 본 발명의 일 실시 예에서 사용된 임계값을 계산하는 수식을 설명하기 위한 도면이다.6 is a diagram for explaining an equation for calculating a threshold value used in an embodiment of the present invention.

도 6에는 본 발명의 일 실시 예에서 사용된 적합/부적합을 결정하는 임계값을 계산하는 수식이 도시되어 있다. 6 illustrates an equation for calculating a threshold value for determining conformance/nonconformity used in an embodiment of the present invention.

불균형 원본 데이터에서 각 클래스 데이터의 언더 샘플링을 적용하기 위해서, 데이터 처리 장치(10)는 부합 여부를 정하는 임계값을 정의해야 한다. 적합/부적합을 결정하는 임계값 T는 도 7에 도시된 수식을 만족하는 값을 탐색하여 결정한다.In order to apply the under-sampling of each class data in the unbalanced original data, the data processing apparatus 10 must define a threshold value determining whether or not to match. The threshold value T for determining fit/unfit is determined by searching for a value that satisfies the equation shown in FIG. 7.

mD는 마이너 클래스 데이터, MD는 메이저 클래스 데이터, n(mD)는 마이너 클래스 데이터의 수, n(MD)는 메이저 클래스 데이터의 수, U는 메이저 클래스에 대한 리프리젠테이션 모델에 대한 복원 에러 E가 임계값보다 큰 메이저 클래스 데이터의 집합이다. r는 실험에 따라 0부터 1 사이의 값으로 설정된다.mD is the minor class data, MD is the major class data, n(mD) is the number of minor class data, n(MD) is the number of major class data, U is the restoration error E for the representation model for the major class. It is a set of major class data greater than the threshold. r is set to a value between 0 and 1 depending on the experiment.

도 7은 본 발명의 일 실시 예와 다양한 기법들 간의 실험 비교 결과를 설명하기 위한 도면이다.7 is a diagram for explaining an experiment comparison result between an embodiment of the present invention and various techniques.

도 7에는 본 발명의 일 실시 예와 다양한 기법들 간의 실험 비교 결과가 도시되어 있다.7 illustrates experimental comparison results between an embodiment of the present invention and various techniques.

우선, 본 발명의 일 실시 예와 종래의 베이스라인(baseline)들과 비교한 결과, 11개의 데이터 셋에 대해 데이터의 수, 불균형도 등에 대한 편향 없이 대부분의 실험 데이터에서 본 발명의 일 실시 예가 우수한 성능을 보인다.First, as a result of comparing an embodiment of the present invention with conventional baselines, an embodiment of the present invention is superior in most experimental data without bias on the number of data, unbalance, etc. for 11 data sets. Shows performance.

구체적으로 살펴보면, 본 발명의 일 실시 예에서 실험 데이터는 KEEL-데이터세트(dataset) 저장소에서 수집한 다양한 불균형도를 가진 데이터를 이용한다. 각 데이터는 3-18차원으로 이루어져 있으며, 데이터의 수는 214-1484개 사이이다. 실험 데이터는 -1과 1사이 값으로 스케일링(scaling) 된다.Specifically, in an embodiment of the present invention, the experimental data uses data having various disparities collected from the KEEL-dataset storage. Each data consists of 3-18 dimensions, and the number of data is between 214-1484. The experimental data is scaled to a value between -1 and 1.

여기서, 딥 리프리젠테이션 모델 오토 인코더 구조를 사용하며, 인코더 부분은 7개의 층 구조와 ReLU로 이루어져 있고, 디코더 부분은 4개의 층 구조와 tanh로 이루어져 있다.Here, the deep representation model auto-encoder structure is used, and the encoder part is composed of 7 layer structures and ReLU, and the decoder part is composed of 4 layer structures and tanh.

각 클래스에 대한 모델의 학습은 NAG를 이용하며, 러닝 레이트(learning rate)는 0.1, 감소(decay)는 1e-6, 모멘텀(momentum)은 0.9이다. 분류기(200)는 방사 기저 함수-서포트 벡터 머신(rbf-SVM, radial basis function-support vector machine)을 이용하며 C의 값은 1로 고정한다. 불균형 데이터에 적용하여 얻은 데이터의 분류 성능이 얼마나 향상되는지를 평가한다.Learning of the model for each class uses NAG, the learning rate is 0.1, the decay is 1e-6, and the momentum is 0.9. The classifier 200 uses a radial basis function-support vector machine (rbf-SVM) and a value of C is fixed to 1. Evaluate how well the classification performance of data obtained by applying it to unbalanced data is improved.

성능 비교를 위한 평가지표는 4겹 교차 검증(4-fold cross-validation)을 통해 얻은 마이너 클래스 데이터의 f1-스코어(f1-score) 평균값이다. 비교 평가 대상은 분류기(200)만 사용한 베이스라인(baseline), 본 발명의 일 실시예와, 랜덤 오버 샘플링(random over-sampling), 랜덤 언더 샘플링(random under-sampling), SMOTE(Synthetic Minority Over-sampling Technique), NCR(neighbourhood cleaning rule), nearmiss3, 클러스터 센트로이드(cluster centroid)를 사용하였다. 평가 대상 중 각 샘플링 기법에서 좋은 성능을 보인 SMOTE, 클러스터 센트로이드(cluster centroid)와 베이스라인(baseline), 본 발명의 일 실시 예를 11개의 실험 데이터에 대해 분류 성능을 비교한 결과, 본 발명의 일 실시 예는 데이터의 수, 불균형도 등에 대한 편향 없이 11개 중 8개의 데이터 셋에서 가장 좋은 성능을 보였다. 이에 따라, 본 발명의 일 실시 예를 이용하여 데이터의 분류 성능을 향상시킬 수 있다. The evaluation index for performance comparison is the average value of the f1-score of minor class data obtained through 4-fold cross-validation. Comparative evaluation targets are a baseline using only the classifier 200, an embodiment of the present invention, random over-sampling, random under-sampling, and SMOTE (Synthetic Minority Over- sampling Technique), NCR (neighbourhood cleaning rule), nearmiss3, and cluster centroid. Among the evaluation targets, SMOTE, which showed good performance in each sampling technique, cluster centroid and baseline, as a result of comparing the classification performance of 11 experimental data according to an embodiment of the present invention. One embodiment showed the best performance in 8 out of 11 data sets without bias in the number of data, unbalance, etc. Accordingly, it is possible to improve data classification performance using an embodiment of the present invention.

도 8은 본 발명의 일 실시 예에 따른 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 장치의 구성을 설명하기 위한 구성도이다.8 is a configuration diagram illustrating a configuration of a data processing apparatus based on a representation model for unbalanced data according to an embodiment of the present invention.

도 8에 도시된 바와 같이, 본 발명의 일 실시 예에 따른 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 장치(10)는 프로세서(11), 메모리(12) 및 분류기(200)를 포함한다. 그러나 도시된 구성요소 모두가 필수 구성요소인 것은 아니다. 도시된 구성요소보다 많은 구성요소에 의해 데이터 처리 장치(10)가 구현될 수도 있고, 그보다 적은 구성요소에 의해서도 데이터 처리 장치(10)가 구현될 수 있다.As shown in FIG. 8, a data processing apparatus 10 based on a representation model for unbalanced data according to an embodiment of the present invention includes a processor 11, a memory 12, and a classifier 200. . However, not all of the illustrated components are essential components. The data processing device 10 may be implemented by more components than the illustrated components, or the data processing device 10 can be implemented by fewer components.

이하, 도 8의 데이터 처리 장치(10)의 각 구성요소들의 구체적인 구성 및 동작을 설명한다.Hereinafter, a detailed configuration and operation of each component of the data processing apparatus 10 of FIG. 8 will be described.

메모리(12)는 불균형 원본 데이터를 저장할 수 있다. 메모리(12)는 언더 샘플링된 불균형 원본 데이터를 저장할 수 있다. 또한, 메모리(12)는 복수의 클래스 데이터와 구축된 복수의 리프리젠테이션 모델을 저장할 수 있다. The memory 12 may store unbalanced original data. The memory 12 may store the under-sampled unbalanced original data. Also, the memory 12 may store a plurality of class data and a plurality of constructed representation models.

프로세서(11)는 불균형 원본 데이터를 복수의 클래스 데이터로 구분하고, 그 구분된 복수의 클래스 데이터를 각각 학습하여 각각의 클래스에 대한 리프리젠테이션 모델(Representation model)을 구축한다. 그리고 프로세서(11)는 복수의 클래스 데이터와 구축된 복수의 리프리젠테이션 모델을 각각 조합하여 데이터 및 모델 간의 적합도를 계산한다. 이후, 프로세서(11)는 계산된 적합도가 임계값 미만인 클래스 데이터를 제거하여 불균형 원본 데이터를 언더 샘플링(Under-sampling)한다.The processor 11 divides the unbalanced original data into a plurality of class data, learns the divided plurality of class data, and constructs a representation model for each class. Further, the processor 11 calculates a degree of fit between the data and the models by combining a plurality of class data and a plurality of constructed representation models, respectively. Thereafter, the processor 11 under-sampling the unbalanced original data by removing the class data whose calculated fitness is less than the threshold value.

프로세서(11)는 불균형 원본 데이터를 복수의 클래스 데이터로 구분하고, 그 구분된 복수의 클래스 데이터를 각각 학습하여 각각의 클래스에 대한 리프리젠테이션 모델(Representation model)을 구축할 수 있다.The processor 11 may divide the unbalanced original data into a plurality of class data, and learn the divided plurality of class data, respectively, to build a representation model for each class.

프로세서(11)는, 각 클래스 데이터의 구조적 특징을 학습하고 추출하여 각 클래스 데이터에 대한 리프리젠테이션 모델을 생성할 수 있다.The processor 11 may generate a representation model for each class data by learning and extracting structural features of each class data.

프로세서(11)는, 각 클래스 데이터에 대한 리프리젠테이션 모델 생성 시, 각 클래스 데이터에 대한 리프리젠테이션 모델의 입력과 출력을 동일한 데이터로 설정할 수 있다. 리프리젠테이션 모델은, 오토 인코더(Auto-encoder) 구조를 사용하고, 복수의 층 구조와 정류된 선형 유닛(ReLU, Rectified Linear Unit) 함수로 이루어지는 인코더(encoder)와, 복수의 층 구조와 쌍곡선 탄젠트 함수(tanh, Hyperbolic Tangent) 함수로 이루어지는 디코더(decoder)를 포함할 수 있다.When generating a representation model for each class data, the processor 11 may set the input and output of the representation model for each class data as the same data. The representation model uses an auto-encoder structure, an encoder consisting of a plurality of layer structures and a rectified linear unit (ReLU) function, and a plurality of layer structures and a hyperbolic tangent. It may include a decoder made of a function (tanh, Hyperbolic Tangent) function.

프로세서(11)는 모델 구축부(120)에서 구분된 복수의 클래스 데이터와 모델 구축부(120)에서 구축된 복수의 리프리젠테이션 모델을 각각 조합하여 데이터 및 모델 간의 적합도를 계산할 수 있다.The processor 11 may calculate a goodness of fit between the data and the model by combining a plurality of class data divided by the model building unit 120 and a plurality of representation models built by the model building unit 120, respectively.

여기서, 프로세서(11)는, 복수의 클래스 데이터 중에서 어느 하나의 클래스 데이터와, 복수의 리프리젠테이션 모델 중에서 어느 하나의 리프리젠테이션 모델을 조합하여 데이터 및 모델 간의 적합도를 계산할 수 있다.Here, the processor 11 may calculate a fit between the data and the models by combining any one of the plurality of class data and any one of the plurality of representation models.

프로세서(11)는 적합도 계산부(130)에서 계산된 적합도가 임계값 미만인 클래스 데이터를 제거하여 불균형 원본 데이터를 언더 샘플링할 수 있다.The processor 11 may undersample the unbalanced original data by removing class data whose fitness is less than the threshold value calculated by the fitness calculation unit 130.

여기서, 프로세서(11)는, 분류기(200)의 분류 결과, 분류기(200)의 성능이 기설정된 분류 기준치 미만인 경우 상기 임계값을 업데이트할 수 있다. 프로세서(11)는, 임계값을 임계 조정값만큼 조정할 수 있다.Here, as a result of the classification of the classifier 200, the processor 11 may update the threshold value when the performance of the classifier 200 is less than a preset classification reference value. The processor 11 may adjust the threshold value by the threshold adjustment value.

분류기(200)는 프로세서(11)에서 언더 샘플링된 불균형 원본 데이터를 분류할 수 있다.The classifier 200 may classify the unbalanced original data under-sampled by the processor 11.

도 9는 본 발명의 다른 실시 예에 따른 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 장치의 구성을 설명하기 위한 구성도이다.9 is a configuration diagram illustrating a configuration of a data processing apparatus based on a representation model for unbalanced data according to another embodiment of the present invention.

도 9에 도시된 바와 같이, 본 발명의 다른 실시 예에 따른 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 장치(10)는 언더 샘플링 장치(100) 및 분류기(200)를 포함한다. 그러나 도시된 구성요소 모두가 필수 구성요소인 것은 아니다. 도시된 구성요소보다 많은 구성요소에 의해 데이터 처리 장치(10)가 구현될 수도 있고, 그보다 적은 구성요소에 의해서도 데이터 처리 장치(10)가 구현될 수 있다.As shown in FIG. 9, a data processing apparatus 10 based on a representation model for unbalanced data according to another embodiment of the present invention includes an under-sampling apparatus 100 and a classifier 200. However, not all of the illustrated components are essential components. The data processing device 10 may be implemented by more components than the illustrated components, or the data processing device 10 can be implemented by fewer components.

이하, 도 9의 데이터 처리 장치(10)의 각 구성요소들의 구체적인 구성 및 동작을 설명한다.Hereinafter, a detailed configuration and operation of each component of the data processing apparatus 10 of FIG. 9 will be described.

언더 샘플링 장치(100)는 불균형 원본 데이터를 복수의 클래스 데이터로 구분하고, 그 구분된 복수의 클래스 데이터를 각각 학습하여 각각의 클래스에 대한 리프리젠테이션 모델(Representation model)을 구축한다. 그리고 언더 샘플링 장치(100)는 복수의 클래스 데이터와 구축된 복수의 리프리젠테이션 모델을 각각 조합하여 데이터 및 모델 간의 적합도를 계산한다. 이후, 언더 샘플링 장치(100)는 계산된 적합도가 임계값 미만인 클래스 데이터를 제거하여 불균형 원본 데이터를 언더 샘플링(Under-sampling)한다.The under-sampling apparatus 100 divides the unbalanced original data into a plurality of class data, learns each of the divided plurality of class data, and constructs a representation model for each class. In addition, the under-sampling apparatus 100 calculates a degree of fit between the data and the models by combining a plurality of class data and a plurality of constructed representation models, respectively. Thereafter, the under-sampling apparatus 100 under-sampling the unbalanced original data by removing class data whose calculated fitness is less than a threshold value.

분류기(200)는 언더 샘플링 장치(100)에서 언더 샘플링된 불균형 원본 데이터를 분류한다.The classifier 200 classifies the unbalanced original data under-sampled by the under-sampling apparatus 100.

본 발명의 실시 예에 따른, 언더 샘플링 장치(100)는 데이터 저장부(110), 모델 구축부(120), 적합도 계산부(130) 및 언더 샘플링부(140)를 포함할 수 있다. The under-sampling apparatus 100 according to an exemplary embodiment of the present invention may include a data storage unit 110, a model construction unit 120, a fitness calculation unit 130, and an under-sampling unit 140.

이하, 언더 샘플링 장치(100)의 각 구성요소들의 구체적인 구성 및 동작을 설명한다.Hereinafter, a detailed configuration and operation of each component of the under-sampling apparatus 100 will be described.

데이터 저장부(110)는 불균형 원본 데이터를 저장할 수 있다.The data storage unit 110 may store unbalanced original data.

모델 구축부(120)는 불균형 원본 데이터를 복수의 클래스 데이터로 구분하고, 그 구분된 복수의 클래스 데이터를 각각 학습하여 각각의 클래스에 대한 리프리젠테이션 모델(Representation model)을 구축할 수 있다.The model building unit 120 may classify the unbalanced original data into a plurality of class data, learn each of the separated class data, and build a representation model for each class.

여기서, 상기 모델 구축부(120)는, 각 클래스 데이터의 구조적 특징을 학습하고 추출하여 각 클래스 데이터에 대한 리프리젠테이션 모델을 생성할 수 있다.Here, the model building unit 120 may generate a representation model for each class data by learning and extracting structural features of each class data.

모델 구축부(120)는, 각 클래스 데이터에 대한 리프리젠테이션 모델 생성 시, 각 클래스 데이터에 대한 리프리젠테이션 모델의 입력과 출력을 동일한 데이터로 설정할 수 있다. 리프리젠테이션 모델은, 오토 인코더(Auto-encoder) 구조를 사용하고, 복수의 층 구조와 정류된 선형 유닛(ReLU, Rectified Linear Unit) 함수로 이루어지는 인코더(encoder)와, 복수의 층 구조와 쌍곡선 탄젠트 함수(tanh, Hyperbolic Tangent) 함수로 이루어지는 디코더(decoder)를 포함할 수 있다.When generating a representation model for each class data, the model building unit 120 may set the input and output of the representation model for each class data as the same data. The representation model uses an auto-encoder structure, an encoder consisting of a plurality of layer structures and a rectified linear unit (ReLU) function, and a plurality of layer structures and a hyperbolic tangent. It may include a decoder made of a function (tanh, Hyperbolic Tangent) function.

적합도 계산부(130)는 모델 구축부(120)에서 구분된 복수의 클래스 데이터와 모델 구축부(120)에서 구축된 복수의 리프리젠테이션 모델을 각각 조합하여 데이터 및 모델 간의 적합도를 계산할 수 있다.The fitness calculation unit 130 may calculate a fitness between data and models by combining a plurality of class data divided by the model building unit 120 and a plurality of representation models constructed by the model building unit 120, respectively.

여기서, 적합도 계산부(130)는, 복수의 클래스 데이터 중에서 어느 하나의 클래스 데이터와, 복수의 리프리젠테이션 모델 중에서 어느 하나의 리프리젠테이션 모델을 조합하여 데이터 및 모델 간의 적합도를 계산할 수 있다.Here, the fitness calculation unit 130 may calculate a fitness between data and models by combining any one of the plurality of class data and any one of the plurality of representation models.

언더 샘플링부(140)는 적합도 계산부(130)에서 계산된 적합도가 임계값 미만인 클래스 데이터를 제거하여 불균형 원본 데이터를 언더 샘플링할 수 있다.The under-sampling unit 140 may undersample the unbalanced original data by removing class data whose fitness is less than a threshold value calculated by the fitness calculation unit 130.

여기서, 상기 언더 샘플링부(140)는, 분류기(200)의 분류 결과, 분류기(200)의 성능이 기설정된 분류 기준치 미만인 경우 상기 임계값을 업데이트할 수 있다. 언더 샘플링부(140)는, 임계값을 임계 조정값만큼 조정할 수 있다.Here, the under-sampling unit 140 may update the threshold when the classification result of the classifier 200 and the performance of the classifier 200 is less than a preset classification reference value. The under-sampling unit 140 may adjust the threshold value by the threshold adjustment value.

상술한 본 발명의 실시 예들에 따른 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 방법은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현되는 것이 가능하다. 본 발명의 실시 예들에 따른 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터로 읽을 수 있는 기록매체에 기록될 수 있다.The data processing method based on the representation model for unbalanced data according to the above-described embodiments of the present invention may be implemented as computer-readable codes on a computer-readable recording medium. The data processing method based on the representation model for unbalanced data according to embodiments of the present invention may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable recording medium.

본 발명의 실시 예들에 따른 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 방법을 컴퓨터에 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체로서, 불균형 원본 데이터를 복수의 클래스 데이터로 구분하고, 상기 구분된 복수의 클래스 데이터를 각각 학습하여 각각의 클래스에 대한 리프리젠테이션 모델(Representation model)을 구축하는 단계, 및 상기 복수의 클래스 데이터와 상기 구축된 복수의 리프리젠테이션 모델을 각각 조합하여 계산된 클래스 데이터 및 리프리젠테이션 모델 간의 적합도에 따라, 상기 계산된 적합도가 임계값 미만인 클래스 데이터를 제거하여 상기 불균형 원본 데이터를 언더 샘플링(Under-sampling)하는 단계를 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체가 제공될 수 있다.As a computer-readable recording medium recording a program for executing a data processing method based on a representation model for unbalanced data according to embodiments of the present invention on a computer, the unbalanced original data is divided into a plurality of class data, Building a representation model for each class by learning each of the divided plurality of class data, and calculating by combining the plurality of class data and the constructed plurality of representation models, respectively A program for executing the step of under-sampling the unbalanced original data by removing class data whose calculated fitness is less than a threshold value according to the fit between the generated class data and the representation model is recorded by a computer A recording medium that can be used may be provided.

컴퓨터가 읽을 수 있는 기록 매체로는 컴퓨터 시스템에 의하여 해독될 수 있는 데이터가 저장된 모든 종류의 기록 매체를 포함한다. 예를 들어, ROM(Read Only Memory), RAM(Random Access Memory), 자기 테이프, 자기 디스크, 플래시 메모리, 광 데이터 저장장치 등이 있을 수 있다. 또한, 컴퓨터로 판독 가능한 기록매체는 컴퓨터 통신망으로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 읽을 수 있는 코드로서 저장되고 실행될 수 있다.Computer-readable recording media includes all kinds of recording media storing data that can be read by a computer system. For example, there may be a read only memory (ROM), a random access memory (RAM), a magnetic tape, a magnetic disk, a flash memory, and an optical data storage device. In addition, the computer-readable recording medium can be distributed in a computer system connected through a computer communication network, and stored and executed as code that can be read in a distributed manner.

이상, 도면 및 실시예를 참조하여 설명하였지만, 본 발명의 보호범위가 상기 도면 또는 실시예에 의해 한정되는 것을 의미하지는 않으며 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. Although the above has been described with reference to the drawings and examples, it does not mean that the scope of protection of the present invention is limited by the drawings or examples, and those skilled in the art are concerned with the scope of the present invention as described in the claims below. It will be appreciated that various modifications and changes can be made to the present invention without departing from the spirit and scope.

구체적으로, 설명된 특징들은 디지털 전자 회로, 또는 컴퓨터 하드웨어, 펌웨어, 또는 그들의 조합들 내에서 실행될 수 있다. 특징들은 예컨대, 프로그래밍 가능한 프로세서에 의한 실행을 위해, 기계 판독 가능한 저장 디바이스 내의 저장장치 내에서 구현되는 컴퓨터 프로그램 제품에서 실행될 수 있다. 그리고 특징들은 입력 데이터 상에서 동작하고 출력을 생성함으로써 설명된 실시예들의 함수들을 수행하기 위한 지시어들의 프로그램을 실행하는 프로그래밍 가능한 프로세서에 의해 수행될 수 있다. 설명된 특징들은, 데이터 저장 시스템으로부터 데이터 및 지시어들을 수신하기 위해, 및 데이터 저장 시스템으로 데이터 및 지시어들을 전송하기 위해, 결합된 적어도 하나의 프로그래밍 가능한 프로세서, 적어도 하나의 입력 디바이스, 및 적어도 하나의 출력 디바이스를 포함하는 프로그래밍 가능한 시스템 상에서 실행될 수 있는 하나 이상의 컴퓨터 프로그램들 내에서 실행될 수 있다. 컴퓨터 프로그램은 소정 결과에 대해 특정 동작을 수행하기 위해 컴퓨터 내에서 직접 또는 간접적으로 사용될 수 있는 지시어들의 집합을 포함한다. 컴퓨터 프로그램은 컴파일된 또는 해석된 언어들을 포함하는 프로그래밍 언어 중 어느 형태로 쓰여지고, 모듈, 소자, 서브루틴(subroutine), 또는 다른 컴퓨터 환경에서 사용을 위해 적합한 다른 유닛으로서, 또는 독립 조작 가능한 프로그램으로서 포함하는 어느 형태로도 사용될 수 있다.Specifically, the described features may be implemented in digital electronic circuitry, or computer hardware, firmware, or combinations thereof. Features may be executed in a computer program product implemented in storage in a machine-readable storage device, for example, for execution by a programmable processor. And the features can be performed by a programmable processor executing a program of directives to perform the functions of the described embodiments by operating on input data and generating output. The described features include at least one programmable processor, at least one input device, and at least one output coupled to receive data and directives from a data storage system and to transmit data and directives to the data storage system. It can be executed within one or more computer programs that can be executed on a programmable system comprising the device. A computer program includes a set of directives that can be used directly or indirectly within a computer to perform a specific action on a given result. A computer program is written in any form of a programming language, including compiled or interpreted languages, and is included as a module, element, subroutine, or other unit suitable for use in another computer environment, or as a independently operable program. It can be used in any form.

지시어들의 프로그램의 실행을 위한 적합한 프로세서들은, 예를 들어, 범용 및 특수 용도 마이크로프로세서들 둘 모두, 및 단독 프로세서 또는 다른 종류의 컴퓨터의 다중 프로세서들 중 하나를 포함한다. 또한 설명된 특징들을 구현하는 컴퓨터 프로그램 지시어들 및 데이터를 구현하기 적합한 저장 디바이스들은 예컨대, EPROM, EEPROM, 및 플래쉬 메모리 디바이스들과 같은 반도체 메모리 디바이스들, 내부 하드 디스크들 및 제거 가능한 디스크들과 같은 자기 디바이스들, 광자기 디스크들 및 CD-ROM 및 DVD-ROM 디스크들을 포함하는 비휘발성 메모리의 모든 형태들을 포함한다. 프로세서 및 메모리는 ASIC들(application-specific integrated circuits) 내에서 통합되거나 또는 ASIC들에 의해 추가될 수 있다.Suitable processors for execution of a program of directives include, for example, both general and special purpose microprocessors, and either a single processor or multiple processors of a different type of computer. Also suitable storage devices for implementing computer program directives and data implementing the described features include, for example, semiconductor memory devices such as EPROM, EEPROM, and flash memory devices, magnetic devices such as internal hard disks and removable disks. Devices, magneto-optical disks, and all types of nonvolatile memory including CD-ROM and DVD-ROM disks. The processor and memory may be integrated within application-specific integrated circuits (ASICs) or added by ASICs.

이상에서 설명한 본 발명은 일련의 기능 블록들을 기초로 설명되고 있지만, 전술한 실시 예 및 첨부된 도면에 의해 한정되는 것이 아니고, 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경 가능하다는 것이 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 있어 명백할 것이다.The present invention described above is described based on a series of functional blocks, but is not limited by the above-described embodiments and the accompanying drawings, and various substitutions, modifications, and changes within the scope not departing from the technical spirit of the present invention It will be apparent to those of ordinary skill in the art to which this invention pertains.

전술한 실시 예들의 조합은 전술한 실시 예에 한정되는 것이 아니며, 구현 및/또는 필요에 따라 전술한 실시예들 뿐 아니라 다양한 형태의 조합이 제공될 수 있다.Combinations of the above-described embodiments are not limited to the above-described embodiments, and various types of combinations may be provided as well as the above-described embodiments according to implementation and/or need.

전술한 실시 예들에서, 방법들은 일련의 단계 또는 블록으로서 순서도를 기초로 설명되고 있으나, 본 발명은 단계들의 순서에 한정되는 것은 아니며, 어떤 단계는 상술한 바와 다른 단계와 다른 순서로 또는 동시에 발생할 수 있다. 또한, 당해 기술 분야에서 통상의 지식을 가진 자라면 순서도에 나타난 단계들이 배타적이지 않고, 다른 단계가 포함되거나, 순서도의 하나 또는 그 이상의 단계가 본 발명의 범위에 영향을 미치지 않고 삭제될 수 있음을 이해할 수 있을 것이다.In the above-described embodiments, the methods are described on the basis of a flowchart as a series of steps or blocks, but the present invention is not limited to the order of steps, and certain steps may occur in a different order or concurrently with the steps described above. have. In addition, those skilled in the art may recognize that the steps shown in the flowchart are not exclusive, other steps may be included, or one or more steps in the flowchart may be deleted without affecting the scope of the present invention. You will understand.

전술한 실시 예는 다양한 양태의 예시들을 포함한다. 다양한 양태들을 나타내기 위한 모든 가능한 조합을 기술할 수는 없지만, 해당 기술 분야의 통상의 지식을 가진 자는 다른 조합이 가능함을 인식할 수 있을 것이다. 따라서, 본 발명은 이하의 특허청구범위 내에 속하는 모든 다른 교체, 수정 및 변경을 포함한다고 할 것이다.The above-described embodiments include examples of various aspects. It is not possible to describe all possible combinations for representing various aspects, but those skilled in the art will recognize that other combinations are possible. Accordingly, the present invention will be said to include all other replacements, modifications and changes falling within the scope of the following claims.

이상 도면 및 실시예를 참조하여 설명하였지만, 본 발명의 보호범위가 상기 도면 또는 실시예에 의해 한정되는 것을 의미하지는 않으며 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. Although the above description has been made with reference to the drawings and examples, it does not mean that the scope of protection of the present invention is limited by the drawings or examples, and those skilled in the art will have the spirit of the present invention as described in the claims below. And it will be understood that various modifications and changes can be made to the present invention without departing from the scope.

10: 데이터 처리 장치
11: 프로세서
12: 메모리
100; 언더 샘플링 장치
200: 분류기
110: 데이터 저장부
120: 모델 구축부
130: 적합도 계산부
140: 언더 샘플링부
10: data processing unit
11: processor
12: memory
100; Undersampling device
200: classifier
110: data storage unit
120: model building section
130: fitness calculation unit
140: under-sampling unit

Claims (21)

데이터 처리 장치에 의해 수행되는 불균형 데이터를 위한 데이터 처리 방법으로서,
불균형 원본 데이터를 복수의 클래스 데이터로 구분하고, 상기 구분된 복수의 클래스 데이터를 각각 학습하여 각각의 클래스에 대한 리프리젠테이션 모델(Representation model)을 구축하는 단계;
상기 복수의 클래스 데이터와 상기 구축된 복수의 리프리젠테이션 모델을 각각 조합하여 계산된 클래스 데이터 및 리프리젠테이션 모델 간의 적합도에 따라, 상기 계산된 적합도가 임계값 미만인 클래스 데이터를 제거하여 상기 불균형 원본 데이터를 언더 샘플링(Under-sampling)하는 단계;
상기 언더 샘플링된 불균형 원본 데이터를 분류기를 이용하여 분류하는 단계; 및
상기 분류기의 분류 결과, 분류기의 성능이 기설정된 분류 기준치 미만인 경우 상기 임계값을 업데이트하는 단계를 포함하는 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 방법.
A data processing method for unbalanced data performed by a data processing device, comprising:
Dividing the unbalanced original data into a plurality of class data, learning each of the separated plurality of class data, and constructing a representation model for each class;
According to the class data calculated by combining the plurality of class data and the plurality of constructed representation models, and the fitness between the representation model, the unbalanced original data by removing the class data whose calculated fitness is less than a threshold value. Under-sampling (Under-sampling);
Classifying the under-sampled unbalanced original data using a classifier; And
And updating the threshold value when the classification result of the classifier and the performance of the classifier is less than a preset classification criterion value, and updating the threshold value.
삭제delete 삭제delete 제1항에 있어서,
상기 임계값을 업데이트하는 단계는,
상기 임계값을 임계 조정값만큼 조정하는 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 방법.
The method of claim 1,
Updating the threshold value,
A data processing method based on a representation model for unbalanced data that adjusts the threshold value by a threshold adjustment value.
제1항에 있어서,
상기 모델을 구축하는 단계는,
각 클래스 데이터의 구조적 특징을 학습하여 각 클래스 데이터에 대한 리프리젠테이션 모델을 생성하는 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 방법.
The method of claim 1,
The step of building the model,
A data processing method based on a representation model for unbalanced data that creates a representation model for each class data by learning the structural features of each class data.
제1항에 있어서,
상기 모델을 구축하는 단계는,
각 클래스 데이터에 대한 리프리젠테이션 모델 생성 시, 각 클래스 데이터에 대한 리프리젠테이션 모델의 입력과 출력을 동일한 데이터로 설정하는 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 방법.
The method of claim 1,
The step of building the model,
When generating a representation model for each class data, a representation model-based data processing method for unbalanced data that sets the input and output of the representation model for each class data to the same data.
제1항에 있어서,
상기 리프리젠테이션 모델은,
오토 인코더(Auto-encoder) 구조를 사용하고, 복수의 층 구조와 정류된 선형 유닛(ReLU, Rectified Linear Unit) 함수로 이루어지는 인코더(encoder)와, 복수의 층 구조와 쌍곡선 탄젠트 함수(tanh, Hyperbolic Tangent) 함수로 이루어지는 디코더(decoder)를 포함하는 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 방법.
The method of claim 1,
The representation model,
An encoder that uses an auto-encoder structure and consists of a plurality of layer structures and a rectified linear unit (ReLU) function, and a plurality of layer structures and a hyperbolic tangent function (tanh, Hyperbolic Tangent). ) A data processing method based on a representation model for unbalanced data including a decoder consisting of a function.
제1항에 있어서,
상기 언더 샘플링하는 단계는,
상기 복수의 클래스 데이터 중에서 어느 하나의 클래스 데이터와, 상기 복수의 리프리젠테이션 모델 중에서 어느 하나의 리프리젠테이션 모델을 조합하여 데이터 및 모델 간의 적합도를 계산하는 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 방법.
The method of claim 1,
The under-sampling step,
Representation model-based data for unbalanced data for calculating a fit between data and models by combining any one class data among the plurality of class data and any one representation model among the plurality of representation models Processing method.
제1항에 있어서,
상기 언더 샘플링하는 단계는,
데이터 및 모델 간의 적합도 계산 시, 조합된 클래스 데이터의 인스턴스(instance)와 조합된 리프리젠테이션 모델 간의 복원 에러(reconstruction error)를 데이터 및 모델 간의 적합도로 계산하는 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 방법.
The method of claim 1,
The under-sampling step,
When calculating the fitness between data and models, a representation model-based representation model for unbalanced data that calculates the reconstruction error between instances of the combined class data and the combined representation model as the fit between the data and models. Data processing method.
제1항에 있어서,
상기 복수의 클래스 데이터 중에서 제2 클래스 데이터의 적합도가 특정값을 초과하는 제2 클래스 데이터의 집합 수가, 제1 클래스 데이터의 수 이상이고 제2 클래스 데이터의 수 미만인 경우에 상기 특정값을 탐색하여 임계값으로 정의하는 단계를 더 포함하는 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 방법.
The method of claim 1,
If the number of sets of second class data whose suitability of the second class data exceeds a specific value among the plurality of class data is greater than the number of first class data and less than the number of second class data, the specific value is searched and threshold A data processing method based on a representation model for unbalanced data, further comprising the step of defining as a value.
불균형 원본 데이터를 저장하는 메모리; 및
상기 메모리와 연결된 프로세서를 포함하고,
상기 프로세서는 불균형 원본 데이터를 복수의 클래스 데이터로 구분하고, 상기 구분된 복수의 클래스 데이터를 각각 학습하여 각각의 클래스에 대한 리프리젠테이션 모델(Representation model)을 구축하고,
상기 복수의 클래스 데이터와 상기 구축된 복수의 리프리젠테이션 모델을 각각 조합하여 계산된 클래스 데이터 및 리프리젠테이션 모델 간의 적합도에 따라, 상기 계산된 적합도가 임계값 미만인 클래스 데이터를 제거하여 상기 불균형 원본 데이터를 언더 샘플링(Under-sampling)하고,
상기 언더 샘플링된 불균형 원본 데이터를 분류하는 분류기를 더 포함하고,
상기 프로세서는, 상기 분류기의 분류 결과, 분류기의 성능이 기설정된 분류 기준치 미만인 경우 상기 임계값을 업데이트하는, 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 장치.
A memory for storing unbalanced original data; And
Including a processor connected to the memory,
The processor divides the unbalanced original data into a plurality of class data, learns each of the separated plurality of class data, and constructs a representation model for each class,
According to the class data calculated by combining the plurality of class data and the plurality of constructed representation models, and the fitness between the representation model, the unbalanced original data by removing the class data whose calculated fitness is less than a threshold value. Under-sampling,
Further comprising a classifier for classifying the under-sampled unbalanced original data,
The processor, as a result of the classification of the classifier, updates the threshold value when the performance of the classifier is less than a preset classification reference value, the data processing apparatus based on a representation model for unbalanced data.
삭제delete 삭제delete 제11항에 있어서,
상기 프로세서는,
상기 임계값을 임계 조정값만큼 조정하는 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 장치.
The method of claim 11,
The processor,
A data processing apparatus based on a representation model for unbalanced data that adjusts the threshold value by a threshold adjustment value.
제11항에 있어서,
상기 프로세서는,
각 클래스 데이터의 구조적 특징을 학습하여 각 클래스 데이터에 대한 리프리젠테이션 모델을 생성하는 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 장치.
The method of claim 11,
The processor,
A data processing device based on a representation model for unbalanced data that generates a representation model for each class data by learning structural features of each class data.
제11항에 있어서,
상기 프로세서는,
각 클래스 데이터에 대한 리프리젠테이션 모델 생성 시, 각 클래스 데이터에 대한 리프리젠테이션 모델의 입력과 출력을 동일한 데이터로 설정하는 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 장치.
The method of claim 11,
The processor,
A data processing device based on a representation model for unbalanced data that sets the input and output of the representation model for each class data to the same data when generating a representation model for each class data.
제11항에 있어서,
상기 리프리젠테이션 모델은,
오토 인코더(Auto-encoder) 구조를 사용하고, 복수의 층 구조와 정류된 선형 유닛(ReLU, Rectified Linear Unit) 함수로 이루어지는 인코더(encoder)와, 복수의 층 구조와 쌍곡선 탄젠트 함수(tanh, Hyperbolic Tangent) 함수로 이루어지는 디코더(decoder)를 포함하는 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 장치.
The method of claim 11,
The representation model,
An encoder that uses an auto-encoder structure and consists of a plurality of layer structures and a rectified linear unit (ReLU) function, and a plurality of layer structures and a hyperbolic tangent function (tanh, Hyperbolic Tangent). ) A data processing device based on a representation model for unbalanced data including a decoder made of a function.
제11항에 있어서,
상기 프로세서는,
상기 복수의 클래스 데이터 중에서 어느 하나의 클래스 데이터와, 상기 복수의 리프리젠테이션 모델 중에서 어느 하나의 리프리젠테이션 모델을 조합하여 데이터 및 모델 간의 적합도를 계산하는 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 장치.
The method of claim 11,
The processor,
Representation model-based data for unbalanced data for calculating a fit between data and models by combining any one class data among the plurality of class data and any one representation model among the plurality of representation models Processing unit.
제11항에 있어서,
상기 프로세서는,
데이터 및 모델 간의 적합도 계산 시, 조합된 클래스 데이터의 인스턴스(instance)와 조합된 리프리젠테이션 모델 간의 복원 에러(reconstruction error)를 데이터 및 모델 간의 적합도로 계산하는 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 장치.
The method of claim 11,
The processor,
When calculating the fitness between data and models, a representation model-based representation model for unbalanced data that calculates the reconstruction error between instances of the combined class data and the combined representation model as the fit between the data and models. Data processing unit.
제11항에 있어서,
상기 프로세서는,
상기 복수의 클래스 데이터 중에서 제2 클래스 데이터의 적합도가 특정값을 초과하는 제2 클래스 데이터의 집합 수가, 제1 클래스 데이터의 수 이상이고 제2 클래스 데이터의 수 미만인 경우에 상기 특정값을 탐색하여 임계값으로 정의하는 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 장치.
The method of claim 11,
The processor,
If the number of sets of second class data whose suitability of the second class data exceeds a specific value among the plurality of class data is greater than the number of first class data and less than the number of second class data, the specific value is searched and threshold A data processing device based on a representation model for unbalanced data defined by values.
불균형 데이터를 위한 리프리젠테이션 모델 기반의 언더 샘플링 방법을 컴퓨터에 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체로서,
불균형 원본 데이터를 복수의 클래스 데이터로 구분하고, 상기 구분된 복수의 클래스 데이터를 각각 학습하여 각각의 클래스에 대한 리프리젠테이션 모델(Representation model)을 구축하는 단계;
상기 복수의 클래스 데이터와 상기 구축된 복수의 리프리젠테이션 모델을 각각 조합하여 계산된 클래스 데이터 및 리프리젠테이션 모델 간의 적합도에 따라, 상기 계산된 적합도가 임계값 미만인 클래스 데이터를 제거하여 상기 불균형 원본 데이터를 언더 샘플링(Under-sampling)하는 단계;
상기 언더 샘플링된 불균형 원본 데이터를 분류기를 이용하여 분류하는 단계; 및
상기 분류기의 분류 결과, 분류기의 성능이 기설정된 분류 기준치 미만인 경우 상기 임계값을 업데이트하는 단계를 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
As a computer-readable recording medium that records a program for executing an undersampling method based on a representation model for unbalanced data on a computer,
Dividing the unbalanced original data into a plurality of class data, learning each of the separated plurality of class data, and constructing a representation model for each class;
According to the class data calculated by combining the plurality of class data and the plurality of constructed representation models, and the fitness between the representation model, the unbalanced original data by removing the class data whose calculated fitness is less than a threshold value. Under-sampling (Under-sampling);
Classifying the under-sampled unbalanced original data using a classifier; And
As a result of the classification of the classifier, when the performance of the classifier is less than a preset classification reference value, a computer-readable recording medium storing a program for executing the step of updating the threshold value.
KR1020180106142A 2018-09-05 2018-09-05 Methods and apparatuses for processing data based on representation model for unbalanced data KR102144010B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180106142A KR102144010B1 (en) 2018-09-05 2018-09-05 Methods and apparatuses for processing data based on representation model for unbalanced data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180106142A KR102144010B1 (en) 2018-09-05 2018-09-05 Methods and apparatuses for processing data based on representation model for unbalanced data

Publications (2)

Publication Number Publication Date
KR20200027834A KR20200027834A (en) 2020-03-13
KR102144010B1 true KR102144010B1 (en) 2020-08-12

Family

ID=69938610

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180106142A KR102144010B1 (en) 2018-09-05 2018-09-05 Methods and apparatuses for processing data based on representation model for unbalanced data

Country Status (1)

Country Link
KR (1) KR102144010B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220014744A (en) 2020-07-29 2022-02-07 서강대학교산학협력단 Data preprocessing system based on a reinforcement learning and method thereof
CN112966778B (en) * 2021-03-29 2024-03-15 上海冰鉴信息科技有限公司 Data processing method and device for unbalanced sample data
CN117828356B (en) * 2024-03-01 2024-05-28 天津师范大学 Binary collaborative data balance optimization method, system and storage medium

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH096799A (en) * 1995-06-19 1997-01-10 Sharp Corp Document sorting device and document retrieving device
KR101563406B1 (en) * 2013-12-13 2015-10-26 건국대학교 산학협력단 System and method for large unbalanced data classification based on hadoop

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
오주혁 외 1인, 클래스 불균형 데이터 분류를 위한 군집화 기반 언더샘플링 기법, 대한산업공학회 추계학술대회논문집, 2017. 11. pp. 1910-1916.*
이재동 외 1인, 불균형 데이터의 효과적인 학습을 위한 딥러닝 기법, 한국지능시스템학회 학술발표논문집 25(1), 2015.04. pp. 113-114.*

Also Published As

Publication number Publication date
KR20200027834A (en) 2020-03-13

Similar Documents

Publication Publication Date Title
JP6743934B2 (en) Method, apparatus and system for estimating causal relationship between observed variables
KR102144010B1 (en) Methods and apparatuses for processing data based on representation model for unbalanced data
Bolukbasi et al. Adaptive neural networks for fast test-time prediction
CN113692594A (en) Fairness improvement through reinforcement learning
CN110674865B (en) Rule learning classifier integration method oriented to software defect class distribution unbalance
US20210073669A1 (en) Generating training data for machine-learning models
KR102281819B1 (en) Auto Encoder Ensemble Based Anomaly Detection Method and System
US11562294B2 (en) Apparatus and method for analyzing time-series data based on machine learning
CN114139676A (en) Training method of domain adaptive neural network
US11816080B2 (en) Severity computation of anomalies in information technology operations
EP3745317A1 (en) Apparatus and method for analyzing time series data based on machine learning
CN110070131A (en) A kind of Active Learning Method of data-oriented driving modeling
CN111627428A (en) Method for constructing compressed speech recognition model
Sharma et al. A new hardware Trojan detection technique using class weighted XGBoost classifier
US20230169176A1 (en) Graph exploration framework for adversarial example generation
CN110705622A (en) Decision-making method and system and electronic equipment
Liu et al. Improved conformer-based end-to-end speech recognition using neural architecture search
CN112801231B (en) Decision model training method and device for business object classification
CN109271614A (en) A kind of data duplicate checking method
KR20210111677A (en) Method for clipping neural networks, method for calculating convolution of neural networks and apparatus for performing the methods
CN112527959A (en) News classification method based on pooling-free convolution embedding and attention distribution neural network
CN113839799A (en) Alarm association rule mining method and device
CN114793170B (en) DNS tunnel detection method, system, equipment and terminal based on open set identification
KR102572192B1 (en) Auto Encoder Ensemble Based Anomaly Detection Method and System
JP7242590B2 (en) Machine learning model compression system, pruning method and program

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant