KR20200027834A - 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 방법 및 장치 - Google Patents

불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 방법 및 장치 Download PDF

Info

Publication number
KR20200027834A
KR20200027834A KR1020180106142A KR20180106142A KR20200027834A KR 20200027834 A KR20200027834 A KR 20200027834A KR 1020180106142 A KR1020180106142 A KR 1020180106142A KR 20180106142 A KR20180106142 A KR 20180106142A KR 20200027834 A KR20200027834 A KR 20200027834A
Authority
KR
South Korea
Prior art keywords
data
class
unbalanced
representation model
model
Prior art date
Application number
KR1020180106142A
Other languages
English (en)
Other versions
KR102144010B1 (ko
Inventor
임윤규
김누리
이지형
이상헌
Original Assignee
성균관대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 성균관대학교산학협력단 filed Critical 성균관대학교산학협력단
Priority to KR1020180106142A priority Critical patent/KR102144010B1/ko
Publication of KR20200027834A publication Critical patent/KR20200027834A/ko
Application granted granted Critical
Publication of KR102144010B1 publication Critical patent/KR102144010B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • G06F16/353Clustering; Classification into predefined classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

본 발명은 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 방법 및 장치에 관한 것으로, 본 발명의 일 실시 예에 따른 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 방법은, 불균형 원본 데이터를 복수의 클래스 데이터로 구분하고, 상기 구분된 복수의 클래스 데이터를 각각 학습하여 각각의 클래스에 대한 리프리젠테이션 모델(Representation model)을 구축하는 단계, 및 상기 복수의 클래스 데이터와 상기 구축된 복수의 리프리젠테이션 모델을 각각 조합하여 계산된 클래스 데이터 및 리프리젠테이션 모델 간의 적합도에 따라, 상기 계산된 적합도가 임계값 미만인 클래스 데이터를 제거하여 상기 불균형 원본 데이터를 언더 샘플링(Under-sampling)하는 단계를 포함한다.

Description

불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 방법 및 장치{METHODS AND APPARATUSES FOR PROCESSING DATA BASED ON REPRESENTATION MODEL FOR UNBALANCED DATA}
본 발명은 불균형 데이터를 위한 데이터 처리 기술에 관한 것으로, 보다 상세하게는, 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 방법 및 장치에 관한 것이다.
데이터 분석을 통한 예측은 주로 과거데이터를 기반으로 학습을 통한 데이터마이닝 기법 중 분류분석(Classification)을 통해 이루어진다. 분류분석은 주어지는 학습데이터를 학습하여 답을 얻고자 하는 목표 변수에 판단 기준이 되는 학습모델을 만들고, 이를 기반으로 새로운 예측 변수로 이루어진 데이터가 주어졌을 때, 모델은 결과를 기존 내용을 모방하여 예측한다. 이런 일련의 작업과정을 위해서는 충분한 학습데이터 확보가 필요하다.
기존에 존재하는 데이터와 계속적으로 새로운 데이터들이 생성되지만, 새로운 예측모델을 만드는 것 외에도 예측 모델의 구축에는 몇 가지 문제점이 있다.
첫 번째 문제로는 데이터의 불균형 문제이다. 데이터의 불균형이란 하나의 데이터 셋에서 관측되는 데이터 집단들 간에 관측 크기 차이가 크게 나는 것으로, 신용카드 회원 중 기존 회원과 탈퇴 회원, 우리나라의 기상 중 맑은 날씨와 태풍, 통신사 고객 중 기존 회원과 탈퇴 회원, 또는 교통 데이터 중 비사고 관련 데이터와 사고 관련 데이터와 같은 데이터가 관측되는 수의 차이가 현저히 차이 나는 것을 말한다. 이런 데이터의 불균형인 상태로 학습을 진행하고 학습모델을 생성한다면, 학습 모델은 관측 수가 큰 결과만을 예상하는 왜곡된 결과 값만을 예측하게 된다.
데이터 불균형 문제를 해결하기 위해 가중치(Weight)를 활용하는 방법과 샘플링(Sampling)방법이 있다.
가중치 활용 방법은 관측 수가 적은 데이터에는 높은 가중치를 부여하고 관측 수가 많은 데이터에는 낮은 가중치를 부여하여 가중치 값을 참조하여 분석 모델을 생성하는 방법이다. 이는 가중치 값을 정하는 것과 결과 분석에 대한 계산 복잡도를 야기한다.
샘플링 방법은 관측되는 수가 적은 클래스 데이터는 모두 사용하며 관측 수가 큰 클래스의 데이터는 일부만을 사용하는 언더 샘플링(Under-Sampling)과 관측되는 수가 많은 클래스 데이터는 모두 사용하며 관측 수가 적은 클래스의 데이터는 증대시켜 사용하는 오버 샘플링(Over-Sampling)이 있다.
언더 샘플링은 전체 데이터에서 일부를 손해 본 후 계산이 수행된다. 이를 통해 데이터의 처리속도 측면에서는 유리할 수 있지만, 데이터의 신뢰도는 손실할 수밖에 없다. 오버 샘플링은 전체 데이터를 모두 활용할 수 있다는 장점이 있지만, 대용량 데이터인 경우 전체 데이터에서 추가로 데이터가 더 발생하기 때문에 데이터를 처리하기 위한 더 많은 자원을 요구한다.
종래 샘플링 기술은 불균형 환경을 개선하기 위해 데이터의 전체적인 구조적 특징을 고려하지 않고 지역적인 정보만으로 불균형도를 완화하였다. 이로 인해 불균형 환경에서 서로 다른 클래스에 속하는 데이터들의 분포가 중첩되어 클래스 간의 구분이 모호해지는 오버랩핑(overlapping) 등의 구조적 문제에 취약하다.
본 발명의 실시 예들은 리프리젠테이션 모델(representation model)을 통해 불균형 데이터의 구조적 특징을 파악하고, 파악된 구조적 특징을 기반으로 언더 샘플링(under-sampling)함으로써, 데이터의 불균형도를 완화하여 분류 성능을 개선할 수 있는, 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 방법 및 장치에 관한 것이다.
본 발명의 실시 예들은 리프리젠테이션 모델을 통해 불균형 데이터의 전체적인 구조적 특징을 파악하고, 이러한 특징에 부합하지 않는 데이터를 언더 샘플링하여 불균형도를 완화함으로써, 인공지능을 이용한 데이터 분류 성능을 향상할 수 있는, 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 방법 및 장치에 관한 것이다.
본 발명의 일 실시 예에 따르면, 데이터 처리 장치에 의해 수행되는 불균형 데이터를 위한 데이터 처리 방법으로서, 불균형 원본 데이터를 복수의 클래스 데이터로 구분하고, 상기 구분된 복수의 클래스 데이터를 각각 학습하여 각각의 클래스에 대한 리프리젠테이션 모델(Representation model)을 구축하는 단계; 및 상기 복수의 클래스 데이터와 상기 구축된 복수의 리프리젠테이션 모델을 각각 조합하여 계산된 클래스 데이터 및 리프리젠테이션 모델 간의 적합도에 따라, 상기 계산된 적합도가 임계값 미만인 클래스 데이터를 제거하여 상기 불균형 원본 데이터를 언더 샘플링(Under-sampling)하는 단계를 포함하는 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 방법이 제공될 수 있다.
상기 방법은, 상기 언더 샘플링된 불균형 원본 데이터를 분류기를 이용하여 분류하는 단계를 더 포함할 수 있다.
상기 방법은, 상기 분류기의 분류 결과, 분류기의 성능이 기설정된 분류 기준치 미만인 경우 상기 임계값을 업데이트하는 단계를 더 포함할 수 있다.
상기 임계값을 업데이트하는 단계는, 상기 임계값을 임계 조정값만큼 조정할 수 있다.
상기 모델을 구축하는 단계는, 각 클래스 데이터의 구조적 특징을 학습하여 각 클래스 데이터에 대한 리프리젠테이션 모델을 생성할 수 있다.
상기 모델을 구축하는 단계는, 각 클래스 데이터에 대한 리프리젠테이션 모델 생성 시, 각 클래스 데이터에 대한 리프리젠테이션 모델의 입력과 출력을 동일한 데이터로 설정할 수 있다.
상기 리프리젠테이션 모델은, 오토 인코더(Auto-encoder) 구조를 사용하고, 복수의 층 구조와 정류된 선형 유닛(ReLU, Rectified Linear Unit) 함수로 이루어지는 인코더(encoder)와, 복수의 층 구조와 쌍곡선 탄젠트 함수(tanh, Hyperbolic Tangent) 함수로 이루어지는 디코더(decoder)를 포함할 수 있다.
상기 언더 샘플링하는 단계는, 상기 복수의 클래스 데이터 중에서 어느 하나의 클래스 데이터와, 상기 복수의 리프리젠테이션 모델 중에서 어느 하나의 리프리젠테이션 모델을 조합하여 데이터 및 모델 간의 적합도를 계산할 수 있다.
상기 언더 샘플링하는 단계는, 데이터 및 모델 간의 적합도 계산 시, 조합된 클래스 데이터의 인스턴스(instance)와 조합된 리프리젠테이션 모델 간의 복원 에러(reconstruction error)를 데이터 및 모델 간의 적합도로 계산할 수 있다.
상기 방법은, 상기 복수의 클래스 데이터 중에서 제2 클래스 데이터의 적합도가 특정값을 초과하는 제2 클래스 데이터의 집합 수가, 제1 클래스 데이터의 수 이상이고 제2 클래스 데이터의 수 미만인 경우에 상기 특정값을 탐색하여 임계값으로 정의하는 단계를 더 포함할 수 있다.
본 발명의 다른 실시 예에 따르면, 불균형 원본 데이터를 저장하는 메모리; 및 상기 메모리와 연결된 프로세서를 포함하고, 상기 프로세서는 불균형 원본 데이터를 복수의 클래스 데이터로 구분하고, 상기 구분된 복수의 클래스 데이터를 각각 학습하여 각각의 클래스에 대한 리프리젠테이션 모델(Representation model)을 구축하고, 상기 복수의 클래스 데이터와 상기 구축된 복수의 리프리젠테이션 모델을 각각 조합하여 계산된 클래스 데이터 및 리프리젠테이션 모델 간의 적합도에 따라, 상기 계산된 적합도가 임계값 미만인 클래스 데이터를 제거하여 상기 불균형 원본 데이터를 언더 샘플링(Under-sampling)하는 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 장치가 제공될 수 있다.
상기 장치는, 상기 언더 샘플링된 불균형 원본 데이터를 분류하는 분류기를 더 포함할 수 있다.
상기 프로세서는, 상기 분류기의 분류 결과, 분류기의 성능이 기설정된 분류 기준치 미만인 경우 상기 임계값을 업데이트할 수 있다.
상기 프로세서는, 상기 임계값을 임계 조정값만큼 조정할 수 있다.
상기 프로세서는, 각 클래스 데이터의 구조적 특징을 학습하여 각 클래스 데이터에 대한 리프리젠테이션 모델을 생성할 수 있다.
상기 프로세서는, 각 클래스 데이터에 대한 리프리젠테이션 모델 생성 시, 각 클래스 데이터에 대한 리프리젠테이션 모델의 입력과 출력을 동일한 데이터로 설정할 수 있다.
상기 리프리젠테이션 모델은, 오토 인코더(Auto-encoder) 구조를 사용하고, 복수의 층 구조와 정류된 선형 유닛(ReLU, Rectified Linear Unit) 함수로 이루어지는 인코더(encoder)와, 복수의 층 구조와 쌍곡선 탄젠트 함수(tanh, Hyperbolic Tangent) 함수로 이루어지는 디코더(decoder)를 포함할 수 있다.
상기 프로세서는, 상기 복수의 클래스 데이터 중에서 어느 하나의 클래스 데이터와, 상기 복수의 리프리젠테이션 모델 중에서 어느 하나의 리프리젠테이션 모델을 조합하여 데이터 및 모델 간의 적합도를 계산할 수 있다.
상기 프로세서는, 데이터 및 모델 간의 적합도 계산 시, 조합된 클래스 데이터의 인스턴스(instance)와 조합된 리프리젠테이션 모델 간의 복원 에러(reconstruction error)를 데이터 및 모델 간의 적합도로 계산할 수 있다.
상기 프로세서는, 상기 복수의 클래스 데이터 중에서 제2 클래스 데이터의 적합도가 특정값을 초과하는 제2 클래스 데이터의 집합 수가, 제1 클래스 데이터의 수 이상이고 제2 클래스 데이터의 수 미만인 경우에 상기 특정값을 탐색하여 임계값으로 정의할 수 있다.
본 발명의 다른 실시 예에 따르면, 불균형 데이터를 위한 리프리젠테이션 모델 기반의 언더 샘플링 방법을 컴퓨터에 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체로서, 불균형 원본 데이터를 복수의 클래스 데이터로 구분하고, 상기 구분된 복수의 클래스 데이터를 각각 학습하여 각각의 클래스에 대한 리프리젠테이션 모델(Representation model)을 구축하는 단계; 및 상기 복수의 클래스 데이터와 상기 구축된 복수의 리프리젠테이션 모델을 각각 조합하여 계산된 클래스 데이터 및 리프리젠테이션 모델 간의 적합도에 따라 상기 불균형 원본 데이터를 언더 샘플링(Under-sampling)하는 단계를 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체가 제공될 수 있다.
본 발명의 실시 예들은 리프리젠테이션 모델(representation model)을 통해 불균형 데이터의 구조적 특징을 파악하고, 파악된 구조적 특징을 기반으로 언더 샘플링(under-sampling)함으로써, 데이터의 불균형도를 완화하여 분류 성능을 개선할 수 있다.
본 발명의 실시 예들은 리프리젠테이션 모델을 통해 불균형 데이터의 전체적인 구조적 특징을 파악하고, 이러한 특징에 부합하지 않는 데이터를 언더 샘플링하여 불균형도를 완화함으로써, 인공지능을 이용한 데이터 분류 성능을 향상할 수 있다.
도 1은 본 발명의 일 실시 예에 따른 데이터 처리 장치의 전체 구조를 설명하기 위한 도면이다.
도 2는 본 발명의 일 실시 예에 따른 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 방법을 설명하기 위한 도면이다.
도 3은 본 발명의 일 실시 예에 따른 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 방법의 상세 흐름을 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시 예에서 사용되는 리프리젠테이션 모델의 구조를 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시 예에 사용된 적합도의 정의를 설명하기 위한 도면이다.
도 6은 본 발명의 일 실시 예에서 사용된 임계값을 계산하는 수식을 설명하기 위한 도면이다.
도 7은 본 발명의 일 실시 예와 다양한 기법들 간의 실험 비교 결과를 설명하기 위한 도면이다.
도 8은 본 발명의 일 실시 예에 따른 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 장치의 구성을 설명하기 위한 구성도이다.
도 9는 본 발명의 다른 실시 예에 따른 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 장치의 구성을 설명하기 위한 구성도이다.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는바, 특정 실시 예들을 도면에 예시하고 상세하게 설명하고자 한다.
그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.
도 1은 본 발명의 일 실시 예에 따른 데이터 처리 장치의 전체 구조를 설명하기 위한 도면이다.
도 1에 도시된 바와 같이, 본 발명의 일 실시 예에 따른 데이터 처리 장치(10)는 언더 샘플링 장치(100) 및 분류기(10)를 포함한다.
도 1과 같이, 불균형 원본 데이터는 복수의 클래스 데이터로 구분되고, 구체적으로 제1 클래스 데이터 및 제2 클래스 데이터로 구분되는 경우를 일례로 살펴보기로 한다.
여기서, 제1 클래스 데이터는 불균형 원본 데이터의 메이저 클래스(Major class) 데이터를 나타낸다. 제2 클래스 데이터는 불균형 원본 데이터의 마이너 클래스(Minor class) 데이터를 나타낸다.
제품의 불량을 감지하기 위한 불균형 원본 데이터의 일례를 설명하기로 한다.
제조 공정에서 제품의 불량 여부를 판단하기 위하여 여러 단계의 검사 과정이 이루어진다. 과정마다 센서 또는 검사기를 통한 막대한 정보가 수집될 수 있다.
일반적으로 불량제품보다 정상제품의 수가 많기 때문에, 정상 클래스 및 불량 클래스 간 데이터 수의 불균형이 발생할 수 있다. 이러한 불균형은 기계학습을 이용한 분류 시 성능을 악화시키는 요인이 될 수 있다. 또한, 모든 데이터를 이용한 경우 수집된 데이터의 크기가 매우 크기 때문에, 기계학습 모델 학습과정에 소모되는 시간이 클 수 있다.
다른 예로, 영화의 흥행 여부를 예측하기 위한 불균형 원본 데이터의 일례를 설명하기로 한다.
영화의 흥행 여부를 판단하기 위하여 영화 흥행에 필요한 여러가지 데이터가 수집될 수 있다.
일반적으로 흥행이 되는 영화보다는 흥행이 안되는 영화의 수가 많기 때문에, 미흥행 영화 클래스 및 흥행 영화 클래스 간 데이터 수의 불균형이 발생할 수 있다. 이러한 불균형은 기계학습을 이용한 분류 시 성능을 악화시키는 요인이 될 수 있다. 또한, 모든 데이터를 이용한 경우 수집된 데이터의 크기가 매우 크기 때문에, 기계학습 모델 학습과정에 소모되는 시간이 클 수 있다.
이러한 적용 예들을 위해, 본 발명의 일 실시 예에 따른 데이터 처리 장치(10)는 각 클래스에 대한 리프리젠테이션 모델을 기반으로 정보 손실을 최소화하며 데이터의 수를 줄이는 언더 샘플링 기법을 이용한다. 이를 통해, 데이터 처리 장치(10)는 데이터 감소로 인한 학습시간 감소와 불균형도 개선을 통한 기계학습 분류기(200)의 성능을 향상시킬 수 있다.
본 발명의 일 실시 예에 따른 언더 샘플링 장치(100)는 우선 불균형 원본 데이터를 메이저 클래스 데이터와 마이너 클래스 데이터로 나눈다. 그리고 언더 샘플링 장치(100)는 메이저 클래스 데이터와 마이너 클래스 데이터 각각에 대해 각각의 리프리젠테이션 모델(representation model)을 학습시켜 각 클래스 데이터의 전체적인 데이터의 구조적 특징을 파악한다.
이후, 본 발명의 일 실시 예에 따른 언더 샘플링 장치(100)는 불균형 원본 데이터의 메이저 클래스 데이터 및 마이너 클래스 데이터를 각각의 리프리젠테이션 모델에 통과시켜, 각 데이터와 각 리프리젠테이션 모델 간의 적합도를 계산한다. 이는 실험방법에 따라 달라질 수 있다. 여기서, 본 발명의 일 실시 예에 따른 언더 샘플링 장치(100)는 가장 좋은 성능을 보이는 최적의 임계값을 탐색한다. 최적의 임계값을 바탕으로 부적합한 데이터를 제거하고 분류기(200)를 학습시킨다.
도 2는 본 발명의 일 실시 예에 따른 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 방법을 설명하기 위한 도면이다.
도 2에 도시된 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 방법은 본 발명의 일 실시 예에 따른 데이터 처리 장치(10)에 의해 수행된다.
S101 단계에서, 데이터 처리 장치(10)는, 불균형 원본 데이터를 복수의 클래스 데이터로 구분하고, 그 구분된 복수의 클래스 데이터를 각각 학습하여 각각의 클래스에 대한 리프리젠테이션 모델을 구축한다.
S102 단계에서, 데이터 처리 장치(10)는, 복수의 클래스 데이터와 구축된 복수의 리프리젠테이션 모델을 각각 조합하여 데이터 및 모델 간의 적합도를 계산한다.
S103 단계에서, 데이터 처리 장치(10)는, 계산된 적합도가 임계값 미만인 클래스 데이터를 제거하여 불균형 원본 데이터를 언더 샘플링한다.
도 3은 본 발명의 일 실시 예에 따른 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 방법의 상세 흐름을 설명하기 위한 도면이다.
우선, S201 내지 S208 단계에서, 데이터 처리 장치(10)는, 불균형 원본 데이터를 메이저 클래스 데이터와 마이너 클래스 데이터로 나누고, 각 데이터를 이용하여 리프리젠테이션 모델을 학습한다.
S201 단계에서, 데이터 처리 장치(10)는, 각 클래스 데이터의 수가 서로 다른 불균형 원본 데이터를 입력받는다.
S202 단계에서, 데이터 처리 장치(10)는, 입력된 불균형 원본 데이터 중에서 메이저 클래스 데이터인지를 구분한다.
상기 확인 결과(S202), 입력된 불균형 원본 데이터 중에서 메이저 클래스 데이터가 아닌 경우, 데이터 처리 장치(10)는, S203 단계에서, 마이너 클래스 데이터를 저장한다.
S204 단계에서, 데이터 처리 장치(10)는, 마이너 클래스 데이터를 학습한다.
S205 단계에서, 데이터 처리 장치(10)는, 마이너 클래스 데이터에 대한 학습 결과를 이용하여 마이너 클래스에 대한 리프리젠테이션 모델을 구축한다.
한편, 상기 확인 결과(S202), 입력된 불균형 원본 데이터 중에서 메이저 클래스 데이터인 경우, 데이터 처리 장치(10)는, S206 단계에서, 메이저 클래스 데이터를 저장한다.
S207 단계에서, 데이터 처리 장치(10)는, 메이저 클래스 데이터를 학습한다.
S208 단계에서, 데이터 처리 장치(10)는, 메이저 클래스 데이터에 대한 학습 결과를 이용하여 메이저 클래스에 대한 리프리젠테이션 모델을 구축한다.
이후, S209 단계에서, 데이터 처리 장치(10)는, 메이저 클래스 데이터와 마이너 클래스에 대한 리프리젠테이션 모델을 이용하여 적합도 E(x)를 계산한다.
S210 단계에서, 데이터 처리 장치(10)는, 적합도가 임계값 T 미만인지를 확인한다.
S211 단계에서, 데이터 처리 장치(10)는, 적합도가 임계값 T 미만이면, 메이저 클래스 데이터에 대해 언더 샘플링을 적용한다.
반면, 적합도가 임계값 T 이상이면, 데이터 처리 장치(10)는, S212 단계에서, 적합도가 임계값 이상인 메이저 클래스 데이터와, 불균형 원본 데이터 중에서 마이너 클래스 데이터를 더한다.
이를 통해, S213 단계에서, 데이터 처리 장치(10)는, 언더 샘플링된 메이저 클래스 데이터와 더해진 마이너 클래스 데이터를 새로운 원본 데이터를 얻는다.
S214 단계에서, 데이터 처리 장치(10)는, 새로운 원본 데이터를 이용하여 분류기(200)를 학습시킨다.
S215 단계에서, 데이터 처리 장치(10)는, 분류기(200)의 성능이 기설정된 분류 기준치 미만인지를 확인한다.
S215 단계에서, 데이터 처리 장치(10)는, 분류기(200)의 성능이 기설정된 분류 기준치 미만인 경우, 임계값을 업데이트한다.
반면, 데이터 처리 장치(10)는, 분류기(200)의 성능이 기설정된 분류 기준치 이상인 경우, 리프리젠테이션 모델 기반의 데이터 처리 과정을 종료한다.
이와 같이, S215 내지 S215 단계를 통해, 데이터 처리 장치(10)는, 분류기(200) 학습을 수행하여 새로운 원본 데이터에 대한 분류기(200)의 성능을 측정한다. 그리고 데이터 처리 장치(10)는, 분류기(200) 성능이 기준보다 낮은 경우, 임계값 T를 업데이트하고 다시 언더 샘플링을 적용하는 과정을 반복할 수 있다.
도 4는 본 발명의 일 실시 예에서 사용되는 리프리젠테이션 모델의 구조를 설명하기 위한 도면이다.
도 4에는 본 발명의 일 실시 예에 따른 데이터 처리 장치(10)에서 사용되는 딥 리프리젠테이션 모델(Deep representation model)이 도시되어 있다. 본 발명의 일 실시 예에 따른 데이터 처리 장치(10)는 불균형 원본 데이터의 구조적 문제에 대응하기 위해 각 클래스 데이터의 속성을 학습하는 딥 리프리젠테이션 모델을 이용한다.
딥 리프리젠테이션 모델은 오토 인코더(Auto-encoder) 구조를 사용한다. 딥 리프리젠테이션 모델은 인코더(encoder, 510)와, 디코더(decoder, 520)로 이루어진다. 인코더(510)는 복수의 층 구조와 정류된 선형 유닛(ReLU, Rectified Linear Unit) 함수로 이루어진다. 일례로, 인코더(510)는 7개의 층 구조와 ReLU 함수로 이루어질 수 있다. 디코더(520)는 복수의 층 구조와 쌍곡선 탄젠트 함수(tanh, Hyperbolic Tangent) 함수로 이루어진다. 일례로, 디코더(520)는 4개의 층 구조와 tanh 함수로 이루어질 수 있다.
여기서, 리프리젠테이션 모델의 입력과 출력은 동일한 데이터로 설정될 수 있다. 본 발명의 일 실시 예에 따른 데이터 처리 장치(10) 이러한 리프리젠테이션 모델을 통해 메이저 클래스 데이터와 마이너 클래스 데이터의 구조적 특징을 학습하고 추출할 수 있다.
도 5는 본 발명의 일 실시 예에 사용된 적합도의 정의를 설명하기 위한 도면이다.
도 5에는 본 발명의 일 실시 예에서 사용된 적합도의 정의가 도시되어 있다.
클래스별 구조적 특징을 파악하기 위해, 일례로, 데이터 처리 장치(10)는 메이저 클래스 데이터를 이용하여 학습된 모델 M과 마이너 클래스 데이터를 이용하여 학습된 모델 m을 구축할 수 있다. 각 모델은 학습에 이용된 클래스의 데이터 분포를 파악하고 있으므로 이를 조합하여 각 클래스의 구조적 적합도를 계산한다. 적합도는 부합도로 지칭될 수 있다. 적합도는 딥 리프리젠테이션 모델의 복원 에러(reconstruction error) E로 판단될 수 있다. E는 도 6의 수식과 같이 표현된다.
x는 입력 데이터, f는 M 또는 m 모델을 의미한다. mD는 원본 데이터의 마이너 클래스 데이터, MD는 원본 데이터의 메이저 클래스 데이터를 의미한다. x는 mD와 MD의 인스턴스(instance)이다. M은 원본 데이터의 메이저 클래스 데이터만으로 학습된 메이저 클래스에 대한 리프리젠테이션 모델, m은 원본 데이터의 마이너 클래스 데이터만으로 학습된 리프리젠테이션 모델을 나타낸다.
데이터 처리 장치(10)는 메이저 클래스 데이터의 인스턴스(instance) x의 마이너 클래스에 대한 리프리젠테이션 모델에 대한 적합도를 계산하기 위하여, 마이너 클래스 모델에 대한 E를 계산한다. 메이저 클래스 데이터는 마이너 클래스 데이터로 학습된 딥 리프리젠테이션 모델을 통해 계산한 E가 임계값보다 큰 값을 가져야 한다. 임계값보다 작은 값을 가진 경우, 데이터 처리 장치(10)는 해당 인스턴스 x가 마이너 클래스의 특징을 갖고 있는 것이므로 이를 제거한다. 데이터 처리 장치(10)는 반대로 메이저 클래스의 인스턴스 x를 메이저 클래스에 대한 리프리젠테이션 모델에 대한 E를 계산하거나, 마이너 클래스의 인스턴스 x를 마이너 클래스에 대한 리프리젠테이션 모델에 대한 E를 계산하는 것도 가능하다.
실험 방법에 따라 x와 f는 여러 가지 방법으로 조합될 수 있다. 예를 들어, 각각의 조합에는 마이너 클래스 데이터(mD)와 메이저 클래스에 대한 리프리젠테이션 모델(M)의 조합 1, 마이너 클래스 데이터(mD)와 마이너 클래스에 대한 리프리젠테이션 모델(m)의 조합 2, 메이저 클래스 데이터(MD)와 마이너 클래스에 대한 리프리젠테이션 모델(m)의 조합 3, 및 메이저 클래스 데이터(MD)와 메이저 클래스에 대한 리프리젠테이션 모델(M)의 조합 4이 포함될 수 있다.
도 6은 본 발명의 일 실시 예에서 사용된 임계값을 계산하는 수식을 설명하기 위한 도면이다.
도 6에는 본 발명의 일 실시 예에서 사용된 적합/부적합을 결정하는 임계값을 계산하는 수식이 도시되어 있다.
불균형 원본 데이터에서 각 클래스 데이터의 언더 샘플링을 적용하기 위해서, 데이터 처리 장치(10)는 부합 여부를 정하는 임계값을 정의해야 한다. 적합/부적합을 결정하는 임계값 T는 도 7에 도시된 수식을 만족하는 값을 탐색하여 결정한다.
mD는 마이너 클래스 데이터, MD는 메이저 클래스 데이터, n(mD)는 마이너 클래스 데이터의 수, n(MD)는 메이저 클래스 데이터의 수, U는 메이저 클래스에 대한 리프리젠테이션 모델에 대한 복원 에러 E가 임계값보다 큰 메이저 클래스 데이터의 집합이다. r는 실험에 따라 0부터 1 사이의 값으로 설정된다.
도 7은 본 발명의 일 실시 예와 다양한 기법들 간의 실험 비교 결과를 설명하기 위한 도면이다.
도 7에는 본 발명의 일 실시 예와 다양한 기법들 간의 실험 비교 결과가 도시되어 있다.
우선, 본 발명의 일 실시 예와 종래의 베이스라인(baseline)들과 비교한 결과, 11개의 데이터 셋에 대해 데이터의 수, 불균형도 등에 대한 편향 없이 대부분의 실험 데이터에서 본 발명의 일 실시 예가 우수한 성능을 보인다.
구체적으로 살펴보면, 본 발명의 일 실시 예에서 실험 데이터는 KEEL-데이터세트(dataset) 저장소에서 수집한 다양한 불균형도를 가진 데이터를 이용한다. 각 데이터는 3-18차원으로 이루어져 있으며, 데이터의 수는 214-1484개 사이이다. 실험 데이터는 -1과 1사이 값으로 스케일링(scaling) 된다.
여기서, 딥 리프리젠테이션 모델 오토 인코더 구조를 사용하며, 인코더 부분은 7개의 층 구조와 ReLU로 이루어져 있고, 디코더 부분은 4개의 층 구조와 tanh로 이루어져 있다.
각 클래스에 대한 모델의 학습은 NAG를 이용하며, 러닝 레이트(learning rate)는 0.1, 감소(decay)는 1e-6, 모멘텀(momentum)은 0.9이다. 분류기(200)는 방사 기저 함수-서포트 벡터 머신(rbf-SVM, radial basis function-support vector machine)을 이용하며 C의 값은 1로 고정한다. 불균형 데이터에 적용하여 얻은 데이터의 분류 성능이 얼마나 향상되는지를 평가한다.
성능 비교를 위한 평가지표는 4겹 교차 검증(4-fold cross-validation)을 통해 얻은 마이너 클래스 데이터의 f1-스코어(f1-score) 평균값이다. 비교 평가 대상은 분류기(200)만 사용한 베이스라인(baseline), 본 발명의 일 실시예와, 랜덤 오버 샘플링(random over-sampling), 랜덤 언더 샘플링(random under-sampling), SMOTE(Synthetic Minority Over-sampling Technique), NCR(neighbourhood cleaning rule), nearmiss3, 클러스터 센트로이드(cluster centroid)를 사용하였다. 평가 대상 중 각 샘플링 기법에서 좋은 성능을 보인 SMOTE, 클러스터 센트로이드(cluster centroid)와 베이스라인(baseline), 본 발명의 일 실시 예를 11개의 실험 데이터에 대해 분류 성능을 비교한 결과, 본 발명의 일 실시 예는 데이터의 수, 불균형도 등에 대한 편향 없이 11개 중 8개의 데이터 셋에서 가장 좋은 성능을 보였다. 이에 따라, 본 발명의 일 실시 예를 이용하여 데이터의 분류 성능을 향상시킬 수 있다.
도 8은 본 발명의 일 실시 예에 따른 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 장치의 구성을 설명하기 위한 구성도이다.
도 8에 도시된 바와 같이, 본 발명의 일 실시 예에 따른 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 장치(10)는 프로세서(11), 메모리(12) 및 분류기(200)를 포함한다. 그러나 도시된 구성요소 모두가 필수 구성요소인 것은 아니다. 도시된 구성요소보다 많은 구성요소에 의해 데이터 처리 장치(10)가 구현될 수도 있고, 그보다 적은 구성요소에 의해서도 데이터 처리 장치(10)가 구현될 수 있다.
이하, 도 8의 데이터 처리 장치(10)의 각 구성요소들의 구체적인 구성 및 동작을 설명한다.
메모리(12)는 불균형 원본 데이터를 저장할 수 있다. 메모리(12)는 언더 샘플링된 불균형 원본 데이터를 저장할 수 있다. 또한, 메모리(12)는 복수의 클래스 데이터와 구축된 복수의 리프리젠테이션 모델을 저장할 수 있다.
프로세서(11)는 불균형 원본 데이터를 복수의 클래스 데이터로 구분하고, 그 구분된 복수의 클래스 데이터를 각각 학습하여 각각의 클래스에 대한 리프리젠테이션 모델(Representation model)을 구축한다. 그리고 프로세서(11)는 복수의 클래스 데이터와 구축된 복수의 리프리젠테이션 모델을 각각 조합하여 데이터 및 모델 간의 적합도를 계산한다. 이후, 프로세서(11)는 계산된 적합도가 임계값 미만인 클래스 데이터를 제거하여 불균형 원본 데이터를 언더 샘플링(Under-sampling)한다.
프로세서(11)는 불균형 원본 데이터를 복수의 클래스 데이터로 구분하고, 그 구분된 복수의 클래스 데이터를 각각 학습하여 각각의 클래스에 대한 리프리젠테이션 모델(Representation model)을 구축할 수 있다.
프로세서(11)는, 각 클래스 데이터의 구조적 특징을 학습하고 추출하여 각 클래스 데이터에 대한 리프리젠테이션 모델을 생성할 수 있다.
프로세서(11)는, 각 클래스 데이터에 대한 리프리젠테이션 모델 생성 시, 각 클래스 데이터에 대한 리프리젠테이션 모델의 입력과 출력을 동일한 데이터로 설정할 수 있다. 리프리젠테이션 모델은, 오토 인코더(Auto-encoder) 구조를 사용하고, 복수의 층 구조와 정류된 선형 유닛(ReLU, Rectified Linear Unit) 함수로 이루어지는 인코더(encoder)와, 복수의 층 구조와 쌍곡선 탄젠트 함수(tanh, Hyperbolic Tangent) 함수로 이루어지는 디코더(decoder)를 포함할 수 있다.
프로세서(11)는 모델 구축부(120)에서 구분된 복수의 클래스 데이터와 모델 구축부(120)에서 구축된 복수의 리프리젠테이션 모델을 각각 조합하여 데이터 및 모델 간의 적합도를 계산할 수 있다.
여기서, 프로세서(11)는, 복수의 클래스 데이터 중에서 어느 하나의 클래스 데이터와, 복수의 리프리젠테이션 모델 중에서 어느 하나의 리프리젠테이션 모델을 조합하여 데이터 및 모델 간의 적합도를 계산할 수 있다.
프로세서(11)는 적합도 계산부(130)에서 계산된 적합도가 임계값 미만인 클래스 데이터를 제거하여 불균형 원본 데이터를 언더 샘플링할 수 있다.
여기서, 프로세서(11)는, 분류기(200)의 분류 결과, 분류기(200)의 성능이 기설정된 분류 기준치 미만인 경우 상기 임계값을 업데이트할 수 있다. 프로세서(11)는, 임계값을 임계 조정값만큼 조정할 수 있다.
분류기(200)는 프로세서(11)에서 언더 샘플링된 불균형 원본 데이터를 분류할 수 있다.
도 9는 본 발명의 다른 실시 예에 따른 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 장치의 구성을 설명하기 위한 구성도이다.
도 9에 도시된 바와 같이, 본 발명의 다른 실시 예에 따른 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 장치(10)는 언더 샘플링 장치(100) 및 분류기(200)를 포함한다. 그러나 도시된 구성요소 모두가 필수 구성요소인 것은 아니다. 도시된 구성요소보다 많은 구성요소에 의해 데이터 처리 장치(10)가 구현될 수도 있고, 그보다 적은 구성요소에 의해서도 데이터 처리 장치(10)가 구현될 수 있다.
이하, 도 9의 데이터 처리 장치(10)의 각 구성요소들의 구체적인 구성 및 동작을 설명한다.
언더 샘플링 장치(100)는 불균형 원본 데이터를 복수의 클래스 데이터로 구분하고, 그 구분된 복수의 클래스 데이터를 각각 학습하여 각각의 클래스에 대한 리프리젠테이션 모델(Representation model)을 구축한다. 그리고 언더 샘플링 장치(100)는 복수의 클래스 데이터와 구축된 복수의 리프리젠테이션 모델을 각각 조합하여 데이터 및 모델 간의 적합도를 계산한다. 이후, 언더 샘플링 장치(100)는 계산된 적합도가 임계값 미만인 클래스 데이터를 제거하여 불균형 원본 데이터를 언더 샘플링(Under-sampling)한다.
분류기(200)는 언더 샘플링 장치(100)에서 언더 샘플링된 불균형 원본 데이터를 분류한다.
본 발명의 실시 예에 따른, 언더 샘플링 장치(100)는 데이터 저장부(110), 모델 구축부(120), 적합도 계산부(130) 및 언더 샘플링부(140)를 포함할 수 있다.
이하, 언더 샘플링 장치(100)의 각 구성요소들의 구체적인 구성 및 동작을 설명한다.
데이터 저장부(110)는 불균형 원본 데이터를 저장할 수 있다.
모델 구축부(120)는 불균형 원본 데이터를 복수의 클래스 데이터로 구분하고, 그 구분된 복수의 클래스 데이터를 각각 학습하여 각각의 클래스에 대한 리프리젠테이션 모델(Representation model)을 구축할 수 있다.
여기서, 상기 모델 구축부(120)는, 각 클래스 데이터의 구조적 특징을 학습하고 추출하여 각 클래스 데이터에 대한 리프리젠테이션 모델을 생성할 수 있다.
모델 구축부(120)는, 각 클래스 데이터에 대한 리프리젠테이션 모델 생성 시, 각 클래스 데이터에 대한 리프리젠테이션 모델의 입력과 출력을 동일한 데이터로 설정할 수 있다. 리프리젠테이션 모델은, 오토 인코더(Auto-encoder) 구조를 사용하고, 복수의 층 구조와 정류된 선형 유닛(ReLU, Rectified Linear Unit) 함수로 이루어지는 인코더(encoder)와, 복수의 층 구조와 쌍곡선 탄젠트 함수(tanh, Hyperbolic Tangent) 함수로 이루어지는 디코더(decoder)를 포함할 수 있다.
적합도 계산부(130)는 모델 구축부(120)에서 구분된 복수의 클래스 데이터와 모델 구축부(120)에서 구축된 복수의 리프리젠테이션 모델을 각각 조합하여 데이터 및 모델 간의 적합도를 계산할 수 있다.
여기서, 적합도 계산부(130)는, 복수의 클래스 데이터 중에서 어느 하나의 클래스 데이터와, 복수의 리프리젠테이션 모델 중에서 어느 하나의 리프리젠테이션 모델을 조합하여 데이터 및 모델 간의 적합도를 계산할 수 있다.
언더 샘플링부(140)는 적합도 계산부(130)에서 계산된 적합도가 임계값 미만인 클래스 데이터를 제거하여 불균형 원본 데이터를 언더 샘플링할 수 있다.
여기서, 상기 언더 샘플링부(140)는, 분류기(200)의 분류 결과, 분류기(200)의 성능이 기설정된 분류 기준치 미만인 경우 상기 임계값을 업데이트할 수 있다. 언더 샘플링부(140)는, 임계값을 임계 조정값만큼 조정할 수 있다.
상술한 본 발명의 실시 예들에 따른 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 방법은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현되는 것이 가능하다. 본 발명의 실시 예들에 따른 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터로 읽을 수 있는 기록매체에 기록될 수 있다.
본 발명의 실시 예들에 따른 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 방법을 컴퓨터에 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체로서, 불균형 원본 데이터를 복수의 클래스 데이터로 구분하고, 상기 구분된 복수의 클래스 데이터를 각각 학습하여 각각의 클래스에 대한 리프리젠테이션 모델(Representation model)을 구축하는 단계, 및 상기 복수의 클래스 데이터와 상기 구축된 복수의 리프리젠테이션 모델을 각각 조합하여 계산된 클래스 데이터 및 리프리젠테이션 모델 간의 적합도에 따라, 상기 계산된 적합도가 임계값 미만인 클래스 데이터를 제거하여 상기 불균형 원본 데이터를 언더 샘플링(Under-sampling)하는 단계를 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체가 제공될 수 있다.
컴퓨터가 읽을 수 있는 기록 매체로는 컴퓨터 시스템에 의하여 해독될 수 있는 데이터가 저장된 모든 종류의 기록 매체를 포함한다. 예를 들어, ROM(Read Only Memory), RAM(Random Access Memory), 자기 테이프, 자기 디스크, 플래시 메모리, 광 데이터 저장장치 등이 있을 수 있다. 또한, 컴퓨터로 판독 가능한 기록매체는 컴퓨터 통신망으로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 읽을 수 있는 코드로서 저장되고 실행될 수 있다.
이상, 도면 및 실시예를 참조하여 설명하였지만, 본 발명의 보호범위가 상기 도면 또는 실시예에 의해 한정되는 것을 의미하지는 않으며 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
구체적으로, 설명된 특징들은 디지털 전자 회로, 또는 컴퓨터 하드웨어, 펌웨어, 또는 그들의 조합들 내에서 실행될 수 있다. 특징들은 예컨대, 프로그래밍 가능한 프로세서에 의한 실행을 위해, 기계 판독 가능한 저장 디바이스 내의 저장장치 내에서 구현되는 컴퓨터 프로그램 제품에서 실행될 수 있다. 그리고 특징들은 입력 데이터 상에서 동작하고 출력을 생성함으로써 설명된 실시예들의 함수들을 수행하기 위한 지시어들의 프로그램을 실행하는 프로그래밍 가능한 프로세서에 의해 수행될 수 있다. 설명된 특징들은, 데이터 저장 시스템으로부터 데이터 및 지시어들을 수신하기 위해, 및 데이터 저장 시스템으로 데이터 및 지시어들을 전송하기 위해, 결합된 적어도 하나의 프로그래밍 가능한 프로세서, 적어도 하나의 입력 디바이스, 및 적어도 하나의 출력 디바이스를 포함하는 프로그래밍 가능한 시스템 상에서 실행될 수 있는 하나 이상의 컴퓨터 프로그램들 내에서 실행될 수 있다. 컴퓨터 프로그램은 소정 결과에 대해 특정 동작을 수행하기 위해 컴퓨터 내에서 직접 또는 간접적으로 사용될 수 있는 지시어들의 집합을 포함한다. 컴퓨터 프로그램은 컴파일된 또는 해석된 언어들을 포함하는 프로그래밍 언어 중 어느 형태로 쓰여지고, 모듈, 소자, 서브루틴(subroutine), 또는 다른 컴퓨터 환경에서 사용을 위해 적합한 다른 유닛으로서, 또는 독립 조작 가능한 프로그램으로서 포함하는 어느 형태로도 사용될 수 있다.
지시어들의 프로그램의 실행을 위한 적합한 프로세서들은, 예를 들어, 범용 및 특수 용도 마이크로프로세서들 둘 모두, 및 단독 프로세서 또는 다른 종류의 컴퓨터의 다중 프로세서들 중 하나를 포함한다. 또한 설명된 특징들을 구현하는 컴퓨터 프로그램 지시어들 및 데이터를 구현하기 적합한 저장 디바이스들은 예컨대, EPROM, EEPROM, 및 플래쉬 메모리 디바이스들과 같은 반도체 메모리 디바이스들, 내부 하드 디스크들 및 제거 가능한 디스크들과 같은 자기 디바이스들, 광자기 디스크들 및 CD-ROM 및 DVD-ROM 디스크들을 포함하는 비휘발성 메모리의 모든 형태들을 포함한다. 프로세서 및 메모리는 ASIC들(application-specific integrated circuits) 내에서 통합되거나 또는 ASIC들에 의해 추가될 수 있다.
이상에서 설명한 본 발명은 일련의 기능 블록들을 기초로 설명되고 있지만, 전술한 실시 예 및 첨부된 도면에 의해 한정되는 것이 아니고, 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경 가능하다는 것이 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 있어 명백할 것이다.
전술한 실시 예들의 조합은 전술한 실시 예에 한정되는 것이 아니며, 구현 및/또는 필요에 따라 전술한 실시예들 뿐 아니라 다양한 형태의 조합이 제공될 수 있다.
전술한 실시 예들에서, 방법들은 일련의 단계 또는 블록으로서 순서도를 기초로 설명되고 있으나, 본 발명은 단계들의 순서에 한정되는 것은 아니며, 어떤 단계는 상술한 바와 다른 단계와 다른 순서로 또는 동시에 발생할 수 있다. 또한, 당해 기술 분야에서 통상의 지식을 가진 자라면 순서도에 나타난 단계들이 배타적이지 않고, 다른 단계가 포함되거나, 순서도의 하나 또는 그 이상의 단계가 본 발명의 범위에 영향을 미치지 않고 삭제될 수 있음을 이해할 수 있을 것이다.
전술한 실시 예는 다양한 양태의 예시들을 포함한다. 다양한 양태들을 나타내기 위한 모든 가능한 조합을 기술할 수는 없지만, 해당 기술 분야의 통상의 지식을 가진 자는 다른 조합이 가능함을 인식할 수 있을 것이다. 따라서, 본 발명은 이하의 특허청구범위 내에 속하는 모든 다른 교체, 수정 및 변경을 포함한다고 할 것이다.
이상 도면 및 실시예를 참조하여 설명하였지만, 본 발명의 보호범위가 상기 도면 또는 실시예에 의해 한정되는 것을 의미하지는 않으며 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
10: 데이터 처리 장치
11: 프로세서
12: 메모리
100; 언더 샘플링 장치
200: 분류기
110: 데이터 저장부
120: 모델 구축부
130: 적합도 계산부
140: 언더 샘플링부

Claims (21)

  1. 데이터 처리 장치에 의해 수행되는 불균형 데이터를 위한 데이터 처리 방법으로서,
    불균형 원본 데이터를 복수의 클래스 데이터로 구분하고, 상기 구분된 복수의 클래스 데이터를 각각 학습하여 각각의 클래스에 대한 리프리젠테이션 모델(Representation model)을 구축하는 단계; 및
    상기 복수의 클래스 데이터와 상기 구축된 복수의 리프리젠테이션 모델을 각각 조합하여 계산된 클래스 데이터 및 리프리젠테이션 모델 간의 적합도에 따라, 상기 계산된 적합도가 임계값 미만인 클래스 데이터를 제거하여 상기 불균형 원본 데이터를 언더 샘플링(Under-sampling)하는 단계를 포함하는 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 방법.
  2. 제1항에 있어서,
    상기 언더 샘플링된 불균형 원본 데이터를 분류기를 이용하여 분류하는 단계를 더 포함하는 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 방법.
  3. 제2항에 있어서,
    상기 분류기의 분류 결과, 분류기의 성능이 기설정된 분류 기준치 미만인 경우 상기 임계값을 업데이트하는 단계를 더 포함하는 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 방법.
  4. 제3항에 있어서,
    상기 임계값을 업데이트하는 단계는,
    상기 임계값을 임계 조정값만큼 조정하는 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 방법.
  5. 제1항에 있어서,
    상기 모델을 구축하는 단계는,
    각 클래스 데이터의 구조적 특징을 학습하여 각 클래스 데이터에 대한 리프리젠테이션 모델을 생성하는 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 방법.
  6. 제1항에 있어서,
    상기 모델을 구축하는 단계는,
    각 클래스 데이터에 대한 리프리젠테이션 모델 생성 시, 각 클래스 데이터에 대한 리프리젠테이션 모델의 입력과 출력을 동일한 데이터로 설정하는 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 방법.
  7. 제1항에 있어서,
    상기 리프리젠테이션 모델은,
    오토 인코더(Auto-encoder) 구조를 사용하고, 복수의 층 구조와 정류된 선형 유닛(ReLU, Rectified Linear Unit) 함수로 이루어지는 인코더(encoder)와, 복수의 층 구조와 쌍곡선 탄젠트 함수(tanh, Hyperbolic Tangent) 함수로 이루어지는 디코더(decoder)를 포함하는 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 방법.
  8. 제1항에 있어서,
    상기 언더 샘플링하는 단계는,
    상기 복수의 클래스 데이터 중에서 어느 하나의 클래스 데이터와, 상기 복수의 리프리젠테이션 모델 중에서 어느 하나의 리프리젠테이션 모델을 조합하여 데이터 및 모델 간의 적합도를 계산하는 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 방법.
  9. 제1항에 있어서,
    상기 언더 샘플링하는 단계는,
    데이터 및 모델 간의 적합도 계산 시, 조합된 클래스 데이터의 인스턴스(instance)와 조합된 리프리젠테이션 모델 간의 복원 에러(reconstruction error)를 데이터 및 모델 간의 적합도로 계산하는 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 방법.
  10. 제1항에 있어서,
    상기 복수의 클래스 데이터 중에서 제2 클래스 데이터의 적합도가 특정값을 초과하는 제2 클래스 데이터의 집합 수가, 제1 클래스 데이터의 수 이상이고 제2 클래스 데이터의 수 미만인 경우에 상기 특정값을 탐색하여 임계값으로 정의하는 단계를 더 포함하는 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 방법.
  11. 불균형 원본 데이터를 저장하는 메모리; 및
    상기 메모리와 연결된 프로세서를 포함하고,
    상기 프로세서는 불균형 원본 데이터를 복수의 클래스 데이터로 구분하고, 상기 구분된 복수의 클래스 데이터를 각각 학습하여 각각의 클래스에 대한 리프리젠테이션 모델(Representation model)을 구축하고,
    상기 복수의 클래스 데이터와 상기 구축된 복수의 리프리젠테이션 모델을 각각 조합하여 계산된 클래스 데이터 및 리프리젠테이션 모델 간의 적합도에 따라, 상기 계산된 적합도가 임계값 미만인 클래스 데이터를 제거하여 상기 불균형 원본 데이터를 언더 샘플링(Under-sampling)하는 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 장치.
  12. 제11항에 있어서,
    상기 언더 샘플링된 불균형 원본 데이터를 분류하는 분류기를 더 포함하는 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 장치.
  13. 제12항에 있어서,
    상기 프로세서는,
    상기 분류기의 분류 결과, 분류기의 성능이 기설정된 분류 기준치 미만인 경우 상기 임계값을 업데이트하는 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 장치.
  14. 제13항에 있어서,
    상기 프로세서는,
    상기 임계값을 임계 조정값만큼 조정하는 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 장치.
  15. 제11항에 있어서,
    상기 프로세서는,
    각 클래스 데이터의 구조적 특징을 학습하여 각 클래스 데이터에 대한 리프리젠테이션 모델을 생성하는 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 장치.
  16. 제11항에 있어서,
    상기 프로세서는,
    각 클래스 데이터에 대한 리프리젠테이션 모델 생성 시, 각 클래스 데이터에 대한 리프리젠테이션 모델의 입력과 출력을 동일한 데이터로 설정하는 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 장치.
  17. 제11항에 있어서,
    상기 리프리젠테이션 모델은,
    오토 인코더(Auto-encoder) 구조를 사용하고, 복수의 층 구조와 정류된 선형 유닛(ReLU, Rectified Linear Unit) 함수로 이루어지는 인코더(encoder)와, 복수의 층 구조와 쌍곡선 탄젠트 함수(tanh, Hyperbolic Tangent) 함수로 이루어지는 디코더(decoder)를 포함하는 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 장치.
  18. 제11항에 있어서,
    상기 프로세서는,
    상기 복수의 클래스 데이터 중에서 어느 하나의 클래스 데이터와, 상기 복수의 리프리젠테이션 모델 중에서 어느 하나의 리프리젠테이션 모델을 조합하여 데이터 및 모델 간의 적합도를 계산하는 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 장치.
  19. 제11항에 있어서,
    상기 프로세서는,
    데이터 및 모델 간의 적합도 계산 시, 조합된 클래스 데이터의 인스턴스(instance)와 조합된 리프리젠테이션 모델 간의 복원 에러(reconstruction error)를 데이터 및 모델 간의 적합도로 계산하는 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 장치.
  20. 제11항에 있어서,
    상기 프로세서는,
    상기 복수의 클래스 데이터 중에서 제2 클래스 데이터의 적합도가 특정값을 초과하는 제2 클래스 데이터의 집합 수가, 제1 클래스 데이터의 수 이상이고 제2 클래스 데이터의 수 미만인 경우에 상기 특정값을 탐색하여 임계값으로 정의하는 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 장치.
  21. 불균형 데이터를 위한 리프리젠테이션 모델 기반의 언더 샘플링 방법을 컴퓨터에 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체로서,
    불균형 원본 데이터를 복수의 클래스 데이터로 구분하고, 상기 구분된 복수의 클래스 데이터를 각각 학습하여 각각의 클래스에 대한 리프리젠테이션 모델(Representation model)을 구축하는 단계; 및
    상기 복수의 클래스 데이터와 상기 구축된 복수의 리프리젠테이션 모델을 각각 조합하여 계산된 클래스 데이터 및 리프리젠테이션 모델 간의 적합도에 따라 상기 불균형 원본 데이터를 언더 샘플링(Under-sampling)하는 단계를 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
KR1020180106142A 2018-09-05 2018-09-05 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 방법 및 장치 KR102144010B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180106142A KR102144010B1 (ko) 2018-09-05 2018-09-05 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 방법 및 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180106142A KR102144010B1 (ko) 2018-09-05 2018-09-05 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20200027834A true KR20200027834A (ko) 2020-03-13
KR102144010B1 KR102144010B1 (ko) 2020-08-12

Family

ID=69938610

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180106142A KR102144010B1 (ko) 2018-09-05 2018-09-05 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 방법 및 장치

Country Status (1)

Country Link
KR (1) KR102144010B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112966778A (zh) * 2021-03-29 2021-06-15 上海冰鉴信息科技有限公司 针对不平衡样本数据的数据处理方法及装置
KR20220014744A (ko) 2020-07-29 2022-02-07 서강대학교산학협력단 강화 학습을 기반으로 한 데이터 전처리 시스템 및 방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0750266A1 (en) * 1995-06-19 1996-12-27 Sharp Kabushiki Kaisha Document classification unit and document retrieval unit
KR20150069424A (ko) * 2013-12-13 2015-06-23 건국대학교 산학협력단 하둡 기반의 대용량 불균형 데이터 분류분석 시스템 및 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0750266A1 (en) * 1995-06-19 1996-12-27 Sharp Kabushiki Kaisha Document classification unit and document retrieval unit
KR20150069424A (ko) * 2013-12-13 2015-06-23 건국대학교 산학협력단 하둡 기반의 대용량 불균형 데이터 분류분석 시스템 및 방법

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
오주혁 외 1인, 클래스 불균형 데이터 분류를 위한 군집화 기반 언더샘플링 기법, 대한산업공학회 추계학술대회논문집, 2017. 11. pp. 1910-1916.* *
이재동 외 1인, 불균형 데이터의 효과적인 학습을 위한 딥러닝 기법, 한국지능시스템학회 학술발표논문집 25(1), 2015.04. pp. 113-114.* *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220014744A (ko) 2020-07-29 2022-02-07 서강대학교산학협력단 강화 학습을 기반으로 한 데이터 전처리 시스템 및 방법
CN112966778A (zh) * 2021-03-29 2021-06-15 上海冰鉴信息科技有限公司 针对不平衡样本数据的数据处理方法及装置
CN112966778B (zh) * 2021-03-29 2024-03-15 上海冰鉴信息科技有限公司 针对不平衡样本数据的数据处理方法及装置

Also Published As

Publication number Publication date
KR102144010B1 (ko) 2020-08-12

Similar Documents

Publication Publication Date Title
Sewak et al. Comparison of deep learning and the classical machine learning algorithm for the malware detection
JP6743934B2 (ja) 観測変数間の因果関係を推定するための方法、装置、およびシステム
Baldwin et al. Leveraging support vector machine for opcode density based detection of crypto-ransomware
Hodgson Reducing the computational requirements of the minimum-distance classifier
CN111753290A (zh) 软件类型的检测方法及相关设备
CN112052451A (zh) 一种webshell检测方法和装置
CN110070131A (zh) 一种面向数据驱动建模的主动学习方法
KR20200027834A (ko) 불균형 데이터를 위한 리프리젠테이션 모델 기반의 데이터 처리 방법 및 장치
Zhang et al. Threshold moving approaches for addressing the class imbalance problem and their application to multi-label classification
Sharma et al. A new hardware trojan detection technique using class weighted XGBoost classifier
US11816080B2 (en) Severity computation of anomalies in information technology operations
CN110705622A (zh) 一种决策方法、系统以及电子设备
CN112527959B (zh) 基于无池化卷积嵌入和注意分布神经网络的新闻分类方法
Suebsing et al. A novel technique for feature subset selection based on cosine similarity
CN109271614A (zh) 一种数据查重方法
US11645539B2 (en) Machine learning-based techniques for representing computing processes as vectors
CN114793170B (zh) 基于开集识别dns隧道检测方法、系统、设备及终端
US20230169176A1 (en) Graph exploration framework for adversarial example generation
CN115829712A (zh) 数据信息安全分级方法及装置
CN115935208A (zh) 一种数据中心设备多元时间序列运行数据在线分割方法、设备及介质
Bishnu et al. Application of k-medoids with kd-tree for software fault prediction
Lapertot et al. Supervised Learning of Hierarchical Image Segmentation
CN109299260B (zh) 数据分类方法、装置以及计算机可读存储介质
Wu et al. Detecting Vulnerabilities in Ethereum Smart Contracts with Deep Learning
CN113839799A (zh) 一种告警关联规则挖掘方法及装置

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant