KR20230110138A - Self-Diagnosing Generative Adversarial Networks to Diagnose and Emphasize Underrepresented Samples - Google Patents

Self-Diagnosing Generative Adversarial Networks to Diagnose and Emphasize Underrepresented Samples Download PDF

Info

Publication number
KR20230110138A
KR20230110138A KR1020220032061A KR20220032061A KR20230110138A KR 20230110138 A KR20230110138 A KR 20230110138A KR 1020220032061 A KR1020220032061 A KR 1020220032061A KR 20220032061 A KR20220032061 A KR 20220032061A KR 20230110138 A KR20230110138 A KR 20230110138A
Authority
KR
South Korea
Prior art keywords
neural network
score
generative adversarial
underrepresentation
data
Prior art date
Application number
KR1020220032061A
Other languages
Korean (ko)
Inventor
정혜원
이진희
김해리
홍영규
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Publication of KR20230110138A publication Critical patent/KR20230110138A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Complex Calculations (AREA)

Abstract

생성적 적대 신경망(GAN, Generative Adversarial Network)을 기반으로 데이터를 생성하는 기술이 개시된다. 데이터 생성 방법은, 생성적 적대 신경망의 학습 과정에서 각 학습 데이터의 과소 표현된 정도를 나타내는 과소표현 점수를 측정하는 단계; 및 상기 과소표현 점수에 기반한 가중 샘플링(weighted sampling)을 통해 상기 생성적 적대 신경망을 추가 학습하는 단계를 포함한다.A technology for generating data based on a Generative Adversarial Network (GAN) is disclosed. The data generation method includes measuring an underrepresentation score indicating an underrepresentation degree of each training data in a learning process of a generative adversarial network; and additionally learning the generative adversarial neural network through weighted sampling based on the underrepresentation score.

Description

과소 표현된 데이터를 스스로 진단하고 강조하는 생성적 적대 신경망 설계{Self-Diagnosing Generative Adversarial Networks to Diagnose and Emphasize Underrepresented Samples}Design of generative adversarial networks that self-diagnose and highlight underrepresented data {Self-Diagnosing Generative Adversarial Networks to Diagnose and Emphasize Underrepresented Samples}

아래의 설명은 인공 신경망 모델을 이용하여 다양한 데이터를 생성하는 기술에 관한 것이다.The following description relates to a technique for generating various data using an artificial neural network model.

인공지능 기술은 다방면의 산업 분야에 활용되고 있으며, 이미지 분류, 이미지 생성, 언어 생성 등 다양한 일을 수행한다.Artificial intelligence technology is used in various industrial fields and performs various tasks such as image classification, image generation, and language generation.

인공지능 기술 중 생성 모델은 이미지, 언어 등의 학습 데이터가 주어졌을 때 해당 데이터의 분포를 학습하여 학습 데이터와 유사한 가상의 생성 데이터를 만들어내는 것을 목표로 한다.Among artificial intelligence technologies, generative models aim to create virtual generated data similar to the learning data by learning the distribution of the data when given learning data such as images and language.

이러한 생성 모델은 다양한 산업 분야에 활용될 수 있다.This generative model can be utilized in various industries.

인공지능 모델 학습을 위하여 다량의 데이터가 필요한 실정이고, 데이터의 부족 문제에 대응하기 위하여 생성 모델을 통해 가상 데이터를 생성하는 방안이 효과적으로 활용될 수 있다.A large amount of data is required for learning artificial intelligence models, and a method of generating virtual data through a generative model can be effectively used to cope with the problem of lack of data.

또, 생성 모델을 가상 현실이 대두되는 산업 상황에서 가상 현실 내에 활용할 가상 인물 사진이나 음성 등을 만드는 데에 활용할 수 있다.In addition, the generative model can be used to create virtual portraits or voices to be used in virtual reality in an industrial situation where virtual reality is emerging.

생성 모델 중 생성적 적대 신경망(GAN: Generative Adversarial Networks)은 실제와 같은 품질의 가상 데이터를 생성할 수 있는 효과적인 성능으로 다양한 산업 분야에서 활용되고 있다.Among generative models, generative adversarial networks (GANs) are used in various industries due to their effective performance capable of generating virtual data of the same quality as real ones.

그러나, 생성적 적대 신경망의 문제점은 생성 데이터의 질이 높음에도 불구하고 학습 데이터의 전체가 아닌 일부만을 표현하여 생성된 가상 데이터의 다양성이 제한된다는 점에 있다.However, the problem of the generative adversarial neural network is that the variety of generated virtual data is limited because it expresses only a part of the training data, not the whole, despite the high quality of the generated data.

특히, 특정 학습 데이터 샘플이 전체 데이터 내에 상대적으로 적게 분포하는 소수 특징을 가지고 있을 경우 해당 데이터의 생성 성능이 다른 데이터 대비 현저히 낮다는 것이 알려져 있다.In particular, it is known that when a specific training data sample has a relatively small number of features distributed within the entire data, the generation performance of the corresponding data is significantly lower than that of other data.

1. Goodfellow et al., Generative Adversarial Networks, 20141. Goodfellow et al., Generative Adversarial Networks, 2014

2. 한국공개특허 제10-2021-0048100호 (생성적 적대 신경망을 이용한 상태 감시 데이터 생성 방법 및 장치, 공개일: 2021년 05월 03일)2. Korea Patent Publication No. 10-2021-0048100 (Method and apparatus for generating condition monitoring data using generative adversarial neural network, publication date: May 03, 2021)

본 발명은 종래의 생성적 적대 신경망 학습에서 각 학습 데이터 샘플의 과소 표현된 정도를 측정하고 측정으로 얻은 점수를 토대로 과소 표현된 데이터를 감지 및 강조하는 기법을 통해 데이터 표현 능력 및 다양성이 증대된 개선된 생성적 적대 신경망을 제안한다.The present invention measures the degree of underrepresentation of each training data sample in the conventional generative adversarial neural network learning and proposes an improved generative adversarial network with increased data representation ability and diversity through a technique of detecting and emphasizing the underrepresented data based on the score obtained from the measurement.

컴퓨터 시스템에서 수행되는 데이터 생성 방법에 있어서, 상기 컴퓨터 시스템은 메모리에 포함된 컴퓨터 판독가능한 명령들을 실행하도록 구성된 적어도 하나의 프로세서를 포함하고, 상기 데이터 생성 방법은, 상기 적어도 하나의 프로세서에 의해, 생성적 적대 신경망(GAN, Generative Adversarial Network)의 학습 과정에서 각 학습 데이터의 과소 표현된 정도를 나타내는 과소표현 점수를 측정하는 단계; 및 상기 적어도 하나의 프로세서에 의해, 상기 과소표현 점수에 기반한 가중 샘플링(weighted sampling)을 통해 상기 생성적 적대 신경망을 추가 학습하는 단계를 포함하는 데이터 생성 방법을 제공한다.A data generation method performed in a computer system, wherein the computer system includes at least one processor configured to execute computer readable instructions included in a memory, and the data generation method comprises: measuring an underrepresentation score indicating a degree of underrepresentation of each training data in a learning process of a generative adversarial network (GAN) by the at least one processor; and additionally learning, by the at least one processor, the generative adversarial neural network through weighted sampling based on the underrepresentation score.

일 측면에 따르면, 상기 측정하는 단계는, 상기 학습 데이터에서 데이터 분포와 모델 분포 간의 불일치 점수를 계산함으로써 상기 과소표현 점수를 측정할 수 있다.According to one aspect, the measuring may include measuring the underrepresentation score by calculating a discrepancy score between a data distribution and a model distribution in the training data.

다른 측면에 따르면, 상기 생성적 적대 신경망은 생성기 신경망과 판별기 신경망을 포함하고, 상기 측정하는 단계는, 상기 판별기 신경망의 출력 값에 기반한 LDR(log density ratio)을 기초로 상기 과소표현 점수를 측정할 수 있다.According to another aspect, the generative adversarial network includes a generator neural network and a discriminator neural network, and in the measuring step, the underrepresentation score may be measured based on a log density ratio (LDR) based on an output value of the discriminator neural network.

또 다른 측면에 따르면, 상기 측정하는 단계는, 상기 생성적 적대 신경망의 학습 과정에서 계산된 상기 LDR의 평균(mean)과 분산(variance)을 이용하여 상기 과소표현 점수를 측정할 수 있다.According to another aspect, in the measuring step, the underrepresentation score may be measured using the mean and variance of the LDR calculated in the learning process of the generative adversarial network.

또 다른 측면에 따르면, 상기 생성적 적대 신경망은 생성기 신경망과 판별기 신경망을 포함하고, 상기 측정하는 단계는, 상기 생성적 적대 신경망의 학습 과정에서 계산된 상기 판별기 신경망의 출력 값의 평균과 분산을 이용하여 상기 과소표현 점수를 측정할 수 있다.According to another aspect, the generative adversarial neural network includes a generator neural network and a discriminator neural network, and in the measuring step, the underrepresentation score may be measured using an average and a variance of output values of the discriminator calculated in a learning process of the generative adversarial neural network.

또 다른 측면에 따르면, 상기 생성적 적대 신경망의 학습 시 비포화 손실(non-saturating loss) 함수 또는 힌지 손실(hinge loss) 함수가 사용될 수 있다.According to another aspect, a non-saturating loss function or a hinge loss function may be used when learning the generative adversarial network.

또 다른 측면에 따르면, 상기 추가 학습하는 단계는, 상기 과소표현 점수에 비례하여 상기 학습 데이터의 샘플링 확률을 조정하는 단계를 포함할 수 있다.According to another aspect, the additional learning may include adjusting a sampling probability of the learning data in proportion to the underrepresentation score.

또 다른 측면에 따르면, 상기 조정하는 단계는, 최대 샘플링 확률과 최소 샘플링 확률 사이의 비율이 일정 값을 넘지 않는 범위에서 상기 학습 데이터의 샘플링 확률을 조정할 수 있다.According to another aspect, the adjusting may include adjusting the sampling probability of the training data within a range in which a ratio between a maximum sampling probability and a minimum sampling probability does not exceed a predetermined value.

또 다른 측면에 따르면, 상기 생성적 적대 신경망은 생성기 신경망과 판별기 신경망을 포함하고, 상기 데이터 생성 방법은, 상기 적어도 하나의 프로세서에 의해, 상기 판별기 신경망의 출력 값을 이용한 기각 샘플링(rejection sampling)을 통해 상기 생성적 적대 신경망의 모델 분포를 수정하는 단계를 더 포함할 수 있다.According to another aspect, the generative adversarial neural network includes a generator neural network and a discriminator neural network, and the method of generating data may further include modifying, by the at least one processor, a model distribution of the generative adversarial neural network through rejection sampling using an output value of the discriminator neural network.

데이터 생성 방법을 컴퓨터에 실행시키기 위해 컴퓨터 판독가능한 기록 매체에 저장되는 컴퓨터 프로그램에 있어서, 상기 데이터 생성 방법은, 생성적 적대 신경망의 학습 과정에서 각 학습 데이터의 과소 표현된 정도를 나타내는 과소표현 점수를 측정하는 단계; 상기 과소표현 점수에 기반한 가중 샘플링을 통해 상기 생성적 적대 신경망을 추가 학습하는 단계; 및 판별기 신경망의 출력 값을 이용한 기각 샘플링을 통해 상기 생성적 적대 신경망의 모델 분포를 수정하는 단계를 포함하는, 컴퓨터 프로그램을 제공한다.A computer program stored in a computer readable recording medium to execute a data generation method on a computer, the data generation method comprising: measuring an underrepresentation score indicating a degree of underrepresentation of each training data in a learning process of a generative adversarial neural network; additionally learning the generative adversarial neural network through weighted sampling based on the underrepresentation score; and modifying a model distribution of the generative adversarial neural network through reject sampling using an output value of the discriminator neural network.

컴퓨터 시스템에 있어서, 메모리에 포함된 컴퓨터 판독가능한 명령들을 실행하도록 구성된 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 생성적 적대 신경망의 학습 과정에서 각 학습 데이터의 과소 표현된 정도를 나타내는 과소표현 점수를 측정하는 과정; 및 상기 과소표현 점수에 기반한 가중 샘플링을 통해 상기 생성적 적대 신경망을 추가 학습하는 과정을 처리하는 컴퓨터 시스템을 제공한다.A computer system, comprising at least one processor configured to execute computer readable instructions included in a memory, wherein the at least one processor includes: measuring an underrepresentation score indicating a degree of underrepresentation of each training data in a learning process of a generative adversarial neural network; and a computer system processing a process of additionally learning the generative adversarial neural network through weighted sampling based on the underrepresentation score.

본 발명의 실시예들에 따르면, 생성적 적대 신경망의 학습 과정에서 모델이 잘 표현하지 못한 데이터를 식별하여 해당 데이터를 강조함으로써 모델이 보다 고르게 각 학습 데이터를 잘 표현할 수 있고 이를 통해 생성 데이터의 다양성과 데이터 생성 성능을 개선할 수 있다.According to embodiments of the present invention, in the process of learning a generative adversarial network, by identifying data that is not well represented by the model and emphasizing the corresponding data, the model can more evenly represent each training data well, thereby improving the diversity of generated data and the performance of data generation.

도 1은 본 발명의 일실시예에 있어서 컴퓨터 시스템의 내부 구성의 일례를 설명하기 위한 블록도이다.
도 2는 본 발명의 일실시예에 따른 컴퓨터 시스템의 프로세서가 포함할 수 있는 구성요소의 예를 도시한 도면이다.
도 3은 본 발명의 일실시예에 따른 컴퓨터 시스템이 수행할 수 있는 데이터 생성 방법의 예를 도시한 순서도이다.
도 4 내지 도 5는 본 발명의 일실시예에 있어서 생성적 적대 신경망의 학습 과정에서 과소 표현된 데이터를 식별하여 해당 데이터를 강조 학습하는 과정을 설명하기 위한 예시 도면이다.
도 6은 본 발명의 일실시예에 있어서 생성적 적대 신경망에서 생성된 샘플 예시와 해당 샘플의 부분 재현율 분석 결과를 도시한 것이다.
도 7은 본 발명의 일실시예에 있어서 생성적 적대 신경망의 학습 이미지 예시를 도시한 것이다.
도 8은 본 발명의 일실시예에 있어서 학습 이미지에 대한 픽셀 강도 히스토그램 비교 결과를 도시한 것이다.
도 9는 본 발명의 일 실시예에 있어서 자가-진단 생성적 적대 신경망에 대한 세부 알고리즘의 예시를 도시한 것이다.
1 is a block diagram for explaining an example of an internal configuration of a computer system according to an embodiment of the present invention.
2 is a diagram showing an example of components that may be included in a processor of a computer system according to an embodiment of the present invention.
3 is a flowchart illustrating an example of a data generation method that can be performed by a computer system according to an embodiment of the present invention.
4 and 5 are exemplary diagrams for explaining a process of identifying underrepresented data and emphasizing the corresponding data in the learning process of a generative adversarial network in one embodiment of the present invention.
6 shows an example of a sample generated by a generative adversarial neural network and a partial recall analysis result of the sample in one embodiment of the present invention.
7 shows an example of a training image of a generative adversarial network according to an embodiment of the present invention.
8 illustrates a result of pixel intensity histogram comparison for a training image according to an embodiment of the present invention.
9 shows an example of a detailed algorithm for a self-diagnosing generative adversarial neural network in one embodiment of the present invention.

이하, 본 발명의 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

본 발명의 실시예들은 생성적 적대 신경망을 이용하여 데이터를 생성하는 기술에 관한 것이다.Embodiments of the present invention relate to techniques for generating data using generative adversarial networks.

본 명세서에서 구체적으로 개시되는 것들을 포함하는 실시예들은 생성적 적대 신경망의 학습 과정에서 모델이 잘 표현하지 못한 데이터를 식별하여 해당 데이터를 강조함으로써 생성적 적대 신경망의 생성 데이터 다양성과 데이터 생성 성능을 개선할 수 있다.Embodiments including those specifically disclosed in this specification identify data that is not well represented by the model in the learning process of the generative adversarial neural network and emphasize the data, thereby improving the diversity of generated data and the performance of generating data of the generative adversarial neural network.

도 1은 본 발명의 일실시예에 따른 컴퓨터 시스템의 예를 도시한 블록도이다. 예를 들어, 본 발명의 실시예들에 따른 데이터 생성 시스템은 도 1을 통해 도시된 컴퓨터 시스템(100)에 의해 구현될 수 있다.1 is a block diagram illustrating an example of a computer system according to one embodiment of the present invention. For example, a data generation system according to embodiments of the present invention may be implemented by the computer system 100 shown in FIG. 1 .

도 1에 도시된 바와 같이 컴퓨터 시스템(100)은 본 발명의 실시예들에 따른 데이터 생성 방법을 실행하기 위한 구성요소로서, 메모리(110), 프로세서(120), 통신 인터페이스(130) 그리고 입출력 인터페이스(140)를 포함할 수 있다.As shown in FIG. 1, a computer system 100 is a component for executing a data generation method according to embodiments of the present invention, and may include a memory 110, a processor 120, a communication interface 130, and an input/output interface 140.

메모리(110)는 컴퓨터에서 판독 가능한 기록매체로서, RAM(random access memory), ROM(read only memory) 및 디스크 드라이브와 같은 비소멸성 대용량 기록장치(permanent mass storage device)를 포함할 수 있다. 여기서 ROM과 디스크 드라이브와 같은 비소멸성 대용량 기록장치는 메모리(110)와는 구분되는 별도의 영구 저장 장치로서 컴퓨터 시스템(100)에 포함될 수도 있다. 또한, 메모리(110)에는 운영체제와 적어도 하나의 프로그램 코드가 저장될 수 있다. 이러한 소프트웨어 구성요소들은 메모리(110)와는 별도의 컴퓨터에서 판독 가능한 기록매체로부터 메모리(110)로 로딩될 수 있다. 이러한 별도의 컴퓨터에서 판독 가능한 기록매체는 플로피 드라이브, 디스크, 테이프, DVD/CD-ROM 드라이브, 메모리 카드 등의 컴퓨터에서 판독 가능한 기록매체를 포함할 수 있다. 다른 실시예에서 소프트웨어 구성요소들은 컴퓨터에서 판독 가능한 기록매체가 아닌 통신 인터페이스(130)를 통해 메모리(110)에 로딩될 수도 있다. 예를 들어, 소프트웨어 구성요소들은 네트워크(160)를 통해 수신되는 파일들에 의해 설치되는 컴퓨터 프로그램에 기반하여 컴퓨터 시스템(100)의 메모리(110)에 로딩될 수 있다.The memory 110 is a computer-readable recording medium and may include a random access memory (RAM), a read only memory (ROM), and a permanent mass storage device such as a disk drive. Here, a non-perishable mass storage device such as a ROM and a disk drive may be included in the computer system 100 as a separate permanent storage device separate from the memory 110 . Also, an operating system and at least one program code may be stored in the memory 110 . These software components may be loaded into the memory 110 from a recording medium readable by a separate computer from the memory 110 . The separate computer-readable recording medium may include a computer-readable recording medium such as a floppy drive, a disk, a tape, a DVD/CD-ROM drive, and a memory card. In another embodiment, software components may be loaded into the memory 110 through the communication interface 130 rather than a computer-readable recording medium. For example, software components may be loaded into memory 110 of computer system 100 based on a computer program installed by files received over network 160 .

프로세서(120)는 기본적인 산술, 로직 및 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 메모리(110) 또는 통신 인터페이스(130)에 의해 프로세서(120)로 제공될 수 있다. 예를 들어 프로세서(120)는 메모리(110)와 같은 기록 장치에 저장된 프로그램 코드에 따라 수신되는 명령을 실행하도록 구성될 수 있다.The processor 120 may be configured to process commands of a computer program by performing basic arithmetic, logic, and input/output operations. Instructions may be provided to processor 120 by memory 110 or communication interface 130 . For example, processor 120 may be configured to execute received instructions according to program codes stored in a recording device such as memory 110 .

통신 인터페이스(130)은 네트워크(160)를 통해 컴퓨터 시스템(100)이 다른 장치와 서로 통신하기 위한 기능을 제공할 수 있다. 일례로, 컴퓨터 시스템(100)의 프로세서(120)가 메모리(110)와 같은 기록 장치에 저장된 프로그램 코드에 따라 생성한 요청이나 명령, 데이터, 파일 등이 통신 인터페이스(130)의 제어에 따라 네트워크(160)를 통해 다른 장치들로 전달될 수 있다. 역으로, 다른 장치로부터의 신호나 명령, 데이터, 파일 등이 네트워크(160)를 거쳐 컴퓨터 시스템(100)의 통신 인터페이스(130)를 통해 컴퓨터 시스템(100)으로 수신될 수 있다. 통신 인터페이스(130)를 통해 수신된 신호나 명령, 데이터 등은 프로세서(120)나 메모리(110)로 전달될 수 있고, 파일 등은 컴퓨터 시스템(100)이 더 포함할 수 있는 저장 매체(상술한 영구 저장 장치)로 저장될 수 있다.Communication interface 130 may provide functionality for computer system 100 to communicate with other devices via network 160 . For example, a request, command, data, file, etc. generated by the processor 120 of the computer system 100 according to a program code stored in a recording device such as the memory 110 is controlled by the communication interface 130. It can be transmitted to other devices through the network 160. Conversely, signals, commands, data, files, etc. from other devices may be received into the computer system 100 via the communication interface 130 of the computer system 100 via the network 160 . Signals, commands, data, etc. received through the communication interface 130 may be transmitted to the processor 120 or the memory 110, and files, etc. may be further included in the computer system 100. It may be stored in a storage medium (the permanent storage device described above).

통신 방식은 제한되지 않으며, 네트워크(160)가 포함할 수 있는 통신망(일례로, 이동통신망, 유선 인터넷, 무선 인터넷, 방송망)을 활용하는 통신 방식뿐만 아니라 기기들간의 근거리 유선/무선 통신 역시 포함될 수 있다. 예를 들어, 네트워크(160)는, PAN(personal area network), LAN(local area network), CAN(campus area network), MAN(metropolitan area network), WAN(wide area network), BBN(broadband network), 인터넷 등의 네트워크 중 하나 이상의 임의의 네트워크를 포함할 수 있다. 또한, 네트워크(160)는 버스 네트워크, 스타 네트워크, 링 네트워크, 메쉬 네트워크, 스타-버스 네트워크, 트리 또는 계층적(hierarchical) 네트워크 등을 포함하는 네트워크 토폴로지 중 임의의 하나 이상을 포함할 수 있으나, 이에 제한되지 않는다.The communication method is not limited, and a short-distance wired / wireless communication between devices as well as a communication method utilizing a communication network (eg, a mobile communication network, wired Internet, wireless Internet, and broadcasting network) that the network 160 may include may also be included. For example, the network 160 may include any one or more of networks such as a personal area network (PAN), a local area network (LAN), a campus area network (CAN), a metropolitan area network (MAN), a wide area network (WAN), a broadband network (BBN), and the Internet. In addition, the network 160 may include any one or more of network topologies including, but not limited to, a bus network, a star network, a ring network, a mesh network, a star-bus network, a tree or a hierarchical network, and the like.

입출력 인터페이스(140)는 입출력 장치(150)와의 인터페이스를 위한 수단일 수 있다. 예를 들어, 입력 장치는 마이크, 키보드, 카메라 또는 마우스 등의 장치를, 그리고 출력 장치는 디스플레이, 스피커와 같은 장치를 포함할 수 있다. 다른 예로 입출력 인터페이스(140)는 터치스크린과 같이 입력과 출력을 위한 기능이 하나로 통합된 장치와의 인터페이스를 위한 수단일 수도 있다. 입출력 장치(150)는 컴퓨터 시스템(100)과 하나의 장치로 구성될 수도 있다.The input/output interface 140 may be a means for interface with the input/output device 150 . For example, the input device may include devices such as a microphone, keyboard, camera, or mouse, and the output device may include devices such as a display and a speaker. As another example, the input/output interface 140 may be a means for interface with a device in which functions for input and output are integrated into one, such as a touch screen. The input/output device 150 may be configured as one device with the computer system 100 .

또한, 다른 실시예들에서 컴퓨터 시스템(100)은 도 1의 구성요소들보다 더 적은 혹은 더 많은 구성요소들을 포함할 수도 있다. 그러나, 대부분의 종래기술적 구성요소들을 명확하게 도시할 필요성은 없다. 예를 들어, 컴퓨터 시스템(100)은 상술한 입출력 장치(150) 중 적어도 일부를 포함하도록 구현되거나 또는 트랜시버(transceiver), 카메라, 각종 센서, 데이터베이스 등과 같은 다른 구성요소들을 더 포함할 수도 있다.Also, in other embodiments, computer system 100 may include fewer or more elements than those of FIG. 1 . However, there is no need to clearly show most of the prior art components. For example, the computer system 100 may be implemented to include at least some of the aforementioned input/output devices 150 or may further include other components such as a transceiver, a camera, various sensors, and a database.

이하에서는 과소 표현된 데이터를 스스로 진단하고 강조하는 생성적 적대 신경망을 기반으로 데이터를 생성하는 기술의 구체적인 실시예를 설명하기로 한다.Hereinafter, a specific embodiment of a technology for generating data based on a generative adversarial network that self-diagnoses and emphasizes underrepresented data will be described.

도 2는 본 발명의 일실시예에 따른 컴퓨터 시스템의 프로세서가 포함할 수 있는 구성요소의 예를 도시한 도면이고, 도 3은 본 발명의 일실시예에 따른 컴퓨터 시스템이 수행할 수 있는 데이터 생성 방법의 예를 도시한 순서도이다.2 is a diagram showing an example of components that may be included in a processor of a computer system according to an embodiment of the present invention, and FIG. 3 is a data generation method that can be performed by a computer system according to an embodiment of the present invention. It is a flow chart showing an example.

도 2에 도시된 바와 같이, 프로세서(120)는 학습부(210), 점수 측정부(220), 추가 학습부(230), 및 모델 수정부(240)를 포함할 수 있다. 이러한 프로세서(120)의 구성요소들은 적어도 하나의 프로그램 코드에 의해 제공되는 제어 명령에 따라 프로세서(120)에 의해 수행되는 서로 다른 기능들(different functions)의 표현들일 수 있다. 예를 들어, 프로세서(120)가 생성적 적대 신경망(GAN)을 학습하도록 컴퓨터 시스템(100)을 제어하기 위해 동작하는 기능적 표현으로서 학습부(210)가 사용될 수 있다.As shown in FIG. 2 , the processor 120 may include a learning unit 210 , a score measurement unit 220 , an additional learning unit 230 , and a model correction unit 240 . Components of the processor 120 may represent different functions performed by the processor 120 according to a control command provided by at least one program code. For example, the learner 210 may be used as a functional representation operating to control the computer system 100 so that the processor 120 learns a generative adversarial network (GAN).

프로세서(120) 및 프로세서(120)의 구성요소들은 도 3의 데이터 생성 방법이 포함하는 단계들(S310 내지 S340)을 수행할 수 있다. 예를 들어, 프로세서(120) 및 프로세서(120)의 구성요소들은 메모리(110)가 포함하는 운영체제의 코드와 상술한 적어도 하나의 프로그램 코드에 따른 명령(instruction)을 실행하도록 구현될 수 있다. 여기서, 적어도 하나의 프로그램 코드는 데이터 생성 방법을 처리하기 위해 구현된 프로그램의 코드에 대응될 수 있다.The processor 120 and components of the processor 120 may perform steps S310 to S340 included in the data generation method of FIG. 3 . For example, the processor 120 and components of the processor 120 may be implemented to execute an instruction according to an operating system code included in the memory 110 and at least one program code described above. Here, at least one program code may correspond to a code of a program implemented to process a data generation method.

데이터 생성 방법은 도시된 순서대로 발생하지 않을 수 있으며, 단계들 중 일부가 생략되거나 추가의 과정이 더 포함될 수 있다.The data generation method may not occur in the order shown, and some of the steps may be omitted or additional processes may be further included.

프로세서(120)는 데이터 생성 방법을 위한 프로그램 파일에 저장된 프로그램 코드를 메모리(110)에 로딩할 수 있다. 예를 들어, 데이터 생성 방법을 위한 프로그램 파일은 메모리(110)와는 구분되는 영구 저장 장치에 저장되어 있을 수 있고, 프로세서(120)는 버스를 통해 영구 저장 장치에 저장된 프로그램 파일로부터 프로그램 코드가 메모리(110)에 로딩되도록 컴퓨터 시스템(100)을 제어할 수 있다. 이때, 프로세서(120) 및 프로세서(120)가 포함하는 학습부(210), 및 미세조정부(220) 각각은 메모리(110)에 로딩된 프로그램 코드 중 대응하는 부분의 명령을 실행하여 이후 단계들(S310 내지 S340)을 실행하기 위한 프로세서(120)의 서로 다른 기능적 표현들일 수 있다. 단계들(S310 내지 S340)의 실행을 위해, 프로세서(120) 및 프로세서(120)의 구성요소들은 직접 제어 명령에 따른 연산을 처리하거나 또는 컴퓨터 시스템(100)을 제어할 수 있다.The processor 120 may load a program code stored in a program file for a data generation method into the memory 110 . For example, a program file for a data generation method may be stored in a permanent storage device separate from the memory 110, and the processor 120 may control the computer system 100 to load a program code into the memory 110 from a program file stored in the permanent storage device through a bus. At this time, each of the processor 120, the learning unit 210, and the fine-tuning unit 220 included in the processor 120 may be different functional representations of the processor 120 for executing subsequent steps S310 to S340 by executing a command of a corresponding part among the program codes loaded into the memory 110. For the execution of steps S310 to S340, the processor 120 and components of the processor 120 may directly process an operation according to a control command or control the computer system 100.

도 3을 참조하면, 단계(S310)에서 학습부(210)는 인공 신경망의 일종인 생성적 적대 신경망을 학습할 수 있다. 생성적 적대 신경망을 학습하는 방법은 이미 공지된 기술을 적용할 수 있다. 생성적 적대 신경망은 생성기 신경망(G)과 판별기 신경망(D)을 포함하며, 두 신경망을 아울러 학습 시 사용되는 손실 함수는 수학식 1과 같다.Referring to FIG. 3 , in step S310, the learning unit 210 may learn a generative adversarial neural network, which is a kind of artificial neural network. As a method of learning a generative adversarial network, a known technique may be applied. The generative adversarial neural network includes a generator neural network (G) and a discriminator neural network (D), and a loss function used in learning both neural networks is as shown in Equation 1.

[수학식 1][Equation 1]

단계(S320)에서 점수 측정부(220)는 학습 데이터의 과소표현 정도를 측정할 수 있다. 점수 측정부(220)는 학습부(210)에서 학습된 생성적 적대 신경망의 판별기 신경망(D)을 이용해 각 학습 데이터 샘플 x의 과소 표현된 정도를 나타내는 점수(이하, '과소표현 점수'라 칭함)를 측정할 수 있다. 과소표현 점수는 학습 데이터가 과소 표현될수록 높고, 과대 표현될수록 낮다. 과소표현 점수를 측정할 때에 기준이 되는 LDR(log density ratio) 점수는 수학식 2와 같다.In step S320, the score measurement unit 220 may measure the degree of underrepresentation of the learning data. The score measuring unit 220 uses the discriminator neural network D of the generative adversarial neural network learned in the learning unit 210 to measure a score representing the degree of underrepresentation of each training data sample x (hereinafter referred to as 'underrepresentation score'). The underrepresentation score is higher when the training data is underrepresented and lower when it is overrepresented. The LDR (log density ratio) score, which is the standard when measuring the underrepresentation score, is as shown in Equation 2.

[수학식 2][Equation 2]

점수 측정부(220)는 임의의 데이터 x에 대해 수학식 2을 통해 LDR 점수를 계산할 수 있다. 이때, D(x)는 x를 판별기가 받았을 때 내놓는 출력값이다. LDR 점수는 log(pdata(x)/pg(x)) 즉, 실제 데이터 분포 pdata와 생성기 분포 pg의 차이를 각 데이터 값 x에서 비교하는 값을 추정하기 위해 정의된 점수로 판별기의 출력값을 사용하여 계산된다.The score measurement unit 220 may calculate an LDR score through Equation 2 for any data x. At this time, D(x) is the output value produced when the discriminator receives x. The LDR score is calculated using the output of the discriminator as log(p data (x)/p g (x)), that is, a score defined to estimate the difference between the true data distribution p data and the generator distribution p g at each data value x.

LDR 점수를 매 학습 과정에서 측정한 후 여러 스텝을 거치며, LDR 점수의 평균(mean)과 분산(variance)을 계산함으로써 LDRM 점수와 LDRV 점수를 얻는다. 본 실시예에서 과소표현 점수는 수학식 3과 같이 정의될 수 있다.After measuring the LDR score in each learning process, it goes through several steps and calculates the mean and variance of the LDR score to obtain the LDRM score and the LDRV score. In this embodiment, the underrepresentation score may be defined as in Equation 3.

[수학식 3][Equation 3]

이때, k는 상수를 나타내는 것으로, 이는 학습 데이터의 종류에 따라 조절될 수 있다.At this time, k represents a constant, which can be adjusted according to the type of learning data.

생성적 적대 신경망의 학습 시 손실 함수로 비포화 손실(non-saturating loss) 또는 힌지 손실(hinge loss)을 사용할 수 있다.When training a generative adversarial network, a non-saturating loss or a hinge loss can be used as a loss function.

생성적 적대 신경망의 학습 시 사용되는 손실 함수가 비포화 손실이 아닌 힌지 손실인 경우, LDR 점수의 평균과 분산을 계산하는 대신 판별기의 결과값인 Dh(x)의 평균과 분산을 계산하여 과소표현 점수를 얻을 수 있다.If the loss function used in learning the generative adversarial network is a hinge loss rather than a desaturation loss, the underrepresentation score can be obtained by calculating the mean and variance of D h (x), which is the result of the discriminator, instead of calculating the mean and variance of the LDR scores.

단계(S330)에서 추가 학습부(230)는 과소표현 점수를 토대로 과소 표현된 데이터의 생성을 촉진하는 방향으로 생성적 적대 신경망을 추가 학습할 수 있다. 추가 학습부(230)는 모든 학습 데이터에 대해 점수 측정부(220)에서 측정된 과소표현 점수를 기준으로 데이터를 강조하여 생성적 적대 신경망을 추가 학습할 수 있다. 추가 학습부(230)는 생성적 적대 신경망의 학습 과정에서 데이터 x가 뽑힐 확률(즉, 샘플링 확률)을 해당 데이터 x의 과소표현 점수에 비례하도록 조정할 수 있다. 이때, 추가 학습부(230)는 최대 샘플링 확률과 최소 샘플링 확률 사이의 비율이 일정 값을 넘지 않는 범위로 점수의 격차를 제한하여 안정적으로 데이터를 샘플링할 수 있다.In step S330, the additional learning unit 230 may additionally learn the generative adversarial network in a direction that promotes the generation of underrepresented data based on the underrepresentation score. The additional learning unit 230 may additionally learn the generative adversarial network by emphasizing data based on the underrepresentation score measured by the score measuring unit 220 for all training data. The additional learning unit 230 may adjust the probability of selecting data x (ie, sampling probability) in proportion to the underrepresentation score of the data x in the learning process of the generative adversarial network. In this case, the additional learning unit 230 may stably sample data by limiting the score gap to a range where the ratio between the maximum sampling probability and the minimum sampling probability does not exceed a predetermined value.

추가 학습부(230)는 학습 데이터 샘플링 확률을 과소표현 점수에 비례하도록 계산한 후 계산된 학습 데이터 샘플링 확률을 토대로 생성적 적대 신경망의 학습을 추가로 진행할 수 있다. 실시예에 따라서는 학습 데이터 샘플링 확률을 LDRM 점수 또는 LDRV 점수에 비례하도록 계산할 수 있다.After calculating the training data sampling probability proportional to the underrepresentation score, the additional learning unit 230 may further perform learning of the generative adversarial network based on the calculated training data sampling probability. Depending on the embodiment, the training data sampling probability may be calculated in proportion to the LDRM score or the LDRV score.

단계(S340)에서 모델 수정부(240)는 생성적 적대 신경망의 최종적인 모델 분포를 수정할 수 있다. 모델 수정부(240)는 추가 학습부(230)를 거쳐 다양성이 보다 강조된 모델 분포가 만들어진 후 판별기 값을 이용한 기각 샘플링을 통하여 생성적 적대 신경망의 모델 분포를 최종적으로 수정할 수 있다.In step S340, the model modifying unit 240 may modify the final model distribution of the generative adversarial neural network. The model correction unit 240 may finally modify the model distribution of the generative adversarial neural network through reject sampling using discriminator values after the model distribution with more emphasis on diversity is created through the additional learning unit 230.

따라서, 본 실시예에서는 생성적 적대 신경망의 학습 과정에서 모델이 잘 표현하지 못한 데이터를 식별하여 해당 데이터를 강조함으로써 보다 고르게 학습 데이터를 잘 표현하는 모델을 구현할 수 있다.Therefore, in the present embodiment, by identifying data that is not well represented by the model in the learning process of the generative adversarial network and emphasizing the corresponding data, it is possible to implement a model that more evenly represents the training data well.

생성적 적대 신경망의 학습 중 과소표현 샘플을 진단하고 강조하는 방법을 구체적으로 설명하기로 한다.A method for diagnosing and highlighting underrepresented samples during training of a generative adversarial network will be described in detail.

일반적인 생성적 적대 신경망은 학습 데이터의 분포를 모방하여 가짜 데이터를 효과적으로 생성할 수 있다. 그러나, 도 4에 도시한 바와 같이 생성적 적대 신경망은 학습 데이터의 분포를 온전히 모방하지 못하고 일부 데이터를 모방함에 따라 소수 특징을 가진 일부 데이터를 표현되지 못하는 경우가 많다.General generative adversarial networks can effectively generate fake data by mimicking the distribution of training data. However, as shown in FIG. 4, the generative adversarial network does not fully imitate the distribution of learning data, and as it imitates some data, it often fails to represent some data with minority characteristics.

이에, 본 발명은 학습 데이터를 고르게 잘 표현하기 위한 방안으로, 학습 데이터가 잘 표현되지 못한 정도를 점수화한 후(과소표현 점수), 도 5에 도시한 바와 같이 과소표현 점수를 토대로 학습 데이터를 강조 학습함을 통해 덜 표현된 데이터의 표현성을 증대시킬 수 있다.Accordingly, the present invention is a method for expressing learning data evenly and well. After scoring the degree of underrepresentation of the learning data (underrepresentation score), as shown in FIG.

특히, 프로세서(120)는 가짜 샘플이 아닌, 과소 표현된 실제 샘플을 감지하고 강조할 수 있다.In particular, the processor 120 may detect and emphasize underrepresented real samples instead of fake samples.

프로세서(120)는 각 데이터 인스턴스에서 데이터 분포와 모델 분포 간의 불일치 통계를 사용하는 것으로, 과소 표현된 샘플이 평균 불일치 또는 불일치 변동성이 높다는 관찰을 바탕으로 생성적 적대 신경망의 학습 중에 해당 샘플을 강조할 수 있다.The processor 120 uses the disparity statistics between the data distribution and the model distribution at each data instance, and can emphasize the underrepresented sample during training of the generative adversarial network based on the observation that the average disparity or variability of the underrepresented sample is high.

프로세서(120)는 생성적 적대 신경망의 학습을 진단하여 과소 표현된 샘플을 탐지하기 위해 판별기에서 간단하게 계산할 수 있고, 생성적 적대 신경망의 학습 중 점수 기반 가중 샘플링을 통해 과소 표현된 데이터를 효과적으로 강조할 수 있다.The processor 120 can simply calculate in the discriminator to detect underrepresented samples by diagnosing the learning of the generative adversarial network, and can effectively emphasize underrepresented data through score-based weighted sampling during learning of the generative adversarial network.

프로세서(120)는 여러 에포크(epoch)에 걸친 경험적 평균과 분산을 사용하여 적게 표현된 마이너 그룹 샘플을 탐지할 수 있고, 평균뿐만 아니라 불일치 추정치의 분산을 과소 표현된 샘플을 탐지하는 데에 이용할 수 있다.Processor 120 may use the empirical mean and variance over several epochs to detect minor group samples that are underrepresented, and may use the mean as well as the variance of the discrepancy estimate to detect underrepresented samples.

생성적 적대 신경망의 학습 중 과소 표현된 샘플을 검출하기 위한 측정 기준은 다음과 같다.The metric for detecting underrepresented samples during training of a generative adversarial network is as follows.

생성적 적대 신경망 학습은 데이터 분포 pdata(x)와 밀접하게 일치하는 암시적 모델 분포 pg(x)를 가진 생성기를 학습시키는 것을 목표로 한다. pdata(x)와 pg(x) 사이의 불일치는 log(pdata(x)/pg(x))로 측정할 수 있지만 pg(x)는 알 수 없고 pg(x)는 암시적이기 때문에 생성적 적대 신경망에서 직접 계산할 수 없다.Generative adversarial neural network training aims to train a generator with an implicit model distribution p g (x) that closely matches the data distribution p data (x). The discrepancy between p data (x) and pg(x) can be measured as log(p data (x)/p g (x)), but cannot be directly computed in a generative adversarial network because p g (x) is unknown and p g (x) is implicit.

대신, 본 실시예에서는 판별기 출력을 사용하여 LDR에 대한 추정치를 정의할 수 있다. 생성적 적대 신경망은 손실 함수(수학식 1)에 대한 최소-최대 최적화 minGmaxDV(D,G)를 해결한다. 생성기 G에 대해서 최적의 판별기 D는 와 같이 산출되며, 이것은 수학식 2를 통해 LDR를 정의할 수 있다.Instead, in this embodiment, the discriminator output can be used to define an estimate for the LDR. A generative adversarial network solves the min-max optimization min G max D V(D,G) for the loss function (Equation 1). For a generator G, the optimal discriminator D is It is calculated as, which can define the LDR through Equation 2.

D(x) = D*(x)일 때, LDR(x)은 log(pdata(x)= pg(x))와 같다. LDR(x)>0일 때, 데이터 포인트 x는 모델에서 과소 표현된다. 즉, pdata(x)>pg(x)에 해당된다. LDR(x)<0일 때, 데이터는 과대 표현된 것이며, pdata(x)<pg(x)에 해당된다. 따라서, 각 인스턴스 x의 LDR(x) 값을 활용하여 추정치가 유효한 경우 생성기를 개선하기 위한 피드백을 제공할 수 있다.When D(x) = D * (x), LDR(x) is equal to log(p data (x) = p g (x)). When LDR(x)>0, the data point x is underrepresented in the model. That is, it corresponds to p data (x) > p g (x). When LDR(x)<0, the data is overrepresented, corresponding to p data (x)<p g (x). Thus, the LDR(x) value of each instance x can be utilized to provide feedback to improve the generator if the estimate is valid.

본 발명은 학습 중에 과소 표현된 데이터 영역을 탐지하기 위해 훨씬 안정적이고 유익한 지표인 LDR(x)의 통계를 사용할 수 있다. 각 샘플의 학습 행동을 진단하기 위해 학습 역학(학습 진행에 따른 모델의 동작)을 사용하는 것이다. 생성 모델을 학습할 때 모델의 정확도를 측정하기 위한 명시적인 참조가 없기 때문에 학습 역학을 진단하기 위한 지표는 명확하지 않다. 본 실시예에서는 학습 단계 T={ts, ,te}에 걸쳐 각 샘플 x에서 생성적 적대 신경망, LDRM(LDR 평균), LDRV(LDR 분산) 불일치의 평균과 분산을 추정하는 측정 기준을 정의한다.The present invention can use the statistic of LDR(x), which is a much more reliable and informative metric, to detect underrepresented data regions during learning. It is to use the learning dynamics (behavior of the model as the learning progresses) to diagnose the learning behavior of each sample. Metrics for diagnosing learning dynamics are not clear, as there is no explicit reference to measure the model's accuracy when training a generative model. In this embodiment, we define metrics for estimating the mean and variance of the generative adversarial network, LDRM (LDR mean), LDRV (LDR variance) mismatch at each sample x over the learning phase T={t s , ,t e }.

[수학식 4][Equation 4]

[수학식 5][Equation 5]

여기서, LDR(x)k는 k번째 학습 단계에서 기록된 LDR 추정치(수학식 2)이다. LDRM(x)는 샘플 포인트 x에서 학습에 대해 pg(x)에 얼마나 가까운지를 측정하는 반면, LDRV(x)는 그러한 불일치가 학습에 걸쳐 어떻게 변동하는지 측정한다.Here, LDR(x) k is the LDR estimate (Equation 2) recorded in the kth learning step. LDRM(x) measures how close to p g (x) is for learning at sample point x, while LDRV(x) measures how that disparity varies across learning.

직관적으로 잘 학습되고 일반화된 샘플은 이후 지속적으로 작은 LDR(x)를 가지므로 LDRM과 LDRV가 낮게 나타나는 반면, 학습하기 어려운 샘플은 높은 LDRM 또는 LDRV 값을 나타낸다.An intuitively well-learned and generalized sample is Afterwards, since LDR(x) is continuously small, LDRM and LDRV appear low, whereas samples that are difficult to learn show high LDRM or LDRV values.

LDRV(LDR 분산)는 마이너 그룹으로부터 감지하는데 효과적이다.LDRV (LDR Variance) is effective in detecting from the minor group.

생성적 적대 신경망은 마이너 샘플을 모델링하는 데 어려움을 겪는 것으로 알려져 있다.Generative adversarial networks are known to have difficulty modeling minor samples.

도 6은 (1) 단일 모드 가우시안, (2) MNIST(메이저)와 FMNIST(마이너)의 혼합, (3) 빨간색(메이저)과 녹색(마이너)의 컬러 MNIST 샘플로 학습된 생성적 적대 신경망에 분석 결과를 도시한 것이다. (a) 내지 (d)는 메이저/마이너 특징으로 생성된 샘플 예시를 나타낸 것이고, (e)는 각 데이터 세트의 메이저 샘플(점선)과 마이너 샘플(실선)의 부분 재현율을 나타낸 것이다.Figure 6 shows the analysis results for generative adversarial networks trained with (1) single-mode Gaussian, (2) a mixture of MNIST (major) and FMNIST (minor), and (3) red (major) and green (minor) colored MNIST samples. (a) to (d) show examples of samples generated with major/minor features, and (e) shows partial recall of major samples (dotted lines) and minor samples (solid lines) of each data set.

도 6의 (e)를 참조하면, 샘플 품질과 부분 재현율 모두 메이저 그룹에서 더 높다는 것을 알 수 있으며, 메이저 그룹과 마이너 그룹은 리콜 격차가 크고 소수 레벨(minority levels)이 심해질수록 격차가 심해진다. 마이너 그룹이 불량 품질 문제뿐만 아니라 낮은 커버리지 문제를 겪고 있다는 점에서 마이너 샘플을 감지하여 강조하는 기술의 필요성을 통감할 수 있다.Referring to (e) of FIG. 6, it can be seen that both sample quality and partial recall are higher in the major group, and the recall gap between the major group and the minor group is large and the gap gets worse as the minority levels increase. Given that the minor group suffers from poor quality as well as low coverage, the need for a technique for detecting and emphasizing minor samples can be felt.

LDRV를 사용하여 마이너 특징, 즉 마이너 그룹의 특징을 가진 샘플을 감지할 수 있는 휴리스틱 인수를 적용할 수 있다. 특히, 마이너 샘플이 더 높은 LDRV 값을 갖는 경향이 있다. 첫째, 판별기를 로지스틱 회귀 모델로 볼 수 있고, 각 입력 xi에 대해 판별기는 특징 벡터 와 마지막 계층의 가중치 벡터 사이의 내적을 사용하여 실제 점수(샘플 xi가 실제(yi=1)일 확률)를 산출한다(수학식 6).LDRV can be used to apply heuristic arguments that can detect samples with minor features, that is, features of a minor group. In particular, minor samples tend to have higher LDRV values. First, the discriminator can be viewed as a logistic regression model, and for each input x i the discriminator is a feature vector The actual score (probability that sample x i is real (y i =1)) is calculated using the dot product between the weight vector of the last layer and the weight vector of the last layer (Equation 6).

[수학식 6][Equation 6]

베이지안 관점에서, θ의 사전 분포가 이라고 가정하면, θ에 대한 사후 분포는 로 주어진다. 사후 분포에 대한 가우스 근사치를 얻으려면 먼저 가우스 평균을 정의하는 를 최대화하는 최대 사후 추정 θMAP을 찾는다.From a Bayesian point of view, the prior distribution of θ is Assuming that , the posterior distribution for θ is is given as To get a Gaussian approximation to the posterior distribution, first define the Gaussian mean Find the maximum posterior estimate θ MAP that maximizes .

공분산은 수학식 7과 같은 형태를 취하는 음의 로그 우도(negative log likelihood)의 이차 미분 역행렬에 의해 주어진다.The covariance is given by the second derivative inverse matrix of the negative log likelihood taking the form of Equation 7.

[수학식 7][Equation 7]

마지막으로, θ=θMAP에서의 테일러 확장에 의해 수학식 6에서 D(xi;θ))의 근사치, LDRV는 수학식 8과 같이 표현될 수 있다.Finally, LDRV, an approximation of D(x i ;θ)) in Equation 6 by Taylor expansion in θ=θ MAP , can be expressed as Equation 8.

[수학식 8][Equation 8]

이는 LDRV와 마이너 특징에 관한 중요한 측면을 보여준다. 수학식 8은 특징 벡터 Φi가 Sn의 주성분(고유값이 가장 큰 고유 벡터)과 더 많이 상관될수록 LDRV가 더 커진다는 것을 보여준다. Sn의 각 고유값은 의 고유값과 역수이기 때문에 수학식 9의 최소 고유값인 의 고유벡터 v의 특성을 고려한다.This reveals an important aspect regarding LDRV and minor features. Equation 8 shows that the more the feature vector Φ i is correlated with the principal component of S n (the eigenvector with the largest eigenvalue), the larger the LDRV. Each eigenvalue of S n is Since it is the eigenvalue and the reciprocal of , the minimum eigenvalue of Equation 9 Consider the characteristics of the eigenvector v of

[수학식 9][Equation 9]

수학식 9는 y가 D(1-D)>0인 대부분의 특징 벡터 {Φi}들과 정렬하지 않으면(또는 직교) 더 작은 고유값을 갖는 경향이 있음을 보여준다. 마이너 특징 벡터 Φj는 D(1-D)>0을 가지는 대다수에 의해 형성된 고유 공간에 작은 성분을 가질 수 있기 때문에, y=Φj를 수학식 9에 대입하면 합계는 작아진다. 이는 마이너 특징 벡터 Φj의 최소 고유 벡터 v와 상관관계가 있으므로 더 높은 LDRV를 가질 것임을 알 수 있다.Equation 9 shows that y tends to have smaller eigenvalues if it is not aligned (or orthogonal) to most of the feature vectors {Φ i } where D(1-D)>0. Since the minor feature vector Φ j may have a small component in the eigenspace formed by the majority having D(1-D)>0, substituting y = Φ j into Equation 9 results in a small sum. This indicates that the minor feature vector Φ j It can be seen that it will have a higher LDRV since it is correlated with the minimum eigenvector v of .

LDRM(LDR 평균)은 누락 노드(missing modes)를 검출하는 데에 효과적이다.LDRM (LDR average) is effective in detecting missing modes.

LDRM의 정의(수학식 4)로부터 높은 LDRM 샘플 x는 훈련을 통해 pg(x)보다 작은 경향이 있으므로 과소 표현된다. 학습 중에 학습 샘플의 LDR(x)을 기록하고 윈도우 크기 ITI=50으로 LDRM 값을 계산한다. 학습 중에 각 모드의 샘플에 대해 평균 LDRM 값을 조사한다. 과소 대표 모드의 샘플이 더 높은 평균 LDRM 값을 갖는다는 것은 LDRM 값의 평균을 조사하여 모드 복구를 감지할 수 있음을 의미한다. 생성된 샘플의 모드 복구를 추가로 조사하기 위해 생성된 각 샘플을 가장 가까운 모드에 할당하고 할당된 모드에서 4개의 표준 편차 내에 있는 경우 고품질 샘플로 간주한다. 그런 다음, 샘플 중 각 모드의 고품질 샘플 수를 세고 고품질 샘플 수와 LDRM 분포 사이의 상관 관계를 분석한다. 고품질 샘플이 적은 모드는 LDRM이 높은 경향이 있다. 이는 생성된 샘플을 보지 않고도 데이터 인스턴스의 LDRM을 사용하여 아직 모델에서 다루지 않은 데이터 매니폴드(data manifold) 영역을 감지할 수 있음을 나타낸다.From the definition of LDRM (Equation 4), high LDRM samples x tend to be less than p g (x) through training and are therefore underrepresented. During training, record the LDR(x) of the training sample and calculate the LDRM value with the window size ITI=50. During training, we examine the average LDRM value for samples of each mode. The fact that samples of underrepresented modes have higher average LDRM values means that mode recovery can be detected by examining the average of LDRM values. To further investigate the mode recovery of the generated samples, we assign each generated sample to the closest mode and consider it a high-quality sample if it is within 4 standard deviations from the assigned mode. Then, we count the number of high-quality samples of each mode among the samples and analyze the correlation between the number of high-quality samples and the LDRM distribution. Modes with fewer high-quality samples tend to have higher LDRMs. This indicates that the LDRM of data instances can be used to detect regions of the data manifold not yet covered by the model, without looking at the generated samples.

본 발명에서 과소 표현된 샘플을 강조하기 위한 알고리즘으로 불일치에 의해 샘플링된 SGD(Stochastic Gradient Descent) 알고리즘을 사용할 수 있다. 일례로, 미니 배치 SGD에 점수 기반 가중 샘플링을 사용하여 과소 표현된 샘플을 강조함으로써 생성적 적대 신경망의 학습 절차를 간단하게 수정할 수 있다.In the present invention, as an algorithm for emphasizing underrepresented samples, a Stochastic Gradient Descent (SGD) algorithm sampled by inconsistency may be used. As an example, we can simply modify the training procedure of generative adversarial networks by using score-based weighted sampling for mini-batch SGD to highlight underrepresented samples.

D={xi]를 학습 데이터셋으로 설정한다. 훈련 데이터셋에 대한 크기 B의 미니 배치는 에 의해 형성되며, 즉 각 샘플 xi∈D는 특정 확률 Ps(i)로 샘플링된다. 본 발명의 목표는 과소 표현된 샘플을 강조할 수 있는 샘플링 빈도 Ps(i)를 설계하는 것이다. 각 샘플의 과소 표현을 반영하는 불일치 점수, 즉 과소표현 점수 s(xi;T)를 수학식 10과 같이 정의할 수 있다.Set D={x i ] as the training dataset. A mini-batch of size B on the training dataset is , i.e. each sample x i ∈ D is sampled with a certain probability P s (i). The goal of the present invention is to design a sampling frequency P s (i) that can highlight underrepresented samples. A mismatch score reflecting the underrepresentation of each sample, that is, the underrepresentation score s(x i ;T) can be defined as in Equation 10.

[수학식 10][Equation 10]

여기서, T는 불일치 점수를 계산하는 데 사용되는 단계 셋이고 k는 각 통계량의 기여도를 변조하는 하이퍼 파라미터이다. 수학식 10은 LDR 추정치의 신뢰 구간의 상한으로 해석될 수 있으며, LDRM의 가중치와 k에 의해 제어되는 LDRV의 제곱근의 상한으로 해석될 수 있다. 모든 데이터가 최소한 어느 정도의 확률로 샘플링되도록 s(xi)의 최소값을 ε=0.01(min_clip)로 클리핑하고 최대값을 50의 최대-최소 비율 즉, max s(x)/min s(x)=50(max_clip)으로 클리핑한다. 클리핑된 점수 s'(xi;T)=max_clip (min_clip(s(xi;T)))의 경우 최종 가중치 샘플링 주파수는 와 같다.where T is the set of steps used to compute the discordance score and k is a hyperparameter that modulates the contribution of each statistic. Equation 10 can be interpreted as an upper bound of the confidence interval of the LDR estimate, and can be interpreted as an upper bound of the square root of the LDRV controlled by the weight of the LDRM and k. Clip the minimum value of s(x i ) to ε = 0.01 (min_clip) and the maximum value to a maximum-minimum ratio of 50, that is, max s (x) / min s (x) = 50 (max_clip) so that all data is sampled with at least some probability. For the clipped score s'(x i ;T)=max_clip (min_clip(s(x i ;T))), the final weighted sampling frequency is Same as

불일치 점수(과소표현 점수)가 실제로 과소 표현된 샘플을 캡처하는지 확인하기 위해 불일치 점수가 가장 낮거나 가장 높은 샘플을 분석한다. 예를 들어, 40k 단계에 대해 CIFAR-10에서 SNGAN을 학습하고 각 샘플의 불일치 점수를 측정한다. 도 7을 참조하면, 학습 이미지 중에서 불일치 점수가 가장 낮은 이미지(도 7의 (a) 이미지)와 불일치 점수가 가장 높은 이미지(도 7의 (b) 이미지)를 제시하고 생성된 샘플 이미지(도 7의 (c) 이미지)와 비교한다. 불일치 점수가 높은 이미지에는 생성된 샘플과 구별되는 특성(예: 비정상적인 배경이나 모양)이 있는 반면, 불일치 점수가 낮은 이미지에는 생성된 샘플에서도 사용할 수 있는 특징이 포함되어 있다. 도 7의 이미지에 대한 픽셀 강도 히스토그램을 비교하면, 도 8에 도시한 바와 같이 샘플 속성에서 차이가 더 뚜렷하게 나타남을 알 수 있다. 불일치 점수가 낮은 이미지는 생성된 샘플과 유사한 강도 분포를 보이는 반면, 불일치 점수가 높은 이미지는 매우 다른 경향을 보인다. 또한, 최저/최고 점수 그룹의 부분 FID(Frechet Inception Distance)(학습 샘플의 서브 집합으로 측정된 FID)를 고려하면 불일치 점수가 높은 그룹의 부분 FID 점수가 불일치 점수가 낮은 그룹보다 높다. 두 그룹 사이의 큰 간격은 생성기가 고득점 그룹과 유사한 샘플을 생성하지 못한다는 것을 나타낸다. 이러한 결과는 불일치 점수가 추가 학습에 강조가 필요할 수 있는 과소 표현된 데이터를 성공적으로 식별한다는 것을 의미한다.Analyze samples with the lowest or highest discordance score to ensure that the discordance score (underrepresentation score) really captures the underrepresentation sample. For example, train SNGAN on CIFAR-10 for 40k steps and measure the discrepancy score of each sample. Referring to FIG. 7, the image with the lowest discrepancy score (image in FIG. 7 (a)) and the image with the highest discrepancy score (image in (b) in FIG. 7) among the training images are presented and compared with the generated sample image (image in (c) in FIG. 7). Images with high discrepancies scores have characteristics that distinguish them from the generated samples (e.g., unusual backgrounds or shapes), whereas images with low discrepancies scores contain features that are also available in the generated samples. Comparing the pixel intensity histogram for the image of FIG. 7 , it can be seen that the difference in sample properties is more pronounced as shown in FIG. 8 . Images with a low discrepancy score show a similar intensity distribution to the generated sample, while images with a high discrepancy score show a very different trend. In addition, considering the partial Frechet Inception Distance (FID) (FID measured with a subset of the training samples) of the lowest/highest scoring groups, the partial FID scores of the group with high discordance scores are higher than those of the group with low discordance scores. A large gap between the two groups indicates that the generator is not generating samples similar to the high scoring group. These results imply that the discordance score successfully identifies underrepresented data that may need emphasis for further learning.

본 발명에서는 보조 판별기를 이용하여 DRS(discriminator rejection sampling)에 대한 후처리를 수행할 수 있다.In the present invention, post-processing for discriminator rejection sampling (DRS) may be performed using an auxiliary discriminator.

불일치 점수 기반 가중 샘플링은 학습 중에 과소 표현된 샘플에 대한 바이어스(bias)를 준다. 다양성을 개선하는 데 효과적이지만, 이는 수정된 데이터 분포 p'data(x)=f(x)pdata(x) 결과가 된다. 여기서, f(·)은 정규화된 샘플링 빈도이다. 따라서, 학습된 모델 분포 pg는 원본 데이터 분포 pdata와 다를 수 있다. 이를 해결하기 위해, 학습 후 바이어스를 수정하기 위해 DRS을 활용한다. DRS는 상수 M>0에 대해 확률 로 생성된 샘플을 받아들인다. DRS를 수행하려면 판별기 출력에 기초하여 계산된 pdata(x)/pg(x)에 대한 추정치가 필요하다. 본 발명에서 판별기는 편향된 p'data(x)로 학습되기 때문에 DRS에 대한 LDR 추정치(수학식 2)를 얻기 위해 가중 샘플링 절차 동안 보조 판별기를 추가하고 균일한 샘플링(즉, 샘플링 기법을 적용하지 않고)으로 학습하며 생성된 샘플의 DRS에 사용할 수 있다.Discordance score-based weighted sampling biases against under-represented samples during training. Although effective in improving diversity, this results in a modified data distribution p' data (x)=f(x)p data (x). Here, f(·) is the normalized sampling frequency. Therefore, the learned model distribution p g may differ from the original data distribution p data . To solve this, we utilize DRS to correct the bias after training. DRS is the probability for a constant M > 0 Accept samples generated by Performing DRS requires an estimate of p data (x)/p g (x) calculated based on the discriminator output. In the present invention, since the discriminator is learned with biased p' data (x), an auxiliary discriminator is added during the weighted sampling procedure to obtain the LDR estimate (Equation 2) for the DRS, and uniform sampling (i.e., without applying the sampling technique). It can be learned and used for the DRS of the generated sample.

도 9는 본 발명의 일 실시예에 있어서 자가-진단 생성적 적대 신경망에 대한 세부 알고리즘의 예시를 도시한 것이다.9 shows an example of a detailed algorithm for a self-diagnosing generative adversarial neural network in one embodiment of the present invention.

요컨대, 도 9를 참조하면, 생성적 적대 신경망 기반의 데이터 생성 방법은 생성적 적대 신경망을 학습하고 각 데이터 인스턴스에 대한 불일치 점수(즉, 과소표현 점수)를 평가하는 학습 및 진단 단계(phase 1), 생성적 적대 신경망이 불일치 점수 기반 가중 샘플링을 통해 데이터 매니폴드의 잘 표현되지 않은 영역을 학습하는 점수 기반 가중 샘플링 단계(phase 2), 및 생성적 적대 신경망의 학습 후 DRS을 통해 모델 분포 pg(x)를 수정하는 DRS 단계(phase 3)를 포함할 수 있다.In summary, referring to FIG. 9, the generative adversarial network-based data generation method includes a learning and diagnosis phase (phase 1) in which the generative adversarial network is trained and a discord score (i.e., an underrepresentation score) is evaluated for each data instance, a score-based weighted sampling step (phase 2) in which the generative adversarial network learns an underrepresented region of the data manifold through discord score-based weighted sampling (phase 2), and model distribution p g (x) is modified through DRS after training of the generative adversarial network. It may include a DRS phase (phase 3) of

이처럼 본 발명의 실시예들에 따르면, 생성적 적대 신경망의 학습 과정에서 모델이 잘 표현하지 못한 데이터를 식별하여 해당 데이터를 강조함으로써 모델이 보다 고르게 각 학습 데이터를 잘 표현할 수 있고 이를 통해 생성 데이터의 다양성과 데이터 생성 성능을 개선할 수 있다.As described above, according to the embodiments of the present invention, by identifying data that is not well represented by the model in the learning process of the generative adversarial neural network and emphasizing the corresponding data, the model can more evenly represent each training data, and through this, the diversity of generated data and the performance of data generation can be improved.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The devices described above may be implemented as hardware components, software components, and/or a combination of hardware components and software components. For example, the devices and components described in the embodiments may be implemented using one or more general purpose or special purpose computers, such as a processor, controller, arithmetic logic unit (ALU), digital signal processor, microcomputer, field programmable gate array (FPGA), programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions. The processing device may run an operating system (OS) and one or more software applications running on the operating system. A processing device may also access, store, manipulate, process, and generate data in response to execution of software. For convenience of understanding, there are cases in which one processing device is used, but those skilled in the art will recognize that the processing device may include a plurality of processing elements and/or multiple types of processing elements. For example, a processing device may include a plurality of processors or a processor and a controller. Other processing configurations are also possible, such as parallel processors.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of these, and may configure a processing device to operate as desired, or may independently or collectively direct a processing device. The software and/or data may be embodied in any tangible machine, component, physical device, computer storage medium or device to be interpreted by or to provide instructions or data to a processing device. Software may be distributed on networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer readable media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 이때, 매체는 컴퓨터로 실행 가능한 프로그램을 계속 저장하거나, 실행 또는 다운로드를 위해 임시 저장하는 것일 수도 있다. 또한, 매체는 단일 또는 수 개의 하드웨어가 결합된 형태의 다양한 기록수단 또는 저장수단일 수 있는데, 어떤 컴퓨터 시스템에 직접 접속되는 매체에 한정되지 않고, 네트워크 상에 분산 존재하는 것일 수도 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. 또한, 다른 매체의 예시로, 어플리케이션을 유통하는 앱 스토어나 기타 다양한 소프트웨어를 공급 내지 유통하는 사이트, 서버 등에서 관리하는 기록매체 내지 저장매체도 들 수 있다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer readable medium. In this case, the medium may continuously store a program executable by a computer or temporarily store the program for execution or download. In addition, the medium may be various recording means or storage means in the form of a single or combined hardware, but is not limited to a medium directly connected to a certain computer system, and may be distributed on a network. Examples of media may include magnetic media such as hard disks, floppy disks and magnetic tapes, optical recording media such as CD-ROMs and DVDs, magneto-optical media such as floptical disks, and those configured to store program instructions, including ROM, RAM, flash memory, and the like. In addition, examples of other media include recording media or storage media managed by an app store that distributes applications, a site that supplies or distributes various other software, and a server.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with limited examples and drawings, those skilled in the art can make various modifications and variations from the above description. For example, even if the described techniques are performed in an order different from the described method, and/or components of the described system, structure, device, circuit, etc. are combined or combined in a different form from the described method, or replaced or substituted by other components or equivalents, appropriate results can be achieved.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents of the claims are within the scope of the following claims.

Claims (15)

컴퓨터 시스템에서 수행되는 데이터 생성 방법에 있어서,
상기 컴퓨터 시스템은 메모리에 포함된 컴퓨터 판독가능한 명령들을 실행하도록 구성된 적어도 하나의 프로세서를 포함하고,
상기 데이터 생성 방법은,
상기 적어도 하나의 프로세서에 의해, 생성적 적대 신경망(GAN, Generative Adversarial Network)의 학습 과정에서 각 학습 데이터의 과소 표현된 정도를 나타내는 과소표현 점수를 측정하는 단계; 및
상기 적어도 하나의 프로세서에 의해, 상기 과소표현 점수에 기반한 가중 샘플링(weighted sampling)을 통해 상기 생성적 적대 신경망을 추가 학습하는 단계
를 포함하는 데이터 생성 방법.
In the data generation method performed in a computer system,
The computer system includes at least one processor configured to execute computer readable instructions contained in a memory;
The data generation method,
measuring, by the at least one processor, an underrepresentation score representing an underrepresentation degree of each training data in a learning process of a generative adversarial network (GAN); and
Further learning, by the at least one processor, the generative adversarial network through weighted sampling based on the underrepresentation score.
Data generation method comprising a.
제1항에 있어서,
상기 측정하는 단계는,
상기 학습 데이터에서 데이터 분포와 모델 분포 간의 불일치 점수를 계산함으로써 상기 과소표현 점수를 측정하는 것
을 특징으로 하는 데이터 생성 방법.
According to claim 1,
The measuring step is
Measuring the underrepresentation score by calculating a discrepancy score between a data distribution and a model distribution in the training data.
Characterized by a data generation method.
제1항에 있어서,
상기 생성적 적대 신경망은 생성기 신경망과 판별기 신경망을 포함하고,
상기 측정하는 단계는,
상기 판별기 신경망의 출력 값에 기반한 LDR(log density ratio)을 기초로 상기 과소표현 점수를 측정하는 것
을 특징으로 하는 데이터 생성 방법.
According to claim 1,
The generative adversarial neural network includes a generator neural network and a discriminator neural network,
The measuring step is
Measuring the underrepresentation score based on a log density ratio (LDR) based on an output value of the discriminator neural network
Characterized by a data generation method.
제3항에 있어서,
상기 측정하는 단계는,
상기 생성적 적대 신경망의 학습 과정에서 계산된 상기 LDR의 평균(mean)과 분산(variance)을 이용하여 상기 과소표현 점수를 측정하는 것
을 특징으로 하는 데이터 생성 방법.
According to claim 3,
The measuring step is
Measuring the underrepresentation score using the mean and variance of the LDR calculated in the learning process of the generative adversarial neural network
Characterized by a data generation method.
제1항에 있어서,
상기 생성적 적대 신경망은 생성기 신경망과 판별기 신경망을 포함하고,
상기 측정하는 단계는,
상기 생성적 적대 신경망의 학습 과정에서 계산된 상기 판별기 신경망의 출력 값의 평균과 분산을 이용하여 상기 과소표현 점수를 측정하는 것
을 특징으로 하는 데이터 생성 방법.
According to claim 1,
The generative adversarial neural network includes a generator neural network and a discriminator neural network,
The measuring step is
Measuring the underrepresentation score using the mean and variance of output values of the discriminator neural network calculated in the learning process of the generative adversarial neural network
Characterized by a data generation method.
제1항에 있어서,
상기 생성적 적대 신경망의 학습 시 비포화 손실(non-saturating loss) 함수 또는 힌지 손실(hinge loss) 함수가 사용되는 것
을 특징으로 하는 데이터 생성 방법.
According to claim 1,
Using a non-saturating loss function or a hinge loss function when learning the generative adversarial network
Characterized by a data generation method.
제1항에 있어서,
상기 추가 학습하는 단계는,
상기 과소표현 점수에 비례하여 상기 학습 데이터의 샘플링 확률을 조정하는 단계
를 포함하는 데이터 생성 방법.
According to claim 1,
The additional learning step is,
Adjusting the sampling probability of the training data in proportion to the underrepresentation score
Data generation method comprising a.
제7항에 있어서,
상기 조정하는 단계는,
최대 샘플링 확률과 최소 샘플링 확률 사이의 비율이 일정 값을 넘지 않는 범위에서 상기 학습 데이터의 샘플링 확률을 조정하는 것
을 특징으로 하는 데이터 생성 방법.
According to claim 7,
The adjustment step is
Adjusting the sampling probability of the training data within a range where the ratio between the maximum sampling probability and the minimum sampling probability does not exceed a certain value
Characterized by a data generation method.
제1항에 있어서,
상기 생성적 적대 신경망은 생성기 신경망과 판별기 신경망을 포함하고,
상기 데이터 생성 방법은,
상기 적어도 하나의 프로세서에 의해, 상기 판별기 신경망의 출력 값을 이용한 기각 샘플링(rejection sampling)을 통해 상기 생성적 적대 신경망의 모델 분포를 수정하는 단계
를 더 포함하는 데이터 생성 방법.
According to claim 1,
The generative adversarial neural network includes a generator neural network and a discriminator neural network,
The data generation method,
Modifying, by the at least one processor, a model distribution of the generative adversarial neural network through rejection sampling using an output value of the discriminator neural network.
Data generation method further comprising a.
데이터 생성 방법을 컴퓨터에 실행시키기 위해 컴퓨터 판독가능한 기록 매체에 저장되는 컴퓨터 프로그램에 있어서,
상기 데이터 생성 방법은,
생성적 적대 신경망의 학습 과정에서 각 학습 데이터의 과소 표현된 정도를 나타내는 과소표현 점수를 측정하는 단계;
상기 과소표현 점수에 기반한 가중 샘플링을 통해 상기 생성적 적대 신경망을 추가 학습하는 단계; 및
판별기 신경망의 출력 값을 이용한 기각 샘플링을 통해 상기 생성적 적대 신경망의 모델 분포를 수정하는 단계
를 포함하는, 컴퓨터 프로그램.
In a computer program stored in a computer readable recording medium to execute a data generating method on a computer,
The data generation method,
measuring an underrepresentation score representing an underrepresentation degree of each training data in a learning process of a generative adversarial network;
additionally learning the generative adversarial neural network through weighted sampling based on the underrepresentation score; and
Modifying the model distribution of the generative adversarial neural network through reject sampling using an output value of the discriminator neural network.
Including, a computer program.
컴퓨터 시스템에 있어서,
메모리에 포함된 컴퓨터 판독가능한 명령들을 실행하도록 구성된 적어도 하나의 프로세서
를 포함하고,
상기 적어도 하나의 프로세서는,
생성적 적대 신경망의 학습 과정에서 각 학습 데이터의 과소 표현된 정도를 나타내는 과소표현 점수를 측정하는 과정; 및
상기 과소표현 점수에 기반한 가중 샘플링을 통해 상기 생성적 적대 신경망을 추가 학습하는 과정
을 처리하는 컴퓨터 시스템.
In a computer system,
at least one processor configured to execute computer readable instructions contained in memory;
including,
The at least one processor,
A process of measuring an underrepresentation score indicating the degree of underrepresentation of each training data in the learning process of a generative adversarial network; and
A process of additionally learning the generative adversarial network through weighted sampling based on the underrepresentation score
A computer system that processes
제11항에 있어서,
상기 적어도 하나의 프로세서는,
상기 학습 데이터에서 데이터 분포와 모델 분포 간의 불일치 점수를 계산함으로써 상기 과소표현 점수를 측정하는 것
을 특징으로 하는 컴퓨터 시스템.
According to claim 11,
The at least one processor,
Measuring the underrepresentation score by calculating a discrepancy score between a data distribution and a model distribution in the training data.
Characterized by a computer system.
제11항에 있어서,
상기 생성적 적대 신경망은 생성기 신경망과 판별기 신경망을 포함하고,
상기 적어도 하나의 프로세서는,
상기 판별기 신경망의 출력 값에 기반한 LDR을 기초로 상기 과소표현 점수를 측정하는 것
을 특징으로 하는 컴퓨터 시스템.
According to claim 11,
The generative adversarial neural network includes a generator neural network and a discriminator neural network,
The at least one processor,
Measuring the underrepresentation score based on an LDR based on an output value of the discriminator neural network.
Characterized by a computer system.
제11항에 있어서,
상기 적어도 하나의 프로세서는,
최대 샘플링 확률과 최소 샘플링 확률 사이의 비율이 일정 값을 넘지 않는 범위에서 상기 과소표현 점수에 비례하여 상기 학습 데이터의 샘플링 확률을 조정하는 것
을 특징으로 하는 컴퓨터 시스템.
According to claim 11,
The at least one processor,
Adjusting the sampling probability of the training data in proportion to the underrepresentation score within a range where the ratio between the maximum sampling probability and the minimum sampling probability does not exceed a certain value
Characterized by a computer system.
제13항에 있어서,
상기 적어도 하나의 프로세서는,
상기 판별기 신경망의 출력 값을 이용한 기각 샘플링을 통해 상기 생성적 적대 신경망의 모델 분포를 수정하는 것
을 특징으로 하는 컴퓨터 시스템.
According to claim 13,
The at least one processor,
Modifying the model distribution of the generative adversarial neural network through reject sampling using the output value of the discriminator neural network.
Characterized by a computer system.
KR1020220032061A 2022-01-14 2022-03-15 Self-Diagnosing Generative Adversarial Networks to Diagnose and Emphasize Underrepresented Samples KR20230110138A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020220006005 2022-01-14
KR20220006005 2022-01-14

Publications (1)

Publication Number Publication Date
KR20230110138A true KR20230110138A (en) 2023-07-21

Family

ID=87430083

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220032061A KR20230110138A (en) 2022-01-14 2022-03-15 Self-Diagnosing Generative Adversarial Networks to Diagnose and Emphasize Underrepresented Samples

Country Status (1)

Country Link
KR (1) KR20230110138A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210048100A (en) 2019-10-23 2021-05-03 서울대학교산학협력단 Condition monitoring data generating apparatus and method using generative adversarial network

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210048100A (en) 2019-10-23 2021-05-03 서울대학교산학협력단 Condition monitoring data generating apparatus and method using generative adversarial network

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
1. Goodfellow et al., Generative Adversarial Networks, 2014

Similar Documents

Publication Publication Date Title
CN111108362A (en) Abnormal sound detection device, abnormal model learning device, abnormal sound detection method, abnormal sound generation device, abnormal data generation device, abnormal sound generation method, and program
US20220067588A1 (en) Transforming a trained artificial intelligence model into a trustworthy artificial intelligence model
US20190228273A1 (en) Identifying parameter image adjustments using image variation and sequential processing
WO2021157330A1 (en) Calculator, learning method of discriminator, and analysis system
US10771994B2 (en) Method and test system for mobile network testing as well as a network testing system
CN114970886B (en) Clustering-based adaptive robust collaborative learning method and device
CN116453438B (en) Display screen parameter detection method, device, equipment and storage medium
TWI763451B (en) System, method, and non-transitory computer readable medium utilizing automatic selection of algorithmic modules for examination of a specimen
US20230325726A1 (en) Techniques for deriving and/or leveraging application-centric model metric
US20220261685A1 (en) Machine Learning Training Device
US20230140696A1 (en) Method and system for optimizing parameter intervals of manufacturing processes based on prediction intervals
WO2019176988A1 (en) Inspection system, identification system, and device for evaluating identification apparatus
KR20230110138A (en) Self-Diagnosing Generative Adversarial Networks to Diagnose and Emphasize Underrepresented Samples
CN113762005A (en) Method, device, equipment and medium for training feature selection model and classifying objects
US20230204549A1 (en) Apparatus and automated method for evaluating sensor measured values, and use of the apparatus
EP3696771A1 (en) System for processing an input instance, method, and medium
US11995477B2 (en) Verification of updated analytical procedures in monitoring systems
US20220230028A1 (en) Determination method, non-transitory computer-readable storage medium, and information processing device
Robbiati et al. A quantum analytical Adam descent through parameter shift rule using Qibo
WO2022162839A1 (en) Learning device, learning method, and recording medium
KR20210158740A (en) Apparatus and method for clustering validation based on machine learning performance
US20230222382A1 (en) Systems and methods for machine learning model training and deployment
WO2021111832A1 (en) Information processing method, information processing system, and information processing device
CN117275076B (en) Method for constructing face quality assessment model based on characteristics and application
US20230034782A1 (en) Learning-based clean data selection