KR102403797B1 - Method and apparatus for adversarial likelihood-free inference on black-box generator - Google Patents

Method and apparatus for adversarial likelihood-free inference on black-box generator Download PDF

Info

Publication number
KR102403797B1
KR102403797B1 KR1020200130146A KR20200130146A KR102403797B1 KR 102403797 B1 KR102403797 B1 KR 102403797B1 KR 1020200130146 A KR1020200130146 A KR 1020200130146A KR 20200130146 A KR20200130146 A KR 20200130146A KR 102403797 B1 KR102403797 B1 KR 102403797B1
Authority
KR
South Korea
Prior art keywords
black box
network
adversarial
likelihood
metropolis
Prior art date
Application number
KR1020200130146A
Other languages
Korean (ko)
Other versions
KR20220046896A (en
Inventor
문일철
김동준
주원영
신승재
송경우
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR1020200130146A priority Critical patent/KR102403797B1/en
Publication of KR20220046896A publication Critical patent/KR20220046896A/en
Application granted granted Critical
Publication of KR102403797B1 publication Critical patent/KR102403797B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N7/005
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks

Abstract

본 개시의 일 특징에 따르면, 컴퓨터 시스템 상에서 수행되는, 블랙박스 생성기에 대한 적대적 비우도 추론 방법이 제공된다. 전술한 방법은 판별자 네트워크(discriminator network:

Figure 112020106577710-pat00116
) 및 확률적 인코더 네트워크(probabilistic encoder network:
Figure 112020106577710-pat00117
)에 대해서, 메트로폴리스-해스팅 알고리즘을 m번 반복하는 단계 - 여기서 m은 매트로폴리스-해스팅 알고리즘의 고정(stationary) 분포에 대한 수렴 속도를 제어하는 탐사-발산 하이퍼 파라미터(exploration-expoitation hyperparameter)임 -; 블랙박스 생성 모델에 입력변수를 대입한 출력값을 산출하는 단계; 제1 경사 하강(gradient) 기법에 기초하여 상기 판별자 네트워크를 l 번 업데이트 하는 단계; 및 제2 경사 하강(gradient) 기법에 기초하여 상기 확률적 인코더 네트워크를 l 번 업데이트 하는 단계를 포함할 수 있다. According to an aspect of the present disclosure, there is provided a method for inferring adversarial non-likelihood for a black box generator, performed on a computer system. The method described above is a discriminator network (discriminator network:
Figure 112020106577710-pat00116
) and a probabilistic encoder network:
Figure 112020106577710-pat00117
), repeat the metropolis-Hasting algorithm m times, where m is the exploration-expoitation hyperparameter that controls the convergence rate for the stationary distribution of the metropolis-Hasting algorithm. -; calculating an output value obtained by substituting input variables into the black box generation model; updating the discriminator network l times based on a first gradient descent technique; and updating the probabilistic encoder network l times based on a second gradient descent technique.

Description

블랙 박스 생성기에 대한 적대적 비(非)우도 추론 방법 및 장치{METHOD AND APPARATUS FOR ADVERSARIAL LIKELIHOOD-FREE INFERENCE ON BLACK-BOX GENERATOR}Adversarial non-likelihood inference method and apparatus for black box generator

본 개시는 블랙 박스 생성기에 대한 적대적 비(非)우도 추론 방법에 관한 것이다. The present disclosure relates to an adversarial non-likelihood inference method for a black box generator.

최근 GAN(Generative Adversarial Network)가 암시적으로 데이터 분포를 추정하는데 성공적인 측면에서 최근 강조되고 있다. GAN에서 생성기(generator)는 판별자(discriminator)와 공동으로 학습되므로 생성기는 적대적인 학습 메커니즘에 따라 학습 가능하고 미세 조정 가능한 모델이 될 수 있다. 적대적 프레임워크에 통합된 이러한 생성기와는 대조적으로, GAN의 적대적 프레임 워크와 통합할 수 없는 생성기로서의 GAN의 암시적 데이터 추정 기능을 통합하려는 노력이 있었다. 예를 들어, 시뮬레이션 모델은 GAN 학습 구조에 통합되지 않은 생성기로 간주 될 수 있으며, 연구원들은 재현 불가능한 기계열 데이터를 통해 시뮬레이션 모델의 실제 매개 변수에 대한 추정에 관심을 가졌다(Meeds & Welling, 2015 ; Gutmann & Corander, 2016; Louppe et al., 2019).Recently, generative adversarial networks (GANs) have been recently emphasized in terms of their success in estimating data distribution implicitly. In GAN, the generator is trained jointly with the discriminator, so the generator can be a learnable and fine-tuneable model according to the adversarial learning mechanism. In contrast to these generators integrated into adversarial frameworks, efforts have been made to incorporate the implicit data estimation function of GANs as generators that cannot be integrated with the adversarial frameworks of GANs. For example, a simulation model can be considered a generator that is not integrated into the GAN learning structure, and researchers have been interested in estimating the actual parameters of the simulation model through non-reproducible mechanistic data (Meeds & Welling, 2015; Gutmann & Corander, 2016; Louppe et al., 2019).

계속 진행하기 전에, 관심있는 생성기 유형을 명확하게 나타내기 위해 블랙 박스 생성 모델을 정의할 수 있다. 블랙 박스 생성 모델은 세 가지 특성을 갖는 생성 모델을 나타낸다. 먼저, 블랙 박스 모델의 내부 프로세스는 추론 단계 이전에 결정되며, 도메인 전문가 또는 다른 통계 모델에 의해 설계된다. 둘째, 내부 프로세스의 계수는 계수가 도메인 특정 지식 또는 별도의 학습 프로세스를 통해 획득되므로 추론 단계에서는 변경되지 않는다. 셋째, 생성 모델의 내부에는 알 수 없는 분포를 따르는 내부 변수가 존재하여 모델 결과의 변동성을 가져다 준다. 예를 들어, 연속, 불연속 및 에이전트 기반 시뮬레이션 모델은 모델링 된 상태의 확률적 궤적(stochastic trajectory)을 생성하는 블랙 박스 생성기일 수 있다. 다른 예로서, 미리 훈련되고 고정된 탈나선형(de-convolutional) 신경망은 블랙 박스 생성기의 또 다른 유용한(practical) 사례 일 수 있다.Before proceeding, we can define a black box generation model to clearly indicate the types of generators we are interested in. The black box generative model represents a generative model with three characteristics. First, the internal process of the black box model is determined before the inference step, and is designed by domain experts or other statistical models. Second, the coefficients of the internal process are not changed in the reasoning stage because the coefficients are obtained through domain-specific knowledge or a separate learning process. Third, internal variables following an unknown distribution exist inside the generative model, resulting in variability in model results. For example, continuous, discontinuous and agent-based simulation models can be black box generators that generate stochastic trajectories of modeled states. As another example, a pre-trained and fixed de-convolutional neural network may be another practical example of a black box generator.

블랙 박스 생성기에 대한 연구는 관측치의 재생산(re-generation)을 강조하는데, 이는 사후(posterior) 분포

Figure 112020106577710-pat00001
를 유추하여 생성화될 수 있다. 여기서
Figure 112020106577710-pat00002
는 모델 입력 매개 변수이고
Figure 112020106577710-pat00003
는 재구성할 관찰된 데이터이다. 그러나,이 베이지안 추론 문제는 다루기 힘든 우도
Figure 112020106577710-pat00004
에 의해 어려움을 겪는데, 여기서 어려움은 잡음 변수(nuisance variable)
Figure 112020106577710-pat00005
가 추론 과정에서 접근하기 어렵다는 블랙 박스 특성으로 인해 발생할 수 있다. 여기서 잡음 변수
Figure 112020106577710-pat00006
는 같은 입력 변수를 입력한다 해도 생성기의 출력에 랜덤성을 부여하는, 생성기에 내재하는 관측 불가능한 제어 변수이다. The study of black box generators emphasizes the re-generation of observations, which are posterior distributions.
Figure 112020106577710-pat00001
can be generated by analogy with here
Figure 112020106577710-pat00002
is the model input parameter and
Figure 112020106577710-pat00003
is the observed data to be reconstructed. However, this Bayesian inference problem has an intractable likelihood
Figure 112020106577710-pat00004
difficulty is caused by the noise variable
Figure 112020106577710-pat00005
It may be caused by the black box characteristic that is difficult to access in the inference process. where the noise variable
Figure 112020106577710-pat00006
is an unobservable control variable inherent in the generator that gives randomness to the output of the generator even when the same input variable is input.

u에 접근 할 수 없기 때문에 발생하는 추론의 어려움 외에도, 사후 우도의 도함수(derivative)는 다음으로 계산될 수 없다. 이렇듯 우도

Figure 112020106577710-pat00007
의 도함수를 계산할 수 없기 때문에 최종 신호 피드백을 역 전파 할 수 없게 된다. 역 전파가 불가능하다는 것은 신경망 모델과 함께 블랙 박스 생성기의 사용을 방지한다. 역 전파 문제를 극복하기 위해 Louppe et al. (2019)는 적대적 설정에서 블랙 박스 모델에 대한 비우도 추론의 최적화 알고리즘인 AVO (Adversarial Variational Optimization)를 제안한다. Louppe et al. (2019)는 역 전파 문제를 해결하기 위해 블랙 박스 모델의 입력 매개 변수 분포로 제안 분포(proposal distribution)
Figure 112020106577710-pat00008
를 제안한다. 그러나 이 솔루션 개념에서 AVO는 사후 분포가 제안된 분포라고 가정하는데, 이는 보장 할 수 없으므로, AVO는 역 전파에서 잠재적으로 부정확한 분포 하에서 매개 변수를 최적화한다.Besides the inference difficulties that arise from not being able to access u, the derivative of the posterior likelihood cannot be computed as Like this, Udo
Figure 112020106577710-pat00007
Since the derivative of cannot be computed, it becomes impossible to backpropagate the final signal feedback. The impossibility of backpropagation prevents the use of black box generators with neural network models. To overcome the backpropagation problem, Louppe et al. (2019) proposes Adversarial Variational Optimization (AVO), an optimization algorithm of non-likelihood inference for black box models in adversarial settings. Louppe et al. (2019) proposed a distribution as an input parameter distribution of a black box model to solve the backpropagation problem.
Figure 112020106577710-pat00008
suggest However, in this solution concept, AVO assumes that the posterior distribution is the proposed distribution, which cannot be guaranteed, so AVO optimizes parameters under potentially imprecise distributions in backpropagation.

본 개시는 희박한 관측치가 주어 졌을 때 AVO의 잠재적 문제에서 시작하며, 우리는 블랙 박스 생성 모델에 대한 추론을 위해 새로운 적대적 프레임워크인, 새로운 적대적 비우도 추론(ALFI: Adversarial Likelihood-Free Inference)을 제안한다. ALFI는 대량의 데이터 세트가 있는 암시적 신경망 생성 모델에서 희소한 관찰이 있는 일반 블랙 박스 생성 모델로 적대적 프레임 워크의 경계를 확장하려고 하는데, 이는 다른 도메인에서 유래한다. ALFI는 제안 분포

Figure 112020106577710-pat00009
를 사용하는 대신 역 전파 문제를 피하기 위해 확률적 엔코더 네트워크라고 하는 보조 구조를 사용한다. 확률적 엔코더 네트워크는 확률적 프로세스에서 샘플링된 결과를 갖는 판별자의 확률 모델을 가정합니다. 블랙 박스 생성 모델의 기본 매개 변수를 추정하기 위해 기본 알고리즘으로 ALFI를 테스트할 수 있다. 결과적으로 제한된 시뮬레이션 예산으로 ALFI가 최상의 추정 정확도를 달성함을 보여준다.The present disclosure starts with the potential problem of AVO given sparse observations, and we propose a new adversarial framework for inference on black box generative models, a new Adversarial Likelihood-Free Inference (ALFI). do. ALFI attempts to extend the boundaries of adversarial frameworks from implicit neural network generation models with large data sets to general black box generation models with sparse observations, which originate from other domains. ALFI is the proposed distribution
Figure 112020106577710-pat00009
Instead of using , we use an auxiliary structure called a probabilistic encoder network to avoid the backpropagation problem. A probabilistic encoder network assumes a probabilistic model of a discriminator with sampled results from a probabilistic process. ALFI can be tested with the basic algorithm to estimate the basic parameters of the black box generation model. As a result, we show that ALFI achieves the best estimation accuracy with a limited simulation budget.

따라서, 제한된 시뮬레이션 예산으로 추정 정확도를 높일 필요가 있다. Therefore, there is a need to increase the estimation accuracy with a limited simulation budget.

본 개시의 일 특징에 따르면, 컴퓨터 시스템 상에서 수행되는, 블랙박스 생성기에 대한 적대적 비우도 추론 방법이 제공된다. 전술한 방법은 판별자 네트워크(discriminator network:

Figure 112020106577710-pat00010
) 및 확률적 인코더 네트워크(probabilistic encoder network:
Figure 112020106577710-pat00011
)에 대해서, 메트로폴리스-해스팅 알고리즘을 m번 반복하는 단계 - 여기서 m은 매트로폴리스-해스팅 알고리즘의 고정(stationary) 분포에 대한 수렴 속도를 제어하는 탐사-발산 하이퍼 파라미터(exploration-expoitation hyperparameter)임 -; 블랙박스 생성 모델에 입력변수를 대입한 출력값을 산출하는 단계; 제1 경사 하강(gradient) 기법에 기초하여 상기 판별자 네트워크를 l 번 업데이트 하는 단계; 및 제2 경사 하강(gradient) 기법에 기초하여 상기 확률적 인코더 네트워크를 l 번 업데이트 하는 단계를 포함할 수 있다. According to an aspect of the present disclosure, there is provided a method for inferring adversarial non-likelihood for a black box generator, performed on a computer system. The method described above is a discriminator network (discriminator network:
Figure 112020106577710-pat00010
) and a probabilistic encoder network:
Figure 112020106577710-pat00011
), repeat the metropolis-Hasting algorithm m times, where m is the exploration-expoitation hyperparameter that controls the convergence rate for the stationary distribution of the metropolis-Hasting algorithm. -; calculating an output value obtained by substituting input variables into the black box generation model; updating the discriminator network l times based on a first gradient descent technique; and updating the probabilistic encoder network l times based on a second gradient descent technique.

본 개시의 일 실시예에서, 상기 메트로폴리스-해스팅 알고리즘을 m번 반복하는 단계는 다음 블랙박스 생성 모델의 입력 변수를 사용하여 계산될 수 있다. In an embodiment of the present disclosure, repeating the metropolis-hasting algorithm m times may be calculated using input variables of the following black box generation model.

본 개시의 일 실시예에서, 상기 제1 경사 하강 기법은 아래 수식(3)을 최적화하도록 학습될 수 있다. In an embodiment of the present disclosure, the first gradient descent technique may be learned to optimize Equation (3) below.

수식(3):Formula (3):

Figure 112020106577710-pat00012
Figure 112020106577710-pat00012

본 개시의 일 실시예에서, 상기 제2 경사 하강 기법은 아래 수식(4)을 최적화하도록 학습될 수 있다. In an embodiment of the present disclosure, the second gradient descent technique may be learned to optimize Equation (4) below.

수식(4):Formula (4):

Figure 112020106577710-pat00013
Figure 112020106577710-pat00013

본 개시의 일 실시예에서, 상기 수식(4)는 판별자로부터 생성되는 확률 변수를 추론하기 위해 우도를 최적화하는 방향으로 학습될 수 있다. In an embodiment of the present disclosure, Equation (4) may be learned in a direction to optimize likelihood to infer a random variable generated from a discriminator.

본 개시의 다른 특징에 따르면, 블랙박스 생성기에 대한 적대적 비우도 추론을 제공하도록 구성된 장치가 제공된다. 장치는 컴퓨팅 모듈을 포함하고, 상기 컴퓨팅 모듈은 판별자 네트워크(discriminator network:

Figure 112020106577710-pat00014
) 및 확률적 인코더 네트워크(probabilistic encoder network:
Figure 112020106577710-pat00015
)에 대해서, 메트로폴리스-해스팅 알고리즘을 m번 반복하도록 구성되고 - 여기서 m은 매트로폴리스-해스팅 알고리즘의 고정(stationary) 분포에 대한 수렴 속도를 제어하는 탐사-발산 하이퍼 파라미터(exploration-expoitation hyperparameter)임 -; 블랙박스 생성 모델에 입력변수를 대입한 출력값을 산출하도록 구성되며; 제1 경사 하강(gradient) 기법에 기초하여 상기 판별자 네트워크를 l 번 업데이트하도록 구성되고 제2 경사 하강(gradient) 기법에 기초하여 상기 확률적 인코더 네트워크를 l 번 업데이트하도록 구성될 수 있다. According to another feature of the present disclosure, an apparatus configured to provide adversarial non-likelihood inference for a black box generator is provided. The device includes a computing module, the computing module comprising a discriminator network (discriminator network:
Figure 112020106577710-pat00014
) and a probabilistic encoder network:
Figure 112020106577710-pat00015
), configured to iterate the metropolis-Hasting algorithm m times - where m is an exploration-expoitation hyperparameter that controls the rate of convergence for a stationary distribution of the metropolis-Hasting algorithm. lim -; configured to calculate an output value by substituting input variables into the black box generation model; update the discriminator network l times based on a first gradient descent technique and update the probabilistic encoder network l times based on a second gradient descent technique.

본 개시의 다른 특징에 따르면, 컴퓨터에 의해 실행 가능한, 하나 이상의 컴퓨터 판독가능 명령이 수록된 컴퓨터 판독가능 기록매체로서, 상기 하나 이상의 컴퓨터 판독가능 명령은, 상기 컴퓨터에 의해 실행되는 경우, 상기 컴퓨터로 하여금, 전술한 방법을 수행하게 하는 컴퓨터 판독가능 기록매체가 제공될 수 있다.According to another feature of the present disclosure, there is provided a computer-readable recording medium containing one or more computer-readable instructions executable by a computer, wherein the one or more computer-readable instructions, when executed by the computer, cause the computer to , a computer-readable recording medium for performing the above-described method may be provided.

본 개시의 일 실시예에 따르면, 제한된 시뮬레이션 예산으로 최상의 추정 정확도를 제공할 수 있다. According to an embodiment of the present disclosure, it is possible to provide the best estimation accuracy with a limited simulation budget.

도 1은 본 개시의 일 실시예에 따라 암시적 제안 네트워크에서 AVO가,

Figure 112020106577710-pat00016
=0.001인 Rejection ABC 에 의해 얻어지는 멀티 모달 기준 사후 분포를 캡처하지 못하는 반면, ALFI는 멀티 모달 분포를 유추하는데 성공하는 것을 도시하는 도면이다.
도 2(a) 내지 (c)는 본 개시의 일 실시예에 따라 GAN, AVO 및 ALFI에 대한 네트워크 구조 비교하는 도면이다.
도 3은 본 개시의 일 실시예에 따라 GAN, AVO 및 ALFI에 대한 확률적 그래피컬 모델(PGM)을 비교하는 도면이다.
도 4(a) 내지 (c)는 본 개시의 일 실시예에 따라 예시적인 모델을 도시하는 그래프이다.
도 5는 본 개시의 일 실시예에 따라 ALFI 및 5 개의 기준을 성능 비교하는 그래프이다.
도 6은 관측이 도 6(a)와 같을 때의 포아송 시뮬레이션 결과를 도시하는 도면이다.
도 7은 본 개시의 일 실시예에 따라, 실제 샘플과 상기 실제 샘플의 마스크 된 관측 값을 한 쌍으로 도시하는 도면이다. 1 is an AVO in an implicit proposal network according to an embodiment of the present disclosure;
Figure 112020106577710-pat00016
A diagram showing that ALFI succeeds in inferring a multi-modal distribution, while failing to capture the multi-modal reference posterior distribution obtained by Rejection ABC =0.001.
2(a) to (c) are diagrams comparing network structures for GAN, AVO, and ALFI according to an embodiment of the present disclosure.
3 is a diagram comparing probabilistic graphical models (PGMs) for GAN, AVO, and ALFI according to an embodiment of the present disclosure.
4(a) to (c) are graphs illustrating an exemplary model according to an embodiment of the present disclosure.
5 is a graph comparing performance of ALFI and five criteria according to an embodiment of the present disclosure.
FIG. 6 is a diagram showing a Poisson simulation result when the observation is the same as that of FIG. 6(a).
7 is a diagram illustrating a pair of a real sample and a masked observation value of the real sample, according to an embodiment of the present disclosure.

이하, 첨부 도면을 참조하여 본 개시의 실시예에 관하여 상세히 설명한다. 이하에서는, 본 개시의 요지를 불필요하게 흐릴 우려가 있다고 판단되는 경우, 이미 공지된 기능 및 구성에 관한 구체적인 설명을 생략한다. 또한, 이하에서 설명하는 내용은 어디까지나 본 개시의 일 실시예에 관한 것일 뿐 본 개시가 이로써 제한되는 것은 아님을 알아야 한다.Hereinafter, embodiments of the present disclosure will be described in detail with reference to the accompanying drawings. Hereinafter, when it is determined that there is a risk of unnecessarily obscuring the subject matter of the present disclosure, detailed descriptions of already known functions and configurations will be omitted. In addition, it should be understood that the contents described below are only related to one embodiment of the present disclosure, and the present disclosure is not limited thereto.

본 개시에서 사용되는 용어는 단지 특정한 실시예를 설명하기 위해 사용되는 것으로 본 개시를 한정하려는 의도에서 사용된 것이 아니다. 예를 들면, 단수로 표현된 구성요소는 문맥상 명백하게 단수만을 의미하지 않는다면 복수의 구성요소를 포함하는 개념으로 이해되어야 한다. 본 개시에서 사용되는 "및/또는"이라는 용어는, 열거되는 항목들 중 하나 이상의 항목에 의한 임의의 가능한 모든 조합들을 포괄하는 것임이 이해되어야 한다. 본 개시에서 사용되는 '포함하다' 또는 '가지다' 등의 용어는 본 개시 상에 기재된 특징, 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것일 뿐이고, 이러한 용어의 사용에 의해 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 배제하려는 것은 아니다.The terms used in the present disclosure are only used to describe specific embodiments and are not intended to limit the present disclosure. For example, an element expressed in a singular should be understood as a concept including a plurality of elements unless the context clearly means only the singular. It should be understood that the term "and/or" as used in this disclosure is intended to encompass any and all possible combinations by one or more of the listed items. Terms such as 'comprise' or 'have' used in the present disclosure are only intended to designate that the features, numbers, steps, operations, components, parts, or combinations thereof described in the present disclosure exist, and the terms It is not intended to exclude the possibility of addition or existence of one or more other features or numbers, steps, operations, components, parts, or combinations thereof.

본 개시의 실시예에 있어서 '모듈' 또는 '부'는 적어도 하나의 기능이나 동작을 수행하는 기능적 부분을 의미하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 '모듈' 또는 '부'는, 특정한 하드웨어로 구현될 필요가 있는 '모듈' 또는 '부'를 제외하고는, 적어도 하나의 소프트웨어 모듈로 일체화되어 적어도 하나의 프로세서에 의해 구현될 수 있다.In an embodiment of the present disclosure, a 'module' or 'unit' means a functional part that performs at least one function or operation, and may be implemented as hardware or software, or a combination of hardware and software. In addition, the plurality of 'modules' or 'units' may be integrated into at least one software module and implemented by at least one processor, except for 'modules' or 'units' that need to be implemented with specific hardware. have.

이하, 첨부된 도면을 참조하여, 본 개시의 실시예에 대해 구체적으로 설명하기로 한다.Hereinafter, with reference to the accompanying drawings, an embodiment of the present disclosure will be described in detail.

생성적 적대 신경망(Generative Adversarial Network: GAN)은 데이터 분포(data distribution)의 암시적(implicit) 추정기(estimator)로 간주되는데, 이러한 관점은 복잡한 블랙 박스 생성 모델 하에서 실제 파라미터 추정에서 GAN을 사용하는 동기를 부여한다. 이전 연구에서는 블랙 박스 모델을 통해 그라디언트(gradients)를 역전파(back propagate)하는 방법을 조사했지만, 본 개시에서는 블랙 박스 모델에 대해 비(非)우도 추론을 수행하기 위해 증강된 신경 구조를 제안한다. 보다 상세히는 베타 추정 네트워크를 사용하는 새로운 적대적 프레임 워크인 적대적 비(非)우도 추론(Adversarial Likelihood-Free Inference: ALFI)를 제안하는데, 이는 적대적 학습과 확률적 엔코더 네트워크 학습을 통해 블랙 박스 생성기 모델에 대한 매개 변수의 후방 분포(posterior distribution)을 찾을 수 있다.Generative adversarial networks (GANs) are considered as implicit estimators of data distribution, and this perspective is the motivation for using GANs in real parameter estimation under complex black box generative models. to give Previous studies have investigated a method to back propagate gradients through a black box model, but this disclosure proposes an augmented neural structure to perform non-likelihood inference on a black box model. . In more detail, we propose Adversarial Likelihood-Free Inference (ALFI), a new adversarial framework using beta estimation networks, which is applied to a black box generator model through adversarial learning and probabilistic encoder network learning. We can find the posterior distribution of the parameters for

본 개시에 따르면, 뉴럴 네트워크를 사용한 생성 모델뿐만 아니라 다양한 시뮬레이션 모델로 ALFI를 실험했으며 제한된 시뮬레이션 예산으로 ALFI가 최상의 파라미터 추정 정확도를 달성함을 확인할 수 있다. According to the present disclosure, ALFI has been tested with various simulation models as well as a generative model using a neural network, and it can be confirmed that ALFI achieves the best parameter estimation accuracy with a limited simulation budget.

적대적 비(非)우도 추론 (Adversarial Likelihood-Free Inference)Adversarial Likelihood-Free Inference

본 개시는 블랙 박스 생성기에 관한 것으로 적대적 설정에서 작동 할 수 있는 베이지안 추론인 ALFI (Adversarial Likelihood-Free Inference)에 대한 것이다. 일 실시예에서, ALFI는 신경망 또는 확률적 시뮬레이션과 같은 다른 유형의 블랙 박스 생성기를 사용한다는 가정하에 Metropolis-Hastings 알고리즘에 의한 사후

Figure 112020106577710-pat00017
에 대한 샘플링 기반 추론을 할 수 있다. The present disclosure relates to a black box generator and to Adversarial Likelihood-Free Inference (ALFI), a Bayesian inference that can operate in an adversarial setting. In one embodiment, the ALFI is post-mortem by the Metropolis-Hastings algorithm, assuming that it uses a neural network or other type of black box generator, such as a probabilistic simulation.
Figure 112020106577710-pat00017
Sampling-based inference can be made about

1. ALFI 개발 동기 1. Motivation for ALFI Development

종래의 GAN은 신경망을 생성기

Figure 112020106577710-pat00018
로 사용하여 표준 가우시안 분포로 간주되는 이전 분포
Figure 112020106577710-pat00019
로 데이터 분포
Figure 112020106577710-pat00020
를 모델링한다. 여기에서 신경망 기반 생성기는
Figure 112020106577710-pat00021
외에 확률론 (stochasticity)이 없으므로, 방해 확률(nuisance stochastic) 변수
Figure 112020106577710-pat00022
는 원래의 GAN에 존재하지 않는다. 대신, GAN 문헌에서
Figure 112020106577710-pat00023
Figure 112020106577710-pat00024
에 매핑하도록 생성기 매개 변수
Figure 112020106577710-pat00025
를 최적화 할 수 있다.Conventional GANs generate neural networks
Figure 112020106577710-pat00018
Previous distribution considered to be the standard Gaussian distribution using
Figure 112020106577710-pat00019
Raw data distribution
Figure 112020106577710-pat00020
to model Here, the neural network-based generator is
Figure 112020106577710-pat00021
Since there is no stochasticity other than that, the nuisance stochastic variable
Figure 112020106577710-pat00022
does not exist in the original GAN. Instead, in the GAN literature
Figure 112020106577710-pat00023
cast
Figure 112020106577710-pat00024
generator parameters to map to
Figure 112020106577710-pat00025
can be optimized.

본 개시는

Figure 112020106577710-pat00026
의 확장을 가정한다. 의미있는 노이즈 잡음 변수
Figure 112020106577710-pat00027
를 갖는 노이즈를 사용한 다양한 시뮬레이션과 같은 확률적 생성기가 있을 수 있다. 특히, 이들 블랙 박스 생성기는 일정한 모델 구조를 상수
Figure 112020106577710-pat00028
로서 가질 수 있는데, 즉 고정 계수
Figure 112020106577710-pat00029
와 랜덤 노이즈
Figure 112020106577710-pat00030
를 갖는 물리적 현상을 모델링하는 확률적 시뮬레이터
Figure 112020106577710-pat00031
이다. 이 가설은
Figure 112020106577710-pat00032
가 입력 분포
Figure 112020106577710-pat00033
를 유추하여
Figure 112020106577710-pat00034
만 생성 할 수 있음을 나타낸다. 이 가설에서는
Figure 112020106577710-pat00035
의 모양을 학습해야 하지만 GAN의
Figure 112020106577710-pat00036
는 표준 가우스 분포로 고정되어 있기 때문에 원래 GAN과 다르다. The present disclosure
Figure 112020106577710-pat00026
It is assumed that the expansion of Meaningful Noise Noise Variables
Figure 112020106577710-pat00027
There may be probabilistic generators such as various simulations using noise with In particular, these black box generators have a constant model structure
Figure 112020106577710-pat00028
can have as , that is, a fixed coefficient
Figure 112020106577710-pat00029
and random noise
Figure 112020106577710-pat00030
A probabilistic simulator to model a physical phenomenon with
Figure 112020106577710-pat00031
to be. This hypothesis is
Figure 112020106577710-pat00032
is the input distribution
Figure 112020106577710-pat00033
by inferring
Figure 112020106577710-pat00034
Indicates that it can only be created. In this hypothesis
Figure 112020106577710-pat00035
We need to learn the shape of the GAN
Figure 112020106577710-pat00036
is different from the original GAN because it is fixed with a standard Gaussian distribution.

AVO는 암시적 제안 분포

Figure 112020106577710-pat00037
에 의해 이전 분포를 매개 변수화하는 방법을 제공한다. 이 매개 변수화를 통해 AVO는 REINFORCE 알고리즘에 의해
Figure 112020106577710-pat00038
를 얻을 수 있다. 사전 분포가 없으면 입력 매개 변수
Figure 112020106577710-pat00039
를 기울기 하강 방법으로 최적화 할 수 없다. AVO가 적대적 프래임워크과 블랙 박스 모델의 공동 고려를 도입했지만, AVO는 두 가지 주요한 단점이 있다. 하나는 판별자의 최적성(optimality)이고 다른 하나는 생성기의 최적성이다. 따라서, 적대적 설정에서 베이지안 추론을 위한 새로운 방법론이 필요하다.AVO is an implicit suggestion distribution
Figure 112020106577710-pat00037
provides a way to parameterize the previous distribution by With this parameterization, the AVO is determined by the REINFORCE algorithm
Figure 112020106577710-pat00038
can get input parameter without prior distribution
Figure 112020106577710-pat00039
cannot be optimized by the gradient descent method. Although AVO introduced the adversarial framework and joint consideration of the black box model, AVO has two major drawbacks. One is the optimality of the discriminator and the other is the optimality of the generator. Therefore, a new methodology for Bayesian inference in adversarial settings is needed.

2. ALFI의 추론 절차 2. ALFI's Reasoning Procedure

도 2(c)는 본 개시의 일 실시예에 따라 ALFI의 네트워크 구조를 도시하는 도면이다. ALFI의 네트워크 구조는 세 가지 주요 구성 요소로 구성될 수 있다:2( c ) is a diagram illustrating a network structure of ALFI according to an embodiment of the present disclosure. The network architecture of ALFI can be composed of three main components:

블랙 박스 생성기 g :

Figure 112020106577710-pat00040
black box generator g:
Figure 112020106577710-pat00040

판별자 네트워크

Figure 112020106577710-pat00041
[0, 1]Discriminant Network
Figure 112020106577710-pat00041
[0, 1]

확률적 엔코더 네트워크

Figure 112020106577710-pat00042
Probabilistic encoder networks
Figure 112020106577710-pat00042

확률적 엔코더 네트워크

Figure 112020106577710-pat00043
는 모델 입력 파라미터
Figure 112020106577710-pat00044
의 랜덤 변수가 베타 분포를 따르는 것으로 가정되는 확률적 프로세스를 추정한다. 다시 말해,
Figure 112020106577710-pat00045
상에서 슬라이스가 있는 대리 함수는 베타 분포이며, 확률적 엔코더 네트워크는 베타 분포 모양 매개 변수
Figure 112020106577710-pat00046
Figure 112020106577710-pat00047
에 대한 상각 추론에 의해
Figure 112020106577710-pat00048
의 응답 곡선을 추정할 수 있다. 추정된 대리 함수는 4.3에 설명 된대로 우도 비(
Figure 112020106577710-pat00049
)를 계산하는데 사용될 수 있다. 그런 다음 Metropolis-Hastings 알고리즘은 반복 후 고정 분포에서 다음 입력 매개 변수를 샘플링할 수 있다. 확률적 프로세스
Figure 112020106577710-pat00050
의 응답 곡선은 최적 판별자
Figure 112020106577710-pat00051
를 사용하여 정적 응답 곡선으로 수렴할 수 있다. Probabilistic encoder networks
Figure 112020106577710-pat00043
is the model input parameter
Figure 112020106577710-pat00044
Estimate a probabilistic process in which the random variable of is assumed to follow a beta distribution. In other words,
Figure 112020106577710-pat00045
The surrogate function with slices on the top is a beta distribution, and the probabilistic encoder network has a beta distribution shape parameter.
Figure 112020106577710-pat00046
Wow
Figure 112020106577710-pat00047
by amortization reasoning for
Figure 112020106577710-pat00048
The response curve of can be estimated. The estimated surrogate function is the likelihood ratio (
Figure 112020106577710-pat00049
) can be used to calculate The Metropolis-Hastings algorithm can then sample the following input parameters from a fixed distribution after iteration. stochastic process
Figure 112020106577710-pat00050
The response curve of the optimal discriminator
Figure 112020106577710-pat00051
can be used to converge to a static response curve.

ALFI는 AVO의 부정적인 측면을 가지지 않는다. 첫째, 최적의 판별자를 갖춘 AVO는 제안 분포를 방해하여 최적의 매개 변수

Figure 112020106577710-pat00052
를 찾는 반면 ALFI의 최적의 판별기는 기본 응답 곡선
Figure 112020106577710-pat00053
Figure 112020106577710-pat00054
로 안정화한다. 이 안정화된 응답 곡선
Figure 112020106577710-pat00055
은 정적 확률론적 프로세스이다. 판별자 최적성을 얻은 후 확률적 엔코더 네트워크는 정적 확률적 프로세스를 학습한다. 따라서 ALFI의 최적 판별자는 네트워크가 최적의 매개 변수를 찾는 데 도움이 될 수 있다. 또한 ALFI는 제안 분포를 도입하지 않고 사후 분포를 직접 추정하기 때문에 AVO의 두 번째 문제는 ALFI와 관련이 없게 된다. ALFI does not have the negative aspects of AVO. First, an AVO with an optimal discriminant interferes with the distribution of the proposed
Figure 112020106577710-pat00052
, whereas the optimal discriminator of ALFI is the default response curve
Figure 112020106577710-pat00053
cast
Figure 112020106577710-pat00054
is stabilized with This stabilized response curve
Figure 112020106577710-pat00055
is a static probabilistic process. After obtaining the discriminant optimality, the probabilistic encoder network learns a static probabilistic process. Therefore, the optimal discriminator of ALFI can help the network to find the optimal parameters. Also, because ALFI directly estimates the posterior distribution without introducing a proposed distribution, the second problem of AVO becomes irrelevant to ALFI.

3. 우도 비율 근사(Likelihood Ratio Approximation)3. Likelihood Ratio Approximation

본 개시의 일 실시예에 있어서, 우도 비율의 근사값(

Figure 112020106577710-pat00056
)을 계산할 수 있다. In an embodiment of the present disclosure, an approximate value of the likelihood ratio (
Figure 112020106577710-pat00056
) can be calculated.

일 실시예에서, ALFI는 근사값를 얻기 위해 분포 형태에 대한 명시적 가정을 채택할 수 있다. 당업자가 잘 알고있는 바와 같이, 합성 우도 접근 방식(synthetic likelihood approach)은 명시적 가정으로부터 도출된 편견(bias)로 인해 문제될 수 있지만, 명시적 가정은 필요한(required) 시뮬레이션의 수를 크게 줄인다는 이점이 있다. In one embodiment, ALFI may adopt explicit assumptions about the distribution shape to obtain an approximation. As one of ordinary skill in the art is well aware, the synthetic likelihood approach can be problematic due to the bias derived from the explicit assumptions, but the explicit assumptions greatly reduce the number of required simulations. There is an advantage.

ALFI는 판별자 출력에 대한 베타 분포 가정을 상정할 수 있다. 그러나 판별자의 출력은 다차원 또는 무한으로 확장될 수 있으며 이러한 경우 베타 분포 이외의 다른 분포 가정이 필요할 수 있다. 그러한 경우에도 ALFI는 그러한 분포를 추론하기 위한 기본 구조를 제공할 수 있다. ALFI can assume a beta distribution assumption for the discriminator output. However, the output of the discriminator can be multidimensional or extend infinitely, in which case a distribution assumption other than the beta distribution may be required. Even in such cases, ALFI can provide a basic structure for inferring such a distribution.

명시적 베타 가정은 다음과 같은 주장 하에서 다루기 힘든(tractable) 우도(likelihood)을 계산할 수 있도록 할 수 있다. 위에서 설명한

Figure 112020106577710-pat00057
가 고정되어 있을 때의 응답 곡선
Figure 112020106577710-pat00058
을 1차원 확률 변수
Figure 112020106577710-pat00059
로 생각하여, 이 확률 변수에 대한 밀도 추정을 하면 계산 불가능한 우도는 다음과 같은 확률 변수
Figure 112020106577710-pat00060
의 밀도값으로 표현할 수 있다:
Figure 112020106577710-pat00061
. 이 때, 우도를 밀도값으로 표현하기 위한 조건은
Figure 112020106577710-pat00062
이다.The explicit beta assumption can make it possible to compute the tractable likelihood under the following argument. described above
Figure 112020106577710-pat00057
Response curve when is fixed
Figure 112020106577710-pat00058
is a one-dimensional random variable
Figure 112020106577710-pat00059
, and if density estimation is made for this random variable, the incalculable likelihood is the following random variable
Figure 112020106577710-pat00060
It can be expressed as a density value of:
Figure 112020106577710-pat00061
. In this case, the condition for expressing the likelihood as a density value is
Figure 112020106577710-pat00062
to be.

확률 변수

Figure 112020106577710-pat00063
는 판별자 네트워크의 출력값이기 때문에 0에서 1 사이의 제한된 범위의 값을 갖는다. 그렇기 때문에 우리는 임의의 변환
Figure 112020106577710-pat00064
을 생각하여, 우도 추정 문제를 일반화된 범위에서 밀도를 갖는 밀도 추정 문제로 바꿀 수 있다. 즉,
Figure 112020106577710-pat00065
로 변환된 확률 변수
Figure 112020106577710-pat00066
에 대하여 우도는
Figure 112020106577710-pat00067
라고 표현할 수 있다.random variable
Figure 112020106577710-pat00063
Since is the output value of the discriminant network, it has a limited range of values from 0 to 1. That's why we use arbitrary transformations
Figure 112020106577710-pat00064
We can change the likelihood estimation problem to a density estimation problem with density in a generalized range. in other words,
Figure 112020106577710-pat00065
random variable transformed into
Figure 112020106577710-pat00066
About Udo
Figure 112020106577710-pat00067
can be expressed as

이제 우도를 추정하기 위하여 재구성한 1차원 밀도에 형태가 정해진 확률 분포를 따른다고 가정하고, 그 확률 분포를 표현하는 모수를 구하면 우도를 추정할 수 있다. 즉, 만약 확률 분포

Figure 112020106577710-pat00068
가 밀도 함수
Figure 112020106577710-pat00069
와 모수
Figure 112020106577710-pat00070
를 가지는 분포를 따른다고 가정하였을 때, 우도는 다음과 같이 표현할 수 있다:
Figure 112020106577710-pat00071
.Now, to estimate the likelihood, it is assumed that the reconstructed one-dimensional density follows a determined probability distribution, and the likelihood can be estimated by obtaining the parameters expressing the probability distribution. That is, if the probability distribution
Figure 112020106577710-pat00068
density function
Figure 112020106577710-pat00069
with parameters
Figure 112020106577710-pat00070
Assuming that it follows a distribution with , the likelihood can be expressed as:
Figure 112020106577710-pat00071
.

이후에, 파라미터

Figure 112020106577710-pat00072
와 파라미터
Figure 112020106577710-pat00073
간의 우도 비율은 아래와 같다:
Figure 112020106577710-pat00074
.After that, the parameter
Figure 112020106577710-pat00072
and parameters
Figure 112020106577710-pat00073
The likelihood ratios between the two are:
Figure 112020106577710-pat00074
.

4.4. 알고리즘(Algorithm)4.4. Algorithm

ALFI는 (Goodfellow et al., 2014)의 판별자 손실 함수를 사용할 수 있다. ALFI can use the discriminant loss function of (Goodfellow et al., 2014).

Figure 112020106577710-pat00075
(9)
Figure 112020106577710-pat00075
(9)

[알고리즘 1][Algorithm 1]

Figure 112020106577710-pat00076
Figure 112020106577710-pat00076

Figure 112020106577710-pat00077
에 대한 기대 값은 m회 반복 후 매트로폴리스-해스팅 알고리즘에 의해 선택된 n 개의 표본에 대해 계산되며, 여기서 m은 매트로폴리스-해스팅 알고리즘의 고정(stationary) 분포에 대한 수렴 속도를 제어하는 탐사-발산 하이퍼 파라미터(exploration-expoitation hyperparameter)이다. 신경망
Figure 112020106577710-pat00078
가 정적 확률적 프로세스
Figure 112020106577710-pat00079
로 수렴됨에 따라, 상기 선택된 n 개의 표본에 대한 표본 기대값은 m의 선택에 관계없이 고정 분포
Figure 112020106577710-pat00080
로부터 n 개의 표본에 대한 편향되지 않은 기대값으로 수렴된다.
Figure 112020106577710-pat00077
The expected value for α is computed for n samples selected by the metropolis-Hasting algorithm after m iterations, where m is the exploration- It is an exploration-expoitation hyperparameter. neural network
Figure 112020106577710-pat00078
is a static stochastic process
Figure 112020106577710-pat00079
As converges to , the sample expected value for the selected n samples is a fixed distribution regardless of the choice of m.
Figure 112020106577710-pat00080
converges to the unbiased expected value for n samples.

여기서 수식(2)는 아래와 같다:Here Equation (2) is:

Figure 112020106577710-pat00081
Figure 112020106577710-pat00081

수식(3)은 아래와 같다:Equation (3) is as follows:

Figure 112020106577710-pat00082
Figure 112020106577710-pat00082

수식(4)는 아래와 같다:Equation (4) is as follows:

Figure 112020106577710-pat00083
Figure 112020106577710-pat00083

각 반복에 대해, 확률적 엔코더 네트워크

Figure 112020106577710-pat00084
를 학습하기 위한 학습 데이터 세트
Figure 112020106577710-pat00085
가 있다.For each iteration, the probabilistic encoder network
Figure 112020106577710-pat00084
training data set to train
Figure 112020106577710-pat00085
there is

5. 실험5. Experiment

5.1. 예시적인 실시예5.1. Exemplary embodiment

예시적인 블랙 박스 모델은 ALFI의 메커니즘을 설명할 수 있다. 아래는 제안된 예시적인 모델이다:An exemplary black box model may describe the mechanism of ALFI. Below is a suggested example model:

Figure 112020106577710-pat00086
Figure 112020106577710-pat00086

여기서,

Figure 112020106577710-pat00087
이다. 실제 매개 변수
Figure 112020106577710-pat00088
는 0.25이고, 결과적으로 관측 값
Figure 112020106577710-pat00089
은 1이다. here,
Figure 112020106577710-pat00087
to be. actual parameters
Figure 112020106577710-pat00088
is 0.25, and consequently the observed value
Figure 112020106577710-pat00089
is 1

도 4(a)는 두 가지 점을 나타낸다. 먼저, 미니 배치 크기가 100 인 ALFI 표본(파란색 점)이 실제 매개 변수

Figure 112020106577710-pat00090
주위에 집중됨을 알 수 있다. 둘째, 대리 함수(surrogate function)(파란색 선)은 반응 곡선(reponse curve)
Figure 112020106577710-pat00091
를 추정할 수 있다. Figure 4(a) shows two points. First, an ALFI sample with a mini-batch size of 100 (blue dots) is an actual parameter
Figure 112020106577710-pat00090
It can be seen that the focus is on the surroundings. Second, the surrogate function (blue line) is the response curve
Figure 112020106577710-pat00091
can be estimated.

도 4(b)는 ALFI 표본의 사후(posterior)가,

Figure 112020106577710-pat00092
=0.001인 경우, 기준 모델인 Rejection ABC의 사후와 일치함을 보여준다. 도 4(c)는 ALFI의 메트로폴리스-해스팅알고리즘의 표본이 수용 가능한 시뮬레이션 실행 횟수 내에서 실제 매개 변수
Figure 112020106577710-pat00093
로 수렴됨을 보여준다.Figure 4 (b) is the posterior (posterior) of the ALFI sample,
Figure 112020106577710-pat00092
=0.001, it shows that it is consistent with the posterior model of Rejection ABC. Figure 4(c) shows the actual parameters within the acceptable number of simulation runs for a sample of ALFI's Metropolis-Hasting algorithm.
Figure 112020106577710-pat00093
shows that it converges to

5.2. 블랙 박스 모델로서의 시뮬레이션5.2. Simulation as a black box model

블랙 박스 모델로서의 시뮬레이션을 고려하여, 우리는 다음과 같은 베이스 라인 비우도 추론 알고리즘의 성능을 비교한다: Considering the simulation as a black box model, we compare the performance of the following baseline non-likelihood inference algorithms:

- Rejection-ABC (Tavar´ et al., 1997)- Rejection-ABC (Tavar´ et al., 1997)

- Monte-Carlo Markov-Chain (MCMC) ABC (Marjoram et al., 2003)- Monte-Carlo Markov-Chain (MCMC) ABC (Marjoram et al., 2003)

- BOLFI (Gutmann & Corander, 2016) 및 AVO (Louppe et al., 2019). - BOLFI (Gutmann & Corander, 2016) and AVO (Louppe et al., 2019).

여기서,

Figure 112020106577710-pat00094
의 성능은 실제 파라미터
Figure 112020106577710-pat00095
와 사후(posterior) 모드
Figure 112020106577710-pat00096
사이의 음의 로그 유클리드 거리이다. 단일 관측값
Figure 112020106577710-pat00097
은 잡음 변수 u로 구동되는 확률론(stochasticity) 최소화하기 위해
Figure 112020106577710-pat00098
=
Figure 112020106577710-pat00099
로 100개의 시뮬레이션 실행 결과의 평균이다. here,
Figure 112020106577710-pat00094
The performance of the actual parameter
Figure 112020106577710-pat00095
and posterior mode
Figure 112020106577710-pat00096
is the negative log Euclidean distance between single observation
Figure 112020106577710-pat00097
to minimize the stochasticity driven by the noise variable u
Figure 112020106577710-pat00098
=
Figure 112020106577710-pat00099
is the average of 100 simulation run results.

본 개시는 Runge-Kutta 4차 방법 (Runge-Kutta 4-th order method, Leader, 2004)을 적용하여 -상미분 방정식(Ordinary Differential Equations:ODE)을 해결하고 유한 차분 법(finite difference method, Iserles, 2009)을 적용하여 시간에 독립적인(time-independent) 편미분 방정식(Partial Differential Equation:PDE)을 해결할 수 있다. The present disclosure applies the Runge-Kutta 4-th order method (Runge-Kutta 4-th order method, Leader, 2004) to solve -Ordinary Differential Equations (ODE) and a finite difference method (Iserles, 2009) can be applied to solve a time-independent partial differential equation (PDE).

[표 1] [Table 1]

Figure 112020106577710-pat00100
Figure 112020106577710-pat00100

표 1은 알고리즘의 성능을 요약 한 것이다. 성능은 무작위로 선택된 30 개의 서로 다른 실제 매개 변수 집합

Figure 112020106577710-pat00101
에 의해 추정된다. 각 실제 매개 변수
Figure 112020106577710-pat00102
에 대해 동일한 시뮬레이션 시간 예산으로 사후 모드
Figure 112020106577710-pat00103
를 추정한다. Rejection ABC에서 시뮬레이션 실행의 0.1 %를 수용하도록 적응적으로
Figure 112020106577710-pat00104
를 선택한다. 제안 된 분포
Figure 112020106577710-pat00105
가 가우스 분포
Figure 112020106577710-pat00106
인 AVO Gaussian에서 릴리스 된 AVO 코드를 사용한다. AVO NN은 암시적으로 제안 분포를 모델링하여 AVO의 바닐라 버전에서 가우스성 가정을 완화한다. 공정한 비교를 위해 AVO NN과 ALFI는 판별자에서 동일한 신경망 구조를 사용한다. -표 1은 - ALFI가 많은 시뮬레이션에서 기본 모델 보다 낫다는 것을 보여준다. 특히 ALFI는 시뮬레이션 입력 변수의 차원이 증가할수록 (Stokes, NPA 시뮬레이션) 기본 모델들보다 월등한 성능을 나타내는 것을 알 수 있다.Table 1 summarizes the performance of the algorithm. Performance is a set of 30 different real-world parameters randomly selected
Figure 112020106577710-pat00101
is estimated by each actual parameter
Figure 112020106577710-pat00102
Post-mode with the same simulation time budget for
Figure 112020106577710-pat00103
to estimate Adaptively to accommodate 0.1% of simulation runs on Rejection ABC
Figure 112020106577710-pat00104
select Suggested distribution
Figure 112020106577710-pat00105
Gaussian distribution
Figure 112020106577710-pat00106
AVO uses the AVO code released by Gaussian. AVO NN relaxes the Gaussian assumptions in the vanilla version of AVO by implicitly modeling the proposal distribution. For a fair comparison, AVO NN and ALFI use the same neural network structure in the discriminator. Table 1 shows that ALFI is better than the base model in many simulations. In particular, it can be seen that ALFI exhibits superior performance than basic models as the dimension of the simulation input variable increases (Stokes, NPA simulation).

도 5는 ALFI 알고리즘이 진행함에 따라 동작하는 바를 알려준다. 가장 Discrepancy의 세 그림에서 검은 점은 알고리즘이 진행되면서 점점 참 입력 변수에 모이는 것을 보여준다. 두 번째 기둥의 Beta Estimation은 확률 변수

Figure 112020106577710-pat00107
를 베타 분포로 가정한 후, ALFI의 확률적 엔코더 네트워크를 학습함에 따라 베타 분포가 점점 비모수로 추정한 분포로 수렴하는 것을 보여준다. 세 번째 기둥은 판별자의 출력 분포를 보여준다. 네 번째 기둥은 베타 분포로 학습한 분포의 평균을 보여준다. 마지막인 다섯 번째 기둥은 학습한 베타 분포로 우도를 추정한 결과를 보여준다.5 shows how the ALFI algorithm operates as it progresses. The black dots in the three figures of the most discrepancy show that the algorithm gradually gathers at the true input variable as the algorithm progresses. Beta Estimation of the second column is a random variable
Figure 112020106577710-pat00107
After assuming as the beta distribution, it shows that the beta distribution gradually converges to the nonparametrically estimated distribution as the ALFI probabilistic encoder network is trained. The third column shows the output distribution of the discriminator. The fourth column shows the average of the distributions learned with the beta distribution. The last column, the fifth column, shows the result of estimating the likelihood with the learned beta distribution.

도 6은 관측이 도 6(a)와 같을 때의 포아송 시뮬레이션 결과를 도시한다. 도시된 바에 따르면, ALFI의 재생산은 AVO의 재생산보다 관찰에 더 일치한다. Fig. 6 shows a Poisson simulation result when the observation is the same as that of Fig. 6(a). As shown, reproduction of ALFI is more consistent with observations than reproduction of AVO.

5.3. 블랙박스 모델로서의 GAN 생성기 5.3. GAN generator as a black box model

본 개시의 일 실시예에 따르면, DCGAN (Radford et al., 2015) 생성기를 블랙 박스 모델로 취급하여 실험을 설계할 수 있다. 특히, 우리는 ALFI 학습 과정을 통해 미리 훈련된 고정 생성기 계수

Figure 112020106577710-pat00108
와 함께 MNIST 이미지 생성기
Figure 112020106577710-pat00109
를 사용할 수 있다. 일 실시예에서, 마스크된 이미지의 가장 가까운 잠재 삽입을 추정하여 마스크 된 이미지에서 실제 이미지를 재생산하도록 설계될 수 있다. According to an embodiment of the present disclosure, an experiment may be designed by treating the DCGAN (Radford et al., 2015) generator as a black box model. In particular, we have pre-trained fixed generator coefficients through an ALFI learning process.
Figure 112020106577710-pat00108
with MNIST image generator
Figure 112020106577710-pat00109
can be used In one embodiment, it may be designed to reproduce the real image from the masked image by estimating the nearest latent interpolation of the masked image.

도 7은 본 개시의 일 실시예에 따라, 실제 샘플과 상기 실제 샘플의 마스크 된 관측 값을 한 쌍으로 도시하는 도면이다. 7 is a diagram illustrating a pair of a real sample and a masked observation value of the real sample, according to an embodiment of the present disclosure.

본 개시에 따르면, ALFI 또는 AVO NN이 유효성 검사 데이터 세트가 마스크 및 손상된 관찰로 제공될 때 실제 이미지와 유사한 이미지를 재생성하기 위해 DCGAN 생성기의 벡터 입력을 유추할 수 있다. 도 7에 도시된 바에 따르면, ALFI가 AVO NN이 생성 할 수 있는 것보다 실제 이미지와 더 유사한 이미지를 생성할 수 있다.According to the present disclosure, an ALFI or AVO NN can infer the vector input of the DCGAN generator to regenerate an image similar to the real image when the validation data set is provided with a mask and corrupted observations. 7 , ALFI can generate an image more similar to an actual image than AVO NN can generate.

6. 결론6. Conclusion

우리는 AVO가 가진 문제 때문에 ALFI를 개발하게 되었습니다. 이 측면에서 ALFI는 AVO보다 실제 매개 변수를 더 정확하게 추정합니다. ALFI의 기여는 두 가지 다른 계층에 있습니다. 기여의 첫 번째 계층은 적대적 프레임 워크에서 블랙 박스 생성기에 새로운 비우도 추론을 도입하는 것이다.We developed ALFI because of a problem with AVO. In this respect, ALFI estimates the actual parameters more accurately than AVO. ALFI's contribution lies in two different layers. The first tier of contribution is to introduce new non-likelihood inferences to black box generators in adversarial frameworks.

기여의 두 번째 계층은 검증 데이터 세트가 주어지면 최상의 보정 된 매개 변수를 찾아 고 충실도(high fidelity) 시뮬레이션 모델을 완성하는 실제적인 적용이다. 또한, 블랙 박스 생성 모델의 활용은 몇 가지 예가 제시되고 사전 훈련 된 고정 생성기가 사용되는 신경망 커뮤니티에서 자주 발생한다는 점에 유의해야 한다.The second layer of contribution is the practical application of finding the best calibrated parameters given the validation data set and completing a high fidelity simulation model. It should also be noted that the utilization of black box generative models frequently occurs in the neural network community, where a few examples are presented and pre-trained fixed generators are used.

당업자라면 알 수 있듯이 본 개시는 본 명세서에서 기술된 예시에 한정되는 것이 아니라 본 개시의 범주를 벗어나지 않는 범위 내에서 다양하게 변형, 재구성 및 대체될 수 있다. 예를 들어, 본원에 기술된 다양한 기술들은 하드웨어 또는 소프트웨어, 또는 하드웨어와 소프트웨어의 조합에 의해 구현될 수 있다. 따라서, 본원에 따른 소프트웨어 안전성 분석을 위한 분석 머신의 특정한 양태나 부분은 범용 또는 전용 마이크로프로세서, 마이크로-컨트롤러 등에 의해 실행 가능한 하나 이상의 컴퓨터 프로그램으로 구현될 수 있다. 본 개시의 일 실시예에 따른 컴퓨터 프로그램은, 컴퓨터 프로세서 등에 의해 판독 가능한 저장 매체, 예컨대 EPROM, EEPROM, 플래시 메모리장치와 같은 비휘발성 메모리, 내장형 하드 디스크와 착탈식 디스크 같은 자기 디스크, 광자기 디스크, 및 CDROM 디스크 등을 포함한 다양한 유형의 저장 매체에 저장된 형태로 구현될 수 있다. 또한, 프로그램 코드(들)는 어셈블리어나 기계어로 구현될 수 있고, 전기 배선이나 케이블링, 광섬유, 또는 기타 임의의 다른 형태의 전송 매체를 통해 전송되는 형태로 구현될 수도 있다. As will be appreciated by those skilled in the art, the present disclosure is not limited to the examples described herein, and various modifications, reconstructions, and substitutions may be made without departing from the scope of the present disclosure. For example, the various techniques described herein may be implemented by hardware or software, or a combination of hardware and software. Accordingly, certain aspects or portions of the analysis machine for software safety analysis according to the present disclosure may be implemented in one or more computer programs executable by a general-purpose or dedicated microprocessor, micro-controller, or the like. A computer program according to an embodiment of the present disclosure includes a storage medium readable by a computer processor or the like, such as EPROM, EEPROM, non-volatile memory such as a flash memory device, magnetic disk such as an internal hard disk and a removable disk, a magneto-optical disk, and It may be implemented in a form stored in various types of storage media including a CDROM disk and the like. In addition, the program code(s) may be implemented in assembly language or machine language, and may be implemented in a form transmitted through electric wiring, cabling, optical fiber, or any other type of transmission medium.

본 명세서에서는, 예시적인 실시예에 대해 다양한 도면을 참조하여 주로 기술했지만, 다른 유사한 실시예들이 이용될 수 있다. 본 개시의 진정한 사상 및 범주에 속하는 모든 변형 및 변경을 이하의 특허청구범위에 의해 모두 포괄하고자 한다.Although exemplary embodiments have been primarily described herein with reference to various drawings, other similar embodiments may be utilized. All modifications and variations falling within the true spirit and scope of the present disclosure are intended to be embraced by the following claims.

Claims (7)

컴퓨터 시스템 상에서 수행되는, 블랙박스 생성기에 대한 적대적 비우도 추론 방법으로서,
판별자 네트워크(discriminator network:
Figure 112022013803115-pat00110
) 및 확률적 인코더 네트워크(probabilistic encoder network:
Figure 112022013803115-pat00111
)에 대해서,
(a) 메트로폴리스-해스팅 알고리즘을 m번 반복하는 단계 - 여기서 m은 매트로폴리스-해스팅 알고리즘의 고정(stationary) 분포에 대한 수렴 속도를 제어하는 탐사-발산 하이퍼 파라미터(exploration-expoitation hyperparameter)로서, 메트로폴리스-해스팅 알고리즘의 반복 실행 횟수임 -;
(b) 상기 메트로폴리스-해스팅 알고리즘을 m번 반복하는 단계 이후에, 블랙박스 생성 모델에 입력변수를 대입한 출력값을 산출하는 단계;
(c) 상기 블랙박스 생성 모델에 입력변수를 대입한 출력값을 산출하는 단계이후에,
(c-1) 제1 경사 하강(gradient) 기법에 기초하여 상기 판별자 네트워크를 업데이트 하는 단계; 및
(c-2) 제2 경사 하강(gradient) 기법에 기초하여 상기 확률적 인코더 네트워크를 업데이트 하는 단계
(c-1) 및 (c-2) 를 l 번 반복하는 단계 - 여기서 l은 판별자 네트워크 및 확률적 엔코더 네트워크를 학습하기 위한 경사하강법의 반복 실행 횟수임 -;
를 포함하는 블랙박스 생성기에 대한 적대적 비우도 추론 방법.
A method for inference of adversarial non-likelihood for a black box generator, performed on a computer system, comprising:
Discriminator network:
Figure 112022013803115-pat00110
) and a probabilistic encoder network:
Figure 112022013803115-pat00111
)about,
(a) repeating the metropolis-Hasting algorithm m times, where m is an exploration-expoitation hyperparameter that controls the convergence rate for a stationary distribution of the metropolis-Hasting algorithm, It is the number of iterations of the metropolis-Hasting algorithm -;
(b) calculating an output value obtained by substituting input variables into a black box generation model after repeating the metropolis-Hasting algorithm m times;
(c) after calculating the output value by substituting input variables into the black box generation model,
(c-1) updating the discriminator network based on a first gradient descent technique; and
(c-2) updating the probabilistic encoder network based on a second gradient descent technique
repeating (c-1) and (c-2) l times, where l is the number of iterations of gradient descent for learning the discriminator network and the probabilistic encoder network;
An adversarial non-likelihood inference method for a black box generator comprising
제1항에 있어서,
상기 메트로폴리스-해스팅 알고리즘을 m번 반복하는 단계는 다음 블랙박스 생성 모델의 입력 변수를 사용하여 계산되는 블랙박스 생성기에 대한 적대적 비우도 추론 방법.
According to claim 1,
The step of repeating the metropolis-Hasting algorithm m times is an adversarial non-likelihood inference method for a black box generator that is calculated using the input variables of the next black box generation model.
제2항에 있어서,
상기 제1 경사 하강 기법은 아래 수식(3)을 최적화하도록 학습되는 블랙박스 생성기에 대한 적대적 비우도 추론 방법.
수식(3):
Figure 112022013803115-pat00112

여기서,
Figure 112022013803115-pat00129
는 판별자 네트워크의 경사 하강기법 적용을 위한 함수이고,
Figure 112022013803115-pat00130
는 판별자 네크워크의 실제 데이터 분포 Pr에서 추출된 샘플 입력에 대한 출력이며,
Figure 112022013803115-pat00131
은 판별자 네크워크의 생성 데이터 분포 Pg에서 추출된 샘플 입력에 대한 출력임.
3. The method of claim 2,
The first gradient descent method is an adversarial non-likelihood inference method for a black box generator that is trained to optimize Equation (3) below.
Formula (3):
Figure 112022013803115-pat00112

here,
Figure 112022013803115-pat00129
is a function for applying the gradient descent technique of the discriminant network,
Figure 112022013803115-pat00130
is the output for the sample input extracted from the actual data distribution Pr of the discriminant network,
Figure 112022013803115-pat00131
is the output for the sample input extracted from the generative data distribution Pg of the discriminant network.
제3항에 있어서,
상기 제2 경사 하강 기법은 아래 수식(4)을 최적화하도록 학습되는 블랙박스 생성기에 대한 적대적 비우도 추론 방법.
수식(4):
Figure 112022013803115-pat00113

여기서,
Figure 112022013803115-pat00132
는 확률적 인코더 네트워크의 경사 하강기법 적용을 위한 함수이고,
Figure 112022013803115-pat00133
은 인코더 네트워크에서 제시된 생성모델 입력을 활용하여 블랙박스생성모델에서 출력하는 결과물을 판별자 네트워크에 입력했을때의 결과에 대한 기대값임.
4. The method of claim 3,
The second gradient descent method is an adversarial non-likelihood inference method for a black box generator that is learned to optimize Equation (4) below.
Formula (4):
Figure 112022013803115-pat00113

here,
Figure 112022013803115-pat00132
is a function for applying the gradient descent technique of the probabilistic encoder network,
Figure 112022013803115-pat00133
is the expected value of the result when the output output from the black box generation model is input to the discriminator network using the generative model input presented in the encoder network.
제4항에 있어서,
상기 수식(4)는 판별자로부터 생성되는 확률 변수를 추론하기 위해 우도를 최적화하는 방향으로 학습되는 블랙박스 생성기에 대한 적대적 비우도 추론 방법.
5. The method of claim 4,
Equation (4) is an adversarial non-likelihood inference method for a black box generator that is learned in the direction of optimizing the likelihood to infer the random variable generated from the discriminator.
블랙박스 생성기에 대한 적대적 비우도 추론을 제공하도록 구성된 장치로서,
컴퓨팅 모듈을 포함하고,
상기 컴퓨팅 모듈은 판별자 네트워크(discriminator network:
Figure 112022013803115-pat00114
) 및 확률적 인코더 네트워크(probabilistic encoder network:
Figure 112022013803115-pat00115
)에 대해서,
(a) 메트로폴리스-해스팅 알고리즘을 m번 반복하도록 구성되고 - 여기서 m은 매트로폴리스-해스팅 알고리즘의 고정(stationary) 분포에 대한 수렴 속도를 제어하는 탐사-발산 하이퍼 파라미터(exploration-expoitation hyperparameter)로서, 메트로폴리스-해스팅 알고리즘의 반복 실행 횟수임 -;
(b) 상기 메트로폴리스-해스팅 알고리즘을 m번 반복한 후에, 블랙박스 생성 모델에 입력변수를 대입한 출력값을 산출하도록 구성되며;
(c)상기 블랙박스 생성 모델에 입력변수를 대입한 출력값을 산출한 후에,
(c-1) 제1 경사 하강(gradient) 기법에 기초하여 상기 판별자 네트워크를 업데이트하고,
(c-2) 제2 경사 하강(gradient) 기법에 기초하여 상기 확률적 인코더 네트워크를 업데이트하는,
(c-1) 및 (c-2)를 l번 반복하도록 구성되는 - 여기서 l은 판별자 네트워크 및 확률적 엔코더 네트워크를 학습하기 위한 경사하강법의 반복 실행 횟수임 -;
블랙박스 생성기에 대한 적대적 비우도 추론 장치.
An apparatus configured to provide adversarial non-likelihood inference for a black box generator, comprising:
a computing module;
The computing module is a discriminator network (discriminator network:
Figure 112022013803115-pat00114
) and a probabilistic encoder network:
Figure 112022013803115-pat00115
)about,
(a) iterates the metropolis-Hasting algorithm m times, where m is the exploration-expoitation hyperparameter that controls the convergence rate for the stationary distribution of the metropolis-Hasting algorithm. , the number of iterations of the Metropolis-Hasting algorithm -;
(b) after repeating the Metropolis-Hasting algorithm m times, it is configured to calculate an output value by substituting input variables into the black box generation model;
(c) After calculating the output value by substituting the input variable into the black box generation model,
(c-1) updating the discriminator network based on a first gradient descent technique;
(c-2) updating the probabilistic encoder network based on a second gradient descent technique;
configured to repeat (c-1) and (c-2) l times, where l is the number of iterations of gradient descent for learning the discriminator network and the probabilistic encoder network;
Adversarial non-likelihood inference device for black box generator.
컴퓨터에 의해 실행 가능한, 하나 이상의 컴퓨터 판독가능 명령이 수록된 컴퓨터 판독가능 기록매체로서, 상기 하나 이상의 컴퓨터 판독가능 명령은, 상기 컴퓨터에 의해 실행되는 경우, 상기 컴퓨터로 하여금, 제1항 내지 제5항 중 어느 한 항에 따른 방법을 수행하게 하는 컴퓨터 판독가능 기록매체. A computer-readable recording medium containing one or more computer-readable instructions executable by a computer, wherein the one or more computer-readable instructions, when executed by the computer, cause the computer to: A computer-readable recording medium for performing the method according to any one of the preceding claims.
KR1020200130146A 2020-10-08 2020-10-08 Method and apparatus for adversarial likelihood-free inference on black-box generator KR102403797B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200130146A KR102403797B1 (en) 2020-10-08 2020-10-08 Method and apparatus for adversarial likelihood-free inference on black-box generator

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200130146A KR102403797B1 (en) 2020-10-08 2020-10-08 Method and apparatus for adversarial likelihood-free inference on black-box generator

Publications (2)

Publication Number Publication Date
KR20220046896A KR20220046896A (en) 2022-04-15
KR102403797B1 true KR102403797B1 (en) 2022-05-31

Family

ID=81211772

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200130146A KR102403797B1 (en) 2020-10-08 2020-10-08 Method and apparatus for adversarial likelihood-free inference on black-box generator

Country Status (1)

Country Link
KR (1) KR102403797B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190244681A1 (en) 2018-02-08 2019-08-08 Ohio State Innovation Foundation Synthetic ihc-stained digital sides generated using artificial neural networks
JP2020144785A (en) 2019-03-08 2020-09-10 国立大学法人 東京大学 Image collection device, image collection system, image collection method, and image collection program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190244681A1 (en) 2018-02-08 2019-08-08 Ohio State Innovation Foundation Synthetic ihc-stained digital sides generated using artificial neural networks
JP2020144785A (en) 2019-03-08 2020-09-10 国立大学法人 東京大学 Image collection device, image collection system, image collection method, and image collection program

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Louppe, Gilles, Joeri Hermans, and Kyle Cranmer. Adversarial variational optimization of non-differentiable simulators. arXiv preprint arXiv:1707.07113. 2017.
Turner, Ryan, et al. Metropolis-Hastings Generative Adversarial Networks. arXiv preprint arXiv:1811.11357. 2018.

Also Published As

Publication number Publication date
KR20220046896A (en) 2022-04-15

Similar Documents

Publication Publication Date Title
Spantini et al. Inference via low-dimensional couplings
Tian et al. Distributed certifiably correct pose-graph optimization
Peharz et al. On theoretical properties of sum-product networks
Pan et al. Organizing experience: a deeper look at replay mechanisms for sample-based planning in continuous state domains
CA3090759A1 (en) Systems and methods for training generative machine learning models
Takizawa et al. Adaptive nonlinear estimation based on parallel projection along affine subspaces in reproducing kernel Hilbert space
Aravkin et al. Efficient quadratic penalization through the partial minimization technique
Stathopoulos et al. Solving the infinite-horizon constrained LQR problem using accelerated dual proximal methods
Santos et al. An outlier-robust kernel RLS algorithm for nonlinear system identification
Forgione et al. Learning neural state-space models: do we need a state estimator?
KR102403797B1 (en) Method and apparatus for adversarial likelihood-free inference on black-box generator
KR102120150B1 (en) Learning method and learning device for variational interference using neural network and test method and test device for variational interference using the same
CN116894778A (en) Diffusion model sampling method and device for image generation
Lughofer et al. Online adaptation of Takagi-Sugeno fuzzy inference systems
Pandit et al. Inference in multi-layer networks with matrix-valued unknowns
Král et al. Policy search for active fault diagnosis with partially observable state
KR102261055B1 (en) Method and system for optimizing design parameter of image to maximize click through rate
Amelina et al. The method of averaged models for discrete-time adaptive systems
Jia Simulation-Based Inference with Quantile Regression
KR20190129422A (en) Method and device for variational interference using neural network
Suttle et al. Occupancy Information Ratio: Infinite-Horizon, Information-Directed, Parameterized Policy Search
Watanabe Reinforcement Learning
Fattahi Structure-Aware Methods in Large-Scale Computational Problems: Machine Learning, Optimization, and Control
US20240078361A1 (en) Method and apparatus with circuit design parameter generation
US20230206054A1 (en) Expedited Assessment and Ranking of Model Quality in Machine Learning

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant