KR20230023464A - Method and apparatus for conditional data genration using conditional wasserstein generator - Google Patents

Method and apparatus for conditional data genration using conditional wasserstein generator Download PDF

Info

Publication number
KR20230023464A
KR20230023464A KR1020210105611A KR20210105611A KR20230023464A KR 20230023464 A KR20230023464 A KR 20230023464A KR 1020210105611 A KR1020210105611 A KR 1020210105611A KR 20210105611 A KR20210105611 A KR 20210105611A KR 20230023464 A KR20230023464 A KR 20230023464A
Authority
KR
South Korea
Prior art keywords
data
conditional
generator
wasserstein
learned
Prior art date
Application number
KR1020210105611A
Other languages
Korean (ko)
Inventor
조명희
김영근
이경복
Original Assignee
서울대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울대학교산학협력단 filed Critical 서울대학교산학협력단
Priority to KR1020210105611A priority Critical patent/KR20230023464A/en
Publication of KR20230023464A publication Critical patent/KR20230023464A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models

Abstract

By using a device for generating conditional data according to one aspect of the present invention, a method for generating the conditional data that generates target data for the conditional data comprises a step of generating the target data for the condition data by inputting the received condition data to a learned conditional and a sustain generator. Here, a conditional Wasserstein generator is learned based on an equation representing a Wasserstein distance between the conditional distributions. Therefore, the present invention is capable of expecting a clearer and more accurate conditional data generation.

Description

조건부 와서스타인 생성기를 이용한 조건부 데이터 생성 장치 및 방법{METHOD AND APPARATUS FOR CONDITIONAL DATA GENRATION USING CONDITIONAL WASSERSTEIN GENERATOR}Apparatus and method for generating conditional data using a conditional Waserstein generator

본 발명은 조건부 와서스타인 생성기를 이용하여 주어진 조건 데이터에 대한 목표 데이터를 생성하는 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for generating target data for given conditional data using a conditional Osserstein generator.

주어진 조건 데이터로부터 목표 데이터를 생성하는 알고리즘이 개발되고 있으며, 이러한 알고리즘의 주요 응용 분야로는 비디오 예측 또는 비디오 보간 분야가 알려져 있다. 비디오 예측 기술의 경우, 과거 비디오 프레임과 미래 비디오 프레임을 각각 조건 데이터와 목표 데이터로 설정하면 미래의 영상을 예측할 수 있다. 비디오 보간 기술의 경우, 과거 및 미래 비디오 프레임과 중간 비디오 프레임을 각각 조건 데이터와 목표 데이터로 설정하면 압축된 비디오로부터 새로운 비디오를 생성할 수 있다.An algorithm for generating target data from given condition data is being developed, and a major application field of this algorithm is known as video prediction or video interpolation. In the case of video prediction technology, a future video can be predicted by setting a past video frame and a future video frame as condition data and target data, respectively. In the case of video interpolation technology, a new video can be created from a compressed video by setting past and future video frames and intermediate video frames as condition data and target data, respectively.

이러한 알고리즘에 사용될 수 있는 조건부 생성은 주어진 조건 데이터로 목표 데이터를 구성하는 작업을 의미한다. 조건 데이터에 대한 조건부 분포를 학습하는 것이 실제같은 자료를 생성하기 위한 핵심 기술이다. 종래 기술에서는 대상과 모델 결합 분포 사이의 거리를 최소화하기 위한 다양한 조건부 생성 방법을 제안하고 있는데, 대부분의 방법은 변분 오토 인코더(VAE, Kingma & Welling, “Auto-encoding variational bayes," in Proceedings of the International Conference on Learning Representations (ICLR), 2014.)와 적대적 생성 네트워크(GAN, Goodfellow et al. “Generative adversarial nets," in Advances in neural information processing systems (NeurIPS), 2014.)와 같은 이미지 생성 모델을 적용하고, f-괴리도(Ali & Silvey, A general class of coefficients of divergence of one distribution from another," Journal of the Royal Statistical Society: Series B (Methodological), vol. 28, no. 1, pp. 131-142, 1966)를 거리로 이용했다.Conditional generation, which can be used in these algorithms, means constructing target data with given condition data. Learning conditional distributions for conditional data is a key technique for generating realistic data. In the prior art, various conditional generation methods have been proposed to minimize the distance between the target and the model joint distribution, and most of the methods are variational auto-encoders (VAE, Kingma & Welling, “Auto-encoding variational bayes,” in Proceedings of the Apply image generation models such as International Conference on Learning Representations (ICLR), 2014.) and adversarial generative networks (GAN, Goodfellow et al. “Generative adversarial nets," in Advances in neural information processing systems (NeurIPS), 2014.) and f-difference (Ali & Silvey, A general class of coefficients of divergence of one distribution from another," Journal of the Royal Statistical Society: Series B (Methodological), vol. 28, no. 1, pp. 131-142 , 1966) was used as the distance.

다만, 이와 같은 선행 연구는 결합 분포간 통계적 거리를 이용한다는점과 f-괴리도를 이용한다는 한계점을 갖는다. 특히, 두 조건부 분포 사이의 거리를 최소화하는 것이 이상적이지만, 선행 연구는 결합 분포 사이의 거리를 최소화하고 있다. 이는 조건부 거리를 최소화하기 위한 목적 함수의 계산 가능한 형태가 알려지지 않았기 때문이다. 또한, f-괴리도와 관련해서는, 통계적 거리는 목표와 모델 분포 사이의 불일치를 정량화하고 분포를 학습하는 데 중요한 역할을 한다. 이와 관련하여, Arjovsky et al. ("Wasserstein generative adversarial networks," in Proceedings of the International Conference on Machine Learning (ICML), 2017)는 데이터 지지(Support)가 저차원 다양체(Manifold)인 경우, f-divergence를 비롯한 다양한 통계적 거리들이 분포간 불일치 측정에 실패하는 반면 와서스타인 거리는 성공함을 이론적으로 규명했다. However, these previous studies have limitations in that they use statistical distances between joint distributions and f-disparities. In particular, it is ideal to minimize the distance between two conditional distributions, but previous studies have minimized the distance between joint distributions. This is because the computable form of the objective function for minimizing the conditional distance is unknown. Also, with respect to the f-disparity, the statistical distance plays an important role in quantifying the discrepancy between the target and the model distribution and learning the distribution. In this regard, Arjovsky et al. ("Wasserstein generative adversarial networks," in Proceedings of the International Conference on Machine Learning (ICML), 2017) found that when the data support is a low-dimensional manifold, various statistical distances, including f-divergence, are It was theoretically established that the Wasserstein distance succeeded while the discrepancy measure failed.

본 발명에서는 이와 같은 종래 기술의 문제점을 해결하기 위해, 조건부 분포간 와서스타인 거리의 계산 가능한 표현을 제안하고 이를 이용하여 실제와 모델 조건부 거리를 최소화함이 이론적으로 정당화된 새로운 알고리즘인 조건부 와서스타인 생성기(Conditional Wasserstein generator; CWG)를 제안한다. In the present invention, in order to solve such a problem of the prior art, we propose a calculable expression of the Wasserstein distance between conditional distributions and use it to minimize the actual and model conditional distance, which is a new algorithm that is theoretically justified, Conditional Wasserstein. We propose a conditional Wasserstein generator (CWG).

본 발명은 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 조건부 와서스타인 생성기를 이용하여, 주어진 조건 데이터에 대한 목표 데이터를 생성하는 조건부 데이터 생성 장치 및 방법을 제공하는데 목적이 있다. An object of the present invention is to provide a conditional data generating apparatus and method for generating target data for given conditional data using a conditional Wasserstein generator to solve the problems of the prior art.

다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.However, the technical problem to be achieved by the present embodiment is not limited to the technical problem as described above, and other technical problems may exist.

상술한 기술적 과제를 해결하기 위한 기술적 수단으로서, 본 발명의 일 측면에 따른 조건부 데이터 생성 장치를 이용하여, 조건 데이터에 대한 목표 데이터를 생성하는 조건부 데이터 생성 방법은 수신한 조건 데이터를 학습된 조건부 와서스타인 생성기에 입력하여, 상기 조건 데이터에 대한 목표 데이터를 생성하는 단계를 포함한다. 이때, 조건부 와서스타인 생성기는 조건부 분포간 와서스타인 거리를 나타내는 소정의 수학식을 기초로 학습된 것이다.As a technical means for solving the above technical problem, a method for generating conditional data for generating target data for conditional data using the conditional data generating apparatus according to an aspect of the present invention is a conditional data generated by learning received conditional data. and generating target data for the condition data by inputting the input to the Stein generator. At this time, the conditional Wasserstein generator is learned based on a predetermined equation representing the Wasserstein distance between conditional distributions.

또한, 본 발명의 다른 측면에 따른 조건부 데이터 생성 장치는 조건부 데이터 생성 프로그램이 저장된 메모리; 및 상기 메모리에 저장된 프로그램을 실행하는 프로세서를 포함한다. 이때, 조건부 데이터 생성 프로그램은 수신한 조건 데이터를 학습된 조건부 와서스타인 생성기에 입력하여, 상기 조건 데이터에 대한 목표 데이터를 생성하는 것이고, 조건부 와서스타인 생성기는 조건부 분포간 와서스타인 거리를 나타내는 소정의 수학식을 기초로 학습된 것이다.Also, a conditional data generating apparatus according to another aspect of the present invention includes a memory storing a conditional data generating program; and a processor executing a program stored in the memory. At this time, the conditional data generation program inputs the received conditional data to the learned conditional Wasserstein generator to generate target data for the conditional data, and the conditional Osserstein generator represents the Wasserstein distance between conditional distributions. It is learned based on a predetermined mathematical expression.

전술한 본원의 과제 해결 수단에 의하면, 조건부 분포간 와서스타인 거리의 계산 가능한 표현을 이용한 조건부 와서스타인 생성기를 제안함으로써, 실제와 모델 조건부 분포 사이의 와서스타인 거리를 최소화하는 것이 가능한 학습 모델을 제공하는 효과가 있다.According to the above-mentioned problem solving means of the present application, by proposing a conditional Wasserstein generator using a computable expression of a Wasserstein distance between conditional distributions, a learning model capable of minimizing the Wasserstein distance between the actual and model conditional distributions. has the effect of providing

특히, 이를 응용하여 비디오 예측 또는 비디오 보간 분야에 사용하면, 보다 선명하고 정확한 조건부 데이터 생성을 기대할 수 있다.In particular, if this is applied and used in the field of video prediction or video interpolation, clearer and more accurate conditional data generation can be expected.

도 1은 본 발명의 일 실시예에 따른 조건부 데이터 생성 장치의 구성을 도시한 블록도이다.
도 2는 본 발명의 일 실시예에 따른 조건부 와서스타인 생성기의 학습 과정을 나타내는 알고리즘을 도시한 것이다.
도 3은 본 발명의 일 실시예에 따른 조건부 와서스타인 생성기의 학습 과정을 설명하기 위한 개념도이다.
도 4는 본 발명의 일 실시예에 따라 학습된 조건부 와서스타인 생성기를 이용하여 목표 데이터를 생성하는 알고리즘을 도시한 것이다.
도 5는 본 발명의 일 실시예에 따른 조건부 와서스타인 생성기를 이용한 조건부 데이터 생성 방법을 도시한 순서도이다.
1 is a block diagram showing the configuration of an apparatus for generating conditional data according to an embodiment of the present invention.
2 illustrates an algorithm representing a learning process of a conditional Wasserstein generator according to an embodiment of the present invention.
3 is a conceptual diagram for explaining a learning process of a conditional Wasserstein generator according to an embodiment of the present invention.
4 illustrates an algorithm for generating target data using a learned conditional Wasserstein generator according to an embodiment of the present invention.
5 is a flowchart illustrating a method of generating conditional data using a conditional Wasserstein generator according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본원이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본원의 실시예를 상세히 설명한다. 그러나 본원은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본원을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present application will be described in detail so that those skilled in the art can easily practice with reference to the accompanying drawings. However, the present disclosure may be implemented in many different forms and is not limited to the embodiments described herein. And in order to clearly describe the present application in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

본원 명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. Throughout this specification, when a part is said to be "connected" to another part, this includes not only the case of being "directly connected" but also the case of being "electrically connected" with another element in between. do.

본원 명세서 전체에서, 어떤 부재가 다른 부재 “상에” 위치하고 있다고 할 때, 이는 어떤 부재가 다른 부재에 접해 있는 경우뿐 아니라 두 부재 사이에 또 다른 부재가 존재하는 경우도 포함한다.Throughout the present specification, when a member is said to be located “on” another member, this includes not only a case where a member is in contact with another member, but also a case where another member exists between the two members.

이하 첨부된 도면을 참고하여 본 발명의 일 실시예를 상세히 설명하기로 한다.Hereinafter, an embodiment of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 조건부 데이터 생성 장치의 구성을 도시한 블록도이다. 1 is a block diagram showing the configuration of an apparatus for generating conditional data according to an embodiment of the present invention.

도시된 바와 같이 조건부 데이터 생성 장치(100)는 통신 모듈(110), 메모리(120), 프로세서(130) 및 데이터베이스(140)를 포함할 수 있다. As shown, the apparatus 100 for generating conditional data may include a communication module 110 , a memory 120 , a processor 130 and a database 140 .

조건부 데이터 생성 장치(100)는 장치(100)를 통해 입력되거나, 외부 단말로부터 전달된 조건 데이터를 수신하고, 이를 조건부 데이터 생성 프로그램에 입력하여, 목표 데이터를 출력한다. 이때, 조건부 데이터 생성 프로그램은 조건부 와서스타인 생성기를 학습시키는 로직과 학습된 조건부 와서스타인 생성기를 이용하여 목표 데이터를 출력하는 추론 과정을 수행한다. 한편, 조건부 데이터 생성 장치(100)는 목표 데이터를 제공하는 서버로서 동작할 수 있다. 이러한 경우, 조건부 데이터 생성 장치(100)는 SaaS (Software as a Service), PaaS (Platform as a Service) 또는 IaaS (Infrastructure as a Service)와 같은 클라우드 컴퓨팅 서비스 모델에서 동작할 수 있다. 또한, 조건부 데이터 생성 장치(100)는 사설(private) 클라우드, 공용(public) 클라우드 또는 하이브리드(hybrid) 클라우드와 같은 형태로 구축될 수 있다.The conditional data generating device 100 receives conditional data input through the device 100 or transmitted from an external terminal, inputs the conditional data to a conditional data generating program, and outputs target data. At this time, the conditional data generation program performs an inference process of outputting target data using the logic for learning the conditional Osserstein generator and the learned conditional Osserstein generator. Meanwhile, the conditional data generating device 100 may operate as a server providing target data. In this case, the conditional data generation device 100 may operate in a cloud computing service model such as Software as a Service (SaaS), Platform as a Service (PaaS), or Infrastructure as a Service (IaaS). In addition, the conditional data generating device 100 may be built in the form of a private cloud, public cloud, or hybrid cloud.

통신 모듈(110)은 조건 데이터를 외부 기기로부터 수신하는 것으로서, 예를 들면, 비디오 예측이나 비디오 보간을 위해 필요한 과거 비디오 프레임 등을 통신망(300)을 통해 수신할 수 있다. 또한 통신 모듈(110)은 각종 외부 장치(서버 또는 단말) 로부터 조건부 데이터 생성 프로그램 등의 업데이트 정보 등을 수신하여 프로세서(130)로 전송할 수 있다.The communication module 110 receives condition data from an external device, and may receive, for example, past video frames necessary for video prediction or video interpolation through the communication network 300 . In addition, the communication module 110 may receive update information such as a conditional data generating program from various external devices (servers or terminals) and transmit the received update information to the processor 130 .

통신 모듈(110)은 다른 네트워크 장치와 유무선 연결을 통해 제어 신호 또는 데이터 신호와 같은 신호를 송수신하기 위해 필요한 하드웨어 및 소프트웨어를 포함하는 장치일 수 있다.The communication module 110 may be a device including hardware and software necessary for transmitting and receiving signals such as control signals or data signals with other network devices through wired or wireless connections.

메모리(120)에는 수신한 조건 데이터에 대한 목표 데이터를 출력하는 조건부 데이터 생성 프로그램이 저장된다. 이러한 메모리(120)에는 조건부 데이터 생성 장치(100)의 구동을 위한 운영 체제나 조건부 데이터 생성 프로그램의 실행 과정에서 발생되는 여러 종류가 데이터가 저장된다. The memory 120 stores a conditional data generating program that outputs target data for the received conditional data. The memory 120 stores various types of data generated during the execution of an operating system for driving the conditional data generating device 100 or a conditional data generating program.

이때, 조건부 데이터 생성 프로그램은, 조건부 와서스타인 생성기를 학습시키는 로직과 학습된 조건부 와서스타인 생성기를 이용하여 목표 데이터를 출력하는 추론 과정을 수행한다. 조건부 데이터 생성 프로그램의 구체적인 구성에 대해서는 추후 설명하기로 한다.At this time, the conditional data generation program performs an inference process of outputting target data using the logic for learning the conditional Osserstein generator and the learned conditional Osserstein generator. A detailed configuration of the conditional data generation program will be described later.

이때, 메모리(120)는 전원이 공급되지 않아도 저장된 정보를 계속 유지하는 비휘발성 저장장치 및 저장된 정보를 유지하기 위하여 전력이 필요한 휘발성 저장장치를 통칭하는 것이다. At this time, the memory 120 collectively refers to a non-volatile storage device that continuously retains stored information even when power is not supplied and a volatile storage device that requires power to maintain stored information.

또한, 메모리(120)는 프로세서(130)가 처리하는 데이터를 일시적 또는 영구적으로 저장하는 기능을 수행할 수 있다. 여기서, 메모리(120)는 저장된 정보를 유지하기 위하여 전력이 필요한 휘발성 저장장치 외에 자기 저장 매체(magnetic storage media) 또는 플래시 저장 매체(flash storage media)를 포함할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.Also, the memory 120 may temporarily or permanently store data processed by the processor 130 . Here, the memory 120 may include magnetic storage media or flash storage media in addition to a volatile storage device that requires power to maintain stored information, but the scope of the present invention is limited thereto it is not going to be

프로세서(130)는 메모리(120)에 저장된 프로그램을 실행하되, 조건부 데이터 생성 프로그램의 실행에 따라, 조건부 와서스타인 생성기를 학습시키는 로직과 학습된 조건부 와서스타인 생성기를 이용하여 조건 데이터로부터 목표 데이터를 출력하는 추론 과정을 수행한다The processor 130 executes the program stored in the memory 120, and according to the execution of the conditional data generation program, the target data is obtained from the condition data by using logic for learning the conditional Osserstein generator and the learned conditional Osserstein generator. Performs an inference process that outputs

이러한 프로세서(130)는 데이터를 처리할 수 있는 모든 종류의 장치를 포함할 수 있다. 예를 들어 프로그램 내에 포함된 코드 또는 명령으로 표현된 기능을 수행하기 위해 물리적으로 구조화된 회로를 갖는, 하드웨어에 내장된 데이터 처리 장치를 의미할 수 있다. 이와 같이 하드웨어에 내장된 데이터 처리 장치의 일 예로써, 마이크로프로세서(microprocessor), 중앙처리장치(central processing unit: CPU), 프로세서 코어(processor core), 멀티프로세서(multiprocessor), ASIC(application-specific integrated circuit), FPGA(field programmable gate array) 등의 처리 장치를 망라할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.The processor 130 may include any type of device capable of processing data. For example, it may refer to a data processing device embedded in hardware having a physically structured circuit to perform a function expressed as a code or command included in a program. As an example of such a data processing device built into hardware, a microprocessor, a central processing unit (CPU), a processor core, a multiprocessor, an application-specific integrated (ASIC) circuit), field programmable gate array (FPGA), etc., but the scope of the present invention is not limited thereto.

데이터베이스(140)는 프로세서(130)의 제어에 따라, 조건부 데이터 생성 장치(100)에 필요한 데이터를 저장 또는 제공한다. 이러한 데이터베이스(140)는 메모리(120)와는 별도의 구성 요소로서 포함되거나, 또는 메모리(120)의 일부 영역에 구축될 수도 있다.The database 140 stores or provides data necessary for the conditional data generating device 100 under the control of the processor 130 . The database 140 may be included as a component separate from the memory 120 or may be built in a partial area of the memory 120 .

도 2는 본 발명의 일 실시예에 따른 조건부 와서스타인 생성기의 학습 과정을 나타내는 알고리즘을 도시한 것이고, 도 3은 본 발명의 일 실시예에 따른 조건부 와서스타인 생성기의 학습 과정을 설명하기 위한 개념도이다.2 illustrates an algorithm representing a learning process of a conditional Wasserstein generator according to an embodiment of the present invention, and FIG. 3 is a diagram for explaining a learning process of a conditional Wasserstein generator according to an embodiment of the present invention. it is a concept

알고리즘의 설명에 앞서, 본 발명에서 제안하는 조건부 분포간 와서스타인 거리의 계산 가능한 표현에 대하여 살펴보기로 한다.Prior to the description of the algorithm, a computable expression of the Wasserstein distance between conditional distributions proposed in the present invention will be reviewed.

먼저, 거리공간(X, d)위의 확률분포 P와 Q에 대한 p-와서스타인 거리는 Tolstikhin et al("Wasserstein auto-encoders," in Proceedings of the International Conference on Learning Representations (ICLR), 2018.)에서 다음과 같이 정의하고 있다First, the p-Wasserstein distance for probability distributions P and Q on the distance space (X, d) can be found in Tolstikhin et al ("Wasserstein auto-encoders," in Proceedings of the International Conference on Learning Representations (ICLR), 2018. ) is defined as:

[수학식 1][Equation 1]

Figure pat00001
Figure pat00001

이때, p는 1 이상의 실수이며,

Figure pat00002
는 P와 Q의 모든 커플링의 집합으로 주어진다. 다만, 선행 연구에서는실제와 모델 결합 분포간 p-와서스타인 거리에 대한 계산 가능한 표현을 제안한바 있으나, 조건부 생성을 위한 조건부 분포간 와서스타인 거리의 계산 가능한 표현에 대해서는 아직 알려지지 않은 상태이다.In this case, p is a real number greater than or equal to 1,
Figure pat00002
is given as the set of all couplings of P and Q. However, although previous studies have proposed a computable expression for the p-Wasserstain distance between the real and model joint distributions, the computable expression for the Wasserstein distance between conditional distributions for conditional generation is still unknown.

본 발명에서 제안하는 조건부 분포간 와서스타인 거리의 계산 가능한 표현은 다음과 같다.A computable expression of the Wasserstein distance between conditional distributions proposed in the present invention is as follows.

[수학식 2][Equation 2]

Figure pat00003
Figure pat00003

p는 1 이상의 실수p is a real number greater than or equal to 1

Wp: 와서스타인 거리W p : Wasserstein distance

X: 목표 데이터X: target data

C: 조건 데이터C: condition data

Figure pat00004
: 생성된 목표 데이터로서 조건부 와서스타인 생성기(Gθ) 로 생성한 데이터
Figure pat00005
로 표현됨
Figure pat00004
: Data generated by the conditional Wasserstein generator (G θ ) as the generated target data
Figure pat00005
expressed as

조건부 와서스타인 생성기(G)의 립쉬츠(Lipschitz) 상수

Figure pat00006
가 1보다 작거나 같음Lipschitz constant of conditional Wasserstein generator (G)
Figure pat00006
is less than or equal to 1

Qψ

Figure pat00007
를 PC에 대해 확률 1로 만족하는 모든 확률분포
Figure pat00008
의 집합임Q ψ is
Figure pat00007
any probability distribution that satisfies with probability 1 for P C
Figure pat00008
is the set of

이와 같이 수학식 2로 정의되는 조건부 분포간 와서스타인 거리의 계산 가능한 수식을 기반으로, 조건부 와서스타인 생성기를 학습하며, 구체적인 알고리즘은 도 2에 도시된 의사 코드의 형태로 표현될 수 있다.Based on the formula that can calculate the Wasserstein distance between conditional distributions defined by Equation 2 as described above, the conditional Wasserstein generator is learned, and the specific algorithm can be expressed in the form of pseudocode shown in FIG. 2 .

또한, 이를 이용한 학습 과정은 도 3과 같이 도시될 수 있다.In addition, a learning process using this may be illustrated as shown in FIG. 3 .

먼저, 입력으로는

Figure pat00009
를 따르는 훈련 샘플
Figure pat00010
, 조건부 와서스타인 생성기(Gθ), 확률적 인코더(
Figure pat00011
), 사전 네트워크(
Figure pat00012
), 양정치 커널함수 k, 와서스타인 거리의 차수 p, 거리함수 dX와 dC, 초모수
Figure pat00013
가 입력된다. 그리고, 도 3에서 C는 조건 데이터,
Figure pat00014
는 셔플된 조건 데이터를 의미하고, X는 목표 데이터,
Figure pat00015
는 입력된 X에 대하여 생성기를 통해 생성된 재구축 데이터,
Figure pat00016
는 셔플된 조건 데이터(
Figure pat00017
)에 대하여 생성기를 통해 생성된 재구축 데이터를 의미한다.First, as an input
Figure pat00009
training samples that follow
Figure pat00010
, a conditional Wasserstein generator (G θ ), a stochastic encoder (
Figure pat00011
), the dictionary network (
Figure pat00012
), biphasic kernel function k, degree of Wasserstein distance p, distance functions d X and d C , hyperparameters
Figure pat00013
is entered. And, in FIG. 3, C is condition data,
Figure pat00014
Means the shuffled condition data, X is the target data,
Figure pat00015
Is the reconstruction data generated through the generator for the input X,
Figure pat00016
is the shuffled conditional data (
Figure pat00017
) means the reconstruction data generated through the generator.

이후, θ, φ, ψ를 초기화하는데, θ, φ, ψ가 수렴할때까지 각 단계(3~13)을 반복 수행한다. 이때, θ는 조건부 와서스타인 생성기의 파라미터, φ는 확률적 인코더의 파라미터, ψ는 사전 네트워크의 파라미터로, 인공 신경망을 구성하는 계층(layer) 의 가중치 및 편향등을 나타낸다.Thereafter, θ, φ, and ψ are initialized, and each step (3 to 13) is repeatedly performed until θ, φ, and ψ converge. In this case, θ is a parameter of the conditional Osserstein generator, φ is a parameter of the stochastic encoder, and ψ is a parameter of the dictionary network, representing weights and biases of layers constituting the artificial neural network.

3번 단계에서는 조건 데이터와 목표 데이터로 이루어진 미니배치

Figure pat00018
를 추출한다. 참고로, 미니배치는 전체 데이터를 N등분하여 각각의 학습 데이터를 배치 방식으로 학습하는 것을 의미한다.In step 3, mini-batches consisting of condition data and target data
Figure pat00018
extract For reference, mini-batch means that each training data is learned in a batch manner by dividing the entire data into N portions.

4번 단계에서는 사전네트워크를 통해 조건 데이터(C)에 대한 사전 잠재 변수

Figure pat00019
를 추출한다.In step 4, the prior latent variable for the condition data (C) through the prior network.
Figure pat00019
extract

5번 단계에서는 확률적 인코더를 통해 조건 데이터(C)와 목표 데이터(X)에 대한 사후 잠재 변수

Figure pat00020
를 추출한다.In step 5, the posterior latent variables for the condition data (C) and the target data (X) are obtained through stochastic encoders.
Figure pat00020
extract

6번 단계에서는 조건 데이터(C)를 셔플하여 셔플된 조건 데이터(

Figure pat00021
)를 획득한다.In step 6, the condition data (C) is shuffled to obtain the shuffled condition data (
Figure pat00021
) to obtain

7번 단계에서는 사후 잠재 변수

Figure pat00022
와 조건 데이터(C)를 조건부 와서스타인 생성기에 입력하여, 재구축 데이터(
Figure pat00023
)를 생성한다.In step 7, the posterior latent variable
Figure pat00022
and the conditional data (C) into the conditional Wasserstein generator, the reconstruction data (
Figure pat00023
) to create

8번 단계에서는 사후 잠재 변수

Figure pat00024
와 셔플된 조건 데이터(
Figure pat00025
)를 조건부 와서스타인 생성기에 입력하여, 재구축 데이터(
Figure pat00026
)를 생성한다.In step 8, the posterior latent variable
Figure pat00024
and shuffled condition data (
Figure pat00025
) into the conditional Wasserstein generator, the reconstruction data (
Figure pat00026
) to create

9 번 단계에서는 립쉬츠 손실, 10번 단계에서는 재구축 손실, 11번 단계에서는 MMD 손실을 각각 산출하는데, 이에 대한 설명은 다음과 같다.The Lipschitz loss is calculated in step 9, the reconstruction loss is calculated in step 10, and the MMD loss is calculated in step 11, respectively.

조건부 와서스타인 생성기를 학습하는 과정에서는 수학식 2에서 도출된 표현을 최소화하기 위해 제약 최적화 문제를 풀이하며, 라그랑주 승수법을 도입하여, 재구축 손실, 사전 분포와 사후 분포간 최대 평균 불일치(Maximum mean discrepancy, MMD) 손실, 립쉬츠 손실의 가중합을 계산하고, 그 가중합이 최소가 되도록 학습을 반복 수행한다.In the process of learning the conditional Wasserstein generator, the constrained optimization problem is solved to minimize the expression derived from Equation 2, and the Lagrange multiplier method is introduced to reduce the reconstruction loss, the maximum mean discrepancy between the prior distribution and the posterior distribution (Maximum The weighted sum of the mean discrepancy (MMD) loss and Lipschitz loss is calculated, and learning is repeatedly performed so that the weighted sum is minimized.

이때, 재구축 손실은 목표 데이터와 재구축 데이터를 기초로 다음의 수학식 3에 의하여 산출된다.At this time, the reconstruction loss is calculated by the following Equation 3 based on the target data and the reconstruction data.

[수학식 3][Equation 3]

Figure pat00027
Figure pat00027

그리고, 사전 분포와 사후 분포간 최대 평균 불일치 손실은 사전 잠재 변수와 사후 잠재 변수를 기초로 수학식 4에 의하여 산출된다.And, the maximum average disparity loss between the prior distribution and the posterior distribution is calculated by Equation 4 based on the prior latent variable and the posterior latent variable.

[수학식 4][Equation 4]

Figure pat00028
Figure pat00028

이때,

Figure pat00029
는 잠재변수의 분포에 관한 제약 조건을 모수화하는 신경망을 나타낸다.At this time,
Figure pat00029
represents a neural network that parameterizes the constraints on the distribution of latent variables.

그리고, 립쉬츠 손실은 셔플된 조건 데이터와 셔플된 조건 데이터에 대한 재구축 데이터를 기초로 수학식 5에 의하여 산출된다.And, the Lipschitz loss is calculated by Equation 5 based on the shuffled condition data and the reconstructed data for the shuffled condition data.

[수학식 5][Equation 5]

Figure pat00030
Figure pat00030

이때, K는 0과 1 사이의 값을 갖는 초모수이다.Here, K is a hyperparameter with a value between 0 and 1.

도 4는 본 발명의 일 실시예에 따라 학습된 조건부 와서스타인 생성기를 이용하여 목표 데이터를 생성하는 알고리즘을 도시한 것이다.4 illustrates an algorithm for generating target data using a learned conditional Wasserstein generator according to an embodiment of the present invention.

앞서 도 2 및 3의 과정을 통해 학습된 조건부 와서스타인 생성기에 조건 데이터를 입력하면, 학습된 사전 네트워크를 통해 사전 잠재 변수

Figure pat00031
가 추출된다. 이를 조건 데이터와 함께 학습된 조건부 와서스타인 생성기에 입력하면, 목표 데이터를 출력할 수 있다.If conditional data is input to the conditional Wasserstein generator learned through the process of FIGS. 2 and 3 above, the prior latent variable through the learned dictionary network
Figure pat00031
is extracted If this is input to the learned conditional Wasserstein generator together with condition data, target data can be output.

도 5는 본 발명의 일 실시예에 따른 조건부 와서스타인 생성기를 이용한 조건부 데이터 생성 방법을 도시한 순서도이다.5 is a flowchart illustrating a method of generating conditional data using a conditional Wasserstein generator according to an embodiment of the present invention.

먼저, 학습된 조건부 와서스타인 생성기가 제공된다(S510).First, a learned conditional Wasserstein generator is provided (S510).

이때, 조건부 와서스타인 생성기는 앞서 설명한, 도 2의 알고리즘과 도3의 손실 산출 과정을 통해 학습된다. 예를 들어, 비디오 예측을 위한 학습 모델의 경우 과거 비디오 프레임과 미래 비디오 프레임을 각각 조건 데이터와 목표 데이터로 설정하여 학습이 진행된다. 또한, 비디오 보간을 위한 학습 모델의 경우, 과거 비디오 프레임 및 미래 비디오 프레임을 조건 데이터로 하고, 그 사이의 중간 비디오 프레임을 목표 데이터로 설정하여 학습이 진행된다.At this time, the conditional Wasserstein generator is learned through the algorithm of FIG. 2 and the loss calculation process of FIG. 3 described above. For example, in the case of a learning model for video prediction, learning is performed by setting past video frames and future video frames as condition data and target data, respectively. In addition, in the case of a learning model for video interpolation, learning proceeds by setting a past video frame and a future video frame as condition data, and setting an intermediate video frame between them as target data.

다음으로, 학습된 조건부 와서스타인 생성기에 대하여 조건 데이터를 입력한다(S520). 예를 들어, 비디오 예측을 위한 학습 모델의 경우 과거 비디오 프레임이 조건 데이터로 입력되고, 비디오 보간을 위한 학습 모델의 경우, 과거 비디오 프레임 및 미래 비디오 프레임이 조건 데이터로 입력된다.Next, condition data is input for the learned conditional Wasserstein generator (S520). For example, in the case of a learning model for video prediction, past video frames are input as condition data, and in the case of a learning model for video interpolation, past video frames and future video frames are input as condition data.

다음으로, 조건 데이터에 대한 응답으로서, 학습된 조건부 와서스타인 생성기가 목표 데이터를 출력한다(S530). 예를 들어, 비디오 예측을 위한 학습 모델의 경우 과거 비디오 프레임이 조건 데이터로 입력되면, 이에 대한 응답으로서, 미래 비디오 프레임을 출력한다. 또한, 비디오 보간을 위한 학습 모델의 경우, 과거 비디오 프레임 및 미래 비디오 프레임이 조건 데이터로 입력되면, 그 사이에 위치하는 중간 비디오 프레임이 출력된다.Next, as a response to the condition data, the learned conditional Wasserstein generator outputs target data (S530). For example, in the case of a learning model for video prediction, if a past video frame is input as condition data, a future video frame is output as a response thereto. In addition, in the case of a learning model for video interpolation, when a past video frame and a future video frame are input as condition data, an intermediate video frame positioned between them is output.

본 발명의 일 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체를 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. An embodiment of the present invention may be implemented in the form of a recording medium including instructions executable by a computer, such as program modules executed by a computer. Computer readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media. Also, computer readable media may include computer storage media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data.

본 발명의 방법 및 시스템은 특정 실시예와 관련하여 설명되었지만, 그것들의 구성 요소 또는 동작의 일부 또는 전부는 범용 하드웨어 아키텍쳐를 갖는 컴퓨터 시스템을 사용하여 구현될 수 있다.Although the methods and systems of the present invention have been described with reference to specific embodiments, some or all of their components or operations may be implemented using a computer system having a general-purpose hardware architecture.

전술한 본원의 설명은 예시를 위한 것이며, 본원이 속하는 기술분야의 통상의 지식을 가진 자는 본원의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The above description of the present application is for illustrative purposes, and those skilled in the art will understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present application. Therefore, the embodiments described above should be understood as illustrative in all respects and not limiting. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as distributed may be implemented in a combined form.

본원의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본원의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present application is indicated by the following claims rather than the detailed description above, and all changes or modifications derived from the meaning and scope of the claims and equivalent concepts thereof should be construed as being included in the scope of the present application.

100: 조건부 데이터 생성 장치
110: 통신 모듈
120: 메모리
130: 프로세서
140: 데이터베이스
200: 헬스 스페이스 모델
210: 데이터 수집부
220: 제 1 순서형 회귀 심층 신경망 모델
230: 제 2 순서형 회귀 심층 신경망 모델
240: 제 3 순서형 회귀 심층 신경망 모델
250: 시각화 모듈
222, 232, 242: 심층 신경망
224, 234, 244: 분류기
100: conditional data generating device
110: communication module
120: memory
130: processor
140: database
200: health space model
210: data collection unit
220 First ordered regression deep neural network model
230 second ordered regression deep neural network model
240: 3rd order regression deep neural network model
250: visualization module
222, 232, 242: deep neural networks
224, 234, 244: classifier

Claims (12)

조건부 데이터 생성 장치를 이용하여, 조건 데이터에 대한 목표 데이터를 생성하는 조건부 데이터 생성 방법에 있어서,
수신한 조건 데이터를 학습된 조건부 와서스타인 생성기에 입력하여, 상기 조건 데이터에 대한 목표 데이터를 생성하는 단계를 포함하되,
상기 조건부 와서스타인 생성기는 와서스타인 거리를 나타내는 하기의 수학식 1을 기초로 학습된 것인, 조건부 데이터 생성 방법.
[수학식 1]
Figure pat00032

p는 1 이상의 실수
Wp: 와서스타인 거리
X: 목표 데이터
C: 조건 데이터
Figure pat00033
: 생성된 목표 데이터로서
Figure pat00034
로 표현됨.
조건부 와서스타인 생성기(Gθ)의 립쉬츠(Lipschitz) 상수
Figure pat00035
가 1보다 작거나 같음.
Qψ
Figure pat00036
를 PC에 대해 확률 1로 만족하는 모든 확률분포
Figure pat00037
의 집합임.
A method for generating conditional data for generating target data for conditional data using a conditional data generating device, the method comprising:
Including generating target data for the condition data by inputting the received condition data to the learned conditional Wasserstein generator,
The conditional data generation method according to claim 1 , wherein the conditional Wasserstein generator is learned based on Equation 1 below, which represents a Wasserstein distance.
[Equation 1]
Figure pat00032

p is a real number greater than or equal to 1
W p : Wasserstein distance
X: target data
C: condition data
Figure pat00033
: as generated target data
Figure pat00034
expressed as
Lipschitz constant of conditional Wasserstein generator (G θ )
Figure pat00035
is less than or equal to 1.
Q ψ is
Figure pat00036
any probability distribution that satisfies with probability 1 for P C
Figure pat00037
is a set of
제1항에 있어서,
상기 학습된 조건부 와서스타인 생성기는 재구축 손실, 사전 분포와 사후 분포간 최대 평균 불일치 손실 및 립쉬츠 손실의 가중합이 최소가 되도록 반복 학습된 것인, 조건부 데이터 생성 방법.
According to claim 1,
Wherein the learned conditional Wasserstein generator is iteratively learned so that a weighted sum of a reconstruction loss, a maximum average mismatch loss between the prior distribution and the posterior distribution, and a Lipschitz loss is minimized.
제2항에 있어서,
상기 재구축 손실은 조건 데이터와 목표 데이터를 확률적 인코더에 입력하여 출력된 사후 잠재 변수와 상기 조건 데이터를 조건부 와서스타인 생성기에 입력하여 재구축 데이터를 생성하고, 상기 조건 데이터와 상기 재구축 데이터를 기초로 산출되는 것이고,
상기 최대 평균 불일치 손실은 상기 조건 데이터를 사전 네트워크에 입력하여 출력된 사전 잠재 변수와 상기 사후 잠재 변수를 기초로 산출되는 것이고,
상기 립쉬츠 손실은 상기 사후 잠재 변수와 셔플된 조건 데이터를 상기 조건부 와서스타인 생성기에 입력하여 생성된 셔플된 조건 데이터에 대한 재구축 데이터와 상기 셔플된 조건 데이터를 기초로 산출되는 것인, 조건부 데이터 생성 방법.
According to claim 2,
The reconstruction loss is calculated by inputting conditional data and target data to a stochastic encoder, generating reconstruction data by inputting the output latent variables and the conditional data to a conditional Wasserstein generator, and generating reconstruction data, and the conditional data and the reconstruction data is calculated based on
The maximum average mismatch loss is calculated based on a prior latent variable output by inputting the condition data to a prior network and the posterior latent variable,
The Lipshitz loss is calculated based on reconstruction data for shuffled condition data generated by inputting the posterior latent variable and shuffled condition data to the conditional Osserstein generator and the shuffled condition data. How to generate data.
제1항에 있어서,
상기 조건 데이터에 대한 목표 데이터를 생성하는 단계는
상기 조건 데이터의 입력에 따라, 학습된 사전 네트워크를 통해 사전 잠재 변수가 추출되고, 추출된 사전 잠재 변수와 상기 조건 데이터가 상기 학습된 조건부 와서스타인 생성기에 입력됨에 따라 목표 데이터가 출력되는 것인, 조건부 데이터 생성 방법.
According to claim 1,
Generating target data for the condition data
According to the input of the condition data, a prior latent variable is extracted through a learned dictionary network, and target data is output as the extracted prior latent variable and the condition data are input to the learned conditional Osserstein generator. , how to generate conditional data.
제1항에 있어서,
상기 학습된 조건부 와서스타인 생성기는 과거 비디오 프레임과 미래 비디오 프레임을 각각 조건 데이터와 목표 데이터로 설정하여 학습된 것이고,
상기 조건 데이터에 대한 목표 데이터를 생성하는 단계는
상기 과거 비디오 프레임이 조건 데이터로 입력되면, 상기 학습된 조건부 와서스타인 생성기가 그에 대한 응답으로서 미래 비디오 프레임을 출력하는 것인, 조건부 데이터 생성 방법.
According to claim 1,
The learned conditional Wasserstein generator is learned by setting past video frames and future video frames as condition data and target data, respectively,
Generating target data for the condition data
Wherein the learned conditional Wasserstein generator outputs a future video frame as a response when the past video frame is input as condition data.
제1항에 있어서,
상기 학습된 조건부 와서스타인 생성기는 과거 비디오 프레임과 미래 비디오 프레임을 조건 데이터로 하고, 과거 비디오 프레임과 미래 비디오 프레임 사이의 중간 비디오 프레임을 목표 데이터로 설정하여 학습된 것이고,
상기 조건 데이터에 대한 목표 데이터를 생성하는 단계는
상기 과거 비디오 프레임과 미래 비디오 프레임이 조건 데이터로 입력되면, 상기 학습된 조건부 와서스타인 생성기가 그에 대한 응답으로서 중간 비디오 프레임을 출력하는 것인, 조건부 데이터 생성 방법.
According to claim 1,
The learned conditional Wasserstein generator is learned by setting a past video frame and a future video frame as condition data and setting an intermediate video frame between the past video frame and the future video frame as target data,
Generating target data for the condition data
Wherein the learned conditional Wasserstein generator outputs an intermediate video frame as a response when the past and future video frames are input as condition data.
조건부 데이터 생성 장치에 있어서,
조건부 데이터 생성 프로그램이 저장된 메모리; 및
상기 메모리에 저장된 프로그램을 실행하는 프로세서를 포함하며,
상기 조건부 데이터 생성 프로그램은 수신한 조건 데이터를 학습된 조건부 와서스타인 생성기에 입력하여, 상기 조건 데이터에 대한 목표 데이터를 생성하는 것이고,
상기 조건부 와서스타인 생성기는 와서스타인 거리를 나타내는 하기의 수학식 2를 기초로 학습된 것인, 조건부 데이터 생성 장치.
[수학식 2]
Figure pat00038

p는 1 이상의 실수
Wp: 와서스타인 거리
X: 목표 데이터
C: 조건 데이터
Figure pat00039
: 생성된 목표 데이터로서
Figure pat00040
로 표현됨.
조건부 와서스타인 생성기(Gθ)의 립쉬츠(Lipschitz) 상수
Figure pat00041
가 1보다 작거나 같음.
Qψ
Figure pat00042
를 PC에 대해 확률 1로 만족하는 모든 확률분포
Figure pat00043
의 집합임.
In the conditional data generating device,
a memory in which a conditional data generating program is stored; and
A processor for executing a program stored in the memory;
The conditional data generation program inputs the received conditional data to the learned conditional Wasserstein generator to generate target data for the conditional data;
The conditional data generation device, wherein the conditional data generator is learned based on Equation 2 below, which represents a Wasserstein distance.
[Equation 2]
Figure pat00038

p is a real number greater than or equal to 1
W p : Wasserstein distance
X: target data
C: condition data
Figure pat00039
: as generated target data
Figure pat00040
expressed as
Lipschitz constant of conditional Wasserstein generator (G θ )
Figure pat00041
is less than or equal to 1.
Q ψ is
Figure pat00042
any probability distribution that satisfies with probability 1 for P C
Figure pat00043
is a set of
제7항에 있어서,
상기 학습된 조건부 와서스타인 생성기는 재구축 손실, 사전 분포와 사후 분포간 최대 평균 불일치 손실 및 립쉬츠 손실의 가중합이 최소가 되도록 반복 학습된 것인, 조건부 데이터 생성 장치.
According to claim 7,
Wherein the learned conditional Wasserstein generator is iteratively learned so that a weighted sum of a reconstruction loss, a maximum average mismatch loss between the prior distribution and the posterior distribution, and a Lipschitz loss is minimized.
제8항에 있어서,
상기 재구축 손실은 조건 데이터와 목표 데이터를 확률적 인코더에 입력하여 출력된 사후 잠재 변수와 상기 조건 데이터를 조건부 와서스타인 생성기에 입력하여 재구축 데이터를 생성하고, 상기 조건 데이터와 상기 재구축 데이터를 기초로 산출되는 것이고,
상기 최대 평균 불일치 손실은 상기 조건 데이터를 사전 네트워크에 입력하여 출력된 사전 잠재 변수와 상기 사후 잠재 변수를 기초로 산출되는 것이고,
상기 립쉬츠 손실은 상기 사후 잠재 변수와 셔플된 조건 데이터를 상기 조건부 와서스타인 생성기에 입력하여 생성된 셔플된 조건 데이터에 대한 재구축 데이터와 상기 셔플된 조건 데이터를 기초로 산출되는 것인, 조건부 데이터 생성 장치.
According to claim 8,
The reconstruction loss is calculated by inputting conditional data and target data to a stochastic encoder, generating reconstruction data by inputting the output latent variables and the conditional data to a conditional Wasserstein generator, and generating reconstruction data, and the conditional data and the reconstruction data is calculated based on
The maximum average mismatch loss is calculated based on a prior latent variable output by inputting the condition data to a prior network and the posterior latent variable,
The Lipshitz loss is calculated based on reconstruction data for shuffled condition data generated by inputting the posterior latent variable and shuffled condition data to the conditional Osserstein generator and the shuffled condition data. data generating device.
제7항에 있어서,
상기 조건부 데이터 생성 프로그램은
상기 조건 데이터의 입력에 따라, 학습된 사전 네트워크를 통해 사전 잠재 변수가 추출되고, 추출된 사전 잠재 변수와 상기 조건 데이터가 상기 학습된 조건부 와서스타인 생성기에 입력됨에 따라 목표 데이터가 출력되는 것인, 조건부 데이터 생성 장치.
According to claim 7,
The conditional data generating program
According to the input of the condition data, a prior latent variable is extracted through a learned dictionary network, and target data is output as the extracted prior latent variable and the condition data are input to the learned conditional Osserstein generator. , a conditional data generator.
제7항에 있어서,
상기 학습된 조건부 와서스타인 생성기는 과거 비디오 프레임과 미래 비디오 프레임을 각각 조건 데이터와 목표 데이터로 설정하여 학습된 것이고,
상기 과거 비디오 프레임이 조건 데이터로 입력되면, 상기 학습된 조건부 와서스타인 생성기가 그에 대한 응답으로서 미래 비디오 프레임을 출력하는 것인, 조건부 데이터 생성 장치.
According to claim 7,
The learned conditional Wasserstein generator is learned by setting past video frames and future video frames as condition data and target data, respectively,
Wherein the learned conditional Wasserstein generator outputs a future video frame as a response when the past video frame is input as condition data.
제7항에 있어서,
상기 학습된 조건부 와서스타인 생성기는 과거 비디오 프레임과 미래 비디오 프레임을 조건 데이터로 하고, 과거 비디오 프레임과 미래 비디오 프레임 사이의 중간 비디오 프레임을 목표 데이터로 설정하여 학습된 것이고,
상기 과거 비디오 프레임과 미래 비디오 프레임이 조건 데이터로 입력되면, 상기 학습된 조건부 와서스타인 생성기가 그에 대한 응답으로서 중간 비디오 프레임을 출력하는 것인, 조건부 데이터 생성 장치.
According to claim 7,
The learned conditional Wasserstein generator is learned by setting a past video frame and a future video frame as condition data and setting an intermediate video frame between the past video frame and the future video frame as target data,
Wherein the learned conditional Wasserstein generator outputs an intermediate video frame as a response when the past video frame and the future video frame are input as condition data.
KR1020210105611A 2021-08-10 2021-08-10 Method and apparatus for conditional data genration using conditional wasserstein generator KR20230023464A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210105611A KR20230023464A (en) 2021-08-10 2021-08-10 Method and apparatus for conditional data genration using conditional wasserstein generator

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210105611A KR20230023464A (en) 2021-08-10 2021-08-10 Method and apparatus for conditional data genration using conditional wasserstein generator

Publications (1)

Publication Number Publication Date
KR20230023464A true KR20230023464A (en) 2023-02-17

Family

ID=85327397

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210105611A KR20230023464A (en) 2021-08-10 2021-08-10 Method and apparatus for conditional data genration using conditional wasserstein generator

Country Status (1)

Country Link
KR (1) KR20230023464A (en)

Similar Documents

Publication Publication Date Title
Duan et al. Distributed artificial intelligence empowered by end-edge-cloud computing: A survey
US20230039182A1 (en) Method, apparatus, computer device, storage medium, and program product for processing data
EP3855365A1 (en) Distributed neural network model training
CN112269769B (en) Data compression method, device, computer equipment and storage medium
WO2019177951A1 (en) Hybrid quantum-classical generative modes for learning data distributions
CN110659678B (en) User behavior classification method, system and storage medium
JP2016197389A (en) Learning system, learning program, and learning method
EP3889846A1 (en) Deep learning model training method and system
Liu et al. Physics-guided Deep Markov Models for learning nonlinear dynamical systems with uncertainty
Ammar et al. Automatically mapped transfer between reinforcement learning tasks via three-way restricted boltzmann machines
US20230359867A1 (en) Framework for causal learning of neural networks
CN115427968A (en) Robust artificial intelligence reasoning in edge computing devices
WO2019018533A1 (en) Neuro-bayesian architecture for implementing artificial general intelligence
CN115828831B (en) Multi-core-chip operator placement strategy generation method based on deep reinforcement learning
CN111738435A (en) Online sparse training method and system based on mobile equipment
KR20190141581A (en) Method and apparatus for learning artificial neural network for data prediction
US20240046128A1 (en) Dynamic causal discovery in imitation learning
EP4073713A1 (en) Hyper-opinion classification using a neural network
US20210266383A1 (en) Conversion system, method and program
KR20230023464A (en) Method and apparatus for conditional data genration using conditional wasserstein generator
KR102105951B1 (en) Constructing method of classification restricted boltzmann machine and computer apparatus for classification restricted boltzmann machine
CN115333961B (en) Wireless communication network management and control method based on deep reinforcement learning and related equipment
US20220207362A1 (en) System and Method For Multi-Task Learning Through Spatial Variable Embeddings
Smithe Compositional Active Inference II: Polynomial Dynamics. Approximate Inference Doctrines
JP2019036207A (en) Optimizing device, optimization method and optimization program