KR102261869B1 - Artificial Intelligence rapid image generation method using Meta-learning Generative adversarial network - Google Patents

Artificial Intelligence rapid image generation method using Meta-learning Generative adversarial network Download PDF

Info

Publication number
KR102261869B1
KR102261869B1 KR1020180164876A KR20180164876A KR102261869B1 KR 102261869 B1 KR102261869 B1 KR 102261869B1 KR 1020180164876 A KR1020180164876 A KR 1020180164876A KR 20180164876 A KR20180164876 A KR 20180164876A KR 102261869 B1 KR102261869 B1 KR 102261869B1
Authority
KR
South Korea
Prior art keywords
meta
gan
image
generator
discriminator
Prior art date
Application number
KR1020180164876A
Other languages
Korean (ko)
Other versions
KR20200080408A (en
Inventor
이채수
이준호
Original Assignee
포인드 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 포인드 주식회사 filed Critical 포인드 주식회사
Priority to KR1020180164876A priority Critical patent/KR102261869B1/en
Publication of KR20200080408A publication Critical patent/KR20200080408A/en
Application granted granted Critical
Publication of KR102261869B1 publication Critical patent/KR102261869B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4046Scaling the whole image or part thereof using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Abstract

본 발명은 메타학습된 생성적 대립 네트워크를 이용한 인공지능의 이미지 생성방법에 관한 것이다. 본 발명은 상기 이미지를 학습하여 생성하는 생성기(Generator)와 상기 생성기에 의하여 생성된 이미지를 구별하는 구별기(Discriminator)로 이루어지며, 상기 생성기와 상기 구별기를 반복적으로 업데이트시키는 GAN과 상기 업데이트시킨 GAN을 메타-업데이트 학습시켜 이루어진 mtGAN을 포함하며, 상기 학습시킨 mtGAN을 반복적으로 훈련시켜 원하는 이미지를 생성시키는 것을 특징으로 한다.
The present invention relates to a method for generating an image of artificial intelligence using a meta-learned generative adversarial network. The present invention consists of a generator that learns and generates the image and a discriminator that distinguishes the image generated by the generator, and a GAN that repeatedly updates the generator and the discriminator and the updated GAN It includes an mtGAN made by meta-updating learning, and iteratively training the learned mtGAN to generate a desired image.

Description

메타학습된 생성적 대립 네트워크를 이용한 인공지능의 빠른 이미지 생성 방법 {Artificial Intelligence rapid image generation method using Meta-learning Generative adversarial network}Artificial Intelligence rapid image generation method using Meta-learning Generative adversarial network}

본 발명은 메타학습된 생성적 대립 네트워크(신경망)를 이용한 인공지능의 빠른 이미지 생성방법에 관한 것이다. The present invention relates to a rapid image generation method of artificial intelligence using meta-learned generative adversarial networks (neural networks).

오늘날 인공지능(AI)의 발달은 끝없이 진행되고 있으며, 최근 들어 GAN(Generative Adversarial Network), 우리 말로 생성적 대립 신경망(또는 네트워크)이라고 불리는 연구에 대해서도 끊임없는 기술이 개발되고 있다. Today, the development of artificial intelligence (AI) is endless, and recently, continuous technology is being developed for research called Generative Adversarial Network (GAN), or generative adversarial neural network (or network) in Korean.

상기 생성적 대립 신경망(또는 네트워크)이라는 이름처럼 두 신경망 모델의 대립과 이로 인한 경쟁을 통해 학습하고 결과물을 만들어낸다. 두 모델은 ‘생성자(Generator)’와‘감별자(Discriminator)’로 부르는 상반된 목적을 갖고 있다. As the name of the generative adversarial neural network (or network) above, it learns and produces results through the confrontation between two neural network models and the resulting competition. The two models have opposing purposes, called 'Generator' and 'Discriminator'.

생성자는 실제 데이터를 학습하고 이를 바탕으로 거짓 데이터를 생성하는데, 결국은 실제에 가까운 거짓 데이터를 생성하는 것이 목적이다. The generator learns the real data and generates false data based on it. Ultimately, the goal is to generate false data close to the real one.

그리고, 감별자는 생성자가 내놓은 데이터가 실제인지 거짓인지 판별하도록 학습한다. 생성자의 거짓 데이터에 놀아나지 않는 게 목적이다. And, the discriminator learns to determine whether the data provided by the generator is real or false. The purpose is not to play with the false data of the constructor.

GAN의 창시자 이안 굿펠로우는 생성자(Generator)를 위조지폐범에, 감별자(Discriminator)를 경찰에 비유했다. 예로서, 생성자는 감별자를 속이지 못한 데이터를, 감별자는 생성자에게 속은 데이터를 입력받아 학습한다. 이러한 과정이 반복되면서 위조지폐가 정교해지듯 점점 더 실제에 가까운 거짓 데이터를 만들 수 있게 되는 셈이다. The creator of GAN, Ian Goodfellow, compared the generator to a counterfeiter and the discriminator to the police. For example, the generator learns data that has not been deceived by the discriminator, and the discriminator receives and learns data deceived by the generator. As this process is repeated, it is possible to create false data that is closer to the real thing, just as counterfeit bills become more sophisticated.

도 1a는 상기 GAN의 학습과정의 원리를 나타낸 도면이고, 도 1b는 GAN의 개념을 도식화한 도면이다. 도 1a와 도 1b에 도시된 대로, G(Generator)가 D(Discriminator)를 속일 수 있는 더욱 사실적인 이미지를 만들려고 시도하는 동안, 상기 D는 G가 생성한 이미지를 진짜 이미지로부터 구별하기 위하여 지속적으로 매개변수를 조정한다. 게임이론적 관점에서 이들 네트워크들은 제로섬 게임에서 서로 경쟁하는 것이다. 1A is a diagram showing the principle of the learning process of the GAN, and FIG. 1B is a diagram schematically illustrating the concept of the GAN. As shown in Figures 1a and 1b, while G (Generator) tries to create a more realistic image that can fool D (Discriminator), D is constantly trying to distinguish the image generated by G from the real image. to adjust the parameters. From a game theory point of view, these networks compete with each other in a zero-sum game.

지난 2014년 GAN 논문이 처음 발표된 뒤로 다양한 후속 연구가 발표되고 있다. 학계에서 GAN이 차세대 딥러닝 알고리즘으로 주목받는 이유는 기존 지도 학습 방식에서 벗어나 비지도 학습의 초석을 다졌기 때문이다. 대부분의 AI 연구는 지도 학습 방식으로 사람이 정답을 알려주는 방식의 학습이다. 해당 이미지가 고양이인지 개인지 태그를 달아주는 등 AI가 학습할 수 있는 방식으로 데이터를 가공하는 과정이 필요하다. AI의 세계 뒤에선 데이터에 일일이 라벨을 붙여주는 인간의 수작업이 벌어지고 있는 것이다.Since the first GAN paper was published in 2014, various follow-up studies have been published. The reason why GAN is attracting attention as a next-generation deep learning algorithm in academia is that it has broken away from the existing supervised learning method and laid the foundation for unsupervised learning. Most AI research is supervised learning, in which a person tells the right answer. It is necessary to process the data in a way that AI can learn, such as tagging whether the image is a cat or a dog. Behind the world of AI, human manual labor of labeling data one by one is taking place.

이처럼 지도 학습 방식의 한계는 대량의 데이터를 정제 과정 없이 처리할 수 없다는 점과 이 과정에서 인간의 개입이 필요하다는 점이다. 반면에, GAN은 인간이 정답을 알려주지 않아도 경쟁 과정 속에 스스로 학습한다. 대량 데이터를 AI 스스로 학습하기 때문에 파급 효과가 더 크며, 특히 생성모델을 통해 직접 이미지나 음성을 만들어낸다는 점에서 다른 지도 학습형 알고리즘과 크게 차별화된다.As such, the limitations of the supervised learning method are that large amounts of data cannot be processed without a purification process, and human intervention is required in this process. On the other hand, GANs learn by themselves in the process of competition even if humans do not tell them the correct answer. The ripple effect is greater because AI learns large amounts of data by itself, and it is significantly different from other supervised learning algorithms in that it directly creates images or voices through generative models.

대한민국특허공개 제2001-0087974호Korean Patent Publication No. 2001-0087974 대한민국특허공개 제2007-0067484호Korean Patent Publication No. 2007-0067484 대한민국특허공개 제2018-0130511호Korean Patent Publication No. 2018-0130511

본 발명은 임의의 이미지 생성을 달성하도록 그라데이션 기반의 메타학습된 생성적 대립 네트워크(GAN)가 제안된 메타학습된 생성적 대립 네트워크를 이용하여 인공지능의 빠른 이미지 생성방법을 제공하고자 하는데 있다. An object of the present invention is to provide a fast image generation method of artificial intelligence using a meta-learned generative adversarial network in which a gradient-based meta-learned generative adversarial network (GAN) is proposed to achieve arbitrary image generation.

또한, 적은 수의 훈련으로 좋은 샘플을 생성하는 방법인 영상의 생성을 구현하기 위한 메타학습된 생성적 대립 네트워크를 이용하여 인공지능의 빠른 이미지 생성방법을 제공하고자 하는데 있다. In addition, it is intended to provide a fast image generation method of artificial intelligence using a meta-learned generative adversarial network to implement image generation, which is a method of generating good samples with a small number of training.

이러한 목적을 달성하기 위하여 본 발명은 메타 학습된 생성적 대립 네트워크를 이용한 인공지능의 이미지 생성방법에 있어서, 이미지를 변화시키는 모델로서 GAN을 훈련시키는 단계와 상기 훈련된 GAN의 재차 업데이트를 위하여 반복 훈련하는 단계와 상기 단계에서 반복 훈련된 GAN을 메타-업데이트화 시키는 단계를 포함하는 것을 특징으로 한다.In order to achieve this object, the present invention provides a method for generating an image of artificial intelligence using a meta-learned generative adversarial network, the steps of training a GAN as a model for changing an image, and repeated training for updating the trained GAN again and meta-updating the iteratively trained GAN in the above step.

또한, 상기 GAN은 이미지를 학습하여 생성하는 생성기(Generator)와 상기 생성기에 의하여 생성된 이미지를 구별하는 구별기(Discriminator)로 이루어지며, 상기 생성기와 상기 구별기를 각각 반복적으로 업데이트시키는 것을 특징으로 하는 것이다.. In addition, the GAN consists of a generator that learns and generates an image and a discriminator that distinguishes the image generated by the generator, and the generator and the discriminator are each repeatedly updated. will be..

또한, 상기 단계에서 메타-업데이트의 학습 식은

Figure 112018127703564-pat00001
로 정의되며,
Figure 112018127703564-pat00002
는 i 작업동안 변수에 대한 손실이며,
Figure 112018127703564-pat00003
는 각 작업동안 k-스텝 업데이트된 변수이며,
Figure 112018127703564-pat00004
는 업데이트 되는 메타-변수의 스텝 크기이며, T는 작업의 수인 것을 특징으로 한다.In addition, the learning equation of meta-update in the above step is
Figure 112018127703564-pat00001
is defined as
Figure 112018127703564-pat00002
is the loss for the variable during i operation,
Figure 112018127703564-pat00003
is the k-step updated variable during each operation,
Figure 112018127703564-pat00004
is the step size of the meta-variable being updated, and T is the number of operations.

또한, 상기 훈련은 입력 후 변수 조정하여 결과 값이 나왔을 때 원하는 결과와 어느 정도 차이가 있는지 비교하며, 상기 비교를 반복하면서 원하는 오차가 되면 종료하는 것을 특징으로 한다.In addition, the training is characterized in that the variable is adjusted after the input and the result is compared to the desired result when the result is different, and when the desired error is reached while repeating the comparison, the training is terminated.

따라서, 본 발명이 제안하는 메타학습된 생성적 대립 네트워크를 이용한 인공지능의 빠른 이미지 생성 방법은 메타학습된 GAN으로 하여금 점진적으로 원하는 색상과 크기의 이미지로 변화시킬수 있음은 물론, 다양한 종류의 이미지 변환작업을 신속 정확하게 할수 있는 효과가 있다. Therefore, the rapid image generation method of artificial intelligence using the meta-learned generative adversarial network proposed by the present invention allows the meta-learned GAN to gradually change to an image of a desired color and size, as well as convert various types of images. It has the effect of being able to work quickly and accurately.

도 1a는 GAN의 학습과정의 원리를 나타낸 도면.
도 1b는 GAN의 개념을 도식화한 도면.
도 2는 제안된 MAML-styled mtGAN 모델 다이아그램.
도 3은 메타 학습된 GAN(mtGAN)을 구현하기 위한 알고리즘.
도 4는 메타 학습된 GAN(mtGAN)을 구현하기 위한 알고리즘.
도 5는 본 발명에 의한 생성방법의 흐름도.
도 6은 메타 학습된 원에 mtGAN을 통해 노란색 원으로 훈련되는 원을 나타내는 사진.
도 7은 검은 머리색의 사람을 mtGAN을 통해 금발의 머리색으로 생성하기 위해 훈련된 결과를 나타낸 사진.
1A is a diagram showing the principle of the learning process of GAN.
1B is a diagram schematically illustrating the concept of a GAN.
2 is a diagram of the proposed MAML-styled mtGAN model.
3 is an algorithm for implementing a meta-learned GAN (mtGAN).
4 is an algorithm for implementing a meta-learned GAN (mtGAN).
5 is a flowchart of a generating method according to the present invention.
6 is a photograph showing a circle trained as a yellow circle through mtGAN on a meta-trained circle.
7 is a photograph showing the results of training to generate a dark-haired person with blonde hair color through mtGAN.

이하에서는 본 발명의 바람직한 실시예를 첨부된 도면을 참조하여 상세히 설명한다. 우선 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시가 되더라도 가능한 한 동일 부호를 가지도록 하고 있음에 유의하여야 한다. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. First, in adding reference numerals to the components of each drawing, it should be noted that the same components are given the same reference numerals as much as possible even though they are indicated on different drawings.

또한, 하기에서 본 발명을 설명함에 있어 관련된 공지기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴수 있다고 판단되는 경우에는 그 상세한 설명을 생략한다. In addition, in the following description of the present invention, if it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted.

먼저, 본 발명을 설명하기에 앞서 명세서 상에서 자주 등장하는 GAN(Generative Adversarial Network: 생성적 대립 신경망)에 대하여 자세히 설명하기로 한다.First, before describing the present invention, a generative adversarial network (GAN) that appears frequently in the specification will be described in detail.

생성적 대립 네트워크(GAN : Generative adversarial network)는 현재 생성 모델 네트워크에서 뿐만 아니라 전체 기계학습에서 가장 주목받는 모델 중에 하나이다. Generative adversarial networks (GANs) are one of the most popular models in machine learning as a whole, as well as in generative model networks.

상기 GAN(생성적 대립 네트워크)은 심신경망 구조를 지닌 인공지능(AI) 알고리즘의 한 종류로서, 딥 러닝(deep learning) 기술인 GAN 기술은 사람의 눈에 매우 사실적으로 보이며 현실적인 특성을 지닌 이미지를 생성하도록 도와준다. The generative adversarial network (GAN) is a kind of artificial intelligence (AI) algorithm having a deep neural network structure. The GAN technology, a deep learning technology, looks very realistic to the human eye and generates an image with realistic characteristics. help you do

사진과 거의 동일할 정도로 정교한 이미지는 현재 신발, 가방 또는 컴퓨터 게임 장면 등 다양한 산업 디자인 분야에서 사용된다. 상기 GAN은 동영상의 모션 패턴을 모델링하거나 이미지에서 물체의 3D 모델을 재구성하고 천문학적인 이미지를 만들어내기도 한다.Images that are nearly identical to photographs are now used in a variety of industrial design fields, such as shoes, bags, or computer game scenes. The GAN models motion patterns of moving images, reconstructs 3D models of objects from images, and creates astronomical images.

또한, GAN은 우선 난수(亂數: random number)를 취해 이미지를 반환한다. 이미지들은 실제 데이터 세트에서 파생된 정보로 구성되어 상기 이미지는 판별기로 보내진다. 판별기는 실제 이미지와 가짜 이미지를 모두 가져와 확률을 계산한다.Also, GAN returns an image by first taking a random number. Images are composed of information derived from real data sets and the images are sent to a discriminator. The discriminator takes both the real image and the fake image and calculates the probability.

GAN의 근본이 되는 신경망을 응용한 기술인 깊은 신경망은 인공신경망의 계보를 잇는 기술로서, 대부분의 기계 학습에 사용되는 깊은 신경망(Deep neural network)은 다양한 예시를 가진다. 최근의 GNA기술은 고비용과 많은 시간을 들이는 문제를 해결하기 위해 새로운 학습기술의 개발이 제안되고 있다.The deep neural network, a technology applied to the neural network that is the basis of GAN, is a technology that succeeds the genealogy of artificial neural networks, and the deep neural network used in most machine learning has various examples. Recently, the development of a new learning technology is being proposed to solve the problem of high cost and time-consuming GNA technology.

이하에서는 도면을 참조하여 본 발명의 메타학습된 생성적 대립 네트워크를 이용한 인공지능의 빠른 이미지 생성방법을 설명하고자 한다. Hereinafter, with reference to the drawings, an artificial intelligence rapid image generation method using the meta-learned generative adversarial network of the present invention will be described.

도 2는 제안된 MAML-styled mtGAN 모델 다이아그램이며, 도 3은 메타 학습된 GAN(mtGAN)을 구현하기 위한 알고리즘이고, 도 4는 메타 학습된 GAN(mtGAN)을 구현하기 위한 알고리즘이고, 도 5는 본 발명에 의한 이미지 생성방법의 흐름도이고, 도 6은 메타 학습된 원에 mtGAN을 통해 노란색 원으로 훈련되는 원을 나타내는 사진이고, 도 7은 검은 머리색의 사람을 mtGAN을 통해 금발의 머리색으로 생성하기 위해 훈련된 결과를 나타낸 사진이다.2 is a diagram of the proposed MAML-styled mtGAN model, FIG. 3 is an algorithm for implementing a meta-learned GAN (mtGAN), FIG. 4 is an algorithm for implementing a meta-learned GAN (mtGAN), and FIG. 5 is a flowchart of an image generation method according to the present invention, FIG. 6 is a photograph showing a circle trained as a yellow circle through mtGAN in a meta-learned circle, and FIG. 7 is a black-haired person with blonde hair color through mtGAN It is a picture showing the result of training to generate .

참고로, 본 명세서상에 나오는 용어인 '학습' 혹은 '러닝(learning)'은 절차에 따른 컴퓨팅(computing)을 통하여 기계 학습(machine learning)을 수행함을 일컫는 용어라는 점을 미리 밝혀두고자 한다. For reference, it should be clarified in advance that the terms 'learning' or 'learning' appearing in this specification are terms that refer to performing machine learning through computing according to a procedure.

본 발명의 핵심은 두개의 서로 다른 GAN을 서로 결합시키는 것인데 이를 설명하면, 상기 GAN(Generative Adversarial Network)은 이미지(image)를 학습하여 생성하는 생성기(G: Generator)와 상기 생성기에 의하여 생성된 이미지를 구별하는 구별기(D: Discriminator)로 이루어진다. 상기 생성기(G)는 복수의 컨볼루션(convolution) 계층을 포함하는 인코더(encoder) 및 복수의 디컨볼루션 계층을 포함하는 디코더(decoder)로 구성되며, 상기 구별기(D)는 복수의 디컨볼루션(deconvolution) 계층 및 시그모이드(sigmoid)를 포함하는 인코더로 구성된 것을 특징으로 한다. The core of the present invention is to combine two different GANs with each other. To explain this, the GAN (Generative Adversarial Network) is a generator (G: Generator) that learns and generates an image and an image generated by the generator. It consists of a discriminator (D: Discriminator) that distinguishes The generator G includes an encoder including a plurality of convolution layers and a decoder including a plurality of deconvolution layers, and the discriminator D includes a plurality of deconvolution layers. It is characterized in that it consists of an encoder including a deconvolution layer and a sigmoid.

즉, 임의의 이미지를 다른 이미지로 변환하는 모델을 학습하는 생성기(G)와 상기 생성기에 의해 생성한 이미지와 상기 생성된 이미지를 대표하는 샘플 이미지를 구별하는 모델을 학습하는 구별기(D)인 것이다. That is, a generator (G) that learns a model that converts an arbitrary image into another image, and a classifier (D) that learns a model that distinguishes an image generated by the generator and a sample image representing the generated image will be.

결국, 이미지(image: 영상)의 분류와 이미지의 생성으로 이루어지는 데, 일반적으로 상기 이미지의 분류는 일반적으로

Figure 112018127703564-pat00005
를 n개의 클래스 중 하나로 분류하는 것이고, 이미지의 생성은 신속히 샘플을 생성하는 문제이다. 상기 식은
Figure 112018127703564-pat00006
으로 정의된다. After all, it consists of the classification of an image and the creation of an image, in general, the classification of the image is generally
Figure 112018127703564-pat00005
is to classify into one of n classes, and the generation of images is a matter of generating samples quickly. the above formula
Figure 112018127703564-pat00006
is defined as

상기 생성의 과정에서 상기 GAN은 방대한 훈련단계를 위해 훈련되어야 한다. 따라서, 적은 수의 훈련 예제로 그럴듯한 샘플을 생성하는 방법인 이미지의 생성이 필요한 것이다.In the process of the generation, the GAN must be trained for an extensive training phase. Therefore, there is a need for image generation, which is a method of generating plausible samples with a small number of training examples.

상기 이미지를 달성하기 위하여 그라데이션(gradation) 기반의 메타훈련으로 결정된 메타 매개변수가 필요한 훈련 예제의 수를 줄일 수 있기 때문에, 도 2와 같이 메타 러닝 프레임 워크를 제안하여 영상의 생성에 사용한다. 따라서, 본 발명에서는 빠른 적응을 위해 GAN을 메타 학습된 GAN(mtGAN)으로 제안한다.Since the number of training examples required for meta-parameters determined by gradation-based meta-training to achieve the image can be reduced, a meta-learning framework as shown in FIG. 2 is proposed and used for image generation. Therefore, the present invention proposes a GAN as a meta-learned GAN (mtGAN) for quick adaptation.

도 2는 제안된 MAML(Model-agnostic meta learning)-styled mtGAN 모델 다이아그램으로서, 각 작업동안에 GAN을 훈련시키고 k -step(도 2에서 업데이트 되게 하는 G의 step 횟수) 후에 중지한다. FIG. 2 is a diagram of a proposed Model-agnostic meta learning (MAML)-styled mtGAN model, in which the GAN is trained during each task and stopped after k-step (the number of steps in G to be updated in FIG. 2).

그때, 예측된 GAN 손실

Figure 112018127703564-pat00007
를 최소화하기 위해 discriminator(D)와 generator(G)를 업데이트 한다. Then, the predicted GAN loss
Figure 112018127703564-pat00007
We update the discriminator(D) and generator(G) to minimize

도시된 대로, 각 단계별로 내부의 개별 블록에서 상기 discriminator(D)와 상기 generator(G)의 손실이 최소가 되도록 업데이트를 한 후, 다음 단계로 넘어가기 전에 meta-업데이트를 통해 전체의 손실이 최소가 되도록 재차 업데이트를 실행하게 된다. As shown, after updating the discriminator (D) and the generator (G) so that the loss of the discriminator (D) and the generator (G) is minimized in individual blocks within each step, the overall loss is minimized through meta-update before proceeding to the next step. The update will be executed again so that

상기 과정에서 그라디언트(gradient) 기반의 메타학습은 작업에 대해 메타 파라미터 최적화 손실을 아래 수식과 같이 찾아낸다. 즉, 상기 학습시킨 mtGAN을 반복적으로 훈련시켜 원하는 이미지를 생성시키는 것이다. In the above process, gradient-based meta-learning finds the meta-parameter optimization loss for the task as shown in the following equation. That is, a desired image is generated by repeatedly training the learned mtGAN.

Figure 112018127703564-pat00008
Figure 112018127703564-pat00008

여기서

Figure 112018127703564-pat00009
는 i 작업동안 변수에 대한 손실이며,
Figure 112018127703564-pat00010
는 각 작업동안 k-스텝 업데이트된 변수이며,
Figure 112018127703564-pat00011
는 업데이트 되는 메타-변수의 스텝 크기이며, T는 작업의 수이다.here
Figure 112018127703564-pat00009
is the loss for the variable during i operation,
Figure 112018127703564-pat00010
is the k-step updated variable during each operation,
Figure 112018127703564-pat00011
is the step size of the meta-variable being updated, and T is the number of operations.

도 3은 meta 학습된 GAN(mtGAN)을 구현하기 위한 알고리즘이다. 상기 알고리즘은 도 2의 블록 다이어그램을 구현하도록 구성하였다.3 is an algorithm for implementing a meta-learned GAN (mtGAN). The algorithm was configured to implement the block diagram of FIG. 2 .

도 4는 메타 학습된 GAN(mtGAN)을 구현하기 위한 알고리즘이다. 상기 알고리즘은 상기 도 3의 MAML(Model-agnostic meta learning)-styled mtGAN을 간단한 방식에서 구현하도록 구성하였다. 상기 mtGAN의 메타학습 방식은 MAML(model agnostic meta learning)-STYLED인 것을 특징으로 하는 것이다. 4 is an algorithm for implementing a meta-learned GAN (mtGAN). The algorithm was configured to implement the Model-agnostic meta learning (MAML)-styled mtGAN of FIG. 3 in a simple manner. The meta-learning method of the mtGAN is characterized in that it is MAML (model agnostic meta learning)-STYLED.

이하에서는 도 5를 참조하여 본 발명에 의한 메타학습된 생성적 대립 네트워크를 이용한 인공지능의 빠른 이미지 생성방법을 단계별로 설명하고자 한다. Hereinafter, with reference to FIG. 5, a method for rapidly generating an artificial intelligence image using a meta-learned generative adversarial network according to the present invention will be described step by step.

먼저, A의 이미지를 B의 이미지로 변환하는 변화시키는 모델로서 각 작업동안 GAN을 훈련시키는 것이다. (제1단계)First, we train the GAN during each task as a transforming model that transforms the image of A into the image of B. (Step 1)

상기 제1단계의 A, B라는 이미지는 도면을 참조하여 설명하면, 도 6의 경우 녹색 원이라는 A의 이미지에서 노란색 원이라는 B의 이미지를 의미하는 것이고, 도 7의 경우는 사진속의 검정색 머리라는 A 이미지를 금발의 B 이미지로 변화시키는 것을 의미한다. 이러한 목적을 달성하기 위하여 상기 GAN을 이루는 생성기(G)와 구별기(D)는 교대로 반복적으로 훈련된다. 도 2에 도시된 대로, 각 작업동안 GAN의 구성요소인 구별기(D)와 생성기(G)를 훈련(training)시키게 된다. 그리고, 상기 모델이라는 의미는 GAN(Generative Adversarial Network)의 G를 일컫는 것으로 새로운 이미지를 생성해낸다는 것을 의미한다. The images A and B in the first step are described with reference to the drawings. In the case of FIG. 6, the image of A called the green circle means the image of B called the yellow circle, and in the case of FIG. 7, it is the black hair in the photo. It means changing image A to image B of blonde. In order to achieve this objective, the generator G and the discriminator D constituting the GAN are repeatedly trained alternately. As shown in Fig. 2, during each operation, the discriminator (D) and the generator (G), which are components of the GAN, are trained. And, the meaning of the model refers to G of a Generative Adversarial Network (GAN), which means that a new image is created.

상기 훈련된 GAN의 업데이트를 반복한다. (제2단계)Repeat the update of the trained GAN. (Step 2)

상기 제단계의 업데이트는 처음에는 구별기(D)들의 손실을 최소화하는 방향으로 구별기(D)들이 업데이트되며, 다음 스텝에는 업데이트 된 구별기(D)들에 의하여 결정되는 전체 생성기(G)들의 손실을 최소화시킴으로서 상기 생성기(G)들이 업데이트되는 것이다. 즉, 처음에는 생성기(G)와 구별기(D)를 N차 업데이트하고, 사용자가 만족할 N+1차 업데이트를 생성하는 과정을 N회 반복하여, 상기 2N차 업데이트를 최적으로 채택한다 In the first step of the update, the discriminators D are updated in a direction to minimize the loss of the discriminators D, and in the next step, the total generators G determined by the updated discriminators D are updated. By minimizing the loss, the generators G are updated. That is, at first, the generator G and the discriminator D are updated N times, and the process of generating the N+1th update to be satisfied by the user is repeated N times, so that the 2Nth update is optimally adopted.

그 다음 단계로, 상기 제2단계에서 반복 훈련된 GAN을 meta- 업데이트화 시키는 것이다. (제3단계) The next step is to meta-update the GAN trained repeatedly in the second step. (Step 3)

앞에서도 설명했지만. 상기 meta- 업데이트의 학습식은

Figure 112018127703564-pat00012
(
Figure 112018127703564-pat00013
는 i 작업동안 변수에 대한 손실이며,
Figure 112018127703564-pat00014
는 각 작업동안 k-스텝 업데이트된 변수이며,
Figure 112018127703564-pat00015
는 업데이트 되는 메타-변수의 스텝 크기이며, T는 작업의 수)으로 정의된다. I've explained it before. The learning formula of the meta-update
Figure 112018127703564-pat00012
(
Figure 112018127703564-pat00013
is the loss for the variable during i operation,
Figure 112018127703564-pat00014
is the k-step updated variable during each operation,
Figure 112018127703564-pat00015
is the step size of the meta-variable being updated, and T is defined as the number of operations).

상기 제3단계에서 훈련은 여러 데이터(즉, 이미지)를 입력하여 인공지능 모듈(미도시)이 원하는 결과를 내도록 내부의 변수(즉,

Figure 112018127703564-pat00016
등)를 변경하여 조정하는 과정을 의미하는 것으로, 입력되어 변경시킨 변수가 결과 값이 나왔을 때 원하는 결과와 어느 정도 차이가 있는지 비교하며, 상기 비교를 반복하면서 원하는 오차(원하는 이미지에 가장 근접하게 접근할 때를 의미)가 되면 종료하는 것이다.In the third step, training is performed by inputting several data (ie, images) and internal variables (ie,
Figure 112018127703564-pat00016
It refers to the process of adjusting by changing and adjusting the inputted and changed variables, and comparing how much difference there is from the desired result when the inputted and changed variable comes out, and repeating the comparison, while repeating the comparison, the desired error (the closest approach to the desired image) When it is time to do it), it ends.

즉, GAN에 의한 학습이 진행되는 과정에서 G와 D는 각각의 목표를 달성하기 위하여 변수를 갱신하는 바, 충분한 학습 후에는 상기 G가 실제와 유사한 이미지를 생성해내고, 메타-변수에 의한 판별률이 이론적으로 거의 0에 수렴되는 것이 밝혀져 있다. 이와 같이 상기 GAN을 개량하여 하나의 이미지에 대응되는 다양한 클래스(종류)의 영상을 생성할 수 있다. That is, in the process of learning by GAN, G and D update variables in order to achieve their respective goals. After sufficient learning, G creates an image similar to the real one, and discriminates by meta-variables. It has been found that the rate theoretically converges to almost zero. In this way, by improving the GAN, it is possible to generate images of various classes (types) corresponding to one image.

이를 도면을 참조하여 설명하면, 도 6은 meta 학습된 Circles에 mtGAN을 통해 노란색으로 훈련되는 원들(Circles)이며, 도 6의 하단의 숫자는 훈련된 단계(스텝: step)의 수를 나타내며, 점진적으로 원하는 색깔과 다양한 원의 크기로 나타남을 볼 수 있다. Explaining this with reference to the drawings, FIG. 6 is circles trained in yellow through mtGAN in meta-learned Circles, and the number at the bottom of FIG. 6 represents the number of trained steps (steps: step), and progressive You can see that it is displayed in the desired color and in various sizes of circles.

도 7은 검은 머리색의 사람을 meta 학습된 mtGAN을 통해 금발의 머리색으로 생성하기 위해 훈련된 결과를 나타낸 사진이다. 상기 도 7의 하단의 숫자는 훈련된 단계를 나타내는 것이다. 앞서 설명한 대로, 훈련을 계속적으로 반복하여 원하는 이미지의 결과와 거의 근사하게 될때까지 훈련을 반복하는 것이다.7 is a photograph showing the results of training to generate a dark-haired person with blonde hair color through meta-learned mtGAN. The number at the bottom of FIG. 7 indicates the trained stage. As described above, the training is repeated over and over again until the result of the desired image is almost identical to the result of the training.

즉, 도 6의 경우는 녹색 원(circle)에서 노란색 원으로 크기와 색상, 도 7의 경우는 검정색 머리카락에서 원하는 색상인 금발의 머리카락으로 점진적으로 근접하여 생성되면, 각각 훈련(training: 학습)을 종료하게 되는 것이다. That is, in the case of FIG. 6, the size and color from a green circle to a yellow circle, and in the case of FIG. 7, from black hair to blonde hair, which is a desired color, when generated gradually approaching, training (training) is performed. it will end

따라서, 본 발명에 의한 이미지 생성방법은 AI(인공지능)가 이미지 등을 변경, 새롭게 생성하는 작업을 구사하기 위해서는 많은 학습 및 경험(deep learning)이 필요한 것인데, 상기 설명한 학습방식으로 인하여 충분한 훈련(training)이 되므로 이러한 반복된 훈련과 학습으로 창의력있게 이미지의 변환을 원하는 형태로 거의 유사하게 다양하게 창조할 수 있는 장점이 있는 것이다. Therefore, the image generating method according to the present invention requires a lot of learning and experience (deep learning) in order for the AI (artificial intelligence) to change and newly create an image, etc., but due to the above-described learning method, sufficient training ( training), so it has the advantage of being able to create almost similarly and diversely in the form you want to transform the image creatively with this repeated training and learning.

이상과 같이 설명한 본 발명의 메타 학습된 생성적 대립 네트워크를 이용한 인공지능의 이미지 생성방법은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것도 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다.The image generating method of artificial intelligence using the meta-learned generative adversarial network of the present invention described as described above can also be implemented as a computer-readable code on a computer-readable recording medium. The computer-readable recording medium includes all kinds of recording devices in which data readable by a computer system is stored.

즉, 컴퓨터가 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드디스크 등), 광학적 판독매체(예를 들면, 시디롬, 디브이디 등)와 같은 저장매체를 포함한다. 또한, 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.That is, the computer-readable recording medium includes a magnetic storage medium (eg, a ROM, a floppy disk, a hard disk, etc.) and an optical readable medium (eg, a CD-ROM, a DVD, etc.). In addition, the computer-readable recording medium may be distributed in a network-connected computer system to store and execute computer-readable codes in a distributed manner.

이상에서와 같이, 상기 서술한 내용은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위 내에서 다양한 수정, 변경 및 치환이 가능할 것이다. As described above, the above-described contents are merely illustrative of the technical idea of the present invention, and those of ordinary skill in the art to which the present invention pertains may vary within the scope not departing from the essential characteristics of the present invention. Modifications, changes and substitutions may be made.

따라서, 본 발명에 개시된 실시예 및 첨부된 도면들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예 및 첨부된 도면에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Accordingly, the embodiments disclosed in the present invention and the accompanying drawings are for explaining, not limiting, the technical spirit of the present invention, and the scope of the technical spirit of the present invention is not limited by these embodiments and the accompanying drawings. The protection scope of the present invention should be construed by the following claims, and all technical ideas within the equivalent range should be construed as being included in the scope of the present invention.

Claims (4)

생성적 대립 네트워크(GAN)는 이미지를 학습하여 생성하는 생성기(G)와 상기 생성기에 의하여 생성된 이미지를 구별하는 구별기(D)로 이루어지며, 상기 생성기(G)는 복수의 컨볼루션(convolution) 계층을 포함하는 인코더(encoder) 및 복수의 디컨볼루션 계층을 포함하는 디코더(decoder)로 구성되며, 상기 구별기(D)는 복수의 디컨볼루션(deconvolution) 계층 및 시그모이드(sigmoid)를 포함하는 인코더로 구성되는 메타 학습된 생성적 대립 네트워크(GAN)를 이용한 인공지능의 이미지 생성방법에 있어서,

이미지를 변화시키는 모델로서 GAN을 훈련시키는 제1단계;
상기 제1단계에서 훈련된 GAN의 재차 업데이트를 위하여 반복 훈련하는 제2단계;
상기 제2단계에서 반복 훈련된 GAN을 메타-업데이트화 시키는 제3단계를 포함하며,
상기 제1단계에서, 상기 GAN을 이루는 생성기(G)와 구별기(D)는 교대로 반복적으로 훈련되어 k-스텝(도 2에서 업데이트 되게 하는 생성기(G)의 스텝 횟수) 후에 중지하고,
상기 제2단계에서는 제1단계에서 예측된 GAN 손실
Figure 112021501488317-pat00039
를 최소화하기 위한 상기 구별기(D)와 상기 생성기(G)를 업데이트하되, 처음에는 상기 구별기(D)들의 손실을 최소화하는 방향으로 구별기(D)들이 업데이트되며, 다음 스텝에는 업데이트 된 구별기(D)들에 의하여 결정되는 전체 생성기(G)들의 손실을 최소화시킴으로서 상기 생성기(G)들이 업데이트되며, 처음에는 생성기(G)와 구별기(D)를 N차 업데이트하고, 사용자가 만족할 N+1차 업데이트를 생성하는 과정을 N회 반복하여, 상기 2N차 업데이트 수행하여 상기 GAN을 최적으로 채택하며,
상기 제3단계에서 메타 파라미터 최적화 손실계산을 위한 메타-업데이트의 학습식은
Figure 112021501488317-pat00040
로 정의되며,
Figure 112021501488317-pat00041
는 i 작업동안 변수에 대한 손실이며,
Figure 112021501488317-pat00042
는 각 작업동안 k-스텝 업데이트된 변수이며,
Figure 112021501488317-pat00043
는 업데이트 되는 메타-변수의 스텝 크기이며, T는 작업의 수이며,
상기 제3단계에서 훈련은 여러 데이터(즉, 이미지)를 입력하여 인공지능 모듈(미도시)이 원하는 결과를 내도록 내부의 변수(
Figure 112021501488317-pat00044
)를 변경하여 조정하는 과정을 의미하는 것으로, 입력되어 변경시킨 변수가 결과 값과 원하는 결과(미리 설정된 이미지에 가장 근접한 이미지)와 비교하며, 상기 비교를 반복하면서 원하는 오차(원하는 이미지에 가장 근접하게 접근할 때를 의미)가 되면 종료하는 것을 특징으로 하는 메타 학습된 생성적 대립 네트워크를 이용한 인공지능의 이미지 생성방법.
The generative adversarial network (GAN) consists of a generator (G) that learns and generates an image and a distinguisher (D) that distinguishes the image generated by the generator, and the generator (G) includes a plurality of convolutions. ) consists of an encoder including a layer and a decoder including a plurality of deconvolution layers, and the discriminator D includes a plurality of deconvolution layers and a sigmoid. In the image generation method of artificial intelligence using a meta-learned generative adversarial network (GAN) consisting of an encoder comprising:

a first step of training the GAN as a model for changing the image;
a second step of repeatedly training for re-updating the GAN trained in the first step;
It includes a third step of meta-updating the GAN trained repeatedly in the second step,
In the first step, the generator (G) and the discriminator (D) constituting the GAN are repeatedly trained alternately and stop after k-steps (the number of steps of the generator G to be updated in FIG. 2),
In the second step, the GAN loss predicted in the first step
Figure 112021501488317-pat00039
Update the discriminator D and the generator G to minimize the discriminator D, but at first the discriminator D is updated in a direction to minimize the loss of the discriminator D, and in the next step, the updated discrimination The generators G are updated by minimizing the loss of the total generators G determined by the generators D, and first, the generator G and the discriminator D are updated N times, and N By repeating the process of generating the + 1st update N times, performing the 2Nth update to optimally adopt the GAN,
The learning equation of meta-update for meta-parameter optimization loss calculation in the third step
Figure 112021501488317-pat00040
is defined as
Figure 112021501488317-pat00041
is the loss for the variable during i operation,
Figure 112021501488317-pat00042
is the k-step updated variable during each operation,
Figure 112021501488317-pat00043
is the step size of the meta-variable being updated, T is the number of operations,
In the third step, training is performed by inputting several data (that is, images) to generate the desired result by the artificial intelligence module (not shown).
Figure 112021501488317-pat00044
) to change and adjust, the input and changed variable compares the result value with the desired result (the image closest to the preset image), and repeats the comparison with the desired error (closest to the desired image). An image creation method of artificial intelligence using a meta-learned generative adversarial network, characterized in that it terminates when it is approached
삭제delete 삭제delete 삭제delete
KR1020180164876A 2018-12-19 2018-12-19 Artificial Intelligence rapid image generation method using Meta-learning Generative adversarial network KR102261869B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180164876A KR102261869B1 (en) 2018-12-19 2018-12-19 Artificial Intelligence rapid image generation method using Meta-learning Generative adversarial network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180164876A KR102261869B1 (en) 2018-12-19 2018-12-19 Artificial Intelligence rapid image generation method using Meta-learning Generative adversarial network

Publications (2)

Publication Number Publication Date
KR20200080408A KR20200080408A (en) 2020-07-07
KR102261869B1 true KR102261869B1 (en) 2021-06-07

Family

ID=71603246

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180164876A KR102261869B1 (en) 2018-12-19 2018-12-19 Artificial Intelligence rapid image generation method using Meta-learning Generative adversarial network

Country Status (1)

Country Link
KR (1) KR102261869B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230095224A (en) 2021-12-22 2023-06-29 고려대학교 산학협력단 3D human recover method and apparatus using meta-learning

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112419241A (en) * 2020-11-04 2021-02-26 联想(北京)有限公司 Object identification method and device based on artificial intelligence and readable storage medium
CN112862669B (en) * 2021-02-02 2024-02-09 百果园技术(新加坡)有限公司 Training method, generating method, device and equipment for image generating model

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018097807A (en) 2016-12-16 2018-06-21 株式会社デンソーアイティーラボラトリ Learning device
KR101926404B1 (en) 2018-04-27 2018-12-07 남정우 Promotional image improvement apparatus and method in online shopping mall using artificial intelligence

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100369901B1 (en) 2000-03-09 2003-01-29 백승헌 Method and apparatus for generating a 3 dimension image on a network
KR20070067484A (en) 2005-12-23 2007-06-28 삼성전자주식회사 Image forming apparatus for wireless networking and method for image data processing thereof
AU2017230722B2 (en) 2016-03-09 2022-08-11 EchoNous, Inc. Ultrasound image recognition systems and methods utilizing an artificial intelligence network
KR102403494B1 (en) * 2017-04-27 2022-05-27 에스케이텔레콤 주식회사 Method for learning Cross-domain Relations based on Generative Adversarial Network

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018097807A (en) 2016-12-16 2018-06-21 株式会社デンソーアイティーラボラトリ Learning device
KR101926404B1 (en) 2018-04-27 2018-12-07 남정우 Promotional image improvement apparatus and method in online shopping mall using artificial intelligence

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Zhang et al. Metagan An adversarial approach to few shot learning. NIPS, 2018년 12월 8일, pp. 2365-2374. 1부.*

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230095224A (en) 2021-12-22 2023-06-29 고려대학교 산학협력단 3D human recover method and apparatus using meta-learning

Also Published As

Publication number Publication date
KR20200080408A (en) 2020-07-07

Similar Documents

Publication Publication Date Title
Zhao et al. Energy-based generative adversarial network
KR102261869B1 (en) Artificial Intelligence rapid image generation method using Meta-learning Generative adversarial network
US9619749B2 (en) Neural network and method of neural network training
CA2941352C (en) Neural network and method of neural network training
CN105960647A (en) Compact face representation
Cagnoni et al. Genetic and evolutionary computation for image processing and analysis
JP2020119496A (en) Method and computing device for generating image data set for learning to be used for hazard detection and learning method and learning device using the same
KR102252439B1 (en) Object detection and representation in images
JP7095599B2 (en) Dictionary learning device, dictionary learning method, data recognition method and computer program
KR102284356B1 (en) Data imbalance solution method using Generative adversarial network
Bhunia et al. Adaptive fine-grained sketch-based image retrieval
CN117292283B (en) Target identification method based on unmanned aerial vehicle
Choi et al. Autoencoder-based incremental class learning without retraining on old data
WO2020099854A1 (en) Image classification, generation and application of neural networks
WO2020038589A1 (en) Methods for automatically generating diverse image data
CN111291780A (en) Cross-domain network training and image recognition method
KR102208688B1 (en) Apparatus and method for developing object analysis model based on data augmentation
KR102234917B1 (en) Data processing apparatus through neural network learning, data processing method through the neural network learning, and recording medium recording the method
KR102228128B1 (en) Method and system for learning self-organizing generative networks
Farzi et al. Leaf constrained minimal spanning trees solved by modified quantum-behaved particle swarm optimization
Richmond et al. Mapping auto-context decision forests to deep convnets for semantic segmentation
WO2018203551A1 (en) Signal retrieval device, method, and program
Cervantes et al. Michigan particle swarm optimization for prototype reduction in classification problems
Zhu et al. Learning to transfer learn
Srivastava et al. An effective model for face detection using R, G, B color segmentation with genetic algorithm

Legal Events

Date Code Title Description
AMND Amendment
E90F Notification of reason for final refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant