KR102580131B1 - Cycle generative adversarial network conditional gen erative adversarial network - Google Patents

Cycle generative adversarial network conditional gen erative adversarial network Download PDF

Info

Publication number
KR102580131B1
KR102580131B1 KR1020210058259A KR20210058259A KR102580131B1 KR 102580131 B1 KR102580131 B1 KR 102580131B1 KR 1020210058259 A KR1020210058259 A KR 1020210058259A KR 20210058259 A KR20210058259 A KR 20210058259A KR 102580131 B1 KR102580131 B1 KR 102580131B1
Authority
KR
South Korea
Prior art keywords
meta
learning
unsupervised
images
image
Prior art date
Application number
KR1020210058259A
Other languages
Korean (ko)
Other versions
KR20220151256A (en
Inventor
조인휘
이앙
Original Assignee
한양대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한양대학교 산학협력단 filed Critical 한양대학교 산학협력단
Priority to KR1020210058259A priority Critical patent/KR102580131B1/en
Publication of KR20220151256A publication Critical patent/KR20220151256A/en
Application granted granted Critical
Publication of KR102580131B1 publication Critical patent/KR102580131B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology

Abstract

순환 생성 적대 네트워크 조건부 생성 적대 네트워크 기술이 개시된다. 일 실시예에 따르면, 비지도 메타 학습 시스템에 의해 수행되는 비지도 메타 학습 방법은, 이미지 샘플로부터 복수 개의 이미지를 무작위로 선택하는 단계; 및 상기 선택된 복수 개의 이미지의 각각에 대하여 UMTRA 기반 CycleGAN을 이용하여 비지도 메타 학습을 수행하는 단계를 포함할 수 있다.A cyclically generated adversarial network conditional generated adversarial network technology is disclosed. According to one embodiment, an unsupervised meta-learning method performed by an unsupervised meta-learning system includes randomly selecting a plurality of images from image samples; And it may include performing unsupervised meta-learning using UMTRA-based CycleGAN for each of the selected plurality of images.

Description

순환 생성 적대 네트워크 조건부 생성 적대 네트워크{CYCLE GENERATIVE ADVERSARIAL NETWORK CONDITIONAL GEN ERATIVE ADVERSARIAL NETWORK}CYCLE GENERATIVE ADVERSARIAL NETWORK CONDITIONAL GEN ERATIVE ADVERSARIAL NETWORK}

아래의 설명은 비지도 메타 학습 기술에 관한 것이다.The explanation below is about unsupervised meta-learning techniques.

비지도 메타 학습은 2019년에 처음 제안되었다. 메타 학습은 기계가 학습하는 방법에 관한 것으로, 메타 학습에서 학습 세트와 테스트 세트는 모두 데이터가 아니라 작업이다. 이미지들은 지도 메타 학습의 훈련 과제이자 테스트 과제이다. 각각의 작은 작업에서 훈련 세트를 지원 세트라고 하고, 테스트 세트를 쿼리 세트라고 한다. 이것은 메타 학습에서 없어서는 안되는 필수적인 것이다. Unsupervised meta-learning was first proposed in 2019. Meta-learning is about how machines learn. In meta-learning, both the training set and the test set are tasks, not data. Images are both training and testing tasks for supervised meta-learning. For each small task, the training set is called the support set, and the test set is called the query set. This is an essential thing in meta-learning.

비지도 메타 학습의 특성은 지도 메타 학습에 가깝다. UMTRA는 단순히 이미지를 확장하여 원본 이미지를 지원 세트로 사용하고, 확장된 이미지를 쿼리 세트로 사용한다. 지도 메타 학습은 지원 세트 및 쿼리 세트와 동일한 타입의 완전히 다른 두 개의 이미지를 사용하는 반면, UMTRA는 단순히 트레이닝을 위해 이미지를 확장한다.The characteristics of unsupervised meta-learning are close to supervised meta-learning. UMTRA simply expands the image, using the original image as the support set and the expanded image as the query set. While supervised meta-learning uses two completely different images of the same type as the support set and query set, UMTRA simply extends the images for training.

그러나, 두 이미지의 차이가 크지 않아 이미지 인식 오류가 커지고 오류를 줄이기 위하여 많은 트레이닝이 필요하다. 이처럼, 단순 이미지 확대는 더 이상 소수 샘플 비지도 메타 학습 및 테스트에 만족하지 않는다. However, because the difference between the two images is not large, image recognition errors increase and a lot of training is needed to reduce the errors. As such, simple image augmentation is no longer satisfactory for small-sample unsupervised meta-learning and testing.

UMTRA 기반 Cycle GAN을 이용한 비지도 메타 학습 방법 및 시스템을 제공할 수 있다.An unsupervised meta-learning method and system using UMTRA-based Cycle GAN can be provided.

비지도 메타 학습 시스템에 의해 수행되는 비지도 메타 학습 방법은, 이미지 샘플로부터 복수 개의 이미지를 무작위로 선택하는 단계; 및 상기 선택된 복수 개의 이미지의 각각에 대하여 UMTRA 기반 CycleGAN을 이용하여 비지도 메타 학습을 수행하는 단계를 포함할 수 있다. An unsupervised meta-learning method performed by an unsupervised meta-learning system includes randomly selecting a plurality of images from image samples; And it may include performing unsupervised meta-learning using UMTRA-based CycleGAN for each of the selected plurality of images.

상기 증강시키는 단계는, UMTRA를 사용하여 퓨-샷(Few-shot) 이미지 분류를 위한 비지도 메타 학습을 수행하는 단계를 포함할 수 있다. The augmenting step may include performing unsupervised meta learning for few-shot image classification using UMTRA.

상기 증가시키는 단계는, CycleGAN을 이용하여 원본 이미지 사이에 간격을 두고 원본 이미지를 확대하는 방법을 통해 이미지를 증강시키는 단계를 포함할 수 있다. The augmenting step may include augmenting the image by enlarging the original image with a gap between the original images using CycleGAN.

상기 증강시키는 단계는, 상기 증강된 이미지 및 원본 이미지의 비지도 메타 학습을 위한 MAML을 실행하는 단계를 포함할 수 있다. The augmenting step may include executing MAML for unsupervised meta learning of the augmented image and the original image.

상기 증강시키는 단계는, 상기 선택된 이미지를 카테고리 별로 분류하고, 상기 카테고리 별로 분류된 각 이미지에 대해 CycleGAN을 이용하여 이미지를 증강시키고, 상기 증강된 이미지를 메타 학습 쿼리로 사용하고 원본 이미지를 지원 세트로 사용하는 단계를 포함할 수 있다. The augmentation step classifies the selected image into categories, augments the image using CycleGAN for each image classified by category, uses the augmented image as a meta-learning query, and uses the original image as a support set. It may include steps to use.

비지도 메타 학습 시스템은, 이미지 샘플로부터 복수 개의 이미지를 무작위로 선택하는 샘플링부; 및 상기 선택된 복수 개의 이미지의 각각에 대하여 UMTRA 기반 CycleGAN을 이용하여 비지도 메타 학습을 수행하는 메타 학습부를 포함할 수 있다. The unsupervised meta-learning system includes a sampling unit that randomly selects a plurality of images from image samples; And it may include a meta-learning unit that performs unsupervised meta-learning using UMTRA-based CycleGAN for each of the selected plurality of images.

UMTRA 기반의 CycleGAN을 이용하여 이미지 증강을 수행한 비지도 메타 학습 샘플을 제공할 수 있다.Unsupervised meta-learning samples that perform image augmentation using UMTRA-based CycleGAN can be provided.

UMTRA 기반의 CycleGAN을 이용하여 이미지의 중요한 특징과 이미지가 인식될 때의 정확도를 향상시킬 수 있다. 또한, 중요한 특징을 유지하면서 원본 이미지보다 더 큰 간격이 있는 이미지가 되기 때문에 머신러닝을 통해 더욱 정확하게 판별할 수 있다. By using UMTRA-based CycleGAN, important features of images and accuracy when images are recognized can be improved. Additionally, since the image has larger gaps than the original image while maintaining important features, it can be more accurately identified through machine learning.

도 1은 일 실시예에 있어서, UMTRA 동작을 설명하기 위한 도면이다.
도 2는 일 실시예에 있어서, CycleGAN을 이용하여 이미지를 확대하는 동작을 설명하기 위한 예이다.
도 3은 일 실시예에 따른 비지도 메타 학습 시스템의 구성을 설명하기 위한 블록도이다.
도 4는 일 실시예에 따른 비지도 메타 학습 시스템에서 비지도 메타 학습 방법을 설명하기 위한 흐름도이다.
도 5는 일 실시예에 따른 비지도 메타 학습 시스템에서 비지도 메타 학습 동작을 설명하기 위한 흐름도이다.
Figure 1 is a diagram for explaining UMTRA operation, according to one embodiment.
Figure 2 is an example to explain the operation of enlarging an image using CycleGAN in one embodiment.
Figure 3 is a block diagram for explaining the configuration of an unsupervised meta-learning system according to an embodiment.
Figure 4 is a flowchart illustrating an unsupervised meta-learning method in an unsupervised meta-learning system according to an embodiment.
Figure 5 is a flowchart for explaining an unsupervised meta-learning operation in an unsupervised meta-learning system according to an embodiment.

이하, 실시예를 첨부한 도면을 참조하여 상세히 설명한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings.

도 1은 일 실시예에 있어서, UMTRA 동작을 설명하기 위한 도면이다. Figure 1 is a diagram for explaining UMTRA operation, according to one embodiment.

비지도 학습과 지도 학습의 차이점은 지도 메타 학습에 사용되는 데이터 세트에 레이블이 있는 반면 비지도 메타 학습에 사용되는 데이터에 레이블에 없다는 것이다. 비지도 메타 학습의 목적은 예측 결과를 지도 메타 학습 결과에 가깝게 만드는 것이다. 이를 위해 UMTRA(Few-Shot 이미지 분류를 위한 비지도 메타러닝)가 제안되었다. The difference between unsupervised and supervised learning is that the data set used in supervised meta-learning has labels, whereas the data used in unsupervised meta-learning does not have labels. The purpose of unsupervised meta-learning is to make the prediction result closer to the supervised meta-learning result. For this purpose, UMTRA (Unsupervised Meta-Learning for Few-Shot Image Classification) was proposed.

UMTRA의 메타 학습 과정은 레이블이 지정되지 않은 이미지들로부터 수행될 수 있다. 이러한 이미지를 다양한 클래스 집합으로 그룹화할 수 있고, 대상 작업과 관련이 있다고 가정하지만 클래스 또는 레이블에 대한 명시적인 정보는 필요하지 않다. UMTRA는 무작위 샘플링과 확대를 사용하여 메타 학습 과정에 대한 합성 훈련 작업을 생성할 수 있다. 레이블은 최종 목표 작업 학습 과정에서만 필요하며, 클래스 당 하나의 샘플만큼 작을 수 있다. UMTRA's meta-learning process can be performed from unlabeled images. These images can be grouped into a set of different classes, assumed to be related to the target task, but no explicit information about the classes or labels is required. UMTRA can use random sampling and augmentation to generate synthetic training tasks for meta-learning processes. Labels are only needed during the final target task learning process and can be as small as one sample per class.

UMTRA은 레이블이 지정되지 않은 데이터 세트에서 시작될 수 있다. UMTRA은 대상 작업에서 분류된 객체와 동일한 분포에서 추출되어야 하며, 최종 분류기의 클래스 수보다 훨씬 큰 클래스 집합을 가져야 한다. 레이블이 지정되지 않은 데이터 세트로부터 시작하여, 통계적 다양성 특성과 도메인별 증강을 사용하여 합성 작업 모음에 대한 트레이닝 데이터 및 벨리데이션 데이터를 생성할 수 있다. 그런 다음, 생성된 트레이닝 데이터 및 벨리데이션 데이터가 MAML 알고리즘의 수정된 분류 변형을 기반으로 하는 메타 학습 프로세스에서 사용될 수 있다. MAML 알고리즘에서 메타 학습 작업과 동일한 역할을 수행하는 비지도 데이터에서 작업을 생성해야 한다. 이에, 트레이닝 세트와 벨리데이션 데이터가 모두 생성되어야 한다. UMTRA can be started from an unlabeled data set. UMTRA must be drawn from the same distribution as the objects classified in the target task, and must have a class set that is much larger than the number of classes in the final classifier. Starting from an unlabeled data set, you can use statistical diversity features and domain-specific augmentation to generate training and validation data for a suite of synthetic tasks. The generated training data and validation data can then be used in a meta-learning process based on a modified classification variant of the MAML algorithm. We need to create tasks from unsupervised data that play the same role as meta-learning tasks in MAML algorithms. Therefore, both training sets and validation data must be created.

UMTRA에서 트레이닝 데이터는 데이터 세트에서 N개의 샘플을 무작위로 선택되어 생성될 수 있다. 벨리데이션 데이터는 트레이닝 데이터의 각 샘플에 증강 함수가 적용됨에 따라 생성될 수 있다. MAML 및 UMTRA 모두에 대하여 인공 임시 레이블(1, 2,??, N)이 사용될 수 있다. 두 데이터의 점이 동일한 레이블을 가진 경우, 동일한 인공 임시 레이블을 가져야 하는 반면, 서로 다른 레이블을 가진 경우, 다른 인공 임시 레이블을 가져야 한다. In UMTRA, training data can be generated by randomly selecting N samples from a data set. Validation data can be generated as an augmentation function is applied to each sample of training data. For both MAML and UMTRA, artificial temporary labels (1, 2,??, N) can be used. If two data points have the same label, they should have the same artificial temporary label, while if they have different labels, they should have different artificial temporary labels.

UMTRA은 메타 학습 과정 동안 항상 특정값(예를 들면, K=1)로 원샷 학습을 수행한다. 학습 과정 동안 특정 값을 1과 다르게 설정할 수도 있다. 트레이닝 데이터의 구조가 어떻게 클래스 구분 조건을 충족하는지에 대하여 설명하기로 한다. 첫 번째 조건은 각 레이블에 대해 샘플이 하나만 있기 때문에 충족된다. 두 번째 조건은 데이터 세트의 총 클래스 수라는 사실에 의해 통계적으로 충족될 수 있다. 샘플 수가 클래스 수보다 유의하게 작으면 모든 샘플이 다른 클래스에서 추출될 가능성이 높다. UMTRA은 합성 작업에 대한 적절한 벨리데이션 데이터를 생성해야 한다. 벨리데이션 데이터에 대한 최소 요건은 주어진 맥락에서 올바르게 레이블되어야 한다. 이는 합성 수치 레이블이 두 경우 모두 레이블되지 않은 데이터 세트의 동일한 클래스에 매핑되어야 함을 의미한다. UMTRA always performs one-shot learning with a specific value (e.g., K=1) during the meta-learning process. During the learning process, certain values may be set different from 1. We will now explain how the structure of the training data satisfies the class classification conditions. The first condition is met because there is only one sample for each label. The second condition can be satisfied statistically by the fact that the total number of classes in the data set is If the number of samples is significantly smaller than the number of classes, it is likely that all samples are drawn from different classes. UMTRA must generate appropriate validation data for the synthetic work. The minimum requirement for validation data is that it be properly labeled in the given context. This means that the synthetic numeric label must map to the same class in the unlabeled dataset in both cases.

UMTRA은 하이퍼 파라미터인 증강 함수를 사용하여 트레이닝 데이터에 사용된 샘플을 증강시키고, 증강된 샘플을 생성할 수 있다. UMTRA에 데이터 세트에 의해 설명되는 도메인에 대해 알고 있는 것을 기반으로 주어진 데이터 세트에 대해 속성을 검증하는 증강 함수가 구성될 수 있다. 이러한 증강 함수는 클래스 멤버십을 유지해야 하고, 이미지 또는 비디오에 도메인별 변경사항의 종류를 적용할 수 있다. 예를 들면, 일부 픽셀 값을 이미지에서 0으로 설정하거나, 트레이닝 이미지의 픽셀을 특정 범위(-6과 6 사이)로 변환할 수 있다.UMTRA can augment samples used in training data and generate augmented samples using an augmentation function, which is a hyperparameter. In UMTRA, an augmentation function can be constructed that verifies properties for a given data set based on what is known about the domain described by the data set. These augmentation functions must maintain class membership and can apply types of domain-specific changes to images or videos. For example, you can set some pixel values to 0 in an image, or convert pixels in a training image to a specific range (between -6 and 6).

비지도 메타 학습 시스템은 이미지 샘플로부터 복수 개의 이미지를 무작위로 선택하고, 선택된 복수 개의 이미지의 각각에 대하여 UMTRA를 기반 CycleGAN을 이용하여 이미지의 데이터를 증강시킬 수 있다. The unsupervised meta-learning system can randomly select a plurality of images from image samples and augment the image data using UMTRA-based CycleGAN for each of the selected plurality of images.

실시예에서는 이미지 증강을 위하여 CycleGAN를 사용할 수 있다. CycleGAN이란 생성자와 분류자가 대결하여 학습하는 GAN 구조에 원본 이미지의 형태를 잘 유지할 수 있도록 조건이 추가된 모델이다. 두 개의 다른 이미지가 매칭되지 않아도 이미지 변환을 가능하게 한다. 다시 말해서, 완벽한 쌍(Pair)을 이루는 데이터가 세트가 없어도 이미지를 변환할 수 있는 특징이 있다. In the embodiment, CycleGAN can be used for image augmentation. CycleGAN is a model in which a condition is added to maintain the shape of the original image to the GAN structure in which a generator and a classifier compete and learn. Enables image conversion even if two different images do not match. In other words, it has the feature of being able to convert an image even without a set of data forming a perfect pair.

원본 이미지 사이에 큰 간격을 두고 원본 이미지를 확대하는 방법을 기반으로 이미지 증강에 CycleGAN을 사용할 수 있다. 도 2는 일 실시예에 있어서, CycleGAN을 이용하여 이미지를 증강하는 동작을 설명하기 위한 예이다. 실시예에서 이미지 확대방법이란, 이미지의 크기를 증가시키는 것뿐만 아니라 이미지의 양을 증가시키는 것을 포함할 수 있다. 예를 들면, 도 2에 도시된 바와 같이, 사과와 오렌지의 이미지가 있으면, 두 이미지 사이의 공통점을 찾아내 다른 이미지에 스타일을 입혀 변환할 수 있다.CycleGAN can be used for image augmentation based on enlarging the original images with large gaps between them. Figure 2 is an example to explain the operation of image augmentation using CycleGAN in one embodiment. In embodiments, the image enlargement method may include increasing the size of the image as well as increasing the amount of the image. For example, as shown in Figure 2, if there are images of apples and oranges, commonalities between the two images can be found and converted by applying a style to another image.

원래 소수의 샘플 비지도 메타 학습은 UMTRA를 사용했는데, 이는 이미지의 간단한 증강을 통해 이미지를 두 장의 이미지로 변환하고, 하나의 이미지를 훈련에 사용하고, 나머지 하나의 이미지를 테스트에 사용하였다. 실시예에서는 단순한 이미지 증강보다 진보된 이미지 증강 기능을 CycleGAN으로 대체하여 중요한 특징을 유지하면서 원본 이미지보다 더 큰 간격이 있는 이미지가 되기 때문에 머신러닝을 통해 더욱 정확하게 판별할 수 있다. Originally, small-sample unsupervised meta-learning used UMTRA, which converts an image into two images through simple augmentation of the image, using one image for training and the other image for testing. In the embodiment, the image augmentation function, which is more advanced than simple image augmentation, is replaced with CycleGAN, resulting in an image with a larger gap than the original image while maintaining important features, allowing for more accurate discrimination through machine learning.

도 3은 일 실시예에 따른 비지도 메타 학습 시스템의 구성을 설명하기 위한 블록도이고, 도 4는 일 실시예에 따른 비지도 메타 학습 시스템에서 비지도 메타 학습 방법을 설명하기 위한 흐름도이다. FIG. 3 is a block diagram for explaining the configuration of an unsupervised meta-learning system according to an embodiment, and FIG. 4 is a flowchart for explaining an unsupervised meta-learning method in an unsupervised meta-learning system according to an embodiment.

비지도 메타 학습 시스템(100)의 프로세서는 샘플링부(310) 및 메타 학습부(320)를 포함할 수 있다. 이러한 프로세서의 구성요소들은 비지도 메타 학습 시스템에 저장된 프로그램 코드가 제공하는 제어 명령에 따라 프로세서에 의해 수행되는 서로 다른 기능들(different functions)의 표현들일 수 있다. 프로세서 및 프로세서의 구성요소들은 도 4의 비지도 메타 학습 방법이 포함하는 단계들(410 내지 420)을 수행하도록 비지도 메타 학습 시스템을 제어할 수 있다. 이때, 프로세서 및 프로세서의 구성요소들은 메모리가 포함하는 운영체제의 코드와 적어도 하나의 프로그램의 코드에 따른 명령(instruction)을 실행하도록 구현될 수 있다. The processor of the unsupervised meta-learning system 100 may include a sampling unit 310 and a meta-learning unit 320. These processor components may be expressions of different functions performed by the processor according to control instructions provided by program codes stored in the unsupervised meta-learning system. The processor and its components may control the unsupervised meta-learning system to perform steps 410 to 420 included in the unsupervised meta-learning method of FIG. 4. At this time, the processor and its components may be implemented to execute instructions according to the code of an operating system included in the memory and the code of at least one program.

프로세서는 비지도 메타 학습 방법을 위한 프로그램의 파일에 저장된 프로그램 코드를 메모리에 로딩할 수 있다. 예를 들면, 비지도 메타 학습 시스템에서 프로그램이 실행되면, 프로세서는 운영체제의 제어에 따라 프로그램의 파일로부터 프로그램 코드를 메모리에 로딩하도록 비지도 메타 학습 시스템을 제어할 수 있다. 이때, 샘플링부(310) 및 메타 학습부(320) 각각은 메모리에 로딩된 프로그램 코드 중 대응하는 부분의 명령을 실행하여 이후 단계들(410 내지 420)을 실행하기 위한 프로세서의 서로 다른 기능적 표현들일 수 있다.The processor may load the program code stored in the file of the program for the unsupervised meta-learning method into memory. For example, when a program is executed in an unsupervised meta-learning system, the processor can control the unsupervised meta-learning system to load program code from the program file into memory under the control of the operating system. At this time, the sampling unit 310 and the meta learning unit 320 are each different functional expressions of the processor for executing the subsequent steps 410 to 420 by executing instructions of the corresponding portion of the program code loaded in the memory. You can.

단계(410)에서 샘플링부(310)는 이미지 샘플로부터 복수 개의 이미지를 무작위로 선택할 수 있다. In step 410, the sampling unit 310 may randomly select a plurality of images from image samples.

단계(420)에서 메타 학습부(320)는 선택된 복수 개의 이미지의 각각에 대하여 UMTRA 기반 CycleGAN을 이용하여 비지도 메타 학습을 수행할 수 있다. 메타 학습부(320)는 UMTRA를 사용하여 퓨-샷(Few-shot) 이미지 분류를 위한 비지도 메타 학습을 수행할 수 있다. 메타 학습부(320)는 CycleGAN을 이용하여 원본 이미지 사이에 큰 간격을 두고 원본 이미지를 확대하는 방법을 통해 이미지를 증강시킬 수 있다. 메타 학습부(320)는 증강된 이미지 및 원본 이미지의 비지도 메타 학습을 위한 MAML을 실행할 수 있다. 메타 학습부(320)는 선택된 이미지를 카테고리 별로 분류하고, 카테고리 별로 분류된 각 이미지에 대해 CycleGAN을 이용하여 이미지를 증강시키고, 증강된 이미지를 메타 학습 쿼리로 사용하고 원본 이미지를 지원 세트로 사용할 수 있다. In step 420, the meta learning unit 320 may perform unsupervised meta learning using UMTRA-based CycleGAN for each of the plurality of selected images. The meta learning unit 320 can perform unsupervised meta learning for few-shot image classification using UMTRA. The meta learning unit 320 can augment the image by enlarging the original image with a large gap between the original images using CycleGAN. The meta learning unit 320 may execute MAML for unsupervised meta learning of the augmented image and the original image. The meta learning unit 320 classifies the selected image into categories, augments the image using CycleGAN for each image classified by category, uses the augmented image as a meta learning query, and uses the original image as a support set. there is.

도 5는 일 실시예에 따른 비지도 메타 학습 시스템에서 비지도 메타 학습 동작을 설명하기 위한 흐름도이다. Figure 5 is a flowchart for explaining an unsupervised meta-learning operation in an unsupervised meta-learning system according to an embodiment.

비지도 메타 학습 시스템은 복수 개의 이미지를 무작위로 선택할 수 있다(510). 복수 개의 이미지를 무작위로 샘플링하면 각 이미지는 N-way-1-shot 작업인 개별적 카테고리로 분류(520)될 수 있다. 학습 후 평가할 때 분류할 클래스의 개수(n개)에 따라 n-way-one-shot task라고 한다. 예를 들면, 이미지에서 분류할 클래스가 9개이면, 9-way-one-shot-task가 된다. 네트워크의 학습이 끝나고 나면 테스트 이미지 형태를 만들어 테스트가 진행될 수 있다. 지원 세트에는 한 개만 동일한 클래스의 이미지를 넣고 나머지에는 다른 클래스의 이미지를 넣는다. The unsupervised meta-learning system can randomly select multiple images (510). By randomly sampling a plurality of images, each image can be classified 520 into individual categories, which is an N-way-1-shot task. It is called an n-way-one-shot task depending on the number of classes to be classified (n) when evaluating after learning. For example, if there are 9 classes to classify in an image, it becomes 9-way-one-shot-task. After the network training is completed, testing can be conducted by creating a test image. Only one image of the same class is included in the support set, and images of different classes are included in the rest.

비지도 메타 학습 시스템은 각 이미지에 대해 CycleGAN을 이용하여 이미지 증강을 수행할 수 있다(530). 비지도 메타 학습 시스템은 CycleGAN을 이용하여 이미지 확대 방법을 통해 선택된 이미지를 새로운 이미지로 생성할 수 있다. CycleGAN을 이용할 경우, 일반적인 증강(확대) 방법에 비해 이전과 이후의 이미지 간의 변화가 더욱 크기 때문에 머신러닝 중에 핵심 포인트를 더욱 잘 포착할 수 있다. The unsupervised meta-learning system can perform image augmentation using CycleGAN for each image (530). An unsupervised meta-learning system can generate a new image from a selected image through an image enlargement method using CycleGAN. When using CycleGAN, key points can be better captured during machine learning because the change between before and after images is greater than with typical augmentation methods.

비지도 메타 학습 시스템은 증강된 이미지를 메타 학습을 위한 쿼리 세트(541)로 사용하고, n-way-1-shot과 N 레이블을 가지는 원본 이미지를 지원 세트(540)로 사용할 수 있다. 이처럼, n-way-1-shot 지원+쿼리 데이터 및 N 레이블이 포함될 수 있다.An unsupervised meta-learning system can use the augmented image as a query set 541 for meta-learning, and use the original image with n-way-1-shot and N labels as a support set 540. In this way, n-way-1-shot support + query data and N labels may be included.

비지도 메타 학습 시스템은 학습을 위하여 MAML 알고리즘을 실행할 수 있다(550). MAML이란 퓨 샷(few shot)으로부터 학습하기 위해 메타적인 파라미터를 학습시켜 놓는 것을 의미한다. 외부 손실을 기반으로 파라미터가 업데이트될 수 있다. The unsupervised meta-learning system can execute the MAML algorithm for learning (550). MAML means learning meta parameters to learn from few shots. Parameters can be updated based on external losses.

이와 같이, 비지도 메타 학습 시스템은 CycleGAN를 통해 생성된 이미지와 원본 이미지 사이의 차이가 분명해져 UMTRA가 지도 메타 학습에 가깝게 만들 수 있다. In this way, the unsupervised meta-learning system can make UMTRA closer to supervised meta-learning by making the difference between the image generated through CycleGAN and the original image clear.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The device described above may be implemented with hardware components, software components, and/or a combination of hardware components and software components. For example, devices and components described in embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA), etc. , may be implemented using one or more general-purpose or special-purpose computers, such as a programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. A processing device may execute an operating system (OS) and one or more software applications that run on the operating system. Additionally, a processing device may access, store, manipulate, process, and generate data in response to the execution of software. For ease of understanding, a single processing device may be described as being used; however, those skilled in the art will understand that a processing device includes multiple processing elements and/or multiple types of processing elements. It can be seen that it may include. For example, a processing device may include a plurality of processors or one processor and one controller. Additionally, other processing configurations, such as parallel processors, are possible.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of these, which may configure a processing unit to operate as desired, or may be processed independently or collectively. You can command the device. Software and/or data may be used on any type of machine, component, physical device, virtual equipment, computer storage medium or device to be interpreted by or to provide instructions or data to a processing device. It can be embodied in . Software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer-readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc., singly or in combination. Program instructions recorded on the medium may be specially designed and configured for the embodiment or may be known and available to those skilled in the art of computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -Includes optical media (magneto-optical media) and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, etc. Examples of program instructions include machine language code, such as that produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter, etc.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with limited examples and drawings, various modifications and variations can be made by those skilled in the art from the above description. For example, the described techniques are performed in a different order than the described method, and/or components of the described system, structure, device, circuit, etc. are combined or combined in a different form than the described method, or other components are used. Alternatively, appropriate results may be achieved even if substituted or substituted by an equivalent.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents of the claims also fall within the scope of the claims described below.

Claims (6)

비지도 메타 학습 시스템에 의해 수행되는 비지도 메타 학습 방법에 있어서,
이미지 샘플로부터 복수 개의 이미지를 무작위로 선택하는 단계; 및
상기 선택된 복수 개의 이미지의 각각에 대하여 UMTRA 기반 CycleGAN을 이용하여 비지도 메타 학습을 수행하는 단계
를 포함하고,
상기 비지도 메타 학습을 수행하는 단계는,
상기 선택된 복수 개의 이미지의 각각을 카테고리 별로 분류하고, 상기 카테고리 별로 분류된 각 이미지에 대해 CycleGAN을 이용하여 원본 이미지 사이에 간격을 두고 원본 이미지를 확대하는 방법을 통해 이미지를 증강시키고, 상기 증강된 이미지를 메타 학습 쿼리로 사용하고 원본 이미지를 지원 세트로 사용하여 UMTRA를 통해 퓨-샷(Few-shot) 이미지 분류를 위한 비지도 메타 학습을 수행하여 상기 UMTRA가 지도 메타 학습에 가까워지도록 하는 단계
를 포함하고,
상기 CycleGAN은, 상기 선택된 복수 개의 이미지의 사이의 공통점을 찾아내 원본 이미지에 다른 스타일을 입혀 새로운 이미지로 생성하는 것
을 포함하는 비지도 메타 학습 방법.
In the unsupervised meta-learning method performed by an unsupervised meta-learning system,
randomly selecting a plurality of images from the image sample; and
Performing unsupervised meta learning using UMTRA-based CycleGAN for each of the selected plurality of images
Including,
The step of performing the unsupervised meta learning is,
Each of the selected plurality of images is classified into categories, and for each image classified by category, the images are augmented by enlarging the original images with intervals between the original images using CycleGAN, and the augmented images are performing unsupervised meta-learning for few-shot image classification via UMTRA using as a meta-learning query and the original image as a support set, thereby bringing the UMTRA closer to supervised meta-learning.
Including,
The CycleGAN finds commonalities between the plurality of selected images and creates a new image by applying a different style to the original image.
An unsupervised meta-learning method including.
삭제delete 삭제delete 제1항에 있어서,
상기 비지도 메타 학습을 수행하는 단계는,
상기 증강된 이미지 및 원본 이미지의 비지도 메타 학습을 위한 MAML을 실행하는 단계
를 포함하는 비지도 메타 학습 방법.
According to paragraph 1,
The step of performing the unsupervised meta learning is,
Executing MAML for unsupervised meta learning of the augmented image and the original image
An unsupervised meta-learning method including.
삭제delete 비지도 메타 학습 시스템에 있어서,
이미지 샘플로부터 복수 개의 이미지를 무작위로 선택하는 샘플링부; 및
상기 선택된 복수 개의 이미지의 각각에 대하여 UMTRA 기반 CycleGAN을 이용하여 비지도 메타 학습을 수행하는 메타 학습부
를 포함하고,
상기 메타 학습부는,
상기 선택된 복수 개의 이미지의 각각을 카테고리 별로 분류하고, 상기 카테고리 별로 분류된 각 이미지에 대해 CycleGAN을 이용하여 원본 이미지 사이에 간격을 두고 원본 이미지를 확대하는 방법을 통해 이미지를 증강시키고, 상기 증강된 이미지를 메타 학습 쿼리로 사용하고 원본 이미지를 지원 세트로 사용하여 UMTRA를 통해 퓨-샷(Few-shot) 이미지 분류를 위한 비지도 메타 학습을 수행하여 상기 UMTRA가 지도 메타 학습에 가까워지도록 하는 것을 포함하고,
상기 CycleGAN은, 상기 선택된 복수 개의 이미지의 사이의 공통점을 찾아내 원본 이미지에 다른 스타일을 입혀 새로운 이미지로 생성하는
비지도 메타 학습 시스템.
In an unsupervised meta-learning system,
a sampling unit that randomly selects a plurality of images from image samples; and
A meta-learning unit that performs unsupervised meta-learning using UMTRA-based CycleGAN for each of the selected plurality of images.
Including,
The meta learning department,
Each of the selected plurality of images is classified into categories, and for each image classified by category, the images are augmented by enlarging the original images with intervals between the original images using CycleGAN, and the augmented images are performing unsupervised meta-learning for few-shot image classification over UMTRA using ,
The CycleGAN finds commonalities between the plurality of selected images and creates a new image by applying a different style to the original image.
Unsupervised meta-learning system.
KR1020210058259A 2021-05-06 2021-05-06 Cycle generative adversarial network conditional gen erative adversarial network KR102580131B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210058259A KR102580131B1 (en) 2021-05-06 2021-05-06 Cycle generative adversarial network conditional gen erative adversarial network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210058259A KR102580131B1 (en) 2021-05-06 2021-05-06 Cycle generative adversarial network conditional gen erative adversarial network

Publications (2)

Publication Number Publication Date
KR20220151256A KR20220151256A (en) 2022-11-15
KR102580131B1 true KR102580131B1 (en) 2023-09-19

Family

ID=84041677

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210058259A KR102580131B1 (en) 2021-05-06 2021-05-06 Cycle generative adversarial network conditional gen erative adversarial network

Country Status (1)

Country Link
KR (1) KR102580131B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116595443B (en) * 2023-07-17 2023-10-03 山东科技大学 Wireless signal book gesture recognition method based on meta learning

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Chelsea Finn et al., Model-Agnostic Meta-Learning for Fast Adaptation of Deep Networks, arXiv:1703.03400v3, 1-13pages (2017. 7. 18.)*
Siavash Khodadadeh et al., Unsupervised Meta-Learning for Few-shot Image Classification, 1-12pages (2019. 10. 27.)*
류태광 등., CycleGAN 기반 데이터 증강을 이용한 딥러닝 기반 안개 감지 성능 개선 기법, 2020년 대한전자공학회 추계학술대회 논문집, 404-407pages (2020.)*

Also Published As

Publication number Publication date
KR20220151256A (en) 2022-11-15

Similar Documents

Publication Publication Date Title
US20220414544A1 (en) Parallel Development and Deployment for Machine Learning Models
US10650508B2 (en) Automatic defect classification without sampling and feature selection
US20170344881A1 (en) Information processing apparatus using multi-layer neural network and method therefor
US8379994B2 (en) Digital image analysis utilizing multiple human labels
CN112560886A (en) Training-like conditional generation of countermeasure sequence network
US9761221B2 (en) Order statistic techniques for neural networks
KR101731626B1 (en) Method and system for information prediction using tree-based ensemble classifier
US11164106B2 (en) Computer-implemented method and computer system for supervised machine learning
KR20160066926A (en) Apparatus and method for classification of data, apparatus and method for segmentation of region of interest
KR102167011B1 (en) An image traning apparatus extracting hard negative samples being used to training a neural network based on sampling and a threshold adjusting adaptively and a method performed by the image training apparatus
KR102370910B1 (en) Method and apparatus for few-shot image classification based on deep learning
JP2022554068A (en) Video content recognition method, apparatus, program and computer device
KR20170109304A (en) Method for parallel learning of cascade classifier by object recognition
CN112001488A (en) Training generative antagonistic networks
CN110892409A (en) Method and apparatus for analyzing images
US20210089823A1 (en) Information processing device, information processing method, and non-transitory computer-readable storage medium
KR102580131B1 (en) Cycle generative adversarial network conditional gen erative adversarial network
JP2019159836A (en) Learning program, learning method and learning device
JP6208018B2 (en) Image recognition algorithm combination selection device
US9443168B1 (en) Object detection approach using an ensemble strong classifier
Kharinov et al. Object detection in color image
KR102413588B1 (en) Object recognition model recommendation method, system and computer program according to training data
KR102127855B1 (en) Feature selection method with maximum repeatability
Konate et al. A comparison of saliency methods for deep learning explainability
US20220398833A1 (en) Information processing device, learning method, and recording medium

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant