KR20210116922A - Method and Device for Fast Adaptation through Meta-learning of Super Resolution Model - Google Patents

Method and Device for Fast Adaptation through Meta-learning of Super Resolution Model Download PDF

Info

Publication number
KR20210116922A
KR20210116922A KR1020200033090A KR20200033090A KR20210116922A KR 20210116922 A KR20210116922 A KR 20210116922A KR 1020200033090 A KR1020200033090 A KR 1020200033090A KR 20200033090 A KR20200033090 A KR 20200033090A KR 20210116922 A KR20210116922 A KR 20210116922A
Authority
KR
South Korea
Prior art keywords
resolution
image
neural network
resolution image
low
Prior art date
Application number
KR1020200033090A
Other languages
Korean (ko)
Other versions
KR102493492B1 (en
Inventor
조남규
김지원
김태현
박서빈
유진수
조동현
Original Assignee
에스케이텔레콤 주식회사
한양대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이텔레콤 주식회사, 한양대학교 산학협력단 filed Critical 에스케이텔레콤 주식회사
Priority to KR1020200033090A priority Critical patent/KR102493492B1/en
Publication of KR20210116922A publication Critical patent/KR20210116922A/en
Application granted granted Critical
Publication of KR102493492B1 publication Critical patent/KR102493492B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

Disclosed is a method and an apparatus for fast adaptation through meta-learning of a super-resolution model. According to an aspect of the present invention, a method for learning a neural network implemented by a computer system comprises the steps of: generating a low-resolution image and a medium-resolution image for each of a plurality of high-resolution sample images; generating a plurality of task networks corresponding to each low-resolution image by training the neural network to receive the low-resolution image and output a corresponding medium-resolution image, with respect to each low-resolution image; calculating a loss of the task network which receives the medium-resolution image and outputs a corresponding high-resolution sample image, with respect to each medium-resolution image; and generating a meta-learned neural network by updating parameters of the neural network based on the losses calculated from the plurality of task networks. The present invention can efficiently generate the high-resolution image.

Description

초해상도 모델의 메타 러닝을 통한 빠른 적응 방법 및 장치{Method and Device for Fast Adaptation through Meta-learning of Super Resolution Model}Method and Device for Fast Adaptation through Meta-learning of Super Resolution Model

본 발명의 실시예들은 학습 단계에서 뉴럴 네트워크가 여러 이미지의 해상도를 향상시키도록 메타 러닝을 수행하고, 테스트 단계에서 빠른 적응 과정을 수행하는 초해상도 모델에 관한 것이다.Embodiments of the present invention relate to a super-resolution model in which a neural network performs meta-learning to improve the resolution of several images in a learning stage, and performs a fast adaptation process in a test stage.

이 부분에 기술된 내용은 단순히 본 발명에 대한 배경 정보를 제공할 뿐 종래기술을 구성하는 것은 아니다.The content described in this section merely provides background information on the present invention and does not constitute the prior art.

초해상도 모델(super resolution model)은 저해상도 이미지의 해상도를 향상시켜 고해상도 이미지를 생성하는 뉴럴 네트워크(neural network)를 의미한다. 초해상도 모델은 스마트폰, TV 및 PC 등 다양한 전자기기에서 이미지 또는 영상 데이터를 처리하는 데 이용된다.The super-resolution model refers to a neural network that generates a high-resolution image by improving the resolution of a low-resolution image. The super-resolution model is used to process image or video data in various electronic devices such as smartphones, TVs, and PCs.

일반적으로, 저해상도 이미지의 해상도를 고해상도로 향상시키는 기술은 보간(interpolation) 방법을 이용하는 기술이다. 보간 방법은 '가장 근접한 이웃(nearest neighbor)' 방식, '이중 입방(bi-cubic)' 방식 등을 통해 저해상도 이미지의 픽셀로부터 고해상도 이미지의 픽셀을 채우는 방법이다. 하지만, 보간 방법을 이용하는 경우 출력 이미지의 해상도가 높을지라도 육안으로는 흐릿하게 보인다는 문제점이 있었다.In general, a technique for improving the resolution of a low resolution image to a high resolution is a technique using an interpolation method. The interpolation method is a method of filling pixels of a high-resolution image from pixels of a low-resolution image through a 'nearest neighbor' method, a 'bi-cubic' method, or the like. However, when the interpolation method is used, there is a problem that the output image has a high resolution but looks blurry to the naked eye.

이러한 문제점을 해결하기 위해, 카메라를 보조하는 전용 하드웨어를 이용하여 다양한 초점의 이미지를 촬영하고, 여러 이미지로부터 선명한 고해상도 이미지를 출력할 수 있으나, 하드웨어로 인한 추가 비용이 발생한다.In order to solve this problem, an image of various focus may be taken using dedicated hardware that assists the camera, and a clear high-resolution image may be output from several images, but additional costs are incurred due to the hardware.

보간 방법의 단점을 보완하고, 추가 하드웨어 없이 초해상도 모델의 성능을 개선하기 위해, 딥러닝 기반의 단일 이미지 초해상도(single image super-resolution, SISR)에 대한 연구가 활발히 진행되고 있다. 여기서, 단일 이미지 초해상도는 단일 이미지 내에 포함된 특징만 이용하여 단일 이미지의 해상도를 증가시키는 기술이다. 특히, SISR이 딥러닝을 기반으로 컨볼루션 뉴럴 네트워크를 이용하는 경우, 하드웨어를 추가하지 않고도 SISR의 성능을 향상시킬 수 있다.In order to compensate for the shortcomings of the interpolation method and to improve the performance of the super-resolution model without additional hardware, deep learning-based single image super-resolution (SISR) research is being actively conducted. Here, single-image super-resolution is a technique for increasing the resolution of a single image by using only features included in the single image. In particular, when SISR uses a convolutional neural network based on deep learning, the performance of SISR can be improved without adding hardware.

다만, 기존의 딥러닝 기반 초해상도 모델은 학습 단계에서 방대한 트레이닝 데이터 세트를 이용하여 학습되고, 테스트 단계에서는 학습 단계에서 이용되지 않은 테스트 이미지를 입력 받기 때문에 테스트 이미지의 해상도를 효과적으로 향상시키지 못한다. 이는, 딥러닝 학습을 이용하는 대부분의 SISR은 테스트 단계에서 초해상도 모델의 파라미터를 조정하지 않기 때문이다. 즉, 새로운 테스트 이미지에 포함된 특징들을 더 학습하지 않으며, 모든 테스트 이미지에 고정된 네트워크 파라미터를 이용하는 것은 초해상도 모델의 성능을 저하시키는 요인이 된다.However, the existing deep learning-based super-resolution model is trained using a vast training data set in the learning stage, and in the test stage, it does not effectively improve the resolution of the test image because it receives a test image that is not used in the learning stage. This is because most SISRs using deep learning do not adjust the parameters of the super-resolution model during the test phase. In other words, the use of fixed network parameters for all test images without further learning the features included in the new test image is a factor that degrades the performance of the super-resolution model.

따라서, 훈련 단계에서 다양한 이미지에 대해 학습하되, 테스트 단계에서 각 이미지에 포함된 특징을 이용하여 고해상도 이미지를 생성하는 방안이 필요하다.Therefore, it is necessary to learn about various images in the training stage, but to generate high-resolution images by using the features included in each image in the test stage.

한편, 신경망을 이용하지 않는 기존의 초해상도 복원 방법은 사용자에게 저해상도 이미지가 주어지고, 사용자가 직접 개입하여 저해상도 이미지로부터 고해상도 이미지를 생성한다. 이때, 자연 풍경이나 건물 사진과 같이 주어진 저해상도 이미지 내에 크기만을 달리하며 반복되는 영역이 있는 경우, 이 영역을 고해상도 이미지를 생성하는 데 이용한다. 예를 들어, 건물 사진에서 모양은 같고 크기가 다른 창문이 존재할 때, 작은 창문에 대한 고해상도 이미지는 큰 창문이라고 추정한다. 즉, 저해상도 이미지 내 큰 창문은 고해상도 이미지 내 작은 창문이 된다. 사용자는 이러한 패치 리커런스(patch recurrence)를 이용하여 고해상도 이미지를 효율적으로 생성할 수 있다.On the other hand, in the existing super-resolution restoration method that does not use a neural network, a low-resolution image is given to a user, and the user directly intervenes to generate a high-resolution image from the low-resolution image. In this case, if there is a region that is repeated with different sizes in a given low-resolution image, such as a photograph of a natural landscape or a building, this region is used to generate a high-resolution image. For example, in a photograph of a building, when windows of the same shape and different sizes exist, the high-resolution image of the small window is assumed to be the large window. That is, a large window in a low-resolution image becomes a small window in a high-resolution image. Users can efficiently generate high-resolution images using such patch recurrence.

다만, 사용자는 고해상도 이미지를 생성할 수 있으나, 주어진 이미지 내에 모든 패치들이 서로 유사한 것은 아니기 때문에 고해상도 이미지의 해상도를 높이는 데 한계가 있다.However, a user can create a high-resolution image, but there is a limit in increasing the resolution of the high-resolution image because not all patches in a given image are similar to each other.

본 발명의 실시예들은, 기존 초해상도 모델의 아키텍쳐 변경 없이 테스트 단계에서 빠른 적응(fast adaptation)을 위해, 뉴럴 네트워크의 학습 단계에서 메타 러닝(meta-learning)을 수행하는 뉴럴 네트워크 학습 방법 및 장치를 제공하는 데 주된 목적이 있다.Embodiments of the present invention provide a neural network learning method and apparatus for performing meta-learning in the learning stage of the neural network for fast adaptation in the test stage without changing the architecture of the existing super-resolution model Its main purpose is to provide

본 발명의 다른 실시예들은, 학습 단계에서 메타 러닝된 뉴럴 네트워크를 테스트 단계에서 주어진 테스트 이미지에 대해 적응(adaptation)시킨 후 테스트 이미지의 해상도를 향상시킴으로서, 동적인 파라미터를 이용하는 뉴럴 네트워크 활용 방법 및 장치를 제공하는 데 일 목적이 있다.Other embodiments of the present invention provide a method and apparatus for using a neural network using dynamic parameters by improving the resolution of a test image after adapting a meta-learned neural network to a given test image in the test step in the learning step. The purpose is to provide

본 발명의 다른 실시예들은, 신경망을 이미지 전체에 대해 학습시킴으로써 사용자가 직접적인 개입없이 패치 리커런스 영역을 간접적으로 학습하는 뉴럴 네트워크 학습 방법 및 장치를 제공하는 데 일 목적이 있다.Another embodiment of the present invention aims to provide a neural network learning method and apparatus in which a user indirectly learns a patch recall region without direct intervention by learning the neural network on the entire image.

본 발명의 일 측면에 의하면, 컴퓨터 시스템에 의해 구현되는 뉴럴 네트워크의 학습 방법에 있어서, 복수의 고해상도 샘플 이미지 각각에 대해, 저해상도 이미지 및 중해상도 이미지를 생성하는 과정; 각 저해상도 이미지에 대해, 저해상도 이미지를 입력 받고 대응되는 중해상도 이미지를 출력하도록 뉴럴 네트워크를 훈련시킴으로써, 각 저해상도 이미지에 대응되는 복수의 태스크 네트워크를 생성하는 과정; 각 중해상도 이미지에 대해, 중해상도 이미지를 입력 받아 대응되는 고해상도 샘플 이미지를 출력하는 태스크 네트워크의 손실을 산출하는 과정; 및 복수의 태스크 네트워크로부터 산출된 손실들에 기초하여 상기 뉴럴 네트워크의 파라미터들을 갱신함으로써, 메타 러닝된(meta-learned) 뉴럴 네트워크를 생성하는 과정을 포함하는 학습 방법을 제공한다.According to an aspect of the present invention, there is provided a method for learning a neural network implemented by a computer system, comprising: generating a low-resolution image and a medium-resolution image for each of a plurality of high-resolution sample images; generating a plurality of task networks corresponding to each low-resolution image by training a neural network to receive a low-resolution image and output a corresponding medium-resolution image for each low-resolution image; for each medium-resolution image, calculating a loss of a task network that receives a medium-resolution image and outputs a corresponding high-resolution sample image; and generating a meta-learned neural network by updating parameters of the neural network based on losses calculated from a plurality of task networks.

본 실시예의 다른 측면에 의하면, 컴퓨터에 의해 구현되는 뉴럴 네트워크 기반 고해상도 이미지 생성 방법에 있어서, 입력 이미지를 획득하는 과정; 상기 입력 이미지에 대한 저해상도 입력 이미지를 생성하는 과정; 메타 러닝된 뉴럴 네트워크에 대해, 상기 저해상도 입력 이미지를 입력 받아 상기 입력 이미지를 출력하도록 적응시키는 과정; 적응이 완료된 뉴럴 네트워크에 상기 입력 이미지를 입력하여 해상도가 향상된 출력 이미지를 획득하는 과정; 및 상기 출력 이미지를 출력하는 과정을 포함하는 고해상도 이미지 생성 방법을 제공한다.According to another aspect of this embodiment, there is provided a method for generating a high-resolution image based on a neural network implemented by a computer, the method comprising: acquiring an input image; generating a low-resolution input image for the input image; adapting the meta-learned neural network to receive the low-resolution input image and output the input image; obtaining an output image with improved resolution by inputting the input image to a neural network that has been adapted; and outputting the output image.

이상에서 설명한 바와 같이 본 발명의 일 실시예에 의하면, 다양한 이미지에 대해 미리 학습된 뉴럴 네트워크의 학습 단계에서 메타 러닝을 수행함으로써, 아키텍쳐의 변경 없이 다양한 이미지에 대한 뉴럴 네트워크의 성능도 향상시키고 테스트 단계에서의 적응 속도를 증가시킬 수 있다.As described above, according to an embodiment of the present invention, by performing meta-learning in the learning stage of the neural network previously learned for various images, the performance of the neural network for various images is also improved without changing the architecture, and the test stage is performed. can increase the speed of adaptation in

본 발명의 다른 실시예에 의하면, 다양한 이미지에 대해 메타 러닝된 뉴럴 네트워크의 테스트 단계에서 주어진 테스트 이미지에 대해 적응(adaptation) 과정을 수행한 후에 고해상도 이미지를 생성함으로써, 개별적인 테스트 이미지에 적응적으로 선명한 고해상도 이미지를 생성할 수 있다.According to another embodiment of the present invention, by generating a high-resolution image after performing an adaptation process on a given test image in the test stage of the meta-learning neural network for various images, it is adaptively clear to individual test images. It can create high-resolution images.

본 발명의 다른 실시예에 의하면, 서로 유사한 패치들을 포함하는 저해상도 이미지에 대해 서로 유사한 패치들의 관계를 학습하는 신경망을 이용함으로써, 고해상도 이미지를 효율적으로 생성할 수 있다.According to another embodiment of the present invention, a high-resolution image can be efficiently generated by using a neural network that learns a relationship between patches similar to each other for a low-resolution image including patches similar to each other.

도 1은 본 발명의 일 실시예에 따른 패치 리커런스를 설명하기 위해 예시한 도면이다.
도 2는 본 발명의 일 실시예에 따른 메타 러닝을 통한 빠른 적응 방법을 수행하는 과정을 설명하기 위해 예시한 도면이다.
도 3은 본 발명의 일 실시예에 따른 뉴럴 네트워크의 메타 러닝 훈련 방법을 설명하기 위해 예시한 도면이다.
도 4는 본 발명의 일 실시예에 따른 메타 러닝된 뉴럴 네트워크의 테스트 단계에서 적응 과정을 설명하기 위해 예시한 도면이다.
도 5는 본 발명의 일 실시예에 따른 뉴럴 네트워크의 학습 장치의 동작 과정을 설명하기 위한 순서도다.
도 6은 본 발명의 일 실시예에 따른 뉴럴 네트워크 기반 고해상도 이미지 생성 장치의 동작 과정을 설명하기 위한 순서도다.
1 is a diagram illustrating a patch recall according to an embodiment of the present invention.
2 is a diagram illustrating a process of performing a fast adaptation method through meta-learning according to an embodiment of the present invention.
3 is a diagram illustrating a meta-learning training method of a neural network according to an embodiment of the present invention.
4 is a diagram illustrating an adaptation process in a test step of a meta-learned neural network according to an embodiment of the present invention.
5 is a flowchart illustrating an operation process of an apparatus for learning a neural network according to an embodiment of the present invention.
6 is a flowchart illustrating an operation process of an apparatus for generating a high-resolution image based on a neural network according to an embodiment of the present invention.

이하, 본 발명의 일부 실시예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, some embodiments of the present invention will be described in detail with reference to exemplary drawings. In adding reference numerals to the components of each drawing, it should be noted that the same components are given the same reference numerals as much as possible even though they are indicated on different drawings. In addition, in describing the present invention, if it is determined that a detailed description of a related known configuration or function may obscure the gist of the present invention, the detailed description thereof will be omitted.

또한, 본 발명의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 명세서 전체에서, 어떤 부분이 어떤 구성요소를 '포함', '구비'한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 '~부', '모듈' 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.In addition, in describing the components of the present invention, terms such as first, second, A, B, (a), (b), etc. may be used. These terms are only for distinguishing the components from other components, and the essence, order, or order of the components are not limited by the terms. Throughout the specification, when a part 'includes' or 'includes' a certain component, it means that other components may be further included, rather than excluding other components, unless otherwise stated. . In addition, terms such as '~ unit' and 'module' described in the specification mean a unit that processes at least one function or operation, which may be implemented as hardware or software or a combination of hardware and software.

도 1는 기존의 패치 리커런스를 설명하기 위해 예시한 도면이다.1 is a diagram exemplified to explain a conventional patch recall.

패치 리커런스(patch-recurrence)란, 서로 유사한 패턴이 반복되는 이미지에 대한 고해상도 이미지를 만들 때, 이미지 내 하나의 패턴을 이용하는 방법을 의미한다. 예를 들어, 정렬된 가로수들이 그려진 자연 이미지나 정렬된 창문들을 포함하는 건물 이미지와 같이, 저해상도 이미지 내에서 일부 영역이 반복되는 경우, 다른 해상도의 이미지를 생성할 때 반복되는 영역을 이용하면 효율적으로 생성할 수 있다. 다만, 기존의 패치 리커런스를 이용하는 방법은 사용자가 직접 서로 유사한 패치를 선택하고 조정하여야 한다.Patch-recurrence refers to a method of using one pattern in an image when creating a high-resolution image for an image in which patterns similar to each other are repeated. For example, if some areas are repeated in a low-resolution image, such as a natural image with aligned street trees or a building image with aligned windows, using the repeated area can be efficiently used to create images with different resolutions. can create However, in the method of using the existing patch reference, the user must directly select and adjust similar patches.

도 1을 참조하면, 저해상도 이미지(100), 중해상도 이미지(110), 고해상도 이미지(120), 저해상도 패치(104), 제1 패치(112), 제2 패치(114) 및 고해상도 패치(122)가 도시되어 있다. 저해상도 이미지(100), 중해상도 이미지(110) 및 고해상도 이미지(120)는 서로 대응되며, 하나의 트레이닝 데이터 셋을 구성한다.Referring to FIG. 1 , a low-resolution image 100 , a medium-resolution image 110 , a high-resolution image 120 , a low-resolution patch 104 , a first patch 112 , a second patch 114 , and a high-resolution patch 122 ) is shown. The low-resolution image 100 , the medium-resolution image 110 , and the high-resolution image 120 correspond to each other and constitute one training data set.

사용자는 주어진 중해상도 이미지(110) 내 일부 영역인 제1 패치(112)를 결정한다. 제1 패치(112)는 중해상도 이미지(110) 내에서 반복되는 패턴 중 하나를 포함하는 영역일 수 있다. 이후, 학습 장치는 저해상도 이미지(100) 내에서 제1 패치(112)와 유사도가 높은 영역인 저해상도 패치(104)를 검출한다. A user determines a first patch 112 that is a partial region within a given medium-resolution image 110 . The first patch 112 may be a region including one of the repeating patterns in the medium-resolution image 110 . Thereafter, the learning apparatus detects the low-resolution patch 104 , which is a region having a high similarity to the first patch 112 in the low-resolution image 100 .

사용자는 중해상도 이미지(110) 내에서 저해상도 패치(104)에 대응되는 제2 패치(114)를 검출한다. 제2 패치(114)는 저해상도 패치(104)를 생성하는 데 이용된 영역이다. The user detects the second patch 114 corresponding to the low-resolution patch 104 in the medium-resolution image 110 . The second patch 114 is the region used to create the low resolution patch 104 .

사용자는 제2 패치(114)를 이용하여 제1 패치(112)에 대응되는 위치의 고해상도 패치(122)를 생성한다.A user creates a high-resolution patch 122 at a position corresponding to the first patch 112 by using the second patch 114 .

전술한 과정을 통해 사용자는 고해상도 이미지를 생성할 수 있으나, 주어진 이미지 내에 모든 패치들이 서로 유사한 것은 아니기 때문에 고해상도 이미지의 해상도를 높이는 데 한계가 있다.Although the user can create a high-resolution image through the above-described process, there is a limit in increasing the resolution of the high-resolution image because not all patches in a given image are similar to each other.

도 2는 본 발명의 일 실시예에 따른 메타 러닝을 통한 빠른 적응 방법을 수행하는 과정을 설명하기 위해 예시한 도면이다.2 is a diagram illustrating a process of performing a fast adaptation method through meta-learning according to an embodiment of the present invention.

도 2를 참조하면, 메타 러닝을 통한 빠른 적응 방법은 훈련 단계(train phase)와 테스트 단계(test phase)로 나뉘며, 훈련 단계는 (a) 네트워크 초기화(network initialization) 단계와 (b) 메타 러닝(meta-learning) 단계로 나뉘며, 테스트 단계는 (c) 적응(adaptation) 단계와 (d) 리사이징(resizing) 단계로 나뉜다. 훈련 단계에서 뉴럴 네트워크의 학습 장치(미도시)가 이용되고, 테스트 단계에서는 뉴럴 네트워크의 이미지 생성 장치(미도시)가 이용될 수 있다. 예를 들어, 학습 장치는 서버로 구현되고 이미지 생성 장치는 단말로 구현될 수 있다. 다만, 이는 하나의 예시일 뿐이며 두 장치는 하나의 장치로 구현될 수도 있다. 한편, 네트워크 초기화 단계는 학습 장치가 아닌 외부 장치에 의해 미리 수행될 수 있다.Referring to FIG. 2 , the rapid adaptation method through meta-learning is divided into a training phase and a test phase, and the training phase includes (a) network initialization and (b) meta-learning ( It is divided into meta-learning stage, and the test stage is divided into (c) adaptation stage and (d) resizing stage. In the training stage, a learning apparatus (not shown) of the neural network may be used, and in the testing stage, an image generating apparatus (not shown) of the neural network may be used. For example, the learning apparatus may be implemented as a server and the image generating apparatus may be implemented as a terminal. However, this is only an example, and the two devices may be implemented as one device. Meanwhile, the network initialization step may be performed in advance by an external device other than the learning device.

(a) 네트워크 초기화 단계는 뉴럴 네트워크(200)의 메타 러닝을 수행하기 전에 뉴럴 네트워크(200)가 많은 양의 이미지 데이터에 대해 고해상도 이미지를 생성하도록 미리 훈련하는 단계다. 여기서, 뉴럴 네트워크(200)는 저해상도 이미지를 입력 받고 고해상도 이미지를 출력하는 구성요소다. 학습 과정에서 뉴럴 네트워크(200)의 파라미터들이 초기화된다. (a) The network initialization step is a step of pre-training the neural network 200 to generate high-resolution images for a large amount of image data before performing meta-learning of the neural network 200 . Here, the neural network 200 is a component that receives a low-resolution image and outputs a high-resolution image. In the learning process, parameters of the neural network 200 are initialized.

(b) 메타 러닝 단계는 초기 뉴럴 네트워크(210)가 다양한 태스크로 구별되는 이미지들을 학습하는 단계다. 초기 뉴럴 네트워크(210)는 복수의 고해상도 샘플 이미지 각각에 대해, 고해상도 샘플 이미지(H)를 입력 받고, 저해상도 이미지(L) 및 중해상도 이미지(M)를 생성한 후 세 이미지를 학습한다. 이러한 과정을 복수의 고해상도 샘플 이미지에 대해 반복함으로써, 메타 러닝을 수행한다. (b) The meta-learning step is a step in which the initial neural network 210 learns images that are distinguished into various tasks. The initial neural network 210 receives a high-resolution sample image (H) for each of a plurality of high-resolution sample images, generates a low-resolution image (L) and a medium-resolution image (M), and then learns the three images. By repeating this process for a plurality of high-resolution sample images, meta-learning is performed.

한편, 메타 러닝 단계에서 학습 장치는 고해상도 샘플 이미지로부터 저해상도 이미지 및 중해상도 이미지를 생성하며, 저해상도 이미지를 외부에서 공급받을 필요가 없다. 또한, 네트워크 초기화 단계에서 이용되는 방대한 양의 이미지와 달리, 자연 풍경이나 건물 이미지와 같이 패치 리커런스를 포함하는 이미지들에 대해 효율적으로 학습할 수 있다. 또한, 학습 장치가 훈련 단계에서 메타 러닝을 수행함으로써, 적응 단계에서 이미지 생성 장치가 네트워크 적응 속도를 더욱 향상시킬 수 있다.Meanwhile, in the meta-learning stage, the learning device generates a low-resolution image and a medium-resolution image from a high-resolution sample image, and there is no need to receive a low-resolution image from an external source. Also, unlike a vast amount of images used in the network initialization step, images including patch references such as natural landscapes or building images can be efficiently learned. In addition, since the learning apparatus performs meta-learning in the training phase, the image generating apparatus may further improve the network adaptation speed in the adaptation phase.

(c) 적응 단계는 이미지 생성 장치가 메타 러닝된 뉴럴 네트워크(220)를 이미지 생성 장치 별로 입력 이미지들에 대해 적응시킴으로써, 네트워크의 파라미터를 미세하게 조정하는 단계다. 구체적으로, 이미지 생성 장치는 입력 이미지(I)를 획득하고, 다운 샘플링(down-sampling)한 저해상도 입력 이미지를 생성한다. 메타 러닝된 뉴럴 네트워크(220)는 저해상도 입력 이미지와 입력 이미지에 대해 기 설정된 횟수만큼 반복 학습함으로써 입력 이미지에 적응된다. 적응 단계는 직전에 수행되는 전술한 메타 러닝 단계에 의해 적응 속도가 빨라진다.(c) The adaptation step is a step in which the image generating device fine-tunes parameters of the network by adapting the meta-learned neural network 220 to input images for each image generating device. Specifically, the image generating apparatus acquires the input image I and generates a down-sampling low-resolution input image. The meta-learned neural network 220 is adapted to the input image by repeatedly learning the low-resolution input image and the input image a preset number of times. In the adaptation step, the adaptation speed is accelerated by the aforementioned meta-learning step performed immediately before.

(d) 리사이징 단계는 최종적으로 적응된 뉴럴 네트워크(230)를 이용하여 입력 이미지(I)의 해상도를 항샹시킨 출력 이미지(O)를 생성하는 단계다. 적응된 뉴럴 네트워크(230)는 적응 단계에서 이용된 입력 이미지에 대한 고해상도 이미지를 생성한 후 출력한다.(d) The resizing step is a step of generating an output image O in which the resolution of the input image I is increased using the finally adapted neural network 230 . The adapted neural network 230 generates and outputs a high-resolution image for the input image used in the adaptation step.

전술한 과정을 통해, 이미지 생성 장치별로 자신이 보유한 적은 수의 이미지들에 대해 고해상도의 선명한 이미지를 생성할 수 있다. Through the above-described process, a high-resolution, clear image may be generated for a small number of images owned by each image generating device.

도 3은 본 발명의 일 실시예에 따른 뉴럴 네트워크의 메타 러닝 훈련 방법을 설명하기 위해 예시한 도면이다.3 is a diagram illustrating a meta-learning training method of a neural network according to an embodiment of the present invention.

도 3을 참조하면, 복수의 고해상도 샘플 이미지(300), 복수의 중해상도 이미지(302), 복수의 저해상도 이미지(304), 초기 뉴럴 네트워크(310), 복수의 태스크 네트워크(320) 및 메타 러닝된 뉴럴 네트워크(330)가 도시되어 있다. Referring to FIG. 3 , a plurality of high-resolution sample images 300 , a plurality of medium-resolution images 302 , a plurality of low-resolution images 304 , an initial neural network 310 , a plurality of task networks 320 , and meta-learned A neural network 330 is shown.

도 2에서 네트워크 초기화 단계와 같이, 초기 뉴럴 네트워크(310)는 임의의 입력 이미지에 대해 해상도가 향상된 출력 이미지를 생성하도록 미리 훈련된 신경망일 수 있다. 구체적으로, 초기 뉴럴 네트워크는 입력 이미지에 대해 생성한 출력 이미지와 정답 이미지 간 손실함수가 작아지도록 훈련된다.As in the network initialization step in FIG. 2 , the initial neural network 310 may be a neural network pre-trained to generate an output image with improved resolution for an arbitrary input image. Specifically, the initial neural network is trained so that the loss function between the output image and the correct answer image generated for the input image becomes small.

다시 도 3를 참조하면, 복수의 고해상도 샘플 이미지(300)는 주어진 이미지들이며, 복수의 중해상도 이미지(302) 및 복수의 저해상도 이미지(304)는 복수의 고해상도 샘플 이미지(300)에 대응되도록 생성된 이미지들이다. 구체적으로, 저해상도 이미지 및 중해상도 이미지는 타 뉴럴 네트워크에 의해 고해상도 샘플 이미지로부터 최근접(nearest neighbor) 방식, 양선형(bi-linear) 방식 또는 이중 입방(bi-cubic) 방식 중 적어도 어느 하나에 의한 다운 샘플링(down-sampling) 방법을 이용하여 생성될 수 있다.Referring back to FIG. 3 , the plurality of high-resolution sample images 300 are given images, and the plurality of medium-resolution images 302 and the plurality of low-resolution images 304 are generated to correspond to the plurality of high-resolution sample images 300 . are images. Specifically, the low-resolution image and the medium-resolution image are generated by at least one of a nearest neighbor method, a bi-linear method, or a bi-cubic method from a high-resolution sample image by another neural network. It may be generated using a down-sampling method.

저해상도 이미지(L1, L2, L3, L4) 및 복수의 중해상도 이미지(M1, M2, M3, M4)는 고해상도 샘플 이미지(H1, H2, H3, H4)에 각각 대응된다. 즉, 고해상도 샘플 이미지, 중해상도 이미지 및 저해상도 이미지가 하나의 트레이닝 데이터 페어(training data pair)를 구성되며, 초기 뉴럴 네트워크(310)의 메타 러닝에 이용된다. 트레이닝 데이터 페어의 수는 메타 러닝에 이용되는 태스크 네트워크의 수와 일치한다. The low-resolution images L1, L2, L3, and L4 and the plurality of medium-resolution images M1, M2, M3, and M4 correspond to the high-resolution sample images H1, H2, H3, and H4, respectively. That is, a high-resolution sample image, a medium-resolution image, and a low-resolution image constitute one training data pair, and are used for meta-learning of the initial neural network 310 . The number of training data pairs corresponds to the number of task networks used for meta-learning.

학습 장치는 각 저해상도 이미지에 대해, 저해상도 이미지를 입력 받고 저해상도 이미지에 대응되는 중해상도 이미지를 출력하도록 초기 뉴럴 네트워크(310)를 훈련시킴으로써, 즉 초기 뉴럴 네트워크(310)의 파라미터(

Figure pat00001
)를 갱신함으로써 각 저해상도 이미지에 대응되는 복수의 태스크 네트워크(320)를 생성한다. For each low-resolution image, the learning device receives a low-resolution image as an input and trains the initial neural network 310 to output a medium-resolution image corresponding to the low-resolution image, that is, the parameters of the initial neural network 310 (
Figure pat00001
) to generate a plurality of task networks 320 corresponding to each low-resolution image.

구체적으로, 학습 장치는 하나의 저해상도 이미지(L1)를 초기 뉴럴 네트워크(310)에 입력하고, 초기 뉴럴 네트워크(310)에 의해 생성된 중해상도 출력 이미지를 획득한다. 학습 장치는 중해상도 출력 이미지와 중해상도 이미지(M1) 간 차이에 기초하여 손실(loss)을 산출한다. 학습 장치는 산출된 손실을 초기 뉴럴 네트워크(310)의 파라미터(

Figure pat00002
)에 반영하여, 제1 태스크 파라미터(
Figure pat00003
)를 갖는 제1 태스크 네트워크(322)를 생성한다. 즉, 제1 태스크 네트워크(322)는 초기 뉴럴 네트워크(310)가 L1 이미지 및 M1 이미지에 대해 학습한 결과이고, 제2 태스크 네트워크(324)는 L2 이미지 및 M2 이미지에 대해 학습한 결과다. 이를 내부 루프라고 지칭하며, 수학식으로 나타내면 수학식 1과 같다.Specifically, the learning apparatus inputs one low-resolution image L1 to the initial neural network 310 and acquires a medium-resolution output image generated by the initial neural network 310 . The learning apparatus calculates a loss based on a difference between the medium-resolution output image and the medium-resolution image M1. The learning device uses the calculated loss as a parameter (
Figure pat00002
), reflected in the first task parameter (
Figure pat00003
) to create a first task network 322 with That is, the first task network 322 is the result of the initial neural network 310 learning the L1 image and the M1 image, and the second task network 324 is the learning result of the L2 image and the M2 image. This is referred to as an inner loop, and is expressed as Equation (1).

Figure pat00004
Figure pat00004

수학식 1에서

Figure pat00005
는 i번째 태스크 네트워크의 파라미터,
Figure pat00006
는 초기 뉴럴 네트워크의 파라미터,
Figure pat00007
는 학습률(learning rate),
Figure pat00008
는 그래디언트(gradient), L은 손실함수,
Figure pat00009
는 저해상도 이미지,
Figure pat00010
는 중해상도 출력 이미지를 의미한다.in Equation 1
Figure pat00005
is the parameter of the i-th task network,
Figure pat00006
is the parameters of the initial neural network,
Figure pat00007
is the learning rate,
Figure pat00008
is the gradient, L is the loss function,
Figure pat00009
is a low-resolution image,
Figure pat00010
denotes a medium-resolution output image.

이후, 학습 장치는 복수의 태스크 네트워크(320)로부터 복수의 손실을 산출한다. 구체적으로, 학습 장치는 각 중해상도 이미지에 대해, 중해상도 이미지를 입력 받아 중해상도 이미지에 대응되는 고해상도 샘플 이미지를 출력하는 태스크 네트워크의 손실을 산출한다. 예를 들어, 제1 태스크 네트워크(322)가 중해상도 이미지(M1)를 입력 받으면, 고해상도 출력 이미지를 생성한다. 이때, 학습 장치는 고해상도 출력 이미지와 고해상도 이미지(H1) 간 차이에 기초하여 손실을 산출한다.Then, the learning apparatus calculates a plurality of losses from the plurality of task networks 320 . Specifically, for each medium-resolution image, the learning apparatus calculates a loss of a task network that receives a medium-resolution image and outputs a high-resolution sample image corresponding to the medium-resolution image. For example, when the first task network 322 receives the medium-resolution image M1 as an input, it generates a high-resolution output image. In this case, the learning apparatus calculates a loss based on the difference between the high-resolution output image and the high-resolution image H1.

학습 장치는 복수의 태스크 네트워크(320)으로부터 산출된 복수의 손실들에 기초하여 초기 뉴럴 네트워크(310)의 파라미터를 갱신함으로써, 메타 러닝된(meta-learned) 뉴럴 네트워크(330)를 생성한다. 즉, 메타 러닝된 뉴럴 네트워크(330)는 복수의 태스크 네트워크(320)가 학습한 결과를 초기 뉴럴 네트워크(310)에 반영한 결과다. 이를 외부 루프라고 지칭하며, 수학식으로 나타내면 수학식 2와 같다.The learning apparatus generates a meta-learned neural network 330 by updating the parameters of the initial neural network 310 based on the plurality of losses calculated from the plurality of task networks 320 . That is, the meta-learning neural network 330 is a result of reflecting the learning result of the plurality of task networks 320 in the initial neural network 310 . This is referred to as an outer loop, and is expressed as Equation (2).

Figure pat00011
Figure pat00011

수학식 2에서

Figure pat00012
는 메타 러닝된 뉴럴 네트워크의 파라미터,
Figure pat00013
는 학습률,
Figure pat00014
는 i번째 태스크 네트워크에 의해 생성된 고해상도 출력 이미지,
Figure pat00015
는 고해상도 샘플 이미지다.in Equation 2
Figure pat00012
is the parameter of the meta-learned neural network,
Figure pat00013
is the learning rate,
Figure pat00014
is the high-resolution output image generated by the i-th task network,
Figure pat00015
is a high-resolution sample image.

전술한 과정을 통해 메타 러닝된 뉴럴 네트워크(330)는 초기 뉴럴 네트워크(310)에 비해 입력 이미지에 대한 고해상도 이미지를 생성하는 성능이 뛰어나다. 또한, 테스트 단계에서 메타 러닝된 뉴럴 네트워크(330)가 테스트 이미지에 적응하는 속도는 초기 뉴럴 네트워크(310)에 비해 훨씬 빠르다.The neural network 330 meta-learned through the above-described process has superior performance in generating a high-resolution image for the input image compared to the initial neural network 310 . In addition, the speed at which the meta-learned neural network 330 adapts to the test image in the test phase is much faster than that of the initial neural network 310 .

도 4는 본 발명의 일 실시예에 따른 메타 러닝된 뉴럴 네트워크의 테스트 단계에서 적응 과정 및 추론 과정을 설명하기 위해 예시한 도면이다.4 is a diagram illustrating an adaptation process and an inference process in a test step of a meta-learned neural network according to an embodiment of the present invention.

도 4를 참조하면, 메타 러닝된 뉴럴 네트워크(330), 입력 이미지(400), 저해상도 입력 이미지(410), 중해상도 출력 이미지(420), 적응된 뉴럴 네트워크(430) 및 출력 이미지(440)가 도시되어 있다.Referring to FIG. 4 , the meta-learned neural network 330 , the input image 400 , the low-resolution input image 410 , the medium-resolution output image 420 , the adapted neural network 430 and the output image 440 are is shown.

뉴럴 네트워크 기반 이미지 생성 장치는 메타 러닝된 뉴럴 네트워크(330)를 입력 이미지(400)에 적응시키기 위해, 획득한 입력 이미지(400)로부터 다운 샘플링(down-sampling)된 저해상도 입력 이미지(410)를 생성한다. 이때, 저해상도 입력 이미지(410)는 입력 이미지(400)로부터 최근접(nearest neighbor) 방식, 양선형(bi-linear) 방식 또는 이중 입방(bi-cubic) 방식 중 적어도 어느 하나에 의해 다운 샘플링(down-sampling)된 이미지일 수 있다.The neural network-based image generating apparatus generates a down-sampled low-resolution input image 410 from the acquired input image 400 in order to adapt the meta-learned neural network 330 to the input image 400 . do. In this case, the low-resolution input image 410 is down-sampled from the input image 400 by at least one of a nearest neighbor method, a bi-linear method, or a bi-cubic method. -sampling) may be an image.

이미지 생성 장치는 메타 러닝된 뉴럴 네트워크(330)가 저해상도 입력 이미지(410)를 입력 받아 입력 이미지(400)를 생성하도록 적응시킨다. 구체적으로, 이미지 생성 장치는 저해상도 입력 이미지(410)를 메타 러닝된 뉴럴 네트워크(330)에 입력하여 중해상도 출력 이미지(410)를 획득한다. 이후, 이미지 생성 장치는 중해상도 출력 이미지(420)와 입력 이미지(400) 간 차이에 기초하여 손실함수를 산출하고, 산출된 손실함수에 기초하여 메타 러닝된 뉴럴 네트워크(330)의 파라미터를 갱신(조정)한다. 이러한 과정은 기 설정된 횟수, 기 설정된 손실함수 등 기 설정된 조건을 만족할 때까지 반복하여 수행될 수 있다. 이러한 적응 과정은 직전에 수행되는 메타 러닝에 의해 빠르게 진행된다.The image generating apparatus adapts the meta-learned neural network 330 to receive the low-resolution input image 410 and generate the input image 400 . Specifically, the image generating apparatus obtains the medium-resolution output image 410 by inputting the low-resolution input image 410 into the meta-learning neural network 330 . Then, the image generating apparatus calculates a loss function based on the difference between the medium-resolution output image 420 and the input image 400, and updates the parameters of the meta-learned neural network 330 based on the calculated loss function ( adjust). This process may be repeatedly performed until a preset condition such as a preset number of times or a preset loss function is satisfied. This adaptation process is accelerated by meta-learning performed immediately before.

입력 이미지(400)에 대한 적응 과정이 완료되면, 이미지 생성 장치는 적응된 뉴럴 네트워크(430)에 입력 이미지(400)를 입력하고, 해상도가 향상된 출력 이미지(440)를 획득한다.When the adaptation process for the input image 400 is completed, the image generating apparatus inputs the input image 400 to the adapted neural network 430 and obtains an output image 440 with improved resolution.

도 5는 본 발명의 일 실시예에 따른 뉴럴 네트워크의 학습 장치의 동작 과정을 설명하기 위한 순서도다.5 is a flowchart illustrating an operation process of an apparatus for learning a neural network according to an embodiment of the present invention.

학습 장치는 복수의 고해상도 샘플 이미지 각각에 대해, 저해상도 이미지 및 중해상도 이미지를 생성한다(S500).The learning apparatus generates a low-resolution image and a medium-resolution image for each of the plurality of high-resolution sample images (S500).

학습 장치는 복수의 저해상도 이미지 각각에 대해, 저해상도 이미지를 입력 받고 대응되는 중해상도 이미지를 출력하도록 초기 뉴럴 네트워크의 파라미터들을 갱신함으로써, 복수의 태스크 네트워크를 생성한다(S502). 이때, 복수의 태스크 네트워크는 복수의 고해상도 샘플 이미지 각각에 대응된다. 한편, 초기 뉴럴 네트워크는 임의의 입력 이미지로부터 해상도가 향상된 출력 이미지를 생성하도록 사전에 훈련될 수 있다.For each of the plurality of low-resolution images, the learning apparatus generates a plurality of task networks by receiving the low-resolution image and updating the parameters of the initial neural network to output the corresponding medium-resolution image (S502). In this case, the plurality of task networks correspond to each of the plurality of high-resolution sample images. Meanwhile, the initial neural network may be trained in advance to generate an output image with improved resolution from an arbitrary input image.

학습 장치는 중해상도 이미지를 입력 받아 대응되는 고해상도 샘플 이미지를 출력하는 태스크 네트워크의 손실들을 산출한다(S504). 태스크 네트워크 손실은 태스크 네트워크가 중해상도 이미지를 입력 받아 출력한 고해상도 출력 이미지와, 고해상도 샘플 이미지 간의 차이에 기초하여 산출된다.The learning apparatus receives the medium-resolution image and calculates the losses of the task network that outputs the corresponding high-resolution sample image (S504). The task network loss is calculated based on the difference between the high-resolution output image output by the task network receiving the medium-resolution image and the high-resolution sample image.

학습 장치는 복수의 태스크 네트워크로부터 산출된 손실들에 기초하여 초기 뉴럴 네트워크의 파라미터들을 갱신함으로써, 메타 러닝된 뉴럴 네트워크를 생성한다(S506).The learning apparatus generates a meta-learned neural network by updating the parameters of the initial neural network based on the losses calculated from the plurality of task networks (S506).

도 6은 본 발명의 일 실시예에 따른 뉴럴 네트워크의 이미지 생성 장치의 동작 과정을 설명하기 위한 순서도다.6 is a flowchart illustrating an operation process of an apparatus for generating an image of a neural network according to an embodiment of the present invention.

이미지 생성 장치는 입력 이미지를 획득하고, 입력 이미지에 대한 저해상도 입력 이미지를 생성한다(S600). 메타 러닝된 뉴럴 네트워크는 입력 이미지와 저해상도 입력 이미지에 대해 적응됨으로써, 최종 출력 이미지를 생성할 때 최적의 성능을 발휘할 수 있다.The image generating apparatus acquires an input image and generates a low-resolution input image with respect to the input image (S600). The meta-learned neural network can be adapted to both the input image and the low-resolution input image, so that it can perform optimally when generating the final output image.

이미지 생성 장치는 메타 러닝된 뉴럴 네트워크에 대해, 저해상도 입력 이미지를 입력 받아 입력 이미지를 출력하도록 적응 과정을 수행한다(S602). 적응 과정은, 메타 러닝된 뉴럴 네트워크가 출력한 중해상도 출력 이미지와 입력 이미지의 차이에 기초하여 손실을 산출한 후 손실에 기초하여 메타 러닝된 뉴럴 네트워크의 파라미터를 갱신하는 과정이다. 이는, 기 설정된 조건을 만족할 때까지 반복 수행될 수 있다.The image generating apparatus performs an adaptation process to output an input image by receiving a low-resolution input image for the meta-learning neural network ( S602 ). The adaptation process is a process of calculating a loss based on the difference between the medium-resolution output image and the input image output by the meta-learning neural network, and then updating the parameters of the meta-learned neural network based on the loss. This may be repeatedly performed until a preset condition is satisfied.

이미지 생성 장치는 적응이 완료된 뉴럴 네트워크에 입력 이미지를 입력하여 해상도가 향상된 출력 이미지를 획득한 후 출력한다(S604).The image generating apparatus inputs an input image to the neural network for which adaptation is completed, obtains an output image with improved resolution, and then outputs it ( S604 ).

도 5 및 도 6에서는 과정 S500 내지 과정 S604을 순차적으로 실행하는 것으로 기재하고 있으나, 이는 본 발명의 일 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것이다. 다시 말해, 본 발명의 일 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 일 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 도 5 및 도 6에 기재된 순서를 변경하여 실행하거나 과정 S500 내지 과정 S604 중 하나 이상의 과정을 병렬적으로 실행하는 것으로 다양하게 수정 및 변형하여 적용 가능할 것이므로, 도 5 및 도 6은 시계열적인 순서로 한정되는 것은 아니다.Although it is described that steps S500 to S604 are sequentially executed in FIGS. 5 and 6 , this is merely illustrative of the technical idea of an embodiment of the present invention. In other words, those of ordinary skill in the art to which an embodiment of the present invention pertain change the order described in FIGS. Since it will be possible to apply various modifications and variations by executing one or more processes in parallel in S604, FIGS. 5 and 6 are not limited to a time-series order.

한편, 도 5 및 도 6에 도시된 과정들은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 즉, 이러한 컴퓨터가 읽을 수 있는 기록매체는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등의 비일시적인(non-transitory) 매체일 수 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송) 및 데이터 전송 매체(data transmission medium)와 같은 일시적인(transitory) 매체를 더 포함할 수도 있다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.Meanwhile, the processes shown in FIGS. 5 and 6 can be implemented as computer-readable codes on a computer-readable recording medium. The computer-readable recording medium includes all kinds of recording devices in which data readable by a computer system is stored. That is, such a computer-readable recording medium may be a non-transitory medium such as ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc., and also carrier wave (for example, , transmission over the Internet) and may further include a transitory medium such as a data transmission medium. In addition, the computer-readable recording medium is distributed in a network-connected computer system so that the computer-readable code can be stored and executed in a distributed manner.

이상의 설명은 본 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 실시예들은 본 실시예의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 실시예의 기술 사상의 범위가 한정되는 것은 아니다. 본 실시예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of this embodiment, and various modifications and variations will be possible by those skilled in the art to which this embodiment belongs without departing from the essential characteristics of the present embodiment. Accordingly, the present embodiments are intended to explain rather than limit the technical spirit of the present embodiment, and the scope of the technical spirit of the present embodiment is not limited by these embodiments. The protection scope of this embodiment should be interpreted by the following claims, and all technical ideas within the equivalent range should be interpreted as being included in the scope of the present embodiment.

100: 뉴럴 네트워크 210: 초기 뉴럴 네트워크
220: 복수의 태스크 네트워크 230: 메타 러닝된 뉴럴 네트워크
330: 적응된 뉴럴 네트워크
100: neural network 210: initial neural network
220: multiple task network 230: meta-learned neural network
330: adapted neural network

Claims (11)

컴퓨터 시스템에 의해 구현되는 뉴럴 네트워크의 학습 방법에 있어서,
복수의 고해상도 샘플 이미지 각각에 대해, 저해상도 이미지 및 중해상도 이미지를 생성하는 과정;
각 저해상도 이미지에 대해, 저해상도 이미지를 입력 받고 대응되는 중해상도 이미지를 출력하도록 뉴럴 네트워크를 훈련시킴으로써, 각 저해상도 이미지에 대응되는 복수의 태스크 네트워크를 생성하는 과정;
각 중해상도 이미지에 대해, 중해상도 이미지를 입력 받아 대응되는 고해상도 샘플 이미지를 출력하는 태스크 네트워크의 손실을 산출하는 과정; 및
복수의 태스크 네트워크로부터 산출된 손실들에 기초하여 상기 뉴럴 네트워크의 파라미터들을 갱신함으로써, 메타 러닝된(meta-learned) 뉴럴 네트워크를 생성하는 과정;
을 포함하는 학습 방법.
A method for learning a neural network implemented by a computer system, comprising:
generating a low-resolution image and a medium-resolution image for each of the plurality of high-resolution sample images;
generating a plurality of task networks corresponding to each low-resolution image by training a neural network to receive a low-resolution image and output a corresponding medium-resolution image for each low-resolution image;
for each medium-resolution image, calculating a loss of a task network that receives a medium-resolution image and outputs a corresponding high-resolution sample image; and
generating a meta-learned neural network by updating parameters of the neural network based on losses calculated from a plurality of task networks;
learning methods that include
제1항에 있어서,
상기 뉴럴 네트워크는 입력 이미지에 대해 해상도가 향상된 출력 이미지를 생성하도록 미리 훈련된 것인 학습 방법.
According to claim 1,
wherein the neural network is pre-trained to generate an output image with improved resolution with respect to an input image.
제1항에 있어서,
상기 복수의 태스크 네트워크를 생성하는 과정은,
각 저해상도 이미지에 대해, 저해상도 이미지를 상기 뉴럴 네트워크에 입력하여 중해상도 출력 이미지를 획득하는 과정;
상기 중해상도 출력 이미지와 대응되는 저해상도 이미지의 차이에 기초하여 손실을 산출하는 과정; 및
각 저해상도 이미지에 대응되는 손실마다 상기 뉴럴 네트워크의 파라미터를 갱신함으로써 상기 복수의 태스크 네트워크를 생성하는 과정;
을 포함하는 학습 방법.
According to claim 1,
The process of creating the plurality of task networks includes:
for each low-resolution image, inputting the low-resolution image into the neural network to obtain a medium-resolution output image;
calculating a loss based on a difference between the medium-resolution output image and a corresponding low-resolution image; and
generating the plurality of task networks by updating parameters of the neural network for each loss corresponding to each low-resolution image;
learning methods that include
제1항에 있어서,
상기 태스크 네트워크의 손실을 산출하는 과정은,
상기 태스크 네트워크에 대응되는 중해상도 이미지를 상기 태스크 네트워크에 입력하여 고해상도 출력 이미지를 획득하는 과정; 및
상기 고해상도 출력 이미지와 대응되는 중해상도 이미지의 차이에 기초하여 손실을 계산하는 과정;
을 포함하는 학습 방법.
According to claim 1,
The process of calculating the loss of the task network is
obtaining a high-resolution output image by inputting a medium-resolution image corresponding to the task network into the task network; and
calculating a loss based on a difference between the high-resolution output image and a corresponding medium-resolution image;
learning methods that include
제1항에 있어서,
상기 저해상도 이미지 및 중해상도 이미지는,
상기 고해상도 샘플 이미지로부터 최근접(nearest neighbor) 방식, 양선형(bilinear) 방식 또는 양입방체(bicubic) 방식 중 적어도 어느 하나에 의해 다운 샘플링(down-sampling)된 이미지인 학습 방법.
According to claim 1,
The low-resolution image and the medium-resolution image are,
A learning method that is an image down-sampled from the high-resolution sample image by at least one of a nearest neighbor method, a bilinear method, or a bicubic method.
컴퓨터에 의해 구현되는 뉴럴 네트워크 기반 고해상도 이미지 생성 방법에 있어서,
입력 이미지를 획득하는 과정;
상기 입력 이미지에 대한 저해상도 입력 이미지를 생성하는 과정;
메타 러닝된 뉴럴 네트워크에 대해, 상기 저해상도 입력 이미지를 입력 받아 상기 입력 이미지를 출력하도록 적응시키는 과정;
적응이 완료된 뉴럴 네트워크에 상기 입력 이미지를 입력하여 해상도가 향상된 출력 이미지를 획득하는 과정; 및
상기 출력 이미지를 출력하는 과정;
을 포함하는 고해상도 이미지 생성 방법.
In the neural network-based high-resolution image generation method implemented by a computer,
acquiring an input image;
generating a low-resolution input image for the input image;
adapting the meta-learned neural network to receive the low-resolution input image and output the input image;
obtaining an output image with improved resolution by inputting the input image to a neural network that has been adapted; and
outputting the output image;
A method for generating high-resolution images, including
제6항에 있어서,
상기 메타 러닝된 뉴럴 네트워크는,
복수의 고해상도 샘플 이미지 각각에 대해, 저해상도 이미지 및 중해상도 이미지를 생성하는 과정;
각 저해상도 이미지에 대해, 저해상도 이미지를 입력 받고 대응되는 중해상도 이미지를 출력하도록 뉴럴 네트워크를 훈련시킴으로써, 각 저해상도 이미지에 대응되는 복수의 태스크 네트워크를 생성하는 과정;
각 중해상도 이미지에 대해, 중해상도 이미지를 입력 받아 대응되는 고해상도 샘플 이미지를 출력하는 태스크 네트워크의 손실을 산출하는 과정; 및
복수의 태스크 네트워크로부터 산출된 손실들에 기초하여 상기 뉴럴 네트워크의 파라미터들을 갱신함으로써, 메타 러닝된 뉴럴 네트워크를 생성하는 과정;
을 포함하여 학습되는 고해상도 이미지 생성 방법.
7. The method of claim 6,
The meta-learned neural network is
generating a low-resolution image and a medium-resolution image for each of the plurality of high-resolution sample images;
generating a plurality of task networks corresponding to each low-resolution image by training a neural network to receive a low-resolution image and output a corresponding medium-resolution image for each low-resolution image;
for each medium-resolution image, calculating a loss of a task network that receives a medium-resolution image and outputs a corresponding high-resolution sample image; and
generating a meta-learned neural network by updating parameters of the neural network based on losses calculated from a plurality of task networks;
A method of generating high-resolution images that is learned including
뉴럴 네트워크의 학습 장치에 있어서,
명령어들(instructions)을 저장하는 적어도 하나의 메모리; 및
상기 메모리에 저장된 적어도 하나의 명령어를 실행함으로써, 오디오 데이터를 처리하는 적어도 하나의 프로세서를 포함하고,
상기 적어도 하나의 메모리는 상기 적어도 하나의 프로세서를 통해,
복수의 고해상도 샘플 이미지 각각에 대해, 저해상도 이미지 및 중해상도 이미지를 생성하고,
각 저해상도 이미지에 대해, 저해상도 이미지를 입력 받고 대응되는 중해상도 이미지를 출력하도록 뉴럴 네트워크를 훈련시킴으로써, 각 저해상도 이미지에 대응되는 복수의 태스크 네트워크를 생성하고, 상기 뉴럴 네트워크는 입력 이미지에 대해 해상도가 향상된 출력이미지를 생성하도록 미리 훈련된 것임;
각 중해상도 이미지에 대해, 중해상도 이미지를 입력 받아 대응되는 고해상도 샘플 이미지를 출력하는 태스크 네트워크의 손실을 산출하고, 및
복수의 태스크 네트워크로부터 산출된 손실들에 기초하여 상기 뉴럴 네트워크의 파라미터들을 갱신함으로써, 메타 러닝된 뉴럴 네트워크를 생성하도록 설정된 학습 장치.
In the neural network learning apparatus,
at least one memory for storing instructions; and
at least one processor for processing audio data by executing at least one instruction stored in the memory;
The at least one memory through the at least one processor,
generating, for each of the plurality of high-resolution sample images, a low-resolution image and a medium-resolution image;
For each low-resolution image, by training a neural network to receive a low-resolution image and output a corresponding medium-resolution image, a plurality of task networks corresponding to each low-resolution image are generated, and the neural network has an improved resolution for the input image. pre-trained to generate output images;
For each medium-resolution image, calculating the loss of the task network that receives the medium-resolution image and outputs a corresponding high-resolution sample image, and
A learning apparatus configured to generate a meta-learned neural network by updating parameters of the neural network based on losses calculated from a plurality of task networks.
뉴럴 네트워크 기반 고해상도 이미지 생성 장치에 있어서,
명령어들을 저장하는 적어도 하나의 메모리; 및
상기 메모리에 저장된 적어도 하나의 명령어를 실행함으로써, 오디오 데이터를 처리하는 적어도 하나의 프로세서를 포함하고,
상기 적어도 하나의 메모리는 상기 적어도 하나의 프로세서를 통해,
입력 이미지를 획득하는 과정;
상기 입력 이미지에 대한 저해상도 입력 이미지를 생성하는 과정;
메타 러닝된 뉴럴 네트워크에 대해, 상기 저해상도 입력 이미지를 입력 받아 상기 입력 이미지를 출력하도록 적응시키는 과정;
적응이 완료된 뉴럴 네트워크에 상기 입력 이미지를 입력하여 해상도가 향상된 출력 이미지를 획득하는 과정; 및
상기 출력 이미지를 출력하는 과정;
을 수행하도록 설정된 고해상도 이미지 생성 장치.
In the neural network-based high-resolution image generating apparatus,
at least one memory storing instructions; and
at least one processor for processing audio data by executing at least one instruction stored in the memory;
The at least one memory through the at least one processor,
acquiring an input image;
generating a low-resolution input image for the input image;
adapting the meta-learned neural network to receive the low-resolution input image and output the input image;
obtaining an output image with improved resolution by inputting the input image to a neural network that has been adapted; and
outputting the output image;
A high-resolution image-generating device set to perform
제9항에 있어서,
상기 메타 러닝된 뉴럴 네트워크의 학습 방법은,
복수의 고해상도 샘플 이미지 각각에 대해, 저해상도 이미지 및 중해상도 이미지를 생성하는 과정;
각 저해상도 이미지에 대해, 저해상도 이미지를 입력 받고 대응되는 중해상도 이미지를 출력하도록 뉴럴 네트워크를 훈련시킴으로써, 각 저해상도 이미지에 대응되는 복수의 태스크 네트워크를 생성하는 과정;
각 중해상도 이미지에 대해, 중해상도 이미지를 입력 받아 대응되는 고해상도 샘플 이미지를 출력하는 태스크 네트워크의 손실을 산출하는 과정; 및
복수의 태스크 네트워크로부터 산출된 손실들에 기초하여 상기 뉴럴 네트워크의 파라미터들을 갱신함으로써, 메타 러닝된 뉴럴 네트워크를 생성하는 과정;
을 포함하는 고해상도 이미지 생성 장치.
10. The method of claim 9,
The learning method of the meta-learned neural network is,
generating a low-resolution image and a medium-resolution image for each of the plurality of high-resolution sample images;
generating a plurality of task networks corresponding to each low-resolution image by training a neural network to receive a low-resolution image and output a corresponding medium-resolution image for each low-resolution image;
for each medium-resolution image, calculating a loss of a task network that receives a medium-resolution image and outputs a corresponding high-resolution sample image; and
generating a meta-learned neural network by updating parameters of the neural network based on losses calculated from a plurality of task networks;
A high-resolution image generating device comprising a.
제1항 내지 제7항 중 어느 한 항의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한, 컴퓨터로 읽을 수 있는 기록 매체.A computer-readable recording medium recording a program for executing the method of any one of claims 1 to 7 on a computer.
KR1020200033090A 2020-03-18 2020-03-18 Method and Device for Fast Adaptation through Meta-learning of Super Resolution Model KR102493492B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200033090A KR102493492B1 (en) 2020-03-18 2020-03-18 Method and Device for Fast Adaptation through Meta-learning of Super Resolution Model

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200033090A KR102493492B1 (en) 2020-03-18 2020-03-18 Method and Device for Fast Adaptation through Meta-learning of Super Resolution Model

Publications (2)

Publication Number Publication Date
KR20210116922A true KR20210116922A (en) 2021-09-28
KR102493492B1 KR102493492B1 (en) 2023-01-27

Family

ID=77923372

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200033090A KR102493492B1 (en) 2020-03-18 2020-03-18 Method and Device for Fast Adaptation through Meta-learning of Super Resolution Model

Country Status (1)

Country Link
KR (1) KR102493492B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113706390A (en) * 2021-10-29 2021-11-26 苏州浪潮智能科技有限公司 Image conversion model training method, image conversion method, device and medium
KR102582736B1 (en) * 2022-08-26 2023-09-25 주식회사 에너자이 A training method of a resolution enhancement model and an alignment model for a barcode image
WO2023214708A1 (en) * 2022-05-06 2023-11-09 삼성전자 주식회사 Image processing device and operation method thereof
KR20240085146A (en) 2022-12-06 2024-06-14 삼성에스디에스 주식회사 Method for model adaptation and system therefor

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Jae Woong Soh et al., "Meta-Transfer Learning for Zero-Shot Super-Resolution," arXiv:2002.12213v1 [cs.CV] 27 Feb 2020 (2020.02.27.)* *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113706390A (en) * 2021-10-29 2021-11-26 苏州浪潮智能科技有限公司 Image conversion model training method, image conversion method, device and medium
WO2023214708A1 (en) * 2022-05-06 2023-11-09 삼성전자 주식회사 Image processing device and operation method thereof
KR102582736B1 (en) * 2022-08-26 2023-09-25 주식회사 에너자이 A training method of a resolution enhancement model and an alignment model for a barcode image
WO2024043717A1 (en) * 2022-08-26 2024-02-29 주식회사 에너자이 Method for training resolution enhancement model and arrangement model for barcode image
KR20240085146A (en) 2022-12-06 2024-06-14 삼성에스디에스 주식회사 Method for model adaptation and system therefor

Also Published As

Publication number Publication date
KR102493492B1 (en) 2023-01-27

Similar Documents

Publication Publication Date Title
KR102493492B1 (en) Method and Device for Fast Adaptation through Meta-learning of Super Resolution Model
US20200349680A1 (en) Image processing method and device, storage medium and electronic device
US11087504B2 (en) Transforming grayscale images into color images using deep neural networks
US10192163B2 (en) Audio processing method and apparatus based on artificial intelligence
US20220222786A1 (en) Image processing method, smart device, and computer readable storage medium
CN110197229B (en) Training method and device of image processing model and storage medium
JP7045483B2 (en) Coding pattern processing methods and devices, electronic devices, and computer programs
WO2022110638A1 (en) Human image restoration method and apparatus, electronic device, storage medium and program product
CN111507333B (en) Image correction method and device, electronic equipment and storage medium
KR102236788B1 (en) Method and Apparatus for Restoring Image
CN112771578B (en) Image generation using subdivision scaling and depth scaling
WO2023035531A1 (en) Super-resolution reconstruction method for text image and related device thereof
CN110223245B (en) Method and system for processing blurred picture in sharpening mode based on deep neural network
Chen et al. Naturalization module in neural networks for screen content image quality assessment
EP4207051A1 (en) Image super-resolution method and electronic device
Guan et al. Srdgan: learning the noise prior for super resolution with dual generative adversarial networks
KR102342526B1 (en) Method and Apparatus for Video Colorization
JP2024517359A (en) Method, apparatus, computer device and computer program for training an image processing network
CN115294055A (en) Image processing method, image processing device, electronic equipment and readable storage medium
CN113628115B (en) Image reconstruction processing method, device, electronic equipment and storage medium
US20220270209A1 (en) Removing compression artifacts from digital images and videos utilizing generative machine-learning models
Hung et al. Image interpolation using convolutional neural networks with deep recursive residual learning
CN110633773A (en) Two-dimensional code generation method and device for terminal equipment
JP2011070283A (en) Face image resolution enhancement device and program
WO2023045627A1 (en) Image super-resolution method, apparatus and device, and storage medium

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant