KR20220165121A - Method and apparatus for progressive image resolution improvement using neural ordinary differential equation, and image super-resolution method using the smae - Google Patents

Method and apparatus for progressive image resolution improvement using neural ordinary differential equation, and image super-resolution method using the smae Download PDF

Info

Publication number
KR20220165121A
KR20220165121A KR1020210073710A KR20210073710A KR20220165121A KR 20220165121 A KR20220165121 A KR 20220165121A KR 1020210073710 A KR1020210073710 A KR 1020210073710A KR 20210073710 A KR20210073710 A KR 20210073710A KR 20220165121 A KR20220165121 A KR 20220165121A
Authority
KR
South Korea
Prior art keywords
image
neural network
resolution
input
input image
Prior art date
Application number
KR1020210073710A
Other languages
Korean (ko)
Other versions
KR102548407B1 (en
Inventor
김태현
박서빈
Original Assignee
한양대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한양대학교 산학협력단 filed Critical 한양대학교 산학협력단
Priority to KR1020210073710A priority Critical patent/KR102548407B1/en
Publication of KR20220165121A publication Critical patent/KR20220165121A/en
Application granted granted Critical
Publication of KR102548407B1 publication Critical patent/KR102548407B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4046Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Processing (AREA)

Abstract

A gradual image resolution enhancement method and apparatus, and an image super-resolution method using the same are disclosed, wherein by expressing the process of gradually changing a low-resolution image into a high-resolution image with an ordinary differential equation including a neural network, the super-resolution problem can be solved by making the same an initial value problem. The gradual image resolution enhancement method comprises the steps of: (a) starting from a first input image by upscaling a first input image, inputting an (N-1)^th (N is a natural number greater than or equal to 2) input image into a neural network, applying a scale factor, and outputting an (N-1)^th residual image from the neural network; (b) generating an N^th input image with the sum of the (N-1)^th residual image and the (N-1)^th input image, wherein the N^th input image is passed as input to the neural network; and (c) repeating the steps (a) and (b) while gradually decreasing the size of the scale factor by a preset size until the scale factor becomes 1. When the scale factor of 1 is applied, a final output image is generated as the sum of a first input image and an accumulated calculation value of image residuals between the (N-1)^th residual image and the N^th residual image.

Description

뉴럴 네트워크가 포함된 상미분 방정식을 이용하는 점진적 이미지 해상도 향상 방법 및 장치와 이를 이용하는 이미지 초해상도 방법{METHOD AND APPARATUS FOR PROGRESSIVE IMAGE RESOLUTION IMPROVEMENT USING NEURAL ORDINARY DIFFERENTIAL EQUATION, AND IMAGE SUPER-RESOLUTION METHOD USING THE SMAE}Gradual image resolution enhancement method and apparatus using ordinary differential equations including neural networks, and image super-resolution method using the same

본 발명은 초해상도를 위한 영상처리 기술에 관한 것으로, 보다 상세하게는, 저해상도 이미지가 고해상도 이미지로 점진적으로 바뀌는 과정을 뉴럴 네트워크를 포함한 상미분 방정식으로 표현함으로써 초해상도 문제를 초기값 문제로 만들어 풀 수 있는, 점진적 이미지 해상도 향상 방법 및 장치와 이를 이용하는 이미지 초해상도 방법에 관한 것이다.The present invention relates to an image processing technology for super-resolution, and more particularly, by expressing the process of gradually changing a low-resolution image into a high-resolution image as an ordinary differential equation including a neural network, the super-resolution problem is solved by making it an initial value problem. It relates to a gradual image resolution enhancement method and apparatus and an image super-resolution method using the same.

최근 초고해상도(ultra-high definition, HUD) 디스플레이가 보급되면서 기존의 상대적 저해상도(low resolution, LR) 이미지를 상대적 고해상도(high resolution, HR) 영상으로 변환하는 초해상도(super resloution, SR) 기술에 대한 관심이 커지고 있다.With the recent spread of ultra-high definition (HUD) displays, research on super resolution (SR) technology converts conventional low resolution (LR) images into relatively high resolution (HR) images. Interest is growing.

기존의 초해상도 기술로는 바이큐빅 보간법(bicubic interpolation)과 같은 다항식 기반의 보간법이나 선형 매핑(linear mapping)을 사용하는 로컬 패치(local patch) 기반의 초해상도 기법 등이 있다.Existing super-resolution techniques include a polynomial-based interpolation method such as bicubic interpolation or a local patch-based super-resolution technique using linear mapping.

최근, 단일 이미지 초해상도(signal image super resolution, SISR)에 관한 연구 중 하나는 LR 이미지 매치와 HR 이미지 패치 사이의 매핑 함수들을 학습하는 것이다. 이러한 기존 연구에서는 서로 다른 종류의 스킵 커넥션들을 적용하여 합성곱 신경망의 최적화 과정을 단순화시키는 결과를 얻었다.Recently, one of the studies on signal image super resolution (SISR) is to learn mapping functions between LR image match and HR image patch. In these previous studies, the results of simplifying the optimization process of convolutional neural networks were obtained by applying different types of skip connections.

한편, 매핑 함수를 사용해 저해상도 패치로부터 바로 고해상도 패치를 복원하는 초해상도 기술은 상대적으로 적은 복잡도와 연산량으로 고품질의 고해상도 영상을 생성해낼 수 있지만, 이러한 종래 기술은 비교적 단순한 선행 매핑을 기반으로 하므로 복잡하고 비선형적인 초해상도 모델을 구현하기가 어렵다.On the other hand, super-resolution technology that uses a mapping function to directly restore a high-resolution patch from a low-resolution patch can generate a high-quality, high-resolution image with relatively little complexity and computation. It is difficult to implement a nonlinear super-resolution model.

이러한 매핑 함수를 사용한 초해상도에서의 문제를 해결하기 위하여, 최근 합성곱 신경망(convolutional neural network, CNN) 등을 이용한 딥러닝(deep learning) 기반 초해상도 알고리즘에 대한 다양한 연구가 진행되고 있다. 기존의 대표적인 연구로는 SISR을 위한 딥러닝 알고리즘의 하나인 VDSR(very-deep supper-resolution), 잔류 밀집 네트워크(residual dense network, RDN), SRCNN(super-resolution convolution neural network) 등이 있다.In order to solve the problem in super-resolution using such a mapping function, various studies on super-resolution algorithms based on deep learning using a convolutional neural network (CNN) have recently been conducted. Representative existing studies include VDSR (very-deep supper-resolution), one of the deep learning algorithms for SISR, residual dense network (RDN), and SRCNN (super-resolution convolution neural network).

그러나, 기존의 딥러닝 기반 초해상도 기법들은 네트워크의 후반부에 해상도를 업샘플링하는 구조를 가지며, 이러한 구조는 저해상도에서 고해상도로 한 번에 매핑을 수행하기 때문에 특히 많은 정보를 예측하는 높은 확대율 혹은 고주파 영역이 많은 이미지에서 초해상도 성능(PSNR: peak signal-to-noise ratio)이 좋지 않으며 초해상도의 중간 과정을 알 수 없고 사전에 정해진 배율로만 초해상도가 가능한 한계가 있다.However, existing deep learning-based super-resolution techniques have a structure of upsampling the resolution in the second half of the network, and since this structure performs mapping from low resolution to high resolution at once, especially in high magnification or high frequency areas that predict a lot of information In this many images, the peak signal-to-noise ratio (PSNR) performance is poor, the intermediate process of super-resolution is unknown, and there is a limit to super-resolution only at a pre-determined magnification.

본 발명의 전술한 종래 기술의 한계를 넘을 수 있는 딥러닝 기반 초해상도 기술을 제공하기 위한 것으로, 본 발명의 목적은 뉴럴 네트워크가 포함된 상미분 방정식 즉, NODE(Neural Ordinary Differential Equation)를 이용해 점진적으로 이미지의 해상도를 향상시키는 방법 및 장치와 이미지를 초해상도하는 방법을 제공하는데 있다.To provide a deep learning-based super-resolution technology that can overcome the limitations of the above-mentioned prior art of the present invention, an object of the present invention is to use an ordinary differential equation including a neural network, that is, NODE (Neural Ordinary Differential Equation) It is to provide a method of improving the resolution of an image and a method of super-resolution a device and an image.

본 발명의 다른 목적은, 이미지의 초해상도에 있어서 단순히 초해상도를 하는데 그치지 않고 상미분 방정식을 푸는 과정의 중간 이미지들을 분석해 이미지가 저해상도에서 고해상도로 바뀌는 과정을 관찰하거나 분석할 수 있는, 점진적 이미지 해상도 향상 방법 및 장치와 이미지 초해상도 방법을 제공하는데 있다.Another object of the present invention is a gradual image resolution that can observe or analyze the process of changing an image from low resolution to high resolution by analyzing intermediate images in the process of solving an ordinary differential equation, rather than simply doing super resolution in the super resolution of an image. An enhancement method and apparatus and an image super-resolution method are provided.

본 발명의 또 다른 목적은, 전술한 점진적 이미지 해상도 향상 방법이나 이미지 초해상도 방법을 이용하는 이미지 초해상도 장치를 제공하는데 있다.Another object of the present invention is to provide an image super-resolution device using the above-described gradual image resolution enhancement method or image super-resolution method.

상기 기술적 과제를 해결하기 위한 본 발명의 일 측면에 따른 점진적 이미지 해상도 향상 방법은, 최초 입력 이미지를 업스케일링한 제1 번째 입력 이미지로부터 시작하여, 제N-1 번째(N은 2 이상의 자연수) 입력 이미지를 뉴럴 네트워크에 입력하고 스케일 팩터를 적용하여 뉴럴 네트워크에서 제N-1 번째 잔차 이미지를 출력하는 단계(a); 제N-1 번째 잔차 이미지와 제N-1 번째 입력 이미지의 합으로 제N 번째 입력 이미지를 생성하는 단계(b)-여기서 제N 번째 입력 이미지는 뉴럴 네트워크의 입력으로 전달됨-; 및 스케일 팩터가 1이 될 때까지 스케일 팩터의 크기를 미리 설정된 크기만큼 점진적으로 감소시키면서 단계(a) 및 단계(b)를 반복 수행하는 단계(c)를 포함한다. 그리고 스케일 팩터가 1로 적용될 때 제N-1 번째 잔차 이미지와 제N 번째 잔차 이미지 간의 이미지 잔차들에 대한 누적 계산 값과 제1 번째 입력 이미지의 합으로 최종 출력 이미지가 생성된다.In the gradual image resolution enhancement method according to an aspect of the present invention for solving the above technical problem, starting from the first input image obtained by upscaling the first input image, the N-1th (N is a natural number greater than or equal to 2) input (a) outputting an N-1 th residual image from the neural network by inputting the image to the neural network and applying a scale factor; (b) generating an N-th input image from the sum of the N-1-th residual image and the N-1-th input image, wherein the N-th input image is transmitted as an input of the neural network; and (c) repeating steps (a) and (b) while gradually decreasing the size of the scale factor by a preset size until the scale factor becomes 1. When a scale factor of 1 is applied, a final output image is generated as a sum of a cumulative calculation value of image residuals between the N−1 th residual image and the N th residual image and the first input image.

일실시예에서, 스케일 팩터는 1보다 큰 유리수(rational number) 값일 수 있다.In one embodiment, the scale factor may be a rational number value greater than one.

일실시예에서, 스케일 팩터는 뉴럴 네트워크에 추가되는 입력으로, 뉴럴 네트워크의 반복 동작마다 등차적, 선형적, 등비적 또는 비선형적으로 순차 감소하는 값일 수 있다.In an embodiment, the scale factor is an input added to the neural network, and may be a value that sequentially decreases in a geometrical, linear, geometrical, or non-linear manner for each repetition of the neural network.

일실시예에서, 상기 누적 계산한 값은 하기 수학식 4로 표현되는 상미분 방정식(ODE: ordinary differential equation)으로 모델링될 수 있다:In one embodiment, the cumulatively calculated value may be modeled as an ordinary differential equation (ODE) represented by Equation 4 below:

[수학식 4][Equation 4]

Figure pat00001
Figure pat00001

수학식 4에서,

Figure pat00002
은 상기 최종 출력 이미지를,
Figure pat00003
는 초기 스케일 팩터(to)가 적용된 상기 제1 번째 입력 이미지를,
Figure pat00004
는 상기 뉴럴 네트워크의 입력 이미지에 점진적으로 감소되는 스케일 팩터(t)가 적용된 이미지를, f()dt는 스케일 팩터(t)가 추가 입력되는 상기 뉴럴 네트워크의 입력 이미지와 출력 이미지 간의 이미지 잔차에 대한 상미분 방정식을,
Figure pat00005
는 상기 뉴럴 네트워크의 트레이닝 가능한 파라미터를 각각 나타낸다.In Equation 4,
Figure pat00002
is the final output image,
Figure pat00003
Is the first input image to which the initial scale factor (t o ) is applied,
Figure pat00004
is an image to which a gradually reduced scale factor (t) is applied to the input image of the neural network, and f()dt is an image residual between the input image and the output image of the neural network to which the scale factor (t) is additionally input. an ordinary differential equation,
Figure pat00005
denotes trainable parameters of the neural network, respectively.

일실시예에서, 상기

Figure pat00006
는 원본 이미지(I_HR)을 t배 줄이고, 이것을 다시 t배 키운 이미지가 된다. 여기서, 이미지를 줄이고 키우는 방식 즉, 업스케일링(upscaling)이나 다운스케일링(downscaling) 방법은 바이큐빅(bicubic) 방법이나 다른 선형 보간 방법이 사용될 수 있다.In one embodiment, the
Figure pat00006
is reduced by t times the original image (I_HR), and becomes an image enlarged by t times again. Here, a bicubic method or another linear interpolation method may be used as a method of reducing and enlarging an image, that is, an upscaling or downscaling method.

일실시예에서, 상기 누적 계산한 값은 ODE 솔버(solver)에 의해 수치적으로(numerically) 계산될 수 있다. ODE 솔버는 오일러(Euler) 방법, 룬게쿠타(Runge-Kutta) 방법, Heun 방법, 중점(Midpoint) 방법, 적응적 룬게쿠타 방법 중에서 선택되는 어느 하나 이상을 포함할 수 있다.In one embodiment, the cumulatively calculated value may be calculated numerically by an ODE solver. The ODE solver may include one or more selected from the Euler method, the Runge-Kutta method, the Heun method, the midpoint method, and the adaptive Runge-Kutta method.

일실시예에서, 뉴럴 네트워크는 수학식 6으로 표현되는 손실함수를 최소화하도록 파라미터를 훈련할 수 있다:In one embodiment, a neural network can be trained with parameters to minimize the loss function represented by Equation 6:

[수학식 6][Equation 6]

Figure pat00007
Figure pat00007

수학식 6에서,

Figure pat00008
는 파라미터
Figure pat00009
를 훈련하여 손실함수를 최소화하는 수학식을,
Figure pat00010
은 상대적 고해상도(HR: high resolution)의 훈련용 원본 이미지를, 그리고 ODESolove()는 ODE 솔버 함수를 각각 나타낸다.In Equation 6,
Figure pat00008
is the parameter
Figure pat00009
The equation for minimizing the loss function by training
Figure pat00010
represents the original training image of relative high resolution (HR), and ODESolove() represents the ODE solver function, respectively.

일실시예에서, 점진적 이미지 해상도 향상 방법은, 뉴럴 네트워크의 파라미터를 역전파를 통해 업데이트하는 단계를 더 포함할 수 있다.In one embodiment, the progressive image resolution enhancement method may further include updating parameters of the neural network through backpropagation.

상기 기술적 과제를 해결하기 위한 본 발명의 다른 측면에 따른 점진적 이미지 해상도 향상 장치는, 프로세서; 프로세서와 전자적으로 연결된 메모리; 및 메모리에 저장된 명령어들을 포함하고, 프로세서에 의해 실행될 때, 명령어들은 프로세서가, 최초 입력 이미지를 업스케일링한 제1 번째 입력 이미지를 시작으로, 제N-1 번째(N은 2 이상의 자연수) 입력 이미지를 뉴럴 네트워크에 입력하고 스케일 팩터를 적용하여 뉴럴 네트워크에서 제N-1번째 잔차 이미지를 출력하는 단계(a); 제N-1 번째 잔차 이미지와 제N-1 번째 입력 이미지의 합으로 제N 번째 입력 이미지를 생성하는 단계(b)-여기서 제N 번째 입력 이미지는 상기의 뉴럴 네트워크의 입력으로 전달됨-; 및 스케일 팩터가 1이 될 때까지 스케일 팩터의 크기를 미리 설정된 크기만큼 점진적으로 감소시키면서 단계(a) 및 단계(b)를 반복 수행하는 단계(c); 및 스케일 팩터가 1로 적용될 때 제N-1 번째 잔차 이미지와 제N 번째 입력 이미지 간의 이미지 잔차들을 누적 계산한 값과 제1 번째 입력 이미지의 합으로 최총 출력 이미지를 생성하는 단계(d)를 수행하도록 한다.A gradual image resolution enhancement device according to another aspect of the present invention for solving the above technical problem includes a processor; memory electronically connected to the processor; and instructions stored in the memory, which, when executed by the processor, start with the first input image obtained by upscaling the first input image by the processor, and start with the N-1th (N is a natural number greater than or equal to 2) input image. (a) outputting an N-1 th residual image from the neural network by inputting to the neural network and applying a scale factor; (b) generating an N-th input image from the sum of the N-1-th residual image and the N-1-th input image, where the N-th input image is transmitted as an input of the neural network; and (c) repeatedly performing steps (a) and (b) while gradually decreasing the size of the scale factor by a preset size until the scale factor becomes 1; and a step (d) of generating a total output image as a sum of a value obtained by accumulatively calculating image residuals between the N-1 th residual image and the N th input image when the scale factor is applied as 1 and the first input image. let it do

상기 기술적 과제를 해결하기 위한 본 발명의 또 다른 측면에 따른 이미지 초해상도 방법은, 프로세서에 의해 수행되는 이미지 초해상도 방법에 있어서, 입력 이미지가 입력되는 뉴럴 네트워크의 출력 이미지를 상기 뉴럴 네트워크의 입력 이미지로 다시 입력하는 단계; 뉴럴 네트워크에 입력 이미지가 입력될 때마다 뉴럴 네트워크에 점진적으로 그 크기가 다르게 설정되는 스케일 팩터들을 순차적으로 제공하는 단계; 뉴럴 네트워크의 반복 동작마다 뉴럴 네트워크의 입력 이미지와 출력 이미지 간의 이미지 잔차를 상미분 방정식을 이용하여 계산하고 계산된 값들을 누적하거나 갱신하는 단계; 및 갱신하는 단계에서 얻은 최종 이미지 잔차와 최초 입력 이미지를 합하여 상대적 고해상도의 최종 출력 이미지를 생성하는 단계를 포함한다.In the image super-resolution method according to another aspect of the present invention for solving the above technical problem, in the image super-resolution method performed by a processor, an output image of a neural network to which an input image is input is converted into an input image of the neural network. re-entering as; sequentially providing scale factors, the sizes of which are gradually set to be different, to the neural network whenever an input image is input to the neural network; calculating an image residual between an input image and an output image of the neural network by using an ordinary differential equation for each repetitive operation of the neural network and accumulating or updating the calculated values; and generating a relatively high-resolution final output image by summing the final image residual obtained in the updating step and the initial input image.

일실시예에서, 상기 제공하는 단계는 뉴럴 네트워크의 첫번째 레이어에 입력 이미지에 더하여 스케일 팩터를 추가 입력한다.In one embodiment, the providing step additionally inputs a scale factor to the first layer of the neural network in addition to the input image.

일실시예에서, 상기 입력하는 단계 및 상기 제공하는 단계는, 입력 이미지를 기준으로 1보다 큰 유리수의 크기를 가진 스케일 팩터에 대응하여 입력 이미지의 가장자리에 패딩을 추가하고 패딩이 추가된 입력 이미지의 중앙 픽셀을 중심으로 입력 이미지의 원래 사이즈에 대응하도록 센터 크롭핑(center cropping)을 수행할 수 있다.In one embodiment, the inputting and the providing may include adding padding to an edge of the input image in response to a scale factor having a size of a rational number greater than 1 based on the input image, and displaying the input image to which the padding is added. Center cropping may be performed to correspond to the original size of the input image around the center pixel.

일실시예에서, 뉴럴 네트워크는 RDN(Residual Dense Network)를 포함할 수 있다. RDN은 최종 업샘플링 레이어(last upsampling layer)가 생략된 형태를 가져 입력 해상도와 출력 해상도가 동일하게 형성될 수 있다.In one embodiment, the neural network may include a residual dense network (RDN). The RDN has a form in which the last upsampling layer is omitted, so that the input resolution and the output resolution may be identical.

일실시예에서, 이미지 초해상도 방법은, 뉴럴 네트워크를 훈련하는 단계를 더 포함할 수 있다. 훈련하는 단계는, 상미분 방정식을 통해 뉴럴 네트워크의 입력 이미지와 출력 이미지 간의 이미지 잔차를 통해 이미지 디테일을 추정하고 상기 이미지 디테일을 상기 뉴럴 네트워크 수행 시마다 갱신하거나 누적하여 상기 최초 입력 이미지에 더하는 단일 훈련 과정을, 서로 다른 스케일 팩터 세트들에 대해 수행하여 미리 설정된 손실 함수가 최소 값이 되거나 미리 설정된 기준 값 이하가 되도록 수행될 수 있다.In one embodiment, the image super-resolution method may further include training a neural network. The training step is a single training process of estimating image details through an image residual between an input image and an output image of the neural network through an ordinary differential equation, updating or accumulating the image details each time the neural network is performed, and adding them to the first input image. may be performed for different scale factor sets so that the preset loss function becomes a minimum value or less than a preset reference value.

본 발명에 의하면, 뉴럴 네트워크가 포함된 상미분 방정식 즉, NODE(Neural Ordinary Differential Equation)를 이용해 점진적으로 이미지를 초해상도하는 방법을 채용함으로써, 뉴럴 네트워크가 저해상도를 고해상도로 만들 수 있는 정보를 학습하고, 상미분 방정식이 여러 가지 해상도의 이미지 간의 관계를 표현할 수 있으며, 그에 의해 초해상도 작업에서 합성곱 신경망(Convolutional Neural Network, CNN)을 이용한 기존의 방법보다 성능이 우수하고 원하는 임의 배율로 초해상도를 수행할 수 있는 장점이 있다.According to the present invention, by adopting a method of gradually super-resolution an image using an ordinary differential equation that includes a neural network, that is, a Neural Ordinary Differential Equation (NODE), the neural network learns information that can make a low resolution into a high resolution , Ordinary differential equations can express the relationship between images of various resolutions, thereby outperforming conventional methods using convolutional neural networks (CNNs) in super-resolution tasks, and super-resolution There are advantages to doing it.

또한, 본 발명에 의하면, 텔레비전(TV), 스마트폰 등에서 원하는 임의 배율로 이미지를 키우고자 할 때 효과적으로 활용할 수 있고, 어도비 포토샵(Adobe Photoshop), 어도비 프리미어 프로(Adobe Premiere Pro) 등과 같은 이미지 편집기나 영상 편집 응용소프트웨어에서 이미지나 영상을 키우고자 할 때 효과적으로 사용할 수 있다. 아울러, 이미지 편집기나 비디오 편집기 혹은 CCTV(closed circuit television) 운영/관리/제어 프로그램 등의 소프트웨어에서 필요로 하는 초해상도 방안을 효과적으로 제공할 수 있다.In addition, according to the present invention, it can be effectively used when an image is to be enlarged at a desired magnification on a television (TV), smartphone, etc., and image editors such as Adobe Photoshop, Adobe Premiere Pro, etc. It can be used effectively when you want to grow images or videos in video editing application software. In addition, it is possible to effectively provide a super-resolution method required by software such as an image editor, a video editor, or a closed circuit television (CCTV) operation/management/control program.

도 1은 본 발명의 일실시예에 따른 점진적 이미지 해상도 향상 방법에 대한 흐름도이다.
도 2는 도 1의 점진적 이미지 해상도 향상 방법을 설명하기 위한 개념도이다.
도 3은 도 2의 점진적 이미지 해상도 향상 방법 중 뉴럴 네트워크의 입력 및 출력을 예시한 도면이다.
도 4는 본 발명의 다른 실시예에 따른 점진적 이미지 해상도 향상 장치에 대한 블록도이다.
도 5는 본 발명의 또 다른 실시예에 따른 이미지 초해상도 장치에 대한 블록도이다.
도 6은 도 5의 이미지 초해상도 장치에 채용할 수 있는 전처리부의 상세 구성에 대한 블록도이다.
도 7은 도 5의 이미지 초해상도 장치에 채용할 수 있는 훈련처리부의 상세 구성에 대한 블록도이다.
도 8은 도 5의 이미지 초해상도 장치에 채용할 수 있는 이미지 초해상도 방법을 설명하기 위한 흐름도이다.
도 9는 본 실시예의 초해상도 방법(NODE-RDN)과 비교예의 초해상도 방법들(DRRN, SRFBN)의 초해상도 결과를 비교하여 보여주는 도면이다.
도 10은 본 실시예의 초해상도 방법(NODE-RDN)과 비교예의 초해상도 방법들(DRRN, SRFBN)의 또 다른 초해상도 결과를 비교하여 보여주는 도면이다.
도 11은 본 실시예의 초해상도 방법(NODE-RDN)과 비교예의 초해상도 방법(Meta-RDN)의 초해상도 결과를 비교하여 보여주는 도면이다.
도 12는 본 실시예의 초해상도 방법들(NODE-RDN, NODE-VDSR)에서 스케일 팩터를 변경하면서 평가한 성능(PSNR)을 나타낸 그래프이다.
도 13은 본 실시예의 이미지 초해상도 방법에 채용할 수 있는 스케일 팩터의 설정 원리를 중간 이미지 잔차들의 세기에 기초하여 설명하기 위한 그래프이다.
1 is a flowchart of a method for gradually increasing image resolution according to an embodiment of the present invention.
FIG. 2 is a conceptual diagram illustrating the gradual image resolution enhancement method of FIG. 1 .
FIG. 3 is a diagram illustrating input and output of a neural network in the gradual image resolution enhancement method of FIG. 2 .
4 is a block diagram of an apparatus for gradually increasing image resolution according to another embodiment of the present invention.
5 is a block diagram of an image super-resolution device according to another embodiment of the present invention.
FIG. 6 is a block diagram of a detailed configuration of a pre-processing unit that can be employed in the image super-resolution device of FIG. 5 .
FIG. 7 is a block diagram of a detailed configuration of a training processing unit that can be employed in the image super-resolution device of FIG. 5 .
FIG. 8 is a flowchart for explaining an image super-resolution method employable in the image super-resolution apparatus of FIG. 5 .
9 is a diagram showing a comparison of super-resolution results of the super-resolution method (NODE-RDN) of this embodiment and the super-resolution methods (DRRN, SRFBN) of the comparative example.
10 is a diagram showing a comparison of another super-resolution result of a super-resolution method (NODE-RDN) of this embodiment and super-resolution methods (DRRN, SRFBN) of a comparative example.
11 is a diagram showing a comparison of super-resolution results of a super-resolution method (NODE-RDN) of this embodiment and a super-resolution method (Meta-RDN) of a comparative example.
12 is a graph showing the performance (PSNR) evaluated while changing the scale factor in the super-resolution methods (NODE-RDN, NODE-VDSR) of the present embodiment.
13 is a graph for explaining a principle of setting a scale factor that can be employed in the image super-resolution method of the present embodiment based on the strength of intermediate image residuals.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다. Since the present invention can make various changes and have various embodiments, specific embodiments will be illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the present invention to specific embodiments, and should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention. Like reference numerals have been used for like elements throughout the description of each figure.

제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는 데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. "및/또는"이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다. Terms such as first, second, A, and B may be used to describe various components, but the components should not be limited by the terms. These terms are only used for the purpose of distinguishing one component from another. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element, without departing from the scope of the present invention. The term “and/or” includes any combination of a plurality of related listed items or any of a plurality of related listed items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. It is understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, but other elements may exist in the middle. It should be. On the other hand, when an element is referred to as “directly connected” or “directly connected” to another element, it should be understood that no other element exists in the middle.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms used in this application are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this application, the terms "include" or "have" are intended to designate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, but one or more other features It should be understood that the presence or addition of numbers, steps, operations, components, parts, or combinations thereof is not precluded.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and unless explicitly defined in this application, it should not be interpreted in an ideal or excessively formal meaning. don't

이하, 본 발명에 따른 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명한다. Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일실시예에 따른 점진적 이미지 해상도 향상 방법에 대한 흐름도이다.1 is a flowchart of a method for gradually increasing image resolution according to an embodiment of the present invention.

도 1을 참조하면, 점진적 이미지 해상도 향상 방법은, 먼저 단계(a)에서, 최초 입력 이미지를 업스케일링한 제1 번째 입력 이미지로부터 시작하여, 제N-1 번째(N은 2 이상의 자연수) 입력 이미지를 뉴럴 네트워크에 입력하고 스케일 팩터를 적용하여 뉴럴 네트워크에서 제N-1 번째 잔차 이미지를 출력한다(S11).Referring to FIG. 1 , in step (a), starting from a first input image obtained by upscaling the first input image, the gradual image resolution enhancement method starts with an N-1th (N is a natural number greater than or equal to 2) input image. is input to the neural network and a scale factor is applied to output an N-1 th residual image from the neural network (S11).

제1 번째 입력 이미지는 제1 해상도를 가진 원본 이미지를 제1 해상도보다 높은 제2 해상도의 출력 이미지를 고려할 때, 출력 이미지가 제1 해상도를 가질 때의 크기(예컨대 M배)에 대응하도록 업샘플링(upsampling) 혹은 업스케일링(upscaling)을 통해 변환된 이미지를 가리킨다.The first input image is upsampled to correspond to the size (for example, M times) when the output image has the first resolution, considering the output image of the second resolution higher than the first resolution of the original image having the first resolution. Refers to an image converted through upsampling or upscaling.

또한 제1 번째 입력 이미지는 뉴럴 네트워크의 훈련 모드(traning mode)에서 상대적 고해상도의 최초 원본 이미지를 먼저 소정 크기(예컨대 1/M배)로 다운스케일링(downscaling) 후 다시 소정 크기(예컨대 M배)로 업스케일링을 처리한 이미지에 대응될 수 있다.In addition, the first input image is first downscaled to a predetermined size (eg, 1/M times) of the first relatively high-resolution original image in the training mode of the neural network, and then again to a predetermined size (eg, M times). It may correspond to an image subjected to upscaling.

제1 번째 입력 이미지를 위한 다운스케일링이나 업스케일링은, 불연속적으로 주어진 이미지 내 점들을 이용하여 이 점들 사이의 값을 추정하는 보간법이나 초해상도 커널(kernel) 등을 통해 처리될 수 있다. 보간법 혹은 초해상도 커널은 선형 보간(linear interpolation), 바이큐빅(bicubic) 보간, 쌍선형(bilinear) 보간, 쌍삼차(bicubic) 보간 등을 포함할 수 있다.Downscaling or upscaling for the first input image may be processed through an interpolation method or a super-resolution kernel for estimating a value between points in an image given discontinuously. The interpolation method or super-resolution kernel may include linear interpolation, bicubic interpolation, bilinear interpolation, bicubic interpolation, and the like.

다음, 단계(b)에서, 제N-1 번째 잔차 이미지와 제N-1 번째 입력 이미지의 합으로 제N 번째 입력 이미지를 획득한다(S12). 여기서, 제N 번째 입력 이미지는 뉴럴 네트워크의 입력으로 전달된다.Next, in step (b), an N-th input image is obtained as a sum of the N-1 th residual image and the N-1 th input image (S12). Here, the Nth input image is transmitted as an input of the neural network.

다음, 단계(c)에서, 스케일 팩터가 1이 될 때까지 스케일 팩터의 크기를 미리 설정된 크기만큼 점진적으로 감소시키면서 단계(a) 및 단계(b)를 반복 수행한다. 이를 위해, 점진적으로 감소된 값으로 입력되는 현재의 스케일 팩터가 1인지를 판단하고(S13), 현재의 스케일 팩터가 1이 아니면, 뉴럴 네트워크의 현재의 출력 이미지를 다시 뉴럴 네트워크의 새로운 입력 이미지로 전달하면서 뉴럴 네트워크의 이전 입력 이미지와 현재의 출력 이미지 간의 차이 즉, 이미지 잔차를 상미분 방정식으로 계산하는 과정을 반복하고, 이러한 반복 과정은 스케일 팩터가 1이 될 때까지 수행될 수 있다(S14).Next, in step (c), steps (a) and (b) are repeatedly performed while gradually decreasing the size of the scale factor by a preset size until the scale factor becomes 1. To this end, it is determined whether the current scale factor input as a gradually reduced value is 1 (S13), and if the current scale factor is not 1, the current output image of the neural network is converted into a new input image of the neural network again. While transferring, the process of calculating the difference between the previous input image and the current output image of the neural network, that is, the image residual, by an ordinary differential equation is repeated, and this iterative process can be performed until the scale factor becomes 1 (S14). .

상미분 방정식은 미지 함수와 종속 변수가 하나의 독립변수를 가지는 함수인 미분 방정식을 말하는 것으로, 본 실시예에서 미지 함수는 뉴럴 네트워크에 대응하고, 종속 변수는 스케일 팩터와 뉴럴 네트워크의 파라미터에 대응된다.An ordinary differential equation refers to a differential equation in which an unknown function and a dependent variable are functions having one independent variable. In this embodiment, the unknown function corresponds to a neural network, and the dependent variable corresponds to a scale factor and parameters of the neural network. .

뉴럴 네트워크의 파라미터는 뉴럴 네트워크의 계층들 중 이전 계층에서 현재 계층으로 전달되는 입력값에 곱해지는 가중치(weight)를 나타내며, 이러한 파라미터는 뉴럴 네트워크의 계층 내에 사용되는 활성화 함수의 종류에 따라 그 초기값이 다르게 설정될 수 있다. 활성화 함수는 소정의 임계점을 설정하고 그 출력값에 변화를 주는 함수를 말하며, 렐루(ReLU) 함수, 시그모이드(Sigmoid) 함수 등을 포함한다.A parameter of a neural network represents a weight that is multiplied by an input value passed from a previous layer to a current layer among layers of the neural network. can be set differently. The activation function refers to a function that sets a predetermined threshold and changes an output value, and includes a ReLU function, a sigmoid function, and the like.

본 실시예에서, 점진적 이미지 해상도 향상 방법을 구현하는 프로세서나 이러한 프로세서를 구비하는 점진적 이미지 해상도 향상 장치의 최종 출력 이미지는, 기본적으로 스케일 팩터가 1로 적용될 때 제N-1 번째 잔차 이미지와 제N 번째 잔차 이미지 간의 이미지 잔차들에 대한 누적 계산 값과 제1 번째 입력 이미지를 합하여 생성될 수 있다.In this embodiment, the final output image of the processor implementing the gradual image resolution enhancement method or the gradual image resolution enhancement device having such a processor is basically the N-1th residual image and the Nth residual image when a scale factor of 1 is applied. It may be generated by summing the cumulative calculation value of the image residuals between the th residual images and the first input image.

또한, 본 실시예에서, 초기 스케일 팩터의 값은 1보다 큰 유리수(rational number)이다. 이러한 스케일 팩터는 이미지 입력에 더하여 뉴럴 네트워크에 추가되는 입력으로서, 뉴럴 네트워크의 반복 동작마다 등차적, 선형적, 등비적 또는 비선형적으로 순차 감소하는 값일 수 있다.Also, in this embodiment, the value of the initial scale factor is a rational number greater than 1. This scale factor is an input added to the neural network in addition to the image input, and may be a value that sequentially decreases in a geometrical, linear, geometrical, or nonlinear manner for each repetitive operation of the neural network.

또한, 스케일 팩터는 해상도를 향상시키고자 하는 원본 이미지의 종류나 내용 예컨대, 사람의 얼굴 중 홍채가 보이는 눈 등과 같이 상대적으로 고주파 영역을 많이 포함하는 제1 이미지인 경우, 사람의 얼굴 중 뺨 등과 같이 상대적으로 저주파 영역을 많이 포함하는 제2 이미지인 경우 등에 따라, 서로 다른 크기의 초기 스케일 팩터를 사용하거나 서로 다른 간격에서 점진적으로 감소하는 스케일 팩터들을 사용하도록 설계될 수 있다.In addition, the scale factor is the type or content of the original image to be improved in resolution, for example, in the case of a first image including a relatively high frequency region, such as an eye with an iris of a human face, such as a cheek of a human face. Depending on the case of the second image including a relatively large number of low-frequency regions, it may be designed to use initial scale factors of different sizes or to use scale factors that gradually decrease at different intervals.

또한, 상기의 N(2 이상의 자연수)은 가장 큰 스케일 팩터 값과 1 사이의 간격에 의해 정해지는 개수에 따라 정해진다. 가장 큰 스케일 팩터는 이미지 해상도를 향상하고자 하는 대상 원본 이미지의 종류, 내용 예컨대, 고주파 영역이나 저주파 영역의 비율 등에 따라 설계될 수 있다. 특히, 본 실시예에서는 딥러닝(deep learning)을 통해 원본 이미지의 종류에 따라 여러 스케일 팩터 세트들에 기초하여 학습을 수행함으로써 뉴럴 네트워크의 가중치 또는 파라미터를 최적화할 수 있다.In addition, N (a natural number of 2 or more) is determined according to the number determined by the interval between the largest scale factor value and 1. The largest scale factor may be designed according to the type and contents of the target original image for which image resolution is to be improved, for example, a ratio of a high-frequency region or a low-frequency region. In particular, in this embodiment, weights or parameters of the neural network may be optimized by performing learning based on several scale factor sets according to the type of original image through deep learning.

도 2는 도 1의 점진적 이미지 해상도 향상 방법을 설명하기 위한 개념도이다. 도 3은 도 2의 점진적 이미지 해상도 향상 방법 중 뉴럴 네트워크의 입력 및 출력을 예시한 도면이다.FIG. 2 is a conceptual diagram illustrating the gradual image resolution enhancement method of FIG. 1 . FIG. 3 is a diagram illustrating input and output of a neural network in the gradual image resolution enhancement method of FIG. 2 .

도 2을 참조하면, 점진적 이미지 해상도 향상 방법은, 초해상도(super resolution, SR) 문제를 초기값 문제(initial value problem)로 만들어 상미분 방정식(ordinary differential equation, ODE)로 푸는 점진적 초해상도 프로세스로 공식화하고 이를 이용하여 뉴럴 네트워크를 기반으로 이미지 초해상도를 구현한다.Referring to FIG. 2, the gradual image resolution improvement method is a gradual super-resolution process in which a super resolution (SR) problem is made into an initial value problem and solved by an ordinary differential equation (ODE). Formulate and use it to implement image super-resolution based on neural networks.

즉, 이미지 초해상도의 구현을 위해, 반복적 다중 스테이지 기반의 뉴럴 네트워크와, 전처리된 최초 입력 이미지와, 최초 입력 이미지 및 상기의 뉴럴 네트워크에 기반하고 연속적인 SR 프로세스에서 최소 이미지 차이를 이용하는 모델 즉, 초해상도 모델을 준비한다.That is, for the implementation of image super-resolution, a model using an iterative multi-stage based neural network, a preprocessed initial input image, and a minimum image difference in a continuous SR process based on the initial input image and the neural network, that is, Prepare a super-resolution model.

좀더 구체적으로 설명하면, 먼저 반복적인 다중 스테이지(multi-stage)를 이용하는 뉴럴 네트워크를 준비한다.More specifically, first, a neural network using an iterative multi-stage is prepared.

반복적인 다중 스테이지를 기반으로 하는 뉴럴 네트워크의 입력 이미지와 출력 이미지 간의 관계를 일반적인 수식으로 나타내면 다음의 수학식 1과 같이 표현할 수 있다.The relationship between an input image and an output image of a neural network based on iterative multiple stages can be expressed as Equation 1 below.

Figure pat00011
Figure pat00011

수학식 1에서,

Figure pat00012
은 반복적으로 재차 정의되는 중간 이미지들(n<N인 경우) 또는 최종 이미지(n=N인 경우)를,
Figure pat00013
은 현재의 중간 이미지나 최종 이미지 직전의 이전 이미지 또는 최초 이미지(n=2인 경우)를,
Figure pat00014
()은 이전 이미지에 적용되는 초해상도 네크워크 또는 뉴럴 네트워크를, n은 반복 단계를, 그리고 N은 반복 횟수를 각각 나타낸다.In Equation 1,
Figure pat00012
Is the intermediate images (in the case of n < N) or the final image (in the case of n = N) that are repeatedly redefined,
Figure pat00013
is the current intermediate image or the previous image immediately before the final image or the first image (in the case of n = 2),
Figure pat00014
() represents the super-resolution network or neural network applied to the previous image, n represents the iteration step, and N represents the number of iterations, respectively.

즉, 본 실시예에서는 제1 번째 입력 이미지

Figure pat00015
를 뉴럴 네트워크(f)에 제1 스케일 팩터(t0)와 함께 입력하고, 뉴럴 네트워크에서 나온 잔차 이미지를 제1 번째 입력 이미지와 합한 제1 출력 이미지
Figure pat00016
를 뉴럴 네트워크의 제2 번째 입력 이미지로 입력할 수 있다.That is, in this embodiment, the first input image
Figure pat00015
is input into the neural network (f) together with the first scale factor (t0), and the first output image is obtained by adding the residual image from the neural network to the first input image.
Figure pat00016
may be input as the second input image of the neural network.

이와 같이, 본 실시예에 따른 반복적인 다중 스테이지 기반의 뉴럴 네트워크는, 출력단에 제1 병합부를 구비한 뉴럴 네트워크 또는 뉴럴 네트워크 모델로서, 제N-1 번째 입력 이미지

Figure pat00017
와 제N-1 스케일 팩터를 입력으로 받고, 제N-1 번째 입력 이미지
Figure pat00018
와 제N-1 번째 잔차 이미지에 기반한 제N 번째 출력 이미지
Figure pat00019
를 출력할 수 있다.As such, the repetitive multi-stage based neural network according to the present embodiment is a neural network or neural network model having a first merging unit at an output stage, and is an N-1th input image.
Figure pat00017
and the N-1th scale factor as input, and the N-1th input image
Figure pat00018
and the Nth output image based on the N-1th residual image.
Figure pat00019
can output

다음으로, 원본 이미지로부터 전처리된 최초 입력 이미지를 준비한다. 원본 이미지는, 뉴럴 네트워크의 훈련 모드에서, 최초 원본 이미지 또는 깨끗한 원본 이미지(ground-truth clean image)

Figure pat00020
를 바이큐빅(bicubic) 등의 기존의 SR 커널을 이용하여 제1 스케일 팩터(예컨대, 1/t)로 다운스케일한 버전일 수 있다. 그리고 최초 입력 이미지 즉, 제1 번째 입력 이미지
Figure pat00021
는, 원본 이미지를 SR 커널을 이용하여 제2 스케일 팩터(예컨대, t)로 업스케일한 것으로 정의될 수 있다.Next, a first input image preprocessed from the original image is prepared. The original image is, in the training mode of the neural network, the original original image or the ground-truth clean image.
Figure pat00020
may be a downscaled version with a first scale factor (eg, 1/t) using an existing SR kernel such as bicubic. And the first input image, that is, the first input image
Figure pat00021
, may be defined as up-scaling the original image with a second scale factor (eg, t) using the SR kernel.

여기서 깨끗한 원본 이미지

Figure pat00022
와 제1 번째 입력 이미지는 동일한 공간 해상도(spatial resolution)를 가진다. 깨끗한 원본 이미지
Figure pat00023
는 상대적인 고해상도(high resolution, HR) 이미지에 대응하고, 제1 번째 입력 이미지는 상대적인 저해상도(low resolution, LR) 이미지에 대응될 수 있다.clean original image here
Figure pat00022
and the first input image have the same spatial resolution. clean original image
Figure pat00023
may correspond to a relatively high resolution (HR) image, and the first input image may correspond to a relatively low resolution (LR) image.

다음으로, 연속적인 영역(domain)에 대해 점진적으로 변하는 스케일 팩터를 설정하고 뉴럴 네트워크가 이러한 스케일 팩터들 중 하나를 순차적으로 입력으로 가지도록 설계한다.Next, a gradually changing scale factor is set for a continuous domain, and a neural network is designed to sequentially have one of these scale factors as an input.

이를 위해, 먼저 뉴럴 네트워크로 고주파 이미지 잔차(high frequency image residual)를 계산하도록 설계한다. 구체적으로, 스케일 팩터(t)를 1보다 큰 유리수의 값(이하 최대 스케일 팩터 값)로 설정하고, 최대 스케일 팩터 값과 1 사이에서 미리 설정된 간격으로 점진적으로 감소하거나 증가시키면서 연속되는 두 스케일 팩터들을 입력으로 받은 뉴럴 네트워크의 입력 이미지

Figure pat00024
와 출력 이미지
Figure pat00025
간의 이미지 잔차(image residual)를 뉴럴 네트워크
Figure pat00026
를 이용하여 모델화할 수 있다.To this end, we first design a neural network to calculate a high frequency image residual. Specifically, by setting the scale factor (t) to a value of a rational number greater than 1 (hereinafter referred to as the maximum scale factor value), and gradually decreasing or increasing two consecutive scale factors between the maximum scale factor value and 1 at a predetermined interval, The input image of the neural network received as input
Figure pat00024
and the output image
Figure pat00025
Neural network image residuals between livers
Figure pat00026
can be modeled using

이러한 이미지 잔차를 수식으로 나타내면 다음의 수학식 2와 같이 표현할 수 있다.The image residual can be expressed as Equation 2 below.

Figure pat00027
Figure pat00027

수학식 2에서, 입력 이미지

Figure pat00028
은 뉴럴 네트워크의 제N-1 번째 입력 이미지에 대응하고, 출력 이미지
Figure pat00029
은 뉴럴 네트워크의 제N 번째 출력 이미지에 대응될 수 있다. 이 경우, 제N-1 번째 입력 이미지는 통상 제N 번째 출력 이미지보다 더 많은 고주파 디테일(high frequency details)을 포함할 수 있다.In Equation 2, the input image
Figure pat00028
corresponds to the N-1th input image of the neural network, and the output image
Figure pat00029
may correspond to the Nth output image of the neural network. In this case, the N−1 th input image may include more high frequency details than the N th output image.

전술한 구성에 의하면, 고주파 이미지 잔차(high frequency image residual)를 계산하도록 설계된 뉴럴 네트워크를 포함하는 상미분 방정식으로 초해상도 모델을 재구성할 수 있다.According to the configuration described above, a super-resolution model can be reconstructed with an ordinary differential equation including a neural network designed to calculate a high frequency image residual.

여기서, 뉴럴 네트워크의 잔차 이미지는 기존의 초해상도 아키텍처의 경우와 유사하게 수학식 3과 같은 상미분 방정식으로 표현될 수 있다.Here, the residual image of the neural network can be expressed as an ordinary differential equation such as Equation 3, similar to the case of the existing super-resolution architecture.

Figure pat00030
Figure pat00030

수학식 3에서 좌변은 뉴럴 네트워크에서 출력되는 잔차 이미지를 나타내고, 우변은 스케일 팩터(t)가 적용되는 뉴럴 네트워크의 이미지

Figure pat00031
를,
Figure pat00032
는 뉴럴 네트워크(f)의 훈련가능한 파라미터를 각각 나타낸다.In Equation 3, the left side represents the residual image output from the neural network, and the right side represents the image of the neural network to which the scale factor (t) is applied.
Figure pat00031
cast,
Figure pat00032
denote trainable parameters of the neural network f, respectively.

즉, 본 실시예의 점진적 이미지 해상도 향상 방법은 뉴럴 네트워크에 이미지 입력에 더하여 스케일 팩터를 추가 입력으로 설정하고, 반복되는 뉴럴 네트워크 스테이지마다 점진적으로 변하는 크기의 스케일 팩터를 적용함으로써 고주파 이미지 잔차를 효과적으로 획득할 수 있도록 구성된다.That is, the gradual image resolution enhancement method of the present embodiment can effectively obtain a high-frequency image residual by setting a scale factor as an additional input in addition to an image input to the neural network and applying a gradually changing scale factor for each repeated neural network stage. It is configured so that

다음, 반복적인 다중 스테이지의 초해상도 모델을 통해 깨끗한 원본 이미지에 대응하는 최종 출력 이미지

Figure pat00033
를 설계한다. 이를 나타내면, 다음의 수학식 4와 같다.Next, the final output image corresponds to the pristine original image through an iterative multi-stage super-resolution model.
Figure pat00033
to design Expressing this, it is the same as the following Equation 4.

Figure pat00034
Figure pat00034

수학식 4에서,

Figure pat00035
는 뉴럴 네트워크의 파라미터를 나타낸다.In Equation 4,
Figure pat00035
represents the parameters of the neural network.

수학식 4에서 알 수 있듯이, 입력 이미지 내 고주파 디테일을 예측하는 모델인 뉴럴 네트워크(f)를 통해 입력 이미지로부터 예측되는 미세 디테일을 점진적으로 합할 수 있다.As can be seen from Equation 4, fine details predicted from the input image may be gradually summed through the neural network f, which is a model for predicting high-frequency details in the input image.

즉, 본 실시예의 방법은, 점진적으로 변하는 스케일 팩터들, 예컨대 to 내지 1 사이에서 소정 간격으로 갖는 이산 유리수 값들을 포함하는 스케일 팩터들(to 및 1 포함)를 이용하는 초해상도 모델의 반복적인 다중 스테이지에서 얻은 이미지 잔차들을 순차적으로 갱신하거나 누적하고, 누적된 값 즉, 이미지 잔차들의 적분값을 제1 번째 입력 이미지

Figure pat00036
와 합침으로써 최종 출력 이미지
Figure pat00037
를 얻도록 구현될 수 있다.That is, the method of the present embodiment is an iterative multi-stage of a super-resolution model using scale factors that gradually change, for example, scale factors including discrete rational values at predetermined intervals between to and 1 (including to and 1). The image residuals obtained from are sequentially updated or accumulated, and the accumulated value, that is, the integral value of the image residuals is converted into a first input image.
Figure pat00036
final output image by merging with
Figure pat00037
can be implemented to obtain

전술한 초해상도 방법은, 기존의 상미분 방정식 솔버를 이용하여 수학식 5와 같이 표현되거나 구현될 수 있다.The above-described super-resolution method may be expressed or implemented as in Equation 5 using an existing ordinary differential equation solver.

Figure pat00038
Figure pat00038

수학식 5에서, ODESlove()는 상미분 방정식(OLE) 솔버(solver)를,

Figure pat00039
은 적분 간격을 각각 나타낸다.In Equation 5, ODESlove() is an ordinary differential equation (OLE) solver,
Figure pat00039
represents the integration interval, respectively.

이와 같이 본 실시예의 방법은 점진적인 SR 프로세스에서 각 CNN 아키텍쳐의 SR 프로세스가 독립적이기 때문에 발생하는 기존 SR 방법에서의 단절 조건(stop condition)을 고려할 필요가 없다. 특히, SR 문제를 초기화 문제로 취급하는 상미분 방정식을 풀기 위해 즉, 최종 출원 이미지의 추론을 위해 뉴럴 네트워크의 동작마다 혹은 반복마다 그 출력을 렌더링함으로서 기존의 단절 조건을 전혀 고려할 필요가 없다.As such, the method of the present embodiment does not need to consider the stop condition in the existing SR method, which occurs because the SR process of each CNN architecture is independent in the gradual SR process. In particular, in order to solve an ordinary differential equation that treats the SR problem as an initialization problem, that is, to infer the final application image, it is not necessary to consider the existing disconnection condition at all by rendering the output of the neural network for each operation or iteration.

또한, 본 실시예의 방법은, 뉴럴 네트워크를 포함하는 초해상도 모델의 파라미터를 단일 최초 입력 이미지에 대하여 다양한 스케일 팩터 세트들을 통해 훈련함으로써 뉴럴 네트워크의 파라미터

Figure pat00040
가 미리 설정되는 기준값 이하가 되거나 훈련 결과의 우수한 성능에 대한 최소값이 되도록 파라미터를 최적화할 수 있다.In addition, the method of this embodiment trains the parameters of a super-resolution model including a neural network through various scale factor sets for a single initial input image, thereby training the parameters of the neural network.
Figure pat00040
Parameters can be optimized so that is less than or equal to a preset reference value or a minimum value for good performance of the training result.

예를 들어, L1 손실함수를 이용하여 다양한 스케일 팩터들(t)에 대하여 합쳐지는 뉴럴 네트워크의 손실이 최소화되도록 깊은 뉴럴 네트워크를 훈련하고 그 파라미터

Figure pat00041
를 학습할 수 있다. 이를 수식으로 나타내면 다음의 수학식 6과 같다.For example, by using the L1 loss function, a deep neural network is trained to minimize the loss of the neural network that is added for various scale factors (t), and its parameters
Figure pat00041
can learn If this is expressed as a formula, it is as shown in Equation 6 below.

Figure pat00042
Figure pat00042

수학식 6에서,

Figure pat00043
은 뉴럴 네트워크의 손실을 나타낸다.In Equation 6,
Figure pat00043
represents the loss of the neural network.

이와 같이 본 실시예의 점진적 이미지 해상도 향상 방법에서는, 손실 함수를 최소화함으로써, 뉴럴 네트워크에 추가되는 이미지 디테일을 보다 정확하게 예측하도록 뉴럴 네트워크의 파라미터를 훈련할 수 있다.As described above, in the gradual image resolution enhancement method of the present embodiment, by minimizing the loss function, it is possible to train parameters of the neural network to more accurately predict image details added to the neural network.

한편, 본 실시예의 뉴럴 네트워크의 파라미터는 기존의 역전파 방식을 이용하여 최적화될 수 있다. 이 경우, 뉴럴 네트워크를 역전파 방식을 통해 훈련하기 위하여, 점진적으로 증가하는 스케일 팩터를 사용하는 것도 가능하다.Meanwhile, the parameters of the neural network of this embodiment can be optimized using an existing backpropagation method. In this case, it is also possible to use a gradually increasing scale factor to train the neural network through backpropagation.

도 4는 본 발명의 다른 실시예에 따른 점진적 이미지 해상도 향상 장치에 대한 블록도이다. 그리고 도 5는 도 4의 점진적 이미지 해상도 향상 장치에 채용할 수 있는 전처리부의 상세 구성에 대한 블록도이다.4 is a block diagram of an apparatus for gradually increasing image resolution according to another embodiment of the present invention. 5 is a block diagram of a detailed configuration of a pre-processing unit that can be employed in the gradual image resolution enhancement device of FIG. 4 .

도 4를 참조하면, 점진적 이미지 해상도 향상 장치는, 프로세서(100) 및 프로세서와 전자적으로 연결되는 메모리(200)를 포함할 수 있다. 메모리(200)는 프로그램이나 명령어들을 저장한다. 메모리(200)는 프로세서(100)에 일체로 탑재될 수도 있다.Referring to FIG. 4 , the gradual image resolution enhancement device may include a processor 100 and a memory 200 electronically connected to the processor. The memory 200 stores programs or instructions. The memory 200 may be integrally mounted in the processor 100 .

프로세서(100)는 전처리부(10), 스케일 팩터(scale factor, SF) 관리부(20), 뉴럴 네트워크(30), 제1 병합부(40), 반복처리부(50), 이미지 잔차 계산부(60), 누적부(65) 및 제2 병합부(70)를 포함할 수 있다.The processor 100 includes a pre-processing unit 10, a scale factor (SF) management unit 20, a neural network 30, a first merging unit 40, an iterative processing unit 50, and an image residual calculation unit 60. ), an accumulation unit 65 and a second merging unit 70.

전처리부(10)는, 뉴럴 네트워크(30)의 테스트(test) 모드에서, 해상도를 향상시킬 저해상도 원본 이미지를 소정의 크기로 확대하기 위해, 원본 이미지(Io)를 업스케일링하여 최초 입력 이미지(Ia)를 생성한다. 또한, 전처리부(10)는 뉴럴 네트워크(30)의 훈련(training) 모드에서, 깨끗한 원본 이미지(Ic)를 소정의 크기로 축소한 훈련용 원본 이미지(Io에 대응함)를 생성하고, 훈련용 원본 이미지를 소정의 스케일로 업스케일링하여 최초 입력 이미지(Ia)를 생성할 수 있다.In the test mode of the neural network 30, the pre-processing unit 10 upscales the original image I o to enlarge the low-resolution original image to a predetermined size, and upscales the original input image ( Create I a ). In addition, the preprocessor 10 generates an original training image (corresponding to I o ) obtained by reducing the clean original image I c to a predetermined size in the training mode of the neural network 30, and training An initial input image (I a ) may be generated by up-scaling an original image for use in a predetermined scale.

또한, 전처리부(10)는 도 5에 도시한 바와 같이 다운스케일링 유닛(12)과 업스케일링 유닛(14)을 구비할 수 있다. 다운스케일링 유닛(12)과 업스케일링 유닛(14)은 바이큐빅(bicubic) 등의 커널(kernel)을 포함할 수 있다. 이러한 전처리부(10)는 점진적 이미지 해상도 향상 장치에 탑재하지 않고 별도의 이미지 전처리 장치로 구현될 수 있으며, 그 경우 이미지 전처리 장치는 본 실시예의 점진적 이미지 해상도 향상 장치의 입력단 등에 연결될 수 있다.In addition, the pre-processing unit 10 may include a downscaling unit 12 and an upscaling unit 14 as shown in FIG. 5 . The downscaling unit 12 and the upscaling unit 14 may include a kernel such as bicubic. The pre-processing unit 10 may be implemented as a separate image pre-processing device without being mounted on the gradual image resolution enhancing device.

다시 도 4를 참조하면, SF 관리부(20)는, 사용자 입력에 따라 정해지거나 디폴트(default)로 설정되어 있는 최대 스케일 팩터와 사용자 입력에 따라 정해지거나 디폴트(default)로 설정되어 있는 스케일 팩터들의 간격(들)에 따라 결정되는 적어도 하나의 스케일 팩터 세트를 관리한다. 최대 스케일 팩터는 1보다 큰 유리수일 수 있으며, 스케일 팩터들의 간격은 등간격과 같은 선형적인 형태로 하나의 기울기에 대응하는 값을 갖거나 동일한 비율과 같은 비선형적인 형태로 복수의 접선 기울기들에 대응하는 값들을 가질 수 있다.Referring back to FIG. 4, the SF management unit 20 determines the maximum scale factor determined according to user input or set as default, and the interval between the scale factors determined according to user input or set as default. Manages at least one set of scale factors determined according to (s). The maximum scale factor may be a rational number greater than 1, and the intervals of the scale factors have a value corresponding to one slope in a linear form such as at equal intervals or correspond to a plurality of tangential slopes in a nonlinear form such as the same ratio. can have values of

또한, SF 관리부(20)는 점진적 이미지 해상도 향상 장치에서 뉴럴 네트워크에 입력 이미지가 입력될 때마다 점진적으로 그 크기가 감소하거나 증가하는 스케일 팩터를 순차적으로 뉴럴 네트워크에 입력할 수 있다.In addition, the SF management unit 20 may sequentially input a scale factor whose size gradually decreases or increases whenever an input image is input to the neural network in the gradual image resolution enhancement device.

또한, SF 관리부(20)는, 뉴럴 네트워크(30)의 훈련 모드에서, 스케일 팩터를 1에서 4까지 0.1의 간격으로 변경하여 뉴럴 네트워크(30) 내 각 CNN 아키텍처의 입력으로 제공할 수 있다.In addition, the SF management unit 20 may change the scale factor from 1 to 4 at an interval of 0.1 in the training mode of the neural network 30 and provide it as an input to each CNN architecture in the neural network 30.

뉴럴 네트워크(30)는, 기존의 VDSR(very-deep supper-resolution) 또는 잔류 밀집 네트워크(residual dense network, RDN)를 약간 수정하여 백본 CNN(convolution neural network) 아키텍처로 사용할 수 있다. VDSR 또는 RDN를 사용하는 경우, 본 실시예의 뉴럴 네트워크(30)는 NODE-VDSR 또는 NODE-RDN으로 지칭될 수 있다.The neural network 30 may be used as a backbone convolution neural network (CNN) architecture by slightly modifying an existing very-deep supper-resolution (VDSR) or residual dense network (RDN). In the case of using VDSR or RDN, the neural network 30 of this embodiment may be referred to as NODE-VDSR or NODE-RDN.

뉴럴 네트워크(30)의 VDSR 또는 RDN에서, 각 CNN 아키텍처는 이미지 입력(예컨대 제1 내지 제3 채널들) 외에 추가적인 입력(예컨대 제4 채널)으로서 스케일 팩터를 공급받도록 수정된 제1 계층(first layer)을 구비할 수 있다. 즉, 각 CNN 아키텍처는 새롭게 결합되는 채널(제4 채널)의 픽셀 위치들이 스칼라 값으로 채워진 스케일 팩터의 입력 채널을 구비할 수 있다.In the VDSR or RDN of the neural network 30, each CNN architecture is a first layer modified to receive a scale factor as an additional input (eg, the fourth channel) in addition to the image input (eg, the first to third channels). ) can be provided. That is, each CNN architecture may include an input channel of a scale factor in which pixel locations of a newly combined channel (fourth channel) are filled with scalar values.

또한, 뉴럴 네트워크(30)는, RDN에 있어서, 최종 업샘플링 계층(the last upsampling layer)을 제거하여 입력 해상도와 출력 해상도가 동일하도록 구성될 수 있다. 이러한 RDN에서, 제1 계층을 제외하고 추가 파라미터(extra parameters)의 추가는 없다.In addition, the neural network 30 may be configured to have the same input resolution and output resolution by removing the last upsampling layer in the RDN. In this RDN, there is no addition of extra parameters except for the first layer.

또한, 일반 CNN에서 최소 일괄 사이즈(mini-batch size)는 기본적으로 16(200×200 패치들)이지만, 본 실시예의 뉴럴 네트워크(30)에서는 최소 일괄 사이즈로서 8(130×200 패치들)을 사용할 수 있다. 이것은 컴퓨팅 장치의 그래픽 유닛의 메모리가 한정되는 경우에 유용할 수 있다.In addition, in general CNN, the minimum batch size (mini-batch size) is basically 16 (200 × 200 patches), but in the neural network 30 of this embodiment, 8 (130 × 200 patches) can be used as the minimum batch size. can This may be useful where the memory of a graphics unit of a computing device is limited.

제1 병합부(40)는, 뉴럴 네트워크(30)에서 생성되는 잔차 이미지와 입력 이미지를 합하여 출력 이미지를 생성한다.The first merging unit 40 generates an output image by combining the input image and the residual image generated by the neural network 30 .

반복처리부(50)는, 뉴럴 네트워크(30)의 SR 프로세스가 미리 준비되거나 미리 설정되는 스케일 팩터들의 개수까지 반복되었는지를 확인하거나 스케일 팩터가 1인지를 판단하고, 설정된 횟수에 미치지 못하였거나 스케일 팩터가 1이 아니면, 출력 이미지를 다시 뉴럴 네트워크의 다음 입력 이미지로 전달한다.The repetition processing unit 50 checks whether the SR process of the neural network 30 has been repeated up to the number of previously prepared or preset scale factors or determines whether the scale factor is 1, and determines whether the set number of times is not reached or the scale factor is If it is not 1, the output image is passed back to the next input image of the neural network.

이미지 잔차 계산부(60)는, 뉴럴 네트워크(30)의 입력 이미지와 출력 이미지 간의 이미지 잔차를 계산한다. 즉, 이미지 잔차 계산부(60)는 뉴럴 네트워크(30)의 이전 입력 이미지 또는 제N-1 번째 입력 이미지와 현재 입력 이미지 또는 제N 번째 입력 이미지 간의 이미지 잔차를 계산한다. 이미지 잔차 계산부(60)는 상미분 방정식 솔버로 구현될 수 있다.The image residual calculation unit 60 calculates an image residual between an input image and an output image of the neural network 30 . That is, the image residual calculation unit 60 calculates an image residual between the previous input image or the N−1 th input image of the neural network 30 and the current input image or the N th input image. The image residual calculator 60 may be implemented as an ordinary differential equation solver.

이미지 잔차 계산부(60)의 ODE 솔버로는, 룬게쿠타(Runge-Kutta, RK4)를 채용하는 Python torchdiffeq library [Chen et al., 2018]을 사용할 수 있다. 이 경우, PyTorch로 단지 6 줄의 추가 코드만이 요구되어 SR 시스템의 설계가 용이하고 시스템이 가벼워 스마트폰 등의 모바일 장치에 탑재하기 용이할 수 있다.As the ODE solver of the image residual calculator 60, the Python torchdiffeq library [Chen et al., 2018] employing Runge-Kutta (RK4) can be used. In this case, only 6 additional lines of code are required with PyTorch, so the design of the SR system is easy, and the system is lightweight, so it can be easily installed in a mobile device such as a smartphone.

누적부(65)는, 뉴럴 네트워크가 반복 동작할 때마다 뉴럴 네트워크의 입력 이미지와 출력 이미지 간의 이미지 잔차를 계산한 결과들을 갱신하거나 누적한다. 누적부(65)에 누적되는 값은 이미지 잔차 계산부(60)의 기능에 대응하는 상미분 방정식을 적분한 적분값에 대응할 수 있다.The accumulator 65 updates or accumulates results of calculating image residuals between an input image and an output image of the neural network whenever the neural network is repeatedly operated. The value accumulated in the accumulator 65 may correspond to an integral value obtained by integrating an ordinary differential equation corresponding to the function of the image residual calculator 60 .

제2 병합부(70)는, 반복처리부(50)의 판단 결과, 뉴럴 네트워크의 반복 횟수가 설정된 횟수에 도달했거나 스케일 팩터가 1이면, 반복처리부(50)로부터의 신호나 정보에 따라 누적부(65)의 적분값과 최초 입력 이미지(Ib)를 합하여 최종 출력 이미지(Ib)를 생성한다.The second merging unit 70, according to the signal or information from the iteration processing unit 50, the accumulation unit ( 65) and the initial input image (I b ) to create the final output image (I b ).

본 실시예에 의하면, 명령어들에 의해 프로세서에 의해 실행될 때, 명령어들은 프로세서가, 단계(a)에서, 최초 입력 이미지를 업스케일링한 제1 번째 입력 이미지를 시작으로, 제N-1 번째(N은 2 이상의 자연수) 입력 이미지를 뉴럴 네트워크에 입력하고 스케일 팩터를 적용하여 뉴럴 네트워크에서 제N-1번째 잔차 이미지를 출력하도록 한다.According to this embodiment, when executed by the processor by the instructions, the instructions are the N-1th (N-1)th (N is a natural number greater than or equal to 2) input an input image to a neural network and apply a scale factor to output an N-1th residual image from the neural network.

또한, 명령어들은 프로세서가, 단계(b)에서, 제N-1 번째 잔차 이미지와 제N-1 번째 입력 이미지의 합으로 제N 번째 입력 이미지를 생성하도록 하고, 제N 번째 입력 이미지를 뉴럴 네트워크의 입력으로 전달하도록 한다.Further, the instructions cause the processor to generate, in step (b), an N-th input image as a sum of the N-1 th residual image and the N-1 th input image, and the N-th input image of the neural network. to be passed as input.

또한, 명령어들은 프로세서가, 단계(c)에서 스케일 팩터가 1이 될 때까지 스케일 팩터의 크기를 미리 설정된 크기만큼 점진적으로 감소시키면서 단계(a) 및 단계(b)를 반복 수행하도록 한다.Further, the instructions cause the processor to repeatedly perform steps (a) and (b) while gradually reducing the magnitude of the scale factor by a preset amount until the scale factor equals 1 in step (c).

또한, 명령어들은 프로세서가, 단계(d)에서, 스케일 팩터가 1로 적용될 때 제N-1 번째 잔차 이미지와 제N 번째 입력 이미지 간의 이미지 잔차들을 누적 계산한 값과 제1 번째 입력 이미지의 합으로 최총 출력 이미지를 생성하거나 출력하도록 한다.Further, the instructions cause the processor to calculate, in step (d), the sum of the image residuals between the N-1 th residual image and the N th input image and the first input image when the scale factor is applied as 1. Create or print the final output image.

도 6은 본 발명의 또 다른 실시예에 따른 이미지 초해상도 장치에 대한 블록도이다. 그리고 도 7은 도 6의 이미지 초해상도 장치에 채용할 수 있는 훈련처리부의 상세 구성에 대한 블록도이다.6 is a block diagram of an image super-resolution device according to another embodiment of the present invention. 7 is a block diagram of a detailed configuration of a training processing unit that can be employed in the image super-resolution apparatus of FIG. 6 .

도 6을 참조하면, 이미지 초해상도 장치는, 프로세서(100) 및 프로세서와 전자적으로 연결되는 메모리(200)를 포함할 수 있다. 메모리(200)는 프로그램이나 명령어들을 저장한다. 메모리(200)는 프로세서(100)에 일체로 탑재될 수도 있다.Referring to FIG. 6 , the image super-resolution device may include a processor 100 and a memory 200 electronically connected to the processor. The memory 200 stores programs or instructions. The memory 200 may be integrally mounted in the processor 100 .

프로세서(100)는 전처리부(10), 스케일 팩터(SF) 관리부(20), 뉴럴 네트워크(30), 제1 병합부(40), 반복처리부(50), 이미지 잔차 계산부(60), 누적부(65), 제2 병합부(70), 평가부(80) 및 훈련처리부(90)를 포함할 수 있다.The processor 100 includes a preprocessing unit 10, a scale factor (SF) management unit 20, a neural network 30, a first merging unit 40, an iterative processing unit 50, an image residual calculation unit 60, an accumulation It may include a unit 65, a second merging unit 70, an evaluation unit 80, and a training processing unit 90.

전처리부(10), 스케일 팩터(SF) 관리부(20), 뉴럴 네트워크(30), 제1 병합부(40), 반복처리부(50), 이미지 잔차 계산부(60), 누적부(65) 및 제2 병합부(70)는 도 4 및 도 5를 참조하여 앞서 설명한 점진적 이미지 해상도 향상 장치의 대응 구성부와 실질적으로 동일하므로 그에 대한 상세 설명은 생략한다.A pre-processing unit 10, a scale factor (SF) management unit 20, a neural network 30, a first merging unit 40, an iterative processing unit 50, an image residual calculation unit 60, an accumulation unit 65, and Since the second merging unit 70 is substantially the same as the corresponding component of the gradual image resolution enhancement device described above with reference to FIGS. 4 and 5 , a detailed description thereof will be omitted.

평가부(80)는, 제2 병합부(70)를 통해 출력되는 최종 출력 이미지와 깨끗한 원본 이미지를 비교하거나 서로 다른 스케일 팩터 세트들에 따라 생성한 최종 출력 이미지들을 자체 비교하거나, 최초 입력 이미지에 대한 최초 출력 이미지의 성능을 소정의 기준값(비교예의 성능 포함)과 비교하여 최종 출력 이미지의 SR 성능을 평가할 수 있다. 이를 위해, 평가부(80)는 메모리(200) 또는 데이터베이스(210)에 저장되는 최종 출력 이미지, 깨끗한 원본 이미지, 비교예의 이미지 등을 이용할 수 있다. 평가부(80)의 평가 결과는 훈련처리부(90)에 전달될 수 있다.The evaluation unit 80 compares the final output image output through the second merging unit 70 with a clean original image, or compares final output images generated according to different scale factor sets with each other, or compares the final output image with the first input image. The SR performance of the final output image may be evaluated by comparing the performance of the first output image to a predetermined reference value (including the performance of the comparative example). To this end, the evaluation unit 80 may use a final output image stored in the memory 200 or the database 210, a clean original image, an image of a comparative example, and the like. Evaluation results of the evaluation unit 80 may be transmitted to the training processing unit 90 .

훈련처리부(90), 미리 설정된 훈련 정책이나 사용자 입력에 따른 훈련 조건에 따라 아담 옵티마이저(Adam optimizer) 등을 사용하여 L1 손실을 최소화하도록 하는 네트워크의 훈련을 관리한다. 훈련처리부(90)는 초기 학습 속도가 10-4로 설정되고, 100k회의 기울기 업데이트 단계마다 속도를 절반씩 감소하고 총 600k회의 반복 훈련을 수행하도록 설정될 수 있다.The training processing unit 90 manages training of the network to minimize the L1 loss using an Adam optimizer or the like according to a training condition according to a preset training policy or user input. The training processing unit 90 may be configured to set an initial learning rate to 10 −4 , reduce the rate by half for every 100k gradient update steps, and perform repeated training for a total of 600k times.

또한, 훈련처리부(90), 도 7에 도시한 바와 같이, 파라미터 관리 유닛(92), 파리미터 비교 유닛(94), 역전파 제어 유닛(96) 및 기준치 관리 유닛(98)을 포함할 수 있다. 또한, 훈련처리부(90)는 그 변형예에서 SF 관리부(20)를 포함하도록 구현될 수 있다.Also, as shown in FIG. 7, the training processing unit 90 may include a parameter management unit 92, a parameter comparison unit 94, a backpropagation control unit 96, and a reference value management unit 98. Also, the training processing unit 90 may be implemented to include the SF management unit 20 in its modified example.

훈련처리부(90)에 채용할 수 있는 구성요소들에 대해 좀더 구체적으로 살펴보면, 파라미터 관리 유닛(92)은 뉴럴 네트워크(30)의 파라미터를 관리한다. 파라미터 관리 유닛(92)은 다양한 스케일 팩터 세트들에 의한 네트워크 훈련시 사용자 입력에 따라 설정되거나 미리 저장된 스케일 팩터 세트를 SR 관리부(20)에 전달할 수 있다.Looking more specifically at the components that can be employed in the training processing unit 90, the parameter management unit 92 manages the parameters of the neural network 30. The parameter management unit 92 may transmit a scale factor set set according to a user input or stored in advance to the SR management unit 20 during network training using various scale factor sets.

성능 비교 유닛(94)은 네트워크 훈련시 다양한 스케일 팩터 세트들에 의한 SR 성능을 비교할 수 있다. 성능 비교 유닛(94)는 PSNR, SSIM 등을 통해 각 SR 결과에 대한 성능을 상호 비교하고, 가장 우수한 성능의 스케일 팩터 세트에 대한 최적 파라미터 정보를 추출할 수 있다. 추출된 최적 파라미터 정보를 파라미터 관리 유닛(92)에 피드백될 수 있다.The performance comparison unit 94 may compare SR performance by various scale factor sets during network training. The performance comparison unit 94 may mutually compare performance of each SR result through PSNR, SSIM, and the like, and extract optimal parameter information for a scale factor set with the best performance. The extracted optimum parameter information may be fed back to the parameter management unit 92.

역전파 제어 유닛(96)은 사용자 입력에 의한 설정이나 미리 지정된 최적화 조건 중 하나로 포함되는 역전파를 통해 뉴럴 네트워크의 파라미터를 업데이트하도록 뉴럴 네트워크의 동작을 제어할 수 있다. 역전파 제어 유닛(96)은 성능 비교 유닛(94)로부터 획득한 파라미터 정보에 기초하여 뉴럴 파라미터의 각 CNN 아키텍처의 출력층에서 적어도 하나의 은닉층을 거쳐 입력층까지 기재된 순서대로 이어지는 연결 파라미터를 출력층을 출발노드로하여 단계적으로 업데이트하도록 작동할 수 있다.The backpropagation control unit 96 may control the operation of the neural network to update the parameters of the neural network through backpropagation included as one of a user input setting or a predetermined optimization condition. Based on the parameter information obtained from the performance comparison unit 94, the backpropagation control unit 96 connects the connection parameters in the order described from the output layer of each CNN architecture of the neural parameters to the input layer through at least one hidden layer from the output layer. It can be operated as a node to update step by step.

역전파에서 파라미터 업데이트에 사용되는 오차의 가중치에 대한 미분값은 출발노드의 활성함수값과 도착노드의 활성함수값 및 실제 파라미터 값으로 표현될 수 있다. 그리고 역전파를 통한 파라미터 업데이트는 성능 비교 유닛(94)의 SR 성능 비교 결과나 성능 비교 유닛(94)로부터 획득한 파라미터 정보에 기초하여 도 1 등을 참조하여 앞서 설명한 SR 과정과 함께 반복 수행될 수 있다.In backpropagation, the differential value of the weight of the error used for parameter update can be expressed by the activation function value of the starting node, the activation function value of the destination node, and the actual parameter value. In addition, the parameter update through backpropagation may be repeatedly performed along with the SR process described above with reference to FIG. 1 based on the SR performance comparison result of the performance comparison unit 94 or the parameter information obtained from the performance comparison unit 94. have.

기준치 관리 유닛(98)은, L1 손실함수 등의 손실함수를 최소화한 파라미터의 최적값이나 이러한 최적값에 근접한 기준치를 관리한다. 기준치는 본 실시예의 뉴럴 상미분 방정식을 이용한 SR 시스템을 사용하여 원본 이미지를 초해상도할 때 SR 시스템의 성능에 대해 요구되는 목표치 혹은 목표설정치에 대응할 수 있다. 기준치 관리 유닛(98)은 성능 비교 유닛(94)에 사용자 입력에 의해 설정되거나 미리 저장된 기준치를 제공할 수 있다.The reference value management unit 98 manages an optimal value of a parameter obtained by minimizing a loss function such as an L1 loss function or a reference value close to the optimal value. The reference value may correspond to a target value or a target set value required for the performance of the SR system when super-resolution of an original image is performed using the SR system using the neural ordinary differential equation of the present embodiment. The reference value management unit 98 may provide the performance comparison unit 94 with a reference value set by a user input or stored in advance.

도 8은 도 5의 이미지 초해상도 장치에 채용할 수 있는 이미지 초해상도 방법을 설명하기 위한 흐름도이다.FIG. 8 is a flowchart for explaining an image super-resolution method employable in the image super-resolution apparatus of FIG. 5 .

도 8을 참조하면, 이미지 초해상도 방법은, 프로세서에 의해 수행되는 이미지 초해상도 방법으로써, 먼저 입력 이미지가 입력되는 뉴럴 네트워크의 출력 이미지를 상기 뉴럴 네트워크의 입력 이미지로 다시 입력한다(S81).Referring to FIG. 8 , the image super-resolution method is an image super-resolution method performed by a processor. First, an output image of a neural network to which an input image is input is input again as an input image of the neural network (S81).

뉴럴 네트워크는 잔차 밀집 네트워크(Residual Dense Network, RDN)를 포함할 수 있다. RDN은 최종 업샘플링 레이어(last upsampling layer)가 생략된 형태를 가져 입력 해상도와 출력 해상도가 동일하게 형성될 수 있다.The neural network may include a residual dense network (RDN). The RDN has a form in which the last upsampling layer is omitted, so that the input resolution and the output resolution may be identical.

다음, 뉴럴 네트워크에 입력 이미지가 입력될 때마다 뉴럴 네트워크에 점진적으로 그 크기가 다르게 설정되는 스케일 팩터들을 순차적으로 제공한다(S82). 본 단계(S82)는 뉴럴 네트워크의 첫번째 레이어에 입력 이미지에 더하여 스케일 팩터를 추가 입력하도록 구성될 수 있다.Next, whenever an input image is input to the neural network, scale factors having gradually different sizes are sequentially provided to the neural network (S82). This step (S82) may be configured to additionally input a scale factor to the first layer of the neural network in addition to the input image.

전술한 두 단계들(S81, S82)은, 입력 이미지를 기준으로 1보다 큰 유리수의 크기를 가진 스케일 팩터에 대응하여 입력 이미지의 가장자리에 패딩을 추가하고 패딩이 추가된 입력 이미지의 중앙 픽셀을 중심으로 입력 이미지의 원래 사이즈에 대응하도록 센터 크롭핑(center cropping)을 수행할 수 있다.In the above two steps (S81 and S82), padding is added to the edge of the input image in response to a scale factor having a size of a rational number greater than 1 based on the input image, and the center pixel of the padded input image is centered. With , center cropping may be performed to correspond to the original size of the input image.

또한, 전술한 두 단계들(S81, S82)에서 뉴럴 네트워크는 스케일 팩터가 1보다 큰 유리수인 최초 스케일 팩터에서 미리 설정된 간격으로 점진적으로 감소하여 최종적으로 스케일 팩터가 1이 될 때까지 반복적으로 동작할 수 있다(S83, S84).In addition, in the above two steps (S81 and S82), the neural network gradually decreases at preset intervals from the initial scale factor whose scale factor is a rational number greater than 1, and operates repeatedly until the scale factor finally becomes 1. It can (S83, S84).

다음, 뉴럴 네트워크의 반복 동작마다 뉴럴 네트워크의 입력 이미지와 출력 이미지 간의 이미지 잔차를 상미분 방정식을 이용하여 계산하고 계산된 값들을 누적하거나 갱신한다(S85). 누적 또는 갱신은 상미분 방정식의 매 계산 결과를 별로도 저장한 후 합치거나 현재의 계산 결과를 이전 계산 결과에 합쳐 저장하는 방식에 따라 결정될 수 있다.Next, image residuals between an input image and an output image of the neural network are calculated using an ordinary differential equation for each repetitive operation of the neural network, and the calculated values are accumulated or updated (S85). Accumulation or update may be determined according to a method of separately storing each calculation result of an ordinary differential equation and then combining them, or combining a current calculation result with a previous calculation result and storing the result.

다음, 누적 혹은 갱신 과정을 통해 얻은 최종 이미지 잔차와 최초 입력 이미지를 합하여 상대적 고해상도의 최종 출력 이미지를 생성한다(S86). 최종 이미지 잔차는 이전 잔차 이미지 즉, 제N-1 번째 잔차 이미지와 현재의 잔차 이미지 즉, 제N 번째 잔차 이미지 간의 이미지 잔차에 대한 상미분 방정식의 계산값들을 누적한 적분값에 대응할 수 있다.Next, a relatively high-resolution final output image is generated by adding the final image residual obtained through the accumulation or update process and the initial input image (S86). The final image residual may correspond to an integral value obtained by accumulating calculated values of an ordinary differential equation for image residuals between a previous residual image, that is, the N-1th residual image, and a current residual image, that is, the Nth residual image.

다음, 선택적으로 초해상도 성능을 평가할 수 있다(S87). 초해상도 성능 평가는 원본 이미지 또는 제1 번째 입력 이미지와 최종 출력 이미지와의 비교 결과들을 비교하는 방식, 서로 다른 스케일 팩터 세트들에 의한 최종 출력 이미지들을 비교하는 방식 등으로 수행될 수 있다.Next, super-resolution performance can be selectively evaluated (S87). Super-resolution performance evaluation may be performed by comparing comparison results between an original image or a first input image and a final output image, comparing final output images with different scale factor sets, and the like.

또한, 필요에 따라 선택적으로 뉴럴 네트워크의 파라미터를 역전파를 통해 업데이트할 수 있다(S88). 역전파를 통한 파라미터의 업데이트는 뉴럴 네트워크의 훈련(traning) 모드에서 수행될 수 있다.Also, if necessary, parameters of the neural network may be selectively updated through backpropagation (S88). Updating parameters through backpropagation may be performed in a training mode of a neural network.

이 경우, 훈련 모드에서, 프로세서는, 상미분 방정식을 통해 뉴럴 네트워크의 입력 이미지와 출력 이미지 간의 이미지 잔차를 통해 이미지 디테일을 추정하고 추정한 이미지 디테일을 뉴럴 네트워크 반복 동작 시마다 갱신하거나 누적하고 누적 결과를 최초 입력 이미지에 더하는 훈련 과정을 수행할 수 있다. 또한, 이러한 훈련 과정을 서로 다른 스케일 팩터 세트들에 기초하여 미리 설정된 손실 함수가 최소 값이 되거나 미리 설정된 기준 값 이하가 될 때까지 수행하여 파라미터를 최적화할 수 있다.In this case, in the training mode, the processor estimates image detail through an image residual between an input image and an output image of the neural network through an ordinary differential equation, updates or accumulates the estimated image detail every time the neural network iterates, and calculates the cumulative result. A training process of adding to the first input image can be performed. In addition, the parameters may be optimized by performing such a training process until a loss function preset based on different scale factor sets becomes a minimum value or a preset reference value or less.

한편, 전술한 제공하는 단계(S82)는 기본적으로 점진적으로 감소하는 스케일 팩터들을 사용할 수 있으나, 이에 한정되지 않고, 초해상도 대상 원본 이미지의 종류, 형태, 내용 등에 따른 변형예에서 점진적으로 증가하는 스케일 팩터들을 순차적으로 사용하도록 구현될 수 있다.Meanwhile, the above-described providing step (S82) may basically use scale factors that gradually decrease, but are not limited thereto, and scale factors that gradually increase in variations according to the type, shape, content, etc. of the original super-resolution target image. It can be implemented to use the factors sequentially.

도 9는 본 실시예의 초해상도 방법(NODE-RDN)과 비교예의 초해상도 방법들(DRRN, SRFBN)의 초해상도 결과를 비교하여 보여주는 도면이다. 도 10은 본 실시예의 초해상도 방법(NODE-RDN)과 비교예의 초해상도 방법들(DRRN, SRFBN)의 또 다른 초해상도 결과를 비교하여 보여주는 도면이다. 그리고 도 11은 본 실시예의 초해상도 방법(NODE-RDN)과 비교예의 초해상도 방법(Meta-RDN)의 초해상도 결과를 비교하여 보여주는 도면이다.9 is a diagram showing a comparison of super-resolution results of the super-resolution method (NODE-RDN) of this embodiment and the super-resolution methods (DRRN, SRFBN) of the comparative example. 10 is a diagram showing a comparison of another super-resolution result of a super-resolution method (NODE-RDN) of this embodiment and super-resolution methods (DRRN, SRFBN) of a comparative example. 11 is a diagram showing a comparison of super-resolution results of the super-resolution method (NODE-RDN) of the present embodiment and the super-resolution method (Meta-RDN) of the comparative example.

도 9를 참조하면, 본 실시예의 방법(NODE-RDN)은 특정 데이터베이스(Urban100)에서 얻은 소정의 이미지(img_012)의 특정 부분에 대한 원본 이미지(GT)를 2배(x2) 업스케일링한 최초 입력 이미지(Bicubic 이미지 참조)에 대하여 4-스테이지에 걸쳐 선형적으로 점진적으로 감소하는 다중 스케일 팩터(1,75; 1.5; 1.25; 1)를 적용한 결과를 보여준다. 다중 스케일 팩터는 1을 제외하고 비정수(non-integer)이다.Referring to FIG. 9, the method (NODE-RDN) of this embodiment is an initial input by upscaling the original image (GT) for a specific part of a predetermined image (img_012) obtained from a specific database (Urban100) by 2 times (x2) It shows the result of applying multiple scale factors (1,75; 1.5; 1.25; 1) that gradually decrease linearly over 4-stages to the image (see Bicubic image). Multiscale factors are non-integer except for 1.

본 실시예의 방법에 의한 초해상도 결과는, 동일한 네트워크 파라미터를 사용하는 조건하에서, 비교예1(DRRN: deep recursive residual network)의 최종 초해상도 결과과 비교할 때, 단순히 눈으로만 보더라도 본 실시예의 SR 성능이 비교예1의 SR 성능보다 매우 우수한 것을 알 수 있다. 비교예 1의 최종 초해상도 결과는 네트워크 설정에 따라 25회(#it) 반복한 후에 얻어진 결과이다.The super-resolution result by the method of this embodiment, when compared with the final super-resolution result of Comparative Example 1 (DRRN: deep recursive residual network) under the condition of using the same network parameters, the SR performance of this embodiment can be seen simply by eye. It can be seen that the SR performance of Comparative Example 1 is very superior. The final super-resolution result of Comparative Example 1 is the result obtained after repeating 25 times (#it) according to the network settings.

또한, 본 실시예의 방법에 의한 초해상도 결과는, 동일한 네트워크 파라미터를 사용하는 조건하에서, 비교예2(SRFBN: super-resolution feedback network)의 최종 결과와 비교할 때, 서로 유사한 성능을 나타내는 것을 확인할 수 있다(표 1 참조). 비교예2의 최종 결과는 4회(#it)의 반복 피드백을 통해 얻은 초해상도 결과이다.In addition, it can be confirmed that the super-resolution result obtained by the method of this embodiment shows similar performance to each other when compared to the final result of Comparative Example 2 (SRFBN: super-resolution feedback network) under the condition of using the same network parameters. (See Table 1). The final result of Comparative Example 2 is a super-resolution result obtained through repeated feedback 4 times (#it).

다음으로, 도 10을 참조하면, 본 실시예의 방법(NODE-RDN)은 특정 데이터베이스(Urban100)에서 얻은 소정의 이미지(img_092)의 특정 부분에 대한 원본 이미지(GT)를 4배(x4) 업스케일링한 최초 입력 이미지(Bicubic 이미지 참조)에 대하여 4-스테이지에 걸쳐 비선형적으로 점진적으로 감소하는 다중 스케일 팩터(3; 2; 1.5; 1)를 적용한 3개의 중간 이미지들을 포함한 4개의 결과 이미지를 보여준다. 다중 스케일 팩터는 비정수(1.5)를 포함한다.Next, referring to FIG. 10, the method (NODE-RDN) of the present embodiment upscals the original image (GT) for a specific part of a predetermined image (img_092) obtained from a specific database (Urban100) by 4 times (x4). Four resulting images, including three intermediate images, are shown by applying multi-scale factors (3; 2; 1.5; 1) that gradually decrease non-linearly over four stages to one initial input image (see Bicubic image). Multiple scale factors include non-integers (1.5).

본 실시예의 방법에 의한 초해상도 결과는 다른 비교예1(DRRN)에서 반복 블록들의 개수(#it)를 10, 15, 20 및 25로 하는 네트워크의 초해상도 결과들과 비교할 때, 단순히 눈으로만 보더라도 본 실시예의 성능이 비교예1의 성능보다 매우 우수한 것을 알 수 있다.When comparing the super-resolution result of the method of this embodiment with the super-resolution result of the network in which the number of repeating blocks (#it) is 10, 15, 20, and 25 in Comparative Example 1 (DRRN), simply by eye Even looking at it, it can be seen that the performance of this example is very superior to that of Comparative Example 1.

또한, 본 실시예의 방법에 의한 초해상도 결과는 다른 비교예2(SRFBN)에서 피드백 횟수(#it)를 1, 2, 3, 4로 하는 네트워크의 초해상도 결과들과 비교할 때, 본 실시예의 방법에 의한 성능이 비교예2의 성능에 비해 우수한 것을 확인할 수 있다.In addition, when the super-resolution result by the method of this embodiment is compared with the super-resolution results of the network in which the number of feedbacks (#it) is 1, 2, 3, and 4 in Comparative Example 2 (SRFBN), the method of this embodiment It can be seen that the performance by is superior to that of Comparative Example 2.

범용 데이터셋(Set14, B100, Urban100)의 특정 이미지의 일부분인 원본 이미지에 대하여 전술한 비교예1 및 비교예2 외에 비교예3(DRCN: Deeply-recursive convolutional network), 비교예4(LapSRN: Laplacian pyramid super-resolution network) 및 비교예5(D-DBPN: Dense-deep back-projection network)의 네트워크 초해상도(SR) 성능과 본 실시예(NODE-RDN, NODE-RDN+)의 SR 성능을 비교하여 나타내면 다음의 표 1과 같다.Comparative Example 3 (DRCN: Deeply-recursive convolutional network) and Comparative Example 4 (LapSRN: Laplacian pyramid super-resolution network) and Comparative Example 5 (D-DBPN: Dense-deep back-projection network) by comparing the network super-resolution (SR) performance of this embodiment (NODE-RDN, NODE-RDN +) SR performance It is shown in Table 1 below.

Figure pat00044
Figure pat00044

표 1에서, 본 실시예와 비교예들의 성능을 3 종류의 스케일 팩터들(x2, x3, x4)을 적용한 저해상도 바이큐빅(Bicubic) 이미지에 대한 평균 PSNR(peak signal-to-noise ratio) 및 SSIM(structural similarity index) 값들로 나타내었다. 하이라이트 혹은 음영배경으로 표시된 값들은 최대 성능 결과와 2번째로 우수한 성능 결과를 나타낸다.In Table 1, average PSNR (peak signal-to-noise ratio) and SSIM for low-resolution bicubic images to which three types of scale factors (x2, x3, x4) are applied to the performance of the present embodiment and comparative examples. (structural similarity index) values. Values marked with highlights or shaded backgrounds represent the best performance results and the second best performance results.

전술한 바와 같이, 본 실시예의 방법은 SR 작업 동안 선형적 또는 비선형적 측면에서 연속적인 스케일 팩터를 관리할 수 있다. 즉, 표 2에 나타낸 바와 같이, 1.1에서 4까지 0.1의 간격으로 설정되는 선형적 다중 스케일 팩터를 관리하고 이용할 수 있다.As described above, the method of the present embodiment can manage a continuous scale factor in a linear or non-linear aspect during the SR task. That is, as shown in Table 2, it is possible to manage and use linear multi-scale factors set at intervals of 0.1 from 1.1 to 4.

Figure pat00045
Figure pat00045

표 2에 나타낸 바와 같이, 비교예의 SR 방법들(VDSR, VDSR+t, RDN, RDN+t, Meta-RDN)과 비교할 때, 본 실시예의 SR 방법(NODE-VDSR, NODE-RDN, NODE-RDN+)의 성능은 매 스케일(scale)에서 비교예의 SR 방법들의 성능보다 우수한 것을 확인할 수 있다.As shown in Table 2, compared to the SR methods (VDSR, VDSR + t, RDN, RDN + t, Meta-RDN) of the comparative example, the SR methods (NODE-VDSR, NODE-RDN, NODE-RDN+ It can be seen that the performance of ) is superior to that of the SR methods of the Comparative Example at every scale.

공정한 비교를 위해 사용되는 비교예의 VDSR+t와 RDN+t는, 네트워크의 추가 입력으로써 스케일 팩터(t)를 취하고 동일한 입력 해상도와 출력 해상도를 갖도록 VDSR과 RDN을 수정한 버전이다.VDSR+t and RDN+t of the comparative example used for fair comparison are versions of VDSR and RDN modified to have the same input resolution and output resolution by taking the scale factor (t) as an additional input of the network.

또한, 도 11에 도시한 바와 같이, 데이터셋(B100)의 특정 이미지(196073, 48026)의 특정 부분에 대한 깨끗한 원본 이미지(GT)와 비교할 때, 깨끗한 원본 이미지(GT)를 2.5배(x2.5) 및 4배(x4) 각각 확대한 초해상도 대상의 원본 이미지(Bicubic 이미지)을 초해상도 처리한 결과를 보면, 본 실시예의 SR 방법(NODE-RDN)을 통해 출력되는 최종 이미지가 비교예의 Meta-RDN에서 출력되는 이미지보다 더욱 명확하게 에지(edges)를 복구한 것을 볼 수 있다.In addition, as shown in FIG. 11, when compared with the clean original image GT for a specific part of the specific images 196073 and 48026 of the dataset B100, the original clean image GT is multiplied by 2.5 times (x2. 5) and 4 times (x4) magnification, respectively, looking at the result of super-resolution processing of the original image (Bicubic image) of the super-resolution target, the final image output through the SR method (NODE-RDN) of this embodiment is Meta of the comparative example -You can see that the edges are more clearly recovered than the image output from RDN.

도 12는 본 실시예의 초해상도 방법들(NODE-RDN, NODE-VDSR)에서 스케일 팩터를 변경하면서 평가한 성능(PSNR)을 나타낸 그래프이다.12 is a graph showing the performance (PSNR) evaluated while changing the scale factor in the super-resolution methods (NODE-RDN, NODE-VDSR) of the present embodiment.

도 12에서 스케일 팩터는 1.1에서 4.5까지 0.05 간격으로 변경된다. 그리고 점(dot) 형태의 마크들은 훈련 과정 동안 보이는 스케일 팩터들(seen scale factors) (예컨대 1.1, 1.2, …, 4.0)에 대응하고, 십자(cross) 형태의 마크들은 훈련 과정 동안 보이지 않는 스케일 팩터들(unseen scale factors) (예컨대 1.15, 1.25, …, 4.5)에 대응한다.12, the scale factor is changed from 1.1 to 4.5 at 0.05 intervals. Also, dot-shaped marks correspond to scale factors seen during the training process (e.g. 1.1, 1.2, …, 4.0), and cross-shaped marks correspond to scale factors seen during the training process. (unseen scale factors) (e.g. 1.15, 1.25, ..., 4.5).

도 12를 참조하면, B100 데이터셋의 특정 이미지에 대하여 스케일 팩터를 변경하면서 본 실시예의 SR 방법들에서의 PSNR 값들을 측정한 결과, 본 실시예의 SR 방법들은 보간 능력(interpolation ability)을 학습하고, 1과 4 사이의 보이지 않는 스케일 팩터들(unseen scale factors)(예컨대 1.15, 1.25, …, 3.95)을 실질적으로 연속적으로 처리하는 것을 확인할 수 있다(비교예의 바이큐빅(Bicubic)에 대한 곡선 참조).Referring to FIG. 12, as a result of measuring PSNR values in the SR methods of this embodiment while changing the scale factor for a specific image of the B100 dataset, the SR methods of this embodiment learn interpolation ability, It can be seen that unseen scale factors between 1 and 4 (eg, 1.15, 1.25, ..., 3.95) are substantially continuously processed (see the curve for Bicubic in the comparative example).

게다가, 본 실시예의 SR 방법들은 외삽 능력(extrapolation ability)을 학습하고 4보다 큰 보이지 않는 스케일 팩터들(예컨대 4.1, 4.2, …, 3.95)을 실질적으로 연속적으로 취급하는 것을 확인할 수 있다.Moreover, it can be seen that the SR methods of the present embodiment learn extrapolation ability and treat invisible scale factors greater than 4 (eg 4.1, 4.2, ..., 3.95) substantially continuously.

이와 같이 본 실시예의 SR 방법들은 제한된 다수의 스케일 팩터들만을 가지고 훈련하더라도 보간 능력이나 외삽 능력과 같은 일반화 능력(power of generalization)을 가질 수 있음을 알 수 있다.As such, it can be seen that the SR methods of the present embodiment can have power of generalization such as interpolation or extrapolation even if they are trained with only a limited number of scale factors.

Figure pat00046
Figure pat00046

또한, 본 실시예의 SR 방법들은 오일러 방법(Euler method), 룬게쿠타 방법(Runge-Kutta method) 등의 서로 다른 ODE 솔버들을 사용하는 경우에도, 위의 표 3에 나타낸 바와 같이, 실질적으로 동일한 SR 성능을 나타내는 것을 알 수 있다. 다만, 최종 출력 이미지 혹은 추정된 고해상도 이미지의 품질은 채용한 ODE 솔버의 성능에 의존할 수 있으므로 적절한 ODE 솔버를 선택하는 것이 요구된다.In addition, the SR methods of this embodiment have substantially the same SR performance, as shown in Table 3 above, even when different ODE solvers such as the Euler method and the Runge-Kutta method are used. It can be seen that represents However, since the quality of the final output image or the estimated high-resolution image may depend on the performance of the ODE solver employed, it is required to select an appropriate ODE solver.

도 13은 본 실시예의 이미지 초해상도 방법에 채용할 수 있는 스케일 팩터의 설정 원리를 중간 이미지 잔차들의 세기에 기초하여 설명하기 위한 그래프이다.13 is a graph for explaining a principle of setting a scale factor that can be employed in the image super-resolution method of the present embodiment based on the strength of intermediate image residuals.

도 13을 참조하면, 사람 얼굴의 눈(eye) 영역에 대한 제1 원본 이미지와 뺨(cheek) 영역에 대한 제2 원본 이미지에 대한 초해상도 방법과 관련하여, 테스트 단계에서 점진적 SR 프로세스 동안 뉴럴 네트워크의 중간 결과를 확인하기 위해 스케일 팩터가 4에서 1로 감소하고 초기 조건이 4일 때, 뉴럴 네트워크의 절대값 또는 절대값의 합인 L1 손실을 계산하면, 제1 원본 이미지에 대응하는 고주파 패치 또는 샤프 패치(sharp patch)의 절대값은 스케일 팩터가 작을 때 저주파 패치의 경우에 비해 상대적으로 더 크고, 제2 원본 이미지에 대응하는 저주파 패치 또는 균질 패치(homogeneous patch)의 절대값은 스케일 팩터가 클 때 고주파 패치의 경우에 비해 상당히 더 큰 것을 알 수 있다.Referring to FIG. 13 , in relation to a super-resolution method for a first original image of an eye region and a second original image of a cheek region of a human face, a neural network during an incremental SR process in a test step When the scale factor decreases from 4 to 1 and the initial condition is 4 to check the intermediate result of , calculating the L1 loss, which is the absolute value or the sum of the absolute values of the neural network, the high-frequency patch or Sharp corresponding to the first original image The absolute value of the sharp patch is relatively larger than that of the low-frequency patch when the scale factor is small, and the absolute value of the low-frequency patch or homogeneous patch corresponding to the second original image is large when the scale factor is large. It can be seen that it is considerably larger than that of the high-frequency patch.

점진적으로 감소하는 스케일 팩터에서 스케일 팩터가 작을 때 뉴럴 네트워크의 출력 이미지가 깨끗한 원본 이미지에 근접하게 되고, 이때 뉴럴 네트워크의 입력 이미지와 출력 이미지 간의 이미지 차이(image difference)에는 더 많은 고주파 성분이 포함되는 것을 고려할 때, 고주파 디테일을 포함한 눈 영역의 이미지에 대한 뉴럴 네트워크의 절대값은 스케일 팩터가 작을 때 크게 되고, 고주파 디테일을 요구하지 않는 뺨 영역의 이미지에 대한 뉴럴 네트워크의 절대값은 스케일 팩터가 작을 때 작게 됨을 알 수 있다.In a gradually decreasing scale factor, when the scale factor is small, the output image of the neural network approaches the clean original image, and at this time, the image difference between the input image and the output image of the neural network contains more high-frequency components. Considering that, the absolute value of the neural network for the image of the eye area including high-frequency detail is large when the scale factor is small, and the absolute value of the neural network for the image of the cheek area that does not require high-frequency detail is small when the scale factor is small. It can be seen that when the

이러한 이유로, 본 실시예에서 채용하는 스케일 팩터는 최초 스케일 팩터에서 점진적으로 감소하는 유리수 값들을 가지고 마지막에는 1인 것으로 설정되는 구성으로 한정되지 않는다. 즉, 본 실시예의 변형예에 의하면, 스케일 팩터는 저해상도의 초해상도 대상 제1 번째 입력 이미지의 크기에 대응하는 스케일 팩터 즉, 스케일 팩터가 1인 값에서 미리 설정된 간격으로 점진적으로 증가하는 유리수의 스케일 팩터들과, 초해상도 과정 후에 원하는 해상도인 상대적 고해상도의 사이즈에 대응하는 최종 스케일 팩터를 포함할 수 있다. 여기서, 점진적으로 감소하는 스케일 팩터의 최초 스케일 팩터의 값은 점진적으로 증가하는 스케일 팩터의 최종 스케일 팩터의 값과 동일할 수 있다.For this reason, the scale factor employed in the present embodiment is not limited to a configuration in which rational numbers gradually decrease from the initial scale factor and are finally set to 1. That is, according to a modification of the present embodiment, the scale factor is a scale factor corresponding to the size of the first input image of the low-resolution super-resolution target, that is, a scale of a rational number that gradually increases from a value of 1 to a scale factor of 1 at preset intervals. factors, and a final scale factor corresponding to the size of the relative high resolution, which is the desired resolution after the super-resolution process. Here, the value of the first scale factor of the gradually decreasing scale factor may be the same as the value of the final scale factor of the gradually increasing scale factor.

또한, 본 실시예의 스케일 팩터의 설정에 따른 초해상도 과정을 고려하면, 본 발명의 점진적 이미지 해상도 향상 방법이나 이미지 초해상도 방법은 초해상도 대상 원본 이미지를 고주파 영역을 다수 포함하는 제1 부분과 저주파 영역을 다수 포함하는 제2 부분을 분리한 제1 원본 이미지와 제2 원본 이미지에 대하여 서로 다른 스케일 팩터의 세트들로 각각 해상도를 향상시킨 후 즉, 초해상도 작업을 수행한 후에, 초해상도 작업이 완료된 제1 부분 이미지와 제2 부분 이미지를 조합하고, 필요한 경우 제1 부분 이미지와 제2 부분 이미지의 경계 부분을 가우시안 스무딩 필터, 저주파 필터, 디블록킹 필터 등의 필터를 통해 부드럽게 처리하는 과정을 추가할 수 있다.In addition, considering the super-resolution process according to the setting of the scale factor of the present embodiment, the gradual image resolution improvement method or the image super-resolution method of the present invention converts the original super-resolution target image into a first part including a plurality of high-frequency areas and a low-frequency area. After improving the resolution with sets of different scale factors for the first original image and the second original image from which the second part including a plurality of isolates are separated, that is, after performing the super-resolution operation, the super-resolution operation is completed. A process of combining the first partial image and the second partial image and, if necessary, softening the boundary between the first partial image and the second partial image through a filter such as a Gaussian smoothing filter, a low-frequency filter, and a deblocking filter may be added. can

본 발명의 실시예에 따른 방법의 동작은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 프로그램 또는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산 방식으로 컴퓨터로 읽을 수 있는 프로그램 또는 코드가 저장되고 실행될 수 있다. The operation of the method according to the embodiment of the present invention can be implemented as a computer readable program or code on a computer readable recording medium. A computer-readable recording medium includes all types of recording devices in which data that can be read by a computer system is stored. In addition, computer-readable recording media may be distributed to computer systems connected through a network to store and execute computer-readable programs or codes in a distributed manner.

또한, 컴퓨터가 읽을 수 있는 기록매체는 롬(rom), 램(ram), 플래시 메모리(flash memory) 등과 같이 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치를 포함할 수 있다. 프로그램 명령은 컴파일러(compiler)에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터(interpreter) 등을 사용해서 컴퓨터에 의해 실행될 수 있는 고급 언어 코드를 포함할 수 있다.In addition, the computer-readable recording medium may include hardware devices specially configured to store and execute program instructions, such as ROM, RAM, and flash memory. The program command may include high-level language codes that can be executed by a computer using an interpreter or the like as well as machine code generated by a compiler.

본 발명의 일부 측면들은 장치의 문맥에서 설명되었으나, 그것은 상응하는 방법에 따른 설명 또한 나타낼 수 있고, 여기서 블록 또는 장치는 방법 단계 또는 방법 단계의 특징에 상응한다. 유사하게, 방법의 문맥에서 설명된 측면들은 또한 상응하는 블록 또는 아이템 또는 상응하는 장치의 특징으로 나타낼 수 있다. 방법 단계들의 몇몇 또는 전부는 예를 들어, 마이크로프로세서, 프로그램 가능한 컴퓨터 또는 전자 회로와 같은 하드웨어 장치에 의해(또는 이용하여) 수행될 수 있다. 몇몇의 실시예에서, 가장 중요한 방법 단계들의 하나 이상은 이와 같은 장치에 의해 수행될 수 있다. Although some aspects of the present invention have been described in the context of an apparatus, it may also represent a description according to a corresponding method, where a block or apparatus corresponds to a method step or feature of a method step. Similarly, aspects described in the context of a method may also be represented by a corresponding block or item or a corresponding feature of a device. Some or all of the method steps may be performed by (or using) a hardware device such as, for example, a microprocessor, programmable computer or electronic circuitry. In some embodiments, one or more of the most important method steps may be performed by such an apparatus.

실시예들에서, 프로그램 가능한 로직 장치(예를 들어, 필드 프로그머블 게이트 어레이)가 여기서 설명된 방법들의 기능의 일부 또는 전부를 수행하기 위해 사용될 수 있다. 실시예들에서, 필드 프로그머블 게이트 어레이는 여기서 설명된 방법들 중 하나를 수행하기 위한 마이크로프로세서와 함께 작동할 수 있다. 일반적으로, 방법들은 어떤 하드웨어 장치에 의해 수행되는 것이 바람직하다.In embodiments, a programmable logic device (eg, a field programmable gate array) may be used to perform some or all of the functions of the methods described herein. In embodiments, a field programmable gate array may operate in conjunction with a microprocessor to perform one of the methods described herein. Generally, methods are preferably performed by some hardware device.

이상 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the above has been described with reference to preferred embodiments of the present invention, those skilled in the art can variously modify and change the present invention without departing from the spirit and scope of the present invention described in the claims below. You will understand that you can.

Claims (15)

최초 입력 이미지를 업스케일링한 제1 번째 입력 이미지로부터 시작하여, 제N-1 번째(N은 2 이상의 자연수) 입력 이미지를 뉴럴 네트워크에 입력하고 스케일 팩터를 적용하여 상기 뉴럴 네트워크에서 제N-1 번째 잔차 이미지를 출력하는 단계(a);
상기 제N-1 번째 잔차 이미지와 상기 제N-1 번째 입력 이미지의 합으로 제N 번째 입력 이미지를 생성하는 단계(b)-여기서 상기 제N 번째 입력 이미지는 상기 뉴럴 네트워크의 입력으로 전달됨-; 및
상기 스케일 팩터가 1이 될 때까지 상기 스케일 팩터의 크기를 미리 설정된 크기만큼 점진적으로 감소시키면서 상기 단계(a) 및 상기 단계(b)를 반복 수행하는 단계(c)를 포함하고,
상기 스케일 팩터가 1로 적용될 때 상기 제N-1 번째 잔차 이미지와 제N 번째 잔차 이미지 간의 이미지 잔차들에 대한 상미분 누적값과 상기 제1 번째 입력 이미지의 합으로 최종 출력 이미지가 생성되는, 점진적 이미지 해상도 향상 방법.
Starting from the 1st input image obtained by upscaling the original input image, the N-1th (N is a natural number greater than or equal to 2) input image is input to the neural network, and a scale factor is applied to obtain the N-1th input image in the neural network. Outputting a residual image (a);
(b) generating an N-th input image by adding the N-1-th residual image and the N-1-th input image, wherein the N-th input image is transmitted as an input of the neural network; and
Step (c) of repeating steps (a) and (b) while gradually reducing the size of the scale factor by a preset size until the scale factor becomes 1;
When the scale factor is applied as 1, a final output image is generated as a sum of the first input image and the cumulative ordinary differential of the image residuals between the N-1th residual image and the Nth residual image. How to improve image resolution.
청구항 1에 있어서,
상기 스케일 팩터는 1보다 큰 유리수(rational number) 값인, 점진적 이미지 해상도 향상 방법.
The method of claim 1,
The scale factor is a rational number value greater than 1, the gradual image resolution enhancement method.
청구항 2에 있어서,
상기 스케일 팩터는 상기 뉴럴 네트워크에 추가되는 입력으로, 상기 뉴럴 네트워크의 반복 동작마다 등차적, 선형적, 등비적 또는 비선형적으로 순차 감소하는 값인, 점진적 이미지 해상도 향상 방법.
The method of claim 2,
The scale factor is an input added to the neural network, and is a value that sequentially decreases in a geometrical, linear, geometrical, or nonlinear manner for each repetitive operation of the neural network.
청구항 1에 있어서,
상기 누적 계산한 값은 하기 수학식 4로 표현되는 상미분 방정식(ODE: ordinary differential equation)으로 모델링되며,
[수학식 4]
Figure pat00047

수학식 4에서,
Figure pat00048
은 상기 최종 출력 이미지를,
Figure pat00049
는 초기 스케일 팩터(to)가 적용된 상기 제1 번째 입력 이미지를,
Figure pat00050
는 상기 뉴럴 네트워크의 입력 이미지에 점진적으로 감소되는 스케일 팩터(t)가 적용된 이미지를, f()dt는 스케일 팩터(t)가 추가 입력되는 상기 뉴럴 네트워크의 입력 이미지와 출력 이미지 간의 이미지 잔차에 대한 상미분 방정식을,
Figure pat00051
는 상기 뉴럴 네트워크의 트레이닝 가능한 파라미터를 나타내는, 점진적 이미지 해상도 향상 방법.
The method of claim 1,
The cumulatively calculated value is modeled as an ordinary differential equation (ODE) represented by Equation 4 below,
[Equation 4]
Figure pat00047

In Equation 4,
Figure pat00048
is the final output image,
Figure pat00049
Is the first input image to which the initial scale factor (t o ) is applied,
Figure pat00050
is an image to which a gradually reduced scale factor (t) is applied to the input image of the neural network, and f()dt is an image residual between the input image and the output image of the neural network to which the scale factor (t) is additionally input. an ordinary differential equation,
Figure pat00051
Wherein denotes a trainable parameter of the neural network, progressive image resolution enhancement method.
청구항 4에 있어서,
상기 누적 계산한 값은 ODE 솔버(solver)에 의해 수치적으로(numerically) 계산되며,
상기 ODE 솔버는 오일러(Euler) 방법, 룬게쿠타(Runge-Kutta) 방법, Heun 방법, 중점(Midpoint) 방법, 적응적 룬게쿠타 방법 중에서 선택되는 어느 하나 이상을 포함하는, 점진적 이미지 해상도 향상 방법.
The method of claim 4,
The cumulatively calculated value is calculated numerically by an ODE solver,
The ODE solver includes one or more selected from the Euler method, the Runge-Kutta method, the Heun method, the midpoint method, and the adaptive Runge-Kutta method.
청구항 4에 있어서,
상기 뉴럴 네트워크는 수학식 6으로 표현되는 손실함수를 최소화하도록 상기 파라미터를 훈련하며,
[수학식 6]
Figure pat00052

수학식 6에서,
Figure pat00053
는 파라미터
Figure pat00054
를 훈련하여 손실함수를 최소화하는 수학식을,
Figure pat00055
은 상대적 고해상도(HR: high resolution)의 훈련용 원본 이미지를, ODESolove()는 ODE 솔버 함수를 각각 나타내는, 점진적 이미지 해상도 향상 방법.
The method of claim 4,
The neural network trains the parameters to minimize the loss function represented by Equation 6,
[Equation 6]
Figure pat00052

In Equation 6,
Figure pat00053
is the parameter
Figure pat00054
The equation for minimizing the loss function by training
Figure pat00055
A gradual image resolution enhancement method in which HR represents an original image for training and ODESolove() represents an ODE solver function, respectively.
청구항 6에 있어서,
상기 뉴럴 네트워크의 파라미터를 역전파를 통해 업데이트하는 단계를 더 포함하는, 점진적 이미지 해상도 향상 방법.
The method of claim 6,
The step of updating parameters of the neural network through backpropagation, the progressive image resolution enhancement method.
점진적 이미지 해상도 향상 장치로서,
프로세서;
상기 프로세서와 전자적으로 연결된 메모리; 및
상기 메모리에 저장된 명령어들을 포함하고,
상기 프로세서에 의해 실행될 때, 상기 명령어들은 상기 프로세서가:
최초 입력 이미지를 업스케일링한 제1 번째 입력 이미지를 시작으로, 제N-1 번째(N은 2 이상의 자연수) 입력 이미지를 뉴럴 네트워크에 입력하고 스케일 팩터를 적용하여 상기 뉴럴 네트워크에서 제N-1번째 잔차 이미지를 출력하는 단계(a);
상기 제N-1 번째 잔차 이미지와 상기 제N-1 번째 입력 이미지의 합으로 제N 번째 입력 이미지를 생성하는 단계(b)-여기서 상기 제N 번째 입력 이미지는 상기 뉴럴 네트워크의 입력으로 전달됨-;
상기 스케일 팩터가 1이 될 때까지 상기 스케일 팩터의 크기를 미리 설정된 크기만큼 점진적으로 감소시키면서 상기 단계(a) 및 상기 단계(b)를 반복 수행하는 단계(c); 및
상기 스케일 팩터가 1로 적용될 때 상기 제N-1 번째 잔차 이미지와 제N 번째 입력 이미지 간의 이미지 잔차들을 누적 계산한 값과 상기 제1 번째 입력 이미지의 합으로 최총 출력 이미지를 생성하는 단계(d)를 수행하도록 하는, 점진적 이미지 해상도 향상 장치.
As a gradual image resolution enhancement device,
processor;
a memory electronically coupled to the processor; and
contains instructions stored in the memory;
When executed by the processor, the instructions cause the processor to:
Starting with the 1st input image obtained by upscaling the original input image, input the N-1th (N is a natural number greater than or equal to 2) input image to the neural network and apply a scale factor to the N-1th input image in the neural network. Outputting a residual image (a);
(b) generating an N-th input image by adding the N-1-th residual image and the N-1-th input image, wherein the N-th input image is transmitted as an input of the neural network;
(c) repeatedly performing steps (a) and (b) while gradually decreasing the size of the scale factor by a preset size until the scale factor becomes 1; and
generating a total output image as a sum of a value obtained by cumulatively calculating image residuals between the N-1 th residual image and the N th input image when the scale factor is applied as 1 and the first input image (d) A gradual image resolution enhancement device for performing
청구항 8에 있어서,
상기 누적 계산한 값은 상미분 방정식(ODE: ordinary differential equation)으로 모델링되며,
[수학식 4]
Figure pat00056

수학식 4에서,
Figure pat00057
은 상기 최종 출력 이미지를,
Figure pat00058
는 초기 스케일 팩터(to)가 적용된 상기 제1 번째 입력 이미지를,
Figure pat00059
는 상기 뉴럴 네트워크의 입력 이미지에 점진적으로 감소되는 스케일 팩터(t)가 적용된 이미지를, f()dt는 스케일 팩터(t)가 추가 입력되는 상기 뉴럴 네트워크의 입력 이미지와 출력 이미지 간의 이미지 잔차에 대한 상미분 방정식을,
Figure pat00060
는 상기 뉴럴 네트워크의 트레이닝 가능한 파라미터를 나타내는, 점진적 이미지 해상도 향상 장치
The method of claim 8,
The cumulatively calculated value is modeled as an ordinary differential equation (ODE),
[Equation 4]
Figure pat00056

In Equation 4,
Figure pat00057
is the final output image,
Figure pat00058
Is the first input image to which the initial scale factor (t o ) is applied,
Figure pat00059
is an image to which a gradually reduced scale factor (t) is applied to the input image of the neural network, and f()dt is an image residual between the input image and the output image of the neural network to which the scale factor (t) is additionally input. an ordinary differential equation,
Figure pat00060
represents a trainable parameter of the neural network, a gradual image resolution enhancement device
청구항 9에 있어서,
상기 뉴럴 네트워크는 수학식 6으로 표현되는 손실함수를 최소화하도록 상기 파라미터를 훈련하며,
[수학식 6]
Figure pat00061

수학식 6에서,
Figure pat00062
는 파라미터
Figure pat00063
를 훈련하여 손실함수를 최소화하는 수학식을,
Figure pat00064
은 상대적 고해상도(HR: high resolution)의 훈련용 원본 이미지를, 그리고 ODESolove()는 ODE 솔버 함수를 각각 나타내는, 점진적 이미지 해상도 향상 장치
The method of claim 9,
The neural network trains the parameters to minimize the loss function represented by Equation 6,
[Equation 6]
Figure pat00061

In Equation 6,
Figure pat00062
is the parameter
Figure pat00063
The equation for minimizing the loss function by training
Figure pat00064
is a relatively high resolution (HR) training original image, and ODESolove() represents an ODE solver function, respectively, a progressive image resolution enhancement device
프로세서에 의해 수행되는 이미지 초해상도 방법에 있어서,
입력 이미지가 입력되는 뉴럴 네트워크의 출력 이미지를 상기 뉴럴 네트워크의 입력 이미지로 다시 입력하는 단계;
상기 뉴럴 네트워크에 상기 입력 이미지가 입력될 때마다 상기 뉴럴 네트워크에 점진적으로 그 크기가 다르게 설정되는 스케일 팩터들을 순차적으로 제공하는 단계;
상기 뉴럴 네트워크의 반복 동작마다 상기 뉴럴 네트워크의 입력 이미지와 출력 이미지 간의 이미지 잔차를 상미분 방정식을 이용하여 계산하고 계산된 값들을 누적하거나 갱신하는 단계; 및
상기 갱신하는 단계에서 얻은 최종 이미지 잔차와 최초 입력 이미지를 합하여 최종 출력 이미지를 생성하는 단계;
를 포함하는 이미지 초해상도 방법.
In the image super-resolution method performed by the processor,
re-inputting an output image of a neural network into which an input image is input as an input image of the neural network;
sequentially providing scale factors, the sizes of which are gradually set to be different, to the neural network whenever the input image is input to the neural network;
calculating an image residual between an input image and an output image of the neural network by using an ordinary differential equation for each repetitive operation of the neural network and accumulating or updating the calculated values; and
generating a final output image by adding the final image residual obtained in the updating step and the initial input image;
Image super-resolution method comprising a.
청구항 11에 있어서,
상기 제공하는 단계는 상기 뉴럴 네트워크의 첫번째 레이어에 상기 입력 이미지에 더하여 상기 스케일 팩터를 추가 입력하는, 이미지 초해상도 방법.
The method of claim 11,
The providing step further inputs the scale factor to the first layer of the neural network in addition to the input image.
청구항 12에 있어서,
상기 입력하는 단계 및 상기 제공하는 단계는, 상기 입력 이미지를 기준으로 1보다 큰 유리수의 크기를 가진 스케일 팩터에 대응하여 상기 입력 이미지의 가장자리에 패딩을 추가하고 상기 입력 이미지에 대응하도록 상기 패딩이 추가된 입력 이미지를 중심 크롭핑하는, 이미지 초해상도 방법.
The method of claim 12,
In the inputting and providing, padding is added to an edge of the input image in correspondence to a scale factor having a size of a rational number greater than 1 based on the input image, and the padding is added to correspond to the input image. An image super-resolution method that center-crops the input image.
청구항 11에 있어서,
상기 뉴럴 네트워크는 RDN(Residual Dense Network)를 포함하고, 상기 RDN은 최종 업샘플링 레이어(last upsampling layer)가 생략된 형태를 가져 입력 해상도와 출력 해상도가 동일하게 형성되는, 이미지 초해상도 방법.
The method of claim 11,
The neural network includes a residual dense network (RDN), and the RDN has a form in which a last upsampling layer is omitted so that an input resolution and an output resolution are identical.
청구항 11에 있어서,
상기 뉴럴 네트워크를 훈련하는 단계를 더 포함하며,
상기 훈련하는 단계는, 상기 상미분 방정식을 통해 상기 뉴럴 네트워크의 입력 이미지와 출력 이미지 간의 이미지 잔차들의 차이를 통해 이미지 디테일을 추정하고 상기 이미지 디테일을 상기 뉴럴 네트워크 수행 시마다 갱신하여 상기 최초 입력 이미지에 더하는 단일 훈련 과정을, 서로 다른 스케일 팩터 세트들에 대해 수행하여 미리 설정된 손실 함수가 최소 값이 되거나 미리 설정된 기준 값 이하가 되도록 훈련하는, 이미지 초해상도 방법.
The method of claim 11,
Further comprising training the neural network,
The training may include estimating image details through a difference in image residuals between an input image and an output image of the neural network through the ordinary differential equation, updating the image detail each time the neural network is executed, and adding the image to the first input image. An image super-resolution method in which a single training process is performed for different sets of scale factors to train a preset loss function to be a minimum value or less than a preset reference value.
KR1020210073710A 2021-06-07 2021-06-07 Method and apparatus for progressive image resolution improvement using neural ordinary differential equation, and image super-resolution method using the smae KR102548407B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210073710A KR102548407B1 (en) 2021-06-07 2021-06-07 Method and apparatus for progressive image resolution improvement using neural ordinary differential equation, and image super-resolution method using the smae

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210073710A KR102548407B1 (en) 2021-06-07 2021-06-07 Method and apparatus for progressive image resolution improvement using neural ordinary differential equation, and image super-resolution method using the smae

Publications (2)

Publication Number Publication Date
KR20220165121A true KR20220165121A (en) 2022-12-14
KR102548407B1 KR102548407B1 (en) 2023-06-27

Family

ID=84438271

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210073710A KR102548407B1 (en) 2021-06-07 2021-06-07 Method and apparatus for progressive image resolution improvement using neural ordinary differential equation, and image super-resolution method using the smae

Country Status (1)

Country Link
KR (1) KR102548407B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116385280A (en) * 2023-01-09 2023-07-04 爱芯元智半导体(上海)有限公司 Image noise reduction system and method and noise reduction neural network training method

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Ricky T. Q. Chen et al., "Neural Ordinary Differential Equations", 32nd Conference on Neural Information Processing Systems, (2019.12.14.)* *
Ying Fu et al., "Residual scale attention network for arbitrary scale image super-resolution", Neurocomputing Volume 427, Pages 201-211 (2021.2.28.)* *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116385280A (en) * 2023-01-09 2023-07-04 爱芯元智半导体(上海)有限公司 Image noise reduction system and method and noise reduction neural network training method
CN116385280B (en) * 2023-01-09 2024-01-23 爱芯元智半导体(上海)有限公司 Image noise reduction system and method and noise reduction neural network training method

Also Published As

Publication number Publication date
KR102548407B1 (en) 2023-06-27

Similar Documents

Publication Publication Date Title
Dong et al. Denoising prior driven deep neural network for image restoration
CN109308679B (en) Image style conversion method and device, equipment and storage medium
Kim et al. Deeply-recursive convolutional network for image super-resolution
US10552944B2 (en) Image upscaling with controllable noise reduction using a neural network
AU2019451948B2 (en) Real-time video ultra resolution
CN109068174B (en) Video frame rate up-conversion method and system based on cyclic convolution neural network
JP6998968B2 (en) Deep neural network execution method, execution device, learning method, learning device and program
Dong et al. Sparse analysis model based multiplicative noise removal with enhanced regularization
JP7143529B2 (en) IMAGE RESTORATION METHOD AND DEVICE, ELECTRONIC DEVICE, AND STORAGE MEDIUM
CN111696027A (en) Multi-modal image style migration method based on adaptive attention mechanism
Salmona et al. Deoldify: A review and implementation of an automatic colorization method
CN116681584A (en) Multistage diffusion image super-resolution algorithm
KR102548407B1 (en) Method and apparatus for progressive image resolution improvement using neural ordinary differential equation, and image super-resolution method using the smae
Mikaeli et al. Single-image super-resolution via patch-based and group-based local smoothness modeling
JP4945533B2 (en) Image processing apparatus and image processing method
WO2023012231A1 (en) Method and data processing system for lossy image or video encoding, transmission and decoding
Xiong et al. Noucsr: Efficient super-resolution network without upsampling convolution
Mishra et al. Experimentally proven bilateral blur on SRCNN for optimal convergence
CN113095473A (en) Neural network architecture search system and method, and computer-readable recording medium
Li et al. Medical Image Enhancement Using Deep Learning
Wang et al. Single image super-resolution based on approximated Heaviside functions and iterative refinement
CN114781499B (en) Method for constructing ViT model-based intensive prediction task adapter
Sakthidasan Sankaran et al. Optimized gradient histogram preservation with block wise SURE shrinkage for noise free image restoration
Xu et al. JPEG image super-resolution via deep residual network
Ajith et al. Time accelerated image super-resolution using shallow residual feature representative network

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right