KR20220165121A - Method and apparatus for progressive image resolution improvement using neural ordinary differential equation, and image super-resolution method using the smae - Google Patents
Method and apparatus for progressive image resolution improvement using neural ordinary differential equation, and image super-resolution method using the smae Download PDFInfo
- Publication number
- KR20220165121A KR20220165121A KR1020210073710A KR20210073710A KR20220165121A KR 20220165121 A KR20220165121 A KR 20220165121A KR 1020210073710 A KR1020210073710 A KR 1020210073710A KR 20210073710 A KR20210073710 A KR 20210073710A KR 20220165121 A KR20220165121 A KR 20220165121A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- neural network
- resolution
- input
- input image
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 154
- 230000000750 progressive effect Effects 0.000 title claims description 5
- 230000001537 neural effect Effects 0.000 title description 5
- 230000006872 improvement Effects 0.000 title description 3
- 238000013528 artificial neural network Methods 0.000 claims abstract description 160
- 230000008569 process Effects 0.000 claims abstract description 24
- 230000003247 decreasing effect Effects 0.000 claims abstract description 8
- 238000012549 training Methods 0.000 claims description 41
- 230000006870 function Effects 0.000 claims description 30
- 230000007423 decrease Effects 0.000 claims description 11
- 230000003252 repetitive effect Effects 0.000 claims description 6
- 230000001186 cumulative effect Effects 0.000 claims description 4
- 230000003044 adaptive effect Effects 0.000 claims description 2
- 238000004364 calculation method Methods 0.000 abstract description 11
- 230000000052 comparative effect Effects 0.000 description 26
- 238000010586 diagram Methods 0.000 description 18
- 238000012545 processing Methods 0.000 description 16
- 238000013527 convolutional neural network Methods 0.000 description 12
- 238000007781 pre-processing Methods 0.000 description 9
- 238000009825 accumulation Methods 0.000 description 6
- 238000011156 evaluation Methods 0.000 description 6
- 238000013135 deep learning Methods 0.000 description 5
- 238000013507 mapping Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 230000004913 activation Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 230000001419 dependent effect Effects 0.000 description 2
- 238000013213 extrapolation Methods 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- XOJVVFBFDXDTEG-UHFFFAOYSA-N Norphytane Natural products CC(C)CCCC(C)CCCC(C)CCCC(C)C XOJVVFBFDXDTEG-UHFFFAOYSA-N 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 210000004185 liver Anatomy 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4046—Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4053—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Processing (AREA)
Abstract
Description
본 발명은 초해상도를 위한 영상처리 기술에 관한 것으로, 보다 상세하게는, 저해상도 이미지가 고해상도 이미지로 점진적으로 바뀌는 과정을 뉴럴 네트워크를 포함한 상미분 방정식으로 표현함으로써 초해상도 문제를 초기값 문제로 만들어 풀 수 있는, 점진적 이미지 해상도 향상 방법 및 장치와 이를 이용하는 이미지 초해상도 방법에 관한 것이다.The present invention relates to an image processing technology for super-resolution, and more particularly, by expressing the process of gradually changing a low-resolution image into a high-resolution image as an ordinary differential equation including a neural network, the super-resolution problem is solved by making it an initial value problem. It relates to a gradual image resolution enhancement method and apparatus and an image super-resolution method using the same.
최근 초고해상도(ultra-high definition, HUD) 디스플레이가 보급되면서 기존의 상대적 저해상도(low resolution, LR) 이미지를 상대적 고해상도(high resolution, HR) 영상으로 변환하는 초해상도(super resloution, SR) 기술에 대한 관심이 커지고 있다.With the recent spread of ultra-high definition (HUD) displays, research on super resolution (SR) technology converts conventional low resolution (LR) images into relatively high resolution (HR) images. Interest is growing.
기존의 초해상도 기술로는 바이큐빅 보간법(bicubic interpolation)과 같은 다항식 기반의 보간법이나 선형 매핑(linear mapping)을 사용하는 로컬 패치(local patch) 기반의 초해상도 기법 등이 있다.Existing super-resolution techniques include a polynomial-based interpolation method such as bicubic interpolation or a local patch-based super-resolution technique using linear mapping.
최근, 단일 이미지 초해상도(signal image super resolution, SISR)에 관한 연구 중 하나는 LR 이미지 매치와 HR 이미지 패치 사이의 매핑 함수들을 학습하는 것이다. 이러한 기존 연구에서는 서로 다른 종류의 스킵 커넥션들을 적용하여 합성곱 신경망의 최적화 과정을 단순화시키는 결과를 얻었다.Recently, one of the studies on signal image super resolution (SISR) is to learn mapping functions between LR image match and HR image patch. In these previous studies, the results of simplifying the optimization process of convolutional neural networks were obtained by applying different types of skip connections.
한편, 매핑 함수를 사용해 저해상도 패치로부터 바로 고해상도 패치를 복원하는 초해상도 기술은 상대적으로 적은 복잡도와 연산량으로 고품질의 고해상도 영상을 생성해낼 수 있지만, 이러한 종래 기술은 비교적 단순한 선행 매핑을 기반으로 하므로 복잡하고 비선형적인 초해상도 모델을 구현하기가 어렵다.On the other hand, super-resolution technology that uses a mapping function to directly restore a high-resolution patch from a low-resolution patch can generate a high-quality, high-resolution image with relatively little complexity and computation. It is difficult to implement a nonlinear super-resolution model.
이러한 매핑 함수를 사용한 초해상도에서의 문제를 해결하기 위하여, 최근 합성곱 신경망(convolutional neural network, CNN) 등을 이용한 딥러닝(deep learning) 기반 초해상도 알고리즘에 대한 다양한 연구가 진행되고 있다. 기존의 대표적인 연구로는 SISR을 위한 딥러닝 알고리즘의 하나인 VDSR(very-deep supper-resolution), 잔류 밀집 네트워크(residual dense network, RDN), SRCNN(super-resolution convolution neural network) 등이 있다.In order to solve the problem in super-resolution using such a mapping function, various studies on super-resolution algorithms based on deep learning using a convolutional neural network (CNN) have recently been conducted. Representative existing studies include VDSR (very-deep supper-resolution), one of the deep learning algorithms for SISR, residual dense network (RDN), and SRCNN (super-resolution convolution neural network).
그러나, 기존의 딥러닝 기반 초해상도 기법들은 네트워크의 후반부에 해상도를 업샘플링하는 구조를 가지며, 이러한 구조는 저해상도에서 고해상도로 한 번에 매핑을 수행하기 때문에 특히 많은 정보를 예측하는 높은 확대율 혹은 고주파 영역이 많은 이미지에서 초해상도 성능(PSNR: peak signal-to-noise ratio)이 좋지 않으며 초해상도의 중간 과정을 알 수 없고 사전에 정해진 배율로만 초해상도가 가능한 한계가 있다.However, existing deep learning-based super-resolution techniques have a structure of upsampling the resolution in the second half of the network, and since this structure performs mapping from low resolution to high resolution at once, especially in high magnification or high frequency areas that predict a lot of information In this many images, the peak signal-to-noise ratio (PSNR) performance is poor, the intermediate process of super-resolution is unknown, and there is a limit to super-resolution only at a pre-determined magnification.
본 발명의 전술한 종래 기술의 한계를 넘을 수 있는 딥러닝 기반 초해상도 기술을 제공하기 위한 것으로, 본 발명의 목적은 뉴럴 네트워크가 포함된 상미분 방정식 즉, NODE(Neural Ordinary Differential Equation)를 이용해 점진적으로 이미지의 해상도를 향상시키는 방법 및 장치와 이미지를 초해상도하는 방법을 제공하는데 있다.To provide a deep learning-based super-resolution technology that can overcome the limitations of the above-mentioned prior art of the present invention, an object of the present invention is to use an ordinary differential equation including a neural network, that is, NODE (Neural Ordinary Differential Equation) It is to provide a method of improving the resolution of an image and a method of super-resolution a device and an image.
본 발명의 다른 목적은, 이미지의 초해상도에 있어서 단순히 초해상도를 하는데 그치지 않고 상미분 방정식을 푸는 과정의 중간 이미지들을 분석해 이미지가 저해상도에서 고해상도로 바뀌는 과정을 관찰하거나 분석할 수 있는, 점진적 이미지 해상도 향상 방법 및 장치와 이미지 초해상도 방법을 제공하는데 있다.Another object of the present invention is a gradual image resolution that can observe or analyze the process of changing an image from low resolution to high resolution by analyzing intermediate images in the process of solving an ordinary differential equation, rather than simply doing super resolution in the super resolution of an image. An enhancement method and apparatus and an image super-resolution method are provided.
본 발명의 또 다른 목적은, 전술한 점진적 이미지 해상도 향상 방법이나 이미지 초해상도 방법을 이용하는 이미지 초해상도 장치를 제공하는데 있다.Another object of the present invention is to provide an image super-resolution device using the above-described gradual image resolution enhancement method or image super-resolution method.
상기 기술적 과제를 해결하기 위한 본 발명의 일 측면에 따른 점진적 이미지 해상도 향상 방법은, 최초 입력 이미지를 업스케일링한 제1 번째 입력 이미지로부터 시작하여, 제N-1 번째(N은 2 이상의 자연수) 입력 이미지를 뉴럴 네트워크에 입력하고 스케일 팩터를 적용하여 뉴럴 네트워크에서 제N-1 번째 잔차 이미지를 출력하는 단계(a); 제N-1 번째 잔차 이미지와 제N-1 번째 입력 이미지의 합으로 제N 번째 입력 이미지를 생성하는 단계(b)-여기서 제N 번째 입력 이미지는 뉴럴 네트워크의 입력으로 전달됨-; 및 스케일 팩터가 1이 될 때까지 스케일 팩터의 크기를 미리 설정된 크기만큼 점진적으로 감소시키면서 단계(a) 및 단계(b)를 반복 수행하는 단계(c)를 포함한다. 그리고 스케일 팩터가 1로 적용될 때 제N-1 번째 잔차 이미지와 제N 번째 잔차 이미지 간의 이미지 잔차들에 대한 누적 계산 값과 제1 번째 입력 이미지의 합으로 최종 출력 이미지가 생성된다.In the gradual image resolution enhancement method according to an aspect of the present invention for solving the above technical problem, starting from the first input image obtained by upscaling the first input image, the N-1th (N is a natural number greater than or equal to 2) input (a) outputting an N-1 th residual image from the neural network by inputting the image to the neural network and applying a scale factor; (b) generating an N-th input image from the sum of the N-1-th residual image and the N-1-th input image, wherein the N-th input image is transmitted as an input of the neural network; and (c) repeating steps (a) and (b) while gradually decreasing the size of the scale factor by a preset size until the scale factor becomes 1. When a scale factor of 1 is applied, a final output image is generated as a sum of a cumulative calculation value of image residuals between the N−1 th residual image and the N th residual image and the first input image.
일실시예에서, 스케일 팩터는 1보다 큰 유리수(rational number) 값일 수 있다.In one embodiment, the scale factor may be a rational number value greater than one.
일실시예에서, 스케일 팩터는 뉴럴 네트워크에 추가되는 입력으로, 뉴럴 네트워크의 반복 동작마다 등차적, 선형적, 등비적 또는 비선형적으로 순차 감소하는 값일 수 있다.In an embodiment, the scale factor is an input added to the neural network, and may be a value that sequentially decreases in a geometrical, linear, geometrical, or non-linear manner for each repetition of the neural network.
일실시예에서, 상기 누적 계산한 값은 하기 수학식 4로 표현되는 상미분 방정식(ODE: ordinary differential equation)으로 모델링될 수 있다:In one embodiment, the cumulatively calculated value may be modeled as an ordinary differential equation (ODE) represented by
[수학식 4][Equation 4]
수학식 4에서, 은 상기 최종 출력 이미지를, 는 초기 스케일 팩터(to)가 적용된 상기 제1 번째 입력 이미지를, 는 상기 뉴럴 네트워크의 입력 이미지에 점진적으로 감소되는 스케일 팩터(t)가 적용된 이미지를, f()dt는 스케일 팩터(t)가 추가 입력되는 상기 뉴럴 네트워크의 입력 이미지와 출력 이미지 간의 이미지 잔차에 대한 상미분 방정식을, 는 상기 뉴럴 네트워크의 트레이닝 가능한 파라미터를 각각 나타낸다.In
일실시예에서, 상기 는 원본 이미지(I_HR)을 t배 줄이고, 이것을 다시 t배 키운 이미지가 된다. 여기서, 이미지를 줄이고 키우는 방식 즉, 업스케일링(upscaling)이나 다운스케일링(downscaling) 방법은 바이큐빅(bicubic) 방법이나 다른 선형 보간 방법이 사용될 수 있다.In one embodiment, the is reduced by t times the original image (I_HR), and becomes an image enlarged by t times again. Here, a bicubic method or another linear interpolation method may be used as a method of reducing and enlarging an image, that is, an upscaling or downscaling method.
일실시예에서, 상기 누적 계산한 값은 ODE 솔버(solver)에 의해 수치적으로(numerically) 계산될 수 있다. ODE 솔버는 오일러(Euler) 방법, 룬게쿠타(Runge-Kutta) 방법, Heun 방법, 중점(Midpoint) 방법, 적응적 룬게쿠타 방법 중에서 선택되는 어느 하나 이상을 포함할 수 있다.In one embodiment, the cumulatively calculated value may be calculated numerically by an ODE solver. The ODE solver may include one or more selected from the Euler method, the Runge-Kutta method, the Heun method, the midpoint method, and the adaptive Runge-Kutta method.
일실시예에서, 뉴럴 네트워크는 수학식 6으로 표현되는 손실함수를 최소화하도록 파라미터를 훈련할 수 있다:In one embodiment, a neural network can be trained with parameters to minimize the loss function represented by Equation 6:
[수학식 6][Equation 6]
수학식 6에서, 는 파라미터 를 훈련하여 손실함수를 최소화하는 수학식을, 은 상대적 고해상도(HR: high resolution)의 훈련용 원본 이미지를, 그리고 ODESolove()는 ODE 솔버 함수를 각각 나타낸다.In
일실시예에서, 점진적 이미지 해상도 향상 방법은, 뉴럴 네트워크의 파라미터를 역전파를 통해 업데이트하는 단계를 더 포함할 수 있다.In one embodiment, the progressive image resolution enhancement method may further include updating parameters of the neural network through backpropagation.
상기 기술적 과제를 해결하기 위한 본 발명의 다른 측면에 따른 점진적 이미지 해상도 향상 장치는, 프로세서; 프로세서와 전자적으로 연결된 메모리; 및 메모리에 저장된 명령어들을 포함하고, 프로세서에 의해 실행될 때, 명령어들은 프로세서가, 최초 입력 이미지를 업스케일링한 제1 번째 입력 이미지를 시작으로, 제N-1 번째(N은 2 이상의 자연수) 입력 이미지를 뉴럴 네트워크에 입력하고 스케일 팩터를 적용하여 뉴럴 네트워크에서 제N-1번째 잔차 이미지를 출력하는 단계(a); 제N-1 번째 잔차 이미지와 제N-1 번째 입력 이미지의 합으로 제N 번째 입력 이미지를 생성하는 단계(b)-여기서 제N 번째 입력 이미지는 상기의 뉴럴 네트워크의 입력으로 전달됨-; 및 스케일 팩터가 1이 될 때까지 스케일 팩터의 크기를 미리 설정된 크기만큼 점진적으로 감소시키면서 단계(a) 및 단계(b)를 반복 수행하는 단계(c); 및 스케일 팩터가 1로 적용될 때 제N-1 번째 잔차 이미지와 제N 번째 입력 이미지 간의 이미지 잔차들을 누적 계산한 값과 제1 번째 입력 이미지의 합으로 최총 출력 이미지를 생성하는 단계(d)를 수행하도록 한다.A gradual image resolution enhancement device according to another aspect of the present invention for solving the above technical problem includes a processor; memory electronically connected to the processor; and instructions stored in the memory, which, when executed by the processor, start with the first input image obtained by upscaling the first input image by the processor, and start with the N-1th (N is a natural number greater than or equal to 2) input image. (a) outputting an N-1 th residual image from the neural network by inputting to the neural network and applying a scale factor; (b) generating an N-th input image from the sum of the N-1-th residual image and the N-1-th input image, where the N-th input image is transmitted as an input of the neural network; and (c) repeatedly performing steps (a) and (b) while gradually decreasing the size of the scale factor by a preset size until the scale factor becomes 1; and a step (d) of generating a total output image as a sum of a value obtained by accumulatively calculating image residuals between the N-1 th residual image and the N th input image when the scale factor is applied as 1 and the first input image. let it do
상기 기술적 과제를 해결하기 위한 본 발명의 또 다른 측면에 따른 이미지 초해상도 방법은, 프로세서에 의해 수행되는 이미지 초해상도 방법에 있어서, 입력 이미지가 입력되는 뉴럴 네트워크의 출력 이미지를 상기 뉴럴 네트워크의 입력 이미지로 다시 입력하는 단계; 뉴럴 네트워크에 입력 이미지가 입력될 때마다 뉴럴 네트워크에 점진적으로 그 크기가 다르게 설정되는 스케일 팩터들을 순차적으로 제공하는 단계; 뉴럴 네트워크의 반복 동작마다 뉴럴 네트워크의 입력 이미지와 출력 이미지 간의 이미지 잔차를 상미분 방정식을 이용하여 계산하고 계산된 값들을 누적하거나 갱신하는 단계; 및 갱신하는 단계에서 얻은 최종 이미지 잔차와 최초 입력 이미지를 합하여 상대적 고해상도의 최종 출력 이미지를 생성하는 단계를 포함한다.In the image super-resolution method according to another aspect of the present invention for solving the above technical problem, in the image super-resolution method performed by a processor, an output image of a neural network to which an input image is input is converted into an input image of the neural network. re-entering as; sequentially providing scale factors, the sizes of which are gradually set to be different, to the neural network whenever an input image is input to the neural network; calculating an image residual between an input image and an output image of the neural network by using an ordinary differential equation for each repetitive operation of the neural network and accumulating or updating the calculated values; and generating a relatively high-resolution final output image by summing the final image residual obtained in the updating step and the initial input image.
일실시예에서, 상기 제공하는 단계는 뉴럴 네트워크의 첫번째 레이어에 입력 이미지에 더하여 스케일 팩터를 추가 입력한다.In one embodiment, the providing step additionally inputs a scale factor to the first layer of the neural network in addition to the input image.
일실시예에서, 상기 입력하는 단계 및 상기 제공하는 단계는, 입력 이미지를 기준으로 1보다 큰 유리수의 크기를 가진 스케일 팩터에 대응하여 입력 이미지의 가장자리에 패딩을 추가하고 패딩이 추가된 입력 이미지의 중앙 픽셀을 중심으로 입력 이미지의 원래 사이즈에 대응하도록 센터 크롭핑(center cropping)을 수행할 수 있다.In one embodiment, the inputting and the providing may include adding padding to an edge of the input image in response to a scale factor having a size of a rational number greater than 1 based on the input image, and displaying the input image to which the padding is added. Center cropping may be performed to correspond to the original size of the input image around the center pixel.
일실시예에서, 뉴럴 네트워크는 RDN(Residual Dense Network)를 포함할 수 있다. RDN은 최종 업샘플링 레이어(last upsampling layer)가 생략된 형태를 가져 입력 해상도와 출력 해상도가 동일하게 형성될 수 있다.In one embodiment, the neural network may include a residual dense network (RDN). The RDN has a form in which the last upsampling layer is omitted, so that the input resolution and the output resolution may be identical.
일실시예에서, 이미지 초해상도 방법은, 뉴럴 네트워크를 훈련하는 단계를 더 포함할 수 있다. 훈련하는 단계는, 상미분 방정식을 통해 뉴럴 네트워크의 입력 이미지와 출력 이미지 간의 이미지 잔차를 통해 이미지 디테일을 추정하고 상기 이미지 디테일을 상기 뉴럴 네트워크 수행 시마다 갱신하거나 누적하여 상기 최초 입력 이미지에 더하는 단일 훈련 과정을, 서로 다른 스케일 팩터 세트들에 대해 수행하여 미리 설정된 손실 함수가 최소 값이 되거나 미리 설정된 기준 값 이하가 되도록 수행될 수 있다.In one embodiment, the image super-resolution method may further include training a neural network. The training step is a single training process of estimating image details through an image residual between an input image and an output image of the neural network through an ordinary differential equation, updating or accumulating the image details each time the neural network is performed, and adding them to the first input image. may be performed for different scale factor sets so that the preset loss function becomes a minimum value or less than a preset reference value.
본 발명에 의하면, 뉴럴 네트워크가 포함된 상미분 방정식 즉, NODE(Neural Ordinary Differential Equation)를 이용해 점진적으로 이미지를 초해상도하는 방법을 채용함으로써, 뉴럴 네트워크가 저해상도를 고해상도로 만들 수 있는 정보를 학습하고, 상미분 방정식이 여러 가지 해상도의 이미지 간의 관계를 표현할 수 있으며, 그에 의해 초해상도 작업에서 합성곱 신경망(Convolutional Neural Network, CNN)을 이용한 기존의 방법보다 성능이 우수하고 원하는 임의 배율로 초해상도를 수행할 수 있는 장점이 있다.According to the present invention, by adopting a method of gradually super-resolution an image using an ordinary differential equation that includes a neural network, that is, a Neural Ordinary Differential Equation (NODE), the neural network learns information that can make a low resolution into a high resolution , Ordinary differential equations can express the relationship between images of various resolutions, thereby outperforming conventional methods using convolutional neural networks (CNNs) in super-resolution tasks, and super-resolution There are advantages to doing it.
또한, 본 발명에 의하면, 텔레비전(TV), 스마트폰 등에서 원하는 임의 배율로 이미지를 키우고자 할 때 효과적으로 활용할 수 있고, 어도비 포토샵(Adobe Photoshop), 어도비 프리미어 프로(Adobe Premiere Pro) 등과 같은 이미지 편집기나 영상 편집 응용소프트웨어에서 이미지나 영상을 키우고자 할 때 효과적으로 사용할 수 있다. 아울러, 이미지 편집기나 비디오 편집기 혹은 CCTV(closed circuit television) 운영/관리/제어 프로그램 등의 소프트웨어에서 필요로 하는 초해상도 방안을 효과적으로 제공할 수 있다.In addition, according to the present invention, it can be effectively used when an image is to be enlarged at a desired magnification on a television (TV), smartphone, etc., and image editors such as Adobe Photoshop, Adobe Premiere Pro, etc. It can be used effectively when you want to grow images or videos in video editing application software. In addition, it is possible to effectively provide a super-resolution method required by software such as an image editor, a video editor, or a closed circuit television (CCTV) operation/management/control program.
도 1은 본 발명의 일실시예에 따른 점진적 이미지 해상도 향상 방법에 대한 흐름도이다.
도 2는 도 1의 점진적 이미지 해상도 향상 방법을 설명하기 위한 개념도이다.
도 3은 도 2의 점진적 이미지 해상도 향상 방법 중 뉴럴 네트워크의 입력 및 출력을 예시한 도면이다.
도 4는 본 발명의 다른 실시예에 따른 점진적 이미지 해상도 향상 장치에 대한 블록도이다.
도 5는 본 발명의 또 다른 실시예에 따른 이미지 초해상도 장치에 대한 블록도이다.
도 6은 도 5의 이미지 초해상도 장치에 채용할 수 있는 전처리부의 상세 구성에 대한 블록도이다.
도 7은 도 5의 이미지 초해상도 장치에 채용할 수 있는 훈련처리부의 상세 구성에 대한 블록도이다.
도 8은 도 5의 이미지 초해상도 장치에 채용할 수 있는 이미지 초해상도 방법을 설명하기 위한 흐름도이다.
도 9는 본 실시예의 초해상도 방법(NODE-RDN)과 비교예의 초해상도 방법들(DRRN, SRFBN)의 초해상도 결과를 비교하여 보여주는 도면이다.
도 10은 본 실시예의 초해상도 방법(NODE-RDN)과 비교예의 초해상도 방법들(DRRN, SRFBN)의 또 다른 초해상도 결과를 비교하여 보여주는 도면이다.
도 11은 본 실시예의 초해상도 방법(NODE-RDN)과 비교예의 초해상도 방법(Meta-RDN)의 초해상도 결과를 비교하여 보여주는 도면이다.
도 12는 본 실시예의 초해상도 방법들(NODE-RDN, NODE-VDSR)에서 스케일 팩터를 변경하면서 평가한 성능(PSNR)을 나타낸 그래프이다.
도 13은 본 실시예의 이미지 초해상도 방법에 채용할 수 있는 스케일 팩터의 설정 원리를 중간 이미지 잔차들의 세기에 기초하여 설명하기 위한 그래프이다.1 is a flowchart of a method for gradually increasing image resolution according to an embodiment of the present invention.
FIG. 2 is a conceptual diagram illustrating the gradual image resolution enhancement method of FIG. 1 .
FIG. 3 is a diagram illustrating input and output of a neural network in the gradual image resolution enhancement method of FIG. 2 .
4 is a block diagram of an apparatus for gradually increasing image resolution according to another embodiment of the present invention.
5 is a block diagram of an image super-resolution device according to another embodiment of the present invention.
FIG. 6 is a block diagram of a detailed configuration of a pre-processing unit that can be employed in the image super-resolution device of FIG. 5 .
FIG. 7 is a block diagram of a detailed configuration of a training processing unit that can be employed in the image super-resolution device of FIG. 5 .
FIG. 8 is a flowchart for explaining an image super-resolution method employable in the image super-resolution apparatus of FIG. 5 .
9 is a diagram showing a comparison of super-resolution results of the super-resolution method (NODE-RDN) of this embodiment and the super-resolution methods (DRRN, SRFBN) of the comparative example.
10 is a diagram showing a comparison of another super-resolution result of a super-resolution method (NODE-RDN) of this embodiment and super-resolution methods (DRRN, SRFBN) of a comparative example.
11 is a diagram showing a comparison of super-resolution results of a super-resolution method (NODE-RDN) of this embodiment and a super-resolution method (Meta-RDN) of a comparative example.
12 is a graph showing the performance (PSNR) evaluated while changing the scale factor in the super-resolution methods (NODE-RDN, NODE-VDSR) of the present embodiment.
13 is a graph for explaining a principle of setting a scale factor that can be employed in the image super-resolution method of the present embodiment based on the strength of intermediate image residuals.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다. Since the present invention can make various changes and have various embodiments, specific embodiments will be illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the present invention to specific embodiments, and should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention. Like reference numerals have been used for like elements throughout the description of each figure.
제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는 데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. "및/또는"이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다. Terms such as first, second, A, and B may be used to describe various components, but the components should not be limited by the terms. These terms are only used for the purpose of distinguishing one component from another. For example, a first element may be termed a second element, and similarly, a second element may be termed a first element, without departing from the scope of the present invention. The term “and/or” includes any combination of a plurality of related listed items or any of a plurality of related listed items.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. It is understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, but other elements may exist in the middle. It should be. On the other hand, when an element is referred to as “directly connected” or “directly connected” to another element, it should be understood that no other element exists in the middle.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms used in this application are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this application, the terms "include" or "have" are intended to designate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, but one or more other features It should be understood that the presence or addition of numbers, steps, operations, components, parts, or combinations thereof is not precluded.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and unless explicitly defined in this application, it should not be interpreted in an ideal or excessively formal meaning. don't
이하, 본 발명에 따른 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명한다. Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 일실시예에 따른 점진적 이미지 해상도 향상 방법에 대한 흐름도이다.1 is a flowchart of a method for gradually increasing image resolution according to an embodiment of the present invention.
도 1을 참조하면, 점진적 이미지 해상도 향상 방법은, 먼저 단계(a)에서, 최초 입력 이미지를 업스케일링한 제1 번째 입력 이미지로부터 시작하여, 제N-1 번째(N은 2 이상의 자연수) 입력 이미지를 뉴럴 네트워크에 입력하고 스케일 팩터를 적용하여 뉴럴 네트워크에서 제N-1 번째 잔차 이미지를 출력한다(S11).Referring to FIG. 1 , in step (a), starting from a first input image obtained by upscaling the first input image, the gradual image resolution enhancement method starts with an N-1th (N is a natural number greater than or equal to 2) input image. is input to the neural network and a scale factor is applied to output an N-1 th residual image from the neural network (S11).
제1 번째 입력 이미지는 제1 해상도를 가진 원본 이미지를 제1 해상도보다 높은 제2 해상도의 출력 이미지를 고려할 때, 출력 이미지가 제1 해상도를 가질 때의 크기(예컨대 M배)에 대응하도록 업샘플링(upsampling) 혹은 업스케일링(upscaling)을 통해 변환된 이미지를 가리킨다.The first input image is upsampled to correspond to the size (for example, M times) when the output image has the first resolution, considering the output image of the second resolution higher than the first resolution of the original image having the first resolution. Refers to an image converted through upsampling or upscaling.
또한 제1 번째 입력 이미지는 뉴럴 네트워크의 훈련 모드(traning mode)에서 상대적 고해상도의 최초 원본 이미지를 먼저 소정 크기(예컨대 1/M배)로 다운스케일링(downscaling) 후 다시 소정 크기(예컨대 M배)로 업스케일링을 처리한 이미지에 대응될 수 있다.In addition, the first input image is first downscaled to a predetermined size (eg, 1/M times) of the first relatively high-resolution original image in the training mode of the neural network, and then again to a predetermined size (eg, M times). It may correspond to an image subjected to upscaling.
제1 번째 입력 이미지를 위한 다운스케일링이나 업스케일링은, 불연속적으로 주어진 이미지 내 점들을 이용하여 이 점들 사이의 값을 추정하는 보간법이나 초해상도 커널(kernel) 등을 통해 처리될 수 있다. 보간법 혹은 초해상도 커널은 선형 보간(linear interpolation), 바이큐빅(bicubic) 보간, 쌍선형(bilinear) 보간, 쌍삼차(bicubic) 보간 등을 포함할 수 있다.Downscaling or upscaling for the first input image may be processed through an interpolation method or a super-resolution kernel for estimating a value between points in an image given discontinuously. The interpolation method or super-resolution kernel may include linear interpolation, bicubic interpolation, bilinear interpolation, bicubic interpolation, and the like.
다음, 단계(b)에서, 제N-1 번째 잔차 이미지와 제N-1 번째 입력 이미지의 합으로 제N 번째 입력 이미지를 획득한다(S12). 여기서, 제N 번째 입력 이미지는 뉴럴 네트워크의 입력으로 전달된다.Next, in step (b), an N-th input image is obtained as a sum of the N-1 th residual image and the N-1 th input image (S12). Here, the Nth input image is transmitted as an input of the neural network.
다음, 단계(c)에서, 스케일 팩터가 1이 될 때까지 스케일 팩터의 크기를 미리 설정된 크기만큼 점진적으로 감소시키면서 단계(a) 및 단계(b)를 반복 수행한다. 이를 위해, 점진적으로 감소된 값으로 입력되는 현재의 스케일 팩터가 1인지를 판단하고(S13), 현재의 스케일 팩터가 1이 아니면, 뉴럴 네트워크의 현재의 출력 이미지를 다시 뉴럴 네트워크의 새로운 입력 이미지로 전달하면서 뉴럴 네트워크의 이전 입력 이미지와 현재의 출력 이미지 간의 차이 즉, 이미지 잔차를 상미분 방정식으로 계산하는 과정을 반복하고, 이러한 반복 과정은 스케일 팩터가 1이 될 때까지 수행될 수 있다(S14).Next, in step (c), steps (a) and (b) are repeatedly performed while gradually decreasing the size of the scale factor by a preset size until the scale factor becomes 1. To this end, it is determined whether the current scale factor input as a gradually reduced value is 1 (S13), and if the current scale factor is not 1, the current output image of the neural network is converted into a new input image of the neural network again. While transferring, the process of calculating the difference between the previous input image and the current output image of the neural network, that is, the image residual, by an ordinary differential equation is repeated, and this iterative process can be performed until the scale factor becomes 1 (S14). .
상미분 방정식은 미지 함수와 종속 변수가 하나의 독립변수를 가지는 함수인 미분 방정식을 말하는 것으로, 본 실시예에서 미지 함수는 뉴럴 네트워크에 대응하고, 종속 변수는 스케일 팩터와 뉴럴 네트워크의 파라미터에 대응된다.An ordinary differential equation refers to a differential equation in which an unknown function and a dependent variable are functions having one independent variable. In this embodiment, the unknown function corresponds to a neural network, and the dependent variable corresponds to a scale factor and parameters of the neural network. .
뉴럴 네트워크의 파라미터는 뉴럴 네트워크의 계층들 중 이전 계층에서 현재 계층으로 전달되는 입력값에 곱해지는 가중치(weight)를 나타내며, 이러한 파라미터는 뉴럴 네트워크의 계층 내에 사용되는 활성화 함수의 종류에 따라 그 초기값이 다르게 설정될 수 있다. 활성화 함수는 소정의 임계점을 설정하고 그 출력값에 변화를 주는 함수를 말하며, 렐루(ReLU) 함수, 시그모이드(Sigmoid) 함수 등을 포함한다.A parameter of a neural network represents a weight that is multiplied by an input value passed from a previous layer to a current layer among layers of the neural network. can be set differently. The activation function refers to a function that sets a predetermined threshold and changes an output value, and includes a ReLU function, a sigmoid function, and the like.
본 실시예에서, 점진적 이미지 해상도 향상 방법을 구현하는 프로세서나 이러한 프로세서를 구비하는 점진적 이미지 해상도 향상 장치의 최종 출력 이미지는, 기본적으로 스케일 팩터가 1로 적용될 때 제N-1 번째 잔차 이미지와 제N 번째 잔차 이미지 간의 이미지 잔차들에 대한 누적 계산 값과 제1 번째 입력 이미지를 합하여 생성될 수 있다.In this embodiment, the final output image of the processor implementing the gradual image resolution enhancement method or the gradual image resolution enhancement device having such a processor is basically the N-1th residual image and the Nth residual image when a scale factor of 1 is applied. It may be generated by summing the cumulative calculation value of the image residuals between the th residual images and the first input image.
또한, 본 실시예에서, 초기 스케일 팩터의 값은 1보다 큰 유리수(rational number)이다. 이러한 스케일 팩터는 이미지 입력에 더하여 뉴럴 네트워크에 추가되는 입력으로서, 뉴럴 네트워크의 반복 동작마다 등차적, 선형적, 등비적 또는 비선형적으로 순차 감소하는 값일 수 있다.Also, in this embodiment, the value of the initial scale factor is a rational number greater than 1. This scale factor is an input added to the neural network in addition to the image input, and may be a value that sequentially decreases in a geometrical, linear, geometrical, or nonlinear manner for each repetitive operation of the neural network.
또한, 스케일 팩터는 해상도를 향상시키고자 하는 원본 이미지의 종류나 내용 예컨대, 사람의 얼굴 중 홍채가 보이는 눈 등과 같이 상대적으로 고주파 영역을 많이 포함하는 제1 이미지인 경우, 사람의 얼굴 중 뺨 등과 같이 상대적으로 저주파 영역을 많이 포함하는 제2 이미지인 경우 등에 따라, 서로 다른 크기의 초기 스케일 팩터를 사용하거나 서로 다른 간격에서 점진적으로 감소하는 스케일 팩터들을 사용하도록 설계될 수 있다.In addition, the scale factor is the type or content of the original image to be improved in resolution, for example, in the case of a first image including a relatively high frequency region, such as an eye with an iris of a human face, such as a cheek of a human face. Depending on the case of the second image including a relatively large number of low-frequency regions, it may be designed to use initial scale factors of different sizes or to use scale factors that gradually decrease at different intervals.
또한, 상기의 N(2 이상의 자연수)은 가장 큰 스케일 팩터 값과 1 사이의 간격에 의해 정해지는 개수에 따라 정해진다. 가장 큰 스케일 팩터는 이미지 해상도를 향상하고자 하는 대상 원본 이미지의 종류, 내용 예컨대, 고주파 영역이나 저주파 영역의 비율 등에 따라 설계될 수 있다. 특히, 본 실시예에서는 딥러닝(deep learning)을 통해 원본 이미지의 종류에 따라 여러 스케일 팩터 세트들에 기초하여 학습을 수행함으로써 뉴럴 네트워크의 가중치 또는 파라미터를 최적화할 수 있다.In addition, N (a natural number of 2 or more) is determined according to the number determined by the interval between the largest scale factor value and 1. The largest scale factor may be designed according to the type and contents of the target original image for which image resolution is to be improved, for example, a ratio of a high-frequency region or a low-frequency region. In particular, in this embodiment, weights or parameters of the neural network may be optimized by performing learning based on several scale factor sets according to the type of original image through deep learning.
도 2는 도 1의 점진적 이미지 해상도 향상 방법을 설명하기 위한 개념도이다. 도 3은 도 2의 점진적 이미지 해상도 향상 방법 중 뉴럴 네트워크의 입력 및 출력을 예시한 도면이다.FIG. 2 is a conceptual diagram illustrating the gradual image resolution enhancement method of FIG. 1 . FIG. 3 is a diagram illustrating input and output of a neural network in the gradual image resolution enhancement method of FIG. 2 .
도 2을 참조하면, 점진적 이미지 해상도 향상 방법은, 초해상도(super resolution, SR) 문제를 초기값 문제(initial value problem)로 만들어 상미분 방정식(ordinary differential equation, ODE)로 푸는 점진적 초해상도 프로세스로 공식화하고 이를 이용하여 뉴럴 네트워크를 기반으로 이미지 초해상도를 구현한다.Referring to FIG. 2, the gradual image resolution improvement method is a gradual super-resolution process in which a super resolution (SR) problem is made into an initial value problem and solved by an ordinary differential equation (ODE). Formulate and use it to implement image super-resolution based on neural networks.
즉, 이미지 초해상도의 구현을 위해, 반복적 다중 스테이지 기반의 뉴럴 네트워크와, 전처리된 최초 입력 이미지와, 최초 입력 이미지 및 상기의 뉴럴 네트워크에 기반하고 연속적인 SR 프로세스에서 최소 이미지 차이를 이용하는 모델 즉, 초해상도 모델을 준비한다.That is, for the implementation of image super-resolution, a model using an iterative multi-stage based neural network, a preprocessed initial input image, and a minimum image difference in a continuous SR process based on the initial input image and the neural network, that is, Prepare a super-resolution model.
좀더 구체적으로 설명하면, 먼저 반복적인 다중 스테이지(multi-stage)를 이용하는 뉴럴 네트워크를 준비한다.More specifically, first, a neural network using an iterative multi-stage is prepared.
반복적인 다중 스테이지를 기반으로 하는 뉴럴 네트워크의 입력 이미지와 출력 이미지 간의 관계를 일반적인 수식으로 나타내면 다음의 수학식 1과 같이 표현할 수 있다.The relationship between an input image and an output image of a neural network based on iterative multiple stages can be expressed as
수학식 1에서, 은 반복적으로 재차 정의되는 중간 이미지들(n<N인 경우) 또는 최종 이미지(n=N인 경우)를, 은 현재의 중간 이미지나 최종 이미지 직전의 이전 이미지 또는 최초 이미지(n=2인 경우)를, ()은 이전 이미지에 적용되는 초해상도 네크워크 또는 뉴럴 네트워크를, n은 반복 단계를, 그리고 N은 반복 횟수를 각각 나타낸다.In
즉, 본 실시예에서는 제1 번째 입력 이미지 를 뉴럴 네트워크(f)에 제1 스케일 팩터(t0)와 함께 입력하고, 뉴럴 네트워크에서 나온 잔차 이미지를 제1 번째 입력 이미지와 합한 제1 출력 이미지 를 뉴럴 네트워크의 제2 번째 입력 이미지로 입력할 수 있다.That is, in this embodiment, the first input image is input into the neural network (f) together with the first scale factor (t0), and the first output image is obtained by adding the residual image from the neural network to the first input image. may be input as the second input image of the neural network.
이와 같이, 본 실시예에 따른 반복적인 다중 스테이지 기반의 뉴럴 네트워크는, 출력단에 제1 병합부를 구비한 뉴럴 네트워크 또는 뉴럴 네트워크 모델로서, 제N-1 번째 입력 이미지 와 제N-1 스케일 팩터를 입력으로 받고, 제N-1 번째 입력 이미지 와 제N-1 번째 잔차 이미지에 기반한 제N 번째 출력 이미지 를 출력할 수 있다.As such, the repetitive multi-stage based neural network according to the present embodiment is a neural network or neural network model having a first merging unit at an output stage, and is an N-1th input image. and the N-1th scale factor as input, and the N-1th input image and the Nth output image based on the N-1th residual image. can output
다음으로, 원본 이미지로부터 전처리된 최초 입력 이미지를 준비한다. 원본 이미지는, 뉴럴 네트워크의 훈련 모드에서, 최초 원본 이미지 또는 깨끗한 원본 이미지(ground-truth clean image) 를 바이큐빅(bicubic) 등의 기존의 SR 커널을 이용하여 제1 스케일 팩터(예컨대, 1/t)로 다운스케일한 버전일 수 있다. 그리고 최초 입력 이미지 즉, 제1 번째 입력 이미지 는, 원본 이미지를 SR 커널을 이용하여 제2 스케일 팩터(예컨대, t)로 업스케일한 것으로 정의될 수 있다.Next, a first input image preprocessed from the original image is prepared. The original image is, in the training mode of the neural network, the original original image or the ground-truth clean image. may be a downscaled version with a first scale factor (eg, 1/t) using an existing SR kernel such as bicubic. And the first input image, that is, the first input image , may be defined as up-scaling the original image with a second scale factor (eg, t) using the SR kernel.
여기서 깨끗한 원본 이미지 와 제1 번째 입력 이미지는 동일한 공간 해상도(spatial resolution)를 가진다. 깨끗한 원본 이미지 는 상대적인 고해상도(high resolution, HR) 이미지에 대응하고, 제1 번째 입력 이미지는 상대적인 저해상도(low resolution, LR) 이미지에 대응될 수 있다.clean original image here and the first input image have the same spatial resolution. clean original image may correspond to a relatively high resolution (HR) image, and the first input image may correspond to a relatively low resolution (LR) image.
다음으로, 연속적인 영역(domain)에 대해 점진적으로 변하는 스케일 팩터를 설정하고 뉴럴 네트워크가 이러한 스케일 팩터들 중 하나를 순차적으로 입력으로 가지도록 설계한다.Next, a gradually changing scale factor is set for a continuous domain, and a neural network is designed to sequentially have one of these scale factors as an input.
이를 위해, 먼저 뉴럴 네트워크로 고주파 이미지 잔차(high frequency image residual)를 계산하도록 설계한다. 구체적으로, 스케일 팩터(t)를 1보다 큰 유리수의 값(이하 최대 스케일 팩터 값)로 설정하고, 최대 스케일 팩터 값과 1 사이에서 미리 설정된 간격으로 점진적으로 감소하거나 증가시키면서 연속되는 두 스케일 팩터들을 입력으로 받은 뉴럴 네트워크의 입력 이미지 와 출력 이미지 간의 이미지 잔차(image residual)를 뉴럴 네트워크 를 이용하여 모델화할 수 있다.To this end, we first design a neural network to calculate a high frequency image residual. Specifically, by setting the scale factor (t) to a value of a rational number greater than 1 (hereinafter referred to as the maximum scale factor value), and gradually decreasing or increasing two consecutive scale factors between the maximum scale factor value and 1 at a predetermined interval, The input image of the neural network received as input and the output image Neural network image residuals between livers can be modeled using
이러한 이미지 잔차를 수식으로 나타내면 다음의 수학식 2와 같이 표현할 수 있다.The image residual can be expressed as
수학식 2에서, 입력 이미지 은 뉴럴 네트워크의 제N-1 번째 입력 이미지에 대응하고, 출력 이미지 은 뉴럴 네트워크의 제N 번째 출력 이미지에 대응될 수 있다. 이 경우, 제N-1 번째 입력 이미지는 통상 제N 번째 출력 이미지보다 더 많은 고주파 디테일(high frequency details)을 포함할 수 있다.In
전술한 구성에 의하면, 고주파 이미지 잔차(high frequency image residual)를 계산하도록 설계된 뉴럴 네트워크를 포함하는 상미분 방정식으로 초해상도 모델을 재구성할 수 있다.According to the configuration described above, a super-resolution model can be reconstructed with an ordinary differential equation including a neural network designed to calculate a high frequency image residual.
여기서, 뉴럴 네트워크의 잔차 이미지는 기존의 초해상도 아키텍처의 경우와 유사하게 수학식 3과 같은 상미분 방정식으로 표현될 수 있다.Here, the residual image of the neural network can be expressed as an ordinary differential equation such as
수학식 3에서 좌변은 뉴럴 네트워크에서 출력되는 잔차 이미지를 나타내고, 우변은 스케일 팩터(t)가 적용되는 뉴럴 네트워크의 이미지 를, 는 뉴럴 네트워크(f)의 훈련가능한 파라미터를 각각 나타낸다.In
즉, 본 실시예의 점진적 이미지 해상도 향상 방법은 뉴럴 네트워크에 이미지 입력에 더하여 스케일 팩터를 추가 입력으로 설정하고, 반복되는 뉴럴 네트워크 스테이지마다 점진적으로 변하는 크기의 스케일 팩터를 적용함으로써 고주파 이미지 잔차를 효과적으로 획득할 수 있도록 구성된다.That is, the gradual image resolution enhancement method of the present embodiment can effectively obtain a high-frequency image residual by setting a scale factor as an additional input in addition to an image input to the neural network and applying a gradually changing scale factor for each repeated neural network stage. It is configured so that
다음, 반복적인 다중 스테이지의 초해상도 모델을 통해 깨끗한 원본 이미지에 대응하는 최종 출력 이미지 를 설계한다. 이를 나타내면, 다음의 수학식 4와 같다.Next, the final output image corresponds to the pristine original image through an iterative multi-stage super-resolution model. to design Expressing this, it is the same as the following
수학식 4에서, 는 뉴럴 네트워크의 파라미터를 나타낸다.In
수학식 4에서 알 수 있듯이, 입력 이미지 내 고주파 디테일을 예측하는 모델인 뉴럴 네트워크(f)를 통해 입력 이미지로부터 예측되는 미세 디테일을 점진적으로 합할 수 있다.As can be seen from
즉, 본 실시예의 방법은, 점진적으로 변하는 스케일 팩터들, 예컨대 to 내지 1 사이에서 소정 간격으로 갖는 이산 유리수 값들을 포함하는 스케일 팩터들(to 및 1 포함)를 이용하는 초해상도 모델의 반복적인 다중 스테이지에서 얻은 이미지 잔차들을 순차적으로 갱신하거나 누적하고, 누적된 값 즉, 이미지 잔차들의 적분값을 제1 번째 입력 이미지 와 합침으로써 최종 출력 이미지 를 얻도록 구현될 수 있다.That is, the method of the present embodiment is an iterative multi-stage of a super-resolution model using scale factors that gradually change, for example, scale factors including discrete rational values at predetermined intervals between to and 1 (including to and 1). The image residuals obtained from are sequentially updated or accumulated, and the accumulated value, that is, the integral value of the image residuals is converted into a first input image. final output image by merging with can be implemented to obtain
전술한 초해상도 방법은, 기존의 상미분 방정식 솔버를 이용하여 수학식 5와 같이 표현되거나 구현될 수 있다.The above-described super-resolution method may be expressed or implemented as in
수학식 5에서, ODESlove()는 상미분 방정식(OLE) 솔버(solver)를, 은 적분 간격을 각각 나타낸다.In
이와 같이 본 실시예의 방법은 점진적인 SR 프로세스에서 각 CNN 아키텍쳐의 SR 프로세스가 독립적이기 때문에 발생하는 기존 SR 방법에서의 단절 조건(stop condition)을 고려할 필요가 없다. 특히, SR 문제를 초기화 문제로 취급하는 상미분 방정식을 풀기 위해 즉, 최종 출원 이미지의 추론을 위해 뉴럴 네트워크의 동작마다 혹은 반복마다 그 출력을 렌더링함으로서 기존의 단절 조건을 전혀 고려할 필요가 없다.As such, the method of the present embodiment does not need to consider the stop condition in the existing SR method, which occurs because the SR process of each CNN architecture is independent in the gradual SR process. In particular, in order to solve an ordinary differential equation that treats the SR problem as an initialization problem, that is, to infer the final application image, it is not necessary to consider the existing disconnection condition at all by rendering the output of the neural network for each operation or iteration.
또한, 본 실시예의 방법은, 뉴럴 네트워크를 포함하는 초해상도 모델의 파라미터를 단일 최초 입력 이미지에 대하여 다양한 스케일 팩터 세트들을 통해 훈련함으로써 뉴럴 네트워크의 파라미터 가 미리 설정되는 기준값 이하가 되거나 훈련 결과의 우수한 성능에 대한 최소값이 되도록 파라미터를 최적화할 수 있다.In addition, the method of this embodiment trains the parameters of a super-resolution model including a neural network through various scale factor sets for a single initial input image, thereby training the parameters of the neural network. Parameters can be optimized so that is less than or equal to a preset reference value or a minimum value for good performance of the training result.
예를 들어, L1 손실함수를 이용하여 다양한 스케일 팩터들(t)에 대하여 합쳐지는 뉴럴 네트워크의 손실이 최소화되도록 깊은 뉴럴 네트워크를 훈련하고 그 파라미터 를 학습할 수 있다. 이를 수식으로 나타내면 다음의 수학식 6과 같다.For example, by using the L1 loss function, a deep neural network is trained to minimize the loss of the neural network that is added for various scale factors (t), and its parameters can learn If this is expressed as a formula, it is as shown in
수학식 6에서, 은 뉴럴 네트워크의 손실을 나타낸다.In
이와 같이 본 실시예의 점진적 이미지 해상도 향상 방법에서는, 손실 함수를 최소화함으로써, 뉴럴 네트워크에 추가되는 이미지 디테일을 보다 정확하게 예측하도록 뉴럴 네트워크의 파라미터를 훈련할 수 있다.As described above, in the gradual image resolution enhancement method of the present embodiment, by minimizing the loss function, it is possible to train parameters of the neural network to more accurately predict image details added to the neural network.
한편, 본 실시예의 뉴럴 네트워크의 파라미터는 기존의 역전파 방식을 이용하여 최적화될 수 있다. 이 경우, 뉴럴 네트워크를 역전파 방식을 통해 훈련하기 위하여, 점진적으로 증가하는 스케일 팩터를 사용하는 것도 가능하다.Meanwhile, the parameters of the neural network of this embodiment can be optimized using an existing backpropagation method. In this case, it is also possible to use a gradually increasing scale factor to train the neural network through backpropagation.
도 4는 본 발명의 다른 실시예에 따른 점진적 이미지 해상도 향상 장치에 대한 블록도이다. 그리고 도 5는 도 4의 점진적 이미지 해상도 향상 장치에 채용할 수 있는 전처리부의 상세 구성에 대한 블록도이다.4 is a block diagram of an apparatus for gradually increasing image resolution according to another embodiment of the present invention. 5 is a block diagram of a detailed configuration of a pre-processing unit that can be employed in the gradual image resolution enhancement device of FIG. 4 .
도 4를 참조하면, 점진적 이미지 해상도 향상 장치는, 프로세서(100) 및 프로세서와 전자적으로 연결되는 메모리(200)를 포함할 수 있다. 메모리(200)는 프로그램이나 명령어들을 저장한다. 메모리(200)는 프로세서(100)에 일체로 탑재될 수도 있다.Referring to FIG. 4 , the gradual image resolution enhancement device may include a
프로세서(100)는 전처리부(10), 스케일 팩터(scale factor, SF) 관리부(20), 뉴럴 네트워크(30), 제1 병합부(40), 반복처리부(50), 이미지 잔차 계산부(60), 누적부(65) 및 제2 병합부(70)를 포함할 수 있다.The
전처리부(10)는, 뉴럴 네트워크(30)의 테스트(test) 모드에서, 해상도를 향상시킬 저해상도 원본 이미지를 소정의 크기로 확대하기 위해, 원본 이미지(Io)를 업스케일링하여 최초 입력 이미지(Ia)를 생성한다. 또한, 전처리부(10)는 뉴럴 네트워크(30)의 훈련(training) 모드에서, 깨끗한 원본 이미지(Ic)를 소정의 크기로 축소한 훈련용 원본 이미지(Io에 대응함)를 생성하고, 훈련용 원본 이미지를 소정의 스케일로 업스케일링하여 최초 입력 이미지(Ia)를 생성할 수 있다.In the test mode of the
또한, 전처리부(10)는 도 5에 도시한 바와 같이 다운스케일링 유닛(12)과 업스케일링 유닛(14)을 구비할 수 있다. 다운스케일링 유닛(12)과 업스케일링 유닛(14)은 바이큐빅(bicubic) 등의 커널(kernel)을 포함할 수 있다. 이러한 전처리부(10)는 점진적 이미지 해상도 향상 장치에 탑재하지 않고 별도의 이미지 전처리 장치로 구현될 수 있으며, 그 경우 이미지 전처리 장치는 본 실시예의 점진적 이미지 해상도 향상 장치의 입력단 등에 연결될 수 있다.In addition, the
다시 도 4를 참조하면, SF 관리부(20)는, 사용자 입력에 따라 정해지거나 디폴트(default)로 설정되어 있는 최대 스케일 팩터와 사용자 입력에 따라 정해지거나 디폴트(default)로 설정되어 있는 스케일 팩터들의 간격(들)에 따라 결정되는 적어도 하나의 스케일 팩터 세트를 관리한다. 최대 스케일 팩터는 1보다 큰 유리수일 수 있으며, 스케일 팩터들의 간격은 등간격과 같은 선형적인 형태로 하나의 기울기에 대응하는 값을 갖거나 동일한 비율과 같은 비선형적인 형태로 복수의 접선 기울기들에 대응하는 값들을 가질 수 있다.Referring back to FIG. 4, the
또한, SF 관리부(20)는 점진적 이미지 해상도 향상 장치에서 뉴럴 네트워크에 입력 이미지가 입력될 때마다 점진적으로 그 크기가 감소하거나 증가하는 스케일 팩터를 순차적으로 뉴럴 네트워크에 입력할 수 있다.In addition, the
또한, SF 관리부(20)는, 뉴럴 네트워크(30)의 훈련 모드에서, 스케일 팩터를 1에서 4까지 0.1의 간격으로 변경하여 뉴럴 네트워크(30) 내 각 CNN 아키텍처의 입력으로 제공할 수 있다.In addition, the
뉴럴 네트워크(30)는, 기존의 VDSR(very-deep supper-resolution) 또는 잔류 밀집 네트워크(residual dense network, RDN)를 약간 수정하여 백본 CNN(convolution neural network) 아키텍처로 사용할 수 있다. VDSR 또는 RDN를 사용하는 경우, 본 실시예의 뉴럴 네트워크(30)는 NODE-VDSR 또는 NODE-RDN으로 지칭될 수 있다.The
뉴럴 네트워크(30)의 VDSR 또는 RDN에서, 각 CNN 아키텍처는 이미지 입력(예컨대 제1 내지 제3 채널들) 외에 추가적인 입력(예컨대 제4 채널)으로서 스케일 팩터를 공급받도록 수정된 제1 계층(first layer)을 구비할 수 있다. 즉, 각 CNN 아키텍처는 새롭게 결합되는 채널(제4 채널)의 픽셀 위치들이 스칼라 값으로 채워진 스케일 팩터의 입력 채널을 구비할 수 있다.In the VDSR or RDN of the
또한, 뉴럴 네트워크(30)는, RDN에 있어서, 최종 업샘플링 계층(the last upsampling layer)을 제거하여 입력 해상도와 출력 해상도가 동일하도록 구성될 수 있다. 이러한 RDN에서, 제1 계층을 제외하고 추가 파라미터(extra parameters)의 추가는 없다.In addition, the
또한, 일반 CNN에서 최소 일괄 사이즈(mini-batch size)는 기본적으로 16(200×200 패치들)이지만, 본 실시예의 뉴럴 네트워크(30)에서는 최소 일괄 사이즈로서 8(130×200 패치들)을 사용할 수 있다. 이것은 컴퓨팅 장치의 그래픽 유닛의 메모리가 한정되는 경우에 유용할 수 있다.In addition, in general CNN, the minimum batch size (mini-batch size) is basically 16 (200 × 200 patches), but in the
제1 병합부(40)는, 뉴럴 네트워크(30)에서 생성되는 잔차 이미지와 입력 이미지를 합하여 출력 이미지를 생성한다.The
반복처리부(50)는, 뉴럴 네트워크(30)의 SR 프로세스가 미리 준비되거나 미리 설정되는 스케일 팩터들의 개수까지 반복되었는지를 확인하거나 스케일 팩터가 1인지를 판단하고, 설정된 횟수에 미치지 못하였거나 스케일 팩터가 1이 아니면, 출력 이미지를 다시 뉴럴 네트워크의 다음 입력 이미지로 전달한다.The
이미지 잔차 계산부(60)는, 뉴럴 네트워크(30)의 입력 이미지와 출력 이미지 간의 이미지 잔차를 계산한다. 즉, 이미지 잔차 계산부(60)는 뉴럴 네트워크(30)의 이전 입력 이미지 또는 제N-1 번째 입력 이미지와 현재 입력 이미지 또는 제N 번째 입력 이미지 간의 이미지 잔차를 계산한다. 이미지 잔차 계산부(60)는 상미분 방정식 솔버로 구현될 수 있다.The image
이미지 잔차 계산부(60)의 ODE 솔버로는, 룬게쿠타(Runge-Kutta, RK4)를 채용하는 Python torchdiffeq library [Chen et al., 2018]을 사용할 수 있다. 이 경우, PyTorch로 단지 6 줄의 추가 코드만이 요구되어 SR 시스템의 설계가 용이하고 시스템이 가벼워 스마트폰 등의 모바일 장치에 탑재하기 용이할 수 있다.As the ODE solver of the image
누적부(65)는, 뉴럴 네트워크가 반복 동작할 때마다 뉴럴 네트워크의 입력 이미지와 출력 이미지 간의 이미지 잔차를 계산한 결과들을 갱신하거나 누적한다. 누적부(65)에 누적되는 값은 이미지 잔차 계산부(60)의 기능에 대응하는 상미분 방정식을 적분한 적분값에 대응할 수 있다.The
제2 병합부(70)는, 반복처리부(50)의 판단 결과, 뉴럴 네트워크의 반복 횟수가 설정된 횟수에 도달했거나 스케일 팩터가 1이면, 반복처리부(50)로부터의 신호나 정보에 따라 누적부(65)의 적분값과 최초 입력 이미지(Ib)를 합하여 최종 출력 이미지(Ib)를 생성한다.The
본 실시예에 의하면, 명령어들에 의해 프로세서에 의해 실행될 때, 명령어들은 프로세서가, 단계(a)에서, 최초 입력 이미지를 업스케일링한 제1 번째 입력 이미지를 시작으로, 제N-1 번째(N은 2 이상의 자연수) 입력 이미지를 뉴럴 네트워크에 입력하고 스케일 팩터를 적용하여 뉴럴 네트워크에서 제N-1번째 잔차 이미지를 출력하도록 한다.According to this embodiment, when executed by the processor by the instructions, the instructions are the N-1th (N-1)th (N is a natural number greater than or equal to 2) input an input image to a neural network and apply a scale factor to output an N-1th residual image from the neural network.
또한, 명령어들은 프로세서가, 단계(b)에서, 제N-1 번째 잔차 이미지와 제N-1 번째 입력 이미지의 합으로 제N 번째 입력 이미지를 생성하도록 하고, 제N 번째 입력 이미지를 뉴럴 네트워크의 입력으로 전달하도록 한다.Further, the instructions cause the processor to generate, in step (b), an N-th input image as a sum of the N-1 th residual image and the N-1 th input image, and the N-th input image of the neural network. to be passed as input.
또한, 명령어들은 프로세서가, 단계(c)에서 스케일 팩터가 1이 될 때까지 스케일 팩터의 크기를 미리 설정된 크기만큼 점진적으로 감소시키면서 단계(a) 및 단계(b)를 반복 수행하도록 한다.Further, the instructions cause the processor to repeatedly perform steps (a) and (b) while gradually reducing the magnitude of the scale factor by a preset amount until the scale factor equals 1 in step (c).
또한, 명령어들은 프로세서가, 단계(d)에서, 스케일 팩터가 1로 적용될 때 제N-1 번째 잔차 이미지와 제N 번째 입력 이미지 간의 이미지 잔차들을 누적 계산한 값과 제1 번째 입력 이미지의 합으로 최총 출력 이미지를 생성하거나 출력하도록 한다.Further, the instructions cause the processor to calculate, in step (d), the sum of the image residuals between the N-1 th residual image and the N th input image and the first input image when the scale factor is applied as 1. Create or print the final output image.
도 6은 본 발명의 또 다른 실시예에 따른 이미지 초해상도 장치에 대한 블록도이다. 그리고 도 7은 도 6의 이미지 초해상도 장치에 채용할 수 있는 훈련처리부의 상세 구성에 대한 블록도이다.6 is a block diagram of an image super-resolution device according to another embodiment of the present invention. 7 is a block diagram of a detailed configuration of a training processing unit that can be employed in the image super-resolution apparatus of FIG. 6 .
도 6을 참조하면, 이미지 초해상도 장치는, 프로세서(100) 및 프로세서와 전자적으로 연결되는 메모리(200)를 포함할 수 있다. 메모리(200)는 프로그램이나 명령어들을 저장한다. 메모리(200)는 프로세서(100)에 일체로 탑재될 수도 있다.Referring to FIG. 6 , the image super-resolution device may include a
프로세서(100)는 전처리부(10), 스케일 팩터(SF) 관리부(20), 뉴럴 네트워크(30), 제1 병합부(40), 반복처리부(50), 이미지 잔차 계산부(60), 누적부(65), 제2 병합부(70), 평가부(80) 및 훈련처리부(90)를 포함할 수 있다.The
전처리부(10), 스케일 팩터(SF) 관리부(20), 뉴럴 네트워크(30), 제1 병합부(40), 반복처리부(50), 이미지 잔차 계산부(60), 누적부(65) 및 제2 병합부(70)는 도 4 및 도 5를 참조하여 앞서 설명한 점진적 이미지 해상도 향상 장치의 대응 구성부와 실질적으로 동일하므로 그에 대한 상세 설명은 생략한다.A
평가부(80)는, 제2 병합부(70)를 통해 출력되는 최종 출력 이미지와 깨끗한 원본 이미지를 비교하거나 서로 다른 스케일 팩터 세트들에 따라 생성한 최종 출력 이미지들을 자체 비교하거나, 최초 입력 이미지에 대한 최초 출력 이미지의 성능을 소정의 기준값(비교예의 성능 포함)과 비교하여 최종 출력 이미지의 SR 성능을 평가할 수 있다. 이를 위해, 평가부(80)는 메모리(200) 또는 데이터베이스(210)에 저장되는 최종 출력 이미지, 깨끗한 원본 이미지, 비교예의 이미지 등을 이용할 수 있다. 평가부(80)의 평가 결과는 훈련처리부(90)에 전달될 수 있다.The
훈련처리부(90), 미리 설정된 훈련 정책이나 사용자 입력에 따른 훈련 조건에 따라 아담 옵티마이저(Adam optimizer) 등을 사용하여 L1 손실을 최소화하도록 하는 네트워크의 훈련을 관리한다. 훈련처리부(90)는 초기 학습 속도가 10-4로 설정되고, 100k회의 기울기 업데이트 단계마다 속도를 절반씩 감소하고 총 600k회의 반복 훈련을 수행하도록 설정될 수 있다.The
또한, 훈련처리부(90), 도 7에 도시한 바와 같이, 파라미터 관리 유닛(92), 파리미터 비교 유닛(94), 역전파 제어 유닛(96) 및 기준치 관리 유닛(98)을 포함할 수 있다. 또한, 훈련처리부(90)는 그 변형예에서 SF 관리부(20)를 포함하도록 구현될 수 있다.Also, as shown in FIG. 7, the
훈련처리부(90)에 채용할 수 있는 구성요소들에 대해 좀더 구체적으로 살펴보면, 파라미터 관리 유닛(92)은 뉴럴 네트워크(30)의 파라미터를 관리한다. 파라미터 관리 유닛(92)은 다양한 스케일 팩터 세트들에 의한 네트워크 훈련시 사용자 입력에 따라 설정되거나 미리 저장된 스케일 팩터 세트를 SR 관리부(20)에 전달할 수 있다.Looking more specifically at the components that can be employed in the
성능 비교 유닛(94)은 네트워크 훈련시 다양한 스케일 팩터 세트들에 의한 SR 성능을 비교할 수 있다. 성능 비교 유닛(94)는 PSNR, SSIM 등을 통해 각 SR 결과에 대한 성능을 상호 비교하고, 가장 우수한 성능의 스케일 팩터 세트에 대한 최적 파라미터 정보를 추출할 수 있다. 추출된 최적 파라미터 정보를 파라미터 관리 유닛(92)에 피드백될 수 있다.The
역전파 제어 유닛(96)은 사용자 입력에 의한 설정이나 미리 지정된 최적화 조건 중 하나로 포함되는 역전파를 통해 뉴럴 네트워크의 파라미터를 업데이트하도록 뉴럴 네트워크의 동작을 제어할 수 있다. 역전파 제어 유닛(96)은 성능 비교 유닛(94)로부터 획득한 파라미터 정보에 기초하여 뉴럴 파라미터의 각 CNN 아키텍처의 출력층에서 적어도 하나의 은닉층을 거쳐 입력층까지 기재된 순서대로 이어지는 연결 파라미터를 출력층을 출발노드로하여 단계적으로 업데이트하도록 작동할 수 있다.The
역전파에서 파라미터 업데이트에 사용되는 오차의 가중치에 대한 미분값은 출발노드의 활성함수값과 도착노드의 활성함수값 및 실제 파라미터 값으로 표현될 수 있다. 그리고 역전파를 통한 파라미터 업데이트는 성능 비교 유닛(94)의 SR 성능 비교 결과나 성능 비교 유닛(94)로부터 획득한 파라미터 정보에 기초하여 도 1 등을 참조하여 앞서 설명한 SR 과정과 함께 반복 수행될 수 있다.In backpropagation, the differential value of the weight of the error used for parameter update can be expressed by the activation function value of the starting node, the activation function value of the destination node, and the actual parameter value. In addition, the parameter update through backpropagation may be repeatedly performed along with the SR process described above with reference to FIG. 1 based on the SR performance comparison result of the
기준치 관리 유닛(98)은, L1 손실함수 등의 손실함수를 최소화한 파라미터의 최적값이나 이러한 최적값에 근접한 기준치를 관리한다. 기준치는 본 실시예의 뉴럴 상미분 방정식을 이용한 SR 시스템을 사용하여 원본 이미지를 초해상도할 때 SR 시스템의 성능에 대해 요구되는 목표치 혹은 목표설정치에 대응할 수 있다. 기준치 관리 유닛(98)은 성능 비교 유닛(94)에 사용자 입력에 의해 설정되거나 미리 저장된 기준치를 제공할 수 있다.The reference
도 8은 도 5의 이미지 초해상도 장치에 채용할 수 있는 이미지 초해상도 방법을 설명하기 위한 흐름도이다.FIG. 8 is a flowchart for explaining an image super-resolution method employable in the image super-resolution apparatus of FIG. 5 .
도 8을 참조하면, 이미지 초해상도 방법은, 프로세서에 의해 수행되는 이미지 초해상도 방법으로써, 먼저 입력 이미지가 입력되는 뉴럴 네트워크의 출력 이미지를 상기 뉴럴 네트워크의 입력 이미지로 다시 입력한다(S81).Referring to FIG. 8 , the image super-resolution method is an image super-resolution method performed by a processor. First, an output image of a neural network to which an input image is input is input again as an input image of the neural network (S81).
뉴럴 네트워크는 잔차 밀집 네트워크(Residual Dense Network, RDN)를 포함할 수 있다. RDN은 최종 업샘플링 레이어(last upsampling layer)가 생략된 형태를 가져 입력 해상도와 출력 해상도가 동일하게 형성될 수 있다.The neural network may include a residual dense network (RDN). The RDN has a form in which the last upsampling layer is omitted, so that the input resolution and the output resolution may be identical.
다음, 뉴럴 네트워크에 입력 이미지가 입력될 때마다 뉴럴 네트워크에 점진적으로 그 크기가 다르게 설정되는 스케일 팩터들을 순차적으로 제공한다(S82). 본 단계(S82)는 뉴럴 네트워크의 첫번째 레이어에 입력 이미지에 더하여 스케일 팩터를 추가 입력하도록 구성될 수 있다.Next, whenever an input image is input to the neural network, scale factors having gradually different sizes are sequentially provided to the neural network (S82). This step (S82) may be configured to additionally input a scale factor to the first layer of the neural network in addition to the input image.
전술한 두 단계들(S81, S82)은, 입력 이미지를 기준으로 1보다 큰 유리수의 크기를 가진 스케일 팩터에 대응하여 입력 이미지의 가장자리에 패딩을 추가하고 패딩이 추가된 입력 이미지의 중앙 픽셀을 중심으로 입력 이미지의 원래 사이즈에 대응하도록 센터 크롭핑(center cropping)을 수행할 수 있다.In the above two steps (S81 and S82), padding is added to the edge of the input image in response to a scale factor having a size of a rational number greater than 1 based on the input image, and the center pixel of the padded input image is centered. With , center cropping may be performed to correspond to the original size of the input image.
또한, 전술한 두 단계들(S81, S82)에서 뉴럴 네트워크는 스케일 팩터가 1보다 큰 유리수인 최초 스케일 팩터에서 미리 설정된 간격으로 점진적으로 감소하여 최종적으로 스케일 팩터가 1이 될 때까지 반복적으로 동작할 수 있다(S83, S84).In addition, in the above two steps (S81 and S82), the neural network gradually decreases at preset intervals from the initial scale factor whose scale factor is a rational number greater than 1, and operates repeatedly until the scale factor finally becomes 1. It can (S83, S84).
다음, 뉴럴 네트워크의 반복 동작마다 뉴럴 네트워크의 입력 이미지와 출력 이미지 간의 이미지 잔차를 상미분 방정식을 이용하여 계산하고 계산된 값들을 누적하거나 갱신한다(S85). 누적 또는 갱신은 상미분 방정식의 매 계산 결과를 별로도 저장한 후 합치거나 현재의 계산 결과를 이전 계산 결과에 합쳐 저장하는 방식에 따라 결정될 수 있다.Next, image residuals between an input image and an output image of the neural network are calculated using an ordinary differential equation for each repetitive operation of the neural network, and the calculated values are accumulated or updated (S85). Accumulation or update may be determined according to a method of separately storing each calculation result of an ordinary differential equation and then combining them, or combining a current calculation result with a previous calculation result and storing the result.
다음, 누적 혹은 갱신 과정을 통해 얻은 최종 이미지 잔차와 최초 입력 이미지를 합하여 상대적 고해상도의 최종 출력 이미지를 생성한다(S86). 최종 이미지 잔차는 이전 잔차 이미지 즉, 제N-1 번째 잔차 이미지와 현재의 잔차 이미지 즉, 제N 번째 잔차 이미지 간의 이미지 잔차에 대한 상미분 방정식의 계산값들을 누적한 적분값에 대응할 수 있다.Next, a relatively high-resolution final output image is generated by adding the final image residual obtained through the accumulation or update process and the initial input image (S86). The final image residual may correspond to an integral value obtained by accumulating calculated values of an ordinary differential equation for image residuals between a previous residual image, that is, the N-1th residual image, and a current residual image, that is, the Nth residual image.
다음, 선택적으로 초해상도 성능을 평가할 수 있다(S87). 초해상도 성능 평가는 원본 이미지 또는 제1 번째 입력 이미지와 최종 출력 이미지와의 비교 결과들을 비교하는 방식, 서로 다른 스케일 팩터 세트들에 의한 최종 출력 이미지들을 비교하는 방식 등으로 수행될 수 있다.Next, super-resolution performance can be selectively evaluated (S87). Super-resolution performance evaluation may be performed by comparing comparison results between an original image or a first input image and a final output image, comparing final output images with different scale factor sets, and the like.
또한, 필요에 따라 선택적으로 뉴럴 네트워크의 파라미터를 역전파를 통해 업데이트할 수 있다(S88). 역전파를 통한 파라미터의 업데이트는 뉴럴 네트워크의 훈련(traning) 모드에서 수행될 수 있다.Also, if necessary, parameters of the neural network may be selectively updated through backpropagation (S88). Updating parameters through backpropagation may be performed in a training mode of a neural network.
이 경우, 훈련 모드에서, 프로세서는, 상미분 방정식을 통해 뉴럴 네트워크의 입력 이미지와 출력 이미지 간의 이미지 잔차를 통해 이미지 디테일을 추정하고 추정한 이미지 디테일을 뉴럴 네트워크 반복 동작 시마다 갱신하거나 누적하고 누적 결과를 최초 입력 이미지에 더하는 훈련 과정을 수행할 수 있다. 또한, 이러한 훈련 과정을 서로 다른 스케일 팩터 세트들에 기초하여 미리 설정된 손실 함수가 최소 값이 되거나 미리 설정된 기준 값 이하가 될 때까지 수행하여 파라미터를 최적화할 수 있다.In this case, in the training mode, the processor estimates image detail through an image residual between an input image and an output image of the neural network through an ordinary differential equation, updates or accumulates the estimated image detail every time the neural network iterates, and calculates the cumulative result. A training process of adding to the first input image can be performed. In addition, the parameters may be optimized by performing such a training process until a loss function preset based on different scale factor sets becomes a minimum value or a preset reference value or less.
한편, 전술한 제공하는 단계(S82)는 기본적으로 점진적으로 감소하는 스케일 팩터들을 사용할 수 있으나, 이에 한정되지 않고, 초해상도 대상 원본 이미지의 종류, 형태, 내용 등에 따른 변형예에서 점진적으로 증가하는 스케일 팩터들을 순차적으로 사용하도록 구현될 수 있다.Meanwhile, the above-described providing step (S82) may basically use scale factors that gradually decrease, but are not limited thereto, and scale factors that gradually increase in variations according to the type, shape, content, etc. of the original super-resolution target image. It can be implemented to use the factors sequentially.
도 9는 본 실시예의 초해상도 방법(NODE-RDN)과 비교예의 초해상도 방법들(DRRN, SRFBN)의 초해상도 결과를 비교하여 보여주는 도면이다. 도 10은 본 실시예의 초해상도 방법(NODE-RDN)과 비교예의 초해상도 방법들(DRRN, SRFBN)의 또 다른 초해상도 결과를 비교하여 보여주는 도면이다. 그리고 도 11은 본 실시예의 초해상도 방법(NODE-RDN)과 비교예의 초해상도 방법(Meta-RDN)의 초해상도 결과를 비교하여 보여주는 도면이다.9 is a diagram showing a comparison of super-resolution results of the super-resolution method (NODE-RDN) of this embodiment and the super-resolution methods (DRRN, SRFBN) of the comparative example. 10 is a diagram showing a comparison of another super-resolution result of a super-resolution method (NODE-RDN) of this embodiment and super-resolution methods (DRRN, SRFBN) of a comparative example. 11 is a diagram showing a comparison of super-resolution results of the super-resolution method (NODE-RDN) of the present embodiment and the super-resolution method (Meta-RDN) of the comparative example.
도 9를 참조하면, 본 실시예의 방법(NODE-RDN)은 특정 데이터베이스(Urban100)에서 얻은 소정의 이미지(img_012)의 특정 부분에 대한 원본 이미지(GT)를 2배(x2) 업스케일링한 최초 입력 이미지(Bicubic 이미지 참조)에 대하여 4-스테이지에 걸쳐 선형적으로 점진적으로 감소하는 다중 스케일 팩터(1,75; 1.5; 1.25; 1)를 적용한 결과를 보여준다. 다중 스케일 팩터는 1을 제외하고 비정수(non-integer)이다.Referring to FIG. 9, the method (NODE-RDN) of this embodiment is an initial input by upscaling the original image (GT) for a specific part of a predetermined image (img_012) obtained from a specific database (Urban100) by 2 times (x2) It shows the result of applying multiple scale factors (1,75; 1.5; 1.25; 1) that gradually decrease linearly over 4-stages to the image (see Bicubic image). Multiscale factors are non-integer except for 1.
본 실시예의 방법에 의한 초해상도 결과는, 동일한 네트워크 파라미터를 사용하는 조건하에서, 비교예1(DRRN: deep recursive residual network)의 최종 초해상도 결과과 비교할 때, 단순히 눈으로만 보더라도 본 실시예의 SR 성능이 비교예1의 SR 성능보다 매우 우수한 것을 알 수 있다. 비교예 1의 최종 초해상도 결과는 네트워크 설정에 따라 25회(#it) 반복한 후에 얻어진 결과이다.The super-resolution result by the method of this embodiment, when compared with the final super-resolution result of Comparative Example 1 (DRRN: deep recursive residual network) under the condition of using the same network parameters, the SR performance of this embodiment can be seen simply by eye. It can be seen that the SR performance of Comparative Example 1 is very superior. The final super-resolution result of Comparative Example 1 is the result obtained after repeating 25 times (#it) according to the network settings.
또한, 본 실시예의 방법에 의한 초해상도 결과는, 동일한 네트워크 파라미터를 사용하는 조건하에서, 비교예2(SRFBN: super-resolution feedback network)의 최종 결과와 비교할 때, 서로 유사한 성능을 나타내는 것을 확인할 수 있다(표 1 참조). 비교예2의 최종 결과는 4회(#it)의 반복 피드백을 통해 얻은 초해상도 결과이다.In addition, it can be confirmed that the super-resolution result obtained by the method of this embodiment shows similar performance to each other when compared to the final result of Comparative Example 2 (SRFBN: super-resolution feedback network) under the condition of using the same network parameters. (See Table 1). The final result of Comparative Example 2 is a super-resolution result obtained through repeated
다음으로, 도 10을 참조하면, 본 실시예의 방법(NODE-RDN)은 특정 데이터베이스(Urban100)에서 얻은 소정의 이미지(img_092)의 특정 부분에 대한 원본 이미지(GT)를 4배(x4) 업스케일링한 최초 입력 이미지(Bicubic 이미지 참조)에 대하여 4-스테이지에 걸쳐 비선형적으로 점진적으로 감소하는 다중 스케일 팩터(3; 2; 1.5; 1)를 적용한 3개의 중간 이미지들을 포함한 4개의 결과 이미지를 보여준다. 다중 스케일 팩터는 비정수(1.5)를 포함한다.Next, referring to FIG. 10, the method (NODE-RDN) of the present embodiment upscals the original image (GT) for a specific part of a predetermined image (img_092) obtained from a specific database (Urban100) by 4 times (x4). Four resulting images, including three intermediate images, are shown by applying multi-scale factors (3; 2; 1.5; 1) that gradually decrease non-linearly over four stages to one initial input image (see Bicubic image). Multiple scale factors include non-integers (1.5).
본 실시예의 방법에 의한 초해상도 결과는 다른 비교예1(DRRN)에서 반복 블록들의 개수(#it)를 10, 15, 20 및 25로 하는 네트워크의 초해상도 결과들과 비교할 때, 단순히 눈으로만 보더라도 본 실시예의 성능이 비교예1의 성능보다 매우 우수한 것을 알 수 있다.When comparing the super-resolution result of the method of this embodiment with the super-resolution result of the network in which the number of repeating blocks (#it) is 10, 15, 20, and 25 in Comparative Example 1 (DRRN), simply by eye Even looking at it, it can be seen that the performance of this example is very superior to that of Comparative Example 1.
또한, 본 실시예의 방법에 의한 초해상도 결과는 다른 비교예2(SRFBN)에서 피드백 횟수(#it)를 1, 2, 3, 4로 하는 네트워크의 초해상도 결과들과 비교할 때, 본 실시예의 방법에 의한 성능이 비교예2의 성능에 비해 우수한 것을 확인할 수 있다.In addition, when the super-resolution result by the method of this embodiment is compared with the super-resolution results of the network in which the number of feedbacks (#it) is 1, 2, 3, and 4 in Comparative Example 2 (SRFBN), the method of this embodiment It can be seen that the performance by is superior to that of Comparative Example 2.
범용 데이터셋(Set14, B100, Urban100)의 특정 이미지의 일부분인 원본 이미지에 대하여 전술한 비교예1 및 비교예2 외에 비교예3(DRCN: Deeply-recursive convolutional network), 비교예4(LapSRN: Laplacian pyramid super-resolution network) 및 비교예5(D-DBPN: Dense-deep back-projection network)의 네트워크 초해상도(SR) 성능과 본 실시예(NODE-RDN, NODE-RDN+)의 SR 성능을 비교하여 나타내면 다음의 표 1과 같다.Comparative Example 3 (DRCN: Deeply-recursive convolutional network) and Comparative Example 4 (LapSRN: Laplacian pyramid super-resolution network) and Comparative Example 5 (D-DBPN: Dense-deep back-projection network) by comparing the network super-resolution (SR) performance of this embodiment (NODE-RDN, NODE-RDN +) SR performance It is shown in Table 1 below.
표 1에서, 본 실시예와 비교예들의 성능을 3 종류의 스케일 팩터들(x2, x3, x4)을 적용한 저해상도 바이큐빅(Bicubic) 이미지에 대한 평균 PSNR(peak signal-to-noise ratio) 및 SSIM(structural similarity index) 값들로 나타내었다. 하이라이트 혹은 음영배경으로 표시된 값들은 최대 성능 결과와 2번째로 우수한 성능 결과를 나타낸다.In Table 1, average PSNR (peak signal-to-noise ratio) and SSIM for low-resolution bicubic images to which three types of scale factors (x2, x3, x4) are applied to the performance of the present embodiment and comparative examples. (structural similarity index) values. Values marked with highlights or shaded backgrounds represent the best performance results and the second best performance results.
전술한 바와 같이, 본 실시예의 방법은 SR 작업 동안 선형적 또는 비선형적 측면에서 연속적인 스케일 팩터를 관리할 수 있다. 즉, 표 2에 나타낸 바와 같이, 1.1에서 4까지 0.1의 간격으로 설정되는 선형적 다중 스케일 팩터를 관리하고 이용할 수 있다.As described above, the method of the present embodiment can manage a continuous scale factor in a linear or non-linear aspect during the SR task. That is, as shown in Table 2, it is possible to manage and use linear multi-scale factors set at intervals of 0.1 from 1.1 to 4.
표 2에 나타낸 바와 같이, 비교예의 SR 방법들(VDSR, VDSR+t, RDN, RDN+t, Meta-RDN)과 비교할 때, 본 실시예의 SR 방법(NODE-VDSR, NODE-RDN, NODE-RDN+)의 성능은 매 스케일(scale)에서 비교예의 SR 방법들의 성능보다 우수한 것을 확인할 수 있다.As shown in Table 2, compared to the SR methods (VDSR, VDSR + t, RDN, RDN + t, Meta-RDN) of the comparative example, the SR methods (NODE-VDSR, NODE-RDN, NODE-RDN+ It can be seen that the performance of ) is superior to that of the SR methods of the Comparative Example at every scale.
공정한 비교를 위해 사용되는 비교예의 VDSR+t와 RDN+t는, 네트워크의 추가 입력으로써 스케일 팩터(t)를 취하고 동일한 입력 해상도와 출력 해상도를 갖도록 VDSR과 RDN을 수정한 버전이다.VDSR+t and RDN+t of the comparative example used for fair comparison are versions of VDSR and RDN modified to have the same input resolution and output resolution by taking the scale factor (t) as an additional input of the network.
또한, 도 11에 도시한 바와 같이, 데이터셋(B100)의 특정 이미지(196073, 48026)의 특정 부분에 대한 깨끗한 원본 이미지(GT)와 비교할 때, 깨끗한 원본 이미지(GT)를 2.5배(x2.5) 및 4배(x4) 각각 확대한 초해상도 대상의 원본 이미지(Bicubic 이미지)을 초해상도 처리한 결과를 보면, 본 실시예의 SR 방법(NODE-RDN)을 통해 출력되는 최종 이미지가 비교예의 Meta-RDN에서 출력되는 이미지보다 더욱 명확하게 에지(edges)를 복구한 것을 볼 수 있다.In addition, as shown in FIG. 11, when compared with the clean original image GT for a specific part of the
도 12는 본 실시예의 초해상도 방법들(NODE-RDN, NODE-VDSR)에서 스케일 팩터를 변경하면서 평가한 성능(PSNR)을 나타낸 그래프이다.12 is a graph showing the performance (PSNR) evaluated while changing the scale factor in the super-resolution methods (NODE-RDN, NODE-VDSR) of the present embodiment.
도 12에서 스케일 팩터는 1.1에서 4.5까지 0.05 간격으로 변경된다. 그리고 점(dot) 형태의 마크들은 훈련 과정 동안 보이는 스케일 팩터들(seen scale factors) (예컨대 1.1, 1.2, …, 4.0)에 대응하고, 십자(cross) 형태의 마크들은 훈련 과정 동안 보이지 않는 스케일 팩터들(unseen scale factors) (예컨대 1.15, 1.25, …, 4.5)에 대응한다.12, the scale factor is changed from 1.1 to 4.5 at 0.05 intervals. Also, dot-shaped marks correspond to scale factors seen during the training process (e.g. 1.1, 1.2, …, 4.0), and cross-shaped marks correspond to scale factors seen during the training process. (unseen scale factors) (e.g. 1.15, 1.25, ..., 4.5).
도 12를 참조하면, B100 데이터셋의 특정 이미지에 대하여 스케일 팩터를 변경하면서 본 실시예의 SR 방법들에서의 PSNR 값들을 측정한 결과, 본 실시예의 SR 방법들은 보간 능력(interpolation ability)을 학습하고, 1과 4 사이의 보이지 않는 스케일 팩터들(unseen scale factors)(예컨대 1.15, 1.25, …, 3.95)을 실질적으로 연속적으로 처리하는 것을 확인할 수 있다(비교예의 바이큐빅(Bicubic)에 대한 곡선 참조).Referring to FIG. 12, as a result of measuring PSNR values in the SR methods of this embodiment while changing the scale factor for a specific image of the B100 dataset, the SR methods of this embodiment learn interpolation ability, It can be seen that unseen scale factors between 1 and 4 (eg, 1.15, 1.25, ..., 3.95) are substantially continuously processed (see the curve for Bicubic in the comparative example).
게다가, 본 실시예의 SR 방법들은 외삽 능력(extrapolation ability)을 학습하고 4보다 큰 보이지 않는 스케일 팩터들(예컨대 4.1, 4.2, …, 3.95)을 실질적으로 연속적으로 취급하는 것을 확인할 수 있다.Moreover, it can be seen that the SR methods of the present embodiment learn extrapolation ability and treat invisible scale factors greater than 4 (eg 4.1, 4.2, ..., 3.95) substantially continuously.
이와 같이 본 실시예의 SR 방법들은 제한된 다수의 스케일 팩터들만을 가지고 훈련하더라도 보간 능력이나 외삽 능력과 같은 일반화 능력(power of generalization)을 가질 수 있음을 알 수 있다.As such, it can be seen that the SR methods of the present embodiment can have power of generalization such as interpolation or extrapolation even if they are trained with only a limited number of scale factors.
또한, 본 실시예의 SR 방법들은 오일러 방법(Euler method), 룬게쿠타 방법(Runge-Kutta method) 등의 서로 다른 ODE 솔버들을 사용하는 경우에도, 위의 표 3에 나타낸 바와 같이, 실질적으로 동일한 SR 성능을 나타내는 것을 알 수 있다. 다만, 최종 출력 이미지 혹은 추정된 고해상도 이미지의 품질은 채용한 ODE 솔버의 성능에 의존할 수 있으므로 적절한 ODE 솔버를 선택하는 것이 요구된다.In addition, the SR methods of this embodiment have substantially the same SR performance, as shown in Table 3 above, even when different ODE solvers such as the Euler method and the Runge-Kutta method are used. It can be seen that represents However, since the quality of the final output image or the estimated high-resolution image may depend on the performance of the ODE solver employed, it is required to select an appropriate ODE solver.
도 13은 본 실시예의 이미지 초해상도 방법에 채용할 수 있는 스케일 팩터의 설정 원리를 중간 이미지 잔차들의 세기에 기초하여 설명하기 위한 그래프이다.13 is a graph for explaining a principle of setting a scale factor that can be employed in the image super-resolution method of the present embodiment based on the strength of intermediate image residuals.
도 13을 참조하면, 사람 얼굴의 눈(eye) 영역에 대한 제1 원본 이미지와 뺨(cheek) 영역에 대한 제2 원본 이미지에 대한 초해상도 방법과 관련하여, 테스트 단계에서 점진적 SR 프로세스 동안 뉴럴 네트워크의 중간 결과를 확인하기 위해 스케일 팩터가 4에서 1로 감소하고 초기 조건이 4일 때, 뉴럴 네트워크의 절대값 또는 절대값의 합인 L1 손실을 계산하면, 제1 원본 이미지에 대응하는 고주파 패치 또는 샤프 패치(sharp patch)의 절대값은 스케일 팩터가 작을 때 저주파 패치의 경우에 비해 상대적으로 더 크고, 제2 원본 이미지에 대응하는 저주파 패치 또는 균질 패치(homogeneous patch)의 절대값은 스케일 팩터가 클 때 고주파 패치의 경우에 비해 상당히 더 큰 것을 알 수 있다.Referring to FIG. 13 , in relation to a super-resolution method for a first original image of an eye region and a second original image of a cheek region of a human face, a neural network during an incremental SR process in a test step When the scale factor decreases from 4 to 1 and the initial condition is 4 to check the intermediate result of , calculating the L1 loss, which is the absolute value or the sum of the absolute values of the neural network, the high-frequency patch or Sharp corresponding to the first original image The absolute value of the sharp patch is relatively larger than that of the low-frequency patch when the scale factor is small, and the absolute value of the low-frequency patch or homogeneous patch corresponding to the second original image is large when the scale factor is large. It can be seen that it is considerably larger than that of the high-frequency patch.
점진적으로 감소하는 스케일 팩터에서 스케일 팩터가 작을 때 뉴럴 네트워크의 출력 이미지가 깨끗한 원본 이미지에 근접하게 되고, 이때 뉴럴 네트워크의 입력 이미지와 출력 이미지 간의 이미지 차이(image difference)에는 더 많은 고주파 성분이 포함되는 것을 고려할 때, 고주파 디테일을 포함한 눈 영역의 이미지에 대한 뉴럴 네트워크의 절대값은 스케일 팩터가 작을 때 크게 되고, 고주파 디테일을 요구하지 않는 뺨 영역의 이미지에 대한 뉴럴 네트워크의 절대값은 스케일 팩터가 작을 때 작게 됨을 알 수 있다.In a gradually decreasing scale factor, when the scale factor is small, the output image of the neural network approaches the clean original image, and at this time, the image difference between the input image and the output image of the neural network contains more high-frequency components. Considering that, the absolute value of the neural network for the image of the eye area including high-frequency detail is large when the scale factor is small, and the absolute value of the neural network for the image of the cheek area that does not require high-frequency detail is small when the scale factor is small. It can be seen that when the
이러한 이유로, 본 실시예에서 채용하는 스케일 팩터는 최초 스케일 팩터에서 점진적으로 감소하는 유리수 값들을 가지고 마지막에는 1인 것으로 설정되는 구성으로 한정되지 않는다. 즉, 본 실시예의 변형예에 의하면, 스케일 팩터는 저해상도의 초해상도 대상 제1 번째 입력 이미지의 크기에 대응하는 스케일 팩터 즉, 스케일 팩터가 1인 값에서 미리 설정된 간격으로 점진적으로 증가하는 유리수의 스케일 팩터들과, 초해상도 과정 후에 원하는 해상도인 상대적 고해상도의 사이즈에 대응하는 최종 스케일 팩터를 포함할 수 있다. 여기서, 점진적으로 감소하는 스케일 팩터의 최초 스케일 팩터의 값은 점진적으로 증가하는 스케일 팩터의 최종 스케일 팩터의 값과 동일할 수 있다.For this reason, the scale factor employed in the present embodiment is not limited to a configuration in which rational numbers gradually decrease from the initial scale factor and are finally set to 1. That is, according to a modification of the present embodiment, the scale factor is a scale factor corresponding to the size of the first input image of the low-resolution super-resolution target, that is, a scale of a rational number that gradually increases from a value of 1 to a scale factor of 1 at preset intervals. factors, and a final scale factor corresponding to the size of the relative high resolution, which is the desired resolution after the super-resolution process. Here, the value of the first scale factor of the gradually decreasing scale factor may be the same as the value of the final scale factor of the gradually increasing scale factor.
또한, 본 실시예의 스케일 팩터의 설정에 따른 초해상도 과정을 고려하면, 본 발명의 점진적 이미지 해상도 향상 방법이나 이미지 초해상도 방법은 초해상도 대상 원본 이미지를 고주파 영역을 다수 포함하는 제1 부분과 저주파 영역을 다수 포함하는 제2 부분을 분리한 제1 원본 이미지와 제2 원본 이미지에 대하여 서로 다른 스케일 팩터의 세트들로 각각 해상도를 향상시킨 후 즉, 초해상도 작업을 수행한 후에, 초해상도 작업이 완료된 제1 부분 이미지와 제2 부분 이미지를 조합하고, 필요한 경우 제1 부분 이미지와 제2 부분 이미지의 경계 부분을 가우시안 스무딩 필터, 저주파 필터, 디블록킹 필터 등의 필터를 통해 부드럽게 처리하는 과정을 추가할 수 있다.In addition, considering the super-resolution process according to the setting of the scale factor of the present embodiment, the gradual image resolution improvement method or the image super-resolution method of the present invention converts the original super-resolution target image into a first part including a plurality of high-frequency areas and a low-frequency area. After improving the resolution with sets of different scale factors for the first original image and the second original image from which the second part including a plurality of isolates are separated, that is, after performing the super-resolution operation, the super-resolution operation is completed. A process of combining the first partial image and the second partial image and, if necessary, softening the boundary between the first partial image and the second partial image through a filter such as a Gaussian smoothing filter, a low-frequency filter, and a deblocking filter may be added. can
본 발명의 실시예에 따른 방법의 동작은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 프로그램 또는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산 방식으로 컴퓨터로 읽을 수 있는 프로그램 또는 코드가 저장되고 실행될 수 있다. The operation of the method according to the embodiment of the present invention can be implemented as a computer readable program or code on a computer readable recording medium. A computer-readable recording medium includes all types of recording devices in which data that can be read by a computer system is stored. In addition, computer-readable recording media may be distributed to computer systems connected through a network to store and execute computer-readable programs or codes in a distributed manner.
또한, 컴퓨터가 읽을 수 있는 기록매체는 롬(rom), 램(ram), 플래시 메모리(flash memory) 등과 같이 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치를 포함할 수 있다. 프로그램 명령은 컴파일러(compiler)에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터(interpreter) 등을 사용해서 컴퓨터에 의해 실행될 수 있는 고급 언어 코드를 포함할 수 있다.In addition, the computer-readable recording medium may include hardware devices specially configured to store and execute program instructions, such as ROM, RAM, and flash memory. The program command may include high-level language codes that can be executed by a computer using an interpreter or the like as well as machine code generated by a compiler.
본 발명의 일부 측면들은 장치의 문맥에서 설명되었으나, 그것은 상응하는 방법에 따른 설명 또한 나타낼 수 있고, 여기서 블록 또는 장치는 방법 단계 또는 방법 단계의 특징에 상응한다. 유사하게, 방법의 문맥에서 설명된 측면들은 또한 상응하는 블록 또는 아이템 또는 상응하는 장치의 특징으로 나타낼 수 있다. 방법 단계들의 몇몇 또는 전부는 예를 들어, 마이크로프로세서, 프로그램 가능한 컴퓨터 또는 전자 회로와 같은 하드웨어 장치에 의해(또는 이용하여) 수행될 수 있다. 몇몇의 실시예에서, 가장 중요한 방법 단계들의 하나 이상은 이와 같은 장치에 의해 수행될 수 있다. Although some aspects of the present invention have been described in the context of an apparatus, it may also represent a description according to a corresponding method, where a block or apparatus corresponds to a method step or feature of a method step. Similarly, aspects described in the context of a method may also be represented by a corresponding block or item or a corresponding feature of a device. Some or all of the method steps may be performed by (or using) a hardware device such as, for example, a microprocessor, programmable computer or electronic circuitry. In some embodiments, one or more of the most important method steps may be performed by such an apparatus.
실시예들에서, 프로그램 가능한 로직 장치(예를 들어, 필드 프로그머블 게이트 어레이)가 여기서 설명된 방법들의 기능의 일부 또는 전부를 수행하기 위해 사용될 수 있다. 실시예들에서, 필드 프로그머블 게이트 어레이는 여기서 설명된 방법들 중 하나를 수행하기 위한 마이크로프로세서와 함께 작동할 수 있다. 일반적으로, 방법들은 어떤 하드웨어 장치에 의해 수행되는 것이 바람직하다.In embodiments, a programmable logic device (eg, a field programmable gate array) may be used to perform some or all of the functions of the methods described herein. In embodiments, a field programmable gate array may operate in conjunction with a microprocessor to perform one of the methods described herein. Generally, methods are preferably performed by some hardware device.
이상 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the above has been described with reference to preferred embodiments of the present invention, those skilled in the art can variously modify and change the present invention without departing from the spirit and scope of the present invention described in the claims below. You will understand that you can.
Claims (15)
상기 제N-1 번째 잔차 이미지와 상기 제N-1 번째 입력 이미지의 합으로 제N 번째 입력 이미지를 생성하는 단계(b)-여기서 상기 제N 번째 입력 이미지는 상기 뉴럴 네트워크의 입력으로 전달됨-; 및
상기 스케일 팩터가 1이 될 때까지 상기 스케일 팩터의 크기를 미리 설정된 크기만큼 점진적으로 감소시키면서 상기 단계(a) 및 상기 단계(b)를 반복 수행하는 단계(c)를 포함하고,
상기 스케일 팩터가 1로 적용될 때 상기 제N-1 번째 잔차 이미지와 제N 번째 잔차 이미지 간의 이미지 잔차들에 대한 상미분 누적값과 상기 제1 번째 입력 이미지의 합으로 최종 출력 이미지가 생성되는, 점진적 이미지 해상도 향상 방법.
Starting from the 1st input image obtained by upscaling the original input image, the N-1th (N is a natural number greater than or equal to 2) input image is input to the neural network, and a scale factor is applied to obtain the N-1th input image in the neural network. Outputting a residual image (a);
(b) generating an N-th input image by adding the N-1-th residual image and the N-1-th input image, wherein the N-th input image is transmitted as an input of the neural network; and
Step (c) of repeating steps (a) and (b) while gradually reducing the size of the scale factor by a preset size until the scale factor becomes 1;
When the scale factor is applied as 1, a final output image is generated as a sum of the first input image and the cumulative ordinary differential of the image residuals between the N-1th residual image and the Nth residual image. How to improve image resolution.
상기 스케일 팩터는 1보다 큰 유리수(rational number) 값인, 점진적 이미지 해상도 향상 방법.
The method of claim 1,
The scale factor is a rational number value greater than 1, the gradual image resolution enhancement method.
상기 스케일 팩터는 상기 뉴럴 네트워크에 추가되는 입력으로, 상기 뉴럴 네트워크의 반복 동작마다 등차적, 선형적, 등비적 또는 비선형적으로 순차 감소하는 값인, 점진적 이미지 해상도 향상 방법.
The method of claim 2,
The scale factor is an input added to the neural network, and is a value that sequentially decreases in a geometrical, linear, geometrical, or nonlinear manner for each repetitive operation of the neural network.
상기 누적 계산한 값은 하기 수학식 4로 표현되는 상미분 방정식(ODE: ordinary differential equation)으로 모델링되며,
[수학식 4]
수학식 4에서, 은 상기 최종 출력 이미지를, 는 초기 스케일 팩터(to)가 적용된 상기 제1 번째 입력 이미지를, 는 상기 뉴럴 네트워크의 입력 이미지에 점진적으로 감소되는 스케일 팩터(t)가 적용된 이미지를, f()dt는 스케일 팩터(t)가 추가 입력되는 상기 뉴럴 네트워크의 입력 이미지와 출력 이미지 간의 이미지 잔차에 대한 상미분 방정식을, 는 상기 뉴럴 네트워크의 트레이닝 가능한 파라미터를 나타내는, 점진적 이미지 해상도 향상 방법.
The method of claim 1,
The cumulatively calculated value is modeled as an ordinary differential equation (ODE) represented by Equation 4 below,
[Equation 4]
In Equation 4, is the final output image, Is the first input image to which the initial scale factor (t o ) is applied, is an image to which a gradually reduced scale factor (t) is applied to the input image of the neural network, and f()dt is an image residual between the input image and the output image of the neural network to which the scale factor (t) is additionally input. an ordinary differential equation, Wherein denotes a trainable parameter of the neural network, progressive image resolution enhancement method.
상기 누적 계산한 값은 ODE 솔버(solver)에 의해 수치적으로(numerically) 계산되며,
상기 ODE 솔버는 오일러(Euler) 방법, 룬게쿠타(Runge-Kutta) 방법, Heun 방법, 중점(Midpoint) 방법, 적응적 룬게쿠타 방법 중에서 선택되는 어느 하나 이상을 포함하는, 점진적 이미지 해상도 향상 방법.
The method of claim 4,
The cumulatively calculated value is calculated numerically by an ODE solver,
The ODE solver includes one or more selected from the Euler method, the Runge-Kutta method, the Heun method, the midpoint method, and the adaptive Runge-Kutta method.
상기 뉴럴 네트워크는 수학식 6으로 표현되는 손실함수를 최소화하도록 상기 파라미터를 훈련하며,
[수학식 6]
수학식 6에서, 는 파라미터 를 훈련하여 손실함수를 최소화하는 수학식을, 은 상대적 고해상도(HR: high resolution)의 훈련용 원본 이미지를, ODESolove()는 ODE 솔버 함수를 각각 나타내는, 점진적 이미지 해상도 향상 방법.
The method of claim 4,
The neural network trains the parameters to minimize the loss function represented by Equation 6,
[Equation 6]
In Equation 6, is the parameter The equation for minimizing the loss function by training A gradual image resolution enhancement method in which HR represents an original image for training and ODESolove() represents an ODE solver function, respectively.
상기 뉴럴 네트워크의 파라미터를 역전파를 통해 업데이트하는 단계를 더 포함하는, 점진적 이미지 해상도 향상 방법.
The method of claim 6,
The step of updating parameters of the neural network through backpropagation, the progressive image resolution enhancement method.
프로세서;
상기 프로세서와 전자적으로 연결된 메모리; 및
상기 메모리에 저장된 명령어들을 포함하고,
상기 프로세서에 의해 실행될 때, 상기 명령어들은 상기 프로세서가:
최초 입력 이미지를 업스케일링한 제1 번째 입력 이미지를 시작으로, 제N-1 번째(N은 2 이상의 자연수) 입력 이미지를 뉴럴 네트워크에 입력하고 스케일 팩터를 적용하여 상기 뉴럴 네트워크에서 제N-1번째 잔차 이미지를 출력하는 단계(a);
상기 제N-1 번째 잔차 이미지와 상기 제N-1 번째 입력 이미지의 합으로 제N 번째 입력 이미지를 생성하는 단계(b)-여기서 상기 제N 번째 입력 이미지는 상기 뉴럴 네트워크의 입력으로 전달됨-;
상기 스케일 팩터가 1이 될 때까지 상기 스케일 팩터의 크기를 미리 설정된 크기만큼 점진적으로 감소시키면서 상기 단계(a) 및 상기 단계(b)를 반복 수행하는 단계(c); 및
상기 스케일 팩터가 1로 적용될 때 상기 제N-1 번째 잔차 이미지와 제N 번째 입력 이미지 간의 이미지 잔차들을 누적 계산한 값과 상기 제1 번째 입력 이미지의 합으로 최총 출력 이미지를 생성하는 단계(d)를 수행하도록 하는, 점진적 이미지 해상도 향상 장치.
As a gradual image resolution enhancement device,
processor;
a memory electronically coupled to the processor; and
contains instructions stored in the memory;
When executed by the processor, the instructions cause the processor to:
Starting with the 1st input image obtained by upscaling the original input image, input the N-1th (N is a natural number greater than or equal to 2) input image to the neural network and apply a scale factor to the N-1th input image in the neural network. Outputting a residual image (a);
(b) generating an N-th input image by adding the N-1-th residual image and the N-1-th input image, wherein the N-th input image is transmitted as an input of the neural network;
(c) repeatedly performing steps (a) and (b) while gradually decreasing the size of the scale factor by a preset size until the scale factor becomes 1; and
generating a total output image as a sum of a value obtained by cumulatively calculating image residuals between the N-1 th residual image and the N th input image when the scale factor is applied as 1 and the first input image (d) A gradual image resolution enhancement device for performing
상기 누적 계산한 값은 상미분 방정식(ODE: ordinary differential equation)으로 모델링되며,
[수학식 4]
수학식 4에서, 은 상기 최종 출력 이미지를, 는 초기 스케일 팩터(to)가 적용된 상기 제1 번째 입력 이미지를, 는 상기 뉴럴 네트워크의 입력 이미지에 점진적으로 감소되는 스케일 팩터(t)가 적용된 이미지를, f()dt는 스케일 팩터(t)가 추가 입력되는 상기 뉴럴 네트워크의 입력 이미지와 출력 이미지 간의 이미지 잔차에 대한 상미분 방정식을, 는 상기 뉴럴 네트워크의 트레이닝 가능한 파라미터를 나타내는, 점진적 이미지 해상도 향상 장치
The method of claim 8,
The cumulatively calculated value is modeled as an ordinary differential equation (ODE),
[Equation 4]
In Equation 4, is the final output image, Is the first input image to which the initial scale factor (t o ) is applied, is an image to which a gradually reduced scale factor (t) is applied to the input image of the neural network, and f()dt is an image residual between the input image and the output image of the neural network to which the scale factor (t) is additionally input. an ordinary differential equation, represents a trainable parameter of the neural network, a gradual image resolution enhancement device
상기 뉴럴 네트워크는 수학식 6으로 표현되는 손실함수를 최소화하도록 상기 파라미터를 훈련하며,
[수학식 6]
수학식 6에서, 는 파라미터 를 훈련하여 손실함수를 최소화하는 수학식을, 은 상대적 고해상도(HR: high resolution)의 훈련용 원본 이미지를, 그리고 ODESolove()는 ODE 솔버 함수를 각각 나타내는, 점진적 이미지 해상도 향상 장치
The method of claim 9,
The neural network trains the parameters to minimize the loss function represented by Equation 6,
[Equation 6]
In Equation 6, is the parameter The equation for minimizing the loss function by training is a relatively high resolution (HR) training original image, and ODESolove() represents an ODE solver function, respectively, a progressive image resolution enhancement device
입력 이미지가 입력되는 뉴럴 네트워크의 출력 이미지를 상기 뉴럴 네트워크의 입력 이미지로 다시 입력하는 단계;
상기 뉴럴 네트워크에 상기 입력 이미지가 입력될 때마다 상기 뉴럴 네트워크에 점진적으로 그 크기가 다르게 설정되는 스케일 팩터들을 순차적으로 제공하는 단계;
상기 뉴럴 네트워크의 반복 동작마다 상기 뉴럴 네트워크의 입력 이미지와 출력 이미지 간의 이미지 잔차를 상미분 방정식을 이용하여 계산하고 계산된 값들을 누적하거나 갱신하는 단계; 및
상기 갱신하는 단계에서 얻은 최종 이미지 잔차와 최초 입력 이미지를 합하여 최종 출력 이미지를 생성하는 단계;
를 포함하는 이미지 초해상도 방법.
In the image super-resolution method performed by the processor,
re-inputting an output image of a neural network into which an input image is input as an input image of the neural network;
sequentially providing scale factors, the sizes of which are gradually set to be different, to the neural network whenever the input image is input to the neural network;
calculating an image residual between an input image and an output image of the neural network by using an ordinary differential equation for each repetitive operation of the neural network and accumulating or updating the calculated values; and
generating a final output image by adding the final image residual obtained in the updating step and the initial input image;
Image super-resolution method comprising a.
상기 제공하는 단계는 상기 뉴럴 네트워크의 첫번째 레이어에 상기 입력 이미지에 더하여 상기 스케일 팩터를 추가 입력하는, 이미지 초해상도 방법.
The method of claim 11,
The providing step further inputs the scale factor to the first layer of the neural network in addition to the input image.
상기 입력하는 단계 및 상기 제공하는 단계는, 상기 입력 이미지를 기준으로 1보다 큰 유리수의 크기를 가진 스케일 팩터에 대응하여 상기 입력 이미지의 가장자리에 패딩을 추가하고 상기 입력 이미지에 대응하도록 상기 패딩이 추가된 입력 이미지를 중심 크롭핑하는, 이미지 초해상도 방법.
The method of claim 12,
In the inputting and providing, padding is added to an edge of the input image in correspondence to a scale factor having a size of a rational number greater than 1 based on the input image, and the padding is added to correspond to the input image. An image super-resolution method that center-crops the input image.
상기 뉴럴 네트워크는 RDN(Residual Dense Network)를 포함하고, 상기 RDN은 최종 업샘플링 레이어(last upsampling layer)가 생략된 형태를 가져 입력 해상도와 출력 해상도가 동일하게 형성되는, 이미지 초해상도 방법.
The method of claim 11,
The neural network includes a residual dense network (RDN), and the RDN has a form in which a last upsampling layer is omitted so that an input resolution and an output resolution are identical.
상기 뉴럴 네트워크를 훈련하는 단계를 더 포함하며,
상기 훈련하는 단계는, 상기 상미분 방정식을 통해 상기 뉴럴 네트워크의 입력 이미지와 출력 이미지 간의 이미지 잔차들의 차이를 통해 이미지 디테일을 추정하고 상기 이미지 디테일을 상기 뉴럴 네트워크 수행 시마다 갱신하여 상기 최초 입력 이미지에 더하는 단일 훈련 과정을, 서로 다른 스케일 팩터 세트들에 대해 수행하여 미리 설정된 손실 함수가 최소 값이 되거나 미리 설정된 기준 값 이하가 되도록 훈련하는, 이미지 초해상도 방법.The method of claim 11,
Further comprising training the neural network,
The training may include estimating image details through a difference in image residuals between an input image and an output image of the neural network through the ordinary differential equation, updating the image detail each time the neural network is executed, and adding the image to the first input image. An image super-resolution method in which a single training process is performed for different sets of scale factors to train a preset loss function to be a minimum value or less than a preset reference value.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210073710A KR102548407B1 (en) | 2021-06-07 | 2021-06-07 | Method and apparatus for progressive image resolution improvement using neural ordinary differential equation, and image super-resolution method using the smae |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210073710A KR102548407B1 (en) | 2021-06-07 | 2021-06-07 | Method and apparatus for progressive image resolution improvement using neural ordinary differential equation, and image super-resolution method using the smae |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220165121A true KR20220165121A (en) | 2022-12-14 |
KR102548407B1 KR102548407B1 (en) | 2023-06-27 |
Family
ID=84438271
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210073710A KR102548407B1 (en) | 2021-06-07 | 2021-06-07 | Method and apparatus for progressive image resolution improvement using neural ordinary differential equation, and image super-resolution method using the smae |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102548407B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116385280A (en) * | 2023-01-09 | 2023-07-04 | 爱芯元智半导体(上海)有限公司 | Image noise reduction system and method and noise reduction neural network training method |
-
2021
- 2021-06-07 KR KR1020210073710A patent/KR102548407B1/en active IP Right Grant
Non-Patent Citations (2)
Title |
---|
Ricky T. Q. Chen et al., "Neural Ordinary Differential Equations", 32nd Conference on Neural Information Processing Systems, (2019.12.14.)* * |
Ying Fu et al., "Residual scale attention network for arbitrary scale image super-resolution", Neurocomputing Volume 427, Pages 201-211 (2021.2.28.)* * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116385280A (en) * | 2023-01-09 | 2023-07-04 | 爱芯元智半导体(上海)有限公司 | Image noise reduction system and method and noise reduction neural network training method |
CN116385280B (en) * | 2023-01-09 | 2024-01-23 | 爱芯元智半导体(上海)有限公司 | Image noise reduction system and method and noise reduction neural network training method |
Also Published As
Publication number | Publication date |
---|---|
KR102548407B1 (en) | 2023-06-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Dong et al. | Denoising prior driven deep neural network for image restoration | |
CN109308679B (en) | Image style conversion method and device, equipment and storage medium | |
Kim et al. | Deeply-recursive convolutional network for image super-resolution | |
US10552944B2 (en) | Image upscaling with controllable noise reduction using a neural network | |
AU2019451948B2 (en) | Real-time video ultra resolution | |
CN109068174B (en) | Video frame rate up-conversion method and system based on cyclic convolution neural network | |
JP6998968B2 (en) | Deep neural network execution method, execution device, learning method, learning device and program | |
Dong et al. | Sparse analysis model based multiplicative noise removal with enhanced regularization | |
JP7143529B2 (en) | IMAGE RESTORATION METHOD AND DEVICE, ELECTRONIC DEVICE, AND STORAGE MEDIUM | |
CN111696027A (en) | Multi-modal image style migration method based on adaptive attention mechanism | |
Salmona et al. | Deoldify: A review and implementation of an automatic colorization method | |
CN116681584A (en) | Multistage diffusion image super-resolution algorithm | |
KR102548407B1 (en) | Method and apparatus for progressive image resolution improvement using neural ordinary differential equation, and image super-resolution method using the smae | |
Mikaeli et al. | Single-image super-resolution via patch-based and group-based local smoothness modeling | |
JP4945533B2 (en) | Image processing apparatus and image processing method | |
WO2023012231A1 (en) | Method and data processing system for lossy image or video encoding, transmission and decoding | |
Xiong et al. | Noucsr: Efficient super-resolution network without upsampling convolution | |
Mishra et al. | Experimentally proven bilateral blur on SRCNN for optimal convergence | |
CN113095473A (en) | Neural network architecture search system and method, and computer-readable recording medium | |
Li et al. | Medical Image Enhancement Using Deep Learning | |
Wang et al. | Single image super-resolution based on approximated Heaviside functions and iterative refinement | |
CN114781499B (en) | Method for constructing ViT model-based intensive prediction task adapter | |
Sakthidasan Sankaran et al. | Optimized gradient histogram preservation with block wise SURE shrinkage for noise free image restoration | |
Xu et al. | JPEG image super-resolution via deep residual network | |
Ajith et al. | Time accelerated image super-resolution using shallow residual feature representative network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right |