KR102541603B1 - Apparatus and method for generating super-resolution images using display gradient information based on deep learning - Google Patents

Apparatus and method for generating super-resolution images using display gradient information based on deep learning Download PDF

Info

Publication number
KR102541603B1
KR102541603B1 KR1020210092765A KR20210092765A KR102541603B1 KR 102541603 B1 KR102541603 B1 KR 102541603B1 KR 1020210092765 A KR1020210092765 A KR 1020210092765A KR 20210092765 A KR20210092765 A KR 20210092765A KR 102541603 B1 KR102541603 B1 KR 102541603B1
Authority
KR
South Korea
Prior art keywords
module
gradient
output
information extraction
image
Prior art date
Application number
KR1020210092765A
Other languages
Korean (ko)
Other versions
KR20230012233A (en
Inventor
전광길
Original Assignee
인천대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 인천대학교 산학협력단 filed Critical 인천대학교 산학협력단
Priority to KR1020210092765A priority Critical patent/KR102541603B1/en
Publication of KR20230012233A publication Critical patent/KR20230012233A/en
Application granted granted Critical
Publication of KR102541603B1 publication Critical patent/KR102541603B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • G06T3/4076Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution using the original low-resolution images to iteratively correct the high-resolution images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Processing (AREA)

Abstract

본 발명의 일 실시예에 의한 딥러닝 기반 디스플레이 기울기 정보를 활용한 초해상도 영상 생성 장치는, 저해상도 이미지로부터 이미지 정보를 추출하기 위한 이미지 정보 추출 분기; 상기 저해상도 이미지로부터 기울기 정보를 추출하기 위한 기울기 정보 추출 분기; 상기 이미지 정보 추출 분기의 출력과 상기 기울기 정보 추출 분기의 출력을 가산하기 위한 제1 가산부; 상기 제1 가산부의 출력을 디컨벌루션하기 위한 디컨벌루션부; 상기 저해상도 이미지를 업샘플링하기 위한 업샘플링부; 및 상기 디컨벌루션부의 출력과 상기 업샘플링부의 출력을 가산하여 초해상도 이미지를 형성하기 위한 제2 가산부를 포함하고, 상기 기울기 정보 추출 분기는 상기 이미지 정보 추출 분기의 중간 이미지 정보 및 상기 저해상도 이미지의 기울기 특징에 기반하여 상기 기울기 정보를 추출한다.An apparatus for generating a super-resolution image using deep learning-based display tilt information according to an embodiment of the present invention includes an image information extraction branch for extracting image information from a low-resolution image; a gradient information extraction branch for extracting gradient information from the low-resolution image; a first adder for adding an output of the image information extraction branch and an output of the gradient information extraction branch; a deconvolution unit configured to deconvolve an output of the first adder; an upsampling unit for upsampling the low resolution image; and a second adder for forming a super-resolution image by adding an output of the deconvolution unit and an output of the upsampling unit, wherein the gradient information extraction branch includes intermediate image information of the image information extraction branch and a gradient of the low-resolution image. The gradient information is extracted based on the feature.

Figure R1020210092765
Figure R1020210092765

Description

딥러닝 기반 디스플레이 기울기 정보를 활용한 초해상도 영상 생성 장치 및 방법{APPARATUS AND METHOD FOR GENERATING SUPER-RESOLUTION IMAGES USING DISPLAY GRADIENT INFORMATION BASED ON DEEP LEARNING}Apparatus and method for generating super-resolution images using deep learning-based display gradient information

본 발명은 딥러닝 기반 디스플레이 기울기 정보를 활용한 초해상도 영상 생성 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for generating a super-resolution image using deep learning-based display tilt information.

낮은 수준의 컴퓨터 비전 작업에서 고전적인 문제인 단일 이미지 초해상도(SISR: single image super-resolution)는 저해상도(LR: low-resolution) 이미지에서 고해상도(HR: high-resolution) 이미지를 재구성하는 것을 목표로 한다.Single image super-resolution (SISR), a classic problem in low-level computer vision tasks, aims to reconstruct a high-resolution (HR) image from a low-resolution (LR) image. .

SISR은 감시, 의료 및 위성 이미지와 같은 다양한 이미지 처리 프로젝트에 사용될 수 있다. LR 이미지에 해당하는 HR 솔루션이 다를 수 있기 때문에 SISR은 잘 알려진 부적절하게 정립된 문제이다.SISR can be used for a variety of image processing projects such as surveillance, medical and satellite imagery. SISR is a well-known and poorly established problem because the HR solutions corresponding to LR images may differ.

최근 몇 년 동안 SISR 연구에 대한 문헌에는 보간 기반 방법, 재구성 기반 방법 및 예제 기반 방법을 포함하여 많은 방법이 제안되었다. 처음 두 방법의 복구 성능은 더 큰 규모 요소에서 종종 크게 감소하기 때문에 예제 기반 방법은 LR 및 HR 쌍에서 사전 지식을 배우는 것을 목표로 하는 딥 러닝 개발과 함께 널리 사용되었다.In recent years, many methods have been proposed in the literature on SISR research, including interpolation-based methods, reconstruction-based methods, and example-based methods. Because the recovery performance of the first two methods often decreases significantly at larger scale factors, example-based methods have been widely used with deep learning developments aimed at learning prior knowledge from LR and HR pairs.

오늘날 심층 컨볼루션 신경망(CNN)과 같은 딥러닝(deep learing)의 개발과 함께 딥러닝을 기반으로 하는 많은 SR 방법은 보다 명확한 재구성 세부 정보를 얻기 위해 심층 네트워크를 훈련시키는 것을 목표로 한다. 상당한 성능 달성에도 불구하고 대부분의 심층 네트워크에는 여전히 몇 가지 단점이 있다.Today, with the development of deep learning, such as deep convolutional neural networks (CNNs), many SR methods based on deep learning aim to train deep networks to obtain clearer reconstruction details. Despite achieving significant performance, most deep networks still have some drawbacks.

우선, 더 나은 성능을 얻기 위해 연구자들은 더 깊고 더 넓은 네트워크를 사용하는 것을 선호한다. 그러나 이러한 방법은 분명히 많은 계산 비용과 메모리 소비가 필요하다. 모바일 및 임베디드 시스템과 같은 실제 애플리케이션에는 적합하지 않으므로 SISR의 광범위한 사용이 제한된다. 또한 대부분의 네트워크는 이미지의 풍부한 기하학적 구조 정보를 최대한 활용하지 않고 깊이 심화만을 추구하고 있다. 이로 인해 복원된 SR 이미지의 가장자리가 너무 매끄럽고 흐릿해지기 쉽다. 그러한 재구성 결과는 분명히 충분히 우수하지 않다.First of all, to get better performance, researchers prefer to use deeper and wider networks. However, these methods obviously require high computational cost and memory consumption. It is not suitable for real-world applications such as mobile and embedded systems, limiting the widespread use of SISRs. Also, most networks are only pursuing depth deepening without making full use of the image's rich geometric structure information. This tends to make the edges of the reconstructed SR image too smooth and blurry. Such reconstruction results are clearly not good enough.

심층 컨볼루션 신경망(CNN: convolutional neural networks)은 단일 이미지 초해상도(SR: super-resolution)에서 점점 더 중요한 역할을 해왔다. 그러나 네트워크의 깊이와 폭이 증가함에 따라 컨볼루션 신경망을 기반으로 한 초해상도 방법은 훈련 문제, 메모리 소비, 실행 속도 저하 및 기타 문제에 직면하고 있다. 더욱이, 대부분의 방법은 이미지의 기하학적 구조 정보의 손실로 이어지는 이미지 기울기 정보를 충분히 사용하지 않는다.Deep convolutional neural networks (CNNs) have played an increasingly important role in single image super-resolution (SR). However, as the depth and breadth of networks increase, super-resolution methods based on convolutional neural networks face training problems, memory consumption, slow execution and other problems. Moreover, most methods do not make sufficient use of image tilt information leading to loss of image geometry information.

KRKR 10-2077215 10-2077215 B1B1

Hui, Z., Wang, X., Gao, X., "Fast and accurate single image super-resolution via information distillation network" CVPR (2018)Hui, Z., Wang, X., Gao, X., "Fast and accurate single image super-resolution via information distillation network" CVPR (2018)

본 발명이 해결하고자 하는 과제는 초해상도 이미지의 가장자리 세부 사항을 더 선명하게 하고, 계산 및 실행 시간을 단축할 수 있는 딥러닝 기반 디스플레이 기울기 정보를 활용한 초해상도 영상 생성 장치 및 방법을 제공하는 것이다.The problem to be solved by the present invention is to provide a super-resolution image generation device and method using deep learning-based display tilt information that can sharpen edge details of super-resolution images and reduce calculation and execution time. .

상기 과제를 해결하기 위한 본 발명의 일 실시예에 의한 딥러닝 기반 디스플레이 기울기 정보를 활용한 초해상도 영상 생성 장치는,A super-resolution image generating device using deep learning-based display tilt information according to an embodiment of the present invention for solving the above problems is,

저해상도 이미지로부터 이미지 정보를 추출하기 위한 이미지 정보 추출 분기;an image information extraction branch for extracting image information from a low-resolution image;

상기 저해상도 이미지로부터 기울기 정보를 추출하기 위한 기울기 정보 추출 분기;a gradient information extraction branch for extracting gradient information from the low-resolution image;

상기 이미지 정보 추출 분기의 출력과 상기 기울기 정보 추출 분기의 출력을 가산하기 위한 제1 가산부;a first adder for adding an output of the image information extraction branch and an output of the gradient information extraction branch;

상기 제1 가산부의 출력을 디컨벌루션하기 위한 디컨벌루션부;a deconvolution unit configured to deconvolve an output of the first adder;

상기 저해상도 이미지를 업샘플링하기 위한 업샘플링부; 및an upsampling unit for upsampling the low resolution image; and

상기 디컨벌루션부의 출력과 상기 업샘플링부의 출력을 가산하여 초해상도 이미지를 형성하기 위한 제2 가산부를 포함하고,A second addition unit for forming a super-resolution image by adding the output of the deconvolution unit and the output of the upsampling unit;

상기 기울기 정보 추출 분기는 상기 이미지 정보 추출 분기의 중간 이미지 정보 및 상기 저해상도 이미지의 기울기 특징에 기반하여 상기 기울기 정보를 추출한다.The gradient information extraction branch extracts the gradient information based on intermediate image information of the image information extraction branch and gradient characteristics of the low-resolution image.

본 발명의 일 실시예에 의한 딥러닝 기반 디스플레이 기울기 정보를 활용한 초해상도 영상 생성 장치에 있어서, 상기 이미지 정보 추출 분기는,In the super-resolution image generating apparatus using deep learning-based display tilt information according to an embodiment of the present invention, the image information extraction branch,

상기 저해상도 이미지로부터 특징 맵을 추출하기 위한 특징 맵 추출 모듈; 및a feature map extraction module for extracting a feature map from the low-resolution image; and

상기 특징 맵 추출 모듈에서 출력되는 특징 맵을 수신하여 상기 이미지 정보를 출력하기 위한, 직렬로 연결된 제1 내지 제n 이미지 정보 추출 모듈을 포함하고, 상기 n은 2 이상인 정수이며,first to nth image information extraction modules connected in series for receiving the feature map output from the feature map extraction module and outputting the image information, wherein n is an integer greater than or equal to 2;

상기 이미지 정보 추출 분기의 중간 이미지 정보는 상기 제1 내지 제n 이미저 정보 추출 모듈의 출력일 수 있다.The intermediate image information of the image information extraction branch may be outputs of the first through n-th imager information extraction modules.

또한, 본 발명의 일 실시예에 의한 딥러닝 기반 디스플레이 기울기 정보를 활용한 초해상도 영상 생성 장치에 있어서, 상기 기울기 정보 추출 분기는,In addition, in the super-resolution image generating apparatus using deep learning-based display tilt information according to an embodiment of the present invention, the tilt information extraction branch,

상기 저해상도 이미지로부터 기울기 맵을 추출하기 위한 기울기 맵 추출 모듈;a gradient map extraction module for extracting a gradient map from the low-resolution image;

상기 기울기 맵 추출 모듈에서 출력되는 기울기 맵으로부터 기울기 특징을 추출하기 위한 기울기 특징 추출 모듈;a gradient feature extraction module for extracting a gradient feature from the gradient map output from the gradient map extraction module;

상기 기울기 특징 추출 모듈에서 출력되는 기울기 특징과 상기 제1 이미지 정보 추출 모듈의 출력을 가산하기 위한 제1 가산 모듈;a first addition module configured to add a gradient feature output from the gradient feature extraction module and an output of the first image information extraction module;

상기 제1 가산 모듈의 출력을 수신하여 기울기 정보를 출력하기 위한 제1 기울기 정보 추출 모듈;a first gradient information extraction module configured to receive an output of the first addition module and output gradient information;

상기 제1 기울기 정보 추출 모듈에 직렬로 연결된 제2 내지 제n 기울기 정보 추출 모듈; 및second to n-th gradient information extraction modules serially connected to the first gradient information extraction module; and

상기 제(M-1) 기울기 정보 추출 모듈의 출력과 상기 제M 이미지 정보 추출 모듈의 출력을 가산하기 위한 제M 가산 모듈을 포함하고,And an M-th addition module for adding the output of the (M-1)th gradient information extraction module and the output of the M-th image information extraction module,

상기 제n 가산 모듈의 출력은 상기 제n 기울기 정보 추출 모듈에 입력되며,The output of the nth addition module is input to the nth gradient information extraction module,

M은 2 내지 n인 정수이고, n은 2 이상인 정수일 수 있다.M is an integer from 2 to n, and n may be an integer of 2 or more.

또한, 본 발명의 일 실시예에 의한 딥러닝 기반 디스플레이 기울기 정보를 활용한 초해상도 영상 생성 장치에 있어서, 상기 제1 내지 제n 이미지 정보 추출 모듈 및 상기 제1 내지 제n 기울기 정보 추출 모듈은 각각,In addition, in the apparatus for generating super-resolution images using deep learning-based display tilt information according to an embodiment of the present invention, the first to nth image information extraction modules and the first to nth tilt information extraction modules are respectively ,

두 개의 얕은 컨볼루션을 포함하는 향상 모듈; 및an enhancement module that includes two shallow convolutions; and

상기 향상 모듈의 출력에 연결된 압축 모듈을 포함할 수 있다.and a compression module coupled to the output of the enhancement module.

또한, 본 발명의 일 실시예에 의한 딥러닝 기반 디스플레이 기울기 정보를 활용한 초해상도 영상 생성 장치에 있어서, 상기 향상 모듈은,In addition, in the super-resolution image generating apparatus using deep learning-based display tilt information according to an embodiment of the present invention, the enhancement module,

입력 신호를 수신하는 제1 3×3 컨벌루션 모듈;A first 3×3 convolution module receiving an input signal;

상기 제1 3×3 컨벌루션 모듈의 출력을 2개의 신호로 슬라이싱하기 위한 슬라이싱 모듈;a slicing module for slicing the output of the first 3×3 convolution module into two signals;

상기 슬라이싱 모듈의 제1 출력을 수신하는 제2 3×3 컨벌루션 모듈;a second 3×3 convolution module receiving the first output of the slicing module;

상기 슬라이싱 모듈의 제2 출력과 상기 입력 신호를 연결하는 연결 모듈; 및a connection module connecting the second output of the slicing module and the input signal; and

상기 제2 3×3 컨벌루션 모듈의 출력과 상기 연결 모듈의 출력을 가산하기 위한 가산 모듈을 포함하고,An addition module for adding the output of the second 3 × 3 convolution module and the output of the convolution module,

상기 압축 모듈은 1×1 컨벌루션 모듈을 포함할 수 있다.The compression module may include a 1×1 convolution module.

상기 과제를 해결하기 위한 본 발명의 일 실시예에 의한 딥러닝 기반 디스플레이 기울기 정보를 활용한 초해상도 영상 생성 방법은,A super-resolution image generation method using deep learning-based display tilt information according to an embodiment of the present invention for solving the above problems is,

(A) 이미지 정보 추출 분기가 저해상도 이미지로부터 이미지 정보를 추출하는 단계;(A) an image information extraction branch extracting image information from a low-resolution image;

(B) 기울기 정보 추출 분기가 상기 저해상도 이미지로부터 기울기 정보를 추출하는 단계;(B) a gradient information extraction branch extracting gradient information from the low-resolution image;

(C) 제1 가산부가 상기 이미지 정보 추출 분기의 출력과 상기 기울기 정보 추출 분기의 출력을 가산하는 단계;(C) adding, by a first adder, an output of the image information extraction branch and an output of the gradient information extraction branch;

(D) 디컨벌루션부가 상기 제1 가산부의 출력을 디컨벌루션하는 단계;(D) deconvoluting the output of the first adder by a deconvolution unit;

(E) 업샘플링부가 상기 저해상도 이미지를 업샘플링하는 단계; 및(E) upsampling the low resolution image by an upsampling unit; and

(F) 제2 가산부가, 상기 디컨벌루션부의 출력과 상기 업샘플링부의 출력을 가산하여 초해상도 이미지를 형성하는 단계를 포함하고,(F) forming, by a second adder, a super-resolution image by adding the output of the deconvolution unit and the output of the upsampling unit;

상기 기울기 정보 추출 분기는 상기 이미지 정보 추출 분기의 중간 이미지 정보 및 상기 저해상도 이미지의 기울기 특징에 기반하여 상기 기울기 정보를 추출한다.The gradient information extraction branch extracts the gradient information based on intermediate image information of the image information extraction branch and gradient characteristics of the low-resolution image.

본 발명의 일 실시예에 의한 딥러닝 기반 디스플레이 기울기 정보를 활용한 초해상도 영상 생성 방법에 있어서, 상기 이미지 정보 추출 분기는,In the super-resolution image generation method using deep learning-based display tilt information according to an embodiment of the present invention, the image information extraction branch,

상기 저해상도 이미지로부터 특징 맵을 추출하기 위한 특징 맵 추출 모듈; 및a feature map extraction module for extracting a feature map from the low-resolution image; and

상기 특징 맵 추출 모듈에서 출력되는 특징 맵을 수신하여 상기 이미지 정보를 출력하기 위한, 직렬로 연결된 제1 내지 제n 이미지 정보 추출 모듈을 포함하고, 상기 n은 2 이상인 정수이며,first to nth image information extraction modules connected in series for receiving the feature map output from the feature map extraction module and outputting the image information, wherein n is an integer greater than or equal to 2;

상기 이미지 정보 추출 분기의 중간 이미지 정보는 상기 제1 내지 제n 이미저 정보 추출 모듈의 출력일 수 있다.The intermediate image information of the image information extraction branch may be outputs of the first through n-th imager information extraction modules.

또한, 본 발명의 일 실시예에 의한 딥러닝 기반 디스플레이 기울기 정보를 활용한 초해상도 영상 생성 방법에 있어서, 상기 기울기 정보 추출 분기는,In addition, in the super-resolution image generation method using deep learning-based display tilt information according to an embodiment of the present invention, the tilt information extraction branch,

상기 저해상도 이미지로부터 기울기 맵을 추출하기 위한 기울기 맵 추출 모듈;a gradient map extraction module for extracting a gradient map from the low-resolution image;

상기 기울기 맵 추출 모듈에서 출력되는 기울기 맵으로부터 기울기 특징을 추출하기 위한 기울기 특징 추출 모듈;a gradient feature extraction module for extracting a gradient feature from the gradient map output from the gradient map extraction module;

상기 기울기 특징 추출 모듈에서 출력되는 기울기 특징과 상기 제1 이미지 정보 추출 모듈의 출력을 가산하기 위한 제1 가산 모듈;a first addition module configured to add a gradient feature output from the gradient feature extraction module and an output of the first image information extraction module;

상기 제1 가산 모듈의 출력을 수신하여 기울기 정보를 출력하기 위한 제1 기울기 정보 추출 모듈;a first gradient information extraction module configured to receive an output of the first addition module and output gradient information;

상기 제1 기울기 정보 추출 모듈에 직렬로 연결된 제2 내지 제n 기울기 정보 추출 모듈; 및second to n-th gradient information extraction modules serially connected to the first gradient information extraction module; and

상기 제(M-1) 기울기 정보 추출 모듈의 출력과 상기 제M 이미지 정보 추출 모듈의 출력을 가산하기 위한 제M 가산 모듈을 포함하고,And an M-th addition module for adding the output of the (M-1)th gradient information extraction module and the output of the M-th image information extraction module,

상기 제n 가산 모듈의 출력은 상기 제n 기울기 정보 추출 모듈에 입력되며,The output of the nth addition module is input to the nth gradient information extraction module,

M은 2 내지 n인 정수이고, n은 2 이상인 정수일 수 있다.M is an integer from 2 to n, and n may be an integer of 2 or more.

또한, 본 발명의 일 실시예에 의한 딥러닝 기반 디스플레이 기울기 정보를 활용한 초해상도 영상 생성 방법에 있어서, 상기 제1 내지 제n 이미지 정보 추출 모듈 및 상기 제1 내지 제n 기울기 정보 추출 모듈은 각각,In addition, in the super-resolution image generation method using deep learning-based display tilt information according to an embodiment of the present invention, the first to nth image information extraction modules and the first to nth tilt information extraction modules are respectively ,

두 개의 얕은 컨볼루션을 포함하는 향상 모듈; 및an enhancement module that includes two shallow convolutions; and

상기 향상 모듈의 출력에 연결된 압축 모듈을 포함할 수 있다.and a compression module coupled to the output of the enhancement module.

또한, 본 발명의 일 실시예에 의한 딥러닝 기반 디스플레이 기울기 정보를 활용한 초해상도 영상 생성 방법에 있어서, 상기 향상 모듈은,In addition, in the super-resolution image generation method using deep learning-based display tilt information according to an embodiment of the present invention, the enhancement module,

입력 신호를 수신하는 제1 3×3 컨벌루션 모듈;A first 3×3 convolution module receiving an input signal;

상기 제1 3×3 컨벌루션 모듈의 출력을 2개의 신호로 슬라이싱하기 위한 슬라이싱 모듈;a slicing module for slicing the output of the first 3×3 convolution module into two signals;

상기 슬라이싱 모듈의 제1 출력을 수신하는 제2 3×3 컨벌루션 모듈;a second 3×3 convolution module receiving the first output of the slicing module;

상기 슬라이싱 모듈의 제2 출력과 상기 입력 신호를 연결하는 연결 모듈; 및a connection module connecting the second output of the slicing module and the input signal; and

상기 제2 3×3 컨벌루션 모듈의 출력과 상기 연결 모듈의 출력을 가산하기 위한 가산 모듈을 포함하고,An addition module for adding the output of the second 3 × 3 convolution module and the output of the convolution module,

상기 압축 모듈은 1×1 컨벌루션 모듈을 포함할 수 있다..The compression module may include a 1×1 convolution module.

본 발명의 일 실시예에 의한 딥러닝 기반 디스플레이 기울기 정보를 활용한 초해상도 영상 생성 장치 및 방법에 의하면, 초해상도 이미지의 가장자리 세부 사항을 더 선명하게 하고, 계산 및 실행 시간을 단축할 수 있다.According to an apparatus and method for generating a super-resolution image using deep learning-based display tilt information according to an embodiment of the present invention, edge details of a super-resolution image can be made clearer and calculation and execution time can be reduced.

또한, 본 발명의 일 실시예에 의한 딥러닝 기반 디스플레이 기울기 정보를 활용한 초해상도 영상 생성 장치 및 방법에 의하면, 저해상도 기울기 맵에서 기울기 특징을 추출하고 명확한 구조 지침으로 이미지의 기하학적 구조 정보를 초해상도에 제공함으로써 매개변수 수량 및 컴퓨팅 속도 측면에서 기존의 초해상도 방법보다 더 나은 성능을 제공한다.In addition, according to the super-resolution image generation device and method using deep learning-based display tilt information according to an embodiment of the present invention, a tilt feature is extracted from a low-resolution tilt map and geometric structure information of an image is converted into super-resolution It provides better performance than existing super-resolution methods in terms of parameter quantity and computing speed.

도 1은 본 발명의 일 실시예에 의한 딥러닝 기반 디스플레이 기울기 정보를 활용한 초해상도 영상 생성 장치를 도시한 도면.
도 2는 도 1에 도시된 제1 내지 제n 이미지 정보 추출 모듈 및 제1 내지 제n 기울기 정보 추출 모듈 각각의 상세 블록을 도시한 도면.
도 3은 본 발명의 일 실시예에 의한 딥러닝 기반 디스플레이 기울기 정보를 활용한 초해상도 영상 생성 방법의 흐름도.
도 4는 본 발명의 일 실시예에 의한 딥러닝 기반 디스플레이 기울기 정보를 활용한 초해상도 영상 생성 방법이 실행될 수 있는 장치를 도시한 도면.
도 5는 본 발명의 일 실시예에 의한 딥러닝 기반 디스플레이 기울기 정보를 활용한 초해상도 영상 생성 방법과 기존의 방법들을 비교한 도면.
도 6은 2x SR을 위한 Set5 데이터 세트에 대해 매개 변수와 PSNR과 관련하여 본 발명의 일 실시예에 의한 딥러닝 기반 디스플레이 기울기 정보를 활용한 초해상도 영상 생성 방법과 기존의 방법들을 비교한 도면.
도 7은 4x SR을 위한 Set5 데이터 세트에 대해 매개 변수와 PSNR과 관련하여 본 발명의 일 실시예에 의한 딥러닝 기반 디스플레이 기울기 정보를 활용한 초해상도 영상 생성 방법과 기존의 방법들을 비교한 도면.
도 8은 BSD100 및 Urban100 데이터 세트에 대해 4x SR을 위하여 본 발명의 일 실시예에 의한 딥러닝 기반 디스플레이 기울기 정보를 활용한 초해상도 영상 생성 방법에 따른 GIDN-L 및 GIDN과 기존의 최신 방법들의 비주얼 비교를 도시한 도면.
1 is a diagram showing a super-resolution image generating apparatus using deep learning-based display tilt information according to an embodiment of the present invention.
2 is a diagram showing detailed blocks of each of the first to n th image information extraction modules and the first to n th gradient information extraction modules shown in FIG. 1;
3 is a flowchart of a super-resolution image generation method using deep learning-based display tilt information according to an embodiment of the present invention.
4 is a diagram illustrating a device capable of executing a super-resolution image generation method using deep learning-based display tilt information according to an embodiment of the present invention.
5 is a diagram comparing a super-resolution image generation method using display tilt information based on deep learning according to an embodiment of the present invention and existing methods.
6 is a diagram comparing a super-resolution image generation method using deep learning-based display tilt information according to an embodiment of the present invention and conventional methods in relation to parameters and PSNR for a Set5 data set for 2x SR.
7 is a diagram comparing a super-resolution image generation method using deep learning-based display tilt information according to an embodiment of the present invention and conventional methods in relation to parameters and PSNR for a Set5 data set for 4x SR.
8 is a visual representation of GIDN-L and GIDN and existing state-of-the-art methods according to a super-resolution image generation method using deep learning-based display tilt information according to an embodiment of the present invention for 4x SR for BSD100 and Urban100 data sets. A drawing showing the comparison.

본 발명의 목적, 특정한 장점들 및 신규한 특징들은 첨부된 도면들과 연관되어지는 이하의 상세한 설명과 바람직한 실시예들로부터 더욱 명백해질 것이다.Objects, specific advantages and novel features of the present invention will become more apparent from the following detailed description and preferred embodiments taken in conjunction with the accompanying drawings.

이에 앞서 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이고 사전적인 의미로 해석되어서는 아니되며, 발명자가 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있는 원칙에 입각하여 본 발명의 기술적 사상에 부합되는 의미와 개념으로 해석되어야 한다.Prior to this, the terms or words used in this specification and claims should not be interpreted in a conventional and dictionary sense, and the inventor may appropriately define the concept of the term in order to explain his or her invention in the best way. It should be interpreted as a meaning and concept consistent with the technical spirit of the present invention based on the principles.

본 명세서에서 각 도면의 구성요소들에 참조번호를 부가함에 있어서, 동일한 구성 요소들에 한해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 번호를 가지도록 하고 있음에 유의하여야 한다.In adding reference numerals to components of each drawing in this specification, it should be noted that the same components have the same numbers as much as possible, even if they are displayed on different drawings.

또한, "제1", "제2", "일면", "타면" 등의 용어는, 하나의 구성요소를 다른 구성요소로부터 구별하기 위해 사용되는 것으로, 구성요소가 상기 용어들에 의해 제한되는 것은 아니다.In addition, terms such as “first”, “second”, “one side”, and “other side” are used to distinguish one component from another component, and the components are limited by the terms. It is not.

이하, 본 발명을 설명함에 있어, 본 발명의 요지를 불필요하게 흐릴 수 있는 관련된 공지 기술에 대한 상세한 설명은 생략한다.Hereinafter, in describing the present invention, detailed descriptions of related known technologies that may unnecessarily obscure the subject matter of the present invention will be omitted.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시형태를 상세히 설명하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

본 발명에서는 기울기 정보 추출 네트워크를 제안한다. 한편으로는 정보 추출을 통해 빠르고 가벼운 처리의 장점이 유지된다.In the present invention, we propose a gradient information extraction network. On the one hand, the advantage of fast and lightweight processing is maintained through information extraction.

SR 성능은 기울기 정보에 의해 향상된다. 본 발명의 네트워크에는 기울기 정보 주출 분기(GIDB: gradient information distillation branch)와 이미지 정보 추출 분기(IIDB: image information distillation branch)라는 두 개의 분기가 있다.SR performance is improved by gradient information. The network of the present invention has two branches: a gradient information distillation branch (GIDB) and an image information distillation branch (IIDB).

두 분기의 기능을 결합하기 위해 잔차 특징 전송 메커니즘(RFT: Residual feature transfer mechanism)도 도입한다. GIDB 및 RFT의 기능 하에서 본 발명의 일 실시예에 의한 딥러닝 기반 디스플레이 기울기 정보를 활용한 초해상도 영상 생성 장치 및 방법은 재구성된 이미지의 가장자리 세부 사항을 더 선명하게 만들 수 있는 풍부한 기하학적 구조 정보를 유지할 수 있다.To combine the functions of the two branches, we also introduce a residual feature transfer mechanism (RFT). Under the functions of GIDB and RFT, an apparatus and method for generating super-resolution images using deep learning-based display tilt information according to an embodiment of the present invention provide rich geometric structure information that can make edge details of a reconstructed image clearer. can keep

실험 결과는 본 발명의 일 실시예에 의한 딥러닝 기반 디스플레이 기울기 정보를 활용한 초해상도 영상 생성 방법이 기존 방법들보다 우수하면서도 모델의 매개 변수, 계산 및 실행 시간을 제한하는 것으로 나타났다. 본 발명의 일 실시예에 의한 딥러닝 기반 디스플레이 기울기 정보를 활용한 초해상도 영상 생성 방법은 실시간 이미지 처리 및 모바일 애플리케이션의 가능성을 제공한다.Experimental results show that the super-resolution image generation method using deep learning-based display tilt information according to an embodiment of the present invention is superior to existing methods, but limits model parameters, calculation, and execution time. A super-resolution image generation method using deep learning-based display tilt information according to an embodiment of the present invention provides the possibility of real-time image processing and mobile application.

본 발명의 일 실시예에 의한 딥러닝 기반 디스플레이 기울기 정보를 활용한 초해상도 영상 생성 방법에서는 기울기 정보 추출 네트워크(GIDN: Gradient Information Distillation Network)를 제안한다. GIDN은 빠르고 가벼운 이점을 유지하기 위해 매개 변수와 계산의 양이 크게 증가하지 않도록 제어된다.In the super-resolution image generation method using display gradient information based on deep learning according to an embodiment of the present invention, a gradient information distillation network (GIDN) is proposed. GIDN is controlled to avoid significant increases in the amount of parameters and calculations in order to maintain its fast and lightweight advantage.

본 발명의 일 실시예에 의한 딥러닝 기반 디스플레이 기울기 정보를 활용한 초해상도 영상 생성 장치 및 방법은 기울기 정보 추출 분기(GIDB: gradient information distillation branch) 및 이미지 정보 추출 분기(IIDB: image information distillation branch)를 포함한다.An apparatus and method for generating super-resolution images using deep learning-based display gradient information according to an embodiment of the present invention include a gradient information distillation branch (GIDB) and an image information distillation branch (IIDB) includes

GIDB에서는 이미지의 기울기 맵이 입력으로 사용된다. 동시에 기울기 정보는 이미지의 초해상도를 복원하기 위한 가이드로 사용된다. 두 가지를 연결하기 위해 잔차 특징 전송 메커니즘도 도입한다. 이 메커니즘은 IIDB에 있는 동일한 풍부한 이미지의 기하학적 구조 정보를 GIDB의 훈련에 추가할 수 있다. 풍부한 기하학적 구조 정보를 통해 이미지의 가장자리를 선명하게 복원할 수 있는 한, SR 프로세스는 LR 이미지가 강하게 연출할 수 있는 색상을 채우는 작업으로 간주된다.GIDB takes a gradient map of an image as input. At the same time, the tilt information is used as a guide to restore the super-resolution of the image. To bridge the two, we also introduce a residual feature transfer mechanism. This mechanism can add geometry information from the same rich images in IIDB to training in GIDB. As long as the edges of the image can be reconstructed clearly through rich geometric structure information, the SR process is regarded as a color filling operation that the LR image can produce strongly.

본 발명의 일 실시예에 의한 딥러닝 기반 디스플레이 기울기 정보를 활용한 초해상도 영상 생성 방법의 주요 기여는 다음과 같이 요약할 수 있다.The main contribution of the super-resolution image generation method using deep learning-based display tilt information according to an embodiment of the present invention can be summarized as follows.

1. 본 발명의 일 실시예에 의한 딥러닝 기반 디스플레이 기울기 정보를 활용한 초해상도 영상 생성 방법은 최초로 기울기 정보 추출의 개념을 명시적으로 제안하고 기울기 정보 추출(distillation) 분기를 이미지 초해상도 컨벌루션 신경망에 적용하였다. 본 발명은 빠르고 가벼운 장점이 있다.1. The super-resolution image generation method using deep learning-based display tilt information according to an embodiment of the present invention explicitly proposes the concept of extracting tilt information for the first time, and divides the distillation information into an image super-resolution convolutional neural network applied to. The present invention has the advantage of being fast and lightweight.

2. 잔차 특징 전송 메커니즘이 네트워크에 적용된다. 본 발명의 네트워크에서는 LR 이미지의 고급 잔차 특징이 기울기 잔차의 훈련 네트워크에 추가된다. 그리고 기울기 특징 향상은 LR 이미지에 의해 안내되어 기울기 정보 추출 분기의 효과를 향상시킨다.2. A residual feature transmission mechanism is applied to the network. In our network, advanced residual features of LR images are added to the training network of gradient residuals. And the gradient feature enhancement is guided by the LR image to enhance the effect of the gradient information extraction branch.

실험 결과는 본 발명의 일 실시예에 의한 딥러닝 기반 디스플레이 기울기 정보를 활용한 초해상도 영상 생성 방법이 빠르고 정확한 보장을 전제로 이미지 초해상도 결과의 성능을 효과적으로 향상시킬 수 있음을 보여준다.Experimental results show that the super-resolution image generation method using deep learning-based display tilt information according to an embodiment of the present invention can effectively improve the performance of super-resolution images on the premise of fast and accurate guarantee.

본 발명의 목표는 기울기 맵을 구조 가이드로 사용하고 가볍고 빠른 기울기 정보 추출 분기를 통해 충분한 기울기 에지 정보를 획득하여 심층 컨벌루션 신경망(CNN) 기반 방법으로 생성되는 기하학적 왜곡을 줄이는 것이다. 결과적으로 복원된 이미지의 PSNR 값이 향상될 수 있다. 본 발명의 목표는 기울기 정보 추출 분기를 사용하여 CNN 기반 SR 방법을 더욱 개선하는 것이다.An object of the present invention is to reduce geometric distortion generated by a deep convolutional neural network (CNN)-based method by using a gradient map as a structure guide and obtaining sufficient gradient edge information through a lightweight and fast gradient information extraction branch. As a result, the PSNR value of the reconstructed image can be improved. The goal of the present invention is to further improve the CNN-based SR method using gradient information extraction branching.

개요outline

본 발명의 일 실시예에 의한 딥러닝 기반 디스플레이 기울기 정보를 활용한 초해상도 영상 생성 장치 및 방법은 기준선으로 정보 추출 네트워크(IDN: Information Distillation Network)를 선택한다. 결과적으로 본 발명은 성능을 향상시키기 위해 기울기 정보를 추출하는 네트워크를 제안한다. 대부분의 초해상도 컨벌루션 신경망은 이미지의 기울기 정보를 충분히 활용하지 못했기 때문에, 기울기 정보의 추출이 이미지 가장자리의 고해상도 복원에 도움이 되었다.An apparatus and method for generating a super-resolution image using deep learning-based display tilt information according to an embodiment of the present invention selects an information distillation network (IDN) as a reference line. As a result, the present invention proposes a network that extracts gradient information to improve performance. Since most super-resolution convolutional neural networks do not fully utilize the gradient information of images, the extraction of gradient information is helpful for high-resolution reconstruction of image edges.

전체 네트워크에서 기울기 맵은 먼저 저해상도(LR: low-resolution) 이미지에서 추출된다. 그런 다음 기울기 정보 추출 분기(GIDB: gradient information distillation branch)에서 특징 추출 및 누적 정보 추출이 수행된다. 이어서 기울기 정보 추출 분기(GIDB)의 기울기 잔차와 이미지 정보 추출 분기(IIDB: Image Information Distillation Branch)의 이미지 잔차가 이미지 재구성을 위해 함께 가산된다. 마지막으로, 고해상도(HR: high-resolution) 이미지는 업샘플링을 추가하여 생성된다.In the full network, the gradient map is first extracted from a low-resolution (LR) image. Then, feature extraction and cumulative information extraction are performed in the gradient information distillation branch (GIDB). Then, the gradient residuals of the gradient information extraction branch (GIDB) and the image residuals of the Image Information Distillation Branch (IIDB) are added together for image reconstruction. Finally, a high-resolution (HR) image is created by adding upsampling.

도 1은 본 발명의 일 실시예에 의한 딥러닝 기반 디스플레이 기울기 정보를 활용한 초해상도 영상 생성 장치를 도시한 도면이다.1 is a diagram illustrating an apparatus for generating a super-resolution image using deep learning-based display tilt information according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 의한 딥러닝 기반 디스플레이 기울기 정보를 활용한 초해상도 영상 생성 장치는, 저해상도(LR) 이미지로부터 이미지 정보를 추출하기 위한 이미지 정보 추출 분기(100), 상기 저해상도 이미지로부터 기울기 정보를 추출하기 위한 기울기 정보 추출 분기(102), 상기 이미지 정보 추출 분기(100)의 출력과 상기 기울기 정보 추출 분기(102)의 출력을 가산하기 위한 제1 가산부(104), 상기 제1 가산부(104)의 출력을 디컨벌루션하기 위한 디컨벌루션부(106), 상기 저해상도 이미지를 업샘플링하기 위한 업샘플링부(108), 및 상기 디컨벌루션부(106)의 출력과 상기 업샘플링부(108)의 출력을 가산하여 초해상도 이미지를 형성하기 위한 제2 가산부(110)를 포함한다.Referring to FIG. 1, an apparatus for generating a super-resolution image using deep learning-based display tilt information according to an embodiment of the present invention includes an image information extraction branch 100 for extracting image information from a low-resolution (LR) image, A gradient information extraction branch 102 for extracting gradient information from the low-resolution image, a first adder 104 for adding an output of the image information extraction branch 100 and an output of the gradient information extraction branch 102 , the deconvolution unit 106 for deconvoluting the output of the first adder 104, the upsampling unit 108 for upsampling the low-resolution image, and the output of the deconvolution unit 106 and the and a second adder 110 for adding the outputs of the upsampling unit 108 to form a super-resolution image.

상기 기울기 정보 추출 분기(102)는 상기 이미지 정보 추출 분기(100)의 중간 이미지 정보 및 상기 저해상도 이미지의 기울기 특징에 기반하여 상기 기울기 정보를 추출하는데, 도 1을 참조하면, 이미지 정보 추출 분기(100)의 중간 이미지 정보는 기울기 잔차 훈련에 입력되어 기울기 정보 추출 분기(102)가 더 나은 영상 정보를 얻는 데 도움을 준다.The gradient information extraction branch 102 extracts the gradient information based on the intermediate image information of the image information extraction branch 100 and the gradient characteristics of the low-resolution image. Referring to FIG. 1, the image information extraction branch 100 The intermediate image information of ) is input to gradient residual training to help the gradient information extraction branch 102 obtain better image information.

상기 이미지 정보 추출 분기(100)는, 상기 저해상도 이미지로부터 특징 맵을 추출하기 위한 특징 맵 추출 모듈(112) 및 상기 특징 맵 추출 모듈(112)에서 출력되는 특징 맵을 수신하여 상기 이미지 정보를 출력하기 위한, 직렬로 연결된 제1 내지 제n 이미지 정보 추출 모듈(114_1 내지 114_n)을 포함하고, 상기 n은 2 이상인 정수이며, 상기 이미지 정보 추출 분기(100)의 중간 이미지 정보는 상기 제1 내지 제n 이미저 정보 추출 모듈(114_1 내지 114_n)의 출력이다. 상기 직렬로 연결된 제1 내지 제n 이미지 정보 추출 모듈(114_1 내지 114_n)은 정보 추출 블록으로 지칭된다.The image information extraction branch 100 receives the feature map output from the feature map extraction module 112 and the feature map extraction module 112 for extracting a feature map from the low-resolution image and outputs the image information. and first to n-th image information extraction modules 114_1 to 114_n connected in series, wherein n is an integer greater than or equal to 2, and the intermediate image information of the image information extraction branch 100 is the first to n-th image information extraction modules. This is the output of the imager information extraction modules 114_1 to 114_n. The first to n th image information extraction modules 114_1 to 114_n connected in series are referred to as information extraction blocks.

상기 기울기 정보 추출 분기(102)는, 상기 저해상도 이미지로부터 기울기 맵을 추출하기 위한 기울기 맵 추출 모듈(116), 상기 기울기 맵 추출 모듈(116)에서 출력되는 기울기 맵으로부터 기울기 특징을 추출하기 위한 기울기 특징 추출 모듈(118), 상기 기울기 특징 추출 모듈(118)에서 출력되는 기울기 특징과 상기 제1 이미지 정보 추출 모듈(114_1)의 출력을 가산하기 위한 제1 가산 모듈(122_1), 상기 제1 가산 모듈(122_1)의 출력을 수신하여 기울기 정보를 출력하기 위한 제1 기울기 정보 추출 모듈(120_1), 상기 제1 기울기 정보 추출 모듈(120_1)에 직렬로 연결된 제2 내지 제n 기울기 정보 추출 모듈(120_2 내지 120_n), 및 상기 제(M-1) 기울기 정보 추출 모듈(120_1 내지 120_(n-1))의 출력과 상기 제M 이미지 정보 추출 모듈(114_2 내지 114_n)의 출력을 가산하기 위한 제M 가산 모듈(122_2 내지 122_n)을 포함한다. 상기 제n 가산 모듈(122_n)의 출력은 상기 제n 기울기 정보 추출 모듈(120_n)에 입력되며, M은 2 내지 n인 정수이고, n은 2 이상인 정수이다.The gradient information extraction branch 102 includes a gradient map extraction module 116 for extracting a gradient map from the low-resolution image and a gradient feature for extracting a gradient feature from the gradient map output from the gradient map extraction module 116. An extraction module 118, a first addition module 122_1 for adding the gradient feature output from the gradient feature extraction module 118 and the output of the first image information extraction module 114_1, the first addition module ( A first tilt information extraction module 120_1 for receiving the output of 122_1 and outputting tilt information, and second to nth tilt information extraction modules 120_2 to 120_n serially connected to the first tilt information extraction module 120_1 ), and the Mth addition module for adding the outputs of the (M−1)th gradient information extraction modules 120_1 to 120_(n−1) and the outputs of the Mth image information extraction modules 114_2 to 114_n ( 122_2 to 122_n). The output of the n-th addition module 122_n is input to the n-th gradient information extraction module 120_n, where M is an integer from 2 to n, and n is an integer greater than or equal to 2.

한편, 도 3은 본 발명의 일 실시예에 의한 딥러닝 기반 디스플레이 기울기 정보를 활용한 초해상도 영상 생성 방법의 흐름도이다.Meanwhile, FIG. 3 is a flowchart of a super-resolution image generation method using deep learning-based display tilt information according to an embodiment of the present invention.

도 1 및 도 3을 참조하면, 본 발명의 일 실시예에 의한 딥러닝 기반 디스플레이 기울기 정보를 활용한 초해상도 영상 생성 방법은, 단계 S300에서, 이미지 정보 추출 분기(100)가 저해상도(LR) 이미지로부터 이미지 정보를 추출한다.1 and 3, in the super-resolution image generation method using deep learning-based display tilt information according to an embodiment of the present invention, in step S300, the image information extraction branch 100 performs a low-resolution (LR) image Extract image information from

단계 S302에서, 기울기 정보 추출 분기(102)가 상기 저해상도(LR) 이미지로부터 기울기 정보를 추출한다.In step S302, the tilt information extraction branch 102 extracts tilt information from the low-resolution (LR) image.

단계 S304에서, 제1 가산부(104)가 상기 이미지 정보 추출 분기(100)의 출력과 상기 기울기 정보 추출 분기(102)의 출력을 가산한다.In step S304, the first adder 104 adds the output of the image information extraction branch 100 and the output of the gradient information extraction branch 102.

단계 S306에서, 디컨벌루션부(106)가 상기 제1 가산부(104)의 출력을 디컨벌루션한다.In step S306, the deconvolution unit 106 deconvolves the output of the first addition unit 104.

단계 S308에서, 업샘플링부(108)가 상기 저해상도 이미지를 업샘플링한다.In step S308, the upsampling unit 108 upsamples the low resolution image.

단계 S310에서, 제2 가산부(110)가, 상기 디컨벌루션부(106)의 출력과 상기 업샘플링부(108)의 출력을 가산하여 초해상도(SR) 이미지를 형성한다.In step S310, the second adder 110 adds the output of the deconvolution unit 106 and the output of the upsampling unit 108 to form a super-resolution (SR) image.

하기에, 본 발명의 일 실시예에 의한 딥러닝 기반 디스플레이 기울기 정보를 활용한 초해상도 영상 생성 장치 및 방법에 대해 상세히 설명하기로 한다.Hereinafter, an apparatus and method for generating a super-resolution image using deep learning-based display tilt information according to an embodiment of the present invention will be described in detail.

기울기 맵 구하기Obtaining the Gradient Map

본 발명의 일 실시예에 의한 딥러닝 기반 디스플레이 기울기 정보를 활용한 초해상도 영상 생성 장치는 도 1과 같이 이미지 정보 추출 분기(100)와 기울기 정보 추출 분기(102)로 구성된다. LR 이미지에 대해 동시에 두 가지 작업을 사전 수행한다. 한편, 고해상도(HR) 이미지를 재구성하기 위해 업샘플링부(108)는 바이큐빅으로 저해상도(LR) 이미지를 업샘플링한다. 반면에 기울기 맵은 기울기 맵 추출 모듈(116)에 의해 저해상도(LR) 이미지에서 추출된다.An apparatus for generating a super-resolution image using deep learning-based display tilt information according to an embodiment of the present invention is composed of an image information extraction branch 100 and a tilt information extraction branch 102 as shown in FIG. 1 . It pre-performs two operations on the LR image at the same time. Meanwhile, in order to reconstruct a high resolution (HR) image, the upsampling unit 108 upsamples the low resolution (LR) image by bicubic. On the other hand, the gradient map is extracted from the low resolution (LR) image by the gradient map extraction module 116 .

기울기 맵은 수학식 1과 같이, 인접한 픽셀들 간의 차이를 계산하여 획득된다.As shown in Equation 1, the gradient map is obtained by calculating the difference between adjacent pixels.

Figure 112021081696120-pat00001
Figure 112021081696120-pat00001

여기서 G(*)는 기울기 맵 추출 연산을 나타내며, 기울기 맵의 요소는 좌표 A = (a, b) 픽셀의 기울기 길이이다. 기울기를 구하는 연산은 고정 커널을 사용하는 컨벌루션 계층을 통해 쉽게 구현할 수 있다. 동시에 기울기 강도가 복원된 이미지에서 로컬 영역의 선명도를 반영하기에 충분하기 때문에 기울기 방향 정보는 무시된다. 따라서 강도 맵을 기울기 맵으로 사용한다.Here, G(*) denotes the gradient map extraction operation, and the element of the gradient map is the gradient length of coordinates A = (a, b) pixels. The operation to obtain the gradient can be easily implemented through a convolutional layer using a fixed kernel. At the same time, the gradient direction information is ignored because the gradient strength is sufficient to reflect the sharpness of the local area in the reconstructed image. Therefore, the intensity map is used as the gradient map.

특히 x를 기울기 정보 추출 분기(102)의 입력, 그리고 y를 전체 시스템의 출력인 초해상도(SR) 이미지로 정의한다. 먼저 기울기 맵은 수학식 2와 같이 추출된다.In particular, we define x as the input of the gradient information extraction branch 102 and y as the super-resolution (SR) image that is the output of the entire system. First, the gradient map is extracted as in Equation 2.

Figure 112021081696120-pat00002
Figure 112021081696120-pat00002

여기서 xg는 G(*) 연산에 의한 입력되는 저해상도(LR) 이미지의 기울기 맵을 나타낸다.Here, x g represents the gradient map of the low-resolution (LR) image input by the G(*) operation.

이미지 정보 추출 분기Branch image information extraction

본 발명의 일 실시예에 의한 딥러닝 기반 디스플레이 기울기 정보를 활용한 초해상도 영상 생성 장치 및 방법에서는 저해상도(LR) 이미지 처리의 빠르고 정확한 분기를 사용하여 저해상도(LR) 이미지의 잔차 특징을 추출한다. 특히 정보 추출 네트워크가 사용된다. 분기는 두 부분이다.In the apparatus and method for generating a super-resolution image using deep learning-based display tilt information according to an embodiment of the present invention, residual features of a low-resolution (LR) image are extracted using fast and accurate branching of low-resolution (LR) image processing. In particular, an information extraction network is used. A branch is two parts.

첫 번째는 특징 추출 블록(FBlock)(112)으로, 2개의 3×3 컨볼루션 레이어를 사용하여 원본 저해상도(LR) 이미지의 특징 맵을 추출한다. 이 프로세스는 다음과 같이 표현할 수 있다.The first is the feature extraction block (FBlock) 112, which extracts the feature map of the original low resolution (LR) image using two 3x3 convolutional layers. This process can be expressed as:

Figure 112021081696120-pat00003
Figure 112021081696120-pat00003

여기서 F(x)는 특징 추출 함수를 나타내고, xi0은 이미지 정보 추출 분기(100)에서 추출한 특징을 나타내며, 이를 다음 단계의 입력으로 적용한다.Here, F(x) denotes a feature extraction function, x i0 denotes a feature extracted in the image information extraction branch 100, and is applied as an input to the next step.

다음 부분은 기울기 정보 추출 분기(102)와 이미지 정보 추출 분기(100)가 동시에 적용되는 다수의 정보 추출 블록(DBlock)(114_1 내지 114_n, 120_1 내지 120_n)으로 구성된 체인 구조이다.The next part is a chain structure composed of a plurality of information extraction blocks (DBlocks) 114_1 to 114_n and 120_1 to 120_n to which the gradient information extraction branch 102 and the image information extraction branch 100 are simultaneously applied.

도 2에 도시된 바와 같이, 정보 추출 모듈(DBlock)(114_1 내지 114_n, 120_1 내지 120_n)은 두 개의 얕은 컨볼루션을 포함하는 향상 모듈(200) 및 상기 향상 모듈(200)의 출력에 연결된 압축 모듈(202)을 포함한다.As shown in FIG. 2, information extraction modules (DBlocks) 114_1 to 114_n and 120_1 to 120_n include an enhancement module 200 that includes two shallow convolutions and a compression module connected to the output of the enhancement module 200. (202).

향상 모듈(200)은 두 개의 얕은 컨볼루션 네트워크를 포함하며, 그 주요 목적은 네트워크의 표현 능력을 향상시키는 것이다. 압축된 단위의 경우 향상된 단위 기능의 중복 정보는 단순 회선 계층으로 압축된다.The enhancement module 200 includes two shallow convolutional networks, the main purpose of which is to improve the expressiveness of the network. In the case of compressed units, the redundant information of the enhanced unit function is compressed into a simple convolutional layer.

상기 향상 모듈(200)은, 입력 신호를 수신하는 제1 3×3 컨벌루션 모듈(204), 상기 제1 3×3 컨벌루션 모듈(204)의 출력을 2개의 신호로 슬라이싱하기 위한 슬라이싱 모듈(206), 상기 슬라이싱 모듈의 제1 출력을 수신하는 제2 3×3 컨벌루션 모듈(210), 상기 슬라이싱 모듈(206)의 제2 출력과 상기 입력 신호를 연결하는 연결 모듈(208), 및 상기 제2 3×3 컨벌루션 모듈(210)의 출력과 상기 연결 모듈(208)의 출력을 가산하기 위한 가산 모듈(212)을 포함하고, 상기 압축 모듈(202)은 1×1 컨벌루션 모듈을 포함한다.The enhancement module 200 includes a first 3 × 3 convolution module 204 receiving an input signal and a slicing module 206 for slicing the output of the first 3 × 3 convolution module 204 into two signals , a second 3 × 3 convolution module 210 receiving the first output of the slicing module, a connection module 208 connecting the second output of the slicing module 206 and the input signal, and the second 3 and an addition module 212 for adding the output of the ×3 convolution module 210 and the output of the concatenation module 208, and the compression module 202 includes a 1 × 1 convolution module.

이미지 정보 추출 분기(100)에서 이 프로세스는 다음과 같이 설명할 수 있다.In the image information extraction branch 100, this process can be described as follows.

Figure 112021081696120-pat00004
Figure 112021081696120-pat00004

여기서 Dn(*)은 이미지 정보 추출 분기(100)의 n번째 정보 추출 모듈(DBlock)의 함수를 나타낸다.

Figure 112021081696120-pat00005
Figure 112021081696120-pat00006
은 각각 이미지 정보 추출 분기(100)에서 n번째 정보 추출 모듈(DBlock)의 출력과 입력을 나타낸다.Here, D n (*) represents a function of the n-th information extraction module (DBlock) of the image information extraction branch 100.
Figure 112021081696120-pat00005
class
Figure 112021081696120-pat00006
represents the output and input of the nth information extraction module (DBlock) in the image information extraction branch 100, respectively.

기울기 정보 추출 분기Gradient Information Extraction Branch

실제로 생성된 기울기 맵은 다른 종류의 이미지로 간주될 수 있으므로 이미지 대 이미지 변환 기술을 사용하여 두 모드 간의 매핑을 학습할 수 있다. 이 변환의 본질은 LR 윤곽 기하학 구조에서 HR 윤곽 기하학 구조로의 공간 분포 변환이다.In fact, the generated gradient map can be considered as a different kind of image, so we can learn the mapping between the two modes using image-to-image conversion techniques. The essence of this transformation is a spatial distribution transformation from LR contour geometries to HR contour geometries.

기울기 맵에서 대부분의 영역 값은 거의 0이므로 컨볼루션 신경망은 이미지 윤곽선의 기하학적 정보에 더 많은 주의를 기울일 수 있다. 이미지의 구조적 상관 관계를 캡처하고 SR 이미지에 대한 구조 정보를 제공하는 것이 더 쉽다. 따라서 기울기 특징 추출 모듈(118)을 사용하여 기울기 맵에서 기울기 특징을 추출한다.Since most of the area values in the gradient map are near zero, the convolutional neural network can pay more attention to the geometric information of the image contours. It is easier to capture the structural correlation of images and provide structural information for SR images. Therefore, gradient features are extracted from the gradient map using the gradient feature extraction module 118 .

이미지 정보 추출 분기(100)에서와 마찬가지로 이 프로세스는 다음과 같이 설명할 수 있다.As in the image information extraction branch 100, this process can be described as follows.

Figure 112021081696120-pat00007
Figure 112021081696120-pat00007

여기서 F(*)는 특징 추출 함수를 나타내고

Figure 112021081696120-pat00008
은 기울기 정보 추출 분기(102)에서 추출한 특징을 나타낸다.where F(*) denotes the feature extraction function
Figure 112021081696120-pat00008
represents the feature extracted in the gradient information extraction branch 102.

그런 다음 제1 내지 제n 이미지 정보 추출 모듈(120_1 내지 120_n) 및 잔차 특징 전송 메커니즘을 통해 다음 작업을 수행한다. 실험 결과는 기울기 맵에서 추출된 특징이 최종 SR 재구성에 중요한 역할을 한다는 것을 보여준다.Then, the following operations are performed through the first to n th image information extraction modules 120_1 to 120_n and the residual feature transmission mechanism. The experimental results show that the features extracted from the gradient map play an important role in the final SR reconstruction.

잔차 특징 전송 메커니즘Residual feature transfer mechanism

이미지 정보 추출 분기(100)는 이미지의 풍부한 구조 정보를 전달할 수 있으므로 기울기 정보 추출 분기(GIDB: Gradient Information Distillation Branch)(102)의 훈련 중에도 이미지 정보 추출 분기(IIDB: Image Information Distillation Branch)(100)의 잔차 특징이 중요하다.Since the image information extraction branch 100 can deliver rich structural information of the image, the Image Information Distillation Branch (IIDB) 100 The residual feature of is important.

이것은 기울기 정보 추출 분기(102)가 기울기 특징을 얻기 위해 중요하다. 따라서 본 발명은 도 1과 같이 이미지 정보 추출 분기(100)에서 몇 가지 중간 표현을 추가하기 위해 기울기 정보 추출 분기(102)의 각 기울기 정보 추출 모듈(120_1 내지 120_n) 이전에 잔차 특징 전송(RFT: Residual Feature Transfer)의 작동 메커니즘을 설계했다.This is important for the gradient information extraction branch 102 to obtain gradient features. Therefore, as shown in FIG. 1, the present invention transmits residual features (RFT: Residual Feature Transfer).

본 발명은 이미지 정보 추출 분기(100)의 이미지 잔차 특징에 의해 기울기 정보 추출 분기(102)의 기울기 정보의 훈련을 안내함으로써 쉽게 SR 기울기 특징을 얻을 수 있다. 이 경우 이미지 특징을 사용하면 매개 변수를 늘리지 않고도 기울기 정보 추출 분기(102)의 효율성을 개선할 수 있다.In the present invention, by guiding the training of the gradient information of the gradient information extraction branch 102 by the image residual feature of the image information extraction branch 100, the SR gradient feature can be easily obtained. In this case, the efficiency of the gradient information extraction branch 102 can be improved by using image features without increasing the parameters.

잔차 특징 전송 메커니즘과 기울기 정보 추출 모듈(120_1 내지 120_n)이 동시에 있기 때문에, 기울기 정보 추출 분기(102)의 해당 절차는 다음과 같이 공식화된다.Since the residual feature transmission mechanism and the gradient information extraction modules 120_1 to 120_n are at the same time, the corresponding procedure of the gradient information extraction branch 102 is formulated as follows.

Figure 112021081696120-pat00009
Figure 112021081696120-pat00009

이미지 정보 추출 분기(100)와 마찬가지로 Dn(*)은 기울기 정보 추출 분기(102)의 n번째 정보 추출 모듈(DBlock)의 함수를 나타낸다.

Figure 112021081696120-pat00010
은 기울기 정보 추출 분기(102)에서 n번째 정보 추출 모듈(DBlock)의 출력을 나타낸다.Like the image information extraction branch 100, D n (*) represents a function of the n-th information extraction module (DBlock) of the tilt information extraction branch 102.
Figure 112021081696120-pat00010
represents the output of the n-th information extraction module (DBlock) in the tilt information extraction branch 102.

마지막으로 제1 가산부(104)는 이미지 정보 추출 분기(100)와 기울기 정보 추출 분기(102)의 결과를 가산한다. 활성화 함수로 컨벌루션을 전치한 재구성 블록인 디컨벌루션부(106)에 합산값을 입력한다.Finally, the first adder 104 adds the results of the image information extraction branch 100 and the gradient information extraction branch 102 . The sum value is input to the deconvolution unit 106, which is a reconstruction block in which the convolution is transposed by the activation function.

본 발명의 일 실시예에 의한 딥러닝 기반 디스플레이 기울기 정보를 활용한 초해상도 영상 생성 장치의 출력(y)은 수학식 7과 같이 형성된다.An output (y) of the super-resolution image generating device using deep learning-based display tilt information according to an embodiment of the present invention is formed as in Equation 7.

Figure 112021081696120-pat00011
Figure 112021081696120-pat00011

여기서 R(*)은 디컨벌루션부(106)에 의한 재구성 함수(RBlock)를 나타내고, B(*)는 업샘플링부(108)에 의한 입력 저해상도(LR) 이미지의 바이큐빅 업샘플링 연산을 나타낸다.Here, R(*) represents a reconstruction function (RBlock) by the deconvolution unit 106, and B(*) represents a bicubic upsampling operation of the input low resolution (LR) image by the upsampling unit 108.

손실 함수loss function

손실 함수 도입의 주된 목적은 실제 이미지와 재구성된 HR 이미지의 차이를 예측하고 최소화하는 것이다. 본 발명에서 손실 함수로 평균 제곱 오차를 사용한다. 손실 함수는 다음과 같이 표현할 수 있다.The main purpose of introducing the loss function is to predict and minimize the difference between the real image and the reconstructed HR image. In the present invention, the mean square error is used as the loss function. The loss function can be expressed as:

Figure 112021081696120-pat00012
Figure 112021081696120-pat00012

여기서

Figure 112021081696120-pat00013
는 실제 이미지를 나타내고 S(*)는 매핑 함수를 나타내는데, 이 매핑 함수는 저해상도(LR) 이미지 훈련에서 해당 초해상도(SR) 이미지를 재구성한다. N은 훈련 패치의 수를 나타낸다.here
Figure 112021081696120-pat00013
denotes the real image and S(*) denotes the mapping function, which reconstructs the corresponding super-resolution (SR) image from low-resolution (LR) image training. N represents the number of training patches.

한편, 본 발명의 일 실시예에 의한 딥러닝 기반 디스플레이 기울기 정보를 활용한 초해상도 영상 생성 방법은 도 4에 도시된 장치를 이용하여 실행될 수 있다.Meanwhile, a super-resolution image generation method using deep learning-based display tilt information according to an embodiment of the present invention may be executed using the device shown in FIG. 4 .

도 4를 참조하면, 본 발명의 일 실시예에 의한 딥러닝 기반 디스플레이 기울기 정보를 활용한 초해상도 영상 생성 방법이 실행되는 장치는, 프로세서(400) 및 메모리(402)를 포함한다.Referring to FIG. 4 , an apparatus in which a super-resolution image generation method using deep learning-based display tilt information according to an embodiment of the present invention is executed includes a processor 400 and a memory 402 .

상기 메모리(402)는 본 발명의 일 실시예에 의한 딥러닝 기반 디스플레이 기울기 정보를 활용한 초해상도 영상 생성 방법이 프로그램 코드 형태로 되어 있는 데이터 및 다양한 데이터를 저장하고 있다.The memory 402 stores data and various data in the form of program codes for a super-resolution image generation method using display tilt information based on deep learning according to an embodiment of the present invention.

상기 프로세서(400)는 상기 메모리(402)에 저장된 본 발명의 일 실시예에 의한 딥러닝 기반 디스플레이 기울기 정보를 활용한 초해상도 영상 생성 방법이 프로그램 코드 형태로 저장된 데이터에 따라 실시간 초해상도 형성 방법을 실행한다.The processor 400 performs a super-resolution image generation method using deep learning-based display tilt information according to an embodiment of the present invention stored in the memory 402 according to data stored in the form of program codes. run

또한, 상기 프로세서(400)는 본 발명의 일 실시예에 의한 딥러닝 기반 디스플레이 기울기 정보를 활용한 초해상도 영상 생성 방법에 의해 형성된 초해상도 이미지와 그라운드 트루스(ground truth) 이미지 및 손실 함수에 기반하여, 도 1에 도시된 컨벌루션 신경망을 학습시켜, 컨벌루션에 사용되는 필터들의 매개 변수들을 최적으로 결정함으로써, 저해상도(LR) 이미지로부터 최적의 초해상도(SR) 이미지를 재구성한다.In addition, the processor 400 is based on a super-resolution image formed by a super-resolution image generation method using deep learning-based display tilt information according to an embodiment of the present invention, a ground truth image, and a loss function , The convolutional neural network shown in FIG. 1 is trained to optimally determine the parameters of filters used for convolution, thereby reconstructing an optimal super-resolution (SR) image from a low-resolution (LR) image.

실험Experiment

본 발명은 실험에 대한 많은 세부 사항을 보고한다. 그런 다음 이전의 우수한 방법과 비교한다. 그 후, 본 발명은 각각 RFT와 GIDB(gradient information distillation branch)의 두 가지 측면에서 본 발명의 절제(ablation) 실험을 소개한다. 마지막으로 실험 성능과 기여도를 마친다.The present invention reports many details of the experiments. It is then compared with previous superior methods. Then, the present invention introduces the ablation experiment of the present invention in two aspects of RFT and gradient information distillation branch (GIDB), respectively. Finally, we conclude the experimental performance and contribution.

훈련 데이터 세트training data set

본 실험의 훈련 데이터 세트는 800개의 고품질 훈련 이미지를 포함하고 현재 연구에서 널리 사용되는 DIV2K를 선택하였다. 저해상도 입력을 얻기 위해 바이큐빅으로 고해상도 이미지를 다운샘플링했다. 동시에 훈련 데이터를 최대한 활용하기 위해 0.9/0.8/0.7/0.6의 계수에 따라 이미지를 줄이고 수평 뒤집기 방법을 사용하여 네이티브 이미지에서 10개의 시리즈 이미지를 훈련으로 생성한다. 90도 회전의 데이터 향상 방법은 훈련 전에 수행된다.The training data set of this experiment contains 800 high-quality training images and DIV2K, which is widely used in the current study, was selected. We downsampled the high-resolution image with bicubic to get the low-resolution input. At the same time, to make full use of the training data, we reduce the images by a factor of 0.9/0.8/0.7/0.6 and generate 10 series images from the native images as training using the horizontal flipping method. The data enhancement method of 90 degree rotation is performed prior to training.

데이터 세트 테스트Data set test

모델의 SR 성능을 평가하기 위해 5개의 표준 벤치마크인 Set5, Se14, BSD100, Urban100 및 Manga109를 기반으로 평균 피크 신호 대 잡음비(PSNR: peak signal-to-noise)와 구조 유사성 지수(SSIM: structure similarity index)를 선택했다. 이전 연구와 공정하게 비교하기 위해 변환된 YCbCr 공간의 휘도(Y) 채널에서만 성능 결과를 평가한다.To evaluate the SR performance of the model, the average peak signal-to-noise (PSNR) and structure similarity index (SSIM) were calculated based on five standard benchmarks: Set5, Se14, BSD100, Urban100 and Manga109. ) was selected. For a fair comparison with previous studies, we evaluate the performance results only in the luminance (Y) channel in the transformed YCbCr space.

훈련 옵션training options

각 훈련 반복에서 16개의 RGB 저해상도 이미지(LR) 패치를 네트워크 입력으로서 추출한다. 2x 업스케일링 팩터의 경우 LR 크기는 96×96이다. 이미지 초해상도 배율이 3x인 경우 LR 크기는 64×64이다. 동시에 4x의 경우 48×48에 해당한다. 따라서 Ground-Truth 고해상도 이미지(HR) 패치의 크기는 192×192이다.At each training iteration, we extract 16 RGB low-resolution image (LR) patches as network inputs. For a 2x upscaling factor, the LR size is 96×96. When the image super-resolution magnification is 3x, the LR size is 64x64. At the same time, in the case of 4x, it corresponds to 48 × 48. Therefore, the size of the Ground-Truth High Resolution Image (HR) patch is 192×192.

beta1 = 0.9, beta2 = 0.999 설정의 ADAM 옵티마이저(optimizer)가 매개 변수 업데이트에 적용된다. 초기 학습률을 0.0001로 설정했다. 복구 성능과 실행 시간 간의 균형을 고려하여 총 61개의 레이어에 8개의 DBlock이 있는 완전 구조화된 네트워크를 제안한다. 매개 변수를 줄이기 위해 총 33개의 레이어가 있는 4개의 DBlock으로 구성된 경량 네트워크도 설계했다.The ADAM optimizer with the settings beta1 = 0.9, beta2 = 0.999 is applied to the parameter update. We set the initial learning rate to 0.0001. Considering the balance between recovery performance and execution time, we propose a fully structured network with 8 DBlocks in a total of 61 layers. To reduce the parameters, we also designed a lightweight network consisting of 4 DBlocks with a total of 33 layers.

본 발명은 PyTorch에 의해 모델을 구현하고 단일 NVIDIA 1660 GPU에서 훈련했다. 본 발명의 훈련 과정에는 특별한 가중치 초기화나 정규화 기술 및 기타 트릭이 필요하지 않다는 점을 언급할 가치가 있다.We implemented the model by PyTorch and trained it on a single NVIDIA 1660 GPU. It is worth mentioning that the training process of the present invention does not require any special weight initialization or regularization techniques or other tricks.

모델 세부 정보model details

본 발명에서는 완전한 버전과 경량 버전의 두 가지 모델을 제안한다. 그들의 차이점은 다른 수의 DBlock이 사용된다는 것이다. 실험 결과는 두 모델 모두 만족스러운 결과를 얻었음을 보여준다. 도 6과 도 7에서 볼 수 있다.The present invention proposes two models, a complete version and a lightweight version. Their difference is that a different number of DBlocks are used. Experimental results show that both models obtained satisfactory results. It can be seen in Figures 6 and 7.

IDN을 기반으로 GIDB에서 IDN과 동일한 번호의 DBlock 4개를 사용하는 기울기 정보 추출 네트워크(GIDN: Gradient Information Distillation Network)라는 완전한 모델을 제안한다. 또한 두 분기 간의 잔차 특징 전송 연산을 사용하여 좋은 결과를 얻는다. 한편, IDN의 가볍고 빠른 이점을 더 잘 보장하고 제안된 GIDN의 역할을 더 잘 보여주기 위하여 더 가벼운 버전 GIDN-L을 제안한다. 이 모델은 GIDB의 DBlock 수를 2개로 줄였다. 또한 총 DBlock 수에서 IDN과의 일관성을 보장하기 위해 IIDB에서 2개의 DBlock만 사용된다. 결과는 이 경량 버전도 성능이 크게 향상되었음을 보여준다.Based on the IDN, we propose a complete model called the Gradient Information Distillation Network (GIDN), which uses four DBlocks with the same number as the IDN in GIDB. We also use the residual feature transfer operation between the two branches to get good results. On the other hand, we propose a lighter version GIDN-L to better ensure the lightweight and fast advantages of IDN and better demonstrate the role of the proposed GIDN. This model reduces the number of DBlocks in GIDB to two. Also, only two DBlocks are used in IIDB to ensure consistency with the IDN in the total number of DBlocks. The results show that this lightweight version also has a significant performance improvement.

비교 및 분석Compare and analyze

도 5에 도시된 바와 같이 PSNR 및 SSIM 지표에 의해 본 발명을 주요 최신 방법들과 비교하였다. 도 5에 도시된 바와 같이 본 발명에 의한 방법이 기존의 방법들에 비해 레일의 구조적인 상세를 더 잘 재구성한 것을 알 수 있다.As shown in Fig. 5, the present invention was compared with major state-of-the-art methods by PSNR and SSIM indicators. As shown in Fig. 5, it can be seen that the method according to the present invention better reconstructs the structural details of the rail than the existing methods.

정량적 비교quantitative comparison

PSNR 및 SSIM 지표를 통해 다른 뛰어난 SR 방법과 정량적으로 비교한다. 여기에는 바이큐빅, SRCNN, FSRCNN 등이 포함된다. 표 1의 5가지 벤치마크(Set5, Set14 등)와 3가지 크기의 업스케일링 요소(2, 3 및 4)에서 본 발명에 의한 방법의 효과를 반영한다.We quantitatively compare it with other excellent SR methods through PSNR and SSIM metrics. These include bicubic, SRCNN, and FSRCNN. Table 1 reflects the effect of the method according to the present invention in five benchmarks (Set5, Set14, etc.) and three sizes of upscaling factors (2, 3, and 4).

네트워크 모델의 성능(PSNR 및 SSIM)이 표 1에 표시될 뿐만 아니라 매개 변수 수량과 마찬가지로 모델 복잡성도 반영된다. 마지막으로 본 발명이 제안한 두 가지 모델이 대부분의 경우에 최상의 결과를 얻었음을 알 수 있다.Not only the performance of the network model (PSNR and SSIM) is shown in Table 1, but also reflects the model complexity as well as parameter quantities. Finally, it can be seen that the two models proposed by the present invention obtained the best results in most cases.

Figure 112021081696120-pat00014
Figure 112021081696120-pat00014

또한 표 1의 GIDN-L에서 IDN에 비해 매우 적은 수의 매개 변수만 증가시켰지만 성능이 크게 향상되었다. 따라서 본 발명이 제안한 GIDN 방법은 경량 매개 변수 확보시 우수한 SR 성능을 달성하고 대규모의 경우에는 IDN과 같은 다른 방법을 현저히 앞서는 것으로 나타났다.In addition, in GIDN-L in Table 1, compared to IDN, only a very small number of parameters were increased, but the performance was greatly improved. Therefore, the GIDN method proposed by the present invention achieves excellent SR performance when securing lightweight parameters and significantly outperforms other methods such as IDN in large-scale cases.

주관적 비교subjective comparison

도 8에서 본 발명에 의한 방법이 최고의 성능을 얻을 수 있음을 알 수 있다. BSD100의 8023의 경우, 본 발명에 의한 방법은 아티팩트없이 줄무늬와 같은 표시를 명확하게 복원했다. BSD100의 86000의 경우 본 발명 둘 다 건물의 세 가지 창 모양을 왜곡없이 선명하게 표현할 수 있다. 한편, Urban100의 img059에서 본 발명에 의한 방법은 건물에서 선을 명확하게 볼 수 있다. img083에서 더 분명한 것은 다른 방법에서는 천장의 질감을 변형 및 파괴하는 반면, 본 발명에 의한 방법은 구조 모양을 잘 유지한다. 전반적으로 정도가 상이한 잘못된 정보를 가지고 다른 방법과 비교할 때, 본 발명에 의한 방법은 더 명확한 윤곽을 얻을 수 있고 심각한 아티팩트가 없다.8, it can be seen that the method according to the present invention can obtain the best performance. In the case of 8023 of BSD100, the method according to the present invention clearly restored marks such as stripes without artifacts. In the case of 86000 of BSD100, both of the present invention can clearly express the three window shapes of a building without distortion. On the other hand, in the img059 of Urban100, the method according to the present invention can clearly see the lines in the building. What is clearer from img083 is that the method according to the present invention retains the shape of the structure well, while other methods deform and destroy the texture of the ceiling. Overall, compared with other methods with different degrees of misinformation, the method according to the present invention can obtain clearer contours and no serious artifacts.

절제(Ablation) 실험Ablation experiments

본 발명에 의한 방법의 효과를 개별적으로 확인하기 위해 일련의 절제 실험을 수행했다. 그런 다음 실험의 구체적인 내용을 소개한다. 실험 결과는 표 2에 나와 있다.A series of ablation experiments were conducted to individually confirm the effectiveness of the method according to the present invention. Then, the details of the experiment are introduced. The experimental results are shown in Table 2.

GIDB의 절제(Ablation) 연구GIDB's Ablation Study

기울기 맵과 기울기 정보 추출 분기(GIDB)의 효과를 증명하기 위해 다음과 같은 절제 실험을 수행했다.To prove the effectiveness of gradient map and gradient information extraction branch (GIDB), the following ablation experiment was performed.

매개 변수가 가능한 한 IDN과 일치하도록 하기 위해 GIDB와 IIDB의 DBlock 수를 2개로 줄여주는 GIDN-L 네트워크의 경량 버전을 제안한다. DBlock의 수는 IDN과 일치하는 4이다. 실험은 본 발명의 성능이 IDN을 능가하고 GIDB가 적절한 효과를 발휘한다는 것을 증명한다.To make the parameters match the IDN as much as possible, we propose a lightweight version of the GIDN-L network that reduces the number of DBlocks in GIDB and IIDB to two. The number of DBlocks is 4 which matches the IDN. Experiments prove that the performance of the present invention outperforms IDN and that GIDB exerts an adequate effect.

한편, GIDN 대비 기울기 맵 추출 작업을 취소한 후 GIDB 입력을 IIDB 입력과 동일한 LR 이미지로 대체하는 또 다른 모델을 설계한다. 이 모델의 이름은 GIDN-C이다.Meanwhile, we design another model that replaces the GIDB input with the same LR image as the IIDB input after canceling the GIDN contrast gradient map extraction task. The name of this model is GIDN-C.

마지막으로 아래 표 2에서 볼 수 있듯이 기울기 맵과 GIDB가 만족스러운 성능 결과를 달성한다는 결론을 내릴 수 있다.Finally, as shown in Table 2 below, we can conclude that gradient map and GIDB achieve satisfactory performance results.

Figure 112021081696120-pat00015
Figure 112021081696120-pat00015

RFT의 절제 연구Ablation studies of RFT

GIDB 및 IIDB만 사용하고 GIDN-A라는 RFT(Residual Feature Transfer)가 없는 네트워크 구조를 설계한다. 그것은 본 발명의 완전한 모델과 비교된다. 실험을 비교한 후 전체 모델의 RFT 메커니즘이 기능을 수행하고 PSNR 및 SSIM 값의 개선에 영향을 미친다는 결론을 내릴 수 있다.Design a network structure using only GIDB and IIDB and no residual feature transfer (RFT) called GIDN-A. It is compared with the complete model of the present invention. After comparing the experiments, it can be concluded that the RFT mechanism of the full model performs its function and affects the improvement of PSNR and SSIM values.

절제 연구의 비교Comparison of resection studies

이 섹션에서는 IDN과 위에서 설명한 모델을 포함한 x4 스케일에 대한 방법의 비교를 보여준다. 결과는 본 발명에 의한 GIDN이 PSNR 및 SSIM 지표 모두에서 만족스러운 결과를 달성했음을 보여준다. GIDN-L은 또한 IDN에 비해 성능이 크게 향상되었다. 동시에 MAC 값을 사용하여 단일 이미지에 대한 복합 곱셈 누적 연산의 컴퓨팅 비용을 나타낸다. 생성된 SR 이미지의 해상도를 720P(1280×720)로 가정하여 MAC을 계산한다.This section presents a comparison of methods on the x4 scale including IDN and the model described above. The results show that the GIDN according to the present invention achieved satisfactory results in both PSNR and SSIM indicators. GIDN-L also offers significant performance improvements over IDN. At the same time, MAC values are used to represent the computational cost of complex multiplication and accumulation operations on a single image. MAC is calculated assuming that the resolution of the generated SR image is 720P (1280 × 720).

표 2에서 볼 수 있듯이 본 발명에 의한 방법이 매개 변수 수량과 계산을 크게 늘리지 않고도 우수한 성능을 달성했음을 증명한다.As can be seen in Table 2, it is demonstrated that the method according to the present invention achieves excellent performance without significantly increasing the number of parameters and computation.

실험 요약Experiment summary

위의 실험은 본 발명이 제안한 방법이 PSNR 및 SSIM에서 강력한 경쟁력 있는 결과를 달성함을 보여준다. 5개의 벤치마크 데이터 세트 중 동시에 많은 대형 모델 네트워크와 비교하여 매개변수 수량과 작동 속도가 다른 기존의 고급 방법보다 훨씬 앞서 있다. 재구성된 SR 이미지를 비교하여 본 발명의 방법에 의한 세부 복구에서 만족스러운 결과를 얻었다. 마지막으로, 절제 실험은 본 발명의 기여가 단일 이미지의 초해상도 효과를 개선하는 데 중요한 역할을 했다는 것을 증명한다.The above experiments show that the method proposed by the present invention achieves strong competitive results in PSNR and SSIM. Compared to many large model networks simultaneously among the five benchmark datasets, it is far ahead of other existing advanced methods in terms of parameter quantity and speed of operation. Comparing the reconstructed SR images, satisfactory results were obtained in detail recovery by the method of the present invention. Finally, ablation experiments prove that the contribution of the present invention has played a significant role in improving the super-resolution effect of a single image.

결론conclusion

본 발명에서는 IDN을 기반으로 경량 버전(GIDN-L)을 포함하여 GIDN(gradient information distillation network)이라는 새로운 네트워크를 제안한다. 네트워크는 빠르고 정확한 기울기 정보 추출 분기를 통해 풍부한 기울기 정보를 추출한다. 그 다음 고해상도 이미지의 재구성을 안내하는 데 사용된다. 기울기 정보 추출 분기는 저해상도 기울기 맵에서 기울기 특징을 추출하고 명확한 구조 지침으로 기하학적 구조 정보를 초해상도에 제공하는 것을 목표로 한다. 이 방법은 5개의 벤치마크 데이터 세트에서 PSNR 및 SSIM 측면에서 강력한 경쟁력 있는 결과를 달성했다. 동시에 많은 대형 모델 네트워크와 비교하여 본 발명에 의한 방법은 매개 변수 수량 및 컴퓨팅 속도 측면에서 많은 고급 방법보다 훨씬 앞서 있다. 이러한 기울기 정보 추출 개념은 실시간 실습에서 더 널리 사용될 것이다.In the present invention, we propose a new network called a gradient information distillation network (GIDN), including a lightweight version (GIDN-L) based on IDN. The network extracts rich gradient information through fast and accurate gradient information extraction branches. It is then used to guide the reconstruction of high-resolution images. The gradient information extraction branch aims to extract gradient features from low-resolution gradient maps and provide geometric structural information at super-resolution with unambiguous structural guidelines. The method achieved strong competitive results in terms of PSNR and SSIM on five benchmark datasets. At the same time, compared with many large model networks, the method according to the present invention is far ahead of many advanced methods in terms of parameter quantity and computing speed. This gradient information extraction concept will be more widely used in real-time practice.

이상 본 발명을 구체적인 실시예를 통하여 상세하게 설명하였으나, 이는 본 발명을 구체적으로 설명하기 위한 것으로, 본 발명은 이에 한정되지 않으며, 본 발명의 기술적 사상 내에서 당 분야의 통상의 지식을 가진 자에 의해 그 변형이나 개량이 가능함은 명백하다고 할 것이다.Although the present invention has been described in detail through specific examples, this is for explaining the present invention in detail, the present invention is not limited thereto, and within the technical spirit of the present invention, those skilled in the art It will be clear that the modification or improvement is possible by

본 발명의 단순한 변형 내지 변경은 모두 본 발명의 영역에 속하는 것으로, 본 발명의 구체적인 보호 범위는 첨부된 청구범위에 의하여 명확해질 것이다.All simple modifications or changes of the present invention fall within the scope of the present invention, and the specific protection scope of the present invention will be clarified by the appended claims.

100 : 이미지 정보 추출 분기 102 : 기울기 정보 추출 분기
104 : 제1 가산부 106 : 디컨벌루션부
108 : 업샘플링부 110 : 제2 가산부
112 : 특징 맵 추출 모듈
114_1 내지 114_n : 제1 내지 제n 이미지 정보 추출 모듈
116 : 기울기 맵 추출 모듈 118 : 기울기 특징 추출 모듈
120_1 내지 120_n : 제1 내지 제n 기울기 정보 추출 모듈
122_1 내지 122_n : 제1 내지 제n 가산 모듈
200 : 향상 모듈 202 : 압축 모듈
204 : 제1 3×3 컨벌루션 모듈 206 : 슬라이싱 모듈
208 : 연결 모듈 210 : 제2 3×3 컨벌루션 모듈
400 : 프로세서 402 : 메모리
100: image information extraction branch 102: tilt information extraction branch
104: first addition unit 106: deconvolution unit
108: upsampling unit 110: second addition unit
112: feature map extraction module
114_1 to 114_n: first to nth image information extraction modules
116: gradient map extraction module 118: gradient feature extraction module
120_1 to 120_n: 1st to nth gradient information extraction modules
122_1 to 122_n: first to nth addition modules
200: enhancement module 202: compression module
204: first 3 × 3 convolution module 206: slicing module
208: connection module 210: second 3 × 3 convolution module
400: processor 402: memory

Claims (10)

저해상도 이미지로부터 이미지 정보를 추출하기 위한 이미지 정보 추출 분기;
상기 저해상도 이미지로부터 기울기 정보를 추출하기 위한 기울기 정보 추출 분기;
상기 이미지 정보 추출 분기의 출력과 상기 기울기 정보 추출 분기의 출력을 가산하기 위한 제1 가산부;
상기 제1 가산부의 출력을 디컨벌루션하기 위한 디컨벌루션부;
상기 저해상도 이미지를 업샘플링하기 위한 업샘플링부; 및
상기 디컨벌루션부의 출력과 상기 업샘플링부의 출력을 가산하여 초해상도 이미지를 형성하기 위한 제2 가산부를 포함하고,
상기 기울기 정보 추출 분기는 상기 이미지 정보 추출 분기의 중간 이미지 정보 및 상기 저해상도 이미지의 기울기 특징에 기반하여 상기 기울기 정보를 추출하며,
상기 이미지 정보 추출 분기는,
상기 저해상도 이미지로부터 특징 맵을 추출하기 위한 특징 맵 추출 모듈; 및
상기 특징 맵 추출 모듈에서 출력되는 특징 맵을 수신하여 상기 이미지 정보를 출력하기 위한, 직렬로 연결된 제1 내지 제n 이미지 정보 추출 모듈을 포함하고,
상기 이미지 정보 추출 분기의 중간 이미지 정보는 상기 제1 내지 제n 이미저 정보 추출 모듈의 출력이며,
상기 기울기 정보 추출 분기는,
상기 저해상도 이미지로부터 기울기 맵을 추출하기 위한 기울기 맵 추출 모듈;
상기 기울기 맵 추출 모듈에서 출력되는 기울기 맵으로부터 기울기 특징을 추출하기 위한 기울기 특징 추출 모듈;
상기 기울기 특징 추출 모듈에서 출력되는 기울기 특징과 상기 제1 이미지 정보 추출 모듈의 출력을 가산하기 위한 제1 가산 모듈;
상기 제1 가산 모듈의 출력을 수신하여 기울기 정보를 출력하기 위한 제1 기울기 정보 추출 모듈;
상기 제1 기울기 정보 추출 모듈에 직렬로 연결된 제2 내지 제n 기울기 정보 추출 모듈; 및
제1 내지 제(n-1) 기울기 정보 추출 모듈 각각의 출력과 제2 내지 제n 이미지 정보 추출 모듈 각각의 출력을 가산하기 위한 제2 내지 제n 가산 모듈을 포함하고,
상기 제n 가산 모듈의 출력은 상기 제n 기울기 정보 추출 모듈에 입력되며,
상기 n은 2 이상의 정수이고,
상기 제1 내지 제n 이미지 정보 추출 모듈 및 상기 제1 내지 제n 기울기 정보 추출 모듈은 각각,
두 개의 얕은 컨볼루션을 포함하는 향상 모듈; 및
상기 향상 모듈의 출력에 연결된 압축 모듈을 포함하며,
상기 향상 모듈은,
입력 신호를 수신하는 제1 3×3 컨벌루션 모듈;
상기 제1 3×3 컨벌루션 모듈의 출력을 2개의 신호로 슬라이싱하기 위한 슬라이싱 모듈;
상기 슬라이싱 모듈의 제1 출력을 수신하는 제2 3×3 컨벌루션 모듈;
상기 슬라이싱 모듈의 제2 출력과 상기 입력 신호를 연결하는 연결 모듈; 및
상기 제2 3×3 컨벌루션 모듈의 출력과 상기 연결 모듈의 출력을 가산하기 위한 가산 모듈을 포함하고,
상기 압축 모듈은 1×1 컨벌루션 모듈을 포함하는, 딥러닝 기반 디스플레이 기울기 정보를 활용한 초해상도 영상 생성 장치.
an image information extraction branch for extracting image information from a low-resolution image;
a gradient information extraction branch for extracting gradient information from the low-resolution image;
a first adder for adding an output of the image information extraction branch and an output of the gradient information extraction branch;
a deconvolution unit configured to deconvolve an output of the first adder;
an upsampling unit for upsampling the low resolution image; and
A second addition unit for forming a super-resolution image by adding the output of the deconvolution unit and the output of the upsampling unit;
The gradient information extraction branch extracts the gradient information based on intermediate image information of the image information extraction branch and gradient characteristics of the low-resolution image;
The image information extraction branch,
a feature map extraction module for extracting a feature map from the low-resolution image; and
First to n-th image information extraction modules connected in series for receiving the feature map output from the feature map extraction module and outputting the image information;
The intermediate image information of the image information extraction branch is an output of the first to n th imager information extraction modules;
The gradient information extraction branch,
a gradient map extraction module for extracting a gradient map from the low-resolution image;
a gradient feature extraction module for extracting a gradient feature from the gradient map output from the gradient map extraction module;
a first addition module configured to add a gradient feature output from the gradient feature extraction module and an output of the first image information extraction module;
a first gradient information extraction module configured to receive an output of the first addition module and output gradient information;
second to n-th gradient information extraction modules serially connected to the first gradient information extraction module; and
And second to nth addition modules for adding outputs of each of the first to (n-1)th gradient information extraction modules and outputs of each of the second to nth image information extraction modules,
The output of the nth addition module is input to the nth gradient information extraction module,
wherein n is an integer greater than or equal to 2;
The first to nth image information extraction modules and the first to nth gradient information extraction modules, respectively,
an enhancement module that includes two shallow convolutions; and
a compression module coupled to the output of the enhancement module;
The enhancement module,
A first 3×3 convolution module receiving an input signal;
a slicing module for slicing the output of the first 3×3 convolution module into two signals;
a second 3×3 convolution module receiving the first output of the slicing module;
a connection module connecting the second output of the slicing module and the input signal; and
An addition module for adding the output of the second 3 × 3 convolution module and the output of the convolution module,
The compression module includes a 1 × 1 convolution module, a super-resolution image generating device using deep learning-based display tilt information.
삭제delete 삭제delete 삭제delete 삭제delete (A) 이미지 정보 추출 분기가 저해상도 이미지로부터 이미지 정보를 추출하는 단계;
(B) 기울기 정보 추출 분기가 상기 저해상도 이미지로부터 기울기 정보를 추출하는 단계;
(C) 제1 가산부가 상기 이미지 정보 추출 분기의 출력과 상기 기울기 정보 추출 분기의 출력을 가산하는 단계;
(D) 디컨벌루션부가 상기 제1 가산부의 출력을 디컨벌루션하는 단계;
(E) 업샘플링부가 상기 저해상도 이미지를 업샘플링하는 단계; 및
(F) 제2 가산부가, 상기 디컨벌루션부의 출력과 상기 업샘플링부의 출력을 가산하여 초해상도 이미지를 형성하는 단계를 포함하고,
상기 기울기 정보 추출 분기는 상기 이미지 정보 추출 분기의 중간 이미지 정보 및 상기 저해상도 이미지의 기울기 특징에 기반하여 상기 기울기 정보를 추출하며,
상기 이미지 정보 추출 분기는,
상기 저해상도 이미지로부터 특징 맵을 추출하기 위한 특징 맵 추출 모듈; 및
상기 특징 맵 추출 모듈에서 출력되는 특징 맵을 수신하여 상기 이미지 정보를 출력하기 위한, 직렬로 연결된 제1 내지 제n 이미지 정보 추출 모듈을 포함하고,
상기 이미지 정보 추출 분기의 중간 이미지 정보는 상기 제1 내지 제n 이미저 정보 추출 모듈의 출력이며,
상기 기울기 정보 추출 분기는,
상기 저해상도 이미지로부터 기울기 맵을 추출하기 위한 기울기 맵 추출 모듈;
상기 기울기 맵 추출 모듈에서 출력되는 기울기 맵으로부터 기울기 특징을 추출하기 위한 기울기 특징 추출 모듈;
상기 기울기 특징 추출 모듈에서 출력되는 기울기 특징과 상기 제1 이미지 정보 추출 모듈의 출력을 가산하기 위한 제1 가산 모듈;
상기 제1 가산 모듈의 출력을 수신하여 기울기 정보를 출력하기 위한 제1 기울기 정보 추출 모듈;
상기 제1 기울기 정보 추출 모듈에 직렬로 연결된 제2 내지 제n 기울기 정보 추출 모듈; 및
제1 내지 제(n-1) 기울기 정보 추출 모듈 각각의 출력과 제2 내지 제n 이미지 정보 추출 모듈 각각의 출력을 가산하기 위한 제2 내지 제n 가산 모듈을 포함하고,
상기 제n 가산 모듈의 출력은 상기 제n 기울기 정보 추출 모듈에 입력되며,
상기 n은 2 이상의 정수이고,
상기 제1 내지 제n 이미지 정보 추출 모듈 및 상기 제1 내지 제n 기울기 정보 추출 모듈은 각각,
두 개의 얕은 컨볼루션을 포함하는 향상 모듈; 및
상기 향상 모듈의 출력에 연결된 압축 모듈을 포함하며,
상기 향상 모듈은,
입력 신호를 수신하는 제1 3×3 컨벌루션 모듈;
상기 제1 3×3 컨벌루션 모듈의 출력을 2개의 신호로 슬라이싱하기 위한 슬라이싱 모듈;
상기 슬라이싱 모듈의 제1 출력을 수신하는 제2 3×3 컨벌루션 모듈;
상기 슬라이싱 모듈의 제2 출력과 상기 입력 신호를 연결하는 연결 모듈; 및
상기 제2 3×3 컨벌루션 모듈의 출력과 상기 연결 모듈의 출력을 가산하기 위한 가산 모듈을 포함하고,
상기 압축 모듈은 1×1 컨벌루션 모듈을 포함하는, 딥러닝 기반 디스플레이 기울기 정보를 활용한 초해상도 영상 생성 방법.
(A) an image information extraction branch extracting image information from a low-resolution image;
(B) a gradient information extraction branch extracting gradient information from the low-resolution image;
(C) adding, by a first adder, an output of the image information extraction branch and an output of the gradient information extraction branch;
(D) deconvoluting the output of the first adder by a deconvolution unit;
(E) upsampling the low resolution image by an upsampling unit; and
(F) forming, by a second adder, a super-resolution image by adding the output of the deconvolution unit and the output of the upsampling unit;
The gradient information extraction branch extracts the gradient information based on intermediate image information of the image information extraction branch and gradient characteristics of the low-resolution image;
The image information extraction branch,
a feature map extraction module for extracting a feature map from the low-resolution image; and
First to n-th image information extraction modules connected in series for receiving the feature map output from the feature map extraction module and outputting the image information;
The intermediate image information of the image information extraction branch is an output of the first to n th imager information extraction modules;
The gradient information extraction branch,
a gradient map extraction module for extracting a gradient map from the low-resolution image;
a gradient feature extraction module for extracting a gradient feature from the gradient map output from the gradient map extraction module;
a first addition module configured to add a gradient feature output from the gradient feature extraction module and an output of the first image information extraction module;
a first gradient information extraction module configured to receive an output of the first addition module and output gradient information;
second to n-th gradient information extraction modules serially connected to the first gradient information extraction module; and
And second to nth addition modules for adding outputs of each of the first to (n-1)th gradient information extraction modules and outputs of each of the second to nth image information extraction modules,
The output of the nth addition module is input to the nth gradient information extraction module,
wherein n is an integer greater than or equal to 2;
The first to nth image information extraction modules and the first to nth gradient information extraction modules, respectively,
an enhancement module that includes two shallow convolutions; and
a compression module coupled to the output of the enhancement module;
The enhancement module,
A first 3×3 convolution module receiving an input signal;
a slicing module for slicing the output of the first 3×3 convolution module into two signals;
a second 3×3 convolution module receiving the first output of the slicing module;
a connection module connecting the second output of the slicing module and the input signal; and
An addition module for adding the output of the second 3 × 3 convolution module and the output of the convolution module,
The compression module includes a 1 × 1 convolution module, a super-resolution image generation method using deep learning-based display tilt information.
삭제delete 삭제delete 삭제delete 삭제delete
KR1020210092765A 2021-07-15 2021-07-15 Apparatus and method for generating super-resolution images using display gradient information based on deep learning KR102541603B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210092765A KR102541603B1 (en) 2021-07-15 2021-07-15 Apparatus and method for generating super-resolution images using display gradient information based on deep learning

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210092765A KR102541603B1 (en) 2021-07-15 2021-07-15 Apparatus and method for generating super-resolution images using display gradient information based on deep learning

Publications (2)

Publication Number Publication Date
KR20230012233A KR20230012233A (en) 2023-01-26
KR102541603B1 true KR102541603B1 (en) 2023-06-12

Family

ID=85110980

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210092765A KR102541603B1 (en) 2021-07-15 2021-07-15 Apparatus and method for generating super-resolution images using display gradient information based on deep learning

Country Status (1)

Country Link
KR (1) KR102541603B1 (en)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102077215B1 (en) 2018-04-06 2020-02-13 경희대학교 산학협력단 Super-resolution method using local binary pattern classification and linear mapping

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Chao Chen et al., "Single Image Super-Resolution Using Deep CNN with Dense Skip Connections and Inception-ResNet", 2018 9th International Conference on ITME, (2018.10.21.)*
Cheng Ma et al., "Structure-Preserving Super Resolution with Gradient Guidance", Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), 2020*

Also Published As

Publication number Publication date
KR20230012233A (en) 2023-01-26

Similar Documents

Publication Publication Date Title
CN110119780B (en) Hyper-spectral image super-resolution reconstruction method based on generation countermeasure network
CN107123089B (en) Remote sensing image super-resolution reconstruction method and system based on depth convolution network
CN108830796B (en) Hyperspectral image super-resolution reconstruction method based on spectral-spatial combination and gradient domain loss
CN111369440B (en) Model training and image super-resolution processing method, device, terminal and storage medium
Guo et al. Dense scene information estimation network for dehazing
JP6352420B2 (en) Method and device for determining a high resolution output image
CN110570356B (en) Image processing method and device, electronic equipment and storage medium
WO2021163844A1 (en) Super resolution using convolutional neural network
KR102221225B1 (en) Method and Apparatus for Improving Image Quality
CN109146813B (en) Multitask image reconstruction method, device, equipment and medium
CN112837224A (en) Super-resolution image reconstruction method based on convolutional neural network
CN109191411B (en) Multitask image reconstruction method, device, equipment and medium
US11887218B2 (en) Image optimization method, apparatus, device and storage medium
CN112991231B (en) Single-image super-image and perception image enhancement joint task learning system
CN112767243B (en) Method and system for realizing super-resolution of hyperspectral image
Aakerberg et al. Semantic segmentation guided real-world super-resolution
KR20200132682A (en) Image optimization method, apparatus, device and storage medium
Zhang et al. Nonpairwise-trained cycle convolutional neural network for single remote sensing image super-resolution
CN113723174B (en) Face image super-resolution restoration and reconstruction method and system based on generation countermeasure network
Zhou et al. Single image super-resolution reconstruction based on multi-scale feature mapping adversarial network
CN115393191A (en) Method, device and equipment for reconstructing super-resolution of lightweight remote sensing image
CN116645569A (en) Infrared image colorization method and system based on generation countermeasure network
Liu et al. Facial image inpainting using multi-level generative network
CN109993701B (en) Depth map super-resolution reconstruction method based on pyramid structure
CN109559278B (en) Super resolution image reconstruction method and system based on multiple features study

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right