KR102192392B1 - Residual Network system for correcting low resolution image - Google Patents

Residual Network system for correcting low resolution image Download PDF

Info

Publication number
KR102192392B1
KR102192392B1 KR1020180034300A KR20180034300A KR102192392B1 KR 102192392 B1 KR102192392 B1 KR 102192392B1 KR 1020180034300 A KR1020180034300 A KR 1020180034300A KR 20180034300 A KR20180034300 A KR 20180034300A KR 102192392 B1 KR102192392 B1 KR 102192392B1
Authority
KR
South Korea
Prior art keywords
residual
blocks
convolution
block
network
Prior art date
Application number
KR1020180034300A
Other languages
Korean (ko)
Other versions
KR20190112384A (en
Inventor
손경아
강병곤
안남혁
Original Assignee
아주대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 아주대학교산학협력단 filed Critical 아주대학교산학협력단
Priority to KR1020180034300A priority Critical patent/KR102192392B1/en
Priority to PCT/KR2018/014209 priority patent/WO2019190017A1/en
Publication of KR20190112384A publication Critical patent/KR20190112384A/en
Application granted granted Critical
Publication of KR102192392B1 publication Critical patent/KR102192392B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/001
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 이미지 보정을 위한 잔차 네트워크(Residual network)에 관한 것이다. 보다 구체적으로, 본 발명에 연쇄 잔차 네트워크(Cascading Residual Network)는 경량 잔차 블록(Efficient Residual Block), 복수의 상기 경량 잔차 블록들로 구성되는 연쇄 잔차 재귀 블록(Cascading Residual Block), 및 복수의 연쇄 잔차 재귀 블록들로 구성되되, 상기 복수의 연쇄 잔차 재귀 블록들 각각은 상기 연쇄 잔차 네트워크의 상위의 복수의 컨볼루션 블록들로 연결되어 있으며, 상기 복수의 경량 잔차 블록들 각각은 이전의 적어도 하나의 컨볼루션 레이어에 의해서 계산된 결과 값을 이용하여 특정 정보를 계산한다.The present invention relates to a residual network for image correction. More specifically, in the present invention, the cascading residual network is an Efficient Residual Block, a cascading residual block composed of a plurality of the lightweight residual blocks, and a plurality of cascading residuals. Consisting of recursive blocks, each of the plurality of concatenated residual recursive blocks is connected to a plurality of convolutional blocks above the concatenated residual network, and each of the plurality of lightweight residual blocks is at least one previous convolutional block. Specific information is calculated using the result value calculated by the solution layer.

Description

저 해상도 이미지 보정을 위한 잔차 네트워크 시스템{Residual Network system for correcting low resolution image}Residual Network system for correcting low resolution image

본 명세서는 저 해상도 이미지를 위한 인공신경망 시스템에 관한 것이다. 보다 구체적으로, 컨볼루션 뉴럴 네트워크(Convolution Neural Network)를 이용하여 저 해상도 이미지를 실시간으로 보정하기 위한 잔차 네트워크 시스템에 관한 발명이다.The present specification relates to an artificial neural network system for low resolution images. More specifically, the present invention relates to a residual network system for correcting a low-resolution image in real time using a convolution neural network.

초해상도화(Super-Resolution: SR)는 저해상도(Low-Resolution: LR) 이미지에서 고해상도(High-Resolution: HR) 이미지를 재구성하는 컴퓨터 비전 작업이다. 특히, 단일 LR 이미지를 사용하여 SR을 수행하는 단일 이미지 초해상도화(Single Image Super-Resolution: SISR)와 관련이 있다. Super-Resolution (SR) is a computer vision task that reconstructs a High-Resolution (HR) image from a Low-Resolution (LR) image. In particular, it is related to Single Image Super-Resolution (SISR), which performs SR using a single LR image.

다 대일 매핑 때문에 SISR은 일반적으로 LR 이미지에서 HR 이미지를 계산하는 것이 어렵다. 이러한 어려움에도 불구하고 SISR은 해상도 한계를 극복 할 수 있는 가능성이 있기 때문에 매우 활발한 영역이며 비디오 스트리밍 또는 감시 시스템과 같은 다양한 어플리케이션에 사용될 수 있다.Because of the many-to-one mapping, SISR is generally difficult to compute HR images from LR images. Despite these difficulties, SISR is a very active area because it has the potential to overcome resolution limitations and can be used in various applications such as video streaming or surveillance systems.

최근, 컨볼루션 뉴럴 네트워크(Convolutional Neural Network: CNN) 기반의 방법은 SISR 작업에서 탁월한 성능을 제공한다. 3개의 컨볼루션 계층을 가진 SRCNN부터 160개 이상의 계층을 갖는 MDSR까지 네트워크의 깊이와 전반적인 성능은 시간이 지남에 따라 급격히 증가한다. Recently, a method based on a convolutional neural network (CNN) provides excellent performance in SISR work. From SRCNN with three convolutional layers to MDSR with more than 160 layers, the depth and overall performance of the network increase rapidly over time.

그러나 깊이 있는 학습 방법으로 SR 이미지의 품질이 향상 되더라도 실제 시나리오에는 적합하지 않는 경우가 많다는 문제점이 존재한다.However, there is a problem that even if the quality of the SR image is improved by the in-depth learning method, it is often not suitable for actual scenarios.

따라서, 본 발명은 이러한 문제점을 해결하기 위한 실용적인 경량의 심층 학습 모델을 설계를 위해서 재귀 구조를 가지는 CNN을 이용하여 저 해상도 이미지를 보정하기 위한 네트워크를 제안한다.Accordingly, the present invention proposes a network for correcting low-resolution images using a CNN having a recursive structure in order to design a practical lightweight deep learning model to solve this problem.

본 명세서에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problems to be achieved in the present specification are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those of ordinary skill in the technical field to which the present invention belongs from the following description. I will be able to.

본 발명에 의한 이미지 보정을 위한 연쇄 잔차 네트워크(Cascading Residual Network)는 경량 잔차 블록(Efficient Residual Block); 복수의 상기 경량 잔차 블록들로 구성되는 연쇄 잔차 재귀 블록(Cascading Residual Block); 및 복수의 연쇄 잔차 재귀 블록들로 구성되며, 상기 복수의 연쇄 잔차 재귀 블록들 각각은 상기 연쇄 잔차 네트워크의 상위의 복수의 컨볼루션 블록들로 연결되어 있고, 상기 복수의 경량 잔차 블록들 각각은 이전의 적어도 하나의 컨볼루션 레이어에 의해서 계산된 결과 값을 이용하여 특정 정보를 계산한다.The cascading residual network for image correction according to the present invention includes: an Efficient Residual Block; A cascading residual block composed of a plurality of the lightweight residual blocks; And a plurality of concatenated residual recursive blocks, each of the plurality of concatenated residual recursive blocks is connected to a plurality of convolutional blocks above the concatenated residual network, and each of the plurality of lightweight residual blocks is previously Specific information is calculated using the result value calculated by at least one convolutional layer of.

또한, 본 발명에서, 상기 복수의 경량 잔차 블록들은 상기 적어도 하나의 컨볼루션 레이어에 의해서 계산된 결과 값을 이용하기 위해서 지역적 연쇄 연결로 구성된다.In addition, in the present invention, the plurality of lightweight residual blocks are configured as a local chain connection in order to use a result value calculated by the at least one convolutional layer.

또한, 본 발명에서, 상기 연쇄 잔차 네트워크를 구성하는 각각의 블록들은 재귀 구조로 구성된다.Further, in the present invention, each of the blocks constituting the chain residual network is configured in a recursive structure.

또한, 본 발명에서, u 번째 경량 잔차 블록이

Figure 112018029648899-pat00001
이고, u 번째 연쇄 잔차 재귀 블록이
Figure 112018029648899-pat00002
인 경우, u 번째 특정 정보 Hu는 아래의 수학식을 통해서 계산된다.In addition, in the present invention, the u-th lightweight residual block
Figure 112018029648899-pat00001
And the u-th chain residual recursive block is
Figure 112018029648899-pat00002
In the case of, the u-th specific information H u is calculated through the following equation.

Figure 112018029648899-pat00003
Figure 112018029648899-pat00003

또한, 본 발명에서, 상기 복수의 경량 잔차 블록들 각각은 두 개의 제 1 컨볼루션 블록과 한 개의 제 2 컨볼루션 블록으로 구성된다.In addition, in the present invention, each of the plurality of light weight residual blocks includes two first convolution blocks and one second convolution block.

또한, 본 발명에서, 상기 제 1 컨볼루션 블록은 특정 크기의 그룹 컨볼루션이며, 상기 제 2 컨볼루션은 점별(pointwise) 컨볼루션이다.Further, in the present invention, the first convolution block is a group convolution of a specific size, and the second convolution is a pointwise convolution.

또한, 본 발명에서, 상기 특정 크기는 사용자로부터 획득한 입력정보에 의해서 가변적으로 결정된다.In addition, in the present invention, the specific size is variably determined by input information obtained from a user.

또한, 본 발명에서, 상기 연쇄 잔차 네트워크는 서로 다른 세 가지 스케일의 저 해상도 이미지를 하나의 모델로 처리하기 위한 업 샘플링 블록을 더 포함한다.In addition, in the present invention, the chain residual network further includes an up-sampling block for processing low-resolution images of three different scales into one model.

또한, 본 발명은, 이미지 보정을 위한 잔차 네트워크(Residual network)는 프로그램을 기록한 컴퓨터로 판독 가능한 기록매체를 통해서 컴퓨터 상에서 수행되는 잔차 네트워크를 제공한다.In addition, the present invention provides a residual network performed on a computer through a computer-readable recording medium in which a program is recorded, for the residual network for image correction.

본 발명의 실시 예에 따르면 일반적인 잔차 네트워크에 비해서 네트워크의 연산량 및 파라미터를 경량화할 수 있는 효과가 있다.According to an embodiment of the present invention, compared to a general residual network, there is an effect of reducing the computational amount and parameters of the network.

또한, 본 발명의 실시 예에 따르면, 저 해상도 이미지를 실시간으로 보정하기 위한 연쇄 잔차 네트워크에서 그룹 컨볼루션의 크기를 사용자로부터 획득한 정보에 기초하여 조절함으로써 네트워크의 성능과 연산량의 관계를 이용하여 최적의 그룹 사이즈를 선택할 수 있는 효과가 있다.In addition, according to an embodiment of the present invention, in a chain residual network for correcting a low-resolution image in real time, the size of the group convolution is adjusted based on information obtained from the user, thereby making the optimal use of the relationship between the network performance and the amount of computation. There is an effect of being able to select the group size of.

본 명세서에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects obtainable in the present specification are not limited to the above-mentioned effects, and other effects not mentioned can be clearly understood by those of ordinary skill in the art from the following description. will be.

본 발명에 관한 이해를 돕기 위해 상세한 설명의 일부로 포함되는, 첨부 도면은 본 발명에 대한 실시 예를 제공하고, 상세한 설명과 함께 본 발명의 기술적 특징을 설명한다.
도 1은 본 명세서에서 제안하는 저 해상도 이미지를 보정하기 위한 잔차 네트워크(Residual Network)의 네트워크 구조를 예시하는 도면이다.
도 2는 본 명세서에서 제안하는 연속 잔차 재귀 블록의 구조를 예시하는 도면이다.
도 3는 본 명세서에서 제안하는 잔차 블록의 구조를 예시하는 도면이다.
도 4는 본 명세서에서 제안하는 연속 잔차 네트워크의 PSNR 성능을 예시하는 도면이다.
BRIEF DESCRIPTION OF THE DRAWINGS The accompanying drawings, which are included as part of the detailed description to aid in understanding of the present invention, provide embodiments of the present invention, and describe technical features of the present invention together with the detailed description.
1 is a diagram illustrating a network structure of a residual network for correcting a low-resolution image proposed in the present specification.
2 is a diagram illustrating the structure of a continuous residual recursive block proposed in the present specification.
3 is a diagram illustrating a structure of a residual block proposed in the present specification.
4 is a diagram illustrating PSNR performance of a continuous residual network proposed in the present specification.

본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명의 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In the present invention, since various transformations can be applied and various embodiments can be provided, specific embodiments will be illustrated in the drawings and described in detail in the detailed description. However, this is not intended to be limited to a specific embodiment of the present invention, it is to be understood to include all conversions, equivalents, and substitutes included in the spirit and scope of the present invention. In describing the present invention, when it is determined that a detailed description of a related known technology may obscure the subject matter of the present invention, a detailed description thereof will be omitted.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms such as first and second may be used to describe various components, but the components should not be limited by the terms. These terms are used only for the purpose of distinguishing one component from another component.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the present application are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In the present application, terms such as "comprise" or "have" are intended to designate the presence of features, numbers, steps, actions, components, parts, or combinations thereof described in the specification, but one or more other features. It is to be understood that the presence or addition of elements or numbers, steps, actions, components, parts, or combinations thereof, does not preclude in advance.

경량 모델을 만드는 한 가지 방법은 매개 변수의 수를 줄이는 것이다. 이러한 모델을 만드는 방법은 다양할 수 있으나, 가장 간단하고 효과적인 방법은 재귀 구조를 가지는 네트워크를 사용하는 것이다.One way to create a lightweight model is to reduce the number of parameters. There are many ways to make such a model, but the simplest and most effective way is to use a network with a recursive structure.

시간이 지남에 따라 네트워크의 깊이와 전반적인 성능이 크게 향상되었으나, 딥 러닝(deep learning) 방법들로 SR 이미지의 품질이 향상 되더라도 실제 시나리오에는 적합하지 않는 경우가 많다. Over time, the depth and overall performance of the network have improved significantly, but even if the quality of the SR image is improved by deep learning methods, it is often not suitable for real scenarios.

따라서, 실제 어플리케이션에 적용이 가능한 실용적인 경량의 심층 학습 모델을 설계하는 것이 중요하다. 이러한 모델을 만드는 한 가지 방법은 매개 변수의 개수를 줄이는 것이며, 매개 변수를 줄이기 위한 방법 중 간단하고 효과적인 방법이 재귀 네트워크를 이용하는 것이다.Therefore, it is important to design a practical lightweight deep learning model that can be applied to actual applications. One way to create such a model is to reduce the number of parameters, and a simple and effective method for reducing parameters is to use a recursive network.

예를 들면, DRCN(Deeply-recursive convolutional network)은 중복된 매개 변수를 줄이기 위해 재귀 네트워크를 사용하며, 잔차 구조를 추가하여 성능을 향상시킨다.For example, a deeply-recursive convolutional network (DRCN) uses a recursive network to reduce redundant parameters and improves performance by adding a residual structure.

이런 모델은 표준 CNN과 비교하였을 때 모델의 매개 변수의 개수를 효과적으로 줄이고 좋은 성능을 보여준다. 그러나 이러한 모델은 아래와 같은 2가지 단점이 존재한다.Compared with the standard CNN, this model effectively reduces the number of parameters of the model and shows good performance. However, this model has two drawbacks as follows.

1) CNN 모델에 입력하기 전에 입력 이미지를 업 샘플링한다. 1) The input image is upsampled before input to the CNN model.

2) 재귀 네트워크를 사용하여 손실을 보완하기 위해 네트워크의 깊이 또는 너비를 증가시킨다. 2) Using a recursive network, increase the depth or width of the network to compensate for the loss.

이러한 단점은 모델이 재구성 될 때 이미지의 세부 사항은 유지되지만, 작업의 수와 추론 시간이 증가한다는 문제점이 존재한다.This disadvantage is that the details of the image are maintained when the model is reconstructed, but there is a problem that the number of tasks and inference time are increased.

지금까지, 경량 모델을 만드는 것을 목표로 하는 대부분의 방법은 주로 매개 변수 수를 줄이는 데 중점을 두었다. So far, most methods aimed at creating lightweight models have focused primarily on reducing the number of parameters.

그러나, 앞에서 설명한 바와 같이 실제 운영되는 시나리오에서는 작업 수 및 SR 시스템이 모바일 장치에서 작동하는 상황을 고려해야 한다.However, as described above, in the actual operating scenario, the number of tasks and the situation in which the SR system operates on the mobile device must be considered.

또한, 시스템의 실행 속도 또한 사용자 경험 관점에서 중요한 고려요소이다. 특히, 수행되는 계산의 양에 크게 의존하는 배터리 용량은 주요한 고려사항이 될 수 있다. 이와 관련하여 심층 학습 아키텍처에서 운영의 수를 줄이는 것은 필요한 단계이다.In addition, the execution speed of the system is also an important factor in terms of user experience. In particular, battery capacity, which is highly dependent on the amount of computation being performed, can be a major consideration. In this regard, reducing the number of operations in a deep learning architecture is a necessary step.

또 다른 시나리오는 비디오 스트리밍 서비스에 SR 방법을 적용하는 것과 관련된다. 스트리밍 미디어에 대한 요구는 급격히 증가하여 대량의 멀티미디어 데이터를 저장하려면 대용량 스토리지가 필요하다. Another scenario is related to applying the SR method to a video streaming service. The demand for streaming media is rapidly increasing, and a large amount of storage is required to store a large amount of multimedia data.

따라서, 저장 전에 손실 압축 기술을 사용하여 데이터를 압축하는 것이 필수적이고, 이후, SR 기술을 적용하여 데이터를 원래 해상도로 복원 할 수 있다.Therefore, it is essential to compress data using a lossy compression technique before storage, and afterwards, the data can be restored to its original resolution by applying the SR technique.

하지만, 스트리밍 서비스에서는 지연이 가장 중요한 요소이므로, 압축 해제 프로세스(즉, 초해상도화)는 실시간으로 수행되어야 하며, 이를 위해 작업 수 측면에서 SR 방법을 경량으로 만드는 것이 필수이다.However, since delay is the most important factor in streaming services, the decompression process (ie, super-resolution) must be performed in real time, and for this, it is essential to make the SR method light in terms of the number of operations.

본 발명은 이러한 사항을 고려하고, 기존의 모델의 문제점을 개선한 저 해상도 이미지의 실시간 보정을 위한 연쇄 잔차 네트워크 시스템(Cascading Residual Network)을 제안한다.The present invention considers these issues and proposes a cascading residual network system for real-time correction of low-resolution images that improves the problems of the existing model.

이하, 본 발명에서 제안하는 연쇄 잔차 네트워크 시스템은 CARN 및 CARN-M이라 호칭한다.Hereinafter, the chain residual network system proposed in the present invention is referred to as CARN and CARN-M.

본 발명은 성능을 향상 시키기 위해 CARN 모델을 구축하고, 구축된 모델을 CARN-M으로 확장하여 속도와 작업 횟수를 최적화할 수 있다.The present invention builds a CARN model to improve performance, and extends the built model to CARN-M to optimize speed and number of tasks.

CARN 및 CARN-M은 저 해상도 이미지를 입력 받고, 출력으로 고해상도 이미지를 계산한다.CARN and CARN-M receive low-resolution images and calculate high-resolution images as output.

본 발명에서 제안하는 CARN 및 CARN-M의 중간 구성은 이미지 인식을 위한 심층 잔차 학습(Deep residual learning)을 기반으로 설계될 수 있다.The intermediate configuration of CARN and CARN-M proposed in the present invention may be designed based on deep residual learning for image recognition.

구체적으로, 본 발명에서 제안하는 CARN 및 CARN-M은 저 해상도 이미지를 입력 받고, 입력 받은 저 해상도 이미지를 고해상도 이미지로 보정하는 역할을 수행하는 CNN으로 구성될 수 있다.Specifically, the CARN and CARN-M proposed in the present invention may be configured as a CNN that receives a low-resolution image and corrects the received low-resolution image into a high-resolution image.

본 발명에서 제안하는 CARN 및 CARN-M은 저 해상도 이미지 복원의 실시간성을 달성하기 위하여 1)연쇄 잔차 네트워크 구조를 통한 시스템 성능을 향상시키고, 2) 연산량 및 모델 크기 측면에서 효율적인 시스템 구축을 위해서 경량 잔차 블록(300)과 재귀 구조를 활용한다.The CARN and CARN-M proposed in the present invention are lightweight to achieve real-time performance of low-resolution image restoration: 1) improve system performance through a concatenated residual network structure, and 2) efficient system construction in terms of computational load and model size. The residual block 300 and a recursive structure are used.

이하, 본 발명에 적용될 수 있는 신경망에 대해서 살펴본다.Hereinafter, a neural network applicable to the present invention will be described.

효율적인 신경망(Efficient Neural Network)Efficient Neural Network

작고 효율적인 신경망은 아래와 같은 사항이 고려될 수 있다.For a small and efficient neural network, the following can be considered.

1) 사전 연계 된 네트워크 압축1) Pre-linked network compression

2) 작지만 효율적인 모델 2) Small but efficient model

이와 같은 작고 효율적인 신경망을 만들기 위해 사전에 처리된 네트워크의 크기를 줄이기 위해 pruning, 벡터 양자화 및 호프만 코딩으로 구성된 심층 압축 기법이 이용될 수 있다.In order to create such a small and efficient neural network, a deep compression technique consisting of pruning, vector quantization, and Hoffman coding can be used to reduce the size of a previously processed network.

이하, 본 발명에 적용될 수 있는 신경망의 딥 러닝에 사용될 수 있는 컨볼루션 및 컨볼루션의 파라미터에 대해서 살펴보도록 한다.Hereinafter, convolution and parameters of convolution that can be used for deep learning of a neural network that can be applied to the present invention will be described.

커널 크기(Kernel Size): 커널 크기는 컨볼루션의 시야(view)를 결정한다. 보통 2D에서 3x3 pixel로 사용된다Kernel Size: The kernel size determines the view of the convolution. Usually used as 3x3 pixel in 2D

스트라이드(Stride): 스트라이드는 이미지를 횡단할 때 커널의 스텝 사이즈를 결정한다. 기본값은 1이지만 보통 Max Pooling과 비슷하게 이미지를 다운샘플링하기 위해 스트라이드가 2로 사용될 수 있다.Stride: The stride determines the step size of the kernel as it traverses the image. The default is 1, but a stride of 2 can be used to downsample the image, similar to normal Max Pooling.

패딩(Padding): 패딩은 샘플 테두리를 어떻게 조절할지를 결정한다. 패딩된 컨볼루션은 입력과 동일한 출력 차원을 유지하는 반면, 패딩되지 않은 컨볼루션은 커널이 1보다 큰 경우 테두리의 일부를 잘라버릴 수 있다.Padding: Padding determines how the sample border is adjusted. Padded convolution keeps the same output dimension as the input, whereas unpadded convolution can cut off part of the border if the kernel is greater than 1.

입력 & 출력 채널들: 컨볼루션 계층은 입력 채널의 특정 수(I)를 받아 출력 채널의 특정 수(O)로 계산한다. 이런 계층에서 필요한 파라미터의 수는 I*O*K로 계산할 수 있다. K는 커널의 수를 의미한다.Input & Output Channels: The convolution layer takes a specific number (I) of input channels and calculates it as a specific number (O) of output channels. The number of parameters required in this layer can be calculated as I*O*K. K is the number of kernels.

확장된 컨볼루션(Dilated Convolutions)Dilated Convolutions

확장된 컨볼루션은 Convolutional layer에 또 다른 파라미터인 dilation rate를 적용한 컨볼루션을 의미한다. dilation rate은 커널(kenel) 사이의 간격을 의미한다.Extended convolution means convolution in which another parameter, dilation rate, is applied to the convolutional layer. The dilation rate refers to the interval between kernels.

dilation rate가 2인 3x3 커널은 9개의 파라미터를 사용하면서 5x5 커널과 동일한 시야(view)를 가질 수 있다.A 3x3 kernel with a dilation rate of 2 can have the same view as a 5x5 kernel while using 9 parameters.

5x5 커널을 사용하고 두번째 열과 행을 모두 삭제하면 (3x3 커널을 사용한 경우 대비)동일한 계산 비용으로 더 넓은 시야를 제공할 수 있다. If you use a 5x5 kernel and delete both the second column and row (compared to using a 3x3 kernel), you can provide a wider view at the same computational cost.

확장된 컨볼루션은 특히 real-time segmentation 분야에서 사용될 수 있으며, 넓은 시야가 필요하고 여러 컨볼루션이나 큰 커널을 사용할 여유가 없는 경우 사용될 수 있다.Extended convolution can be used especially in the real-time segmentation field, and can be used when a wide field of view is required and there is no room to use multiple convolutions or large kernels.

분리 컨볼루션(Separable Convolutions)Separable Convolutions

분리 컨볼루션에선 커널 작업을 여러 단계로 나눌 수 있다. 컨볼루션이 아래의 수학식 1과 같고, k가 수학식 2에 의해서 계산된다고 가정한다.In separate convolution, the kernel work can be divided into several stages. Assume that the convolution is equal to Equation 1 below, and that k is calculated by Equation 2.

[수학식 1][Equation 1]

y = conv(x, k)y = conv(x, k)

[수학식 2][Equation 2]

k=k1.dot(k2)k=k1.dot(k2)

수학식 1 및 2에서 x는 입력 이미지, y는 출력 이미지, k는 커널을 의미한다. In Equations 1 and 2, x is an input image, y is an output image, and k is a kernel.

상기 수학식 1 및 2에서와 같이 K와 2D convolution을 수행하는 대신 k1와 k2로 1D convolution하는 것과 동일한 결과를 가져오기 때문에 이와 같은 컨볼루션을 분리 컨볼루션이라 한다.Instead of performing K and 2D convolution as shown in Equations 1 and 2, since the same result as 1D convolution with k1 and k2 is obtained, such a convolution is referred to as a separate convolution.

뉴럴 네트워크(neural network)에서는 깊이별 분리 컨볼루션(depthwise separable convolution)이 사용될 수 있다. 깊이별 분리 컨볼루션은 채널을 분리하지 않고 spatial convolution을 수행한 다음 깊이별 컨볼루션을 수행하는 방법을 의미한다.In a neural network, depthwise separable convolution may be used. Separated convolution by depth refers to a method of performing spatial convolution without separating channels and then performing convolution by depth.

예를 들어, 16개의 input 채널과 32개의 output 채널에 3x3 convolutional 레이어가 있다고 가정한다.For example, assume that there is a 3x3 convolutional layer in 16 input channels and 32 output channels.

16개의 채널마다 32개의 3x3 커널이 지나가며 512(16*32)개의 feature map이 생성된다. 이후, 모든 입력 채널에서 1개의 feature map을 병합하여 추가합니다. 32번 반복하면 32개의 output 채널을 얻을 수 있다.For every 16 channels, 32 3x3 kernels pass and 512 (16*32) feature maps are created. Afterwards, 1 feature map is merged and added from all input channels. If you repeat 32 times, you can get 32 output channels.

동일한 가정에서 깊이별 분리 컨볼루션(depthwise separable convolution)을 위해 1개의 3x3 커널로 16 채널을 탐색해 16개의 특징 맵(feature map)을 생성한다. 합치기 전에 32개의 1x1 convolution으로 16개의 특징 맵(feature map)을 지나간다. 결과적으로 위에선 4068(16*32*3*3) 매개 변수를 얻는 반면 656(16*3*3 + 16*32*1*1) 매개변수를 얻을 수 있다.Under the same assumption, for depthwise separable convolution, 16 channels are searched with one 3x3 kernel to generate 16 feature maps. Before merging, 16 feature maps are traversed with 32 1x1 convolutions. As a result, we get 4068(16*32*3*3) parameters above, while 656(16*3*3 + 16*32*1*1) parameters.

도 1은 본 명세서에서 제안하는 저 해상도 이미지를 보정하기 위한 잔차 네트워크(Residual Network)의 네트워크 구조를 예시하는 도면이다.1 is a diagram illustrating a network structure of a residual network for correcting a low-resolution image proposed in the present specification.

도 1을 참조하면, 저 해상도 이미지를 실시간으로 보정하기 위한 연쇄 잔차 네트워크는 잔차 네트워크를 기반으로 전역 및 지역적 연쇄 잔차 연결이 추가로 구성될 수 있다.Referring to FIG. 1, in a chain residual network for correcting a low-resolution image in real time, global and regional chain residual connections may be additionally configured based on the residual network.

도 1의 (a)는 일반적인 잔차 네트워크의 구조를 도시하고, (b)는 본 발명에서 제안하는 연쇄 잔차 네트워크의 구조를 도시한다.1A shows the structure of a general residual network, and (b) shows the structure of a chain residual network proposed in the present invention.

구체적으로, 도 1의 (a)과 (b)의 잔차 네트워크는 전역 및 지역적 연쇄 잔차 연결이 존재하는지 여부에 차이가 있다.Specifically, the residual networks of FIGS. 1A and 1B differ in whether global and regional chain residual connections exist.

도 1의 (b)에 도시된 바와 같이 연쇄 잔차 블록(100)들로 구성된 연쇄 잔차 네트워크는 중간 계층의 출력은 상위 계층으로 계단식으로 연결(cascading)되며 단일 1ㅧ1 컨볼루션 계층에 수렴하게 된다.As shown in (b) of FIG. 1, in the concatenated residual network composed of concatenated residual blocks 100, the output of the middle layer is cascading to the upper layer and converged to a single 1x1 convolution layer. .

즉, 전역적 연쇄 잔차 연결은 하위 블록들이 각각 모든 상위 블록으로 연결되어 있는 구조이며, 지역적 연쇄 잔차 연결을 네트워크 내부의 컨볼루션 블록을 연쇄 잔차 블록이 사용하는 구조이다.That is, the global chain residual connection is a structure in which lower blocks are connected to all upper blocks, respectively, and the convolutional residual block uses the convolutional block inside the network for the local chain residual connection.

도 1의 (a)에 도시된 일반적인 잔차 네트워크의 잔차 블록은 아래 수학식 3과 같이 나타낼 수 있다.The residual block of the general residual network shown in FIG. 1A can be expressed as Equation 3 below.

[수학식 3][Equation 3]

Figure 112018029648899-pat00004
Figure 112018029648899-pat00004

수학식 3에서 f는 컨볼루션 레이어, τ는 활성함수를 의미한다.

Figure 112018029648899-pat00005
는 i번째 잔차 블록의 파라미터를 의미한다.In Equation 3, f denotes a convolution layer, and τ denotes an activation function.
Figure 112018029648899-pat00005
Denotes a parameter of the i-th residual block.

이때, 활성함수는 ReLU 또는 다양한 활성함수가 사용될 수 있다.At this time, as the activity function, ReLU or various activity functions may be used.

Hi는 i 번째 블록의 결과 특징 정보를 의미하며, 잔차 네트워크의 최종 특징 정보 Hu는 아래의 수학식 4에 의해서 계산될 수 있다.H i means result feature information of the i-th block, and final feature information H u of the residual network can be calculated by Equation 4 below.

[수학식 4][Equation 4]

Figure 112018029648899-pat00006
Figure 112018029648899-pat00006

수학식 3 및 4와는 다르게 도 2의 (b)에 의한 연쇄 잔차 블록은 아래 수학식 5와 같이 나타낼 수 있다.Unlike Equations 3 and 4, the chain residual block of FIG. 2B may be expressed as Equation 5 below.

[수학식 5][Equation 5]

Figure 112018029648899-pat00007
Figure 112018029648899-pat00007

Hi는 i 번째 블록의 결과 특징 정보를 의미하며, 잔차 네트워크의 최종 특징 정보 Hu는 아래의 수학식 6에 의해서 계산될 수 있다.H i means result feature information of the i-th block, and final feature information H u of the residual network can be calculated by Equation 6 below.

[수학식 6][Equation 6]

Figure 112018029648899-pat00008
Figure 112018029648899-pat00008

수학식 6에서 H0는 첫 번째 컨볼루션 계층의 출력을 의미한다. 수학식 6을 참조하면 전역적 연쇄 잔차 연결을 통해서 이전 블록의 결과 값을 이용하여 최종 특징 정보를 계산할 수 있다.In Equation 6, H 0 denotes the output of the first convolution layer. Referring to Equation 6, the final feature information can be calculated using the result value of the previous block through global chain residual connection.

도 1의 (a) 및 (b)에 도시된 바와 같이, 일반적인 잔차 네트워크와 연쇄 잔차 네트워크 간의 주요 차이점은 앞에서 설명한 바와 같이 계단식 메커니즘에 있다. As shown in (a) and (b) of FIG. 1, the main difference between a general residual network and a concatenated residual network lies in the cascading mechanism as described above.

도 1의 (b)에 도시된 바와 같이 연쇄 잔차 네트워크는 화살표로 나타낸 전역 연쇄 연결의 구조를 가지며, 각각의 연쇄 잔차 블록은 추가적인 1 X 1 컨볼루션 계층이 뒤에 위치한다. As shown in (b) of FIG. 1, the chain residual network has a structure of global chain connections indicated by arrows, and each chain residual block has an additional 1 X 1 convolution layer behind it.

전역 및 지역 레벨들이 모두 연쇄되는 구조를 가지고 있으면 아래와 같은 장점이 있다.If you have a structure in which both the global and regional levels are chained, you have the following advantages.

1) 모델에 여러 레이어의 기능이 통합되어 다단계 표현을 익힐 수 있다.1) Multi-level expression can be learned by integrating functions of several layers in the model.

2) 다중 레벨 계단식 연결은 다단계 지름길 연결로 작동하여 하위 계층에서 상위 계층으로 정보를 신속하게 전달할 수 있다.2) Multi-level cascading connection works as a multi-level shortcut connection, allowing information to be quickly transferred from lower layers to higher layers.

이러한 장점은 네트워크 학습 방법인 오류 역 전파 시 학습 정보가 다양한 경로로 이동할 수 있으며 더 나아가 네트워크가 정보의 이동 방향에 대한 결정권을 스스로 학습할 수 있다.This advantage is that in case of error back propagation, which is a network learning method, learning information can move through various paths, and further, the network can learn the right to decide on the direction of information movement by itself.

또한, 도 1에서 연쇄 잔차 네트워크는 복수의 스케일(예를 들면, x2, x3, x4)의 저 해상도 이미지를 하나의 모델로 처리하기 위한 업 샘플링 블록(200)을 포함할 수 있다.In addition, the chain residual network in FIG. 1 may include an up-sampling block 200 for processing low-resolution images of a plurality of scales (eg, x2, x3, x4) into one model.

업 샘플링은 컨볼루션 레이어를 통과시킨 특징 맵을 이미지 확대 보간법 (쌍입방)을 사용하여 해상도를 높인 뒤, 해상도가 높아진 특징 맵을 최종 컨볼루션 레이어에 통과시켜 결과 영상을 얻는 방식이 적용될 수 있다.The upsampling method can be applied to obtain a result image by increasing the resolution of the feature map that has passed through the convolutional layer using the image enlargement interpolation (bicubic), and then passing the feature map with the increased resolution through the final convolutional layer.

이때, x2 와 x3 스케일은 한 번에 해상도를 확대시키지만 x4 스케일은 x2 해상도 확대를 두 번 적용하는 방식이 사용될 수 있다.In this case, the x2 and x3 scales increase the resolution at once, but the x4 scale may use a method of applying x2 resolution expansion twice.

이와 같은 연쇄 잔차 네트워크에 기초하여 저 해상도의 이미지를 재구성할 수 있으며, 이미지의 세부 사항 및 컨텍스트를 동시에 복원할 수 있다.A low-resolution image can be reconstructed based on such a chain residual network, and details and context of the image can be simultaneously restored.

도 2는 본 명세서에서 제안하는 연속 잔차 재귀 블록의 구조를 예시하는 도면이다.2 is a diagram illustrating the structure of a continuous residual recursive block proposed in the present specification.

도 2를 참조하면 도 1에서 살펴본 연쇄 잔차 네트워크는 실시간성을 확보하기 위하여 경량 잔차 블록(300) 및 재귀 구조가 적용될 수 있다.Referring to FIG. 2, in the concatenated residual network illustrated in FIG. 1, a lightweight residual block 300 and a recursive structure may be applied to secure real time.

구체적으로, 도 1의 (b)에 도시된 연쇄 잔차 블록(Cascading Block)은 도 2의 (a)에 도시된 바와 같이 효율적인 잔차 블록(예를 들면, 경량 잔차 블록(300))들로 구성될 수 있으며, 도 2의 (b)와 같이 재귀 구조로 구성될 수 있다.Specifically, the cascading block shown in (b) of FIG. 1 is composed of an efficient residual block (for example, a lightweight residual block 300) as shown in (a) of FIG. Can be, and can be configured in a recursive structure as shown in Figure 2 (b).

이때, 재귀 구조는 네트워크의 파라미터를 줄이기 위하여 연쇄 잔차 블록 내부의 컨볼루션을 모두 동일한 파라미터를 사용하도록 하는 구조를 의미한다.In this case, the recursive structure refers to a structure in which all convolutions inside the concatenation residual block use the same parameters in order to reduce the parameters of the network.

경량 잔차 블록(300)은 기존의 잔차 블록을 그룹 컨볼루션을 활용하여 파라미터 및 연산량 측면에서 경량화한 블록을 의미한다.The lightweight residual block 300 refers to a block in which the existing residual block is lightened in terms of parameters and computational amount by using group convolution.

도 3는 본 명세서에서 제안하는 잔차 블록의 구조를 예시하는 도면이다. 도 3의 (a)는 일반적인 잔차 블록을 나타내고 도 3의 (b)는 경량 잔차 블록(300)을 나타낸다.3 is a diagram illustrating a structure of a residual block proposed in the present specification. 3(a) shows a general residual block, and FIG. 3(b) shows a lightweight residual block 300.

도 3의 (a)에 도시된 바와 같이 일반적인 잔차 블록은 컨볼루션 계층과 회귀함수로 구성되어 있다.As shown in (a) of FIG. 3, a general residual block consists of a convolutional layer and a regression function.

하지만, 도 3의 (b)의 경량 잔차 블록(300)은 복수개의 그룹 컨볼루션(400)과 회귀 함수로 구성될 수 있다.However, the lightweight residual block 300 of FIG. 3B may be configured with a plurality of group convolutions 400 and a regression function.

즉, 경량 잔차 블록(300)은 2개의 특정 크기(예를 들면, 3x3)의 그룹 컨볼루션(제 1 컨볼루션 블록)과 한 개의 1x1 컨볼루션(제 2 컨볼루션 블록)으로 구성될 수 있다.That is, the lightweight residual block 300 may be composed of two group convolutions (first convolution block) and one 1×1 convolution (second convolution block) having a specific size (for example, 3×3).

이때, 한 개의 1x1 컨볼루션은 앞에서 살펴본 깊이별 분리 컨볼루션이 적용될 수 있으며, 2개의 특정 크기의 그룹 컨볼루션은 깊이별 컨볼루션이 그룹으로 확장된 컨볼루션이 적용될 수 있다.At this time, one 1x1 convolution may be applied to the depth-specific separation convolution described above, and two specific size group convolutions may be applied to a convolution in which the depth-specific convolution is expanded into a group.

깊이별 컨볼루션의 그룹 확장은 모델의 조정을 효율적으로 만들어 준다. 즉, 그룹의 크기와 퍼포먼스는 트레이드 오프의 관계에 있기 때문에 적절한 그룹의 크기를 사용자가 선택해야 한다.The group expansion of the convolution by depth makes the model adjustment efficient. In other words, since the group size and performance are in a trade-off relationship, the user must select an appropriate group size.

예를 들면, 사용자는 그룹의 크기를 입력할 수 있으며, 네트워크는 사용자로부터 그룹의 크기를 나타내는 정보를 획득하여 그룹의 크기를 결정할 수 있다.For example, the user may input the size of the group, and the network may determine the size of the group by obtaining information indicating the size of the group from the user.

따라서, 사용자는 상황에 따른 그룹 컨볼루션의 그룹 크기를 조절하여 경량화 정도를 조절할 수 있기 때문에 일반적인 잔차 블록과 비교하여 연산량을 감소시킬 수 있다.Accordingly, since the user can control the degree of weight reduction by adjusting the group size of the group convolution according to the situation, it is possible to reduce the amount of computation compared to a general residual block.

구체적으로, 도 3의 (a)에 도시된 일반적인 잔차 블록에 대한 연산량은 수학식 7과 같이 나타낼 수 있으며, 도 3의 (b)에 도시된 경량 잔차 블록(300)에 대한 연산량은 수학식 8과 같이 나타낼 수 있다.Specifically, the amount of calculation for the general residual block shown in FIG. 3(a) can be expressed as Equation 7, and the amount of calculation for the lightweight residual block 300 shown in FIG. 3(b) is Equation 8 It can be expressed as

[수학식 7][Equation 7]

Figure 112018029648899-pat00009
Figure 112018029648899-pat00009

[수학식 8][Equation 8]

Figure 112018029648899-pat00010
Figure 112018029648899-pat00010

수학식 7 및 8에서 K는 컨볼루션 커널의 크기, C는 입/출력 채널의 개수이며, F는 특징 정보의 크기를 나타낸다.In Equations 7 and 8, K is the size of the convolution kernel, C is the number of input/output channels, and F is the size of feature information.

수학식 7 및 8에 기초하여 일반적인 잔차 블록과 경량 잔차 블록의 연산량 차이는 아래 수학식 9와 같다.Based on Equations 7 and 8, the difference in the amount of calculation between the general residual block and the lightweight residual block is shown in Equation 9 below.

[수학식 9][Equation 9]

Figure 112018029648899-pat00011
Figure 112018029648899-pat00011

수학식 9에서 G는 그룹의 크기를 의미한다.In Equation 9, G means the size of a group.

수학식 9를 참조하면, 모든 그룹 컨볼루션의 크기를 3 X 3, 채널의 개수를 64로 하고, 일반적인 잔차 블록 대신에 경량 잔차 블록(300)을 이용하는 경우, 그룹의 크기에 따라 연산량을 1.8에서 14번까지 감소시킬 수 있다.Referring to Equation 9, when the size of all group convolutions is set to 3 X 3 and the number of channels is set to 64, and the lightweight residual block 300 is used instead of the general residual block, the amount of computation is calculated from 1.8 depending on the size of the group. It can be reduced to 14 times.

또한, 도 2의 (b)에서 살펴본 바와 같이 공유된 연쇄블록들을 통해서 파라미터의 수를 감소시킬 수 있다.In addition, it is possible to reduce the number of parameters through the shared concatenated blocks as described in (b) of FIG. 2.

또한, 이와 같은 방법에도 도 1에 도시된 업 샘플링 블록(200)은 업 샘플링 비율과 관련하여 채널 수를 2 차적으로 늘려야 하기 때문에 3 X 3 컨볼루션 계층을 업 샘플링 블록(200) 내부의 1 X 1 컨볼루션 계층으로 대체할 수 있다.In addition, even in such a method, since the up-sampling block 200 shown in FIG. 1 needs to secondarily increase the number of channels in relation to the up-sampling ratio, the 3 X 3 convolution layer is 1 X inside the up-sampling block 200. 1 can be replaced with a convolutional layer.

아래 표 1은 각 모델의 효과를 나타낸다.Table 1 below shows the effects of each model.

[표 1][Table 1]

Figure 112018029648899-pat00012
Figure 112018029648899-pat00012

표 1에서 Baseline은 전역 연쇄 잔차 및 지역적 연쇄 잔차 연결이 적용되지 않는 네트워크를 나타내고, CARN-NL은 지역적 연쇄 잔차 연결이 적용되지 않는 네트워크를 나타낸다.In Table 1, Baseline indicates a network to which global chain residual and regional chain residual linking are not applied, and CARN-NL indicates a network to which regional chain residual linking is not applied.

CARN-NG는 전역 연쇄 잔차 연결이 적용되지 않는 네트워크를 나타내며, CARN는 본 발명에서 제안하는 전역 및 지역적 연쇄 잔차 연결이 적용된 네트워크를 나타낸다.CARN-NG represents a network to which global chain residual connection is not applied, and CARN represents a network to which global and regional chain residual connection proposed in the present invention is applied.

도 4는 본 명세서에서 제안하는 연속 잔차 네트워크의 PSNR 성능을 예시하는 도면이다.4 is a diagram illustrating PSNR performance of a continuous residual network proposed in the present specification.

도 4의 (a)는 PSNR과 파라미터의 관점에서 경량 잔차 블록(300) 및 재귀 블록을 사용한 경우의 효과를 나타내고, 도 4의 (b)는 PSNR과 동작의 관점에서 경량 잔차 블록(300) 및 재귀 블록을 사용한 경우의 효과를 나타낸다.FIG. 4A shows the effect of using the lightweight residual block 300 and the recursive block in terms of PSNR and parameters, and FIG. 4B shows the lightweight residual block 300 and the lightweight residual block 300 in terms of PSNR and operation. This shows the effect of using a recursive block.

도 4의 (a) 및 (b)에서 GConv는 그룹 컨볼루션의 그룹의 크기를 나타낸다.In FIGS. 4A and 4B, GConv represents the size of a group of group convolution.

도 4의 (a) 및 (b)에서 파란 선은 재귀 구조를 적용하지 않은 네트워크 모델을 나타내며, 주황 선은 재귀 구조 및 연쇄 잔차 블록이 적용된 네트워크 모델을 나타낸다.In (a) and (b) of FIG. 4, the blue line represents the network model to which the recursive structure is not applied, and the orange line represents the network model to which the recursive structure and concatenated residual blocks are applied.

모든 효율적인 모델이 28.70 PSNR을 나타내는 CARN 모델보다 성능이 좋더라도 매개 변수와 연산 수가 크게 감소한다.Even though all efficient models perform better than CARN models, which exhibit 28.70 PSNR, the number of parameters and operations is significantly reduced.

예를 들어, G64의 경우 매개 변수와 조작 모두에서 5배가 감소하는 것을 나타낸다. For example, the G64 shows a five-fold reduction in both parameters and operation.

이제까지 본 발명에 대하여 그 바람직한 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.So far, the present invention has been looked at around its preferred embodiments. Those of ordinary skill in the art to which the present invention pertains will be able to understand that the present invention can be implemented in a modified form without departing from the essential characteristics of the present invention. Therefore, the disclosed embodiments should be considered from an illustrative point of view rather than a limiting point of view. The scope of the present invention is shown in the claims rather than the foregoing description, and all differences within the scope equivalent thereto should be construed as being included in the present invention.

나아가, 설명의 편의를 위하여 각 도면을 나누어 설명하였으나, 각 도면에 서술되어 있는 실시 예들을 병합하여 새로운 실시 예를 구현하도록 설계하는 것도 가능하다.Furthermore, although each drawing has been described separately for convenience of description, it is also possible to design a new embodiment by merging the embodiments described in each drawing.

또한, 전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등을 포함한다. 또한, 상기 컴퓨터는 장치의 제어부(130)를 포함할 수도 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.In addition, the present invention described above can be implemented as a computer-readable code on a medium on which a program is recorded. The computer-readable medium includes all types of recording devices storing data that can be read by a computer system. Examples of computer-readable media include HDD (Hard Disk Drive), SSD (Solid State Disk), SDD (Silicon Disk Drive), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. Includes. In addition, the computer may include the control unit 130 of the device. Therefore, the detailed description above should not be construed as restrictive in all respects and should be considered as illustrative. The scope of the present invention should be determined by rational interpretation of the appended claims, and all changes within the equivalent scope of the present invention are included in the scope of the present invention.

100: 연쇄 잔차 블록(100) 200: 업 샘플링 블록(200)
300: 경량 잔차 블록(300) 400: 그룹 컨볼루션
100: chain residual block (100) 200: up-sampling block (200)
300: lightweight residual block (300) 400: group convolution

Claims (9)

이미지 보정을 위한 잔차 네트워크(Residual network) 시스템에 있어서,
경량 잔차 블록(Efficient Residual Block);
복수의 경량 잔차 블록들로 구성되는 연쇄 잔차 재귀 블록(Cascading Residual Block); 및
복수의 연쇄 잔차 재귀 블록들로 구성되는 연쇄 잔차 네트워크(Cascading Residual Network)를 포함하고,
상기 복수의 연쇄 잔차 재귀 블록들 각각은 상기 연쇄 잔차 네트워크의 상위의 복수의 컨볼루션 블록들로 연결되어 있으며,
상기 복수의 경량 잔차 블록들 각각은 이전의 적어도 하나의 컨볼루션 레이어에 의해서 계산된 결과 값을 이용하여 특정 정보를 계산하는 잔차 네트워크 시스템.
In a residual network system for image correction,
Efficient Residual Block;
A cascading residual block composed of a plurality of lightweight residual blocks; And
It includes a cascading residual network composed of a plurality of concatenated residual recursive blocks,
Each of the plurality of concatenated residual recursive blocks is connected to a plurality of upper convolutional blocks of the concatenated residual network,
Each of the plurality of lightweight residual blocks calculates specific information using a result value calculated by at least one previous convolutional layer.
제 1 항에 있어서,
상기 복수의 경량 잔차 블록들은 상기 적어도 하나의 컨볼루션 레이어에 의해서 계산된 결과 값을 이용하기 위해서 지역적 연쇄 연결로 구성되는 잔차 네트워크 시스템.
The method of claim 1,
The residual network system, wherein the plurality of lightweight residual blocks are configured with a local chain connection to use a result value calculated by the at least one convolutional layer.
제 1 항에 있어서,
상기 연쇄 잔차 네트워크를 구성하는 각각의 블록들은 재귀 구조로 구성되는 잔차 네트워크 시스템.
The method of claim 1,
Each of the blocks constituting the concatenated residual network has a recursive structure.
제 1 항에 있어서,
u 번째 경량 잔차 블록이
Figure 112020054622836-pat00013
이고, u 번째 연쇄 잔차 재귀 블록이
Figure 112020054622836-pat00014
인 경우, u 번째 특정 정보 Hu는 아래의 수학식을 통해서 계산되는 잔차 네트워크 시스템.
Figure 112020054622836-pat00015

The method of claim 1,
the u-th lightweight residual block
Figure 112020054622836-pat00013
And the u-th chain residual recursive block is
Figure 112020054622836-pat00014
In the case of, the u-th specific information H u is a residual network system calculated through the following equation.
Figure 112020054622836-pat00015

제 1 항에 있어서,
상기 복수의 경량 잔차 블록들 각각은 두 개의 제 1 컨볼루션 블록과 한 개의 제 2 컨볼루션 블록으로 구성되는 잔차 네트워크 시스템.
The method of claim 1,
Each of the plurality of lightweight residual blocks includes two first convolution blocks and one second convolution block.
제 5 항에 있어서,
상기 제 1 컨볼루션 블록은 특정 크기의 그룹 컨볼루션이며, 상기 제 2 컨볼루션은 점별(pointwise) 컨볼루션인 잔차 네트워크 시스템.
The method of claim 5,
The first convolution block is a group convolution of a specific size, and the second convolution is a pointwise convolution.
제 6 항에 있어서,
상기 특정 크기는 사용자로부터 획득한 입력정보에 의해서 가변적으로 결정되는 잔차 네트워크 시스템.
The method of claim 6,
A residual network system in which the specific size is variably determined by input information obtained from a user.
제 1 항에 있어서,
상기 연쇄 잔차 네트워크는 서로 다른 세 가지 스케일의 저 해상도 이미지를 하나의 모델로 처리하기 위한 업 샘플링 블록을 더 포함하는 잔차 네트워크 시스템.
The method of claim 1,
The concatenated residual network further includes an up-sampling block for processing low-resolution images of three different scales into one model.
제 1 항의 이미지 보정을 위한 잔차 네트워크(Residual network) 시스템이 구현된 컴퓨터 프로그램을 기록한 컴퓨터로 판독 가능한 기록매체.
A computer-readable recording medium recording a computer program in which the residual network system for image correction of claim 1 is implemented.
KR1020180034300A 2018-03-26 2018-03-26 Residual Network system for correcting low resolution image KR102192392B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020180034300A KR102192392B1 (en) 2018-03-26 2018-03-26 Residual Network system for correcting low resolution image
PCT/KR2018/014209 WO2019190017A1 (en) 2018-03-26 2018-11-19 Residual network system for low resolution image correction

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180034300A KR102192392B1 (en) 2018-03-26 2018-03-26 Residual Network system for correcting low resolution image

Publications (2)

Publication Number Publication Date
KR20190112384A KR20190112384A (en) 2019-10-07
KR102192392B1 true KR102192392B1 (en) 2020-12-17

Family

ID=68059104

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180034300A KR102192392B1 (en) 2018-03-26 2018-03-26 Residual Network system for correcting low resolution image

Country Status (2)

Country Link
KR (1) KR102192392B1 (en)
WO (1) WO2019190017A1 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110930327B (en) * 2019-11-18 2022-09-23 浙江工商大学 Video denoising method based on cascade depth residual error network
CN110930416B (en) * 2019-11-25 2022-05-06 宁波大学 MRI image prostate segmentation method based on U-shaped network
CN111091515B (en) * 2019-12-24 2022-08-09 展讯通信(天津)有限公司 Image restoration method and device, and computer-readable storage medium
US11967044B2 (en) 2020-03-30 2024-04-23 Silicon Works Co., Ltd. Device and method for upscaling resolution based on slice image
CN111861961B (en) * 2020-07-25 2023-09-22 安徽理工大学 Single image super-resolution multi-scale residual error fusion model and restoration method thereof
CN112418336B (en) * 2020-11-27 2024-01-23 广东电网有限责任公司肇庆供电局 Dense matching method for power line inspection images
KR20220155737A (en) 2021-05-17 2022-11-24 한국전자통신연구원 Apparatus and method for generating super-resolution image using light-weight convolutional neural network

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014222442A (en) 2013-05-14 2014-11-27 日本放送協会 Space and gradation super-resolution device and program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004090812A1 (en) * 2003-04-10 2004-10-21 Koninklijke Philips Electronics N.V. Spatial image conversion
WO2013036972A1 (en) * 2011-09-09 2013-03-14 Panamorph, Inc. Image processing system and method
EP3326148A1 (en) * 2015-07-24 2018-05-30 Öztireli, Ahmet Cengiz Image processing system for downscaling images using perceptual downscaling method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014222442A (en) 2013-05-14 2014-11-27 日本放送協会 Space and gradation super-resolution device and program

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"Enhanced Deep Residual Networks for Single Image Super-Resolution", The IEEE Conference on Computer Vision and Pattern Recognition(CVPR)(pp. 136-144), 2017.
"Image Super-Resolution via Deep Recursive Residual Network", The IEEE Conference on Computer Vision and Pattern Recognition(CVPR)(pp. 3147-3155), 2017.

Also Published As

Publication number Publication date
KR20190112384A (en) 2019-10-07
WO2019190017A1 (en) 2019-10-03

Similar Documents

Publication Publication Date Title
KR102192392B1 (en) Residual Network system for correcting low resolution image
CN109657688B (en) Learning method and device for improving CNN performance by using feature up-sampling network and testing method and device by using feature up-sampling network
CN106991646B (en) Image super-resolution method based on dense connection network
CN111028150B (en) Rapid space-time residual attention video super-resolution reconstruction method
KR101990092B1 (en) Apparatus and method for compressing image
JP2019125351A (en) Method for performing calculating in folding layer of folding neutral network and device
JPWO2017125980A1 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM
WO2018168539A1 (en) Learning method and program
JP7133045B2 (en) Feature map enlargement method, apparatus, equipment and computer-readable storage medium
JP3701522B2 (en) Image encoding apparatus, image encoding method, and computer-readable recording medium
KR20190059157A (en) Method and Apparatus for Improving Image Quality
CN112291570B (en) Real-time video enhancement method based on lightweight deformable convolutional neural network
KR20220120674A (en) 3D reconstruction method, apparatus, apparatus and storage medium
JP2023523047A (en) Image processing method, apparatus, computer equipment and storage medium
KR102122065B1 (en) Super resolution inference method and apparatus using residual convolutional neural network with interpolated global shortcut connection
KR102170547B1 (en) Device and method for reconstructing high resolution image based on super-resolution convolutional neural network
KR102167344B1 (en) The method and system for designing depth controllable neural networks for super resolution reconstruction
KR20230038144A (en) Video processing method, device, device, decoder, system and storage medium
KR102092205B1 (en) Image processing method and apparatus for generating super resolution, inverse tone mapping and joint super resolution-inverse tone mapping processed multiple output image
CN113850721A (en) Single image super-resolution reconstruction method, device and equipment and readable storage medium
KR102582706B1 (en) Method and apparatus for image super resolution
TWI826160B (en) Image encoding and decoding method and apparatus
CN117078539A (en) CNN-transducer-based local global interactive image restoration method
KR102625151B1 (en) Method, apparatus and recording medium for using padding/trimming in compressive neural network
CN115471417A (en) Image noise reduction processing method, apparatus, device, storage medium, and program product

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right