KR20200071866A - Method and apparatus for machine-learning based processing of high-resolution image - Google Patents

Method and apparatus for machine-learning based processing of high-resolution image Download PDF

Info

Publication number
KR20200071866A
KR20200071866A KR1020180155407A KR20180155407A KR20200071866A KR 20200071866 A KR20200071866 A KR 20200071866A KR 1020180155407 A KR1020180155407 A KR 1020180155407A KR 20180155407 A KR20180155407 A KR 20180155407A KR 20200071866 A KR20200071866 A KR 20200071866A
Authority
KR
South Korea
Prior art keywords
image
resolution
machine learning
present
low
Prior art date
Application number
KR1020180155407A
Other languages
Korean (ko)
Other versions
KR102599675B1 (en
Inventor
전병우
박영현
이재린
Original Assignee
성균관대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 성균관대학교산학협력단 filed Critical 성균관대학교산학협력단
Priority to KR1020180155407A priority Critical patent/KR102599675B1/en
Publication of KR20200071866A publication Critical patent/KR20200071866A/en
Application granted granted Critical
Publication of KR102599675B1 publication Critical patent/KR102599675B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4046Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Processing (AREA)

Abstract

The present invention relates to a method and a device for processing a high-resolution image by using machine learning. According to one embodiment of the present invention, the device for processing the high-resolution image by using machine learning comprises: a downsampling part generating a low-resolution image by reducing a spatial resolution of a high-resolution input image; a machine learning processing part calculating a low-resolution output image by using the generated low-resolution image as input of a machine learning network; and an image conversion part converting the high-resolution input image and the calculated low-resolution output image according to the characteristics of the calculated low-resolution output image to output a high-resolution result image. Therefore, a computational complexity of processing high-resolution images through machine learning can be reduced.

Description

기계학습을 이용한 고해상도 영상의 처리 방법 및 장치{METHOD AND APPARATUS FOR MACHINE-LEARNING BASED PROCESSING OF HIGH-RESOLUTION IMAGE}METHOD AND APPARATUS FOR MACHINE-LEARNING BASED PROCESSING OF HIGH-RESOLUTION IMAGE}

본 발명은 기계학습을 이용한 고해상도 영상의 처리 방법 및 장치에 관한 것이다.The present invention relates to a method and apparatus for processing high-resolution images using machine learning.

주어진 입력영상에 대한 일련의 처리과정을 통해 영상 스타일 변경, 화질 향상과 같은 기술을 적용하는 데에 있어, 기계학습기술을 이용할 수가 있다. 기계학습기술은 합성곱기반 신경망(Convolutional Neural Network, CNN), 오토인코더(Auto Encoder), 생성적 대립 네트워크(Generative Adversarial Network, GAN)의 원리를 이용하여 입력영상으로부터 새로운 형태의 영상을 출력한다. Machine learning techniques can be used to apply techniques such as changing image style and improving image quality through a series of processing on a given input image. The machine learning technology outputs a new type of image from the input image using the principles of a convolutional neural network (CNN), an auto encoder, and a generative adversarial network (GAN).

이러한 기계학습 기반 영상처리 과정에서, 종래에는 영상을 블록단위로 자른 다음, 각 블록을 기계학습 네트워크에 입력하여 산출되는 출력 블록영상들을 합치는 과정을 수행하였다. 이는 사용하는 기계학습 네트워크의 높은 공간 및 연산복잡도로 인하여, 고화질(High Definition, HD)이상 크기를 갖는 영상을 처리하기 위함이다. 이러한 과정에서, 영상에서 산출되는 블록 갯수만큼 기계학습 과정을 반복하여야 하고, 이후에 블록을 합치는 과정으로 인해 연산복잡도가 높아지는 문제가 있다. 또한, 블록단위의 영상처리로 인한 결과영상에서 관찰되는 블록경계가 보이는 화질열화 문제가 있다.In such a machine learning-based image processing process, in the related art, an image is cut into blocks, and then each block is input to a machine learning network to combine output block images. This is to process an image having a size higher than High Definition (HD) due to the high spatial and computational complexity of the machine learning network used. In this process, the machine learning process must be repeated as many as the number of blocks calculated from the image, and there is a problem in that the computational complexity increases due to the process of combining the blocks. In addition, there is a problem of image quality deterioration in which a block boundary observed in a result image due to block-based image processing is visible.

이와 같이, 종래에는 기계학습 기술을 이용한 영상처리 기술에서 기계학습 네트워크 자체의 높은 연산복잡도로 인해, HD급 이상의 고해상도 영상을 다루기 위해서는 고사양/고비용의 영상처리시스템을 구축하거나, 오랜 연산시간을 수행하여야 했다. 그렇지 않으면, 표준 화질(Standard Definition, SD)급의 저해상도 영상을 처리하여야 했다.As described above, due to the high computational complexity of the machine learning network itself in the image processing technique using the machine learning technique, a high specification/expensive image processing system must be established or a long computation time must be performed in order to handle high-resolution images of HD level or higher. did. Otherwise, standard definition (SD)-class low-resolution images had to be processed.

본 발명의 실시 예들은 기계학습을 통해 고해상도의 영상을 처리하는 과정의 연산복잡도를 줄이는, 기계학습을 이용한 고해상도 영상의 처리 방법 및 장치를 제공하고자 한다.Embodiments of the present invention are to provide a method and apparatus for processing a high resolution image using machine learning, which reduces computational complexity in a process of processing a high resolution image through machine learning.

본 발명의 실시 예들은 고해상도 입력영상과 기계학습을 통해 산출된 영상 간 관계를 이용하여 고해상도의 결과영상을 산출하는, 기계학습을 이용한 고해상도 영상의 처리 방법 및 장치를 제공하고자 한다.Embodiments of the present invention are to provide a method and apparatus for processing a high resolution image using machine learning, which calculates a high resolution result image using a relationship between a high resolution input image and an image calculated through machine learning.

본 발명의 실시 예들은 고해상도 영상을 입력으로 하여 일련의 다운샘플링, 기계학습 처리과정 및 영상 복원 과정을 통해 고해상도 출력 영상을 생성하는, 기계학습을 이용한 고해상도 영상의 처리 방법 및 장치를 제공하고자 한다.Embodiments of the present invention are to provide a method and apparatus for processing a high-resolution image using machine learning, which generates a high-resolution output image through a series of downsampling, machine learning processing, and image restoration processes using high-resolution images as input.

본 발명의 일 실시 예에 따르면, 고해상도 입력영상의 공간해상도를 줄여 저해상도 영상을 생성하는 다운샘플링부; 상기 생성된 저해상도 영상을 기계학습 네트워크의 입력으로 하여 저해상도의 출력영상을 산출하는 기계학습 처리부; 및 상기 고해상도 입력영상과 상기 산출된 저해상도의 출력영상을 상기 산출된 저해상도의 출력영상의 특성에 따라 변환하여 고해상도 결과영상을 출력하는 영상 변환부를 포함하는, 기계학습을 이용한 고해상도 영상의 처리 장치를 제공하고자 한다.According to an embodiment of the present invention, a down-sampling unit for generating a low-resolution image by reducing the spatial resolution of the high-resolution input image; A machine learning processor configured to calculate the low-resolution output image by using the generated low-resolution image as an input to the machine learning network; And an image converting unit for converting the high-resolution input image and the calculated low-resolution output image according to the characteristics of the calculated low-resolution output image and outputting a high-resolution result image. I want to.

본 발명의 실시 예들은 기계학습을 이용한 고해상도 영상의 처리 과정을 통해, HD급 이상 고해상도의 입력영상의 기계학습 처리과정을 한 번만 수행하거나, 응용분야에 따라 단 몇 번의 수행만으로도 고해상도 영상을 출력하는 것이 가능해져 연산복잡도를 절감할 수 있다.According to embodiments of the present invention, through a process of processing a high-resolution image using machine learning, the machine learning process of an input image of a high-definition or higher-definition image is performed only once, or a high-resolution image is output only by performing a few times depending on the application field. This makes it possible to reduce computational complexity.

도 1은 본 발명의 일 실시 예에 따른 기계학습을 이용한 고해상도 영상의 처리 장치의 구성을 설명하기 위한 도면이다.
도 2는 도 1의 기계학습 처리부에 대한 입력과 출력에 대한 관계를 설명하기 위한 도면이다.
도 3은 도 1의 영상 변환부에 대한 입력과 출력에 대한 관계를 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시 예에 따른 고해상도 영상의 처리 장치를 가시영역 및 근적외선영역 영상 분리 기술의 실시예에 적용하는 경우를 설명하기 위한 도면이다.
도 5는 도 4의 기계학습 처리부를 보다 구체화한 구성을 설명하기 위한 도면이다.
도 6은 도 4의 영상 변환부의 내부 처리과정을 설명하기 위한 도면이다.
도 7은 본 발명의 실시 예에 따른 가시영역 및 근적외선 분리 네트워크를 설명하기 위한 도면이다.
도 8은 본 발명의 실시 예에 따른 고해상도 가시영역 및 근적외선 영상 획득 과정을 설명하기 위한 도면이다.
도 9는 본 발명의 실시 예에 따른 방법에 대한 실험결과를 설명하기 위한 도면이다.
1 is a view for explaining the configuration of a high-resolution image processing apparatus using machine learning according to an embodiment of the present invention.
FIG. 2 is a view for explaining the relationship between input and output to the machine learning processing unit of FIG. 1.
FIG. 3 is a diagram for explaining a relationship between input and output to the image converter of FIG. 1.
4 is a view for explaining a case in which a high-resolution image processing apparatus according to an embodiment of the present invention is applied to an embodiment of a separation technique for visible and near-infrared regions.
FIG. 5 is a view for explaining a configuration in which the machine learning processing unit of FIG. 4 is further embodied.
6 is a view for explaining the internal processing of the image converter of FIG. 4.
7 is a view for explaining a visible area and a near-infrared separation network according to an embodiment of the present invention.
8 is a view for explaining a high-resolution visible region and a near-infrared image acquisition process according to an embodiment of the present invention.
9 is a view for explaining the experimental results for the method according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는바, 특정 실시 예들을 도면에 예시하고 상세하게 설명하고자 한다.The present invention can be applied to various changes and can have various embodiments, and specific embodiments will be illustrated in the drawings and described in detail.

그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.However, this is not intended to limit the present invention to specific embodiments, and should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Terms such as first and second may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from other components. For example, the first component may be referred to as a second component without departing from the scope of the present invention, and similarly, the second component may be referred to as a first component. The term and/or includes a combination of a plurality of related described items or any one of a plurality of related described items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. When an element is said to be "connected" or "connected" to another component, it is understood that other components may be directly connected to or connected to the other component, but there may be other components in between. It should be. On the other hand, when a component is said to be "directly connected" or "directly connected" to another component, it should be understood that no other component exists in the middle.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the present application are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this application, terms such as “include” or “have” are intended to indicate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, one or more other features. It should be understood that the existence or addition possibilities of fields or numbers, steps, operations, components, parts or combinations thereof are not excluded in advance.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by a person skilled in the art to which the present invention pertains. Terms such as those defined in a commonly used dictionary should be interpreted as having meanings consistent with meanings in the context of related technologies, and should not be interpreted as ideal or excessively formal meanings unless explicitly defined in the present application. Does not.

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 본 발명을 설명함에 있어 전체적인 이해를 용이하게 하기 위하여 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In order to facilitate the overall understanding in describing the present invention, the same reference numerals are used for the same components in the drawings, and duplicate descriptions for the same components are omitted.

도 1은 본 발명의 일 실시 예에 따른 기계학습을 이용한 고해상도 영상의 처리 장치의 구성을 설명하기 위한 도면이다.1 is a view for explaining the configuration of a high-resolution image processing apparatus using machine learning according to an embodiment of the present invention.

도 1에 도시된 바와 같이, 본 발명의 일 실시 예에 따른 기계학습을 이용한 고해상도 영상의 처리 장치(100)는 다운샘플링부(110), 기계학습 처리부(120) 및 영상 변환부(130)를 포함한다. 그러나 도시된 구성요소 모두가 필수 구성요소인 것은 아니다. 도시된 구성요소보다 많은 구성요소에 의해 구현될 수도 있고, 그보다 적은 구성요소에 의해서도 구현될 수 있다.As shown in FIG. 1, the apparatus 100 for processing a high-resolution image using machine learning according to an embodiment of the present invention includes a downsampling unit 110, a machine learning processing unit 120, and an image conversion unit 130. Includes. However, not all of the illustrated components are essential components. It may be implemented by more components than the illustrated components, or may be implemented by fewer components.

본 발명의 일 실시 예에 따른 기계학습을 이용한 고해상도 영상의 처리 장치(100)는 고해상도 입력 영상을 기계학습 네트워크의 입력크기에 맞는 공간 해상도로 줄이는 다운샘플링과정을 수행한다. 고해상도 영상의 처리 장치(100)는 다운샘플링된 저해상도 영상을 기계학습 네트워크의 입력으로 하여 저해상도의 출력영상을 산출한다. 이러한 과정에서 수행하는 기계학습 네트워크의 수행 횟수는 응용에 따라 다를 수 있으나, 본 발명의 일 실시 예에서는 단 한번 만 수행한다.The apparatus 100 for processing a high resolution image using machine learning according to an embodiment of the present invention performs a downsampling process of reducing the high resolution input image to a spatial resolution suitable for an input size of the machine learning network. The high-resolution image processing apparatus 100 calculates a low-resolution output image by using the down-sampled low-resolution image as an input to the machine learning network. The number of times the machine learning network is performed in this process may vary depending on the application, but is performed only once in one embodiment of the present invention.

또한, 본 발명의 일 실시 예에 따른 기계학습을 이용한 고해상도 영상의 처리 장치(100)는 고해상도 입력영상과 기계학습 네트워크를 통해 산출한 저해상도 영상을 이용한 영상 처리과정을 통해 고해상도의 결과영상을 산출한다. 이러한 과정에서 본 발명의 일 실시 예에서는 영상처리과정 내에서 영상분할과정 및 컬러/밝기 변환 과정을 수행한다.In addition, the apparatus 100 for processing a high resolution image using machine learning according to an embodiment of the present invention calculates a high resolution result image through an image processing process using a high resolution input image and a low resolution image calculated through a machine learning network. . In this process, in one embodiment of the present invention, an image segmentation process and a color/brightness conversion process are performed within an image processing process.

이하, 도 1의 기계학습을 이용한 고해상도 영상의 처리 장치(100)의 각 구성요소들의 구체적인 구성 및 동작을 설명한다.Hereinafter, a detailed configuration and operation of each component of the high-resolution image processing apparatus 100 using the machine learning of FIG. 1 will be described.

도 1은 본 발명의 일 실시 예에 따른 전체 구조를 대표하는 장치에 대한 구조도이다. 도 1은 고해상도 입력영상으로부터 고해상도 결과영상을 산출하는 구조를 나타낸다. 1 is a structural diagram of a device representing the entire structure according to an embodiment of the present invention. 1 shows a structure for calculating a high resolution result image from a high resolution input image.

고해상도 영상의 처리 장치(100)는 다운샘플링부(110)를 통해 고해상도 입력영상의 공간해상도를 줄여 저해상도 영상을 생성한다. 다운샘플링부(110)는 고해상도 영상의 공간해상도를 줄이는 과정을 수행한다. 본 과정에서는 영상의 공간해상도를 줄일 수 있는 방법이라면 어떠한 방법을 사용해도 무방하다.The high-resolution image processing apparatus 100 reduces the spatial resolution of the high-resolution input image through the down-sampling unit 110 to generate a low-resolution image. The downsampling unit 110 performs a process of reducing the spatial resolution of the high resolution image. In this process, any method can be used as long as it can reduce the spatial resolution of the image.

기계학습 처리부(120)는 입력되는 저해상도 영상으로부터 변환된 저해상도 영상을 출력한다. 여기에서 사용하는 기계학습 방법은 영상을 입력받아 영상을 출력할 수 있는 컨볼루션 신경망(Convolutional Neural Network, CNN), 오토인코더(Autoencoder), 생성 대립 네트워크(Generative Adversarial Network, GAN)과 같은 통상의 기계학습 네트워크의 사용이 가능하다.The machine learning processing unit 120 outputs a low-resolution image converted from the input low-resolution image. The machine learning method used here is a conventional machine such as a convolutional neural network (CNN), an autoencoder, and a generative adversarial network (GAN) that can receive images and output images. The use of learning networks is possible.

영상 변환부(130)는 고해상도 입력영상과 저해상도의 기계학습 결과 영상을 입력받아, 기계학습 결과영상의 밝기, 색상, 텍스쳐와 유사한 형태의 고해상도 결과영상을 출력한다. 영상 변환부(130)의 처리 방법은 실시예에 따라 차이가 생길 수 있으며, 본 발명에서는 가시영역 및 근적외선영역 영상 분리를 위한 처리 방법에 따른 영상 변환부(130)를 도 6에서 설명하고 있다.The image converter 130 receives a high-resolution input image and a low-resolution machine learning result image, and outputs a high-resolution result image in a form similar to the brightness, color, and texture of the machine learning result image. The processing method of the image conversion unit 130 may vary according to an embodiment, and in the present invention, the image conversion unit 130 according to a processing method for separating a visible region and a near infrared region image is described in FIG. 6.

도 2는 도 1의 기계학습 처리부에 대한 입력과 출력에 대한 관계를 설명하기 위한 도면이다.FIG. 2 is a view for explaining the relationship between input and output to the machine learning processing unit of FIG. 1.

도 2는 본 발명의 일 실시 예에 따른 고해상도 영상의 처리 장치(100)의 기계학습 처리부(120)에 대한 입력과 출력에 대한 관계를 도식화한 것이다. 본 발명의 일 실시 예에서 사용하는 기계학습 처리부(120)는 저해상도 입력영상으로부터 실시예에 맞는 기계학습 처리과정을 통해 저해상도의 기계학습 출력영상을 산출한다.2 is a diagram illustrating a relationship between an input and an output to the machine learning processing unit 120 of the apparatus 100 for processing high-resolution images according to an embodiment of the present invention. The machine learning processing unit 120 used in an embodiment of the present invention calculates a low-resolution machine learning output image through a machine learning processing process according to an embodiment from a low-resolution input image.

도 3은 도 1의 영상 변환부에 대한 입력과 출력에 대한 관계를 설명하기 위한 도면이다.FIG. 3 is a diagram for explaining a relationship between input and output to the image converter of FIG. 1.

도 3은 본 발명의 일 실시 예에 따른 고해상도 영상의 처리 장치(100)의 영상 변환부(130)에 대한 입력과 출력에 대한 관계를 도식화한 것이다. 본 발명의 일 실시 예에서 사용하는 영상 변환부(130)는 고해상도 입력영상과 저해상도 기계학습 출력영상을 입력받아 실시예에 맞는 영상 변한 과정을 통해 고해상도의 결과영상을 출력한다.3 is a diagram illustrating a relationship between an input and an output to the image converter 130 of the apparatus 100 for processing a high resolution image according to an embodiment of the present invention. The image converter 130 used in an embodiment of the present invention receives a high-resolution input image and a low-resolution machine learning output image and outputs a high-resolution result image through a process of changing the image according to the embodiment.

도 4 내지 도 6은 본 발명의 다른 실시 예에 대한 것으로, 가시영역 및 근적외선영역 혼합 입력영상으로부터 가시영역 영상 및 근적외선 영상으로 분리하는 것을 나타낸다.4 to 6 are for another embodiment of the present invention, showing that the separation from the visible and near-infrared region mixed input image into visible and near-infrared images.

도 4는 본 발명의 일 실시 예에 따른 고해상도 영상의 처리 장치를 가시영역 및 근적외선영역 영상 분리 기술의 실시예에 적용하는 경우를 설명하기 위한 도면이다.4 is a view for explaining a case in which a high-resolution image processing apparatus according to an embodiment of the present invention is applied to an embodiment of a separation technique for visible and near-infrared regions.

도 4는 본 발명의 일 실시 예에 따른 고해상도 영상의 처리 장치(100)를 가시영역 및 근적외선영역 영상 분리 기술의 실시예에 적용하는 경우에 대한 것을 도식화한 것이다.4 is a diagram illustrating a case in which the apparatus 100 for processing a high-resolution image according to an embodiment of the present invention is applied to an embodiment of a technique for separating visible and near-infrared regions.

도 4의 입력인 고해상도의 가시영역과 근적외선영역이 혼합된 입력영상은 종래 카메라의 내부에 있는 적외선 차단 필터를 제거한 다음 촬영한 영상을 의미한다.The input image in which the high-resolution visible region and the near-infrared region, which is the input of FIG. 4 are mixed, refers to an image captured after removing the infrared cut filter inside the conventional camera.

도 4의 다운샘플링부(110), 기계학습 처리부(120), 영상 변환부(130)의 일련의 과정을 통해 고해상도 가시영역 결과영상 및 고해상도 근적외선영역 결과영상을 산출한다.The high-resolution visible region result image and the high-resolution near-infrared region result image are calculated through a series of processes of the down-sampling unit 110, the machine learning processing unit 120, and the image conversion unit 130 of FIG.

도 5는 도 4의 기계학습 처리부를 보다 구체화한 구성을 설명하기 위한 도면이다.FIG. 5 is a view for explaining a configuration in which the machine learning processing unit of FIG. 4 is further embodied.

도 5는 본 발명의 일 실시 예에 따른 고해상도 영상의 처리 장치(100)의 기계학습 처리부(120)를 보다 구체화한 것이다. 기계학습 처리부(120)는 기계학습 기반 가시영역 분리영상 산출부(121) 및 기계학습 기반 근적외선영역 분리영상 산출부(122)를 포함한다. 도 5는 도 2의 기계학습 처리부(120)의 가시영역 및 근적외선영역 영상 분리 기술의 실시예에 적용하는 경우에 대한 것을 도식화한 것이다.5 is a detailed embodiment of the machine learning processing unit 120 of the apparatus 100 for processing high-resolution images according to an embodiment of the present invention. The machine learning processing unit 120 includes a machine learning based visible region separated image calculator 121 and a machine learning based near infrared region separated image calculator 122. FIG. 5 is a diagram illustrating a case in which the machine learning processing unit 120 of FIG. 2 is applied to an embodiment of a technique of separating visible and near-infrared regions.

도 5의 입력인 저해상도 가시영역 및 근적외선영역 혼합 입력영상은 고해상도 가시영역 및 근적외선영역 혼합 입력영상을 다운샘플링과정을 거친 후에 산출된 영상이다.The input image of the low-resolution visible region and the near-infrared region, which is the input of FIG. 5, is an image calculated after the down-sampling process of the high-resolution visible region and the near-infrared region mixed input image.

도 5의 입력영상은 기계학습 기반 가시영역 분리영상 산출부(121) 및 근적외선영역 분리영상 산출부(122)로 입력되어 각 산출부로부터 저해상도 가시영역 출력영상 및 저해상도 근적외선영역 출력영상을 산출한다.The input image of FIG. 5 is input to the machine learning based visible region separated image calculator 121 and the near infrared region separated image calculator 122 to calculate a low resolution visible region output image and a low resolution near infrared region output image from each calculator.

도 6은 도 4의 영상 변환부의 내부 처리과정을 설명하기 위한 도면이다.6 is a view for explaining the internal processing of the image converter of FIG. 4.

도 6는 도 4의 영상 변환부(130)의 내부 처리과정을 나타내며, 도 3을 가시영역 및 근적외선영역 영상 분리 기술의 실시예에 적용하는 경우에 대한 것을 도식화한 것이다.FIG. 6 shows an internal processing process of the image conversion unit 130 of FIG. 4 and schematically illustrates a case in which FIG. 3 is applied to an embodiment of an image separation technique for visible and near-infrared regions.

도 6의 고해상도 가시영역 및 근적외선영역 혼합 입력영상은 도 4의 입력영상과 동일하다.The high-resolution visible and near-infrared region mixed input image of FIG. 6 is the same as the input image of FIG. 4.

도 6의 저해상도 가시영역 출력영상 및 저해상도 근적외선영역 출력영상은 도 5의 출력영상과 동일하다.The low-resolution visible region output image and the low-resolution near-infrared region output image of FIG. 6 are the same as the output image of FIG. 5.

도 6의 고해상도 가시영역 결과영상 및 고해상도 근적외선영역 결과영상은 도 4의 출력영상과 동일하다.The high-resolution visible region result image and the high-resolution near-infrared region result image of FIG. 6 are the same as the output image of FIG. 4.

도 6의 색공간 변환부(RGB to HSV)(131)는 RGB컬러공간 영상을 HSV컬러공간 영상으로 변환하는 과정을 수행한다. 색공간 변환부(HSV to RGB)(132)는 HSV컬러공간영상을 RGB컬러공간 영상으로 변환하는 과정을 수행한다. 여기에서 사용하는 색공간 변환부(131, 132)는 HSV로 변환하는 것만 한정 짓지는 않고, 실시예에 맞는 컬러공간을 사용할 수 있다.The color space converter (RGB to HSV) 131 of FIG. 6 performs a process of converting an RGB color space image into an HSV color space image. The color space conversion unit (HSV to RGB) 132 converts the HSV color space image into an RGB color space image. The color space converters 131 and 132 used herein are not limited to converting to HSV, and a color space suitable for an embodiment can be used.

도 6의 업샘플링(133)은 저해상도 영상을 입력받아 고해상도 영상을 출력한다. 업샘플링 방법은 낮은 공간해상도의 영상을 높은 공간해상도로 변환할 수 있는 것이면 되며, 그 방법을 한정짓지는 않는다.The upsampling 133 of FIG. 6 receives a low resolution image and outputs a high resolution image. The upsampling method only needs to be able to convert a low spatial resolution image to a high spatial resolution, and does not limit the method.

도 6의 영상영역 분할부(134)는 입력영상으로부터 영역분할 맵을 출력한다. 본 발명의 다른 실시 예에서는 K-평균 클러스터링 기반 영역분할 방법을 사용하였으나, 영역 분할이 가능한 방법을 따로 한정짓지는 않으며, 어떠한 방법을 사용해도 무방하다.The image region division unit 134 of FIG. 6 outputs a region division map from the input image. In another embodiment of the present invention, the K-average clustering based region division method is used, but the method capable of region division is not limited, and any method may be used.

도 6의 컬러/밝기 변환부(135)는 고해상도 입력영상의 컬러 및 밝기를 변화시켜 변화된 고해상도 영상을 출력하는데, 이 과정에서 기계학습과정을 통해 산출된 저해상도 영상 및 영역 분할 맵이 사용된다.The color/brightness conversion unit 135 of FIG. 6 changes the color and brightness of the high-resolution input image and outputs the changed high-resolution image. In this process, a low-resolution image and an area division map calculated through a machine learning process are used.

이하, 본 발명의 실시 예와 관련한 구체적인 방법을 설명하기로 한다.Hereinafter, a specific method related to the embodiment of the present invention will be described.

본 발명의 실시 예에서 사용되는 가시영역 및 근적외선영역 분리의 모델(Model of Visible and Near-infrared Separation)을 살펴보기로 한다. The model of visible and near-infrared separation used in the embodiment of the present invention will be described.

가시영역과 근적외선이 혼합된 영상을 획득하기 위해 본 발명의 실시 예에서는 일반 카메라에 있는 IR 핫 미러(hot-mirror)를 제거하는 작업을 수행한다. 해당 카메라로부터 획득되는 영상은 다음과 같은 식 (1)으로 표현이 가능하다. 가시영역 및 근적외선영역 혼합 영상의 모델(Model of VIS+NIR mixed image)이다. In order to obtain an image in which the visible region and the near infrared ray are mixed, an embodiment of the present invention removes the IR hot-mirror in the general camera. The image obtained from the camera can be expressed by the following equation (1). Model of VIS+NIR mixed image.

Figure pat00001
(1)
Figure pat00001
(One)

여기서,

Figure pat00002
,
Figure pat00003
Figure pat00004
은 R,G,B 각 채널별 픽셀 값을 나타낸다.
Figure pat00005
,
Figure pat00006
Figure pat00007
는 RGB컬러필터배열에 의한 투과응답 함수이며,
Figure pat00008
는 광원에 대한 함수이다.
Figure pat00009
는 물체에 의한 반사특성 함수이다. 위의 식으로부터, 카메라 전면에 가시영역 밴드통과 필터를 장착한다음 영상을 촬영하는 경우는 다음과 같이 표현 가능하다. 가시영역 영상의 모델(Model of VIS image)이다. here,
Figure pat00002
,
Figure pat00003
And
Figure pat00004
Indicates a pixel value for each channel of R, G, and B.
Figure pat00005
,
Figure pat00006
And
Figure pat00007
Is the transmission response function by the RGB color filter arrangement,
Figure pat00008
Is a function for the light source.
Figure pat00009
Is a function of the reflection characteristic by an object. From the equation above, when attaching the visible band pass filter to the front of the camera, the following can be expressed when shooting an image. Model of VIS image.

Figure pat00010
(2)
Figure pat00010
(2)

여기서,

Figure pat00011
는 가시영역 대역통과필터에 대한 응답함수이며, 가시영역 내에서
Figure pat00012
가 일정한 경우에는
Figure pat00013
와 같이 표현 가능하다. 근적외선 영상의 경우도 마찬가지로 아래와 같은 표현이 가능하다. 근적외선영역 영상의 모델(Model of NIR image)이다. here,
Figure pat00011
Is the response function for the visible band pass filter and within the visible area
Figure pat00012
If is constant
Figure pat00013
Can be expressed as In the case of a near-infrared image, the following expression is also possible. It is a model of near infrared region image.

Figure pat00014
(3)
Figure pat00014
(3)

여기서,

Figure pat00015
는 근적외선영역 대역통과필터의 응답함수이며, 근적외선영역에서
Figure pat00016
이 일정하면
Figure pat00017
과 같이 표현 가능하다. 또한, 이상적인 경우 근적외선 대역에서의
Figure pat00018
는 동일하며,
Figure pat00019
하나로 표현 가능하다.here,
Figure pat00015
Is the response function of the band pass filter in the near infrared region, and in the near infrared region
Figure pat00016
If this is constant
Figure pat00017
Can be expressed as Also, in the ideal case, in the near-infrared band
Figure pat00018
Is the same,
Figure pat00019
It can be expressed as one.

위의 식으로부터 다음과 같은 분리 식을 통해 가시영역과 근적외선영역 영상의 획득이 가능하다.From the above equation, it is possible to acquire the visible and near-infrared region images through the following separation formula.

Figure pat00020
(4)
Figure pat00020
(4)

여기서,

Figure pat00021
는 분리식을 통해 획득한 가시영역 및 근적외선 영상이며,
Figure pat00022
는 각각 가시영역 및 근적외선 영역의 대역통과필터에 의한 가중치이다. 위의 식은 압축센싱을 이용한 방법 또는 딥러닝을 이용한 방법으로 풀이가 가능하며, 본 발명의 실시 예에서는 딥러닝을 이용한 방법을 통해 가시영역 및 근적외선 영역을 분리하였다.here,
Figure pat00021
Is a visible region and near-infrared image obtained through a separation equation,
Figure pat00022
Is a weight by a band pass filter in the visible and near infrared regions, respectively. The above equation can be solved by a method using compression sensing or a method using deep learning. In the embodiment of the present invention, a visible region and a near infrared region are separated through a method using deep learning.

이하, 도 7 및 도 8을 참조하여, 본 발명의 실시 예에 따른 가시영역 및 근적외선 분리과정의 전체 블록 다이어그램을 설명하기로 한다.Hereinafter, with reference to FIGS. 7 and 8, an entire block diagram of a visible region and near-infrared separation process according to an embodiment of the present invention will be described.

도 7은 본 발명의 실시 예에 따른 가시영역 및 근적외선 분리 네트워크를 설명하기 위한 도면이다.7 is a view for explaining a visible area and a near-infrared separation network according to an embodiment of the present invention.

도 7은 고해상도 입력영상으로부터 저해상도의 가시영역 및 근적외선 영상을 분리하는 딥러닝 네트워크를 도식화한 것이다. 본 발명의 실시 예에서 사용한 딥러닝 네트워크는 가시영역 및 근적외선 영상 각각에 대해 조건적 생성 대립 네트워크(conditional generative adversarial network, cGAN)을 적용하였으며, 고해상도의 가시영역 및 근적외선 혼합영상을 다운샘플링 한 다음, 각 네트워크의 입력으로 사용한다. 7 is a diagram of a deep learning network separating a low-resolution visible region and a near infrared image from a high-resolution input image. In the deep learning network used in the embodiment of the present invention, a conditional generative adversarial network (cGAN) was applied to each of the visible and near-infrared images, and after downsampling the high-resolution visible and near-infrared mixed images, Used as input for each network.

도 8은 본 발명의 실시 예에 따른 고해상도 가시영역 및 근적외선 영상 획득 과정을 설명하기 위한 도면이다.8 is a view for explaining a high-resolution visible region and a near-infrared image acquisition process according to an embodiment of the present invention.

도 8은 고해상도 혼합영상 및 네트워크를 통해 산출된 저해상도 가시영역 및 근적외선 영상을 이용하여 고해상도의 가시영역 및 근적외선 영상을 생성하는 과정을 나타낸 것이다. 본 발명의 실시 예의 기본 개념은 고해상도 가시영역 생성을 위해 고해상도 혼합영상의 밝기 및 색상을 분리된 가시영역 영상에 맞게 변화시키는 것이다. 이를 위해 RGB to HSV 컬러공간 변환, 영상영역분할(Segmentation), 컬러/밝기 변환(Color/Brightness transfer) 과정을 수행하게 된다.8 illustrates a process of generating a high-resolution visible region and a near-infrared image using a low-resolution visible region and a near-infrared image calculated through a high-resolution mixed image and a network. The basic concept of an embodiment of the present invention is to change the brightness and color of a high-resolution mixed image to match a separate visible-region image in order to generate a high-resolution visible region. To this end, RGB to HSV color space conversion, image segmentation, and color/brightness transfer are performed.

한편, RGB에서 HSV로 컬러공간 변환 과정에 대해서 설명하기로 한다. 카메라로부터 생성된 영상은 각 픽셀별로 R, G, B 3개의 채널정보를 갖게 되는데, 본 발명의 실시 예에서는 밝기와 색상영역으로 구분하기 위해 색상(hue), 채도(saturation), 명도(value)의 3가지 정보를 갖는 HSV 컬러 공간으로 변환한다. 변환된 HSV 컬러공간의 정보를 영상영역분할(Segmentation) 및 컬러/밝기 변환(Color/Brightness transfer) 과정에 활용한다.Meanwhile, a process of converting color space from RGB to HSV will be described. The image generated from the camera has three channel information of R, G, and B for each pixel. In an embodiment of the present invention, color, hue, saturation, and brightness are used to distinguish brightness and color gamut. Convert to HSV color space with 3 pieces of information. The transformed HSV color space information is used for image segmentation and color/brightness transfer.

영상영역분할(Segmentation) 과정에 대해서 설명하기로 한다. 가시영역과 근적외선 영상은 서로 다른 파장 대역을 하고 있으며, 이는 영상 내 물체의 반사율과 연관이 있다. 식 (2), (3)에서

Figure pat00023
가 이와 관련이 있어 가시영역에서는 밝게 나오는 부분이 근적외선 영역에서는 어둡게 나올 수가 있다. 본 발명의 실시 예에서는 영상영역분할(segmentation)과정을 이용하여 해당 특성이 나오는 부분을 분할화 하여 각 영역별로 밝기 값을 다르게 변화시키는 과정을 수행한다. 영상영역분할(Segmentation)을 하는 과정에서 분할에 중요한 영향을 미치는 요소는 색상이며, 이를 위해 분리된 가시영역 영상의 휘도(H), 채도(S) 정보 및 근적외선 영상의 밝기 정보를 영상영역분할(Segmentation)에 필요한 특징벡터로 구성한다. 그 다음, K-평균 클러스터링(K-means clustering) 방법을 통해 영역분할 맵(Segmentation map)을 생성한다. K-평균 클러스터링(K-mean clustering) 방법은 다음의 식을 통해 산출 가능하다.The image segmentation process will be described. The visible region and the near-infrared image have different wavelength bands, which is related to the reflectance of objects in the image. In equations (2) and (3)
Figure pat00023
As this is related, the bright part in the visible region may appear dark in the near infrared region. In an embodiment of the present invention, a process in which a brightness value is differently changed for each area is performed by dividing a part in which a corresponding characteristic appears using an image area segmentation process. In the process of segmenting the image, the factor that has an important effect on segmentation is color, and for this purpose, the luminance ( H ), saturation ( S ) information of the separated visible region image and the brightness information of the near-infrared image are divided into the image region ( Segmentation). Next, a segmentation map is generated through a K-means clustering method. The K-mean clustering method can be calculated by the following equation.

Figure pat00024
Figure pat00024

여기서, S는 찾고자하는 클러스터 집합이며, K는 클러스터의 개수, x는 데이터 집합이며,

Figure pat00025
Figure pat00026
내 데이터의 평균이다.Here, S is the cluster set to be searched, K is the number of clusters, x is the data set,
Figure pat00025
The
Figure pat00026
It is the average of my data.

밝기 변환(Brightness transfer) 과정에 대해서 설명하기로 한다. 영상영역분할(Segmentation)과정에서 생성된 각각의 구역에 대해 혼합영상의 밝기를 다음과 같이 변화시킨다. The process of brightness transfer will be described. The brightness of the mixed image is changed as follows for each region created in the image region segmentation process.

Figure pat00027
Figure pat00027

여기서,

Figure pat00028
,
Figure pat00029
,
Figure pat00030
는 각각 분할영역 S k 에 속하는 i, j번째 픽셀에 대한 고해상도 가시영역영상, 고해상도 근적외선영역영상, 고해상도 가시영역 및 근적외선영역 혼합영상의 명도 값을 의미한다.
Figure pat00031
,
Figure pat00032
,
Figure pat00033
는 각각 분할영역 S k 에 속하는 저해상도 가시영역영상, 저해상도 근적외선영역 영상, 저해상도 가시영역 및 근적외선영역 혼합영상의 명도에 대한 표준편차 값을 의미한다.
Figure pat00034
Figure pat00035
는 각각 분할영역 S k 에 속하는 저해상도 가시영역영상, 고해상도 가시영역 및 근적외선영역 혼합영상의 명도에 대한 평균값을 의미한다. 위의 과정을 통해 혼합영상으로부터 각 분리된 영상에 맞는 명도값을 보정할 수 있으며 이를 통해 고해상도 가시영역 밝기영상 및 고해상도 근적외선 밝기영상을 획득할 수 있다.here,
Figure pat00028
,
Figure pat00029
,
Figure pat00030
Denotes brightness values of a high-resolution visible region image, a high-resolution near-infrared region image, a high-resolution visible region, and a near-infrared region mixed image for the i and j- th pixels belonging to the divided region S k , respectively.
Figure pat00031
,
Figure pat00032
,
Figure pat00033
Denotes a standard deviation value for the brightness of a low-resolution visible region image, a low-resolution near-infrared region image, and a low-resolution visible and near-infrared region mixed image, respectively, belonging to the divided region S k .
Figure pat00034
And
Figure pat00035
Denotes an average value for the brightness of the low-resolution visible region image, the high-resolution visible region, and the near-infrared region mixed image, respectively, belonging to the divided region S k . Through the above process, the brightness value suitable for each separated image can be corrected from the mixed image, thereby obtaining a high-resolution visible region brightness image and a high-resolution near-infrared brightness image.

컬러 변환(Color transfer) 과정에 대해서 설명하기로 한다. 해당 과정에서는 분리된 고해상도 가시영역 영상의 컬러를 분리된 저해상도 가시영역 영상의 컬러와 동일시하기 위해 저해상도 가시영역 영상의 휘도(H) 및 채도(S) 값을 고해상도 가시영역 영상의 휘도(H) 및 채도(S) 값으로 대체시킨다. 저해상도 영상을 고해상도로 변환하기 위해 업샘플링(Up-sampling)과정이 수행되며, 본 발명의 실시 예에는 선형보간법을 이용하였다. 이러한 과정을 통해 고해상도 결과영상에 대한 휘도(H) 및 채도(S) 값을 얻을 수 있으며, 밝기 변환(Brightness transfer)과정을 통해 획득한 명도(V)값과 함께 고해상도 결과영상에 대한 HSV컬러공간 전체를 획득하는 것이 가능하다.The color transfer process will be described. The process, the resolution of the luminance of the low-resolution visible region image (H) and saturation (S) values in order to identify and separate the color of the isolated high resolution visible region image low-resolution color in the visible region image intensity in the visible region image (H), and Replace it with the saturation ( S ) value. Up-sampling process is performed to convert the low-resolution image to high-resolution, and linear interpolation is used in the embodiment of the present invention. Through this process, the luminance ( H ) and saturation ( S ) values for the high-resolution result image can be obtained, and the HSV color space for the high-resolution result image together with the brightness ( V ) value obtained through the brightness transfer process It is possible to acquire the whole.

HSV에서 RGB로 컬러공간 변환 과정에 대해서 설명하기로 한다. 컬러/밝기 변환(Color/Brightness transfer) 과정을 통해 획득한 고해상도 가시영역 HSV영상을 디스플레이하기 위해 RGB 컬러공간으로 변환하는 과정을 수행한다. 해당 과정을 수행하면 최종적으로 고해상도 가시영역 영상을 획득하게 된다.The process of color space conversion from HSV to RGB will be described. In order to display a high-resolution visible area HSV image obtained through a color/brightness transfer process, a process of converting it to an RGB color space is performed. When this process is performed, a high resolution visible area image is finally obtained.

한편, 실험 결과에 대해서 설명하기로 한다.Meanwhile, the experimental results will be described.

실험 조건은 다음과 같다. 본 발명의 실시 예에서 제안하는 고해상도 가시영역 및 근적외선 영상의 생성을 위해 [표 1]과 같은 조건의 실험조건을 설정하였다.The experimental conditions are as follows. In order to generate the high-resolution visible region and near-infrared image proposed in the embodiment of the present invention, experimental conditions under the conditions as shown in [Table 1] were set.

Figure pat00036
Figure pat00036

도 9는 본 발명의 실시 예에 따른 방법에 대한 실험결과를 설명하기 위한 도면이다.9 is a view for explaining the experimental results for the method according to an embodiment of the present invention.

실험 결과를 살펴보면 다음과 같습니다. The results of the experiment are as follows.

연산복잡도 평가: 본 발명의 실시 예에 따른 방법의 연산복잡도를 종래의 방법과 비교하였다. 종래 방법에서는 고해상도의 영상에 대한 딥러닝을 수행하기 위해 고해상도의 입력영상을 3978개의 256x256 크기 블록으로 나누어 각각의 블록에 대해 딥러닝 과정을 수행하였다. 본 실험에서 사용한 시스템 상에서는 딥러닝 과정에서 초당 10장의 영상을 산출할 수 있었기 때문에, 종래 방법은 1장당 약 398초의 딥러닝 과정이 수행되며, 산출된 각각의 영상을 하나로 합치기 위한 스티칭(stitching) 과정에서는 1장 생성을 위해 약 40초의 수행시간이 소요되었다. 따라서, 종래의 방법을 사용하여 가시영역과 근적외선 두 개의 영상을 획득하기 위해서는 876초 가량의 시간이 필요하다. 본 발명의 실시 예에 따른 방법은 단 한번의 딥러닝 네트워크만 실행하면 되므로, 1장당 0.1초의 딥러닝 수행시간이 소요되며, 이후의 영상영역분할(Segmentation), 컬러/밝기 변환(Color/Brightness transfer) 과정에서는 1장당 4초가량의 시간을 소요하였다. 따라서, 본 발명의 실시 예에 따른 방법에서 가시영역과 근적외선 영상 두 장을 분리하는 데에 걸리는 시간은 9초를 넘지 않게 되며, 이는 종래의 방법에 비해 약 97배가 빠르다.Evaluation of computational complexity: The computational complexity of the method according to the embodiment of the present invention was compared with the conventional method. In the conventional method, in order to perform deep learning on a high-resolution image, a high-resolution input image is divided into 3978 256x256 sized blocks, and a deep learning process is performed for each block. On the system used in this experiment, since 10 images per second can be calculated in the deep learning process, the conventional method performs a deep learning process of about 398 seconds per sheet, and a stitching process to combine the calculated images into one. Essay took about 40 seconds to produce. Therefore, in order to acquire two images of the visible region and the near-infrared ray using a conventional method, it takes about 876 seconds. Since the method according to the embodiment of the present invention only needs to execute a single deep learning network, it takes 0.1 seconds for deep learning to be performed per page. Subsequent image segmentation and color/brightness transfer ) Process took about 4 seconds per sheet. Therefore, in the method according to the embodiment of the present invention, the time taken to separate two visible and near infrared images does not exceed 9 seconds, which is about 97 times faster than the conventional method.

주관적 화질 평가: 도 9는 본 발명의 실시 예에 따른 방법의 실험결과를 나타낸 것이다. Subjective image quality evaluation: Figure 9 shows the experimental results of the method according to an embodiment of the present invention.

도 9의 실험결과에서 보는 것과 같이, 본 발명의 실시 예에 따른 방법의 컬러는 목표 비교영상과는 차이가 있는 것을 확인할 수 있는데, 이는 딥러닝 네트워크의 학습 결과가 충분하지 못하기 때문이다. 본 발명의 실시 예에 따른 방법의 분리된 고해상도 가시영역 영상의 컬러는 저해상도 가시영역 딥러닝 출력영상과 비슷한 것을 알 수 있다. 따라서, 분리 영상의 화질 향상을 위해서는 네트워크의 보다 정밀한 설계 및 많은 양의 샘플을 통한 학습이 필요할 것으로 보인다. 다만, 본 발명의 실시 예에 따른 방법과 종래의 방법을 사용한 영상을 비교해보면, 본 발명의 실시 예에 따른 방법에서는 블록경계가 보이는 영상품질 열화가 관찰되지 않는 반면, 종래의 방법에서는 블록 경계가 뚜렷하게 보이는 문제가 있다. 이 부분 또한 연산복잡도와 더불어 본 발명의 실시 예에 따른 방법이 종래의 방법에 비해 개선된 점이라고 볼 수 있다.As shown in the experiment results of FIG. 9, it can be seen that the color of the method according to the embodiment of the present invention is different from the target comparison image, because the learning result of the deep learning network is not sufficient. It can be seen that the color of the separated high-resolution visible region image of the method according to the embodiment of the present invention is similar to the low-resolution visible region deep learning output image. Therefore, in order to improve the image quality of the separated image, it is expected that more precise design of the network and learning through a large amount of samples will be required. However, when the method according to the embodiment of the present invention is compared with the image using the conventional method, in the method according to the embodiment of the present invention, image quality deterioration with visible block boundaries is not observed, whereas in the conventional method, the block boundary is There is a clearly visible problem. In addition to this, it can be seen that the method according to the embodiment of the present invention is improved over the conventional method in addition to computational complexity.

본 발명의 실시 예에서는 단일 가시영역 및 근적외선 혼합 영상으로부터, 고해상도의 가시영역 및 근적외선 영상을 획득하는 방법을 제공하고 한다. 본 발명의 실시 예에 따른 방법은 고해상도 입력영상을 다운샘플링하여 생성된 저해상도 입력영상을 딥러닝 네트워크에 입력한 다음, 산출되는 저해상도 출력영상에 대해 영상영역분할(Segmentation), 컬러/밝기 변환(Color/Brightness transfer)과정을 통해 고해상도의 결과영상을 생성한다. 본 발명의 실시 예에 따른 방법은 종래의 방법에 비해 97배가 빠른 연산 복잡도를 보였으며, 결과영상에서 블록 열화현상이 발생하지 않는 것 또한 확인하였다.In an embodiment of the present invention, a method of obtaining a high-resolution visible region and a near-infrared image from a single visible and near-infrared mixed image is provided. According to an embodiment of the present invention, a low-resolution input image generated by down-sampling a high-resolution input image is input to a deep learning network, and then image segmentation, color/brightness conversion (Color) is calculated for the calculated low-resolution output image. /Brightness transfer) to create a high-resolution result image. The method according to the embodiment of the present invention showed a computational complexity that is 97 times faster than that of the conventional method, and it was also confirmed that block deterioration does not occur in the resulting image.

상술한 본 발명의 실시 예들에 따른 기계학습을 이용한 고해상도 영상의 처리 방법은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현되는 것이 가능하다. 본 발명의 실시 예들에 따른 기계학습을 이용한 고해상도 영상의 처리 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터로 읽을 수 있는 기록매체에 기록될 수 있다.The method of processing a high-resolution image using machine learning according to the above-described embodiments of the present invention can be implemented as a computer-readable code on a computer-readable recording medium. The method of processing a high-resolution image using machine learning according to embodiments of the present invention may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable recording medium.

컴퓨터가 읽을 수 있는 기록 매체로는 컴퓨터 시스템에 의하여 해독될 수 있는 데이터가 저장된 모든 종류의 기록 매체를 포함한다. 예를 들어, ROM(Read Only Memory), RAM(Random Access Memory), 자기 테이프, 자기 디스크, 플래시 메모리, 광 데이터 저장장치 등이 있을 수 있다. 또한, 컴퓨터로 판독 가능한 기록매체는 컴퓨터 통신망으로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 읽을 수 있는 코드로서 저장되고 실행될 수 있다.Computer-readable recording media includes all kinds of recording media storing data that can be read by a computer system. For example, there may be a read only memory (ROM), a random access memory (RAM), a magnetic tape, a magnetic disk, a flash memory, and an optical data storage device. In addition, the computer-readable recording medium may be distributed over computer systems connected through a computer communication network, and stored and executed as code readable in a distributed manner.

구체적으로, 설명된 특징들은 디지털 전자 회로, 또는 컴퓨터 하드웨어, 펌웨어, 또는 그들의 조합들 내에서 실행될 수 있다. 특징들은 예컨대, 프로그래밍 가능한 프로세서에 의한 실행을 위해, 기계 판독 가능한 저장 디바이스 내의 저장장치 내에서 구현되는 컴퓨터 프로그램 제품에서 실행될 수 있다. 그리고 특징들은 입력 데이터 상에서 동작하고 출력을 생성함으로써 설명된 실시예들의 함수들을 수행하기 위한 지시어들의 프로그램을 실행하는 프로그래밍 가능한 프로세서에 의해 수행될 수 있다. 설명된 특징들은, 데이터 저장 시스템으로부터 데이터 및 지시어들을 수신하기 위해, 및 데이터 저장 시스템으로 데이터 및 지시어들을 전송하기 위해, 결합된 적어도 하나의 프로그래밍 가능한 프로세서, 적어도 하나의 입력 디바이스, 및 적어도 하나의 출력 디바이스를 포함하는 프로그래밍 가능한 시스템 상에서 실행될 수 있는 하나 이상의 컴퓨터 프로그램들 내에서 실행될 수 있다. 컴퓨터 프로그램은 소정 결과에 대해 특정 동작을 수행하기 위해 컴퓨터 내에서 직접 또는 간접적으로 사용될 수 있는 지시어들의 집합을 포함한다. 컴퓨터 프로그램은 컴파일된 또는 해석된 언어들을 포함하는 프로그래밍 언어 중 어느 형태로 쓰여지고, 모듈, 소자, 서브루틴(subroutine), 또는 다른 컴퓨터 환경에서 사용을 위해 적합한 다른 유닛으로서, 또는 독립 조작 가능한 프로그램으로서 포함하는 어느 형태로도 사용될 수 있다.Specifically, the described features can be implemented in digital electronic circuitry, or computer hardware, firmware, or combinations thereof. Features may be implemented in a computer program product implemented in storage in a machine-readable storage device, eg, for execution by a programmable processor. And the features can be performed by a programmable processor executing a program of instructions for performing the functions of the described embodiments by operating on input data and generating output. The described features include at least one programmable processor, at least one input device, and at least one output coupled to receive data and directives from the data storage system and to transmit data and directives to the data storage system. It can be executed in one or more computer programs that can be executed on a programmable system including a device. A computer program includes a set of directives that can be used directly or indirectly within a computer to perform a specific action on a given result. A computer program is written in any form of programming language, including compiled or interpreted languages, and is included as a module, element, subroutine, or other unit suitable for use in other computer environments, or as a standalone program. Can be used in any form.

지시어들의 프로그램의 실행을 위한 적합한 프로세서들은, 예를 들어, 범용 및 특수 용도 마이크로프로세서들 둘 모두, 및 단독 프로세서 또는 다른 종류의 컴퓨터의 다중 프로세서들 중 하나를 포함한다. 또한 설명된 특징들을 구현하는 컴퓨터 프로그램 지시어들 및 데이터를 구현하기 적합한 저장 디바이스들은 예컨대, EPROM, EEPROM, 및 플래쉬 메모리 디바이스들과 같은 반도체 메모리 디바이스들, 내부 하드 디스크들 및 제거 가능한 디스크들과 같은 자기 디바이스들, 광자기 디스크들 및 CD-ROM 및 DVD-ROM 디스크들을 포함하는 비휘발성 메모리의 모든 형태들을 포함한다. 프로세서 및 메모리는 ASIC들(application-specific integrated circuits) 내에서 통합되거나 또는 ASIC들에 의해 추가될 수 있다.Suitable processors for the execution of the program of instructions include, for example, both general purpose and special purpose microprocessors, and either a single processor or multiple processors of other types of computers. Also suitable for implementing computer program instructions and data embodying the described features are storage devices suitable for example, semiconductor memory devices such as EPROM, EEPROM, and flash memory devices, magnetic devices such as internal hard disks and removable disks. Devices, magneto-optical disks and all forms of non-volatile memory including CD-ROM and DVD-ROM disks. The processor and memory can be integrated within application-specific integrated circuits (ASICs) or added by ASICs.

이상에서 설명한 본 발명은 일련의 기능 블록들을 기초로 설명되고 있지만, 전술한 실시 예 및 첨부된 도면에 의해 한정되는 것이 아니고, 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경 가능하다는 것이 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 있어 명백할 것이다.The present invention described above has been described based on a series of functional blocks, but is not limited by the above-described embodiments and the accompanying drawings, and various substitutions, modifications and changes without departing from the spirit of the present invention. It will be apparent to those skilled in the art that the present invention is possible.

전술한 실시 예들의 조합은 전술한 실시 예에 한정되는 것이 아니며, 구현 및/또는 필요에 따라 전술한 실시예들 뿐 아니라 다양한 형태의 조합이 제공될 수 있다.Combinations of the above-described embodiments are not limited to the above-described embodiments, and various forms of combinations may be provided as well as the above-described embodiments according to implementation and/or needs.

전술한 실시 예들에서, 방법들은 일련의 단계 또는 블록으로서 순서도를 기초로 설명되고 있으나, 본 발명은 단계들의 순서에 한정되는 것은 아니며, 어떤 단계는 상술한 바와 다른 단계와 다른 순서로 또는 동시에 발생할 수 있다. 또한, 당해 기술 분야에서 통상의 지식을 가진 자라면 순서도에 나타난 단계들이 배타적이지 않고, 다른 단계가 포함되거나, 순서도의 하나 또는 그 이상의 단계가 본 발명의 범위에 영향을 미치지 않고 삭제될 수 있음을 이해할 수 있을 것이다.In the above-described embodiments, the methods are described based on a flowchart as a series of steps or blocks, but the present invention is not limited to the order of steps, and some steps may occur in a different order than the steps described above or simultaneously. have. In addition, those of ordinary skill in the art are aware that the steps shown in the flowcharts are not exclusive, other steps may be included, or one or more steps in the flowcharts may be deleted without affecting the scope of the present invention. You will understand.

전술한 실시 예는 다양한 양태의 예시들을 포함한다. 다양한 양태들을 나타내기 위한 모든 가능한 조합을 기술할 수는 없지만, 해당 기술 분야의 통상의 지식을 가진 자는 다른 조합이 가능함을 인식할 수 있을 것이다. 따라서, 본 발명은 이하의 특허청구범위 내에 속하는 모든 다른 교체, 수정 및 변경을 포함한다고 할 것이다.The above-described embodiments include examples of various aspects. It is not possible to describe all possible combinations for representing various aspects, but those skilled in the art will recognize that other combinations are possible. Accordingly, the present invention will be said to include all other replacements, modifications and changes that fall within the scope of the following claims.

100: 고해상도 영상의 처리 장치
110: 다운샘플링부
120: 기계학습 처리부
130: 영상 변환부
121: 가시영역 분리영상 산출부
122: 근적외선영역 분리영상 산출부
131: 색공간 변환부(RGB to HSV)
132: 색공간 변환부(HSV to RGB)
133: 업샘플링
134: 영상영역 분할부
135: 컬러/밝기 변환부
100: high-resolution image processing device
110: downsampling unit
120: machine learning processing unit
130: video converter
121: visible area separated image calculation unit
122: near infrared region separated image calculation unit
131: color space conversion unit (RGB to HSV)
132: color space conversion unit (HSV to RGB)
133: upsampling
134: image area division unit
135: color / brightness conversion unit

Claims (1)

고해상도 입력영상의 공간해상도를 줄여 저해상도 영상을 생성하는 다운샘플링부;
상기 생성된 저해상도 영상을 기계학습 네트워크의 입력으로 하여 저해상도의 출력영상을 산출하는 기계학습 처리부; 및
상기 고해상도 입력영상과 상기 산출된 저해상도의 출력영상을 상기 산출된 저해상도의 출력영상의 특성에 따라 변환하여 고해상도 결과영상을 출력하는 영상 변환부를 포함하는, 기계학습을 이용한 고해상도 영상의 처리 장치.
A down-sampling unit that generates a low-resolution image by reducing the spatial resolution of the high-resolution input image;
A machine learning processor configured to calculate the low-resolution output image by using the generated low-resolution image as an input to the machine learning network; And
And an image conversion unit for converting the high-resolution input image and the calculated low-resolution output image according to the characteristics of the calculated low-resolution output image and outputting a high-resolution result image.
KR1020180155407A 2018-12-05 2018-12-05 Method and apparatus for machine-learning based processing of high-resolution image KR102599675B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180155407A KR102599675B1 (en) 2018-12-05 2018-12-05 Method and apparatus for machine-learning based processing of high-resolution image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180155407A KR102599675B1 (en) 2018-12-05 2018-12-05 Method and apparatus for machine-learning based processing of high-resolution image

Publications (2)

Publication Number Publication Date
KR20200071866A true KR20200071866A (en) 2020-06-22
KR102599675B1 KR102599675B1 (en) 2023-11-06

Family

ID=71142279

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180155407A KR102599675B1 (en) 2018-12-05 2018-12-05 Method and apparatus for machine-learning based processing of high-resolution image

Country Status (1)

Country Link
KR (1) KR102599675B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102238629B1 (en) * 2020-10-13 2021-04-09 한국해양과학기술원 System and method for overcoming low visibility situation based on deep learning
WO2022197001A1 (en) * 2021-03-16 2022-09-22 +Samsung Electronics Co., Ltd. Method and electronic device for removing artifact in high resolution image

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Adrian Bulat et al., "To learn image super-resolution, use a GAN to learn how to do image degradation first", Computer Vision Foundation, ECCV 2018 papers, (2018.09.10.)* *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102238629B1 (en) * 2020-10-13 2021-04-09 한국해양과학기술원 System and method for overcoming low visibility situation based on deep learning
WO2022197001A1 (en) * 2021-03-16 2022-09-22 +Samsung Electronics Co., Ltd. Method and electronic device for removing artifact in high resolution image

Also Published As

Publication number Publication date
KR102599675B1 (en) 2023-11-06

Similar Documents

Publication Publication Date Title
EP3477931A1 (en) Image processing method and device, readable storage medium and electronic device
US11625815B2 (en) Image processor and method
KR101831551B1 (en) High dynamic range image generation and rendering
CN111260580B (en) Image denoising method, computer device and computer readable storage medium
US10755399B2 (en) Image processing device, image processing method, and image processing program
US20150326878A1 (en) Selective perceptual masking via scale separation in the spatial and temporal domains using intrinsic images for use in data compression
AU2021201476A1 (en) Techniques for synthesizing film grain
EP3063931B1 (en) Two-dimensional color transformations for wide gamut workflows in digital cameras
KR102599675B1 (en) Method and apparatus for machine-learning based processing of high-resolution image
JP2014519727A (en) Efficient expression and processing method of color pixel data in digital pathological image
CN114998122A (en) Low-illumination image enhancement method
WO2015189369A1 (en) Methods and systems for color processing of digital images
US11354925B2 (en) Method, apparatus and device for identifying body representation information in image, and computer readable storage medium
US8897378B2 (en) Selective perceptual masking via scale separation in the spatial and temporal domains using intrinsic images for use in data compression
US20220303557A1 (en) Processing of Chroma-Subsampled Video Using Convolutional Neural Networks
CN111754412A (en) Method and device for constructing data pairs and terminal equipment
WO2016113407A1 (en) Methods and apparatus for groupwise contrast enhancement
KR102389284B1 (en) Method and device for image inpainting based on artificial intelligence
JP7445109B2 (en) Image processing program, image processing device, image processing system, and image processing method
JP2005182232A (en) Luminance correcting device and method
JP5265058B1 (en) Product image processing apparatus, product image processing method, information recording medium, and program
JP2008294969A (en) Video image conversion apparatus, method, and program
JPH06251147A (en) Video feature processing method
JP2008312177A (en) Apparatus, method and program, for converting gradation of video image
JP7278234B2 (en) Image processing device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant