KR102268027B1 - Method for single image dehazing based on deep learning, recording medium and device for performing the method - Google Patents

Method for single image dehazing based on deep learning, recording medium and device for performing the method Download PDF

Info

Publication number
KR102268027B1
KR102268027B1 KR1020200006501A KR20200006501A KR102268027B1 KR 102268027 B1 KR102268027 B1 KR 102268027B1 KR 1020200006501 A KR1020200006501 A KR 1020200006501A KR 20200006501 A KR20200006501 A KR 20200006501A KR 102268027 B1 KR102268027 B1 KR 102268027B1
Authority
KR
South Korea
Prior art keywords
image
fog
convolution operation
image features
convolution
Prior art date
Application number
KR1020200006501A
Other languages
Korean (ko)
Other versions
KR20210067824A (en
Inventor
고성제
신홍규
김준연
Original Assignee
고려대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 고려대학교 산학협력단 filed Critical 고려대학교 산학협력단
Publication of KR20210067824A publication Critical patent/KR20210067824A/en
Application granted granted Critical
Publication of KR102268027B1 publication Critical patent/KR102268027B1/en

Links

Images

Classifications

    • G06T5/77
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/001Image restoration
    • G06T5/005Retouching; Inpainting; Scratch removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

딥러닝 기반 영상의 안개 제거 방법은, 안개 영상이 입력되면, 합성곱(convolution) 연산을 수행하여 영상 특징을 추출하는 단계; 추출된 영상 특징을 서로 다른 비율(rate)을 가지는 n(여기서, n은 자연수)개의 팽창된 합성곱(dilated convolution) 연산을 수행하여 n개의 스케일 영상 특징을 추출하는 단계; 상기 n개의 스케일 영상 특징을 각각 복수개의 RDB(residual dense block)를 통해 합성곱 연산이 수행된 데이터를 이후 합성곱의 누적 입력으로 반영하는 누적 합성곱 연산을 연속으로 수행하는 단계; 상기 누적 합성곱 연산을 연속으로 수행한 n개의 스케일 영상 특징을 상기 안개 영상과 같은 채널로 매칭하는 단계; 및 상기 안개 영상과 같은 채널로 매칭된 영상을 상기 안개 영상과 비교 학습하여, 안개를 제거한 영상을 출력하는 단계;를 포함한다. 이에 따라, 실제 여러 상황의 안개 영상에 대해서도 퀄리티가 향상된 안개 제거 영상을 획득할 수 있다.A deep learning-based image fog removal method includes: when a fog image is input, performing a convolution operation to extract image features; extracting n scaled image features by performing n (where n is a natural number) dilated convolution operations on the extracted image features at different rates; continuously performing a cumulative convolution operation in which the n scale image features are reflected as a cumulative input of the subsequent convolution operation through a plurality of residual dense blocks (RDBs); matching the n scaled image features on which the cumulative convolution operation is continuously performed with the same channel as the fog image; and outputting an image from which fog is removed by comparing and learning an image matched to the same channel as the fog image with the fog image. Accordingly, it is possible to obtain a fog removal image with improved quality even for fog images in various actual situations.

Description

딥러닝 기반 영상의 안개 제거 방법, 이를 수행하기 위한 기록 매체 및 장치{METHOD FOR SINGLE IMAGE DEHAZING BASED ON DEEP LEARNING, RECORDING MEDIUM AND DEVICE FOR PERFORMING THE METHOD}A method for removing fog from a deep learning-based image, and a recording medium and apparatus for carrying out the same {METHOD FOR SINGLE IMAGE DEHAZING BASED ON DEEP LEARNING, RECORDING MEDIUM AND DEVICE FOR PERFORMING THE METHOD}

본 발명은 딥러닝 기반 영상의 안개 제거 방법, 이를 수행하기 위한 기록 매체 및 장치에 관한 것으로서, 더욱 상세하게는 단일 카메라에서 획득한 영상의 안개를 제거하기 위한 컴퓨터 비전 기술에 관한 것이다.The present invention relates to a method for removing fog from a deep learning-based image, a recording medium and an apparatus for performing the same, and more particularly, to a computer vision technology for removing fog from an image obtained from a single camera.

최근 영상 기술의 발달로 다양한 비전 기술이 개발되고 있다. 그 중 안개 제거 기술은, RGB-d 카메라에서 취득한 영상과 그에 따른 심도정보를 통해 안개를 합성한 영상들을 데이터베이스로 사용하여 영상의 안개를 제거한다. Recently, with the development of imaging technology, various vision technologies are being developed. Among them, the fog removal technology removes the fog from the image by using the image obtained from the RGB-d camera and the images synthesized from the fog through the corresponding depth information as a database.

종래 기술들은 우선, 안개 영상 모델에 기반하여 해당 모델을 구성하는 변수인 전도율을 추정한다. 첫 번째 종래 기술(선행기술문헌의 비특허문헌 1)은 feature extraction, multi-scale mapping, local extrema, nonlinear regression으로 구성된 딥러닝 구조를 이용하여 전도율을 추정하였다.In the prior art, the conductivity, which is a variable constituting the model, is estimated based on the fog image model. In the first prior art (non-patent document 1 of the prior art document), conductivity was estimated using a deep learning structure composed of feature extraction, multi-scale mapping, local extrema, and nonlinear regression.

두 번째 종래 기술(선행기술문헌의 비특허문헌 2)은 coarse-scale network, fine-scale network로 구성된 딥러닝 구조를 이용하여 전도율을 추정하였다. 두 기술 모두 추정된 전도율을 안개 영상 모델에 대입하여 안개가 제거된 영상을 얻는다.In the second prior art (non-patent document 2 of the prior art document), the conductivity was estimated using a deep learning structure composed of a coarse-scale network and a fine-scale network. Both techniques apply the estimated conductivity to the fog image model to obtain the fog-removed image.

그러나, 종래 기술들은 안개 영상 모델에 기반하여 전도율을 추정한 뒤 추정된 전도율을 모델에 대입하여 안개를 제거하는 기술들이다. 이에 따라, 종래의 기술들은 안개 영상 모델에 기반하여 전도율을 추정하기 때문에 해당 모델이 적용되기 힘든 실제 안개 영상에 대해서는 안개를 제대로 제거하기 어려운 한계가 있다.However, conventional techniques are techniques for estimating conductivity based on a fog image model and then substituting the estimated conductivity into the model to remove fog. Accordingly, since the conventional techniques estimate the conductivity based on the fog image model, there is a limitation in that it is difficult to properly remove the fog for the actual fog image to which the corresponding model is difficult to apply.

또한, 기존의 컴퓨터 비전 관련 기술은 카메라로부터 획득한 영상이 맑은 날씨 환경에서 촬영된 영상이라는 가정 하에 개발되었다. 이로 인해 안개가 낀 환경에서 촬영된 영상의 경우 개발된 컴퓨터 비전 기술이 제대로 활용될 수 없다.In addition, the existing computer vision-related technology was developed on the assumption that the image acquired from the camera is an image captured in a clear weather environment. Due to this, the developed computer vision technology cannot be used properly for images shot in a foggy environment.

KR 10-2014-0142381 AKR 10-2014-0142381 A KR 10-1445577 B1KR 10-1445577 B1

Dehazenet, An end-to-end system for single image haze removal, 2016 IEEE Transactions on Image Processing Dehazenet, An end-to-end system for single image haze removal, 2016 IEEE Transactions on Image Processing Wenqi Ren et al., Single image dehazing via multi-scale convolutional neural networks, 2016 IEEE European conference on computer vision Wenqi Ren et al., Single image dehazing via multi-scale convolutional neural networks, 2016 IEEE European conference on computer vision

이에, 본 발명의 기술적 과제는 이러한 점에서 착안된 것으로 본 발명의 목적은 발명은 안개 영상 모델에 기반하지 않은 딥러닝 기반 영상의 안개 제거 방법을 제공하는 것이다.Accordingly, it is an object of the present invention to provide a method for removing fog from a deep learning-based image that is not based on a fog image model.

본 발명의 다른 목적은 상기 딥러닝 기반 영상의 안개 제거 방법을 수행하기 위한 컴퓨터 프로그램이 기록된 기록 매체를 제공하는 것이다.Another object of the present invention is to provide a recording medium in which a computer program for performing the method for removing fog of the deep learning-based image is recorded.

본 발명의 또 다른 목적은 상기 딥러닝 기반 영상의 안개 제거 방법을 수행하기 위한 장치를 제공하는 것이다.Another object of the present invention is to provide an apparatus for performing the method of removing the fog of the deep learning-based image.

상기한 본 발명의 목적을 실현하기 위한 일 실시예에 따른 딥러닝 기반 영상의 안개 제거 방법은, 안개 영상이 입력되면, 합성곱(convolution) 연산을 수행하여 영상 특징을 추출하는 단계; 추출된 영상 특징을 서로 다른 비율(rate)을 가지는 n(여기서, n은 자연수)개의 팽창된 합성곱(dilated convolution) 연산을 수행하여 n개의 스케일 영상 특징을 추출하는 단계; 상기 n개의 스케일 영상 특징을 각각 복수개의 RDB(residual dense block)를 통해 합성곱 연산이 수행된 데이터를 이후 합성곱의 누적 입력으로 반영하는 누적 합성곱 연산을 연속으로 수행하는 단계; 상기 누적 합성곱 연산을 연속으로 수행한 n개의 스케일 영상 특징을 상기 안개 영상과 같은 채널로 매칭하는 단계; 및 상기 안개 영상과 같은 채널로 매칭된 영상을 상기 안개 영상과 비교 학습하여, 안개를 제거한 영상을 출력하는 단계;를 포함한다.In accordance with an embodiment of the present invention for realizing the object of the present invention, there is provided a method for removing fog from a deep learning-based image, comprising: when a fog image is input, performing a convolution operation to extract image features; extracting n scaled image features by performing n (where n is a natural number) dilated convolution operations on the extracted image features at different rates; continuously performing a cumulative convolution operation in which the n scale image features are reflected as a cumulative input of the subsequent convolution operation through a plurality of residual dense blocks (RDBs); matching the n scaled image features on which the cumulative convolution operation is continuously performed with the same channel as the fog image; and outputting an image from which fog is removed by comparing and learning an image matched to the same channel as the fog image with the fog image.

본 발명의 실시예에서, 상기 합성곱 연산을 수행하여 영상 특징을 추출하는 단계는, 3Х3 합성곱 연산층을 이용하여 영상 특징을 추출할 수 있다.In an embodiment of the present invention, in the extracting of the image feature by performing the convolution operation, the image feature may be extracted using a 3Х3 convolution operation layer.

본 발명의 실시예에서, 상기 n개의 스케일 영상 특징을 추출하는 단계는, 해당 비율(rate)만큼의 픽셀(pixel)을 건너 뛰면서 합성곱 연산을 수행할 수 있다.In an embodiment of the present invention, in the extracting of the n scale image features, a convolution operation may be performed while skipping pixels corresponding to a corresponding rate.

본 발명의 실시예에서, 상기 n개의 스케일 영상 특징을 추출하는 단계는, 4개의 3Х3 팽창된 합성곱(dilated convolution) 연산층들을 이용하여 4개 스케일의 영상 특징을 추출할 수 있다.In an embodiment of the present invention, the extracting of the n-scale image features may include extracting image features of four scales using four 3Х3 dilated convolution operation layers.

본 발명의 실시예에서, 상기 n개의 스케일 영상 특징을 추출하는 단계는, 상기 4개의 3Х3 팽창된 합성곱(dilated convolution) 연산층들은 각각 1, 2, 4 및 8의 비율(rate)로 특징을 분석할 수 있다.In an embodiment of the present invention, in the step of extracting the n scale image features, the four 3Х3 dilated convolution operation layers are characterized at a rate of 1, 2, 4, and 8, respectively. can be analyzed.

본 발명의 실시예에서, 상기 누적 합성곱 연산을 연속으로 수행하는 단계는, 상기 n개의 스케일 영상 특징을 각각 3개의 RDB(residual dense block)를 이용하여 누적 합성곱 연산을 연속으로 수행할 수 있다.In an embodiment of the present invention, in the step of continuously performing the cumulative convolution operation, the cumulative convolution operation may be successively performed using three residual dense blocks (RDBs) for each of the n scale image features. .

본 발명의 실시예에서, 상기 누적 합성곱 연산을 연속으로 수행한 n개의 스케일 영상 특징을 상기 안개 영상과 같은 채널로 매칭하는 단계는, 상기 누적 합성곱 연산을 연속으로 수행한 n개의 스케일 영상 특징을 접합(concatenation) 연산을 수행하는 단계; 및 상기 안개 영상과 같은 채널로 매칭하기 위해 2번의 합성곱(convolution) 연산을 수행하는 단계;를 포함할 수 있다.In an embodiment of the present invention, the step of matching the n scale image features on which the cumulative convolution operation is continuously performed to the same channel as the fog image includes: n scale image features on which the cumulative convolution operation is continuously performed performing a concatenation operation; and performing two convolution operations to match the same channel as the fog image.

상기한 본 발명의 다른 목적을 실현하기 위한 일 실시예에 따른 컴퓨터로 판독 가능한 저장 매체에는, 상기 딥러닝 기반 영상의 안개 제거 방법을 수행하기 위한 컴퓨터 프로그램이 기록되어 있다. In a computer-readable storage medium according to an embodiment for realizing another object of the present invention, a computer program for performing the method for removing fog of the deep learning-based image is recorded.

상기한 본 발명의 또 다른 목적을 실현하기 위한 일 실시예에 따른 딥러닝 기반 영상의 안개 제거 장치는, 안개 영상이 입력되면, 합성곱(convolution) 연산을 수행하여 영상 특징을 추출하는 특징 추출부; 상기 특징 추출부로부터 추출된 영상 특징을 서로 다른 비율(rate)을 가지는 n(여기서, n은 자연수)개의 팽창된 합성곱(dilated convolution) 연산을 수행하여 n개의 스케일 영상 특징을 추출하는 스케일 분할부; 상기 스케일 분할부로부터 추출된 n개의 스케일 영상 특징을 각각 복수개의 RDB(residual dense block)를 통해 합성곱 연산이 수행된 데이터를 이후 합성곱의 누적 입력으로 반영하는 누적 합성곱 연산을 연속으로 수행하는 RDB 연속부; 상기 누적 합성곱 연산을 연속으로 수행한 n개의 스케일 영상 특징을 상기 안개 영상과 같은 채널로 매칭하는 매칭부; 및 상기 안개 영상과 같은 채널로 매칭된 영상을 상기 안개 영상과 비교 학습하여, 안개를 제거한 영상을 출력하는 학습부;를 포함한다.In a deep learning-based image fog removal apparatus according to an embodiment for realizing another object of the present invention, when a fog image is input, a feature extraction unit extracts image features by performing a convolution operation ; A scale division unit that extracts n scaled image features by performing n (here, n is a natural number) dilated convolution operation on the image features extracted from the feature extraction unit at different rates ; Continuously performing a cumulative convolution operation in which the n scale image features extracted from the scale division unit reflect the data on which the convolution operation has been performed through a plurality of residual dense blocks (RDBs) as the cumulative input of the subsequent convolution. RDB continuation; a matching unit that matches the features of n scaled images on which the cumulative convolution operation is continuously performed to the same channel as the fog image; and a learning unit that compares and learns an image matched to the same channel as the fog image with the fog image, and outputs an image from which fog is removed.

본 발명의 실시예에서, 상기 특징 추출부는, 3Х3 합성곱 연산층을 이용하여 영상 특징을 추출할 수 있다.In an embodiment of the present invention, the feature extraction unit may extract image features using a 3Х3 convolutional operation layer.

본 발명의 실시예에서, 상기 스케일 분할부는, 해당 비율(rate)만큼의 픽셀(pixel)을 건너 뛰면서 합성곱 연산을 수행하고, 4개의 3Х3 팽창된 합성곱(dilated convolution) 연산층들을 이용하여 4개 스케일의 영상 특징을 추출할 수 있다.In an embodiment of the present invention, the scale division unit performs a convolution operation while skipping pixels as much as a corresponding rate, and uses four 3Х3 dilated convolution operation layers. It is possible to extract dog-scale image features.

본 발명의 실시예에서, 상기 스케일 분할부는, 상기 4개의 3Х3 팽창된 합성곱(dilated convolution) 연산층들은 각각 1, 2, 4 및 8의 비율(rate)로 특징을 분석할 수 있다.In an embodiment of the present invention, the scale division unit may analyze the characteristics of the four 3Х3 dilated convolution operation layers at rates of 1, 2, 4, and 8, respectively.

본 발명의 실시예에서, 상기 RDB 연속부는, 상기 n개의 스케일 영상 특징을 각각 3개의 RDB(residual dense block)를 이용하여 누적 합성곱 연산을 연속으로 수행할 수 있다.In an embodiment of the present invention, the RDB continuation unit may successively perform a cumulative convolution operation on the n scale image features using three residual dense blocks (RDBs), respectively.

본 발명의 실시예에서, 상기 매칭부는, 상기 누적 합성곱 연산을 연속으로 수행한 n개의 스케일 영상 특징을 접합(concatenation) 연산을 수행하는 접합 연산부; 및 상기 안개 영상과 같은 채널로 매칭하기 위해 2번의 합성곱(convolution) 연산을 수행하는 제1 및 제2 합성곱 연산부;를 포함할 수 있다.In an embodiment of the present invention, the matching unit may include: a concatenation operation unit configured to perform a concatenation operation on n scale image features on which the cumulative convolution operation is continuously performed; and a first and second convolution operation unit that performs two convolution operations to match the same channel as the fog image.

이와 같은 딥러닝 기반 영상의 안개 제거 방법에 따르면, 안개 영상 모델에 기반하지 않기 때문에 실제 여러 상황의 안개 영상에 대해서도 퀄리티가 향상된 안개 제거 영상을 획득할 수 있다.According to this deep learning-based image fog removal method, since it is not based on a fog image model, it is possible to obtain a fog removal image with improved quality even for fog images in various situations.

도 1은 본 발명의 일 실시예에 따른 딥러닝 기반 영상의 안개 제거 장치의 블록도이다.
도 2는 본 발명에서 비율(rate)에 따른 팽창된 합성곱(dilated convolution)을 설명하기 위한 도면이다.
도 3은 본 발명의 딥러닝에서 사용하는 Resisual Block의 구조를 보여주는 블록도이다.
도 4는 본 발명의 딥러닝에서 사용하는 Dense Block의 구조를 보여주는 블록도이다.
도 5는 본 발명의 딥러닝에서 사용하는 RDB(Resisual Dense Block)의 구조를 보여주는 블록도이다.
도 6은 본 발명의 일 실시예에 따른 딥러닝 기반 영상의 안개 제거 방법의 흐름도이다.
1 is a block diagram of an apparatus for removing fog of a deep learning-based image according to an embodiment of the present invention.
2 is a diagram for explaining a dilated convolution according to a rate in the present invention.
3 is a block diagram showing the structure of a Resisual Block used in deep learning of the present invention.
4 is a block diagram showing the structure of a Dense Block used in deep learning of the present invention.
5 is a block diagram showing the structure of a RDB (Resisual Dense Block) used in deep learning of the present invention.
6 is a flowchart of a method for removing fog from a deep learning-based image according to an embodiment of the present invention.

후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS [0010] DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS [0010] DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS [0023] Reference is made to the accompanying drawings, which show by way of illustration specific embodiments in which the invention may be practiced. These embodiments are described in sufficient detail to enable those skilled in the art to practice the present invention. It should be understood that the various embodiments of the present invention are different but need not be mutually exclusive. For example, certain shapes, structures, and characteristics described herein with respect to one embodiment may be embodied in other embodiments without departing from the spirit and scope of the invention. In addition, it should be understood that the location or arrangement of individual components within each disclosed embodiment may be changed without departing from the spirit and scope of the present invention. Accordingly, the detailed description set forth below is not intended to be taken in a limiting sense, and the scope of the invention, if properly described, is limited only by the appended claims, along with all scope equivalents to those claimed. Like reference numerals in the drawings refer to the same or similar functions throughout the various aspects.

이하, 도면들을 참조하여 본 발명의 바람직한 실시예들을 보다 상세하게 설명하기로 한다. Hereinafter, preferred embodiments of the present invention will be described in more detail with reference to the drawings.

도 1은 본 발명의 일 실시예에 따른 딥러닝 기반 영상의 안개 제거 장치의 블록도이다. 도 2는 본 발명에서 비율(rate)에 따른 팽창된 합성곱(dilated convolution)을 설명하기 위한 도면이다.1 is a block diagram of an apparatus for removing fog of a deep learning-based image according to an embodiment of the present invention. 2 is a diagram for explaining a dilated convolution according to a rate in the present invention.

본 발명에 따른 딥러닝 기반 영상의 안개 제거 장치(10, 이하 장치)는 단일 카메라에서 획득한 영상의 안개를 제거하는 장치로서, 안개 영상 모델에 기반하지 않고 실제 여러 상황의 안개 영상에 대해서도 적용 가능하다. The deep learning-based image fog removal device (10, hereinafter device) according to the present invention is a device for removing fog from an image acquired from a single camera, and is not based on a fog image model but can be applied to fog images in various situations Do.

도 1을 참조하면, 본 발명에 따른 장치(10)는 특징 추출부(100), 스케일 분할부(310, 330, 350, 370), RDB 연속부(312, 314, 316, 332, 334, 336, 352, 354, 356, 372, 374, 376), 매칭부(500, 600, 700) 및 학습부(900)를 포함한다.Referring to FIG. 1 , an apparatus 10 according to the present invention includes a feature extraction unit 100 , scale division units 310 , 330 , 350 , 370 , and RDB continuation units 312 , 314 , 316 , 332 , 334 , 336 . , 352 , 354 , 356 , 372 , 374 , 376 , matching units 500 , 600 , 700 , and a learning unit 900 .

본 발명의 상기 장치(10)는 딥러닝 기반 영상의 안개 제거를 수행하기 위한 소프트웨어(애플리케이션)가 설치되어 실행될 수 있으며, 상기 특징 추출부(100), 상기 스케일 분할부(310, 330, 350, 370), 상기 RDB 연속부(312, 314, 316, 332, 334, 336, 352, 354, 356, 372, 374, 376), 상기 매칭부(500, 600, 700) 및 상기 학습부(900)의 구성은 상기 장치(10)에서 실행되는 상기 딥러닝 기반 영상의 안개 제거를 수행하기 위한 소프트웨어에 의해 제어될 수 있다. In the device 10 of the present invention, software (application) for performing fog removal of a deep learning-based image may be installed and executed, and the feature extraction unit 100, the scale division unit 310, 330, 350, 370), the RDB continuation unit 312, 314, 316, 332, 334, 336, 352, 354, 356, 372, 374, 376, the matching unit 500, 600, 700, and the learning unit 900 The configuration of may be controlled by software for performing fog removal of the deep learning-based image executed in the device 10 .

상기 장치(10)는 별도의 단말이거나 또는 단말의 일부 모듈일 수 있다. 또한, 상기 특징 추출부(100), 상기 스케일 분할부(310, 330, 350, 370), 상기 RDB 연속부(312, 314, 316, 332, 334, 336, 352, 354, 356, 372, 374, 376), 상기 매칭부(500, 600, 700) 및 상기 학습부(900)의 구성은 통합 모듈로 형성되거나, 하나 이상의 모듈로 이루어 질 수 있다. 그러나, 이와 반대로 각 구성은 별도의 모듈로 이루어질 수도 있다.The device 10 may be a separate terminal or a module of the terminal. In addition, the feature extraction unit 100, the scale division unit 310, 330, 350, 370, and the RDB continuation unit 312, 314, 316, 332, 334, 336, 352, 354, 356, 372, 374 , 376), the matching units 500 , 600 , 700 , and the learning unit 900 may be configured as an integrated module, or may include one or more modules. However, on the contrary, each configuration may be formed of a separate module.

상기 장치(10)는 이동성을 갖거나 고정될 수 있다. 상기 장치(10)는, 서버(server) 또는 엔진(engine) 형태일 수 있으며, 디바이스(device), 기구(apparatus), 단말(terminal), UE(user equipment), MS(mobile station), 무선기기(wireless device), 휴대기기(handheld device) 등 다른 용어로 불릴 수 있다. The device 10 may be movable or stationary. The apparatus 10 may be in the form of a server or an engine, and may be a device, an application, a terminal, a user equipment (UE), a mobile station (MS), or a wireless device. (wireless device), may be called other terms such as a handheld device (handheld device).

상기 장치(10)는 운영체제(Operation System; OS), 즉 시스템을 기반으로 다양한 소프트웨어를 실행하거나 제작할 수 있다. 상기 운영체제는 소프트웨어가 장치의 하드웨어를 사용할 수 있도록 하기 위한 시스템 프로그램으로서, 안드로이드 OS, iOS, 윈도우 모바일 OS, 바다 OS, 심비안 OS, 블랙베리 OS 등 모바일 컴퓨터 운영체제 및 윈도우 계열, 리눅스 계열, 유닉스 계열, MAC, AIX, HP-UX 등 컴퓨터 운영체제를 모두 포함할 수 있다.The device 10 may execute or manufacture various software based on an operating system (OS), that is, the system. The operating system is a system program for software to use the hardware of the device, and is a mobile computer operating system such as Android OS, iOS, Windows Mobile OS, Bada OS, Symbian OS, Blackberry OS, and Windows series, Linux series, Unix series, It can include all computer operating systems such as MAC, AIX, and HP-UX.

상기 특징 추출부(100)는 안개 영상이 입력되면, 합성곱(convolution) 연산을 수행하여 영상 특징을 추출한다. 일 실시예에서 3Х3 합성곱 연산층을 이용하여 영상 특징을 추출할 수 있다.When a fog image is input, the feature extraction unit 100 extracts image features by performing a convolution operation. In an embodiment, image features may be extracted using a 3Х3 convolutional operation layer.

상기 스케일 분할부(310, 330, 350, 370)는 상기 특징 추출부(100)로부터 추출된 영상 특징을 서로 다른 비율(rate)을 가지는 n(여기서, n은 자연수)개의 팽창된 합성곱(dilated convolution) 연산을 수행하여 n개의 스케일 영상 특징을 추출한다.The scale division unit 310 , 330 , 350 , 370 divides the image features extracted from the feature extraction unit 100 into n (here, n is a natural number) dilated convolutions having different rates. convolution) operation to extract n scale image features.

팽창된 합성곱(dilated convolution)는 해당 비율(rate)만큼의 픽셀(pixel)을 건너 뛰면서 합성곱 연산을 수행하는 것이다. 팽창된 합성곱(dilated convolution)는 비율(rate)만큼 픽셀(pixel)을 건너뛰면서 합성곱 연산을 수행하기 때문에 비율(rate)에 따라 다양한 스케일에서의 영상 특징을 분석할 수 있다.In dilated convolution, the convolution operation is performed while skipping pixels as much as the corresponding rate. Since dilated convolution performs a convolution operation while skipping pixels by a rate, image features at various scales can be analyzed according to the rate.

도 2를 참조하면, 비율(rate)이 1인 경우, 1 픽셀 간격으로 합성곱을 수행하고, 비율(rate)이 2인 경우, 2 픽셀 간격으로 합성곱을 수행한다. 마찬가지로, 비율(rate)이 3인 경우, 3 픽셀 간격으로 합성곱을 수행한다.Referring to FIG. 2 , when the rate is 1, convolution is performed at intervals of 1 pixel, and when the rate is 2, convolution is performed at intervals of 2 pixels. Similarly, when the rate is 3, convolution is performed at an interval of 3 pixels.

일 실시예에서, 각 스케일 분할부(310, 330, 350, 370)는 4개의 3Х3 팽창된 합성곱(dilated convolution) 연산층들을 이용하여 4개 스케일의 영상 특징을 추출할 수 있다.In an embodiment, each of the scale division units 310 , 330 , 350 , and 370 may extract image features of four scales using four 3Х3 dilated convolution operation layers.

도 1에서, 상기 스케일 분할부(310, 330, 350, 370)의 괄호 안의 숫자는 팽창된 합성곱(dilated convolution)의 비율(rate)을 나타낸다. 그러나, 상기 비율(rate)과 3Х3 팽창된 합성곱은 일례에 불과하며, 필요에 따라 상기 비율(rate)과 nХn 팽창된 합성곱의 변수를 변경하여 수행할 수 있다.In FIG. 1 , numbers in parentheses of the scale division units 310 , 330 , 350 , 370 indicate a rate of dilated convolution. However, the rate and the 3Х3 expanded convolution are only examples, and may be performed by changing the rate and variables of the nХn expanded convolution, if necessary.

상기 스케일 분할부(310, 330, 350, 370)는 상기 4개의 3Х3 팽창된 합성곱(dilated convolution) 연산층들은 각각 1, 2, 4 및 8의 비율(rate)로 특징을 분석하여, 4가지 스케일에서의 영상 특징을 분석할 수 있다. The scale division unit 310 , 330 , 350 , 370 analyzes the characteristics of the four 3Х3 dilated convolution operation layers at rates of 1, 2, 4 and 8, respectively. Image features at scale can be analyzed.

구체적으로, 제1 스케일 분할부(310)는 1의 비율(rate)로 3Х3 팽창된 합성곱(dilated convolution)을 수행하고, 제2 스케일 분할부(330)는 2의 비율(rate)로 3Х3 팽창된 합성곱(dilated convolution)을 수행한다. Specifically, the first scale dividing unit 310 performs 3Х3 dilated convolution at a rate of 1, and the second scale dividing unit 330 expands 3Х3 at a rate of 2. Perform dilated convolution.

또한, 제3 스케일 분할부(350)는 4의 비율(rate)로 3Х3 팽창된 합성곱(dilated convolution)을 수행하고, 제4 스케일 분할부(370)는 8의 비율(rate)로 3Х3 팽창된 합성곱(dilated convolution)을 수행한다. 이에 따라, 본 발명에서는 다양한 스케일에서의 영상 특징을 분석할 수 있다.In addition, the third scale dividing unit 350 performs 3Х3 dilated convolution at a rate of 4, and the fourth scale dividing unit 370 performs 3Х3 dilated convolution at a rate of 8. Perform dilated convolution. Accordingly, in the present invention, image features at various scales can be analyzed.

상기 RDB 연속부(312, 314, 316, 332, 334, 336, 352, 354, 356, 372, 374, 376)는 상기 스케일 분할부(310, 330, 350, 370)로부터 추출된 n개의 스케일 영상 특징을 각각 복수개의 RDB(residual dense block)를 통해 합성곱 연산이 수행된 데이터를 이후 합성곱의 누적 입력으로 반영하는 누적 합성곱 연산을 연속으로 수행한다.The RDB continuation units 312, 314, 316, 332, 334, 336, 352, 354, 356, 372, 374, and 376 are n scale images extracted from the scale division units 310, 330, 350, and 370. The cumulative convolution operation, which reflects the data on which the convolution operation has been performed through a plurality of residual dense blocks (RDBs) for each feature, as a cumulative input of the subsequent convolution, is continuously performed.

도 3은 본 발명의 딥러닝에서 사용하는 Resisual Block의 구조를 보여주는 블록도이고, 도 4는 본 발명의 딥러닝에서 사용하는 Dense Block의 구조를 보여주는 블록도이다. 도 5는 본 발명의 딥러닝에서 사용하는 RDB(Resisual Dense Block)의 구조를 보여주는 블록도이다.3 is a block diagram showing the structure of a Resisual Block used in deep learning of the present invention, and FIG. 4 is a block diagram showing the structure of a Dense Block used in deep learning of the present invention. 5 is a block diagram showing the structure of a RDB (Resisual Dense Block) used in deep learning of the present invention.

본 발명은 도 5의 RDB(residual dense block)를 기본 구조로 한다. RDB의 구조는 convolution과 ReLU를 거치면서 도 3의 residual block과 도 4의 dense block을 결합한 형태의 구조이다. RDB는 영상의 초해상도 문제를 해결하기 위해 제안되었던 구조이다. The present invention uses the residual dense block (RDB) of FIG. 5 as a basic structure. The structure of the RDB is a structure in which the residual block of FIG. 3 and the dense block of FIG. 4 are combined through convolution and ReLU. RDB is a proposed structure to solve the super-resolution problem of images.

여기서, 누적 합성곱이란, 이후 합성곱의 누적 입력으로 반영하는 누적 합성곱을 수행하는 것으로, 도 4와 같이, 첫 번째 RDB 합성 블록의 출력은, 두 번째 RDB 합성 블록, 세 번째 RDB 합성 블록 및 네 번째 RDB 합성 블록의 입력이 된다. 마찬가지로, 두 번째 RDB 합성 블록의 출력은, 세 번째 RDB 합성 블록 및 네 번째 RDB 합성 블록의 입력이 되고, 세 번째 RDB 합성 블록의 출력은 네 번째 RDB 합성 블록의 입력이 된다.Here, the cumulative convolution refers to performing cumulative convolution that is reflected as a cumulative input of subsequent convolution, and as shown in FIG. 4 , the output of the first RDB synthesis block is a second RDB synthesis block, a third RDB synthesis block, and four It becomes the input of the first RDB synthesis block. Similarly, the output of the second RDB composition block becomes the input of the third RDB composition block and the fourth RDB composition block, and the output of the third RDB composition block becomes the input of the fourth RDB composition block.

본 발명에서는 4 종류의 팽창된 합성곱을 통해 나온 특징들을 각각 residual dense block(RDB)을 이용하여 해당 스케일에 대한 특징들을 더 깊게 분석할 수 있다. RDB는 residual block과 dense block을 활용하여 구성된 모듈로써, 특징들의 분석에 매우 효과적이다. In the present invention, it is possible to further analyze the features on the corresponding scale by using a residual dense block (RDB) for each of the features obtained through the four types of expanded convolution. RDB is a module constructed using residual blocks and dense blocks, and is very effective for feature analysis.

본 발명의 일 실시예에서는 각 스케일마다 3개의 RDB를 사용하여 총 12개의 RDB를 사용하였다. 구체적으로, 제1 스케일 분할부(310)의 출력은 RDB 연속부(312, 314, 316)를 거치며 3개의 RDB(residual dense block)를 이용하여 누적 합성곱 연산을 연속으로 수행한다.In an embodiment of the present invention, a total of 12 RDBs were used by using 3 RDBs for each scale. Specifically, the output of the first scale division unit 310 passes through the RDB continuation units 312 , 314 , and 316 and sequentially performs the cumulative convolution operation using three residual dense blocks (RDBs).

제2 스케일 분할부(330)의 출력은 RDB 연속부(332, 334, 336)를 거치며 3개의 RDB(residual dense block)를 이용하여 누적 합성곱 연산을 연속으로 수행하고, 제3 스케일 분할부(350)의 출력은 RDB 연속부(352, 354, 356)를 거치며 3개의 RDB(residual dense block)를 이용하여 누적 합성곱 연산을 연속으로 수행한다. 마찬가지로, 제4 스케일 분할부(370)의 출력은 RDB 연속부(372, 374, 316)를 거치며 3개의 RDB(residual dense block)를 이용하여 누적 합성곱 연산을 연속으로 수행한다.The output of the second scale division unit 330 goes through the RDB continuation units 332 , 334 , and 336 to successively perform a cumulative convolution operation using three RDBs (residual dense blocks), and the third scale division unit ( The output of 350 goes through the RDB continuation units 352 , 354 , and 356 , and a cumulative convolution operation is continuously performed using three residual dense blocks (RDBs). Similarly, the output of the fourth scale division unit 370 passes through the RDB continuation units 372 , 374 , and 316 and sequentially performs a cumulative convolution operation using three residual dense blocks (RDBs).

상기 매칭부(500, 600, 700)는 상기 누적 합성곱 연산을 연속으로 수행한 n개의 스케일 영상 특징을 상기 안개 영상과 같은 채널로 매칭한다. 구체적으로, 상기 매칭부(500, 600, 700)는 상기 누적 합성곱 연산을 연속으로 수행한 n개의 스케일 영상 특징을 접합(concatenation) 연산을 수행하는 접합 연산부(500)와 상기 안개 영상과 같은 채널로 매칭하기 위해 2번의 합성곱(convolution) 연산을 수행하는 제1 및 제2 합성곱 연산부(600, 700)를 포함할 수 있다.The matching units 500 , 600 , and 700 match the features of the n scale images that have been successively performed the cumulative convolution operation to the same channel as the fog image. Specifically, the matching unit 500 , 600 , 700 includes a concatenation operation unit 500 that performs a concatenation operation on n scale image features on which the cumulative convolution operation is continuously performed and the same channel as the fog image. It may include first and second convolution operation units 600 and 700 that perform two convolution operations to match with .

상기 학습부(900)는 상기 안개 영상과 같은 채널로 매칭된 영상을 상기 안개 영상과 비교 학습하여, 안개를 제거한 영상을 출력한다. The learning unit 900 compares and learns an image matched to the same channel as the fog image with the fog image, and outputs an image from which fog is removed.

본 발명을 실시하기 위해 맑은 날씨의 영상과 그에 상응하는 심도 영상을 3733장씩 수집하고, 각 영상을 5가지의 방법으로 안개를 합성하여 안개가 낀 날씨의 영상을 총 18665장을 만들어 학습 데이터베이스로 사용하였다. 또한, 같은 맑은 날씨 영상의 일부와 그에 상응하는 심도영상 1449장에 대하여 다른 방법으로 안개를 합성한 영상들을 수집하여 학습된 네트워크의 성능을 검증하는데 사용하였다. In order to carry out the present invention, 3733 images of clear weather and corresponding depth images were collected, and each image was synthesized in 5 ways to create a total of 18665 images of foggy weather and used as a learning database. did. In addition, for a part of the same sunny weather image and corresponding depth images, 1449 images were collected and used to verify the performance of the learned network by collecting fog-synthesized images by other methods.

본 발명에서는 네트워크의 성능 검증을 위해 1449장의 안개 영상에 대하여 안개를 제거하고, 안개가 제거된 영상과 맑은 영상 사이의 PSNR과 SSIM을 비교하였다. 성능 검증 결과, PSNR은 21.11, SSIM은 0.88로 종래기술 1(PSNR: 12.84, SSIM: 0.72), 종래기술 2(PSNR: 12.27, SSIM: 0.7)와 비교하였을 때 높은 성능을 보여준다.In the present invention, to verify the performance of the network, fog is removed from 1449 fog images, and PSNR and SSIM between the fog-removed image and the clear image are compared. As a result of the performance verification, PSNR is 21.11 and SSIM is 0.88, which shows high performance compared to prior art 1 (PSNR: 12.84, SSIM: 0.72) and prior art 2 (PSNR: 12.27, SSIM: 0.7).

종래의 기술은 안개 영상 모델에 기반하여 전도율을 추정하기 때문에 해당 모델이 적용되기 힘든 실제 안개 영상에 대해서는 안개를 제대로 제거하는데 한계가 있지만, 본 발명에서 개발한 기술은 안개 영상 모델에 기반하지 않기 때문에 실제 여러 상황의 안개 영상에 대해서도 더 좋은 결과를 가져올 수 있다.Since the conventional technology estimates the conductivity based on the fog image model, there is a limit to properly removing the fog for the actual fog image, which is difficult to apply the model, but the technology developed in the present invention is not based on the fog image model. It can bring better results even for fog images in various actual situations.

또한, 기존의 컴퓨터 비전 관련 기술은 카메라로부터 획득한 영상이 맑은 날씨 환경에서 촬영된 영상이라는 가정 하에 개발되었다. 이로 인해 안개가 낀 환경에서 촬영된 영상의 경우 개발된 컴퓨터 비전 기술이 제대로 활용될 수 없다. 따라서, 본 발명에서 개발된 안개 제거 기술을 적용한 뒤 기존에 개발된 컴퓨터 비전 기술을 적용하면 향상된 성능을 얻을 수 있을 것이다.In addition, the existing computer vision-related technology was developed on the assumption that the image acquired from the camera is an image captured in a clear weather environment. Due to this, the developed computer vision technology cannot be used properly for images shot in a foggy environment. Accordingly, improved performance may be obtained by applying the previously developed computer vision technology after applying the fog removal technology developed in the present invention.

도 6은 본 발명의 일 실시예에 따른 딥러닝 기반 영상의 안개 제거 방법의 흐름도이다.6 is a flowchart of a method for removing fog from a deep learning-based image according to an embodiment of the present invention.

본 실시예에 따른 딥러닝 기반 영상의 안개 제거 방법은, 도 1의 장치(10)와 실질적으로 동일한 구성에서 진행될 수 있다. 따라서, 도 1의 장치(10)와 동일한 구성요소는 동일한 도면부호를 부여하고, 반복되는 설명은 생략한다. The deep learning-based image mist removal method according to the present embodiment may be performed in substantially the same configuration as the apparatus 10 of FIG. 1 . Accordingly, the same components as those of the device 10 of FIG. 1 are given the same reference numerals, and repeated descriptions are omitted.

또한, 본 실시예에 따른 딥러닝 기반 영상의 안개 제거 방법은 딥러닝 기반 영상의 안개 제거를 수행하기 위한 소프트웨어(애플리케이션)에 의해 실행될 수 있다.In addition, the deep learning-based image fog removal method according to the present embodiment may be executed by software (application) for performing the deep learning-based image fogging.

본 발명에 따른 딥러닝 기반 영상의 안개 제거 방법은 단일 카메라에서 획득한 영상의 안개를 제거하는 기술로서, 안개 영상 모델에 기반하지 않고 실제 여러 상황의 안개 영상에 대해서도 적용 가능하다. The deep learning-based image fog removal method according to the present invention is a technique for removing fog from an image acquired from a single camera, and is not based on a fog image model but can be applied to fog images in various situations.

도 6을 참조하면, 본 실시예에 따른 딥러닝 기반 영상의 안개 제거 방법은, 안개 영상이 입력되면, 합성곱(convolution) 연산을 수행하여 영상 특징을 추출한다(단계 S10). 일 실시예에서, 3Х3 합성곱 연산층을 이용하여 영상 특징을 추출할 수 있다.Referring to FIG. 6 , in the deep learning-based image fog removal method according to the present embodiment, when a fog image is input, a convolution operation is performed to extract image features (step S10). In an embodiment, image features may be extracted using a 3Х3 convolutional operation layer.

추출된 영상 특징을 서로 다른 비율(rate)을 가지는 n(여기서, n은 자연수)개의 팽창된 합성곱(dilated convolution) 연산을 수행하여 n개의 스케일 영상 특징을 추출한다(단계 S20).n (here, n is a natural number) dilated convolution operations having different rates on the extracted image features to extract n scaled image features (step S20).

팽창된 합성곱(dilated convolution)는 해당 비율(rate)만큼의 픽셀(pixel)을 건너 뛰면서 합성곱 연산을 수행하는 것이다. 팽창된 합성곱(dilated convolution)는 비율(rate)만큼 픽셀(pixel)을 건너뛰면서 합성곱 연산을 수행하기 때문에 비율(rate)에 따라 다양한 스케일에서의 영상 특징을 분석할 수 있다.In dilated convolution, the convolution operation is performed while skipping pixels as much as the corresponding rate. Since dilated convolution performs a convolution operation while skipping pixels by a rate, image features at various scales can be analyzed according to the rate.

예를 들어, 비율(rate)이 1인 경우, 1 픽셀 간격으로 합성곱을 수행하고, 비율(rate)이 2인 경우, 2 픽셀 간격으로 합성곱을 수행한다. 마찬가지로, 비율(rate)이 3인 경우, 3 픽셀 간격으로 합성곱을 수행한다(도 2 참조).For example, when the rate is 1, convolution is performed at intervals of 1 pixel, and when the rate is 2, convolution is performed at intervals of 2 pixels. Similarly, when the rate is 3, convolution is performed at intervals of 3 pixels (see FIG. 2 ).

일 실시예에서, 4개의 3Х3 팽창된 합성곱(dilated convolution) 연산층들을 이용하여 4개 스케일의 영상 특징을 추출할 수 있다. 그러나, 상기 비율(rate)과 3Х3 팽창된 합성곱은 일례에 불과하며, 필요에 따라 상기 비율(rate)과 nХn 팽창된 합성곱의 변수를 변경하여 수행할 수 있다.In an embodiment, four scale image features may be extracted using four 3Х3 dilated convolution operation layers. However, the rate and the 3Х3 expanded convolution are only examples, and may be performed by changing the rate and variables of the nХn expanded convolution, if necessary.

상기 4개의 3Х3 팽창된 합성곱(dilated convolution) 연산층들은 각각 1, 2, 4 및 8의 비율(rate)로 특징을 분석하여, 4가지 스케일에서의 영상 특징을 분석할 수 있다. 이에 따라, 본 발명에서는 다양한 스케일에서의 영상 특징을 분석할 수 있다.The four 3Х3 dilated convolution operation layers may analyze features at a rate of 1, 2, 4, and 8, respectively, to analyze image features at four scales. Accordingly, in the present invention, image features at various scales can be analyzed.

상기 n개의 스케일 영상 특징을 각각 복수개의 RDB(residual dense block)를 통해 합성곱 연산이 수행된 데이터를 이후 합성곱의 누적 입력으로 반영하는 누적 합성곱 연산을 연속으로 수행한다(단계 S30).A cumulative convolution operation is continuously performed in which the data on which the convolution operation has been performed on the n scale image features through a plurality of residual dense blocks (RDBs) is reflected as a cumulative input of the subsequent convolution (step S30).

추출된 n개의 스케일 영상 특징을 각각 복수개의 RDB(residual dense block)를 통해 합성곱 연산이 수행된 데이터를 이후 합성곱의 누적 입력으로 반영하는 누적 합성곱 연산을 연속으로 수행한다.A cumulative convolution operation is continuously performed in which the extracted n scale image features are reflected as the cumulative input of the convolution operation through a plurality of residual dense blocks (RDBs).

본 발명은 도 5의 RDB(residual dense block)를 기본 구조로 한다. RDB의 구조는 convolution과 ReLU를 거치면서 도 3의 residual block과 도 4의 dense block을 결합한 형태의 구조이다. RDB는 영상의 초해상도 문제를 해결하기 위해 제안되었던 구조이다. The present invention uses the residual dense block (RDB) of FIG. 5 as a basic structure. The structure of the RDB is a structure in which the residual block of FIG. 3 and the dense block of FIG. 4 are combined through convolution and ReLU. RDB is a proposed structure to solve the super-resolution problem of images.

여기서, 누적 합성곱이란, 이후 합성곱의 누적 입력으로 반영하는 누적 합성곱을 수행하는 것으로, 도 4와 같이, 첫 번째 RDB 합성 블록의 출력은, 두 번째 RDB 합성 블록, 세 번째 RDB 합성 블록 및 네 번째 RDB 합성 블록의 입력이 된다. 마찬가지로, 두 번째 RDB 합성 블록의 출력은, 세 번째 RDB 합성 블록 및 네 번째 RDB 합성 블록의 입력이 되고, 세 번째 RDB 합성 블록의 출력은 네 번째 RDB 합성 블록의 입력이 된다.Here, the cumulative convolution refers to performing cumulative convolution that is reflected as a cumulative input of subsequent convolution, and as shown in FIG. 4 , the output of the first RDB synthesis block is a second RDB synthesis block, a third RDB synthesis block, and four It becomes the input of the first RDB synthesis block. Similarly, the output of the second RDB composition block becomes the input of the third RDB composition block and the fourth RDB composition block, and the output of the third RDB composition block becomes the input of the fourth RDB composition block.

본 발명에서는 4 종류의 팽창된 합성곱을 통해 나온 특징들을 각각 residual dense block(RDB)을 이용하여 해당 스케일에 대한 특징들을 더 깊게 분석할 수 있다. RDB는 residual block과 dense block을 활용하여 구성된 모듈로써, 특징들의 분석에 매우 효과적이다. In the present invention, it is possible to further analyze the features on the corresponding scale by using a residual dense block (RDB) for each of the features obtained through the four types of expanded convolution. RDB is a module constructed using residual blocks and dense blocks, and is very effective for feature analysis.

본 발명의 일 실시예에서는 각 스케일마다 3개의 RDB를 사용하여 총 12개의 RDB를 사용하였다. In an embodiment of the present invention, a total of 12 RDBs were used by using 3 RDBs for each scale.

상기 누적 합성곱 연산을 연속으로 수행한 n개의 스케일 영상 특징을 상기 안개 영상과 같은 채널로 매칭한다(단계 S40). 단계 S40은 상기 누적 합성곱 연산을 연속으로 수행한 n개의 스케일 영상 특징을 접합(concatenation) 연산을 수행하는 단계 및 상기 안개 영상과 같은 채널로 매칭하기 위해 2번의 합성곱(convolution) 연산을 수행하는 단계를 포함할 수 있다.The n scale image features on which the cumulative convolution operation is continuously performed are matched with the same channel as the fog image (step S40). Step S40 is a step of performing a concatenation operation on n scale image features that have been successively performed the cumulative convolution operation, and performing two convolution operations to match the same channel as the fog image. may include steps.

상기 안개 영상과 같은 채널로 매칭된 영상을 상기 안개 영상과 비교 학습하여(단계 S50), 안개를 제거한 영상을 출력한다.An image matched with the same channel as the fog image is compared and learned with the fog image (step S50), and an image from which fog is removed is output.

이에 따라, 본 발명에서 개발한 기술은 안개 영상 모델에 기반하지 않기 때문에 실제 여러 상황의 안개 영상에 대해서도 더 좋은 결과를 가져올 수 있다.Accordingly, since the technology developed in the present invention is not based on a fog image model, it can bring better results for fog images in various situations.

이와 같은, 딥러닝 기반 영상의 안개 제거 방법은 애플리케이션으로 구현되거나 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. Such a deep learning-based image fog removal method may be implemented as an application or implemented in the form of program instructions that may be executed through various computer components and recorded in a computer-readable recording medium. The computer-readable recording medium may include program instructions, data files, data structures, etc. alone or in combination.

상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거니와 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수도 있다. The program instructions recorded on the computer-readable recording medium are specially designed and configured for the present invention, and may be known and available to those skilled in the computer software field.

컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. Examples of the computer-readable recording medium include a hard disk, a magnetic medium such as a floppy disk and a magnetic tape, an optical recording medium such as a CD-ROM, a DVD, and a magneto-optical medium such as a floppy disk. media), and hardware devices specially configured to store and execute program instructions such as ROM, RAM, flash memory, and the like.

프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware device may be configured to operate as one or more software modules to perform processing according to the present invention, and vice versa.

이상에서는 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although described above with reference to the embodiments, those skilled in the art can variously modify and change the present invention within the scope without departing from the spirit and scope of the present invention described in the claims below You will understand.

본 발명은 단일 카메라에서 획득한 영상의 안개를 제거하는 컴퓨터 비전 기술로, 스마트폰 어플리케이션 등에 유용하게 적용이 가능하다. 또한, 자동차 산업, 농업관련 산업, 감시 카메라 분야에 다양하게 적용이 가능하다.The present invention is a computer vision technology that removes the fog of an image acquired from a single camera, and can be usefully applied to a smartphone application and the like. In addition, it can be applied to various fields such as automobile industry, agricultural industry, and surveillance camera.

종래의 기술은 안개 영상 모델에 기반하여 전도율을 추정하기 때문에 해당 모델이 적용되기 힘든 실제 안개 영상에 대해서는 안개를 제대로 제거하는데 한계가 있으나, 본 발명에서 개발한 기술은 안개 영상 모델에 기반하지 않기 때문에 실제 여러 상황의 안개 영상에 대해서도 더 좋은 결과를 가져올 수 있다.Since the conventional technology estimates the conductivity based on the fog image model, there is a limit to properly removing the fog for the actual fog image, which is difficult to apply the model, but the technology developed in the present invention is not based on the fog image model. It can bring better results even for fog images in various actual situations.

또한, 기존의 컴퓨터 비전 관련 기술은 카메라로부터 획득한 영상이 맑은 날씨 환경에서 촬영된 영상이라는 가정 하에 개발되었다. 이로 인해 안개가 낀 환경에서 촬영된 영상의 경우 개발된 컴퓨터 비전 기술이 제대로 활용될 수 없다. 따라서, 본 개발에서 개발된 안개 제거 기술을 적용한 뒤 기존에 개발된 컴퓨터 비전 기술을 적용하면 향상된 성능을 얻을 수 있을 것이다.In addition, the existing computer vision-related technology was developed on the assumption that the image acquired from the camera is an image captured in a clear weather environment. Due to this, the developed computer vision technology cannot be used properly for images shot in a foggy environment. Therefore, improved performance can be obtained by applying the previously developed computer vision technology after applying the fog removal technology developed in this development.

10: 딥러닝 기반 영상의 안개 제거 장치
100: 특징 추출부
310, 330, 350, 370: 스케일 분할부
312, 314, 316: RDB 연속부
500: 접합 연산부
600: 제1 합성곱 연산부
700: 제2 합성곱 연산부
900: 학습부
10: Deep learning-based video fog removal device
100: feature extraction unit
310, 330, 350, 370: scale division
312, 314, 316: RDB continuation
500: joint operation unit
600: first convolution operation unit
700: second convolution operation unit
900: study department

Claims (14)

안개 영상이 입력되면, 합성곱(convolution) 연산을 수행하여 영상 특징을 추출하는 단계;
추출된 영상 특징을 서로 다른 비율(rate)을 가지는 n(여기서, n은 자연수)개의 팽창된 합성곱(dilated convolution) 연산을 수행하여 n개의 스케일 영상 특징을 추출하는 단계;
상기 n개의 스케일 영상 특징을 각각 복수개의 RDB(residual dense block)를 통해 합성곱 연산이 수행된 데이터를 이후 합성곱의 누적 입력으로 반영하는 누적 합성곱 연산을 연속으로 수행하는 단계;
상기 누적 합성곱 연산을 연속으로 수행한 n개의 스케일 영상 특징을 상기 안개 영상과 같은 채널로 매칭하는 단계; 및
상기 안개 영상과 같은 채널로 매칭된 영상을 상기 안개 영상과 비교 학습하여, 안개를 제거한 영상을 출력하는 단계;를 포함하고,
상기 n개의 스케일 영상 특징을 추출하는 단계는,
4개의 3Х3 팽창된 합성곱(dilated convolution) 연산층들을 이용하여 4개의 스케일 영상 특징을 추출하되,
서로 다른 비율에 따라 다양한 스케일에서 영상 특징을 분석할 수 있도록 상기 4개의 3Х3 팽창된 합성곱(dilated convolution) 연산층은 각각 1, 2, 4 및 8의 비율(rate)만큼의 픽셀(pixel)을 건너뛰면서 수행되는 합성곱 연산을 이용하며,
상기 누적 합성곱 연산을 연속으로 수행하는 단계는,
추출된 상기 4개의 스케일 영상 특징마다 각각 3개의 RDB(residual dense block)를 사용하여 합성곱의 누적 입력으로 반영하는, 딥러닝 기반 영상의 안개 제거 방법.
when a fog image is input, performing a convolution operation to extract image features;
extracting n scaled image features by performing n (where n is a natural number) dilated convolution operations on the extracted image features at different rates;
continuously performing a cumulative convolution operation in which the data on which the convolution operation has been performed through a plurality of residual dense blocks (RDBs) for each of the n scale image features is reflected as a cumulative input of the subsequent convolution;
matching n scaled image features on which the cumulative convolution operation is continuously performed with the same channel as the fog image; and
Comparing and learning the image matched to the same channel as the fog image with the fog image, and outputting an image from which fog is removed;
The step of extracting the n scale image features,
Extracting four scale image features using four 3Х3 dilated convolution operation layers,
In order to analyze image features at various scales according to different ratios, the four 3Х3 dilated convolution operation layers generate pixels as many as 1, 2, 4, and 8 rates, respectively. It uses a convolution operation performed by skipping,
The step of continuously performing the cumulative convolution operation comprises:
A method for removing fog in a deep learning-based image, in which each of the extracted four scale image features is reflected as a cumulative input of a convolution using three residual dense blocks (RDBs).
제1항에 있어서, 상기 합성곱 연산을 수행하여 영상 특징을 추출하는 단계는,
3Х3 합성곱 연산층을 이용하여 영상 특징을 추출하는, 딥러닝 기반 영상의 안개 제거 방법.
The method of claim 1, wherein the extracting of image features by performing the convolution operation comprises:
A deep learning-based image fog removal method that extracts image features using a 3Х3 convolutional operation layer.
삭제delete 삭제delete 삭제delete 삭제delete 제1항에 있어서, 상기 누적 합성곱 연산을 연속으로 수행한 n개의 스케일 영상 특징을 상기 안개 영상과 같은 채널로 매칭하는 단계는,
상기 누적 합성곱 연산을 연속으로 수행한 n개의 스케일 영상 특징을 접합(concatenation) 연산을 수행하는 단계; 및
상기 안개 영상과 같은 채널로 매칭하기 위해 2번의 합성곱(convolution) 연산을 수행하는 단계;를 포함하는, 딥러닝 기반 영상의 안개 제거 방법.
The method of claim 1, wherein the matching of n scale image features on which the cumulative convolution operation is continuously performed to the same channel as the fog image comprises:
performing a concatenation operation on n scale image features on which the cumulative convolution operation is continuously performed; and
Performing two convolution operations to match the same channel as the fog image; Containing, Deep learning-based image fog removal method.
제1항 및 제7항의 어느 하나의 항에 따른 상기 딥러닝 기반 영상의 안개 제거 방법을 수행하기 위한 컴퓨터 프로그램이 기록된 컴퓨터로 판독 가능한 저장 매체.
A computer-readable storage medium in which a computer program for performing the method for removing fog of the deep learning-based image according to any one of claims 1 and 7 is recorded.
안개 영상이 입력되면, 합성곱(convolution) 연산을 수행하여 영상 특징을 추출하는 특징 추출부;
상기 특징 추출부로부터 추출된 영상 특징을 서로 다른 비율(rate)을 가지는 n(여기서, n은 자연수)개의 팽창된 합성곱(dilated convolution) 연산을 수행하여 n개의 스케일 영상 특징을 추출하는 스케일 분할부;
상기 스케일 분할부로부터 추출된 n개의 스케일 영상 특징을 각각 복수개의 RDB(residual dense block)를 통해 합성곱 연산이 수행된 데이터를 이후 합성곱의 누적 입력으로 반영하는 누적 합성곱 연산을 연속으로 수행하는 RDB 연속부;
상기 누적 합성곱 연산을 연속으로 수행한 n개의 스케일 영상 특징을 상기 안개 영상과 같은 채널로 매칭하는 매칭부; 및
상기 안개 영상과 같은 채널로 매칭된 영상을 상기 안개 영상과 비교 학습하여, 안개를 제거한 영상을 출력하는 학습부;를 포함하고,
상기 스케일 분할부는,
4개의 3Х3 팽창된 합성곱(dilated convolution) 연산층들을 이용하여 4개의 스케일 영상 특징을 추출하되,
서로 다른 비율에 따라 다양한 스케일에서 영상 특징을 분석할 수 있도록 상기 4개의 3Х3 팽창된 합성곱(dilated convolution) 연산층은 각각 1, 2, 4 및 8의 해당 비율(rate)만큼의 픽셀(pixel)을 건너뛰면서 수행되는 합성곱 연산을 이용하며,
상기 RDB 연속부는,
추출된 상기 4개의 스케일 영상 특징마다 각각 3개의 RDB(residual dense block)를 사용하여 합성곱의 누적 입력으로 반영하는, 딥러닝 기반 영상의 안개 제거 장치.
a feature extracting unit that extracts image features by performing a convolution operation when a fog image is input;
A scale dividing unit extracting n scaled image features by performing n (here, n is a natural number) dilated convolution operations on the image features extracted from the feature extractor having different rates. ;
Continuously performing a cumulative convolution operation in which the n scale image features extracted from the scale division unit reflect the data on which the convolution operation has been performed through a plurality of residual dense blocks (RDBs) as the cumulative input of the subsequent convolution. RDB continuation;
a matching unit that matches the features of n scaled images on which the cumulative convolution operation is continuously performed to the same channel as the fog image; and
A learning unit that compares and learns an image matched to the same channel as the fog image with the fog image, and outputs an image from which the fog is removed;
The scale division unit,
Extracting four scale image features using four 3Х3 dilated convolution operation layers,
In order to analyze image features at various scales according to different ratios, the four 3Х3 dilated convolution operation layers each have a corresponding rate of 1, 2, 4, and 8 pixels. It uses the convolution operation performed while skipping
The RDB continuation part,
An apparatus for removing fog of a deep learning-based image, which is reflected as a cumulative input of a convolution using three residual dense blocks (RDB) for each of the extracted four scale image features.
제9항에 있어서, 상기 특징 추출부는,
3Х3 합성곱 연산층을 이용하여 영상 특징을 추출하고, 딥러닝 기반 영상의 안개 제거 장치.
The method of claim 9, wherein the feature extraction unit,
A device that extracts image features using 3Х3 convolutional operation layer and removes fog from deep learning-based images.
삭제delete 삭제delete 삭제delete 제9항에 있어서, 상기 매칭부는,
상기 누적 합성곱 연산을 연속으로 수행한 n개의 스케일 영상 특징을 접합(concatenation) 연산을 수행하는 접합 연산부; 및
상기 안개 영상과 같은 채널로 매칭하기 위해 2번의 합성곱(convolution) 연산을 수행하는 제1 및 제2 합성곱 연산부;를 포함하는, 딥러닝 기반 영상의 안개 제거 장치.
The method of claim 9, wherein the matching unit,
a concatenation operation unit configured to perform a concatenation operation on n scale image features that have been successively performed the cumulative convolution operation; and
First and second convolution operation units that perform two convolution operations to match the same channel as the fog image; and a deep learning-based image fog removal apparatus.
KR1020200006501A 2019-11-29 2020-01-17 Method for single image dehazing based on deep learning, recording medium and device for performing the method KR102268027B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20190157380 2019-11-29
KR1020190157380 2019-11-29

Publications (2)

Publication Number Publication Date
KR20210067824A KR20210067824A (en) 2021-06-08
KR102268027B1 true KR102268027B1 (en) 2021-06-23

Family

ID=76399523

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200006501A KR102268027B1 (en) 2019-11-29 2020-01-17 Method for single image dehazing based on deep learning, recording medium and device for performing the method

Country Status (1)

Country Link
KR (1) KR102268027B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102326840B1 (en) * 2021-09-07 2021-11-17 주식회사 이지스마트팜 Mini image processing device to improve visibility of internet protocol type cctv in situations where visibility is reduced
CN113962901B (en) * 2021-11-16 2022-08-23 中国矿业大学(北京) Mine image dust removing method and system based on deep learning network

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101445577B1 (en) 2013-03-11 2014-11-04 주식회사 브이아이티시스템 System for enhancing the foggy luminance image using the estimation model of haze removal
KR102104403B1 (en) 2013-05-28 2020-04-28 한화테크윈 주식회사 Method and Apparatus for removing haze in a single image

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Wuzhen Shi ET AL:"Single image super-resolution with dilated convolution based multi-scale information learning inception module", IEEE International Conference on Image Processing(2017.09.17.) 1부.*
Xiaohong Liu ET AL:"GridDehazeNet: Attention-Based Multi-Scale Network for Image Dehazing", Proceedings of the IEEE/CVF International Conference on Computer Vision (ICCV), 2019(2019.10.27.) 1부.*

Also Published As

Publication number Publication date
KR20210067824A (en) 2021-06-08

Similar Documents

Publication Publication Date Title
CN108985259B (en) Human body action recognition method and device
CN109658417B (en) Improved image segmentation learning method and device and test method and device using same
EP1112661B1 (en) Tracking semantic objects in vector image sequences
CN111401205B (en) Action recognition method and device, electronic equipment and computer readable storage medium
KR102268027B1 (en) Method for single image dehazing based on deep learning, recording medium and device for performing the method
KR102274320B1 (en) Method and apparatus for processing the image
CN111968123B (en) Semi-supervised video target segmentation method
US10013741B2 (en) Method for deblurring video using modeling blurred video with layers, recording medium and device for performing the method
EP1542152A1 (en) Object detection
CN114041165A (en) Video similarity detection method, device and equipment
CN111914762A (en) Gait information-based identity recognition method and device
KR101296318B1 (en) Apparatus and method for object tracking by adaptive block partitioning
CN112270748B (en) Three-dimensional reconstruction method and device based on image
CN110555414B (en) Target detection method, device, equipment and storage medium
JP2010257267A (en) Device, method and program for detecting object area
KR101805018B1 (en) Apparatus, method and computer readable medium having computer program for compact video
CN112084855A (en) Outlier elimination method for video stream based on improved RANSAC method
Shetty et al. Design and implementation of video synopsis using online video inpainting
JP2018049396A (en) Shape estimation method, shape estimation device and shape estimation program
KR102206792B1 (en) Method for image denoising using parallel feature pyramid network, recording medium and device for performing the method
Yin et al. Deep motion boundary detection
CN107274430B (en) Object motion trajectory prediction method and device
CN112561815A (en) Image processing method and device, storage medium and electronic device
Voronin et al. Video inpainting of complex scenes based on local statistical model
CN106202130A (en) A kind of method and device of shot segmentation

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant