KR20200009657A - Apparatus and method for eliminating obstacles in image based on learning-machine - Google Patents

Apparatus and method for eliminating obstacles in image based on learning-machine Download PDF

Info

Publication number
KR20200009657A
KR20200009657A KR1020180084296A KR20180084296A KR20200009657A KR 20200009657 A KR20200009657 A KR 20200009657A KR 1020180084296 A KR1020180084296 A KR 1020180084296A KR 20180084296 A KR20180084296 A KR 20180084296A KR 20200009657 A KR20200009657 A KR 20200009657A
Authority
KR
South Korea
Prior art keywords
image
obstacle
feature map
machine learning
position information
Prior art date
Application number
KR1020180084296A
Other languages
Korean (ko)
Other versions
KR102087296B1 (en
Inventor
윤종필
박진형
구교권
신우상
Original Assignee
한국생산기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국생산기술연구원 filed Critical 한국생산기술연구원
Priority to KR1020180084296A priority Critical patent/KR102087296B1/en
Publication of KR20200009657A publication Critical patent/KR20200009657A/en
Application granted granted Critical
Publication of KR102087296B1 publication Critical patent/KR102087296B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/001
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

The present invention relates to a technology for eliminating an obstacle included in an image, and more specifically, to an apparatus for eliminating an obstacle in an image based on machine learning, configured to predict location information of an obstacle in an image based on machine learning and eliminate the obstacle and restore the image so as to obtain a clear image, and a method thereof. According to the present invention, the apparatus for eliminating an obstacle in an image based on machine learning comprises: a detection unit configured to detect an obstacle in an image by analyzing an input image according to a first model that is pre-learned based on deep learning; an auto focus setting unit configured to focus on a portion excluding the obstacle in the image by using location information of the detected obstacle; and an image restoration unit configured to output an image free of the obstacle according to a second model that is pre-learned based on deep learning with respect to the focused image.

Description

머신러닝 기반 영상의 장애물 제거 장치 및 방법{Apparatus and method for eliminating obstacles in image based on learning-machine} Apparatus and method for eliminating obstacles in image based on learning-machine}

본 발명은 영상에 포함된 장애물을 제거하는 기술에 관한 것으로서, 상세하게는 머신러닝 기반으로 영상 내 장애물의 위치정보를 예측하여 장애물을 제거하고 영상을 복원함으로써 선명한 영상을 획득할 수 있는 머신러닝 기반 영상의 장애물 제거 장치 및 방법에 관한 것이다. The present invention relates to a technique for removing an obstacle included in an image, and more specifically, based on machine learning, a machine learning base capable of obtaining a clear image by removing an obstacle and restoring the image by predicting the position information of the obstacle in the image. An apparatus and method for removing obstacles in an image are provided.

보안, 안전 또는 군사적 상황으로 인해 특정 장소에 카메라 또는 CCTV 등의 센서를 설치하지 못하고 외부에 설치하는 경우가 많다. 특히, 철조망 밖에서 카메라 또는 CCTV를 이용하여 사진이나 동영상을 촬영하는 경우 철조망에 가리어 완벽한 영상을 취득하는 것이 어렵다. Due to security, safety, or military conditions, the installation of a sensor such as a camera or a CCTV in a specific place is often performed outside. In particular, when taking a picture or video using a camera or CCTV outside the barbed wire, it is difficult to obtain a perfect image by the barbed wire.

예를 들어, 군인들이 작전 수행 중에 철조망 밖의 적군을 감시해야 하는 경우, 야구장 등의 경기장에서 안전을 위해 그물망을 설치한 경우, 동물원의 철조망 밖에서 관람을 하는 경우와 같이 철조망이나 그물망 등의 장애물 안쪽으로 들어가지 못하고 밖에서 영상을 촬영해야 한다. For example, if soldiers are to monitor enemy forces outside the barbed wire during the operation, if a net is installed for safety at a stadium such as a baseball field, or inside an obstacle such as barbed wire or net such as watching outside the barbed wire of the zoo. You can't go inside and shoot video outside.

이때 초점이 철조망이나 그물망에 맞춰질 경우 우리가 원하는 대상이 흐려지거나 대상에 초점이 맞춰지더라도 철조망이나 그물망에 가리어져 완벽한 영상을 획득하는 것이 불가능하다. In this case, if the focus is on the barbed wire or the mesh, even if the desired object is blurred or the focus is on the target, it is impossible to obtain a perfect image by covering the barbed wire or the mesh.

이러한 문제는 다양한 환경에서 발생할 수 있다. This problem can occur in various environments.

즉, 고정된 철조망을 향해 카메라 또는 CCTV가 고정 설치되어 촬영하는 경우뿐만 아니라 고정된 철조망을 향해 카메라 또는 CCTV가 이동하면서 촬영하거나, 철조망이 이동하는 가운데 카메라 또는 CCTV도 이동하면서 촬영하는 경우이다. That is, not only when a camera or CCTV is fixedly installed toward the fixed barbed wire, but also when the camera or CCTV moves toward the fixed barbed wire, or when the camera or CCTV moves while the barbed wire moves.

미국등록특허 제9542735호US Patent No. 9542735

본 발명은 상기와 같은 문제점을 해결하기 위해 창안된 것으로서, 본 발명의 목적은 철조망이나 그물망 등의 장애물이 있는 영상으로부터 장애물이 제거된 선명한 영상을 획득하는 것이다. The present invention was devised to solve the above problems, and an object of the present invention is to obtain a clear image from which obstacles are removed from an image having obstacles such as barbed wire or mesh.

이를 위해, 본 발명에 따른 머신러닝 기반 영상의 장애물 제거 장치는 딥 러닝(deep-learning) 기반으로 사전 학습된 제1 모델에 따라 입력 영상을 분석하여 영상 내의 장애물을 검출하는 검출부와, 상기 검출된 장애물의 위치정보를 이용하여 영상 내 장애물을 제외한 부분에 초점을 맞추는 자동 초점 설정부와, 상기 초점이 맞춰진 영상에 대해 딥 러닝 기반으로 사전 학습된 제2 모델에 따라 장애물이 없는 영상을 출력하는 영상 복원부를 포함한다. To this end, the obstacle elimination apparatus of the machine learning-based image according to the present invention is a detection unit for detecting an obstacle in the image by analyzing the input image according to the pre-learned first model based on deep learning (learning), and the detected An auto focus setting unit that focuses on an area except for an obstacle in the image by using the position information of the obstacle, and an image outputting an image without obstacles according to a second model that is pre-learned based on deep learning on the focused image. It includes a recovery unit.

또한, 본 발명에 따른 머신러닝 기반 영상의 장애물 제거 방법은 영상의 장애물 제거 장치에서 머신러닝 기반으로 영상에 포함된 장애물을 제거하는 방법으로서, 딥 러닝(deep-learning) 기반으로 사전 학습된 제1 모델에 따라 입력 영상을 분석하여 영상 내의 장애물을 검출하는 장애물 검출 단계와, 상기 검출된 장애물의 위치정보를 이용하여 영상 내 장애물을 제외한 부분에 초점을 맞추는 자동 초점 설정 단계와, 상기 초점이 맞춰진 영상에 대해 딥 러닝 기반으로 사전 학습된 제2 모델에 따라 장애물이 없는 영상을 출력하는 영상 복원 단계를 포함한다. In addition, the method for removing an obstacle of a machine learning-based image according to the present invention is a method of removing an obstacle included in an image based on machine learning in an obstacle removing apparatus of an image, the first being pre-learned on the basis of deep learning. An obstacle detection step of detecting an obstacle in the image by analyzing an input image according to a model, an auto focus setting step of focusing on an area except an obstacle in the image using the detected position information of the obstacle, and the focused image And an image reconstruction step of outputting an obstacle-free image according to a second model that is pre-trained on the basis of deep learning.

상술한 바와 같이, 본 발명은 딥 러닝 기반으로 영상 내의 장애물을 검출하고 장애물이 아닌 부분에 자동 초점을 맞추어 영상 내에서 장애물을 제거함으로써 장애물이 없는 선명한 영상을 획득할 수 있는 효과가 있다. As described above, the present invention has the effect of obtaining a clear image free of obstacles by detecting obstacles in the image based on deep learning and removing the obstacles in the image by automatically focusing on a portion that is not an obstacle.

도 1은 본 발명에 따른 머신러닝 기반 영상의 장애물 제거 장치의 내부 구성도.
도 2는 본 발명에 따른 머신러닝 기반 영상의 장애물 제거 과정에서 단계별 처리되는 영상의 모습을 나타낸 도면.
도 3은 본 발명에 따른 머신러닝 기반 영상의 장애물 제거 장치에서 검출부의 내부 구성도.
도 4는 본 발명에 따른 가시화 마스크 생성기에서의 처리 과정을 설명하기 위한 도면.
도 5는 본 발명에 따른 머신러닝 기반 영상의 장애물 제거 방법의 순서도.
1 is an internal configuration of the obstacle removing device of the machine learning based image according to the present invention.
2 is a view showing a state of the image processed step by step in the obstacle removal process of the machine learning based image according to the present invention.
Figure 3 is an internal configuration of the detector in the obstacle removing apparatus of the machine learning based image according to the present invention.
4 is a view for explaining a processing procedure in the visualization mask generator according to the present invention.
5 is a flowchart of a method for removing an obstacle in a machine learning based image according to the present invention.

이하, 첨부된 도면을 참조하여 본 발명에 따른 실시 예를 상세하게 설명한다. 본 발명의 구성 및 그에 따른 작용 효과는 이하의 상세한 설명을 통해 명확하게 이해될 것이다. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. The construction of the present invention and the effects thereof will be clearly understood through the following detailed description.

도 1은 본 발명에 따른 머신러닝 기반 영상의 장애물 제거 장치의 내부 구성을 개략적으로 나타낸 것이다. 1 schematically illustrates an internal configuration of an obstacle removing apparatus of a machine learning based image according to the present invention.

도 1을 참조하면, 머신러닝 기반 영상의 장애물 제거 장치는 검출부(10), 자동 초점 설정부(20), 영상 복원부(30), 화질 개선부(40) 등을 포함한다. Referring to FIG. 1, the obstacle removing apparatus of the machine learning-based image includes a detector 10, an auto focus setting unit 20, an image restoring unit 30, an image quality improving unit 40, and the like.

검출부(10)는 카메라 또는 CCTV 등으로부터 영상을 입력받고 영상에 포함된 장애물을 검출한다. 영상에 포함된 장애물로는 대표적으로 철조망, 그물망 등이 있으며, 본 발명의 실시예에서는 장애물로 철조망, 그물망 등을 가정하고 이러한 장애물을 메쉬(mesh)라고 통칭한다. The detector 10 receives an image from a camera or a CCTV and detects an obstacle included in the image. Obstacles included in the image are typically a barbed wire, a mesh, etc. In the embodiment of the present invention, assuming the barbed wire, mesh, etc. as an obstacle, these obstacles are collectively referred to as a mesh (mesh).

영상 내에서 이러한 메쉬를 찾기 위해, 본 발명은 약한 지도 학습(weakly supervised learning) 기반의 딥 러닝(deep-learning) 모델을 제안한다. 즉, 학습 영상으로서 메쉬가 있는 영상과 메쉬가 없는 영상을 준비하여 딥 러닝 기반으로 검출부(10)를 사전 학습시킨다. In order to find such a mesh in an image, the present invention proposes a deep-learning model based on weakly supervised learning. That is, the learning unit 10 is pre-learned based on deep learning by preparing an image having a mesh and an image having no mesh as a learning image.

검출부(10)는 딥 러닝 기반으로 학습된 모델에 따라 영상을 분석하여 메쉬가 있는 영상은 0으로 분류하고, 메쉬가 없는 영상은 1로 분류한다. 검출부(10)에 적용되는 딥 러닝 기반의 학습 모델을 제1 모델이라고 칭한다. The detector 10 analyzes an image according to a model trained on a deep learning basis, and classifies an image with a mesh as 0 and classifies an image without a mesh as 1. The deep learning-based learning model applied to the detector 10 is called a first model.

자동 초점 설정부(20)는 검출부(10)에서 검출한 메쉬의 위치정보를 이용하여 영상에 대한 자동 초점 기능을 수행한다. 즉, 자동 초점 설정부(20)는 메쉬의 위치정보를 알고 있으므로 영상 내 메쉬 부분을 제외한 부분에 초점을 맞춘다. The auto focus setting unit 20 performs an auto focus function on the image by using the position information of the mesh detected by the detection unit 10. That is, since the auto focus setting unit 20 knows the position information of the mesh, the auto focus setting unit 20 focuses on the portion except the mesh portion in the image.

이렇게 메쉬를 제외한 부분에 카메라의 초점을 맞추게 되면 영상 내에서 메쉬 장애물은 흐려지고 메쉬 장애물이 아닌 부분은 선명해진다. When the camera focuses on the non-mesh part, the mesh obstacles in the image become blurred and the non-mesh obstacles become clear.

영상 복원부(30)는 자동 초점 설정부(20)에서 초점이 맞춰진 영상으로부터 메쉬가 없는 영상을 생성한다. The image reconstructor 30 generates an image without a mesh from the image focused by the auto focus setting unit 20.

영상 내에서 메쉬를 제거하여 메쉬가 없는 영상을 생성하기 위해, 본 발명은 딥 러닝의 하나인 오토 인코더(auto-encoder) 기술을 사용한다. In order to generate a mesh-free image by removing the mesh in the image, the present invention uses an auto-encoder technique, which is one of deep learning.

오토 인코더는 하나의 히든 레이어(hidden layer)가 있는 신경망 구조로서, 입력 영상이 그대로 출력되도록 학습하는 방법이다. 즉, 학습 영상으로서 메쉬가 있는 영상과 메쉬가 없는 영상을 한 쌍으로 준비하여 오토 인코더 방식으로 영상 복원부(30)를 학습시킨다. The auto encoder is a neural network structure having a hidden layer, and is a method of learning to output an input image as it is. That is, the image reconstruction unit 30 is trained by using an auto encoder method by preparing a pair of images having a mesh and an image having no mesh as a training image.

영상 복원부(30)는 오터 인코더 기반으로 학습된 모델에 따라 자동 초점 조절된 영상으로부터 메쉬가 없는 영상을 출력할 수 있다. 영상 복원부(30)에서 적용된 딥 러닝 기반의 학습 모델을 제2 모델이라고 칭한다. The image reconstructor 30 may output an image without a mesh from the auto-focused image according to the learned model based on the otter encoder. The deep learning based learning model applied by the image reconstructor 30 is called a second model.

화질 개선부(40)는 영상 복원부(30)에서 출력된 메쉬가 없는 영상에서 발생하는 블러(blur) 현상을 제거한다. The image quality improving unit 40 removes a blur that occurs in an image having no mesh output from the image restoring unit 30.

오토 인코더는 영상의 특징을 압축한 후 그 특징을 이용하여 영상을 복원하는 구조이므로 정보의 손실이 일어나고 이러한 정보의 손실로 인해 영상이 흐릿해지는 블러(blur) 현상이 발생한다. Since the auto-encoder compresses a feature of an image and restores the image by using the feature, loss of information occurs and a blur phenomenon in which the image is blurred due to the loss of the information.

화질 개선부(40)는 영상 복원부(30)의 출력단에 별도로 설치될 수 있으나, 영상 복원부(30)에 포함될 수도 있다. 즉, 화질 개선부(40)의 화질 개선 기능은 영상 처리 기법에 따라 구현되거나, 오토 인코더 구조 안에서 한 번에 학습될 수도 있다. The image quality improving unit 40 may be separately installed at the output terminal of the image restoring unit 30, but may be included in the image restoring unit 30. That is, the image quality improving function of the image quality improving unit 40 may be implemented according to an image processing technique or may be learned at a time in an auto encoder structure.

도 2는 본 발명에 따른 머신러닝 기반 영상의 장애물 제거 과정에서 단계별 처리되는 영상의 모습을 나타낸 것이다. Figure 2 shows the appearance of the image processed step by step in the obstacle removal process of the machine learning based image according to the present invention.

도 2를 참조하면, 도 2의 (a)는 카메라 또는 CCTV에서 촬영한 메쉬가 있는 영상을 나타내고, (b)는 영상 내에서 메쉬가 검출된 것을 나타내고, (c)는 메쉬를 제외한 부분에 초점이 맞춰진 것을 나타내고, (d)는 메쉬가 제거되어 메쉬가 없는 영상을 나타낸다. Referring to FIG. 2, (a) of FIG. 2 shows an image with a mesh photographed by a camera or CCTV, (b) shows that a mesh has been detected in the image, and (c) shows a focus on a part except the mesh. This alignment is shown, and (d) shows the image without the mesh being removed.

특히, 도 2의 (c)에서 메쉬가 아닌 부분에 초점(적색 점선이 가리키는 곳)이 맞춰짐으로써 메쉬는 흐릿하게 보이고 메쉬를 제외한 부분은 선명하게 보이는 것을 알 수 있다. In particular, it can be seen that the mesh is blurred and the portions except the mesh are clearly visible by adjusting the focus (where the dotted red line points) to the non-mesh portion in FIG.

도 3은 본 발명에 따른 머신러닝 기반 영상의 장애물 제거 장치에서 검출부의 내부 구성을 나타낸 것이다. 3 is a block diagram illustrating an internal configuration of a detector in an obstacle removing apparatus of a machine learning based image according to the present invention.

도 3을 참조하면, 검출부(10)는 CNN(Convolution Neural Network)(101), 분류기(classifier)(102), 가시화 마스크 생성기(103), 이진화(binarization) 모듈(104), 분할(segmentation) 모듈(105) 등을 포함한다. Referring to FIG. 3, the detector 10 includes a convolutional neural network (CNN) 101, a classifier 102, a visualization mask generator 103, a binarization module 104, and a segmentation module. 105, and the like.

카메라 또는 CCTV로부터 영상이 CNN(101)에 입력되면, CNN(101)은 입력 영상으로부터 특징 맵(feature map)을 추출한다. When an image is input to the CNN 101 from a camera or a CCTV, the CNN 101 extracts a feature map from the input image.

CNN(101)에서 추출된 특징 맵은 분류기(102)로 입력되어, 분류기(102)는 특징 맵을 심층 신경망에 적용하여 메쉬가 있는 영상 또는 메쉬가 없는 영상으로 분류한다. 메쉬가 있는 영상은 라벨 0으로 분류되고, 메쉬가 없는 영상은 라벨 1로 분류된다. The feature map extracted from the CNN 101 is input to the classifier 102, and the classifier 102 applies the feature map to the deep neural network to classify the image into a meshed or non-meshed image. Images with a mesh are classified as label 0, and images without a mesh are classified as label 1.

메쉬가 있는 영상으로 분류되면, 가시화 마스크 생성기(103)는 메쉬가 있는 영상의 특징 맵을 이용하여 입력 영상과 같은 크기로 매핑된 가시화 마스크(visualization mask)를 출력한다. 가시화 마스크에서 메쉬 장애물 부분은 상대적으로 큰 값을 가지고, 메쉬 장애물이 아닌 부분은 상대적으로 작은 값을 가진다. When classified as an image having a mesh, the visualization mask generator 103 outputs a visualization mask mapped to the same size as the input image using the feature map of the meshed image. In the visualization mask, the mesh obstacle portion has a relatively large value, and the non-mesh obstacle portion has a relatively small value.

이진화 모듈(104)은 가시화 마스크의 값을 0 또는 1로 이진화하고, 분할 모듈(105)는 이진화 영상에서 1인 부분을 메쉬로 인식하고, 0인 부분은 메쉬가 아닌 것으로 인식하여 1인 부분의 좌표 값만 저장함으로써 메쉬의 위치정보를 획득하게 된다. The binarization module 104 binarizes the value of the visualization mask to 0 or 1, and the segmentation module 105 recognizes a portion of 1 as a mesh in the binarized image, and recognizes that the portion of 0 is not a mesh, By storing only the coordinate values, the mesh position information is obtained.

도 4는 본 발명에 따른 가시화 마스크 생성기에서의 처리 과정을 구체적으로 나타낸 것이다. Figure 4 illustrates in detail the processing in the visualization mask generator according to the present invention.

도 4를 참조하면, 먼저 CNN(101)으로 영상이 입력되면 합성 곱(convolution) 과정과 서브샘플링(sub-sampling) 과정을 반복 수행하여 특징 맵(12-1, 12-2, ..., 12-n)을 생성한다. Referring to FIG. 4, when an image is input to the CNN 101, the feature maps 12-1, 12-2, ..., are repeatedly performed by a convolution process and a sub-sampling process. 12-n).

마지막 생성된 특징 맵(12-n)이 분류기(102)로 입력되면 분류기(102)는 심층 신경망을 통해 입력 영상을 메쉬가 있는 영상 또는 메쉬가 없는 영상으로 분류한다. When the last generated feature map 12-n is input to the classifier 102, the classifier 102 classifies the input image into an image having a mesh or an image having no mesh through the deep neural network.

분류 결과, 메쉬가 있는 영상으로 분류되면, 가시화 마스크 생성기(103)는 메쉬가 있는 영상의 특징 맵(12-1, 12-2, ..., 12-n)을 이용하여 최종 가시화 마스크(16-n)을 생성하게 된다. As a result of the classification, when the image is classified as the meshed image, the visualization mask generator 103 uses the feature maps 12-1, 12-2, ..., 12-n of the meshed image to determine the final visualization mask 16. will generate -n).

구체적으로, 가시화 마스크 생성기(103)에서 최종 n 번째 특징 맵(12-n)이 평균화되어 제1 평균 특징 맵(14-1)이 생성되고, 제1 평균 특징 맵(14-1)의 크기가 조절되어 제1 마스크(16-1)가 생성된다. Specifically, the last n th feature map 12-n is averaged in the visualization mask generator 103 to generate a first average feature map 14-1, and the size of the first average feature map 14-1 is increased. The first mask 16-1 is adjusted to be adjusted.

제1 마스크(16-1)는 n-1번째 특징 맵(12-(n-1))의 평균 특징 맵인 제2 평균 특징 맵(14-2)과 픽셀별 곱(pointwise multiplication) 연산되어 제1 픽셀별 곱 결과(15-1)가 생성되고, 제1 픽셀별 곱 결과(15-1)의 크기가 조절되어 제2 마스크가 생성된다. The first mask 16-1 is computed pointwise multiplication with a second average feature map 14-2, which is an average feature map of the n−1 th feature map 12-(n-1), and then performs a first pixel multiplication. The pixel-by-pixel product result 15-1 is generated, and the size of the first pixel-by-pixel product result 15-1 is adjusted to generate a second mask.

이와 같이, 메쉬가 있는 영상의 특징 맵 그룹에서 현재 레이어의 평균 특징 맵과 이전 레이어의 마스크가 픽셀별 곱 연산되는 과정이 역방향으로 순차 진행된다. As described above, the process of multiplying the average feature map of the current layer and the mask of the previous layer in the feature map group of the meshed image by pixels is sequentially performed in the reverse direction.

즉, 마지막 단계에서, n 번째 특징 맵(12-1)의 평균 특징 맵인 제n 평균 특징 맵(14-n)과 제n-1 마스크(16-(n-1))가 픽셀별 곱 연산되어 제n-1 픽셀별 곱 결과(15-(n-1))가 생성되고, 제n-1 픽셀별 곱 결과(15-(n-1))의 크기가 조절되어 최종적으로 입력 영상과 같은 크기로 매핑된 가시화 마스크(16-n)가 생성된다. That is, in the last step, the n-th average feature map 14-n, which is the average feature map of the n-th feature map 12-1, and the n-th mask 16- (n-1) are multiplied pixel by pixel. The product result 15- (n-1) of the n-th pixel is generated, and the size of the product result 15- (n-1) of the n-th pixel is adjusted to finally have the same size as the input image. The visualization mask 16-n mapped to is generated.

도 5는 본 발명에 따른 머신러닝 기반 영상의 장애물 제거 과정을 나타낸 것이다. 5 shows an obstacle removing process of a machine learning based image according to the present invention.

도 5를 참조하면, 먼저 머신러닝 기반 영상의 장애물 제거 장치는 영상을 입력받아 제1 모델에 따라 라벨 0 즉, 영상을 장애물이 있는 영상과 라벨 1 즉, 장애물이 없는 영상으로 분류한다(S10).Referring to FIG. 5, first, an obstacle removing apparatus of a machine learning-based image receives an image and classifies the image into a label 0, that is, an image having an obstacle, and a label 1, that is, an image without an obstacle, according to the first model (S10). .

영상의 분류 결과를 확인하여(S20), 라벨이 0이면, 상술한 과정을 통해 입력 영상과 같은 크기로 매핑된 가시화 마스크를 생성한다(S30). 가시화 마스크는 장애물이 있는 부분에서 상대적으로 큰 값을 갖고 장애물이 없는 부분에서 상대적으로 작은 값을 갖는다. After checking the classification result of the image (S20), if the label is 0, a visualization mask mapped to the same size as the input image is generated through the above-described process (S30). The visualization mask has a relatively large value at the obstacle free portion and a relatively small value at the obstacle free portion.

장애물이 있는 부분과 없는 부분에서 다른 값을 가진 가시화 마스크를 생성하면, 가시화 마스크의 값을 0 또는 1로 이진화하여 이진화 영상을 생성한다(S40). When a visualization mask having a different value is generated in an area having an obstacle and a non-obstruction, a binary image is generated by binarizing the value of the visualization mask to 0 or 1 (S40).

이진화 영상을 생성하면, 이진화 영상에서 1인 부분을 장애물로 인식하고, 0인 부분은 장애물이 아닌 것으로 인식하여 1인 부분의 좌표 값만 저장함으로써 장애물의 위치정보를 획득한다(S50).When generating the binarized image, the part 1 is recognized as an obstacle in the binarized image, the part 0 is recognized as not an obstacle, and only the coordinate values of the part 1 are stored to obtain location information of the obstacle (S50).

장애물의 위치정보를 획득하면, 머신러닝 기반의 영상 제거 장치는 오토 인코더 기반의 제2 모델에 따라 장애물을 제거하여 장애물이 없는 영상을 복원한다(S70).When acquiring the position information of the obstacle, the machine learning-based image removal apparatus removes the obstacle according to the second model based on the auto encoder to restore the image without the obstacle (S70).

장애물이 없는 영상을 복원하면, 복원한 영상에서 발생한 블러(blur) 현상을 제거하여 영상의 화질을 개선한다(S80).When restoring the image without the obstacle, the image quality of the image is improved by removing the blur phenomenon generated in the restored image (S80).

영상의 화질 개선 단계(S80)에서는 영상 복원 단계(S70)의 제2 모델을 사용하거나 제2 모델과 독립적인 영상 처리 기술을 사용할 수도 있다. In the image quality improvement step S80, the second model of the image reconstruction step S70 may be used, or an image processing technique independent of the second model may be used.

이상의 설명은 본 발명을 예시적으로 설명한 것에 불과하며, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 본 발명의 기술적 사상에서 벗어나지 않는 범위에서 다양한 변형이 가능할 것이다. The above description is merely illustrative of the present invention, and various modifications may be made by those skilled in the art without departing from the spirit of the present invention.

따라서 본 발명의 명세서에 개시된 실시 예들은 본 발명을 한정하는 것이 아니다. 본 발명의 범위는 아래의 특허청구범위에 의해 해석되어야 하며, 그와 균등한 범위 내에 있는 모든 기술도 본 발명의 범위에 포함되는 것으로 해석해야 할 것이다. Therefore, the embodiments disclosed in the specification of the present invention are not intended to limit the present invention. The scope of the present invention should be construed by the claims below, and all techniques within the scope equivalent thereto will be construed as being included in the scope of the present invention.

1: 장애물이 포함된 원본 영상 2: 장애물이 검출된 영상
3: 자동 초점 영상 4: 장애물이 제거된 영상
10: 검출부 12: 특징 맵
14: 평균 특징 맵 15: 픽셀별 곱 결과
16: 마스크 20: 자동 초점 설정부
30: 영상 복원부 40: 화질 개선부
101: CNN 102: 분류기
103: 가시화 마스크 생성기 104: 이진화 모듈
105: 분할 모듈
1: Original video with obstacles 2: Video with obstacles detected
3: Auto Focus Image 4: Image with Obstacles Removed
10: detector 12: feature map
14: Average feature map 15: Pixel-by-pixel product result
16: mask 20: autofocus setting
30: image restoration unit 40: image quality improvement unit
101: CNN 102: classifier
103: visualization mask generator 104: binarization module
105: split module

Claims (10)

딥 러닝(deep-learning) 기반으로 사전 학습된 제1 모델에 따라 입력 영상을 분석하여 영상 내의 장애물을 검출하는 검출부와,
상기 검출된 장애물의 위치정보를 이용하여 영상 내 장애물을 제외한 부분에 초점을 맞추는 자동 초점 설정부와,
상기 초점이 맞춰진 영상에 대해 딥 러닝 기반으로 사전 학습된 제2 모델에 따라 장애물이 없는 영상을 출력하는 영상 복원부를 포함하는 머신러닝 기반 영상의 장애물 제거 장치.
A detector configured to detect an obstacle in the image by analyzing an input image according to a first model that is pre-learned based on deep learning;
An auto focus setting unit which focuses on a portion excluding an obstacle in the image by using the detected position information of the obstacle;
And an image restoring unit configured to output an image without obstacles according to a second model that is pre-learned based on deep learning based on the focused image.
제1항에서,
상기 검출부는 입력 영상으로부터 특징 맵(feature map)을 추출하고 특징 맵을 심층 신경망에 적용하여 영상을 장애물이 있는 영상과 장애물이 없는 영상을 분류하고, 장애물이 있는 영상의 특징 맵을 이용하여 영상 내의 장애물의 위치정보를 예측하는 것을 특징으로 하는 머신러닝 기반 영상의 장애물 제거 장치.
In claim 1,
The detection unit extracts a feature map from an input image, applies the feature map to a deep neural network, classifies the image as an obstacle image and an image without an obstacle, and uses the feature map of the image with the obstacle in the image. Obstacle removal device of the machine learning-based image, characterized in that for predicting the position information of the obstacle.
제2항에서,
상기 검출부는 상기 장애물이 있는 영상의 특징 맵 그룹에서 현재 레이어(layer)의 평균 특징 맵과 이전 레이어의 마스크(mask)를 픽셀별 곱(pointwise multiplication) 연산하는 과정을 역방향으로 순차 진행함으로써 입력 영상과 같은 크기로 매핑된 가시화 마스크(visualization mask)를 출력하는 것을 특징으로 하는 머신러닝 기반 영상의 장애물 제거 장치.
In claim 2,
The detection unit sequentially performs a pointwise multiplication operation of the average feature map of the current layer and the mask of the previous layer in the feature map group of the obstacle-free image in reverse order. Obstacle removal apparatus for machine learning based image, characterized in that for outputting a visualization mask (visualization mask) mapped to the same size.
제3항에서,
상기 검출부는 상기 가시화 마스크에 대해 이진화를 수행하여 이진화 영상을 생성하고 이진화 영상으로부터 장애물의 위치정보를 추출하는 것을 특징으로 하는 머신러닝 기반 영상의 장애물 제거 장치.
In claim 3,
The detecting unit performs a binarization on the visualization mask to generate a binarized image and extract position information of the obstacle from the binarized image.
제1항에서,
상기 영상 복원부로부터 출력된 장애물이 없는 영상에서 발생하는 블러(blur) 현상을 제거하는 화질 개선부를 더 포함하는 것을 특징으로 하는 머신러닝 기반 영상의 장애물 제거 장치.
In claim 1,
The obstacle of the machine learning-based image, characterized in that it further comprises an image quality improvement unit for removing a blur phenomenon generated in the image without the obstacle output from the image restoring unit.
영상의 장애물 제거 장치에서 머신러닝 기반으로 영상에 포함된 장애물을 제거하는 방법에 있어서,
딥 러닝(deep-learning) 기반으로 사전 학습된 제1 모델에 따라 입력 영상을 분석하여 영상 내의 장애물을 검출하는 장애물 검출 단계와,
상기 검출된 장애물의 위치정보를 이용하여 영상 내 장애물을 제외한 부분에 초점을 맞추는 자동 초점 설정 단계와,
상기 초점이 맞춰진 영상에 대해 딥 러닝 기반으로 사전 학습된 제2 모델에 따라 장애물이 없는 영상을 출력하는 영상 복원 단계를 포함하는 머신러닝 기반 영상의 장애물 제거 방법.
In the method for removing obstacles included in the image on the basis of machine learning in the obstacle removal apparatus of the image,
An obstacle detection step of detecting an obstacle in the image by analyzing an input image according to a first model that is pre-learned based on deep learning;
An autofocus setting step of focusing on a portion excluding an obstacle in the image by using the detected position information of the obstacle;
And an image reconstruction step of outputting an image free of obstacles according to a second model that is pre-learned on a deep learning basis with respect to the focused image.
제6항에서,
상기 장애물 검출 단계는 입력 영상으로부터 특징 맵(feature map)을 추출하고 특징 맵을 심층 신경망에 적용하여 영상을 장애물이 있는 영상과 장애물이 없는 영상을 분류하는 과정과,
장애물이 있는 영상의 특징 맵을 이용하여 영상 내의 장애물의 위치정보를 예측하는 과정을 포함하는 것을 특징으로 하는 머신러닝 기반 영상의 장애물 제거 방법.
In claim 6,
The obstacle detecting step may include extracting a feature map from an input image and applying the feature map to a deep neural network to classify the image with an obstacle and an image without an obstacle,
A method for removing obstacles in a machine learning-based image, comprising: predicting position information of an obstacle in an image by using a feature map of an obstacle image.
제7항에서,
상기 장애물의 위치정보를 예측하는 과정은 상기 장애물이 있는 영상의 특징 맵 그룹에서 현재 레이어(layer)의 평균 특징 맵과 이전 레이어의 마스크(mask)를 픽셀별 곱(pointwise multiplication) 연산하는 과정을 역방향으로 순차 진행함으로써 입력 영상과 같은 크기로 매핑된 가시화 마스크(visualization mask)를 출력하는 것을 특징으로 하는 머신러닝 기반 영상의 장애물 제거 방법.
In claim 7,
Predicting the position information of the obstacle includes reversely performing a pointwise multiplication operation of the average feature map of the current layer and the mask of the previous layer in the feature map group of the image with the obstacle. And sequentially generating a visualization mask mapped to the same size as the input image.
제8항에서,
상기 장애물의 위치정보를 예측하는 과정은 상기 가시화 마스크에 대해 이진화를 수행하여 이진화 영상을 생성하고 이진화 영상으로부터 장애물의 위치정보를 추출하는 것을 특징으로 하는 머신러닝 기반 영상의 장애물 제거 방법.
In claim 8,
The step of predicting the position information of the obstacle is a method of removing obstacles of the machine learning-based image, characterized in that the binarization is performed on the visualization mask to generate a binarized image and extract position information of the obstacle from the binarized image.
제6항에서,
상기 영상 복원 단계에서 출력된 장애물이 없는 영상에서 발생하는 블러(blur) 현상을 제거하는 화질 개선 단계를 더 포함하는 것을 특징으로 하는 머신러닝 기반 영상의 장애물 제거 방법.
In claim 6,
The method of claim 1, further comprising an image quality improvement step of removing a blur phenomenon occurring in the image without the obstacle output in the image restoring step.
KR1020180084296A 2018-07-19 2018-07-19 Apparatus and method for eliminating obstacles in image based on learning-machine KR102087296B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180084296A KR102087296B1 (en) 2018-07-19 2018-07-19 Apparatus and method for eliminating obstacles in image based on learning-machine

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180084296A KR102087296B1 (en) 2018-07-19 2018-07-19 Apparatus and method for eliminating obstacles in image based on learning-machine

Publications (2)

Publication Number Publication Date
KR20200009657A true KR20200009657A (en) 2020-01-30
KR102087296B1 KR102087296B1 (en) 2020-03-10

Family

ID=69321603

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180084296A KR102087296B1 (en) 2018-07-19 2018-07-19 Apparatus and method for eliminating obstacles in image based on learning-machine

Country Status (1)

Country Link
KR (1) KR102087296B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11816554B2 (en) 2020-06-25 2023-11-14 Si Analytics Co., Ltd. Method and apparatus for generating weather data based on machine learning

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9542735B2 (en) 2014-05-05 2017-01-10 Samsung Electronics Co., Ltd. Method and device to compose an image by eliminating one or more moving objects
WO2017213701A1 (en) * 2016-06-09 2017-12-14 Google Llc Taking photos through visual obstructions

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9542735B2 (en) 2014-05-05 2017-01-10 Samsung Electronics Co., Ltd. Method and device to compose an image by eliminating one or more moving objects
WO2017213701A1 (en) * 2016-06-09 2017-12-14 Google Llc Taking photos through visual obstructions

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Mariusz Bojarski ET AL:"Explaining How a Deep Neural Network Trained with End-to-End Learning Steers a Car", Computer Vision and Pattern Recognition(arXiv:1704.07911), 25 Apr. 2017(2017.04.25.) 1부.* *
Sankaraganesh Jonna ET AL:"My camera can see through fences: A deep learning approach for image de-fencing", 2015 3rd IAPR Asian Conference on Pattern Recognition (ACPR), 3-6 Nov. 2015(2015.11.03.) 1부* *
Shu Zhang ET AL:"DeMeshNet: Blind Face Inpainting for Deep MeshFace Verification", Computer Vision and Pattern Recognition(arXiv:1611.05271), 16 Nov 2016(2016.11.16.) 1부.* *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11816554B2 (en) 2020-06-25 2023-11-14 Si Analytics Co., Ltd. Method and apparatus for generating weather data based on machine learning

Also Published As

Publication number Publication date
KR102087296B1 (en) 2020-03-10

Similar Documents

Publication Publication Date Title
KR101633377B1 (en) Method and Apparatus for Processing Frames Obtained by Multi-Exposure
GB2581626A (en) Method and system for classifying an object-of-interest using an artificial neural network
US8538140B2 (en) Device and method for detecting whether an image is blurred
EP3082065A1 (en) Duplicate reduction for face detection
US20140078320A1 (en) Image sharpness classification system
KR20210089166A (en) Bright Spot Removal Using Neural Networks
JP6505237B2 (en) Image processing device
US20160205291A1 (en) System and Method for Minimizing Motion Artifacts During the Fusion of an Image Bracket Based On Preview Frame Analysis
EP3016383B1 (en) Method, device, and system for pre-processing a video stream for subsequent motion detection processing
KR20110053820A (en) Method and apparatus for processing image
JPH07508633A (en) Tracking objects in video sequences
KR102314520B1 (en) Apparatus and method for detecting object
KR20120090491A (en) Image segmentation device and method based on sequential frame imagery of a static scene
KR100843513B1 (en) Face Recognition Method By Image Enhancement
WO2016031573A1 (en) Image-processing device, image-processing method, program, and recording medium
KR101861245B1 (en) Movement detection system and method for multi sensor cctv panorama video
US9338354B2 (en) Motion blur estimation and restoration using light trails
CN114331902B (en) Noise reduction method and device, electronic equipment and medium
KR102087296B1 (en) Apparatus and method for eliminating obstacles in image based on learning-machine
JP4780564B2 (en) Image processing apparatus, image processing method, and image processing program
JP2012155456A (en) Subject separation device, image restoration device, subject separation method, and image restoration method
Hadiprakoso Face anti-spoofing method with blinking eye and hsv texture analysis
CN111325073A (en) Monitoring video abnormal behavior detection method based on motion information clustering
Pavithra et al. Real-time color classification of objects from video streams
Chong et al. Image extrema analysis and blur detection with identification

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant