KR102568907B1 - Data set producing system and method used by deeplearning for search dead zone in image - Google Patents

Data set producing system and method used by deeplearning for search dead zone in image Download PDF

Info

Publication number
KR102568907B1
KR102568907B1 KR1020200104632A KR20200104632A KR102568907B1 KR 102568907 B1 KR102568907 B1 KR 102568907B1 KR 1020200104632 A KR1020200104632 A KR 1020200104632A KR 20200104632 A KR20200104632 A KR 20200104632A KR 102568907 B1 KR102568907 B1 KR 102568907B1
Authority
KR
South Korea
Prior art keywords
image
learning
dataset
module
labeling
Prior art date
Application number
KR1020200104632A
Other languages
Korean (ko)
Other versions
KR20220023853A (en
Inventor
배경호
이정민
배상태
배준수
Original Assignee
(주)신한항업
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)신한항업 filed Critical (주)신한항업
Priority to KR1020200104632A priority Critical patent/KR102568907B1/en
Publication of KR20220023853A publication Critical patent/KR20220023853A/en
Application granted granted Critical
Publication of KR102568907B1 publication Critical patent/KR102568907B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/53Querying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/55Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Abstract

본 발명은 공간정보를 3D로 구축하는 과정에서 확인된 영상이미지의 폐색영역에 대한 보완 효율과 정확도를 높인 폐색영역 검출을 위한 기계학습용 데이터셋 생성 방법과 데이터셋 생성시스템에 관한 것으로, 지정된 사물이미지가 포함된 학습영상 데이터를 이미지처리모듈이 학습영상 저장모듈에서 검색하고, 레이블링 모듈이 상기 사물이미지를 학습영상에서 구획하여 레이블링하는 학습영상 레이블링 단계; 상기 학습영상에서 레이블링된 사물이미지의 형상과 위치와 크기를 기준으로 학습모듈이 학습영상과 레이블링 영상의 사물이미지 패턴을 딥러닝하는 기계학습 단계; 학습모듈이 딥러닝을 통해 생성된 데이터셋을 지정된 사물이미지별로 분류해서 데이터셋 저장모듈에 저장하는 데이터셋 생성 단계; 폐색영역 확인을 위해 대상영상에 입력되는 식별코드에 따라 이미지처리모듈이 상기 데이터셋 저장모듈에서 해당하는 데이터셋을 검색하는 데이터셋 확인 단계; 폐색영역 검출모듈이 대상영상을 분석해서 유사도가 지정 범위 이내의 색상과 간격으로 군집하는 픽셀들의 이미지 형상을 확인하는 이미지 분석 단계; 상기 대상영상에서 확인된 이미지 형상에서 학습모듈이 데이터셋 기반 딥러닝을 통해 해당 사물이미지를 검출해서 데이터셋을 업데이트하고, 지정된 사물이미지로 검출된 이미지 형상의 영역을 상기 폐색영역 검출모듈이 폐색영역으로 지정하는 폐색영역 검출 단계;를 포함하는 것이다.The present invention relates to a data set generation method and data set generation system for machine learning for detecting occlusion areas with improved supplementation efficiency and accuracy for occlusion areas of a video image identified in the process of constructing spatial information in 3D, and a specified object image A learning image labeling step in which an image processing module retrieves learning image data including ? from a learning image storage module, and a labeling module divides and labels the object image from the learning image; a machine learning step in which a learning module deep-learns object image patterns of the learning image and the labeling image based on the shape, position, and size of the labeled object image in the learning image; A dataset generation step in which the learning module classifies the dataset generated through deep learning by designated object image and stores it in a dataset storage module; a dataset checking step in which an image processing module searches a corresponding dataset in the dataset storage module according to an identification code input to a target image to check a occluded area; an image analysis step in which an occluded area detection module analyzes the target image and confirms image shapes of pixels clustered in colors and intervals having a similarity within a specified range; From the image shape identified in the target image, the learning module detects a corresponding object image through dataset-based deep learning to update the dataset, and the occluded area detection module converts the area of the image shape detected as the designated object image to the occluded area. It is to include; a occluded area detection step designated as .

Description

폐색영역 검출을 위한 기계학습용 데이터셋 생성 방법과 데이터셋 생성시스템{DATA SET PRODUCING SYSTEM AND METHOD USED BY DEEPLEARNING FOR SEARCH DEAD ZONE IN IMAGE}Data set generation method and data set generation system for machine learning for occlusion detection

본 발명은 공간정보를 3D로 구축하는 과정에서 확인된 영상이미지의 폐색영역에 대한 보완 효율과 정확도를 높인 폐색영역 검출을 위한 기계학습용 데이터셋 생성 방법과 데이터셋 생성시스템에 관한 것이다.The present invention relates to a dataset generation method and a dataset generation system for machine learning for detecting occluded regions with improved supplementation efficiency and accuracy for occluded regions of a video image identified in the process of constructing spatial information in 3D.

종래 공간정보 3D 구축은 MMS(Mobile Mapping System) 및 항공촬영을 이용해 수집한 영상을 기반으로 3D 모델링을 수행하며 이루어졌다. Conventional spatial information 3D construction was performed by performing 3D modeling based on images collected using MMS (Mobile Mapping System) and aerial photography.

그런데 수집된 영상은 모델링 대상이 가로수, 사람, 현수막 등과 같은 장애물에 의해 가려지므로 텍스처링 중에 폐색영역이 발생하고, 상기 폐색영역은 3D 모델링에 제한을 주었다. 따라서 종래에는 상기 폐색영역을 보완하기 위해서 텍스처링 후에 작업자가 직접 폐색영역을 수작업으로 검출하고 주변 배경과 비교해서 폐색영역을 보정했다.However, since the collected images are covered by obstacles such as roadside trees, people, and banners, a occluded area occurs during texturing, and the occluded area limits 3D modeling. Therefore, conventionally, in order to supplement the occluded area, after texturing, an operator directly detects the occluded area manually and compares the occluded area with the surrounding background to correct the occluded area.

하지만, 임의 지역에 대해 3D 모델링 공간정보를 구축하기 위해서는 해당 지역의 곳곳을 영상으로 수집해야 했고, 이렇게 수집된 영상에는 장애물에 의한 적지 않은 폐색영역이 발생했다. 따라서 작업자는 모든 폐색영역을 수작업으로 검출하고, 검출된 수많은 폐색영역을 일일이 보완해야 했다. 그러나 수많은 영상에서 적지 않은 수의 폐색영역을 검출하고 보완하는 데는 시간적으로나 효율적으로 매우 불리했다. 더욱이 수작업에 의한 폐색영역의 보완은 3D 모델링의 정확성을 낮추므로, 수집 영상을 기반으로 한 3D 모델링 기술은 시급해 개선되어야 과제였다.However, in order to build 3D modeling spatial information for an arbitrary area, it was necessary to collect images from various parts of the area, and in the collected images, a considerable number of obstructed areas due to obstacles occurred. Therefore, the operator had to manually detect all the occluded areas and supplement the numerous detected occluded areas one by one. However, it is very disadvantageous in terms of time and efficiency in detecting and supplementing a considerable number of occluded areas in numerous images. Moreover, since manual supplementation of occluded areas lowers the accuracy of 3D modeling, 3D modeling technology based on collected images was urgently needed to be improved.

또한, 드론 등의 무인 장비를 이용한 영상 수집 기술이 해당 기술분야에 도입되면서 임의 지역의 영상을 저비용으로도 쉽고 빠르게 수집할 수 있었고, 시간 대비 영상 수집량도 증가시켰다. 따라서 3D 공간정보 구축을 위한 모델링 대상이 증가하면서 폐색영역 또한 크게 증가하므로, 폐색영역의 검출 속도를 높이면서도 보완 효율은 신뢰도 있게 증가시킬 수 있는 기술이 절실히 요구되었다.In addition, as video collection technology using unmanned equipment such as drones was introduced to the relevant technology field, it was possible to easily and quickly collect images from an arbitrary area at low cost, and the amount of images collected over time also increased. Therefore, as the number of modeling objects for constructing 3D spatial information increases, the occlusion area also greatly increases. Therefore, a technology capable of increasing the detection speed of the occlusion area while reliably increasing the complementation efficiency is urgently needed.

선행기술문헌 1. 특허공개번호 제10-2018-0061803호(2018.06.08 공개)Prior art literature 1. Patent Publication No. 10-2018-0061803 (published on 06/08/2018)

이에 본 발명은 상기의 문제를 해소하기 위한 것으로, 영상이미지 기반의 3D 공간정보 구축을 위해서 불필요한 장애물(사물)에 의해 생성된 폐색영역을 영상이미지(학습영상)에서 정확히 검출하여 복원 신뢰도를 높일 수 있도록 하는 폐색영역 검출을 위한 기계학습용 데이터셋 생성 방법과 데이터셋 생성시스템의 제공을 해결하고자 하는 과제로 한다.Accordingly, the present invention is intended to solve the above problems, and in order to build 3D spatial information based on video images, it is possible to accurately detect occluded areas generated by unnecessary obstacles (objects) from video images (learning images) to increase restoration reliability. The task to be solved is to provide a method for generating a dataset for machine learning and a system for generating a dataset for detecting occluded regions.

상기의 과제를 달성하기 위하여 본 발명은,In order to achieve the above object, the present invention,

학습영상에 구성된 특정 사물이미지를 기준으로 식별코드가 지정된 학습영상 데이터를 이미지처리모듈이 학습영상 저장모듈에서 검색하고, 레이블링 모듈이 상기 사물이미지를 학습영상에서 구획하여 레이블링하는 학습영상 레이블링 단계;A learning image labeling step in which an image processing module retrieves learning image data designated with an identification code based on a specific object image configured in the learning image from the learning image storage module, and the labeling module divides and labels the object image from the learning image;

상기 학습영상에서 레이블링된 사물이미지의 형상과 위치와 크기를 기준으로 학습모듈이 학습영상과 레이블링 영상의 사물이미지 패턴을 딥러닝하는 기계학습 단계;a machine learning step in which a learning module deep-learns object image patterns of the learning image and the labeling image based on the shape, position, and size of the labeled object image in the learning image;

학습모듈이 사물이미지 패턴을 딥러닝해서 생성한 데이터셋을 지정된 사물이미지의 식별코드별로 분류해서 데이터셋 저장모듈에 저장하는 데이터셋 생성 단계;A dataset generation step of classifying the dataset generated by the deep learning of the object image pattern by the learning module according to the identification code of the designated object image and storing the dataset in a dataset storage module;

대상영상에 입력된 식별코드를 기준으로 이미지처리모듈이 상기 데이터셋 저장모듈에서 해당하는 데이터셋을 검색하는 데이터셋 확인 단계;a dataset checking step of an image processing module retrieving a corresponding dataset from the dataset storage module based on the identification code input to the target image;

폐색영역 검출모듈이 상기 대상영상의 구성 픽셀을 분석해서 유사도가 지정 범위 이내의 색상과 간격으로 군집한 픽셀들이 이루는 이미지 형상을 대상영상에서 확인하는 이미지 분석 단계; 및an image analysis step in which an occluded area detection module analyzes constituent pixels of the target image and confirms an image shape formed by pixels clustered in colors and intervals having a similarity within a designated range in the target image; and

상기 대상영상에서 확인된 이미지 형상에서, 상기 학습모듈이 대상영상에서 대상영상의 식별코드에 해당하는 데이터셋의 사물이미지에 대응한 이미지 형상을 검출하고, 검출된 상기 이미지 형상을 폐색영역 검출모듈이 폐색영역으로 지정하며, 상기 이미지 형상이 검출된 대상영상을 데이터셋의 학습영상으로 해서 딥러닝을 통해 데이터셋을 업데이트하는 폐색영역 검출 단계;From the image shape identified in the target image, the learning module detects an image shape corresponding to an object image of a dataset corresponding to an identification code of the target image in the target image, and the occluded area detection module detects the detected image shape an occluded area detection step of designating a occluded area and updating the dataset through deep learning using the target image whose image shape is detected as a training image of the dataset;

를 포함하는 폐색영역 검출을 위한 기계학습용 데이터셋 생성 방법이다.It is a method for generating a dataset for machine learning for detecting an occluded region that includes.

상기의 본 발명은, 3D 공간정보 구축을 위해 수집한 영상이미지(학습영상)에서 기계학습 방식을 통해 폐색영역을 정확하고 빠르게 자동 검출하므로, 상기 폐색영역에 대한 신속한 복원 처리가 가능하고, 복원 효율과 정확도를 높여서 고품질의 3D 공간정보를 구축할 수 있는 효과가 있다.The present invention described above accurately and quickly automatically detects occluded areas through a machine learning method in video images (learning images) collected for constructing 3D spatial information, so that rapid restoration processing for the occluded areas is possible, and restoration efficiency is improved. It has the effect of constructing high-quality 3D spatial information by increasing the accuracy and accuracy.

도 1은 본 발명에 따른 데이터셋 생성시스템의 일실시 예를 도시한 블록도이고,
도 2는 본 발명에 따른 데이터셋 생성 방법의 일실시 예를 도시한 플로차트이고,
도 3은 본 발명에 따른 데이터셋 생성을 위해 수집되는 학습영상의 일실시 예를 보인 이미지이고,
도 4는 상기 학습영상의 레이블링 모습의 일예를 보인 이미지이고,
도 5는 본 발명에 따른 데이터셋 생성시스템이 대상이미지에서 검출한 폐색영역의 일예를 보인 이미지이고,
도 6은 본 발명에 따른 데이터셋 생성시스템이 대상이미지에서 검출한 폐색영역의 다른 예를 도시한 도면이고,
도 7은 본 발명에 따른 데이터셋 생성시스템이 1차로 검출한 폐색영역에서 실제 폐색영역을 필터링하기 위한 과정을 보인 이미지이고,
도 8은 본 발명에 따른 데이터셋 생성시스템이 대상이미지에서 필터링한 폐색영역을 도시한 도면이다.
1 is a block diagram showing an embodiment of a dataset generation system according to the present invention;
2 is a flowchart showing an embodiment of a method for generating a dataset according to the present invention;
3 is an image showing an embodiment of a learning image collected for generating a dataset according to the present invention,
4 is an image showing an example of the labeling of the learning image,
5 is an image showing an example of a occluded area detected in a target image by the dataset generation system according to the present invention;
6 is a diagram showing another example of a occluded area detected in a target image by the dataset generation system according to the present invention;
7 is an image showing a process for filtering an actual occluded area from a occluded area primarily detected by the dataset generation system according to the present invention;
8 is a diagram showing occluded areas filtered from a target image by the dataset generation system according to the present invention.

상술한 본 발명의 특징 및 효과는 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 분명해질 것이며, 그에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 본 발명은 다양한 변경을 가할 수 있고 여러 가지 형태를 가질 수 있는바, 특정 실시 예들을 도면에 예시하고 본문에 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 개시형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 출원에서 사용한 용어는 단지 특정한 실시 예들을 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다.The features and effects of the present invention described above will become clear through the following detailed description in relation to the accompanying drawings, and accordingly, those skilled in the art to which the present invention belongs can easily implement the technical idea of the present invention. There will be. Since the present invention can have various changes and various forms, specific embodiments will be illustrated in the drawings and described in detail in the text. However, this is not intended to limit the present invention to the specific disclosure, and it should be understood to include all modifications, equivalents, and substitutes included in the spirit and technical scope of the present invention. Terms used in this application are only used to describe specific embodiments, and are not intended to limit the present invention.

이하, 본 발명을 구체적인 내용이 첨부된 도면에 의거하여 상세히 설명한다.Hereinafter, the present invention will be described in detail based on the accompanying drawings.

도 1은 본 발명에 따른 데이터셋 생성시스템의 일실시 예를 도시한 블록도이다.1 is a block diagram showing an embodiment of a dataset generation system according to the present invention.

도 1을 참조하면, 본 발명의 데이터셋 생성시스템은, 영상 관련 기계학습(이하 '딥러닝')을 위한 학습영상 데이터를 저장하는 학습영상 저장모듈(110)과, 학습영상에서 지정된 사물이미지가 레이블링 처리된 레이블링 영상 데이터를 저장하는 레이블링 저장모듈(120)과, 지정된 사물이미지가 포함된 학습영상 데이터와 해당 레이블링 영상 데이터를 딥러닝해 생성한 데이터셋을 저장하는 데이터셋 저장모듈(130)과, 지정된 사물이미지를 학습영상에서 구획하여 레이블링하고 레이블링 영상을 생성하는 레이블링 모듈(140)과, 지정된 사물이미지가 포함된 학습영상 데이터를 학습영상 저장모듈(110)에서 검색하고, 폐색영역 확인을 위해 입력된 대상영상에 입력되는 식별코드에 따라 데이터셋 저장모듈(130)에서 해당하는 데이터셋을 검색하는 이미지처리모듈(150)과, 상기 학습영상에서 레이블링된 사물이미지의 형상과 위치와 크기를 기준으로 학습영상과 레이블링 영상의 사물이미지 패턴을 딥러닝해서 지정된 사물이미지별 데이터셋을 생성하고, 상기 데이터셋 기반 딥러닝을 통해 대상영상의 이미지 형상에서 해당 사물이미지에 상응하는 이미지 형상을 검출하고 해당 데이터셋을 업데이트하는 학습모듈(160)과, 폐색영역 확인을 위한 대상영상 데이터를 입력하는 대상영상 입력모듈(170)과, 상기 대상영상을 분석해서 유사도가 지정 범위 이내의 색상과 간격으로 군집하는 픽셀들의 이미지 형상을 확인하고, 지정된 사물이미지에 상응하는 이미지 형상의 영역을 폐색영역으로 지정하는 폐색영역 검출모듈(180)을 포함한다.Referring to FIG. 1, the dataset generation system of the present invention includes a learning image storage module 110 for storing learning image data for image-related machine learning (hereinafter referred to as 'deep learning'), and an object image designated in the learning image. A labeling storage module 120 for storing labeled image data that has been processed, and a dataset storage module 130 for storing training image data including designated object images and a dataset generated by deep learning of the corresponding labeling image data; The labeling module 140 divides and labels the designated object image from the learning image and generates a labeling image, and searches the learning image data including the designated object image in the learning image storage module 110, and checks the occluded area. The image processing module 150 searches for a corresponding dataset in the dataset storage module 130 according to the identification code input to the input target image, and the shape, position, and size of the object image labeled in the learning image are based on By deep learning the object image patterns of the learning image and the labeling image, a dataset for each designated object image is created, and an image shape corresponding to the object image is detected from the image shape of the target image through the dataset-based deep learning, A learning module 160 for updating a dataset, a target image input module 170 for inputting target image data for checking occluded regions, and analyzing the target image to cluster the similarity into colors and intervals within a specified range and an occluded area detection module 180 that checks the image shape of the pixels and designates an area of the image shape corresponding to the designated object image as the occluded area.

본 발명에 따른 데이터셋 생성시스템과 생성 방법에 대한 구체적인 기술 내용은 실시 예를 통해 아래에서 설명한다.Detailed descriptions of the dataset generation system and method according to the present invention will be described below through examples.

도 2는 본 발명에 따른 데이터셋 생성 방법의 일실시 예를 도시한 플로차트이고, 도 3은 본 발명에 따른 데이터셋 생성을 위해 수집되는 학습영상의 일실시 예를 보인 이미지이고, 도 4는 상기 학습영상의 레이블링 모습의 일예를 보인 이미지이고, 도 5는 본 발명에 따른 데이터셋 생성시스템이 대상이미지에서 검출한 폐색영역의 일예를 보인 이미지이다.2 is a flowchart showing an embodiment of a method for generating a dataset according to the present invention, FIG. 3 is an image showing an embodiment of a learning image collected for generating a dataset according to the present invention, and FIG. It is an image showing an example of the labeling of a learning image, and FIG. 5 is an image showing an example of a occluded region detected in a target image by the dataset generation system according to the present invention.

S11; 학습영상 검색 단계S11; Learning video search step

학습영상은 MMS(Mobile Mapping System)를 통해 수집된 영상, 작업자가 현장 촬영을 통해 수집한 영상이며, 학습영상 저장모듈(110)에 저장된다. The learning image is an image collected through MMS (Mobile Mapping System) or an image collected by a worker through on-site shooting, and is stored in the learning image storage module 110.

학습영상 안에는 다양한 종류의 사물이미지가 포함된다. 그런데 상기 사물이미지 중에는 3D 공간정보 구축을 위해 필요한 건축물이나 구조물 등을 시각적으로 가리는 나무, 자동차, 울타리 등이 포함되고, 이로 인해 상기 건축물이나 구조물에는 폐색영역이 생성된다. 따라서 폐색영역을 생성시키는 사물이미지를 학습영상에서 추출하고, 상기 폐색영역은 복원해야 한다.Various types of object images are included in the learning image. However, the object images include trees, cars, fences, etc. that visually obscure buildings or structures necessary for constructing 3D spatial information, and as a result, occluded areas are created in the buildings or structures. Therefore, an object image that creates a occluded area must be extracted from the learning image, and the occluded area must be restored.

폐색영역을 생성하는 사물이미지는 전술한 바와 같이 종류가 다양하므로, 해당 종류별로 학습영상 데이터를 분류해 저장하는 것이 바람직하다. 따라서 폐색영역을 생성하는 사물이미지의 식별코드를 학습영상 데이터별로 설정해서 학습영상 데이터를 분류해 저장한다. 학습영상에는 사물이미지가 둘 이상일 수 있으므로, 학습영상 데이터에는 둘 이상의 식별코드가 설정될 수 있다.Since there are various types of object images that generate occlusion areas as described above, it is preferable to classify and store learning image data for each type. Therefore, the identification code of the object image that creates the occlusion area is set for each learning image data, and the learning image data is classified and stored. Since there may be two or more object images in the learning image, two or more identification codes may be set in the learning image data.

도 3과 같이 학습영상은 공통적으로 플랜카드와 나무가 사물이미지로 구성되며, 플랜카드와 나무에 식별코드를 지정해서 해당 학습영상 데이터를 학습영상 저장모듈(110)에 저장한다.As shown in FIG. 3, the learning image is commonly composed of a plan card and a tree as object images, and an identification code is assigned to the plan card and the tree to store the corresponding learning image data in the learning image storage module 110.

학습영상 저장모듈(110)은 전술한 구성을 이루는 학습영상 데이터를 저장하고, 이미지처리모듈(150)은 데이터셋 생성을 위해서 지정된 사물이미지가 포함된 학습영상을 학습영상 저장모듈(110)에서 검색한다. 전술한 대로 사물이미지에는 식별코드가 부여되므로, 이미지처리모듈(150)은 식별코드를 이용해서 지정된 사물이미지를 검색한다.The learning image storage module 110 stores the learning image data constituting the above configuration, and the image processing module 150 searches the learning image storage module 110 for a learning image including a designated object image to create a dataset. do. As described above, since an identification code is assigned to an object image, the image processing module 150 searches for a designated object image using the identification code.

S12; 학습영상 레이블링 단계S12; Training image labeling step

이미지처리모듈(150)이 학습영상 저장모듈(110)에서 지정된 사물이미지가 포함된 학습영상을 검색하면, 레이블링 모듈(140)이 상기 사물이미지를 학습영상에서 구획하여 레이블링한다.When the image processing module 150 searches for a learning image including a designated object image in the learning image storage module 110, the labeling module 140 divides the object image from the learning image and labels it.

본 발명에서 레이블링은 학습영상에 도시된 사물이미지의 형상을 따라 표시해서 해당 사물이미지가 식별되도록 하는 알고리즘이다. 도 4의 (a)도면에서 나무 이미지와 같이 다양한 색상과 불규칙한 형상을 이루며 후경이 관통해 보이는 사물이미지에 작업자가 도색하듯 표시를 하면, 상기 표시가 이루는 형상과 표시 범위 내에서 나무 이미지 형성을 위한 픽셀의 출력 색상은 나무 이미지로 지정(레이블링)된다. 따라서 레이블링 알고리즘에 의한 표시와 동일 또는 유사한 형상이며 레이블링 대상이 이루는 출력 색상이 대상영상에서 검출되면, 검출된 영역의 이미지 형상은 나무 이미지로 인식된다. In the present invention, labeling is an algorithm that identifies the object image by displaying it according to the shape of the object image shown in the learning image. In the drawing (a) of FIG. 4, when a worker marks an object image that has various colors and irregular shapes like a tree image and the background is visible through the object image as if it were painted, within the shape and display range formed by the mark, for forming a tree image The output color of the pixel is specified (labeled) with the tree image. Accordingly, when an output color formed by a labeling target having the same or similar shape as the mark by the labeling algorithm is detected in the target image, the image shape of the detected area is recognized as a tree image.

도 4의 (a)도면에서 레이블링 대상 사물이미지는 녹색으로 형상 표시된 나무 이미지 이외에 형상 표시된 플랜카드가 포함되며, 레이블링 모듈(140)은 녹색의 나무 이미지 레이블링과 구분을 위해서 적색으로 레이블링한다. 결국, 도 4의 (a)도면에 학습영상은 2개의 사물이미지가 설정되고, 2개 사물이미지의 배치 위치와 크기 등이 조합해 이루는 조합 정보가 레이블링 영상에 설정된다.In (a) of FIG. 4 , the object image to be labeled includes a plan card marked with a shape in addition to a tree image marked with a green shape, and the labeling module 140 labels the object image with red for distinction from labeling the green tree image. As a result, two object images are set for the learning image in (a) of FIG. 4, and combination information formed by combining the arrangement position and size of the two object images is set in the labeling image.

레이블링을 위한 사물이미지의 표시는 수작업으로 이루어지고, Pixel Annotation Tool 등의 프로그램이 활용될 수 있다. 본 실시 예에서 레이블링 처리를 통해 생성된 레이블링 영상 데이터는 .json 확장자의 파일로 생성되고, 레이블링 저장모듈(120)에 저장된다. 레이블링 모듈(140)은 예시된 프로그램 이외에 VGG Image Annotator 등 다양한 종류의 프로그램이 적용될 수 있고, 레이블링 영상 데이터의 확장자 역시 다양할 수 있다.Displaying object images for labeling is done manually, and programs such as Pixel Annotation Tool can be used. In this embodiment, labeling image data generated through labeling processing is generated as a file with a .json extension and stored in the labeling storage module 120 . The labeling module 140 may be applied with various types of programs, such as VGG Image Annotator, in addition to the exemplified program, and the extension of labeling image data may also be various.

본 실시에서 레이블링 모듈(140)은 지정된 사물이미지 이외에 다른 사물이미지도 작업자에 의해 레이블링 처리될 수 있다.In the present embodiment, the labeling module 140 may label other object images as well as designated object images by the operator.

S13; 기계학습 단계S13; machine learning step

상기 학습영상에서 레이블링된 사물이미지의 형상과 위치와 크기를 기준으로 학습모듈(160)이 학습영상과 레이블링 영상의 패턴을 딥러닝한다. Based on the shape, position, and size of the object image labeled in the learning image, the learning module 160 deep-learns the pattern of the learning image and the labeling image.

학습영상에 대한 딥러닝은 지정된 사물이미지 이외에 지정되지 않은 사물이미지와 배경 등의 전체적인 이미지 조합과 구조를 학습하고, 레이블링 영상은 레이블링 이미지, 즉 지정된 사물이미지의 형상과 위치와 크기만을 학습한다. 따라서 학습영상과 레이블링 영상의 딥러닝을 통해 사물이미지의 패턴 조합을 학습해서, 대상영상으로부터 지정된 사물이미지에 상응하는 이미지 형상을 검출할 수 있게 한다. Deep learning for learning images learns the overall image combination and structure of unspecified object images and backgrounds in addition to designated object images, and the labeling image learns only the shape, location, and size of the labeling image, that is, the specified object image. Therefore, it is possible to detect the image shape corresponding to the designated object image from the target image by learning the pattern combination of the object image through deep learning of the learning image and the labeling image.

본 실시의 딥러닝은 ResNet 방법을 통해 이루어지나, 이에 한정하지 않으며 R-CNN 방법으로 이루어질 수 있다.Deep learning of this embodiment is performed through the ResNet method, but is not limited thereto and may be performed through the R-CNN method.

영상이미지 관련 딥러닝 기술은 이미 공지되었으므로, 학습영상과 레이블링 영상에 대한 딥러닝 프로세스의 구체적인 설명은 생략한다.Since the deep learning technology related to video images is already known, a detailed description of the deep learning process for training images and labeling images will be omitted.

S14; 데이터셋 생성 단계 S14; Dataset creation steps

학습모듈(160)이 딥러닝을 통해 생성된 데이터셋을 지정된 사물이미지별로 분류해서 데이터셋 저장모듈(130)에 저장한다. 공지된 바와 같이 영상이미지에 대한 딥러닝은 공통성을 지닌 수많은 학습데이터를 수회 반복해 학습해서 상기 공통성에 대한 기준 프레임, 즉 데이터셋을 생성한다. 따라서 새로운 영상이미지가 입력되면 딥러닝 알고리즘은 상기 데이터셋에 의해 공통성을 검출할 수 있다.The learning module 160 classifies the dataset generated through deep learning for each designated object image and stores it in the dataset storage module 130. As is well known, deep learning for video images generates a reference frame for commonality, that is, a dataset by repeatedly learning a large number of learning data having commonality several times. Therefore, when a new video image is input, the deep learning algorithm can detect commonalities with the dataset.

상기 딥러닝을 통해 생성된 데이터셋은 지정된 사물이미지별로 분류해서 데이터셋 저장모듈(130)에 저장하므로, 나무 이미지가 지정된 사물이미지인 경우에는 나무 이미지의 데이터셋으로 분류해 저장하고, 플랜카드가 지정된 사물이미지인 경우에는 플랜카드의 데이터셋으로 분류해 저장하며, 나무 이미지와 플랜카드가 지정된 사물이미지인 경우에는 나무 이미지와 플랜카드가 모두 포함된 데이터셋으로 분류해 저장한다.The dataset generated through the deep learning is classified by designated object image and stored in the dataset storage module 130, so if the tree image is a designated object image, it is classified and stored as a dataset of tree images, and the plan card In the case of a designated object image, it is classified and stored as a plan card dataset, and in the case of a tree image and plan card designated object image, it is classified and saved as a dataset containing both tree images and plan cards.

결국, 3D 공간영상 구축을 위한 대상영상에서 나무 이미지와 플랜카드가 폐색영역을 생성하는 사물이미지인 경우에는 데이터셋 저장모듈(130)에서 나무 이미지와 플랜카드가 포함된 데이터셋을 검색한다.In the end, when the tree image and the plan card in the target image for constructing the 3D spatial image are object images that create a occluded area, the dataset storage module 130 searches for a data set including the tree image and the plan card.

S15; 대상영상 입력 단계S15; Target image input step

폐색영역 확인을 위한 대상영상 데이터가 대상영상 입력모듈(170)을 통해 수신되고, 상기 대상영상 데이터의 대상영상(도 5의 (a)도면 참고)에 구성된 사물이미지의 식별코드가 입력된다. The object image data for checking the occlusion area is received through the object image input module 170, and the identification code of the object image composed of the object image of the object image data (see FIG. 5(a)) is input.

S16; 데이터셋 확인 단계S16; Dataset verification steps

이미지처리모듈(150)은 상기 식별코드를 확인하고, 해당하는 사물이미지의 데이터셋을 데이터셋 저장모듈(130)에서 검색한다. The image processing module 150 checks the identification code and searches the dataset storage module 130 for a dataset of a corresponding object image.

전술한 바와 같이 학습영상에 구성된 사물이미지는 식별을 위한 식별코드가 부여되고, 상기 식별코드를 키워드로 하여 학습영상 저장모듈(110)에서 학습영상 데이터가 검색되고, 레이블링 저장모듈(120)에서 레이블링 영상 데이터가 검색되며, 데이터셋 저장모듈(130)에서 데이터셋이 검색된다.As described above, the object image configured in the learning image is given an identification code for identification, and the learning image data is searched in the learning image storage module 110 using the identification code as a keyword, and labeling in the labeling storage module 120 Image data is retrieved, and a dataset is retrieved from the dataset storage module 130 .

S17; 추가 학습 여부 확인 단계S17; Steps to confirm additional learning

대상영상이 입력되면, 상기 대상영상에서 사물이미지에 상응하는 이미지 형상을 레이블링 모듈(140)을 통해 레이블링하고, 데이터셋 저장모듈(130)에서 검색된 해당 데이터셋을 기반으로 대상영상을 딥러닝해서 데이터셋을 업데이트한다.When a target image is input, an image shape corresponding to an object image in the target image is labeled through the labeling module 140, and the target image is deep-learned based on the corresponding dataset retrieved from the dataset storage module 130 to obtain data. update the set

S18; 이미지 분석 단계S18; Image analysis steps

폐색영역 검출모듈(180)이 대상영상을 분석해서 유사도가 지정 범위 이내의 색상과 간격으로 군집하는 픽셀들의 이미지 형상을 확인한다.The occluded area detection module 180 analyzes the target image and confirms the image shape of pixels clustered in colors and intervals of similarity within a specified range.

상기 대상영상은 다양한 이미지 형상을 구성하며, 이미지 형상은 다양한 색상의 조합이므로, 폐색영역 검출모듈(180)은 대상영상을 출력시키는 픽셀들의 설정 색상을 분석해서 대상영상에 구성된 이미지 형상을 각각 추출해서 확인한다.Since the target image constitutes various image shapes, and since the image shape is a combination of various colors, the occluded area detection module 180 analyzes the set color of pixels outputting the target image and extracts each image shape configured in the target image. Check.

본 설명에서 표기한 '색상'은 색깔과 채도와 명도를 의미한다.In this description, 'hue' means color, saturation, and lightness.

일반적으로 색깔과 채도와 명도별로 등급이 지정되고, 유사도 여부는 등급을 기준으로 결정된다. 따라서 서로 이웃하는 픽셀 간의 색깔과 채도와 명도가 지정 간격의 등급 차이를 갖는다면, 상기 픽셀들은 동일한 사물이미지를 표시한 것으로 간주한다. 또한 색깔과 채도와 명도가 등급 이내인 두 픽셀이 지정 간격 이내에 위치한다면, 상기 픽셀들 역시 동일한 사물이미지를 표시한 것으로 간주한다. 이러한 알고리즘에 따라 픽셀 간의 동일성을 판단해서 위치적으로 군집하고, 이렇게 군집한 픽셀들이 이루는 이미지 형상을 확인한다.In general, grades are assigned according to color, saturation, and brightness, and similarity is determined based on the grades. Therefore, if the color, saturation, and brightness of adjacent pixels have a class difference of a designated interval, the pixels are regarded as displaying the same object image. Also, if two pixels whose color, saturation, and brightness are within the class are positioned within a designated interval, the pixels are also regarded as displaying the same object image. According to this algorithm, the identity of pixels is judged and clustered locally, and the image shape formed by the clustered pixels is confirmed.

대상영상에 표현된 사물의 모습은 사람이 시각적으로 인지해 확인할 수 있지만, 대상영상의 픽셀별 색상 분석만으로는 사물을 묘사하듯 영역을 설정할 수 없다. 따라서 폐색영역 검출모듈(180)은 사물의 모습을 이루기 위해 군집한 픽셀들 중 바깥쪽에 위치한 픽셀들을 서로 연결해서 해당 모습의 대략적인 윤곽을 형성한다. 결국, 해당 윤곽선에 의해 형성된 형상이 이미지 형상을 이룬다.The shape of an object expressed in a target image can be visually recognized and confirmed by a person, but it is not possible to set an area as if depicting an object only by analyzing the color of each pixel of the target image. Therefore, the occluded area detection module 180 forms a rough outline of the corresponding shape by connecting the pixels located outside among the pixels clustered to form the shape of the object. As a result, the shape formed by the contour line constitutes the image shape.

상기 이미지 형상은 대상영상 안에 다수 개가 구성될 수 있다.A plurality of the image shapes may be configured in the target image.

S19; 폐색영역 검출 단계S19; Blocked area detection step

상기 대상영상에서 확인된 이미지 형상에서, 학습모듈(160)이 대상영상에서 대상영상의 식별코드에 해당하는 데이터셋의 사물이미지에 대응한 이미지 형상을 검출하고, 검출된 상기 이미지 형상을 폐색영역 검출모듈(180)이 폐색영역으로 지정하며, 상기 이미지 형상이 검출된 대상영상을 데이터셋의 학습영상으로 해서 딥러닝을 통해 데이터셋을 업데이트한다. From the image shape identified in the target image, the learning module 160 detects the image shape corresponding to the object image of the dataset corresponding to the identification code of the target image in the target image, and detects the occluded area using the detected image shape. The module 180 designates the occluded area, and updates the dataset through deep learning using the target image in which the image shape is detected as a training image of the dataset.

좀 더 구체적으로 설명하면, 이미지처리모듈(150)이 검색한 데이터셋을 기반으로 학습모듈(160)이 폐색영역 검출모듈(180)이 확인한 이미지 형상들 중에서 데이터셋의 사물이미지에 해당하는 이미지 형상을 딥러닝 기술을 활용해 검출한다. 즉, 이미지처리모듈(150)이 검색한 데이터셋이 나무 이미지의 식별코드가 설정되었다면, 학습모듈(160)은 이미지 형상을 해당 데이터셋을 기반으로 딥러닝해서 대상영상에 구성된 나무 이미지를 검출하는 것이다. More specifically, the image shape corresponding to the object image of the dataset among the image shapes identified by the occluded area detection module 180 by the learning module 160 based on the dataset retrieved by the image processing module 150. detected using deep learning technology. That is, if the dataset searched by the image processing module 150 has an identification code of a tree image set, the learning module 160 deep-learns the image shape based on the corresponding dataset to detect the tree image constructed in the target image. will be.

결국, 본 발명의 데이터셋 생성시스템은 작업자가 별도의 작업을 하지 않아도 대상영상에서 자체적으로 분석하여 폐색영역의 원인이 되는 사물이미지인 이미지 형상을 검출한다. 참고로, 나무 이미지는 영상이미지에서 폐색영역 생성의 원인으로 지정하여 작업자가 데이터셋의 학습영상에서 지정한 것이므로, 본 방법에 따라 대상영상에서 검출된 이미지 형상은 곧 폐색영역의 원인이다.As a result, the dataset generation system of the present invention detects the image shape, which is an object image that causes the occlusion area, by analyzing the target image by itself without a separate operation by the operator. For reference, since the tree image is designated as the cause of the occlusion area in the video image and the operator designates it in the training image of the dataset, the image shape detected in the target image according to this method is the cause of the occlusion area.

계속해서, 학습모듈(160)이 검출한 사물이미지가 폐색영역의 원인으로 최종 확인되면, 학습모듈(160)은 이미지 형상이 검출된 대상영상을 데이터셋의 학습영상으로 해서 딥러닝을 통해 해당 데이터셋을 업데이트한다. Continuing, when the object image detected by the learning module 160 is finally confirmed as the cause of the occluded area, the learning module 160 uses the target image in which the image shape was detected as a learning image of the dataset and uses the corresponding data through deep learning. update the set

대상영상에서 사물이미지에 상응하는 이미지 형상이 검출되면, 폐색영역 검출모듈(180)은 도 5의 (b)도면과 같이 상기 사물이미지로 검출된 영역을 폐색영역으로 지정한다. 더 나아가 폐색영역 검출모듈(180)은 상기 사물이미지에 지정된 색상의 픽셀만을 추출하여 폐색영역을 필터링한다. 이를 좀 더 구체적으로 설명하면, 나무 이미지를 식별코드로 설정하기 위해서는 나무 이미지에 주로 적용되는 색상을 지정한다. 즉, 나무의 일반적인 색상인 green, yellow green, grey, brown, red clay, ochre 등이 나무 이미지의 색상으로 지정되어서 사물이미지 검출에 활용되는 것이다.When an image shape corresponding to the object image is detected in the target image, the occluded area detection module 180 designates the area detected as the object image as the occluded area as shown in FIG. 5(b). Furthermore, the occluded area detection module 180 filters the occluded area by extracting only pixels of a color specified in the object image. More specifically, in order to set a tree image as an identification code, a color mainly applied to the tree image is designated. That is, green, yellow green, gray, brown, red clay, ocher, etc., which are general colors of trees, are designated as colors of tree images and used for object image detection.

폐색영역 검출모듈(180)은 학습모듈(160)의 딥러닝을 통해 검출된 사물이미지의 구성 픽셀들 중 나무 이미지의 색상으로 지정된 색상의 픽셀만을 추출하고, 이외에 색상을 출력하는 픽셀은 폐색영역에서 제외한다. 결국, 나무 이미지를 관통해서 보이는 후경은 그대로 노출되어 폐색영역에서 제외된다.The occluded area detection module 180 extracts only pixels of the color specified as the color of the tree image from the constituent pixels of the object image detected through the deep learning of the learning module 160, and pixels outputting other colors are extracted from the occluded area. Exclude. Eventually, the background seen through the tree image is exposed as it is and excluded from the occluded area.

이에 대한 보다 구체적인 설명은 아래에서 한다.A more detailed description of this is provided below.

도 6은 본 발명에 따른 데이터셋 생성시스템이 대상이미지에서 검출한 폐색영역의 다른 예를 도시한 도면이고, 도 7은 본 발명에 따른 데이터셋 생성시스템이 1차로 검출한 폐색영역에서 실제 폐색영역을 필터링하기 위한 과정을 보인 이미지이고, 도 8은 본 발명에 따른 데이터셋 생성시스템이 대상이미지에서 필터링한 폐색영역을 도시한 도면이다.6 is a diagram showing another example of a occluded area detected in a target image by the dataset generation system according to the present invention, and FIG. 7 is an actual occluded area among the occluded areas primarily detected by the dataset generation system according to the present invention. 8 is a diagram showing the occluded area filtered from the target image by the dataset generation system according to the present invention.

도 1과 도 6 내지 도 8을 참조하면, 레이블링 모듈(140)은 해당 사물이미지의 구성 색상을 레이블링 영상에 포함하고, 학습모듈(160)은 사물이미지(Z)의 형상과 위치와 크기와 더불어 색상을 기준으로 학습영상과 레이블링 영상의 패턴을 딥러닝한다. 또한, 폐색영역 검출모듈(180)은 폐색영역에서 해당 사물이미지에 지정된 색상의 픽셀만을 추출하여 폐색영역을 필터링한다.1 and 6 to 8, the labeling module 140 includes the component colors of the corresponding object image in the labeling image, and the learning module 160 includes the shape, position, and size of the object image Z along with Based on the color, the pattern of the training image and the labeling image is deep-learned. In addition, the occluded area detection module 180 filters the occluded area by extracting only pixels having a color specified in the corresponding object image from the occluded area.

이에 관해 좀 더 구체적으로 설명하면, 폐색영역은 대상영상에서 확인된 이미지 형상(Z)의 영역에 맞춰지고, 이미지 형상(Z)은 나무 이미지에 비해 넓게 형성된다. 또한 이미지 형상(Z)은 나무 이미지의 곳곳을 통해 구조물(S)의 일부분인 후경 이미지(A)가 비친다.More specifically, the occluded area is matched to the area of the image shape (Z) identified in the target image, and the image shape (Z) is formed wider than the tree image. Also, in the image shape (Z), the background image (A), which is a part of the structure (S), is reflected through various places of the tree image.

따라서 폐색영역 검출모듈(180)은 다음의 과정을 통해 실질적인 폐색영역을 검출한다.Therefore, the occluded area detection module 180 detects the actual occluded area through the following process.

대상영상에서 폐색영역을 지정하기 위해서는 레이블링 과정에서 지정된 사물이미지의 형상과 위치 및 크기와 더불어 색상이 요구된다. 지정되는 색상은 해당 사물의 일반적인 색상이고, 필요한 경우에는 지정된 색상을 기준으로 지정 범위 이내의 등급에 해당하는 색상도 사물이미지의 색상으로 지정될 수 있다.In order to designate the occluded area in the target image, the shape, location, and size of the object image specified in the labeling process and the color are required. The designated color is a general color of the object, and if necessary, a color corresponding to a grade within a designated range based on the designated color may also be designated as the color of the object image.

나무는 다수의 가지와 나뭇잎이 구성되므로, 도 7의 (a)도면과 같이 나무 곳곳의 공간으로 구조물(S)의 일부분인 후경이 보인다. 따라서 레이블링 과정에서 한 덩어리의 형상으로 범위가 설정되는 사물이미지 곳곳에도 후경 이미지(A)가 드러날 수 있고, 대상영상의 이미지 형상(Z) 곳곳에도 후경 이미지(A)가 드러날 수 있다. 따라서 폐색영역 검출모듈(180)이 폐색영역으로 1차 확인한 이미지 형상(Z) 전체를 폐색영역으로 지정하는 것은 바람직하지 않다.Since a tree is composed of a plurality of branches and leaves, a rear view, which is a part of the structure S, is visible in the space of each part of the tree, as shown in (a) of FIG. 7 . Therefore, in the labeling process, the background image (A) can be revealed at various places in the object image whose range is set as a lump shape, and the background image (A) can be revealed at various places in the image shape (Z) of the target image. Therefore, it is not desirable to designate the entire image shape Z, which the occluded area detection module 180 has primarily identified as a occluded area, as the occluded area.

이러한 사실을 고려해서 폐색영역 검출모듈(180)은 이미지 형상(Z)에 대한 사물이미지의 지정된 색상을 확인하고, 이미지 형상(Z)을 구성하는 픽셀의 출력 색상을 확인해서, 상기 사물이미지에 지정된 색상의 픽셀만을 추출한다. 즉, 도 7의 (b)도면과 같이 'B'와 'C' 구간의 픽셀이 출력한 색상은 상기 사물이미지에 지정된 색상이므로 해당 픽셀들의 구간은 실제 폐색영역을 이룬다. 참고로, 본 실시 예의 'C' 구간에 위치한 픽셀은 황색을 출력하는데, 황색은 나무의 일반적인 색상이 아닐 수 있다. 그러나 사물이미지의 레이블링 중에 지정되는 색상은 사물의 일반적인 색상에만 한정하지 않으며, 색상별로 적용 조건을 설정해서 이미지 형상의 구성 픽셀이 상기 조건을 충족하면 폐색영상 검출모듈(180)은 해당하는 특정 색상도 이미지 형상 추출에 활용할 수 있다. 본 실시 예의 yellow 픽셀은 grey, brown, red clay, ochre 등의 픽셀에 근접하게 위치하고, 다양한 위치에서 반복하여 구성되므로, 폐색영역 검출모듈(180)은 해당 yellow를 나무로 지정된 사물이미지의 구성 색상으로 인정한다.Considering this fact, the occluded area detection module 180 checks the designated color of the object image for the image shape Z, checks the output color of the pixels constituting the image shape Z, and determines the color specified in the object image. Extract only pixels of color. That is, as shown in (b) of FIG. 7, since the color output by the pixels in the sections 'B' and 'C' is the color designated for the object image, the section of corresponding pixels constitutes an actual occluded area. For reference, the pixels located in section 'C' of this embodiment output yellow, which may not be a general color of trees. However, the color specified during labeling of the object image is not limited to the general color of the object, and if application conditions are set for each color and the pixels of the image shape satisfy the above conditions, the occlusion image detection module 180 determines the corresponding specific color It can be used for image shape extraction. Since the yellow pixels of this embodiment are located close to pixels of gray, brown, red clay, ocher, etc., and are repeatedly configured at various positions, the occluded area detection module 180 uses yellow as the component color of the object image designated as a tree. Admit it.

'A' 구간의 픽셀이 출력한 색상은 상기 사물이미지에 지정된 색상이 아니므로 해당 픽셀들의 구간은 후경 이미지(A)로 간주하고 1차 검출했던 폐색영역에서 필터링한다.Since the color output by the pixels in section 'A' is not the color specified for the object image, the section of corresponding pixels is regarded as the background image (A) and filtered in the occluded area that was first detected.

결국, 최종 검출된 폐색영역은 도 8과 같이 대상영상에서 매우 한정해 표현되고, 폐색영역에 의해 일부가 숨겨진 구조물(S)의 이미지 또한 정확하게 복원할 수 있다.As a result, the finally detected occluded area is expressed very limitedly in the target image as shown in FIG. 8, and the image of the structure S partially hidden by the occluded area can also be accurately restored.

앞서 설명한 본 발명의 상세한 설명에서는 본 발명의 바람직한 실시 예들을 참조해 설명했지만, 해당 기술분야의 숙련된 당업자 또는 해당 기술분야에 통상의 지식을 갖는 자라면 후술될 특허청구범위에 기재된 본 발명의 사상 및 기술영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the detailed description of the present invention described above has been described with reference to preferred embodiments of the present invention, those skilled in the art or those having ordinary knowledge in the art will find the spirit of the present invention described in the claims to be described later. And it will be understood that the present invention can be variously modified and changed within a range that does not deviate from the technical scope.

Claims (4)

학습영상에 구성된 특정 사물이미지를 기준으로 식별코드가 지정된 학습영상 데이터를 이미지처리모듈이 학습영상 저장모듈에서 검색하고, 레이블링 모듈이 상기 사물이미지를 학습영상에서 구획하여 레이블링하는 학습영상 레이블링 단계;
상기 학습영상에서 레이블링된 사물이미지의 형상과 위치와 크기를 기준으로 학습모듈이 학습영상과 레이블링 영상의 사물이미지 패턴을 딥러닝하는 기계학습 단계;
학습모듈이 사물이미지 패턴을 딥러닝해서 생성한 데이터셋을 지정된 사물이미지의 식별코드별로 분류해서 데이터셋 저장모듈에 저장하는 데이터셋 생성 단계;
대상영상에 입력된 식별코드를 기준으로 이미지처리모듈이 상기 데이터셋 저장모듈에서 해당하는 데이터셋을 검색하는 데이터셋 확인 단계;
폐색영역 검출모듈이 상기 대상영상의 구성 픽셀을 분석해서 유사도가 지정 범위 이내의 색상과 간격으로 군집한 픽셀들이 이루는 이미지 형상을 대상영상에서 확인하는 이미지 분석 단계; 및
상기 대상영상에서 확인된 이미지 형상에서, 상기 학습모듈이 대상영상에서 대상영상의 식별코드에 해당하는 데이터셋의 사물이미지에 대응한 이미지 형상을 검출하고, 검출된 상기 이미지 형상을 폐색영역 검출모듈이 폐색영역으로 지정하며, 상기 이미지 형상이 검출된 대상영상을 데이터셋의 학습영상으로 해서 딥러닝을 통해 데이터셋을 업데이트하는 폐색영역 검출 단계;
를 포함하는 것을 특징으로 하는 폐색영역 검출을 위한 기계학습용 데이터셋 생성 방법.
A learning image labeling step in which an image processing module retrieves learning image data designated with an identification code based on a specific object image configured in the learning image from the learning image storage module, and the labeling module divides and labels the object image from the learning image;
a machine learning step in which a learning module deep-learns object image patterns of the learning image and the labeling image based on the shape, position, and size of the labeled object image in the learning image;
A dataset generation step of classifying the dataset generated by the deep learning of the object image pattern by the learning module according to the identification code of the designated object image and storing the dataset in a dataset storage module;
a dataset checking step of an image processing module retrieving a corresponding dataset from the dataset storage module based on the identification code input to the target image;
an image analysis step in which an occluded area detection module analyzes constituent pixels of the target image and confirms an image shape formed by pixels clustered in colors and intervals having a similarity within a designated range in the target image; and
From the image shape identified in the target image, the learning module detects an image shape corresponding to an object image of a dataset corresponding to an identification code of the target image in the target image, and the occluded area detection module detects the detected image shape an occluded area detection step of designating a occluded area and updating the dataset through deep learning using the target image whose image shape is detected as a training image of the dataset;
A method for generating a dataset for machine learning for detecting a occluded region, comprising:
제 1 항에 있어서,
상기 레이블링 모듈은 해당 사물이미지의 구성 색상을 레이블링 영상에 포함하고,
상기 학습모듈은 사물이미지의 형상과 위치와 크기와 더불어 색상을 기준으로 학습영상과 레이블링 영상의 패턴을 딥러닝하는 것;
을 특징으로 하는 폐색영역 검출을 위한 기계학습용 데이터셋 생성 방법.
According to claim 1,
The labeling module includes component colors of the corresponding object image in the labeling image,
The learning module deep-learns the pattern of the learning image and the labeling image based on the color as well as the shape, position, and size of the object image;
A method for generating a dataset for machine learning for detecting occluded regions, characterized by
제 2 항에 있어서,
상기 폐색영역 검출모듈은 폐색영역에서 해당 사물이미지에 지정된 색상의 픽셀만을 추출하여 폐색영역을 필터링하는 것;을 특징으로 하는 폐색영역 검출을 위한 기계학습용 데이터셋 생성 방법.
According to claim 2,
The occluded area detection module filters the occluded area by extracting only pixels of a color designated for a corresponding object image from the occluded area;
삭제delete
KR1020200104632A 2020-08-20 2020-08-20 Data set producing system and method used by deeplearning for search dead zone in image KR102568907B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200104632A KR102568907B1 (en) 2020-08-20 2020-08-20 Data set producing system and method used by deeplearning for search dead zone in image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200104632A KR102568907B1 (en) 2020-08-20 2020-08-20 Data set producing system and method used by deeplearning for search dead zone in image

Publications (2)

Publication Number Publication Date
KR20220023853A KR20220023853A (en) 2022-03-03
KR102568907B1 true KR102568907B1 (en) 2023-08-23

Family

ID=80818718

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200104632A KR102568907B1 (en) 2020-08-20 2020-08-20 Data set producing system and method used by deeplearning for search dead zone in image

Country Status (1)

Country Link
KR (1) KR102568907B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115170967A (en) * 2022-07-22 2022-10-11 中科三清科技有限公司 Tea leaf picking method and device, electronic equipment and storage medium
CN116563549B (en) * 2023-05-16 2023-12-15 中国人民解放军国防科技大学 Magnetic resonance image heart segmentation method based on coarse-granularity weak annotation
CN117036372B (en) * 2023-07-24 2024-02-06 河北大学 Robust laser speckle image blood vessel segmentation system and segmentation method

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020093076A (en) 2018-08-14 2020-06-18 キヤノン株式会社 Medical image processing device, learned model, medical image processing method and program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9905000B2 (en) * 2015-02-19 2018-02-27 Sony Corporation Method and system for surgical tool localization during anatomical surgery
KR20180061803A (en) 2016-11-30 2018-06-08 현대엠엔소프트 주식회사 Apparatus and method for inpainting occlusion of road surface

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020093076A (en) 2018-08-14 2020-06-18 キヤノン株式会社 Medical image processing device, learned model, medical image processing method and program

Also Published As

Publication number Publication date
KR20220023853A (en) 2022-03-03

Similar Documents

Publication Publication Date Title
KR102568907B1 (en) Data set producing system and method used by deeplearning for search dead zone in image
Dorj et al. An yield estimation in citrus orchards via fruit detection and counting using image processing
Ellahyani et al. Traffic sign detection and recognition based on random forests
US8577088B2 (en) Method and system for collecting information relating to identity parameters of a vehicle
US8340420B2 (en) Method for recognizing objects in images
Babu et al. Vehicle number plate detection and recognition using bounding box method
CN108830199A (en) Identify method, apparatus, readable medium and the electronic equipment of traffic light signals
CN106780440B (en) Destruction circuit plate relic image automatic comparison recognition methods
Romdhane et al. An improved traffic signs recognition and tracking method for driver assistance system
CN109344864B (en) Image processing method and device for dense object
Reina et al. Adaptive traffic road sign panels text extraction
US20220415012A1 (en) Image processing based methods and apparatus for planogram compliance
CN107818303A (en) Unmanned plane oil-gas pipeline image automatic comparative analysis method, system and software memory
CN104050460B (en) The pedestrian detection method of multiple features fusion
Pibre et al. How to deal with multi-source data for tree detection based on deep learning
CN114140665A (en) Dense small target detection method based on improved YOLOv5
US20210304422A1 (en) Generation of non-occluded image based on fusion of multiple occulded images
Chakraborty et al. Bangladeshi road sign detection based on YCbCr color model and DtBs vector
Bulatov et al. Automatic tree-crown detection in challenging scenarios
Deshmukh et al. Real-time traffic sign recognition system based on colour image segmentation
KR101878239B1 (en) Development of library management system based on a mobile robot
Hazelhoff et al. Large-scale classification of traffic signs under real-world conditions
CN112966618A (en) Dressing identification method, device, equipment and computer readable medium
CN112149690A (en) Tracing method and tracing system based on biological image feature recognition
CN109948577B (en) Cloth identification method and device and storage medium

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant