KR102157005B1 - Method of improving precision of deep learning resultant image by using image filtering technique - Google Patents

Method of improving precision of deep learning resultant image by using image filtering technique Download PDF

Info

Publication number
KR102157005B1
KR102157005B1 KR1020190165597A KR20190165597A KR102157005B1 KR 102157005 B1 KR102157005 B1 KR 102157005B1 KR 1020190165597 A KR1020190165597 A KR 1020190165597A KR 20190165597 A KR20190165597 A KR 20190165597A KR 102157005 B1 KR102157005 B1 KR 102157005B1
Authority
KR
South Korea
Prior art keywords
image
pixel
deep learning
value
learning result
Prior art date
Application number
KR1020190165597A
Other languages
Korean (ko)
Inventor
서동철
김병주
Original Assignee
주식회사 제이시스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 제이시스 filed Critical 주식회사 제이시스
Priority to KR1020190165597A priority Critical patent/KR102157005B1/en
Application granted granted Critical
Publication of KR102157005B1 publication Critical patent/KR102157005B1/en

Links

Images

Classifications

    • G06T5/70
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/001Image restoration
    • G06T5/002Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Abstract

The present invention provides a method for improving accuracy of a deep learning result image by using an image filtering technique, comprising: a step of designating a pixel value at a location of a specific object in a deep learning result image as an attribute value of an intrinsic pixel, and designating an attribute value of a pixel other than the intrinsic pixel as zero (S100); a step of producing the total size and pixel size of a reference image corresponding to the deep learning result image to be the same as the total size and pixel size of the deep learning result image (S200); a first image filtering application step of obtaining result values by multiplying a pixel value of a location of a specific object in the deep learning result image and a pixel value of a location of a reference image corresponding to the location of the specific object, and selecting a group of pixels having a value other than zero among the result values as candidate areas (S300); and a second image filtering application step of selecting a pixel area having the most identical values among the candidate areas as a final area (S400).

Description

영상 필터링 기법을 적용한 딥러닝 결과영상의 정확성 향상방법{Method of improving precision of deep learning resultant image by using image filtering technique}Method of improving precision of deep learning resultant image by using image filtering technique}

본 발명은 영상 필터링 기법을 적용한 딥러닝 결과영상의 정확성 향상방법에 관한 것으로, 보다 상세하게는 딥러닝 결과영상의 추출시 발생하는 과다추출(Overdetection) 문제를 해결할 수 있는 영상 필터링 기법을 적용한 딥러닝 결과영상의 정확성 향상방법에 관한 것이다.The present invention relates to a method for improving the accuracy of a deep learning result image using an image filtering technique, and more particularly, a deep learning method using an image filtering technique capable of solving an overdetection problem occurring when extracting a deep learning result image. It relates to a method of improving the accuracy of the resulting image.

딥러닝(Deep learning) 기술은 컨볼루션 신경망(Convolutional neural network)을 이용하여 컴퓨터가 스스로 외부 데이터를 조합, 분석하여 영상의 특정정보를 학습하는 기술을 의미하는 것으로, 영상 내에 존재하는 특정 영역을 추출하는 영상 내 영역 추출의 수단으로 이용될 수 있다.Deep learning technology refers to a technology in which a computer learns specific information of an image by combining and analyzing external data by itself using a convolutional neural network. It can be used as a means of extracting a region within an image.

컨볼루션 신경망은 동물의 시각피질 구조에서 영감을 받아 제작된 신경망 모델을 의미하는 것으로, 이미지 파일을 입력하면 입력된 이미지 파일에 대하여 다수의 층으로 구성된 특징을 추출하는 부분과 추출된 특징을 이용하여 분류하는 작업을 수행하는 부분으로 구성된다. 즉, 학습영상 데이터가 입력되는 경우 컨볼루션 신경망은 입력된 학습영상의 패턴정보에 대하여 다수의 층으로 특징을 추출하고 추출된 패턴정보의 특징을 이용하여 영상의 패턴정보를 학습할 수 있기 때문에 영상 내 영역 추출에 유용하게 이용될 수 있다.A convolutional neural network refers to a neural network model created with inspiration from the structure of the visual cortex of an animal. When an image file is input, a part that extracts features consisting of multiple layers for the input image file and the extracted features are used. It consists of parts that perform classification tasks. That is, when training image data is input, the convolutional neural network extracts features from the inputted training image pattern information into multiple layers and can learn the pattern information of the image using the features of the extracted pattern information. It can be usefully used to extract my area.

종래 영상 내 영역 추출 방법은 주로 위성영상 또는 항공영상을 이용하여 대부분 육안에 의하여 추출하는 방식을 사용하였다. 그러나, 최근 영상 분석 기술이 고도화됨에 따라 지부 기법, 영상 분류 기법 및 딥러닝에 의한 영상 분류 기법 등이 개발되어 이를 활용한 다양한 영상 자동 추출 기술이 개발되고 있다. 그러나, 딥러닝에 의한 영상 분석은 주로 영상의 패턴 분석에 의한 동일 객체 인식 및 특정을 위하여 유사한 패턴의 영역이 존재하는 경우 각기 다른 객체임에도 동일한 객체로 인식되는 경우가 많아 일반적으로 과다추출의 문제가 발생하여 딥러닝 결과영상의 정확도가 불량하다는 치명적인 문제점을 초래하고 있다. 이와 관련하여, 최근 딥러닝 방식을 이용한 영상 또는 지도제작 시스템의 정확성을 제고하기 위한 많은 연구가 이루어지고 있다.The conventional method of extracting an area within an image mainly uses a method of extracting by the naked eye using a satellite image or an aerial image. However, as image analysis technology has recently been advanced, a branch method, an image classification method, and an image classification method by deep learning have been developed, and various automatic image extraction technologies using the same have been developed. However, image analysis by deep learning is mainly due to the problem of over-extraction because the same object is recognized as the same object even though each object is different if there is an area of a similar pattern for identification and identification of the same object by pattern analysis of the image. Occurs, causing a fatal problem that the accuracy of the resulting deep learning image is poor. In this regard, many studies have recently been conducted to improve the accuracy of an image or map production system using a deep learning method.

대한민국 등록특허 제10-1937585호는 "깊이 영상 생성을 위한 비용 집합 장치 및 방법과 이에 대한 기록 매체"에 관한 것으로, (a) 좌영상 및 우영상을 이용하여 비용 볼륨을 생성하는 단계; (b) 상기 비용 볼륨에 집합을 수행하여 제1 집합 비용 볼륨을 생성하는 단계; (c) 상기 비용 볼륨을 이용하여 변이 지도를 생성하는 단계; (d) 상기 좌영상 및 상기 우영상 중 기준이 되는 영상과 상기 변이 지도를 입력받아 경계 영상을 생성하는 단계; 및 (e) 상기 경계 영상을 이용하여 상기 제1 집합 비용 볼륨을 보정하여 제2 집합 비용 볼륨을 생성하는 단계를 포함하되, 상기 (e)단계는 전역 에너지 함수가 최소값을 갖도록 하는 제2 집합 비용 볼륨을 생성하고, 상기 전역 에너지 함수는 제2 집합 비용 볼륨과 상기 제1집합 비용 볼륨의 차이값 및 상기 경계 영상의 픽셀값에 의해 정해지는 가중치를 반영한 제2 집합 비용 볼륨의 인접 픽셀간 차이값의 합으로 이루어지며, 상기 (b)단계는 레퍼런스 비용 볼륨을 입력값으로 하고 레퍼런스 변이 지도를 라벨로 하여 사전에 학습되어 있는 것을 특징으로 하는 깊이 영상 생성을 위한 비용 집합 방법을 개시하고 있다. 그러나, 상기 대한민국 등록특허 제10-1937585호에 따른 깊이 영상 생성을 위한 비용 집합 방법은 정확한 깊이 영상을 구할 수 있다는 이점은 있으나, 딥러닝 결과영상에 대한 과다추출의 문제를 해결할 수 없다는 문제점이 있었다.Republic of Korea Patent Registration No. 10-1937585 relates to "a cost aggregation apparatus and method for generating a depth image and a recording medium therefor", comprising the steps of: (a) generating a cost volume using a left image and a right image; (b) generating a first aggregated cost volume by performing aggregation on the cost volume; (c) generating a transition map using the cost volume; (d) receiving a reference image and the transition map among the left and right images to generate a boundary image; And (e) generating a second aggregate cost volume by correcting the first aggregate cost volume using the boundary image, wherein step (e) includes a second aggregate cost such that the global energy function has a minimum value. A volume is generated, and the global energy function is a difference value between adjacent pixels of the second aggregate cost volume reflecting a difference value between the second aggregate cost volume and the first aggregate cost volume and a weight determined by a pixel value of the boundary image In step (b), a reference cost volume is used as an input value and a reference disparity map is used as a label, and the cost set method for generating a depth image is disclosed. However, the cost set method for generating a depth image according to the Korean Patent Registration No. 10-1937585 has an advantage in that an accurate depth image can be obtained, but there is a problem in that it cannot solve the problem of over-extraction of the deep learning result image. .

대한민국 공개특허 제10-2019-0029975호는 "기계학습과 이미지 프로세싱을 이용한 지도 제작 장치"에 관한 것으로, 벡터 데이터와 래스터 데이터를 각각 수집하는 데이터 수집부; 상기 벡터 데이터를 처리하여 기 설정된 설정 크기의 그라운드 트루쓰 이미지를 생성하는 벡터 데이터 처리부; 상기 래스터 데이터를 처리하여 상기 설정 크기의 래스터 분할 이미지를 생성하는 래스터 데이터 처리부; 및 상기 그라운드 트루쓰 이미지와 상기 래스터 분할 이미지에 대한 기계학습을 통해 예측 폴리곤을 생성하고, 상기 예측 폴리곤과 상기 그라운드 트루쓰 이미지를 토대로 상기 래스터 데이터 기반의 지도 제작에 적용 가능한 폴리곤을 생성하는 폴리곤 생성부를 포함하는 기계학습과 이미지 프로세싱을 이용한 지도 제작 장치를 개시하고 있다. 그러나, 상기 대한민국 공개특허 제10-2019-0029975호에 따른 기계학습과 이미지 프로세싱을 이용한 지도 제작 장치는 래스터 데이터를 이용하여 지도를 자동 제작할 수 있어 지도의 정확도를 향상시킬 수 있다는 이점은 있으나, 딥러닝 결과영상에서의 특정 영역을 정확히 추출하기 어렵다는 문제점이 있었다.Republic of Korea Patent Publication No. 10-2019-0029975 relates to "a map making apparatus using machine learning and image processing", comprising: a data collection unit for collecting vector data and raster data, respectively; A vector data processing unit processing the vector data to generate a ground true image of a preset size; A raster data processing unit processing the raster data to generate a raster segmented image of the set size; And generating a predicted polygon through machine learning on the ground true image and the raster segmented image, and generating a polygon applicable to the raster data-based map production based on the predicted polygon and the ground true image. Disclosed is a map production apparatus using machine learning and image processing including parts. However, the map production apparatus using machine learning and image processing according to Korean Patent Application Publication No. 10-2019-0029975 has the advantage of improving the accuracy of the map because it can automatically produce a map using raster data. There was a problem in that it was difficult to accurately extract a specific area from the running result image.

또한, 대한민국 등록특허 제10-2033075호는 "딥러닝을 이용한 위치정보 시스템 및 그 제공방법"에 관한 것으로, 딥러닝을 이용한 위치정보 제공방법에 있어서, 사용자 또는 관리자의 단말기로부터 영상을 획득하는 영상정보 획득단계(S10); 상기와 같이 획득된 영상정보에서 시간대별 키프레임을 추출하는 키프레임 추출단계(S20); 상기 키프레임별 영상정보를 SLAM 처리하여 시간순으로 저장하는 SLAM 단계(S30); 키프레임별 SLAM 처리 후 저장된 정보를 딥러닝하여 가상의 메인프레임 상에 배치하는 데이터 가공단계(S40); 딥러닝을 통하여 획득된 가공 데이터와 외부정보를 매칭하여 왜곡된 정보를 수정하는 가공영상정보 수정단계(S50); 수정된 정보를 기준으로 하여 랜드마크를 추출하는 랜드마크 추출단계(S60); 추출된 랜드마크 정보를 적용하여 가상지도를 생성하는 가상지도 생성단계(S70); 및 가상지도를 이용하여 위치정보를 제공하는 위치정보 제공단계(S80)로 구성되는 것을 특징으로 하는 딥러닝을 이용한 위치정보 제공방법을 개시하고 있다. 그러나, 상기 대한민국 등록특허 제10-2033075호에 따른 딥러닝을 이용한 위치정보 제공방법은 외부 환경변화에 영향을 적게 받아 신뢰성이 높은 위치정보를 제공할 수 있다는 이점은 있으나, 딥러닝 결과영상에 대한 과다추출의 문제를 해결할 수 없다는 문제점이 있었다.In addition, Korean Patent No. 10-2033075 relates to "a location information system using deep learning and a method for providing the same". In a method for providing location information using deep learning, an image for acquiring an image from a terminal of a user or an administrator Information acquisition step (S10); A key frame extraction step (S20) of extracting a key frame for each time period from the image information obtained as described above; SLAM step (S30) of storing the image information for each key frame in a chronological order by SLAM processing; A data processing step (S40) of deep learning the stored information after SLAM processing for each key frame and placing it on a virtual main frame; A processed image information correction step (S50) of matching the processed data acquired through deep learning with external information to correct distorted information; Landmark extraction step (S60) of extracting a landmark based on the modified information; A virtual map generation step (S70) of generating a virtual map by applying the extracted landmark information; And a location information providing step (S80) of providing location information using a virtual map. A method of providing location information using deep learning is disclosed. However, the method of providing location information using deep learning according to the Korean Patent Registration No. 10-2033075 has the advantage of providing highly reliable location information because it is less affected by external environment changes. There was a problem that it could not solve the problem of overextraction.

본 발명의 해결하고자 하는 과제는 딥러닝 결과영상에 대한 과다추출의 문제점을 해결할 수 있고, 딥러닝 결과영상에서의 특정 영역을 정확히 추출할 수 있는 영상 필터링 기법을 적용한 딥러닝 결과영상의 정확성 향상방법을 제공하기 위한 것이다.The problem to be solved of the present invention is a method of improving the accuracy of a deep learning result image by applying an image filtering technique capable of solving the problem of over-extraction of the deep learning result image and accurately extracting a specific region from the deep learning result image It is to provide.

본 발명의 일실시예에 따른 영상 필터링 기법을 적용한 딥러닝 결과영상의 정확성 향상방법은, 딥러닝 결과영상 내 특정 객체 위치의 픽셀값을 고유픽셀의 속성값으로 지정하고, 상기 고유픽셀 이외의 픽셀의 속성값을 ‘0’으로 지정하는 단계(S100); 상기 딥러닝 결과영상에 대응되는 참조영상의 전체 크기 및 픽셀의 크기를 상기 딥러닝 결과영상의 전체 크기 및 픽셀의 크기와 동일하게 제작하는 단계(S200); 상기 딥러닝 결과영상 내 특정 객체 위치의 픽셀값과 상기 특정 객체 위치에 대응되는 참조영상의 위치의 픽셀값을 곱하여 결과값을 구하고, 상기 결과값 중 ‘0’ 이외의 값을 가지는 픽셀군을 후보영역으로 선정하는 제1 영상 필터링 적용 단계(S300); 및 상기 후보영역 중 가장 많은 동일한 값을 가지는 픽셀영역을 최종영역으로 선정하는 제2 영상 필터링 적용 단계(S400)를 포함하는 것을 특징으로 한다.A method for improving the accuracy of a deep learning result image applying an image filtering technique according to an embodiment of the present invention is to designate a pixel value of a specific object location in the deep learning result image as an attribute value of an intrinsic pixel, and Designating an attribute value of '0' (S100); Producing the total size and pixel size of the reference image corresponding to the deep learning result image to be the same as the total size and pixel size of the deep learning result image (S200); A result value is obtained by multiplying a pixel value of a location of a specific object in the deep learning result image and a pixel value of a location of a reference image corresponding to the location of the specific object, and a group of pixels having a value other than '0' among the result values is candidate Applying a first image filtering to select a region (S300); And a second image filtering application step (S400) of selecting a pixel region having the most same value among the candidate regions as a final region.

여기서, 상기 S100 단계는, 상기 딥러닝 기법을 이용하여 영상을 분류 및 추출하여 딥러닝 결과영상을 제작하는 단계(S110); 상기 딥러닝 결과영상 내 특정 객체 위치의 픽셀값을 정의하는 단계(S120); 및 상기 정의된 특정 객체 위치의 픽셀값을 고유픽셀의 속성값으로 지정하고, 상기 고유픽셀 이외의 픽셀의 속성값을 ‘0’으로 지정하는 단계(S130)를 포함하는 것을 특징으로 한다.Here, the step S100 includes the steps of classifying and extracting an image using the deep learning technique to produce a deep learning result image (S110); Defining a pixel value of a specific object location in the deep learning result image (S120); And designating a pixel value of the defined specific object location as an attribute value of an intrinsic pixel, and designating an attribute value of a pixel other than the intrinsic pixel as '0' (S130).

상기 S200 단계는, 기본영상으로부터 상기 딥러닝 결과영상에 대응되는 참조영상을 추출하는 단계(S210); 상기 참조영상의 전체 크기를 상기 딥러닝 결과영상의 전체 크기와 동일하게 수정하는 단계(S220); 및 상기 동일하게 수정된 참조영상의 픽셀의 크기를 상기 딥러닝 결과영상의 픽셀의 크기와 동일하게 형성하는 단계(S230)를 포함하는 것을 특징으로 한다.The step S200 may include extracting a reference image corresponding to the deep learning result image from the basic image (S210); Modifying the total size of the reference image to be the same as the total size of the deep learning result image (S220); And forming (S230) the size of the pixel of the same modified reference image to be the same as the size of the pixel of the deep learning result image.

상기 S210 단계는 상기 기본영상이 벡터 형식의 데이터일 경우 상기 벡터 형식의 데이터를 래스터 형식의 영상 파일로 변환하는 단계를 더 포함하는 것을 특징으로 한다.The step S210 may further include converting the vector format data into a raster format image file when the base image is data in a vector format.

상기 S300 단계는, 상기 딥러닝 결과영상과 참조영상을 겹쳐 융합 영상을 제작하는 단계(S310); 상기 딥러닝 결과영상과 참조영상의 대응되는 픽셀값을 모두 일대일 대응되도록 곱하는 단계(S320); 상기 딥러닝 결과영상 내 특정 객체 위치의 픽셀값과 상기 특정 객체 위치에 대응되는 참조영상의 위치의 픽셀값을 곱한 ‘0’ 이외의 값을 가지는 픽셀군의 결과값을 특정하는 단계(S330); 및 상기 특정된 결과값을 후보영역으로 선정하는 단계(S340)를 포함하는 것을 특징으로 한다.The step S300 may include creating a fusion image by overlapping the deep learning result image and a reference image (S310); Multiplying the corresponding pixel values of the deep learning result image and the reference image so that they are all one-to-one correspondence (S320); Specifying a result value of a pixel group having a value other than "0" obtained by multiplying a pixel value of a location of a specific object in the deep learning result image and a pixel value of a location of a reference image corresponding to the location of the specific object (S330); And selecting the specified result value as a candidate region (S340).

본 발명은 딥러닝 결과영상에 대한 과다추출의 문제점을 해결할 수 있고, 딥러닝 결과영상에서의 특정 영역을 정확히 추출할 수 있는 영상 필터링 기법을 적용한 딥러닝 결과영상의 정확성 향상방법을 제공하는 발명의 효과를 가진다.The present invention can solve the problem of over-extraction of the deep learning result image, and provides a method for improving the accuracy of the deep learning result image by applying an image filtering technique that can accurately extract a specific region from the deep learning result image. Has an effect.

도 1은 본 발명의 일실시예에 따른 영상 필터링 기법을 적용한 딥러닝 결과영상의 정확성 향상방법을 개략적으로 나타낸 순서도이다.
도 2는 본 발명의 일실시예에 따른 참조영상의 전체 크기 및 픽셀의 크기를 딥러닝 결과영상의 전체 크기 및 픽셀의 크기와 동일하게 제작하는 과정을 개략적으로 나타낸 설명도이다.
도 3은 본 발명의 일실시예에 따른 딥러닝 결과영상과 참조영상을 겹쳐 융합 영상을 제작한 후 결과값을 구하는 과정을 개략적으로 나타낸 설명도이다.
도 4는 본 발명의 일실시예에 따른 딥러닝 결과영상과 참조영상으로부터 후보영역과 최종영역을 선정하는 과정을 개략적으로 나타낸 설명도이다.
1 is a flow chart schematically showing a method for improving the accuracy of a deep learning result image to which an image filtering technique is applied according to an embodiment of the present invention.
FIG. 2 is an explanatory diagram schematically illustrating a process of manufacturing the total size of a reference image and the size of a pixel equal to the total size and size of a pixel of a deep learning result image according to an embodiment of the present invention.
3 is an explanatory diagram schematically showing a process of obtaining a result value after producing a fusion image by overlapping a deep learning result image and a reference image according to an embodiment of the present invention.
4 is an explanatory diagram schematically showing a process of selecting a candidate region and a final region from a deep learning result image and a reference image according to an embodiment of the present invention.

본 발명의 실시예들은 당해 기술 분야에서 통상의 지식을 가진 자에게 본 발명을 더욱 완전하게 설명하기 위하여 제공되는 것이고, 하기 실시예는 여러 가지 다른 형태로 변형될 수 있으며, 본 발명의 범위가 하기 실시예에 한정되는 것은 아니다. 오히려, 이들 실시예는 본 개시를 더욱 충실하고 완전하게 하고, 당업자에게 본 발명의 사상을 완전하게 전달하기 위하여 제공되는 것이다.The embodiments of the present invention are provided to more completely describe the present invention to those of ordinary skill in the art, and the following examples may be modified in various other forms, and the scope of the present invention is as follows. It is not limited to the examples. Rather, these embodiments are provided to make the present disclosure more faithful and complete, and to completely convey the spirit of the present invention to those skilled in the art.

본 명세서에서 사용된 용어는 특정 실시예를 설명하기 위하여 사용되는 것으로, 본 발명을 제한하기 위한 것은 아니다. 본 명세서에서 사용된 바와 같이, 단수 형태는 문맥상 다른 경우를 분명히 지적하는 것이 아니라면, 복수의 형태를 포함할 수 있다. 또한, 본 명세서에서 사용되는 경우 "포함한다(comprise)" 및/또는 "포함하는(comprising)"은 언급한 형상들, 숫자, 단계, 동작, 부재, 요소 및/또는 이들 그룹의 존재를 특정하는 것이며, 하나 이상의 다른 형상, 숫자, 동작, 부재, 요소 및/또는 그룹들의 존재 또는 부가를 배제하는 것이 아니다.Terms used in the present specification are used to describe specific embodiments and are not intended to limit the present invention. As used herein, the singular form may include the plural form unless the context clearly indicates another case. Also, as used herein, "comprise" and/or "comprising" specifies the presence of the mentioned shapes, numbers, steps, actions, members, elements and/or groups thereof. And does not exclude the presence or addition of one or more other shapes, numbers, actions, members, elements, and/or groups.

본 명세서에서 기술되는 용어와 관련하여, '딥러닝(Deep learning)'은 컨볼루션 신경망(Convolutional neural network)을 이용하여 컴퓨터가 스스로 외부 데이터를 조합, 분석하여 영상의 특정정보를 학습하는 기술을 의미하고, '딥러닝 결과영상'은 임의의 영상 내에 존재하는 특정 영역을 딥러닝 기술을 이용하여 분류 및 추출한 결과영상을 의미한다.Regarding the terms described in this specification,'deep learning' refers to a technique in which a computer learns specific information of an image by combining and analyzing external data by itself using a convolutional neural network. And, the'deep learning result image' refers to a result image obtained by classifying and extracting a specific area existing in an arbitrary image using deep learning technology.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일실시예에 따른 영상 필터링 기법을 적용한 딥러닝 결과영상의 정확성 향상방법을 개략적으로 나타낸 순서도이다.1 is a flow chart schematically showing a method for improving the accuracy of a deep learning result image to which an image filtering technique is applied according to an embodiment of the present invention.

도 1에 도시된 바와 같이, 본 발명의 일실시예에 따른 영상 필터링 기법을 적용한 딥러닝 결과영상의 정확성 향상방법은 딥러닝 결과영상 내 특정 객체 위치의 픽셀값을 고유픽셀의 속성값으로 지정하고, 상기 고유픽셀 이외의 픽셀의 속성값을 ‘0’으로 지정하는 S100 단계; 상기 딥러닝 결과영상에 대응되는 참조영상의 전체 크기 및 픽셀의 크기를 상기 딥러닝 결과영상의 전체 크기 및 픽셀의 크기와 동일하게 제작하는 S200 단계; 상기 딥러닝 결과영상 내 특정 객체 위치의 픽셀값과 상기 특정 객체 위치에 대응되는 참조영상의 위치의 픽셀값을 곱하여 결과값을 구하고, 상기 결과값 중 ‘0’ 이외의 값을 가지는 픽셀군을 후보영역으로 선정하는 제1 영상 필터링 적용 단계(S300); 및 상기 후보영역 중 가장 많은 동일한 값을 가지는 픽셀영역을 최종영역으로 선정하는 제2 영상 필터링 적용 단계(S400)를 포함하여 구성된다.As shown in FIG. 1, a method for improving the accuracy of a deep learning result image applying an image filtering technique according to an embodiment of the present invention designates a pixel value of a specific object position in the deep learning result image as an attribute value of a unique pixel. Step S100 of designating an attribute value of a pixel other than the intrinsic pixel as '0'; Step S200 of producing the total size and pixel size of the reference image corresponding to the deep learning result image to be the same as the total size and pixel size of the deep learning result image; A result value is obtained by multiplying a pixel value of a location of a specific object in the deep learning result image and a pixel value of a location of a reference image corresponding to the location of the specific object, and a group of pixels having a value other than '0' among the result values is candidate Applying a first image filtering to select a region (S300); And a second image filtering application step (S400) of selecting a pixel region having the most same value among the candidate regions as a final region.

상기 S100 단계는 딥러닝 결과영상 내 특정 객체 위치의 픽셀값을 고유픽셀의 속성값으로 지정하고, 상기 고유픽셀 이외의 픽셀의 속성값을 '0'으로 지정하는 단계로, 딥러닝 기법을 이용하여 영상을 분류 및 추출하여 딥러닝 결과영상을 제작하는 단계(S110); 상기 딥러닝 결과영상 내 특정 객체 위치의 픽셀값을 정의하는 단계(S120); 및 상기 정의된 특정 객체 위치의 픽셀값을 고유픽셀의 속성값으로 지정하고, 상기 고유픽셀 이외의 픽셀의 속성값을 ‘0’으로 지정하는 단계(S130)를 포함하여 구성될 수 있다.The step S100 is a step of designating a pixel value at a location of a specific object in the deep learning result image as an attribute value of an intrinsic pixel, and designating an attribute value of a pixel other than the intrinsic pixel as '0', using a deep learning technique. Classifying and extracting the image to produce a deep learning result image (S110); Defining a pixel value of a specific object location in the deep learning result image (S120); And designating a pixel value of the defined specific object location as an attribute value of an intrinsic pixel, and designating an attribute value of a pixel other than the intrinsic pixel as '0' (S130).

구체적으로, 본 발명에 따른 딥러닝(Deep learning) 결과영상은 임의의 영상의 패턴정보와 상기 패턴의 특정 정보를 학습하기 위해 컨볼루션 신경망(Convolutional neural network) 기반의 딥러닝 기술을 적용하여 임의의 영상을 원하는 결과에 따라 분류 및 추출한 영상을 의미한다. 여기서, 컨볼루션 신경망(Convolutional neural network)은 동물의 시각피질 구조에서 영감을 받아 제작된 신경망 모델을 의미하는 것으로, 이미지 파일(Image file)을 입력하면 입력된 이미지 파일에 대하여 다수의 층으로 구성된 특징을 추출하는 부분과 추출된 특징을 이용하여 분류하는 작업을 수행하는 부분으로 구성된다. 즉, 컨볼루션 신경망은 입력된 영상의 패턴정보에 대하여 다수의 층으로 특징을 추출하고, 추출된 패턴정보의 특징을 이용하여 영상의 패턴정보와 상기 패턴의 특정 정보를 학습하게 된다.Specifically, the deep learning result image according to the present invention is randomized by applying a deep learning technology based on a convolutional neural network in order to learn pattern information of an arbitrary image and specific information of the pattern. It refers to an image that is classified and extracted according to a desired result. Here, the convolutional neural network refers to a neural network model inspired by the structure of the visual cortex of an animal. When an image file is input, the input image file is composed of multiple layers. It is composed of a part that extracts and classifies using the extracted features. That is, the convolutional neural network extracts features into a plurality of layers with respect to the pattern information of the input image, and learns pattern information of the image and specific information of the pattern by using the features of the extracted pattern information.

상기 S100 단계는 상기 딥러닝 기법을 이용하여 원하는 영상 및 패턴정보에 대하여 영상을 분류 및 추출하여 딥러닝 결과영상을 제작한다. 그 후 상기 딥러닝 결과영상 내 특정 객체 위치의 픽셀값을 정의한다. 예를 들어, 지도제작영상에서 산림 영역이 특정 객체 위치에 해당할 경우 픽셀값을 '1'로 정하거나 밭 영역이 특정 객체 위치에 해당할 경우 픽셀값을 '2'로 정하는 방법으로 특정 객체 위치의 픽셀값을 정의한다. 상기 픽셀값의 정의를 완료하면, 상기 정의된 특정 객체 위치의 픽셀값을 고유픽셀의 속성값으로 지정하고 상기 고유픽셀 이외의 픽셀의 속성값을 ‘0’으로 지정하는 단계를 수행한다.In the step S100, a deep learning result image is produced by classifying and extracting an image for desired image and pattern information using the deep learning technique. After that, a pixel value of a specific object location in the deep learning result image is defined. For example, if a forest area corresponds to a specific object location in a cartographic image, the pixel value is set to '1', or when a field area corresponds to a specific object location, the pixel value is set to '2'. Define the pixel value of. When the definition of the pixel value is completed, the step of designating the pixel value at the defined specific object location as the attribute value of the unique pixel and designating the attribute value of the pixel other than the unique pixel as '0' is performed.

S100 단계를 수행한 후 S200 단계를 수행한다. S200 단계는 딥러닝 결과영상에 대응되는 참조영상의 전체 크기 및 픽셀의 크기를 상기 딥러닝 결과영상의 전체 크기 및 픽셀의 크기와 동일하게 제작하는 단계이다.After performing step S100, step S200 is performed. In step S200, the total size and pixel size of the reference image corresponding to the deep learning result image are the same as the total size and pixel size of the deep learning result image.

도 2는 본 발명의 일실시예에 따른 참조영상의 전체 크기 및 픽셀의 크기를 딥러닝 결과영상의 전체 크기 및 픽셀의 크기와 동일하게 제작하는 과정을 개략적으로 나타낸 설명도이다.FIG. 2 is an explanatory diagram schematically illustrating a process of manufacturing the total size of a reference image and the size of a pixel equal to the total size and size of a pixel of a deep learning result image according to an embodiment of the present invention.

도 2에 도시된 바와 같이, 상기 S200 단계는 기본영상으로부터 상기 딥러닝 결과영상에 대응되는 참조영상을 추출하는 단계(S210); 상기 참조영상의 전체 크기를 상기 딥러닝 결과영상의 전체 크기와 동일하게 수정하는 단계(S220); 및 상기 동일하게 수정된 참조영상의 픽셀의 크기를 상기 딥러닝 결과영상의 픽셀의 크기와 동일하게 형성하는 단계(S230)를 포함하여 구성될 수 있다.As shown in FIG. 2, the step S200 includes extracting a reference image corresponding to the deep learning result image from the basic image (S210); Modifying the total size of the reference image to be the same as the total size of the deep learning result image (S220); And forming a pixel size of the same modified reference image to be the same as a pixel size of the deep learning result image (S230).

구체적으로, 기본영상(Basic image)은 레퍼런스(Reference)로 사용할 수 있는 기본이미지로, 주로 국가 또는 공인된 단체에서 기본적으로 제공하는 영상 데이터가 사용될 수 있다. 본 발명에 따른 S200 단계를 수행하기 위해서는 기본영상으로부터 상기 딥러닝 결과영상에 대응되는 참조영상(Reference image)을 추출하여야 한다. 따라서, 딥러닝 결과영상을 기초로 하여 기본영상 중 상기 딥러닝 결과영상에 대응되는 참조영상을 추출한 후 상기 참조영상의 전체 크기를 상기 딥러닝 결과 영상의 전체 크기와 동일하게 수정한다. 그 후, 상기 동일하게 수정된 참조영상의 픽셀(B)의 크기를 딥러닝 결과영상의 픽셀(A)의 크기와 동일하게 형성하여 딥러닝 결과영상의 픽셀과 참조영상의 픽셀이 일대일 대응되도록 한다.Specifically, a basic image is a basic image that can be used as a reference, and image data basically provided by a state or an authorized organization may be used. In order to perform step S200 according to the present invention, a reference image corresponding to the deep learning result image must be extracted from the basic image. Therefore, after extracting a reference image corresponding to the deep learning result image from among the basic images based on the deep learning result image, the total size of the reference image is corrected to be the same as the total size of the deep learning result image. Thereafter, the size of the pixel B of the reference image modified in the same manner is formed to be the same as the size of the pixel A of the deep learning result image so that the pixel of the deep learning result image and the pixel of the reference image correspond one-to-one. .

여기서, 상기 S210 단계는 상기 기본영상이 벡터(Vector) 형식의 데이터일 경우 상기 벡터 형식의 데이터를 래스터(Raster) 형식의 영상 파일로 변환하는 단계를 더 포함하도록 구성될 수 있다. 여기서, 래스터는 한 줄에서 연속된 픽셀들의 집합을 의미하는 것으로 픽셀을 포함하는 딥러닝 결과영상의 픽셀값과 참조영상의 픽셀값을 곱하기 위해서는 벡터 형식의 데이터를 래스터 형식으로 변환한 후 딥러닝 결과영상과 래스터 형식으로 변환한 참조 영상의 크기를 동일하게 변경하여야 하기 때문이다.Here, the step S210 may be configured to further include converting the vector format data into a raster format image file when the basic image is data in a vector format. Here, raster refers to a set of consecutive pixels in a single line. In order to multiply the pixel value of the deep learning result image including the pixel by the pixel value of the reference image, convert the vector data into a raster format and then the deep learning result. This is because the size of the image and the reference image converted to the raster format must be changed to the same size.

S200 단계를 수행한 후 딥러닝 결과영상 내 특정 객체 위치의 픽셀값과 상기 특정 객체 위치에 대응되는 참조영상의 위치의 픽셀값을 곱하여 결과값을 구하고, 상기 결과값 중 ‘0’ 이외의 값을 가지는 픽셀군을 후보영역으로 선정하는 제1 영상 필터링 적용 단계(S300)를 수행한다.After performing step S200, a result value is obtained by multiplying the pixel value of the location of a specific object in the deep learning result image and the location of the reference image corresponding to the location of the specific object, and a value other than '0' among the result values is A first image filtering application step (S300) of selecting a branched pixel group as a candidate region is performed.

도 3은 본 발명의 일실시예에 따른 딥러닝 결과영상과 참조영상을 겹쳐 융합 영상을 제작한 후 결과값을 구하는 과정을 개략적으로 나타낸 설명도이다.3 is an explanatory diagram schematically showing a process of obtaining a result value after producing a fusion image by overlapping a deep learning result image and a reference image according to an embodiment of the present invention.

S300 단계는, 상기 딥러닝 결과영상과 참조영상을 겹쳐 융합 영상을 제작하는 단계(S310); 상기 딥러닝 결과영상과 참조영상의 대응되는 픽셀값을 모두 일대일 대응되도록 곱하는 단계(S320); 상기 딥러닝 결과영상 내 특정 객체 위치의 픽셀값과 상기 특정 객체 위치에 대응되는 참조영상의 위치의 픽셀값을 곱한 ‘0’ 이외의 값을 가지는 픽셀군의 결과값을 특정하는 단계(S330); 및 상기 특정된 결과값을 후보영역으로 선정하는 단계(S340)를 포함하여 구성될 수 있다.Step S300, the step of producing a fusion image by overlapping the deep learning result image and a reference image (S310); Multiplying the corresponding pixel values of the deep learning result image and the reference image so that they are all one-to-one correspondence (S320); Specifying a result value of a pixel group having a value other than "0" obtained by multiplying a pixel value of a location of a specific object in the deep learning result image and a pixel value of a location of a reference image corresponding to the location of the specific object (S330); And selecting the specified result value as a candidate region (S340).

도 3에 도시된 바와 같이, 딥러닝 결과영상(Di)에서 특정 객체 위치의 픽셀값을 고유픽셀의 속성값인 '15'로 지정하는 경우 상기 고유픽셀 이외의 픽셀의 속성값은 일괄적으로 '0'으로 지정하게 된다. 또한, 래스터 형식을 가지는 참조영상(Ri)은 다양한 픽셀값을 가지게 된다. 이 때, '15'로 표시된 상기 딥러닝 결과영상(Di)의 특정 객체 위치는 상기 특정 객체 위치에 대응되는 참조영상(Ri)의 위치와 겹치도록 하기 위해 딥러닝 결과영상(Di)과 참조영상(Ri)을 겹쳐 융합 영상(Fi)을 제작할 수 있다. 그 후, 융합 영상(Fi)에서 딥러닝 결과영상(Di)과 참조영상(Ri)의 대응되는 픽셀값을 모두 일대일 대응되도록 곱하는 과정을 수행한다. 예를 들어, Fi(3,3)=Di(3,3)×Ri(3,3)이기 때문에 Fi(3,3)에서의 결과값은 15×2=30이 된다. 그러나, Fi(6,1)=Di(6,1)×Ri(6,1)이기 때문에 Fi(6,1)에서의 결과값은 0×9=0이 된다. 딥러닝 결과영상 내 특정 객체 위치의 픽셀값과 상기 특정 객체 위치에 대응되는 참조영상의 위치의 픽셀값을 곱한 ‘0’ 이외의 값을 가지는 픽셀군의 결과값을 특정하면, 특정된 결과값을 후보영역으로 선정하는 제1 영상 필터링 적용 단계를 수행한다. 따라서, 본 발명에 따른 영상 필터링 기법을 적용한 딥러닝 결과영상의 정확성 향상방법은 딥러닝 결과영상 중 특정 객체 위치의 픽셀값을 고유픽셀의 속성값으로 지정하고, 상기 고유픽셀 이외의 픽셀의 속성값을 '0'으로 지정하기 때문에 딥러닝 결과영상에서의 특정 영역을 정확히 추출할 수 있다는 이점을 가진다.As shown in FIG. 3, when the pixel value of a specific object position in the deep learning result image Di is designated as '15', which is the attribute value of the intrinsic pixel, the attribute values of pixels other than the intrinsic pixel are collectively ' It is designated as 0'. In addition, the reference image Ri having a raster format has various pixel values. In this case, the position of the specific object of the deep learning result image Di marked with '15' overlaps with the position of the reference image Ri corresponding to the position of the specific object. It is possible to create a fusion image (Fi) by overlapping (Ri). After that, in the fusion image Fi, a process of multiplying the corresponding pixel values of the deep learning result image Di and the reference image Ri so that they all correspond one-to-one is performed. For example, since Fi(3,3)=Di(3,3)×Ri(3,3), the result at Fi(3,3) is 15×2=30. However, since Fi(6,1)=Di(6,1)×Ri(6,1), the result in Fi(6,1) is 0×9=0. If a result value of a pixel group having a value other than '0' is multiplied by a pixel value of a specific object position in the deep learning result image and a pixel value of a reference image corresponding to the specific object position, the specified result value is A first image filtering application step of selecting a candidate region is performed. Therefore, in the method for improving the accuracy of a deep learning result image applying the image filtering method according to the present invention, a pixel value at a specific object position in the deep learning result image is designated as an attribute value of a unique pixel, and the attribute value of a pixel other than the unique pixel Since is designated as '0', it has the advantage of accurately extracting a specific area from the deep learning result image.

S300 단계를 수행한 후 후보영역 중 가장 많은 동일한 값을 가지는 픽셀영역을 최종영역으로 선정하는 제2 영상 필터링 적용 단계(S400)를 수행한다.After performing step S300, a second image filtering application step (S400) of selecting a pixel region having the most identical value among candidate regions as a final region is performed.

도 4는 본 발명의 일실시예에 따른 딥러닝 결과영상과 참조영상으로부터 후보영역과 최종영역을 선정하는 과정을 개략적으로 나타낸 설명도이다.4 is an explanatory diagram schematically showing a process of selecting a candidate region and a final region from a deep learning result image and a reference image according to an embodiment of the present invention.

도 4에 도시된 바와 같이, 딥러닝 결과영상에서 '15'가 특정 객체 위치에서의 고유픽셀의 속성값으로 지정된 경우 특정 객체 위치에 대응되는 참조영상의 위치의 '2' 및 '3'으로 표시된 영역이 상기 특정 객체 위치와 일대일 대응하는 영역이 된다. 따라서, 후보영역의 결과값은 두 개의 '30'의 후보영역과 한 개의 '45'의 후보영역으로 선정된다. 그러나, 상기 후보영역 중 가장 많은 동일한 값을 가지는 픽셀영역은 두 개의 '30'의 후보영역이기 때문에 상기 후보영역 중 가장 많은 동일한 값을 가지는 픽셀영역인 두 개의 '30'의 후보영역이 최종영역으로 선정되는 제2 영상 필터링 적용 단계를 수행한다. 본 발명에 따른 영상 필터링 기법을 적용한 딥러닝 결과영상의 정확성 향상방법은 상기 후보영역으로부터 최종영역을 선정하는 2 단계의 영상 필터링 적용 단계를 수행하기 때문에 딥러닝 결과영상에 대한 과다추출의 문제점을 효과적으로 해결할 수 있다는 이점을 갖는다.As shown in FIG. 4, when '15' in the deep learning result image is designated as an attribute value of a unique pixel at a specific object location, '2' and '3' of the location of the reference image corresponding to the specific object location are displayed. An area becomes an area corresponding to the specific object location one-to-one. Therefore, the result value of the candidate region is selected as two candidate regions of '30' and one candidate region of '45'. However, since the pixel regions having the most identical values among the candidate regions are two candidate regions of '30', the two candidate regions of '30', which are the pixel regions having the most identical values among the candidate regions, are the final regions. The selected second image filtering application step is performed. The method for improving the accuracy of the deep learning result image applying the image filtering technique according to the present invention effectively eliminates the problem of over-extraction of the deep learning result image because it performs a two-step image filtering application step of selecting a final region from the candidate region. It has the advantage that it can be solved.

이상에서 본 발명의 바람직한 실시예에 대하여 설명하였으나, 본 발명은 상술한 특정 실시예에 한정되지 아니한다. 즉, 본 발명이 속하는 기술분야에서 통상의 지식을 가지는 자라면 첨부된 특허청구범위의 사상 및 범주를 일탈함이 없이 본 발명에 대한 다수의 변경 및 수정이 가능하며, 그러한 모든 적절한 변경 및 수정은 균등물들도 본 발명의 범위에 속하는 것으로 간주되어야 할 것이다.Although the preferred embodiments of the present invention have been described above, the present invention is not limited to the specific embodiments described above. That is, a person having ordinary knowledge in the technical field to which the present invention pertains can make a number of changes and modifications to the present invention without departing from the spirit and scope of the appended claims, and all such appropriate changes and modifications are It should be considered that equivalents are also within the scope of the present invention.

Claims (5)

딥러닝 결과영상 내 특정 객체 위치의 픽셀값을 고유픽셀의 속성값으로 지정하고, 상기 고유픽셀 이외의 픽셀의 속성값을 ‘0’으로 지정하는 단계(S100);
상기 딥러닝 결과영상에 대응되는 참조영상의 전체 크기 및 픽셀의 크기를 상기 딥러닝 결과영상의 전체 크기 및 픽셀의 크기와 동일하게 제작하는 단계(S200);
상기 딥러닝 결과영상 내 특정 객체 위치의 픽셀값과 상기 특정 객체 위치에 대응되는 참조영상의 위치의 픽셀값을 곱하여 결과값을 구하고, 상기 결과값 중 ‘0’ 이외의 값을 가지는 픽셀군을 후보영역으로 선정하는 제1 영상 필터링 적용 단계(S300); 및
상기 후보영역 중 가장 많은 동일한 값을 가지는 픽셀영역을 최종영역으로 선정하는 제2 영상 필터링 적용 단계(S400);를 포함하고,
상기 S100 단계는 딥러닝 기법을 이용하여 영상을 분류 및 추출하여 딥러닝 결과영상을 제작하는 단계(S110); 상기 딥러닝 결과영상 내 특정 객체 위치의 픽셀값을 정의하는 단계(S120); 및 상기 정의된 특정 객체 위치의 픽셀값을 고유픽셀의 속성값으로 지정하고, 상기 고유픽셀 이외의 픽셀의 속성값을 ‘0’으로 지정하는 단계(S130);를 포함하며,
상기 S200 단계는 기본영상으로부터 상기 딥러닝 결과영상에 대응되는 참조영상을 추출하는 단계(S210); 상기 참조영상의 전체 크기를 상기 딥러닝 결과영상의 전체 크기와 동일하게 수정하는 단계(S220); 및 상기 동일하게 수정된 참조영상의 픽셀의 크기를 상기 딥러닝 결과영상의 픽셀의 크기와 동일하게 형성하는 단계(S230);를 포함하고,
상기 S300 단계는 상기 딥러닝 결과영상과 참조영상을 겹쳐 융합 영상을 제작하는 단계(S310); 상기 딥러닝 결과영상과 참조영상의 대응되는 픽셀값을 모두 일대일 대응되도록 곱하는 단계(S320); 상기 딥러닝 결과영상 내 특정 객체 위치의 픽셀값과 상기 특정 객체 위치에 대응되는 참조영상의 위치의 픽셀값을 곱한 ‘0’ 이외의 값을 가지는 픽셀군의 결과값을 특정하는 단계(S330); 및 상기 특정된 결과값을 후보영역으로 선정하는 단계(S340);를 포함하는 것을 특징으로 하는 영상 필터링 기법을 적용한 딥러닝 결과영상의 정확성 향상방법.
Designating a pixel value at a location of a specific object in the deep learning result image as an attribute value of an intrinsic pixel, and designating an attribute value of a pixel other than the intrinsic pixel as '0'(S100);
Producing the total size and pixel size of the reference image corresponding to the deep learning result image to be the same as the total size and pixel size of the deep learning result image (S200);
A result value is obtained by multiplying a pixel value of a specific object location in the deep learning result image by a pixel value of a reference image location corresponding to the specific object location, and a pixel group having a value other than '0' among the result values is candidate Applying a first image filtering to select a region (S300); And
A second image filtering application step (S400) of selecting a pixel region having the most identical value among the candidate regions as a final region; and
The step S100 comprises the steps of producing a deep learning result image by classifying and extracting an image using a deep learning technique (S110); Defining a pixel value of a specific object location in the deep learning result image (S120); And designating a pixel value of the defined specific object location as an attribute value of an intrinsic pixel, and designating an attribute value of a pixel other than the intrinsic pixel as '0' (S130).
The step S200 includes extracting a reference image corresponding to the deep learning result image from the basic image (S210); Modifying the total size of the reference image to be the same as the total size of the deep learning result image (S220); And forming the pixel size of the same modified reference image to be the same as the pixel size of the deep learning result image (S230).
The step S300 includes the step of producing a fusion image by overlapping the deep learning result image and a reference image (S310); Multiplying the corresponding pixel values of the deep learning result image and the reference image so that they are all one-to-one correspondence (S320); Specifying a result value of a pixel group having a value other than '0' obtained by multiplying a pixel value of a position of a specific object in the deep learning result image and a pixel value of a position of a reference image corresponding to the position of the specific object (S330); And selecting the specified result value as a candidate region (S340). The method for improving the accuracy of the deep learning result image to which the image filtering technique is applied.
삭제delete 삭제delete 제1항에 있어서, 상기 S210 단계는 상기 기본영상이 벡터 형식의 데이터일 경우 상기 벡터 형식의 데이터를 래스터 형식의 영상 파일로 변환하는 단계를 더 포함하는 것을 특징으로 하는 영상 필터링 기법을 적용한 딥러닝 결과영상의 정확성 향상방법.The deep learning method of claim 1, wherein the step S210 further comprises converting the vector format data into a raster format image file when the basic image is vector format data. How to improve the accuracy of the resulting image. 삭제delete
KR1020190165597A 2019-12-12 2019-12-12 Method of improving precision of deep learning resultant image by using image filtering technique KR102157005B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190165597A KR102157005B1 (en) 2019-12-12 2019-12-12 Method of improving precision of deep learning resultant image by using image filtering technique

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190165597A KR102157005B1 (en) 2019-12-12 2019-12-12 Method of improving precision of deep learning resultant image by using image filtering technique

Publications (1)

Publication Number Publication Date
KR102157005B1 true KR102157005B1 (en) 2020-09-16

Family

ID=72670049

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190165597A KR102157005B1 (en) 2019-12-12 2019-12-12 Method of improving precision of deep learning resultant image by using image filtering technique

Country Status (1)

Country Link
KR (1) KR102157005B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11339047A (en) * 1998-05-28 1999-12-10 Nippon Hoso Kyokai <Nhk> Device for extracting selected area of image
KR20090009944A (en) * 2006-06-08 2009-01-23 후지쯔 가부시끼가이샤 Uncleanness detecting device
KR20170070715A (en) * 2015-12-14 2017-06-22 삼성전자주식회사 Appartus and method for Object detection based on Deep leaning, apparatus for Learning thereof

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11339047A (en) * 1998-05-28 1999-12-10 Nippon Hoso Kyokai <Nhk> Device for extracting selected area of image
KR20090009944A (en) * 2006-06-08 2009-01-23 후지쯔 가부시끼가이샤 Uncleanness detecting device
KR20170070715A (en) * 2015-12-14 2017-06-22 삼성전자주식회사 Appartus and method for Object detection based on Deep leaning, apparatus for Learning thereof

Similar Documents

Publication Publication Date Title
CN112017189B (en) Image segmentation method and device, computer equipment and storage medium
US20200320347A1 (en) System and method for domain adaptation using synthetic data
CN111986099B (en) Tillage monitoring method and system based on convolutional neural network with residual error correction fused
CN104008538B (en) Based on single image super-resolution method
CN107507217B (en) Method and device for making certificate photo and storage medium
CN110163640A (en) A kind of method and computer equipment of product placement in video
CN111833237B (en) Image registration method based on convolutional neural network and local homography transformation
KR20150107579A (en) Image processing apparatus and image processing method
CN109711268B (en) Face image screening method and device
DE102019102866A1 (en) Identification of a manufacturing part using computer vision and machine learning
CN106897681A (en) A kind of remote sensing images comparative analysis method and system
CN104462526B (en) More people towards high-resolution remote sensing image cooperate with rapid vector method online
CN105068918B (en) A kind of page method of testing and device
CN111695431A (en) Face recognition method, face recognition device, terminal equipment and storage medium
US20220374785A1 (en) Machine Learning System
CN110598017A (en) Self-learning-based commodity detail page generation method
CN112102929A (en) Medical image labeling method and device, storage medium and electronic equipment
CN108256454A (en) A kind of training method based on CNN models, human face posture estimating and measuring method and device
CN111814573A (en) Face information detection method and device, terminal equipment and storage medium
Shete et al. Tasselgan: An application of the generative adversarial model for creating field-based maize tassel data
KR102430743B1 (en) Apparatus and method for developing object analysis model based on data augmentation
CN109902751A (en) A kind of dial digital character identifying method merging convolutional neural networks and half-word template matching
KR102157005B1 (en) Method of improving precision of deep learning resultant image by using image filtering technique
JP2019128842A (en) Computer program, identification device, and identification method
CN116597317A (en) Remote sensing image change detection data generation method, device, equipment and medium

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant