KR20200052397A - Plant Area Extraction System and Method Based on Deep Running and Connectivity Graphs - Google Patents

Plant Area Extraction System and Method Based on Deep Running and Connectivity Graphs Download PDF

Info

Publication number
KR20200052397A
KR20200052397A KR1020180126611A KR20180126611A KR20200052397A KR 20200052397 A KR20200052397 A KR 20200052397A KR 1020180126611 A KR1020180126611 A KR 1020180126611A KR 20180126611 A KR20180126611 A KR 20180126611A KR 20200052397 A KR20200052397 A KR 20200052397A
Authority
KR
South Korea
Prior art keywords
plant
image
region extraction
extraction data
data
Prior art date
Application number
KR1020180126611A
Other languages
Korean (ko)
Other versions
KR102131243B1 (en
Inventor
김준식
이상욱
Original Assignee
한국과학기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술연구원 filed Critical 한국과학기술연구원
Priority to KR1020180126611A priority Critical patent/KR102131243B1/en
Publication of KR20200052397A publication Critical patent/KR20200052397A/en
Application granted granted Critical
Publication of KR102131243B1 publication Critical patent/KR102131243B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/188Vegetation
    • G06K9/20
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Abstract

Provided is a plant area extraction system. The plant area extraction system comprises: a plant image generation unit photographing a target plant and generating a plant image; a first plant area extraction unit generating first plant area extraction data which separates a plant area and a background area for each pixel of the plant image through a machine learning model based on a convolutional neural network; and a second plant area extraction unit utilizing the plant image and the first plant area extraction data and generating second plant area extraction data which maximizes interconnectivity between a plurality of pixels of the plant image.

Description

딥러닝 및 연결성 그래프에 기초한 식물 영역 추출 시스템 및 방법{Plant Area Extraction System and Method Based on Deep Running and Connectivity Graphs}Plant Area Extraction System and Method Based on Deep Running and Connectivity Graphs

본 발명은 식물 영역 추출 시스템 및 방법에 관한 것으로, 구체적으로 딥러닝 및 연결성 그래프에 기초하여 식물 영역을 추출할 수 있는 시스템 및 방법에 관한 것이다.The present invention relates to a system and method for extracting plant regions, and specifically to a system and method for extracting plant regions based on deep learning and connectivity graphs.

[국가지원 연구개발에 대한 설명][Explanation on national support R & D]

본 연구는 농촌진흥청의 관리 하에 차세대바이오그린21 사업의 "영상기반 핵심작물 표현체 추정 기술 개발"(과제 고유번호: 1395056227, 세부과제번호: PJ012281022018, 과제수행기관: 한국과학기술연구원)의 지원에 의하여 이루어진 것이다.This research is under the supervision of the Rural Development Administration to support the "Development of Technology for Estimating the Expression of Image-Based Core Crop Phenotypes" of the Next Generation Bio Green 21 Project (Task No .: 1395056227, Detailed Project No .: PJ012281022018, Task Performing Organization: Korea Institute of Science and Technology) It is made by.

발현 형체학(phenomics)은 세포 내에서 일어나는 RNA와 단백질 등과 같은 생명체들의 표현형(phenotype)을 조사하고 그 양을 측정하는 것을 기반으로, 세포의 기능을 연구하는 학문이다. 표현형 정보를 측정하고 자료화하기 위해서는 대상물의 개별적인 분석이 요구되며, 발현 형체학의 대상물이 식물인 경우, 식물 잎의 개별적인 분석이 요구된다.Phenonomics is a study of the function of cells based on the investigation of the phenotype of living organisms such as RNA and protein and measuring the amount. In order to measure and document phenotypic information, individual analysis of objects is required, and when the object of expression morphology is a plant, individual analysis of plant leaves is required.

이러한 식물 잎의 개별적인 분석을 위해 종래에는 사람이 직접 개별적인 식물 잎을 확인하는 노동집약적인 방법이 수행되었으나, 최근 전체 식물 이미지를 획득하여 획득 이미지로부터 개별 식물 잎의 특성을 도출하는 방법이 연구되고 있다.For the individual analysis of such plant leaves, a labor-intensive method of manually identifying individual plant leaves has been performed in the past, but recently, a method of deriving the characteristics of individual plant leaves from the acquired image by studying the entire plant image has been studied. .

이러한 식물 이미지로부터 개별 식물 잎의 특성을 도출하는 방법은 식물 이미지 내의 식물 영역과 배경 영역을 구분하는 과정이 중요할 수 있다. 구분된 식물 이미지를 기준으로 개별 식물 잎의 특성을 분석이 수행되는 바, 식물 영역의 구분 및 추출이 정확히 수행되지 않으면 이후 진행되는 결과의 정확성도 보장되지 않는다. 특히, 단자엽 식물(Monocotyledonous Plants)의 경우 잎이 길고 가늘기 때문에 식물 영역과 배경 영역의 구분이 용이하지 않으며, 구분된 식물 영역에 실재 식물에는 존재하지 않는 구멍이 생기거나 잎이 끊어져서 구분되는 경우가 발생할 수 있다. 즉, 가늘고 긴 잎을 가진 식물 이미지에서 식물 영역을 배경 영역과 구분할 때 식물 잎의 연결성을 최대한 보장할 수 있는 분리 기술이 필요한 실정이다.In the method of deriving the characteristics of individual plant leaves from the plant image, a process of distinguishing the plant region and the background region in the plant image may be important. Since the analysis of the characteristics of individual plant leaves is performed based on the divided plant image, if the classification and extraction of the plant area is not performed correctly, the accuracy of the results that are performed afterwards is not guaranteed. Particularly, in the case of monocotyledonous plants, since the leaves are long and thin, it is not easy to distinguish the plant region from the background region. In the divided plant region, there is a case where a hole that does not exist in the actual plant or the leaf is cut is separated. Can occur. In other words, in the case of separating a plant region from a background region in an elongated leafy plant image, a separation technique capable of ensuring maximum connectivity of the plant leaves is required.

본 발명은 상술한 문제점을 해결하기 위해 안출된 것으로, 식물 이미지에서 가늘고 긴 잎을 가진 식물 영역을 배경 영역과 분류할 수 있는 딥러닝 및 연결성 그래프에 기초한 식물 영역 추출 시스템 및 방법을 제공한다.The present invention has been devised to solve the above-mentioned problems, and provides a system and method for extracting plant regions based on deep learning and connectivity graphs that can classify plant regions with elongated leaves in a plant image as background regions.

본 명세서의 일 실시예에 따른 식물 영역 추출 시스템은 대상 식물을 촬영하여 식물 이미지를 생성하는 식물 이미지 생성부; 컨볼루션 신경망(Convolutional Neural Network) 기반의 기계 학습 모델을 통해 상기 식물 이미지의 각 화소별로 식물 영역과 배경 영역을 구분한 제1 식물 영역 추출 데이터를 생성하는 제1 식물 영역 추출부; 및 상기 식물 이미지 및 상기 제1 식물 영역 추출 데이터를 활용하여, 상기 식물 이미지의 복수의 화소 간의 상호 연결성을 최대화한 제2 식물 영역 추출 데이터를 생성하는 제2 식물 영역 추출부를 포함한다. A plant region extraction system according to an embodiment of the present specification includes a plant image generator configured to generate a plant image by photographing a target plant; A first plant region extraction unit generating first plant region extraction data that separates a plant region and a background region for each pixel of the plant image through a machine learning model based on a convolutional neural network; And a second plant region extraction unit that generates second plant region extraction data that maximizes interconnection between a plurality of pixels of the plant image by utilizing the plant image and the first plant region extraction data.

일 실시예에서, 상기 제1 식물 영역 추출부의 상기 컨볼루션 신경망(Convolutional Neural Network) 기반의 기계 학습 모델은, 상기 식물 이미지에 대한 피쳐맵을 생성하는 컨볼루션 단계(Conv), 상기 피쳐맵의 해상도를 감소시키는 트랜지션 다운(TD) 단계 및 피쳐맵의 해상도를 증가시키는 트랜지션 업(TU) 단계를 포함하고, 상기 트랜지션 다운에 입력되는 데이터는 트랜지션 업에서 출력되는 데이터와 스킵 연결(skip connetion)될 수 있다. In one embodiment, the machine learning model based on the convolutional neural network of the first plant region extraction unit includes a convolution step (Conv) for generating a feature map for the plant image, and the resolution of the feature map It includes a transition down (TD) step to reduce and a transition up (TU) step to increase the resolution of the feature map, the data input to the transition down can be skipped (skip connetion) with the data output from the transition up. have.

일 실시예에서, 상기 제1 식물 영역 추출부의 상기 컨볼루션 신경망(Convolutional Neural Network) 기반의 기계 학습 모델은 복수의 컨볼루션 단계를 포함하는 밀도 블록(Dense Block)을 포함하고, 상기 밀도 블록 내에서 컨볼루션을 통해 생성된 피쳐맵은 누적되어 초기 단계 정보가 소거되지 않고 후기 단계 정보와 계속 이어질 수 있다. In one embodiment, the machine learning model based on the convolutional neural network of the first plant region extraction unit includes a density block including a plurality of convolution steps, and within the density block The feature map generated through convolution may be accumulated so that the initial stage information is not erased and continues with the later stage information.

일 실시예에서, 상기 식물 이미지가 상기 제1 식물 영역 추출부에서 처리 가능한 이미지의 크기보다 큰 경우, 상기 제1 식물 영역 추출부는 상기 식물 이미지를 상기 처리 가능한 이미지의 크기로 분할하여 복수의 서브 식물 이미지를 생성하고, 상기 복수의 서브 식물 이미지 각각에 대한 제1 서브 식물 영역 추출 데이터를 각각 생성하고, 상기 생성된 각각의 제1 서브 식물 영역 추출 데이터를 조합하여 상기 제1 식물 영역 추출 데이터를 생성할 수 있다. In one embodiment, when the plant image is larger than the size of the image that can be processed by the first plant region extracting unit, the first plant region extracting unit divides the plant image into the size of the processable image, thereby subtracting a plurality of sub plants. An image is generated, first sub plant region extraction data for each of the plurality of sub plant images are respectively generated, and the first first plant region extraction data is generated by combining each of the generated first sub plant region extraction data. can do.

일 실시예에서, 상기 제1 식물 영역 추출부는 상기 생성된 각각의 제1 서브 식물 영역 추출 데이터가 상기 복수의 서브 식물 이미지의 중복되는 화소 영역을 포함하는 경우, 상기 중복되는 화소 영역에 대해 가장 높은 확률 값을 가진 제1 서브 식물 영역 추출 데이터를 선택하여 상기 제1 식물 영역 추출 데이터를 조합할 수 있다. In one embodiment, when the first plant region extraction data of each of the first sub-plant region extraction data includes overlapping pixel regions of the plurality of sub-plant images, the first plant region extraction unit is highest for the overlapping pixel regions. The first plant region extraction data may be combined by selecting the first sub-plant region extraction data having a probability value.

일 실시예에서, 상기 제2 식물 영역 추출부는 상기 제1 식물 영역 추출 데이터에 따른 각 화소가 식물 영역에 해당할 확률 값 및 상기 복수의 화소들 사이의 상호 연결 그래프를 모두 형성하고 연결된 화소들간의 상호 영향성을 고려하여 각 화소가 식물 영역인지 여부를 결정한 상기 제2 식물 영역 추출 데이터를 생성할 수 있다. In one embodiment, the second plant region extracting unit forms a graph of a probability value of each pixel corresponding to the first plant region extraction data and a graph of interconnection between the plurality of pixels and between connected pixels. In consideration of the mutual influence, the second plant region extraction data for determining whether each pixel is a plant region may be generated.

일 실시예에서, 상기 상호 영향성은 연결된 화소간의 거리 차이 및 상기 식물 이미지의 R, G, B 값의 유사 여부를 고려하여 결정될 수 있다. In one embodiment, the mutual influence may be determined in consideration of a difference in distance between connected pixels and similarity of R, G, and B values of the plant image.

일 실시예에서, 상기 식물은 단자엽 식물(Monocotyledonous Plants)일 수 있다. In one embodiment, the plant may be monocotyledonous plants.

본 발명의 다른 실시예에 따른 식물 영역 추출 방법은 식물 영역 추출 시스템이, 대상 식물을 촬영하여 식물 이미지를 생성하는 단계; 상기 식물 영역 추출 시스템이, 컨볼루션 신경망(Convolutional Neural Network) 기반의 기계 학습 모델을 통해 상기 식물 이미지의 각 화소별로 식물 영역과 배경 영역을 구분한 제1 식물 영역 추출 데이터를 생성하는 단계; 및 상기 식물 영역 추출 시스템이, 상기 식물 이미지 및 상기 제1 식물 영역 추출 데이터를 활용하여, 상기 식물 이미지의 복수의 화소 간의 상호 연결성을 최대화한 제2 식물 영역 추출 데이터를 생성하는 단계를 포함한다. Plant region extraction method according to another embodiment of the present invention, the plant region extraction system, photographing a target plant to generate a plant image; Generating, by the plant region extraction system, first plant region extraction data that separates a plant region and a background region for each pixel of the plant image through a machine learning model based on a convolutional neural network; And the plant region extracting system, using the plant image and the first plant region extracting data, generating second plant region extracting data that maximizes interconnection between a plurality of pixels of the plant image.

일 실시예에서, 상기 컨볼루션 신경망(Convolutional Neural Network) 기반의 기계 학습 모델은, 상기 식물 이미지에 대한 피쳐맵을 생성하는 컨볼루션 단계(Conv), 상기 피쳐맵의 해상도를 감소시키는 트랜지션 다운(TD) 단계 및 피쳐맵의 해상도를 증가시키는 트랜지션 업(TU) 단계를 포함하고, 상기 트랜지션 다운에 입력되는 데이터는 트랜지션 업에서 출력되는 데이터와 스킵 연결(skip connetion)될 수 있다. In one embodiment, the convolutional neural network-based machine learning model includes a convolution step (Conv) for generating a feature map for the plant image, and a transition down (TD) for reducing the resolution of the feature map. ) And a transition up (TU) step of increasing the resolution of the feature map, and data input to the transition down may be skipped concatenated with data output from the transition up.

일 실시예에서, 상기 컨볼루션 신경망(Convolutional Neural Network) 기반의 기계 학습 모델은 복수의 컨볼루션 단계를 포함하는 밀도 블록(Dense Block)을 포함하고, 상기 밀도 블록 내에서 컨볼루션을 통해 생성된 피쳐맵은 누적되어 초기 단계 정보가 소거되지 않고 후기 단계 정보와 계속 이어질 수 있다. In an embodiment, the machine learning model based on the convolutional neural network includes a density block including a plurality of convolution steps, and features generated through convolution within the density block The map may be accumulated so that the initial stage information is not erased, but continues with the later stage information.

일 실시예에서, 상기 제1 식물 영역 추출 데이터를 생성하는 단계는, 상기 식물 이미지를 상기 처리 가능한 이미지의 크기로 분할하여 복수의 서브 식물 이미지를 생성하는 단계; 상기 복수의 서브 식물 이미지 각각에 대한 제1 서브 식물 영역 추출 데이터를 각각 생성하는 단계; 및 상기 생성된 각각의 제1 서브 식물 영역 추출 데이터를 조합하여 상기 제1 식물 영역 추출 데이터를 생성하는 단계를 포함할 수 있다. In one embodiment, the step of generating the first plant region extraction data includes: dividing the plant image into a size of the processable image to generate a plurality of sub-plant images; Generating first sub plant region extraction data for each of the plurality of sub plant images; And combining the generated first sub-plant region extraction data to generate the first plant region extraction data.

일 실시예에서, 상기 생성된 각각의 제1 서브 식물 영역 추출 데이터를 조합하여 상기 제1 식물 영역 추출 데이터를 생성하는 단계는, 상기 생성된 각각의 제1 서브 식물 영역 추출 데이터가 상기 복수의 서브 식물 이미지의 중복되는 화소 영역을 포함하는 경우, 상기 중복되는 화소 영역에 대해 가장 높은 확률 값을 가진 제1 서브 식물 영역 추출 데이터를 선택하여 상기 제1 식물 영역 추출 데이터를 조합할 수 있다. In one embodiment, the step of generating the first plant region extraction data by combining each of the generated first sub-plant region extraction data may include generating the first sub-plant region extraction data of the plurality of sub-regions. When the overlapping pixel region of the plant image is included, the first plant region extraction data may be combined by selecting the first sub-plant region extraction data having the highest probability value for the overlapping pixel region.

일 실시예에서, 상기 제2 식물 영역 추출 데이터를 생성하는 단계는 상기 제1 식물 영역 추출 데이터에 따른 각 화소가 식물 영역에 해당할 확률 값 및 상기 복수의 화소들 사이의 상호 연결 그래프를 모두 형성하고 연결된 화소들간의 상호 영향성을 고려하여 각 화소가 식물 영역인지 여부를 결정한 상기 제2 식물 영역 추출 데이터를 생성할 수 있다. In one embodiment, the step of generating the second plant region extraction data forms both a probability value that each pixel according to the first plant region extraction data corresponds to the plant region and an interconnection graph between the plurality of pixels. And, considering the mutual influence between the connected pixels, it is possible to generate the second plant region extraction data for determining whether each pixel is a plant region.

일 실시예에서, 상기 상호 영향성은 연결된 화소간의 거리 차이 및 상기 식물 이미지의 R, G, B 값의 유사 여부를 고려하여 결정될 수 있다. In one embodiment, the mutual influence may be determined in consideration of a difference in distance between connected pixels and similarity of R, G, and B values of the plant image.

일 실시예에서, 상기 식물은 단자엽 식물(Monocotyledonous Plants)일 수 있다. In one embodiment, the plant may be monocotyledonous plants.

본 발명의 또 다른 실시예에 따른 컴퓨터 프로그램은 하드웨어와 결합되어 상술한 식물 영역 추출 방법을 실행하도록 매체에 저장된다. A computer program according to another embodiment of the present invention is stored in a medium in combination with hardware to execute the above-described plant region extraction method.

본 발명의 일 실시예에 따른 식물 영역 추출 시스템은 컨볼루션 신경망(Convolutional Neural Network)을 통해 식물 이미지에서 식물 영역과 배경 영역을 구분하되, 디컨볼루션(deconvolution) 과정을 통해 결과 데이터가 입력된 식물 이미지와 동일한 해상도를 가지는 것이 보장된다. The plant region extraction system according to an embodiment of the present invention distinguishes a plant region and a background region from a plant image through a convolutional neural network, but the result data is input through a deconvolution process. It is guaranteed to have the same resolution as the image.

또한, 밀도 조건부 랜덤 필드(Dense Conditional Random Field)라는 조건부 확률 모델을 통해 식물 이미지의 화소의 연결성을 최대화한 결과 데이터를 생성할 수 있다. In addition, through a conditional probability model called a density conditional random field, it is possible to generate result data that maximizes the connectivity of pixels in a plant image.

따라서, 식물 이미지에서 가늘고 긴 잎을 가진 식물 영역을 보다 정밀하게 추출할 수 있다.Therefore, a plant region with elongated leaves can be more precisely extracted from the plant image.

도 1은 본 발명의 일 실시예에 따른 식물 영역 추출 시스템의 개략적인 블록도이다.
도 2a 및 2b는 식물 이미지 생성부에서 촬영 대상 식물을 촬영한 예시적인 식물 이미지를 나타낸다.
도 3a는 제1 식물 영역 추출부의 동작 과정을 나타낸 블록도이며, 도 3b는 도 3a의 dense block의 구성을 나타낸 블록도이다.
도 4는 복수의 화소 간의 연결 관계를 나타낸 그래프이다.
도 5a 및 5b는 각각 도 2a 및 2b의 식물 이미지에서 식물 영역을 추출한 결과 데이터이다.
도 6은 본 발명의 다른 실시예에 따른 식물 영역 추출 방법의 순서도이다.
1 is a schematic block diagram of a plant region extraction system according to an embodiment of the present invention.
2A and 2B show exemplary plant images of plants to be photographed in the plant image generation unit.
3A is a block diagram showing an operation process of the first plant region extraction unit, and FIG. 3B is a block diagram showing the configuration of the dense block of FIG. 3A.
4 is a graph showing a connection relationship between a plurality of pixels.
5A and 5B are result data obtained by extracting a plant region from the plant images of FIGS. 2A and 2B, respectively.
6 is a flowchart of a method for extracting plant regions according to another embodiment of the present invention.

후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당 업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시 예는 서로 다르지만 상호 배타적일 필요는 없다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예와 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있다. 따라서, 후술하는 상세한 설명은 한정적인 의미로 기술된 것이 아니며, 본 발명의 범위는 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에서 동일하거나 유사한 기능을 지칭한다.For a detailed description of the present invention, which will be described later, reference is made to the accompanying drawings that illustrate, by way of example, specific embodiments in which the invention may be practiced. These embodiments are described in detail enough to enable a person skilled in the art to practice the present invention. Various embodiments of the present invention are different, but need not be mutually exclusive. For example, the specific shapes, structures, and properties described herein can be implemented in other embodiments without departing from the spirit and scope of the invention in connection with one embodiment. In addition, the location or placement of individual components within each disclosed embodiment can be changed without departing from the spirit and scope of the invention. Therefore, the detailed description to be described later is not described in a limiting sense, and the scope of the present invention is limited only by the appended claims, along with all ranges equivalent to the claims. In the drawings, similar reference numerals refer to the same or similar functions in various aspects.

본 명세서에서 사용되는 용어는 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 관례 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 명세서의 설명 부분에서 그 의미를 기재할 것이다. 따라서 본 명세서에서 사용되는 용어는, 단순한 용어의 명칭이 아닌 그 용어가 가지는 실질적인 의미와 본 명세서의 전반에 걸친 내용을 토대로 해석되어야 한다.The terminology used in the present specification is a general terminology that is currently widely used while considering functions, but this may vary according to intentions or customs of technicians in the field or the appearance of new technologies. In addition, in certain cases, some terms are arbitrarily selected by the applicant, and in this case, the meaning will be described in the description of the corresponding specification. Therefore, the terms used in this specification should be interpreted based on not only the names of simple terms, but the actual meanings of the terms and contents throughout the present specification.

도 1은 일 실시예에 따른 식물 영역 추출 시스템의 개략적인 블록도이다. 도 2a 및 2b는 식물 이미지 생성부(100)에서 촬영 대상 식물을 촬영한 예시적인 식물 이미지를 나타낸다. 도 3a는 제1 식물 영역 추출부의 동작 과정을 나타낸 블록도이며, 도 3b는 도 3a의 dense block의 구성을 나타낸 블록도이다. 도 4는 복수의 화소 간의 연결 관계를 나타낸 그래프이다. 도 5a 및 5b는 각각 도 2a 및 2b의 식물 이미지에서 식물 영역을 추출한 결과 데이터이다. 1 is a schematic block diagram of a plant area extraction system according to an embodiment. 2A and 2B show exemplary plant images of plants to be photographed by the plant image generator 100. 3A is a block diagram showing an operation process of the first plant region extraction unit, and FIG. 3B is a block diagram showing the configuration of the dense block of FIG. 3A. 4 is a graph showing a connection relationship between a plurality of pixels. 5A and 5B are result data obtained by extracting plant regions from the plant images of FIGS. 2A and 2B, respectively.

도 1을 참조하면, 본 실시예에 따른 식물 영역 추출 시스템(10)은 식물 이미지 생성부(100), 제1 식물 영역 추출부(110) 및 제2 식물 영역 추출부(120)를 포함한다. 실시예들에 따른 식물 영역 추출 시스템 및 이를 구성하는 각각의 장치 또는 부(unit)는, 전적으로 하드웨어이거나, 또는 부분적으로 하드웨어이고 부분적으로 소프트웨어인 측면을 가질 수 있다. 예컨대, 식물 영역 추출 시스템의 각각의 구성요소는 하드웨어 및 해당 하드웨어에 의해 구동되는 소프트웨어의 조합을 지칭하는 것으로 의도된다. 하드웨어는 CPU(Central Processing Unit) 또는 다른 프로세서(processor)를 포함하는 데이터 처리 기기일 수 있다. 또한, 하드웨어에 의해 구동되는 소프트웨어는 실행중인 프로세스, 객체(object), 실행파일(executable), 실행 스레드(thread of execution), 프로그램(program) 등을 지칭할 수 있다. 예를 들어, 식물 이미지 생성부(100)는, 대상물을 촬영하여 이미지화하기 위한 하드웨어 및 이를 제어하여 촬영을 수행하고 이미지화를 처리함으로써 후속 처리를 위한 형태로 변환하는 소프트웨어의 조합을 지칭할 수 있다.Referring to FIG. 1, the plant region extraction system 10 according to the present embodiment includes a plant image generation unit 100, a first plant region extraction unit 110, and a second plant region extraction unit 120. The plant area extraction system according to embodiments and each device or unit constituting the same may have aspects that are entirely hardware, or partially hardware and partially software. For example, each component of the plant area extraction system is intended to refer to a combination of hardware and software driven by the hardware. The hardware may be a data processing device including a central processing unit (CPU) or other processor. Also, software driven by hardware may refer to a running process, an object, an executable, a thread of execution, a program, or the like. For example, the plant image generating unit 100 may refer to a combination of hardware for imaging an object and imaging it by controlling it, and converting the image into a form for subsequent processing by performing imaging and processing imaging.

식물 이미지 생성부(100)는 대상 식물을 촬영하여 2차원 이미지에 해당하는 식물 이미지(I)를 생성할 수 있다. 식물 이미지 생성부(100)는 식물의 이미지를 촬영하기 위한 이미지 센서를 포함할 수 있다. 식물 이미지 생성부(100)는 대상 식물을 정면에서 촬영하여 식물 이미지(I)를 생성할 수 있다. 다만, 이에 한정되는 것은 아니며, 다른 실시예에서 식물 이미지 생성부(100)는 대상 식물의 정면, 후면, 좌면, 우면, 상면 중 적어도 하나 이상의 방향에서 촬영을 수행할 수 있다.The plant image generation unit 100 may photograph a target plant and generate a plant image I corresponding to a two-dimensional image. The plant image generator 100 may include an image sensor for photographing a plant image. The plant image generation unit 100 may generate a plant image I by photographing a target plant from the front. However, the present invention is not limited thereto, and in another embodiment, the plant image generating unit 100 may perform shooting in at least one of front, rear, left, right, and top surfaces of the target plant.

여기서, 식물 이미지 생성부(100)에서 촬영되는 대상 식물은 복수의 식물 잎을 가진 식물로, 각 식물 잎은 길고 가는 형태일 수 있다. 대상 식물은 단자엽 식물(Monocotyledonous Plants)일 수 있으나, 이에 한정되는 것은 아니다. Here, the target plant photographed by the plant image generating unit 100 is a plant having a plurality of plant leaves, and each plant leaf may have a long and thin shape. The target plant may be monocotyledonous plants, but is not limited thereto.

또한, 대상 식물을 촬영하는 공간은 단일색의 배경을 가지는 공간일 수 있다. 구체적으로 식물 잎과 대조되거나 구별이 용이한 색, 보색 관계를 형성하는 색의 배경을 가지는 공간일 수 있으나, 이에 한정되는 것은 아니다. 대상 식물은 컨베이어 시스템 등을 통해 순차적으로 촬영 장소를 통과하면서 촬영될 수 있으나, 이에 한정되는 것은 아니다. 도 2a 및 도 2b는 식물 이미지 생성부(100)에서 생성된 예시적인 식물 이미지를 나타낸다. 식물 이미지(I)는 복수의 픽셀로 구성될 수 있으며, 복수의 픽셀 수에 따른 해상도를 가질 수 있다. 생성된 식물 이미지(I)는 제1 식물 영역 추출부(110) 및 제2 식물 영역 추출부(110)로 제공될 수 있다.Further, the space for photographing the target plant may be a space having a single color background. Specifically, it may be a space having a background of a color that contrasts with a plant leaf or is easily distinguishable from a color, forming a complementary color relationship, but is not limited thereto. The target plant may be photographed while sequentially passing through the photographing place through a conveyor system or the like, but is not limited thereto. 2A and 2B show exemplary plant images generated by the plant image generator 100. The plant image I may be composed of a plurality of pixels, and may have a resolution according to the number of pixels. The generated plant image I may be provided to the first plant region extractor 110 and the second plant region extractor 110.

제1 식물 영역 추출부(110)는 식물 이미지의 각 화소별로 식물 영역과 배경 영역을 구분할 제1 식물 영역 추출 데이터를 생성한다. 제1 식물 영역 추출 데이터는 식물 이미지(I)의 각 화소 단위로 식물 영역과 배경 영역을 확률적으로 구분한 데이터로, 식물 이미지(I)에 포함된 복수의 화소 각각이 식물 영역에 해당할 확률을 계산한 데이터일 수 있다. 제1 식물 영역 추출부(110)는 입력된 식물 이미지(I)의 복수의 화소 각각이 식물 영역에 해당하는 지를 판단하고, 식물 영역에 해당할 확률 값을 결과 값으로 생성할 수 있다. The first plant region extracting unit 110 generates first plant region extraction data for distinguishing the plant region and the background region for each pixel of the plant image. The first plant region extraction data is data that stochastically divides the plant region and the background region in units of each pixel of the plant image I, and the probability that each of the plurality of pixels included in the plant image I corresponds to the plant region It may be calculated data. The first plant region extracting unit 110 may determine whether each of the plurality of pixels of the input plant image I corresponds to the plant region, and generate a probability value corresponding to the plant region as a result value.

제1 식물 영역 추출부(110)는 컨볼루션 신경망(Convolutional Neural Network) 기반의 기계 학습 모델을 통해 제1 식물 영역 추출 데이터를 생성할 수 있다. 컨볼루션 신경망 기반의 기계 학습 모델은 복수의 컨볼루션(convolutional) 단계와 복수의 폴링(pooling) 단계로 구성되어, 각 단계를 반복 수행하는 과정에서 입력 이미지의 특징을 반영할 수 있는 필터의 값을 자동으로 학습할 수 있고, 학습된 필터에 따라 이미지에 분석 및 판별을 수행한다. 다만, 종래의 컨볼루션 신경망(Convolutional Neural Network) 기반의 기계 학습 모델의 경우 입력 이미지에 폴링 단계에서 입력 이미지의 해상도가 감소하게 되는 바, 원본 해상도를 기준으로 입력 이미지 각각의 복수의 화소에 대한 결과가 필요한 본 발명에 적합하지 않을 수 있다. The first plant region extraction unit 110 may generate first plant region extraction data through a machine learning model based on a convolutional neural network. The machine learning model based on the convolutional neural network is composed of a plurality of convolutional stages and a plurality of polling stages, and the value of the filter that can reflect the characteristics of the input image in the process of repeating each stage It can learn automatically and performs analysis and discrimination on images according to the learned filters. However, in the case of a conventional machine learning model based on a convolutional neural network, the resolution of the input image is reduced in the polling step of the input image. As a result, a result of a plurality of pixels of each input image based on the original resolution May not be suitable for the present invention.

따라서, 본 발명의 일 실시예에 따른 제1 식물 영역 추출부(110)는 폴링 단계에 대응되고 피쳐맵의 해상도를 감소시키는 트랜지션 다운(TD) 단계와 피쳐맵의 해상도를 증가시키는 트랜지션 업(TU) 단계를 포함하는 인코더(encoder)-디코더(decoder) 구조로 구성된다. 즉, 디컨볼루션(deconvolution) 과정을 통해 최종적으로 생성되는 제1 식물 영역 추출 데이터는 입력된 식물 이미지(I)와 동일한 해상도를 가지는 것이 보장될 수 있다.Accordingly, the first plant region extracting unit 110 according to an embodiment of the present invention corresponds to a polling step and a transition down (TD) step of reducing the resolution of the feature map and a transition up (TU) of increasing the resolution of the feature map ) Comprises an encoder-decoder structure including a step. That is, the first plant region extraction data finally generated through the deconvolution process may be guaranteed to have the same resolution as the input plant image (I).

도 3a은 제1 식물 영역 추출부(110)에서 수행되는 컨볼루션 신경망 기반의 기계 학습 모델의 전체적인 동작 과정을 나타낸다. 제1 식물 영역 추출부(110)는 도 3에 도시된 바와 같이 Conv, DB, TD, DB, TD, DB, TU, DB, TU, DB, Conv 단계가 순차적으로 진행되도록 구성될 수 있으나 이에 한정되는 것은 아니다.3A shows an overall operation process of a machine learning model based on a convolutional neural network performed by the first plant region extraction unit 110. The first plant region extraction unit 110 may be configured such that Conv, DB, TD, DB, TD, DB, TU, DB, TU, DB, Conv steps are sequentially performed as illustrated in FIG. It does not work.

도 3a에 도시된 블록에서 Image I는 식물 이미지(I)를 의미하고, Lavel L은 제1 식물 영역 추출 데이터이다. 도 3a에 도시된 블록에서 Conv는 컨볼루션 단계를 나타내며 식물 이미지에 대한 피쳐맵을 생성한다. 컨볼루션 단계를 거친 입력된 식물 이미지(I)는 필터의 개수에 따라 복수의 피쳐맵으로 형성될 수 있다. 컨볼루션 단계를 거쳐 생성된 피쳐맵은 제로 패딩 등에 의해 입력된 이미지와 동일한 사이즈, 해상도를 가질 수 있다. In the block shown in FIG. 3A, Image I means plant image (I), and Lavel L is first plant region extraction data. In the block shown in Figure 3a, Conv represents the convolution step and creates a feature map for the plant image. The input plant image I through the convolution step may be formed as a plurality of feature maps according to the number of filters. The feature map generated through the convolution step may have the same size and resolution as the image input by zero padding.

TD는 트랜지션 다운 단계를 나타내며, TD를 거친 피쳐맵은 해상도가 감소될 수 있다. TU는 트랜지션 업 단계를 나타내고, TU를 거친 피쳐맵은 TD에서 감소된 비율과 동일한 비율로 해상도가 증가될 수 있다. 또한, 트랜지션 다운에 입력되는 데이터는 트랜지션 업에서 출력되는 데이터와 스킵 연결(skip connetion)될 수 있다. 즉, 트랜지션 업에서 출력되는 데이터는 트랜지션 다운에서 제공되는 데이터를 통해 데이터가 보완될 수 있다. 트랜지션 다운 과정에서 발생하는 원본 데이터의 손실을 스킵 연결(skip connetion)을 통해 보완하여 원본 이미지의 모든 픽셀에 대한 판단 및 결과 데이터의 생성이 가능할 수 있다.TD represents a transition down step, and the feature map after TD may have a reduced resolution. The TU represents a transition up step, and the feature map after the TU can be increased in resolution at the same rate as the reduced rate in TD. Also, data input to the transition down may be skipped concatenated with data output from the transition up. That is, the data output from the transition up may be supplemented with data provided from the transition down. The loss of the original data generated in the transition down process may be compensated through a skip connetion to determine the pixels of the original image and generate result data.

DB는 밀도 블록(Dense Block)을 의미한다. Dense Block은 복수의 컨볼루션 단계로 구성되며, 밀도 블록 내에서 컨볼루션을 통해 생성된 피쳐맵은 연속적으로 누적되며, 하나의 밀도 블록 내의 피쳐맵의 크기는 동일하다. 이러한 연속적으로 누적되는 지점은 도 3a 및 도 3b에서 작은 원형 블록(Concatenation)으로 표시된다. DB stands for density block. The Dense Block is composed of a plurality of convolution steps, and feature maps generated through convolution in a density block are continuously accumulated, and the size of the feature maps in one density block is the same. These continuously accumulated points are indicated by small circular blocks (Concatenation) in FIGS. 3A and 3B.

도 3b는 본 발명의 실시예에 따른 Dense Block의 구조를 나타낸 블록도이다. 본 발명의 실시예에서 Dense Block은 2단계의 컨볼루션 단계를 구성되나 이에 한정되는 것은 아니다. 컨볼루션을 통해 생성된 피쳐맵이 계속 쌓여서 누적됨에 따라 초기 단계 정보가 소거(wash out)되지 않고 후기 단계 정보와 계속 이어질 수 있으며, 각 단계 사이의 연결성이 높아져 필터의 학습이 보다 효율적으로 수행될 수 있다.3B is a block diagram showing the structure of a Dense Block according to an embodiment of the present invention. In the embodiment of the present invention, the Dense Block comprises two stages of convolution, but is not limited thereto. As the feature maps generated through convolution continue to accumulate and accumulate, the initial stage information may not be washed out, but may be continued with the later stage information, and the connection between each stage increases, so that the learning of the filter can be performed more efficiently. Can be.

도 3a에 도시된 컨볼루션 신경망 구조에 따라, 제1 식물 영역 추출부(110)은 입력 이미지인 식물 이미지(I)와 동일한 해상도, 크기를 가진 제1 식물 영역 추출 데이터가 생성될 수 있다. 또한, 식물 이미지(I)를 구성하는 전체 화소별로 식물 영역 또는 배경 영역인지 여부가 판단되는 바, 식물의 잎이 미세하더라도 이에 대한 판단이 가능하다. 또한, 단순히 색상 차이가 아닌 주변 화소와의 비교 등과 같은 이미지의 특징을 추출하는 학습된 필터를 통해 각 화소에 대한 판단을 수행하기에 보다 정확한 영역 구분이 가능할 수 있다.According to the convolutional neural network structure illustrated in FIG. 3A, the first plant region extraction unit 110 may generate first plant region extraction data having the same resolution and size as the input image plant image (I). In addition, since it is determined whether it is a plant region or a background region for each pixel constituting the plant image I, even if the leaves of the plant are fine, it is possible to determine this. In addition, it may be possible to classify regions more accurately to perform judgment on each pixel through a learned filter that extracts characteristics of an image, such as comparison with surrounding pixels, not merely color differences.

여기서, 제1 식물 영역 추출부(110)에서 처리 가능한 이미지의 최대 크기(해상도)보다 식물 이미지(I)의 크기(해상도)가 크게 생성된 경우, 식물 이미지(I)에 대한 선처리 과정이 필요할 수 있다. 다만, 이러한 식물 이미지(I)의 해상도를 처리 가능한 이미지로 다운 스케일링한다면 화소의 손실이 발생할 수 있다. 식물 이미지(I)의 미세한 잎 부분에서 화소 손실의 발생에 따라, 식물 영역 추출 시 의도하지 않은 끊김이나 구멍이 발생할 수 있다. 따라서, 본 실시예에 따른 제1 식물 영역 추출부(110)는 식물 이미지(I)를 처리 가능한 이미지의 크기로 분할하여 복수의 서브 식물 이미지를 생성한다. 복수의 서브 식물 이미지는 제1 식물 영역 추출부(110)에서 처리 가능한 이미지와 동일한 크기일 수 있으며, 제1 식물 영역 추출부(110)는 각 서브 식물 이미지에 대한 제1 서브 식물 영역 추출 데이터를 각각 생성하고 이를 다시 조합하여 원본 식물 이미지(I)에 대한 제1 식물 영역 추출 데이터를 생성할 수 있다.Here, when the size (resolution) of the plant image I is larger than the maximum size (resolution) of the image that can be processed by the first plant region extractor 110, a pre-processing process for the plant image I may be required. have. However, if the resolution of the plant image I is downscaled to a processable image, pixel loss may occur. As pixel loss occurs in the fine leaf portion of the plant image I, unintended breaks or holes may occur when extracting the plant region. Therefore, the first plant region extracting unit 110 according to the present embodiment divides the plant image I into a size of a processable image to generate a plurality of sub-plant images. The plurality of sub-plant images may be the same size as the image that can be processed by the first plant region extraction unit 110, and the first plant region extraction unit 110 may extract the first sub-plant region extraction data for each sub-plant image. The first plant region extraction data for the original plant image (I) can be generated by generating each and combining them again.

다만, 복수의 서브 식물 이미지는 다른 서브 식물 이미지와 서로 중복되는 화소 영역을 포함할 수 있다. 중복되는 화소 영역에 대한 제1 서브 식물 영역 데이터의 값은 다른 형태의 이미지에 대한 기계 학습의 결과이므로 결과 확률 값이 상이할 수도 있다. 제1 식물 영역 추출부(110)는 상기 생성된 각각의 제1 서브 식물 영역 추출 데이터가 상기 복수의 서브 식물 이미지의 중복되는 화소 영역을 포함하는 경우, 상기 중복되는 화소 영역에 대해 가장 높은 확률 값을 가진 제1 서브 식물 영역 추출 데이터를 선택하여 상기 제1 식물 영역 추출 데이터를 조합할 수 있다.However, the plurality of sub-plant images may include pixel regions overlapping with other sub-plant images. Since the value of the first sub-plant region data for the overlapping pixel region is a result of machine learning for another type of image, the resulting probability value may be different. The first plant region extracting unit 110 has the highest probability value for the overlapped pixel regions when the generated first sub-plant region extraction data includes overlapping pixel regions of the plurality of sub-plant images. The first plant region extraction data may be selected to combine the first plant region extraction data.

제1 식물 영역 추출부(110)에서 생성된 제1 식물 영역 추출 데이터는 제2 식물 영역 추출부(120)에 제공된다.The first plant region extraction data generated by the first plant region extraction unit 110 is provided to the second plant region extraction unit 120.

제2 식물 영역 추출부(120)는 식물 이미지 생성부(100)로부터 식물 이미지(I)와 제1 식물 영역 추출부(110)로부터 제1 식물 영역 추출 데이터를 각각 제공받으며, 식물 이미지 및 제1 식물 영역 추출 데이터를 활용하여 식물 이미지의 복수의 화소 간의 상호 연결성을 최대화한 제2 식물 영역 추출 데이터를 생성한다. 제2 식물 영역 추출부(120)는 확률적 그래픽 모델(probabilistic graphical models)을 통해 식물 이미지(I)의 화소의 연결성을 최대화, 극대화할 수 있다. 상기 확률적 그래픽 모델은 복수의 화소들 사이의 상호 연결 관계를 모두 형성하는 밀도 조건부 랜덤 필드(Dense Conditional Random Field)라는 조건부 확률 모델일 수 있다. 여기서, 연결성의 최대화 또는 극대화는 도 4에 도시된 바와 같이, 복수의 화소들 사이의 상호 연결 그래프를 모두 형성하고 연결된 화소들간의 상호 영향성을 고려하여 각 화소가 식물 영역인지를 결정하는 것을 의미한다.The second plant region extraction unit 120 receives the plant image (I) from the plant image generation unit 100 and the first plant region extraction data from the first plant region extraction unit 110, respectively, and the plant image and the first Plant region extraction data is used to generate second plant region extraction data that maximizes interconnection between a plurality of pixels of a plant image. The second plant region extraction unit 120 may maximize and maximize the connectivity of the pixels of the plant image I through probabilistic graphical models. The probabilistic graphic model may be a conditional probability model called a density conditional random field (Dense Conditional Random Field) forming all of the interconnection relationship between a plurality of pixels. Here, maximizing or maximizing the connectivity means, as illustrated in FIG. 4, forming an interconnection graph between a plurality of pixels and determining whether each pixel is a plant region in consideration of the mutual influence between the connected pixels. do.

보다 구체적으로, 제2 식물 영역 추출부(120)는 제1 식물 영역 추출 데이터에 기반한 각 화소가 식물 영역에 해당할 확률 값 및 화소 간의 연결에 다른 상호 영향성을 고려하여 각 화소가 식물 영역에 해당하는 지 여부를 결정한 제2 식물 영역 추출 데이터를 생성한다.More specifically, the second plant region extraction unit 120 considers the probability value that each pixel based on the first plant region extraction data corresponds to the plant region and other mutual influence on the connection between the pixels, so that each pixel is connected to the plant region. The second plant region extraction data that determines whether or not it is applicable is generated.

여기서, 연결된 화소 간에 고려되는 상호 영향성은 연결된 화소간의 거리, 위치 차이 및 식물 이미지(I)의 R, G, B 값의 유사 여부, 식물 이미지 색상의 유사 여부를 고려하여 결정될 수 있다. 하나의 화소 및 상기 하나의 화소와 연결된 다른 화소와의 관계를 고려하여 각 화소가 식물 영역에 해당하는 지에 대한 확률 값은 하기와 같은 수학식 1로 정의된 Gibbs energy function으로 표현되며, 이에 대한 결과 값은 수학식 1을 최적화함으로써 산출될 수 있다.Here, the mutual influence considered between the connected pixels may be determined in consideration of the distance between the connected pixels, the position difference, whether the R, G, and B values of the plant image I are similar, and whether the plant image color is similar. In consideration of the relationship between one pixel and another pixel connected to the one pixel, the probability value of whether each pixel corresponds to a plant region is expressed by a Gibbs energy function defined by Equation 1 below, and the result of this The value can be calculated by optimizing equation (1).

[수학식 1][Equation 1]

Figure pat00001
Figure pat00001

여기서,

Figure pat00002
는 식물 이미지,
Figure pat00003
는 모델 파라미터(식물 영역인지 여부를 판별),
Figure pat00004
는 식물 이미지의 제i 화소,
Figure pat00005
는 식물 이미지의 제j 화소를 의미한다.here,
Figure pat00002
Plant images,
Figure pat00003
Is the model parameter (determining whether it is a plant area),
Figure pat00004
Is the i-th pixel of the plant image,
Figure pat00005
Means j pixel of the plant image.

수학식 1의 Gibbs energy function에서 unary term(

Figure pat00006
)은 로지스틱 회귀분석 모델(logistic regression model)로 정의되며, 제1 식물 영역 추출 데이터에서 생성된 각 화소에 대한 확률 값(
Figure pat00007
)이 하기 수학식 2와 같이 입력될 수 있다.In the Gibbs energy function of Equation 1, the unary term (
Figure pat00006
) Is defined as a logistic regression model, and a probability value for each pixel generated from the first plant region extraction data (
Figure pat00007
) May be input as shown in Equation 2 below.

[수학식 2][Equation 2]

Figure pat00008
Figure pat00008

Figure pat00009
: 제1 식물 영역 추출 데이터에서 생성된 제i 화소의 결과 데이터
Figure pat00009
: Result data of the i-th pixel generated from the first plant region extraction data

또한, 수학식 1의 Gibbs energy function에서 pairwise interaction term(

Figure pat00010
)은 연결된 상이한 화소(
Figure pat00011
,
Figure pat00012
)의 영향성을 나타내는 수식으로, 가우시안 커널(Gaussian kernel)과 바이라테랄 커널(bilateral kernel)을 혼합하여 정의될 수 있다. Also, in the Gibbs energy function of Equation 1, pairwise interaction term (
Figure pat00010
) Is a different connected pixel (
Figure pat00011
,
Figure pat00012
) Is a formula representing the influence of the Gaussian kernel (Gaussian kernel) and may be defined by mixing a bilateral kernel (bilateral kernel).

가우시안 커널(Gaussian kernel,

Figure pat00013
))은 하기 수학식 3과 같이 정의될 수 있다.Gaussian kernel,
Figure pat00013
)) May be defined as in Equation 3 below.

[수학식 3][Equation 3]

Figure pat00014
Figure pat00014

여기서,

Figure pat00015
는 고정된 특성 벡터로 하기 수학식 4와 같이 정의되고,
Figure pat00016
도 동일한 방식으로 정의될 수 있다.here,
Figure pat00015
Is defined as Equation 4 below as a fixed characteristic vector,
Figure pat00016
Can also be defined in the same way.

[수학식 4][Equation 4]

Figure pat00017
Figure pat00017

(여기서,

Figure pat00018
Figure pat00019
Figure pat00020
의 x, y 위치에 대한 Potts compatibility function으로
Figure pat00021
을 만족하며,
Figure pat00022
는 x위치에 대한 표준편차에 해당하는 파라미터 값,
Figure pat00023
는 y위치에 대한 표준편차에 해당하는 파라미터 값에 해당한다.)(here,
Figure pat00018
And
Figure pat00019
The
Figure pat00020
Potts compatibility function for x and y position of
Figure pat00021
Satisfying,
Figure pat00022
Is the parameter value corresponding to the standard deviation for the x position,
Figure pat00023
Is the parameter value corresponding to the standard deviation for y position.)

즉, 가우시안 커널(Gaussian kernel,

Figure pat00024
))을 통해 위치에 따른 영향성이 고려될 수 있다. In other words, the Gaussian kernel (Gaussian kernel,
Figure pat00024
)) Can be taken into account.

pairwise interaction term(

Figure pat00025
)의 바이라테랄 커널(bilateral kernel,
Figure pat00026
)은 하기 수학식 5와 같이 정의된다. pairwise interaction term (
Figure pat00025
) Of the bilateral kernel (bilateral kernel,
Figure pat00026
) Is defined as in Equation 5 below.

[수학식 5][Equation 5]

Figure pat00027
Figure pat00027

여기서,

Figure pat00028
는 고정된 특성 벡터로 하기 수학식 6와 같이 정의되고,
Figure pat00029
도 동일한 방식으로 정의될 수 있다.here,
Figure pat00028
Is a fixed feature vector defined by Equation 6 below,
Figure pat00029
Can also be defined in the same way.

[수학식 6][Equation 6]

Figure pat00030
Figure pat00030

(여기서,

Figure pat00031
는 식물 이미지(I)의 제i 화소(
Figure pat00032
)의 R, G, B 값이며,
Figure pat00033
는 x위치에 대한 표준편차에 해당하는 파라미터 값,
Figure pat00034
는 y위치에 대한 표준편차에 해당하는 파라미터 값,
Figure pat00035
,
Figure pat00036
Figure pat00037
은 각각 R, G, B 값에 대한 표준 편차에 해당하는 파라미터 값이다.)(here,
Figure pat00031
Is the i-th pixel of the plant image (I)
Figure pat00032
), R, G, B values,
Figure pat00033
Is the parameter value corresponding to the standard deviation for the x position,
Figure pat00034
Is the parameter value corresponding to the standard deviation for y position,
Figure pat00035
,
Figure pat00036
And
Figure pat00037
Are parameter values corresponding to standard deviations for R, G, and B values, respectively.)

바이라테랄 커널(bilateral kernel)을 통해 화소 간의 색상 차이 및 화소 간의 거리를 고려한 색상 차이 등이 고려될 수 있다.A color difference between pixels and a color difference considering distances between pixels may be considered through a bilateral kernel.

수학식 3 및 수학식 5를 조합하여, 수학식 1의 Gibbs energy function에서 pairwise interaction term은 하기 수학식 7과 같이 정의될 수 있다. By combining Equation 3 and Equation 5, the pairwise interaction term in the Gibbs energy function of Equation 1 may be defined as Equation 7 below.

[수학식 7][Equation 7]

Figure pat00038
Figure pat00038

제2 식물 영역 추출부(120)는 Log likelihood loss(

Figure pat00039
)를 손실 함수(loss function)로, L-BFGS(limited-memory Broyden-Fletcher-Goldfarb-Shanno)을 최적화 알고리즘으로 사용하여 수학식 1의 Gibbs energy function을 하기 수학식 8과 같이 최적화하여 각 화소에 대한 결과 값을 산출하여 제2 식물 영역 추출 데이터를 생성한다. The second plant region extracting unit 120 has a log likelihood loss (
Figure pat00039
) As the loss function and L-BFGS (limited-memory Broyden-Fletcher-Goldfarb-Shanno) as the optimization algorithm. The result value is calculated for the second plant region extraction data.

[수학식 8][Equation 8]

Figure pat00040
,
Figure pat00041
Figure pat00040
,
Figure pat00041

(여기서,

Figure pat00042
은 화소(
Figure pat00043
)의 결과 값, 제2 식물 영역 추출 데이터이다.)(here,
Figure pat00042
Silver pixel (
Figure pat00043
), The second plant area extraction data.)

제2 식물 영역 추출 데이터는 식물 이미지(I)의 각 픽셀이 식물 영역인지 여부를 나타낸 데이터이다. 도 5a는 도 2a의 식물 이미지에서 식물 영역을 추출한 결과인 제2 식물 영역 추출 데이터이고, 도 5b는 도 2b의 식물 이미지에서 식물 영역을 추출한 결과인 제2 식물 영역 추출 데이터이다. 제2 식물 영역 추출 데이터는 식물 영역이 흰색으로 표시되고, 배경 영역이 검은색으로 표시되는 binary 이미지이다. The second plant region extraction data is data indicating whether each pixel of the plant image I is a plant region. 5A is second plant region extraction data as a result of extracting a plant region from the plant image of FIG. 2A, and FIG. 5B is second plant region extraction data as a result of extracting a plant region from the plant image of FIG. 2B. The second plant region extraction data is a binary image in which the plant region is displayed in white and the background region is displayed in black.

본 발명의 일 실시예에 따른 식물 영역 추출 시스템은 컨볼루션 신경망(Convolutional Neural Network)을 통해 식물 이미지에서 식물 영역과 배경 영역을 구분하되, 디컨볼루션(deconvolution) 과정을 통해 결과 데이터가 입력된 식물 이미지와 동일한 해상도를 가지는 것이 보장된다. The plant region extraction system according to an embodiment of the present invention distinguishes a plant region and a background region from a plant image through a convolutional neural network, but the result data is input through a deconvolution process. It is guaranteed to have the same resolution as the image.

또한, 밀도 조건부 랜덤 필드(Dense Conditional Random Field)라는 조건부 확률 모델을 통해 식물 이미지의 화소의 연결성을 최대화한 결과 데이터를 생성할 수 있다. In addition, through a conditional probability model called a density conditional random field, it is possible to generate result data that maximizes the connectivity of pixels in a plant image.

따라서, 식물 이미지에서 가늘고 긴 잎을 가진 식물 영역을 보다 정밀하게 추출할 수 있다.Therefore, a plant region with elongated leaves can be more precisely extracted from the plant image.

이하, 본 발명의 일 실시예에 따른 식물 영역 추출 방법에 대해 설명하도록 한다. 도 6은 본 발명의 일 실시예에 따른 식물 영역 추출 방법의 순서도이다. Hereinafter, a method for extracting a plant region according to an embodiment of the present invention will be described. 6 is a flowchart of a method for extracting plant regions according to an embodiment of the present invention.

도 6을 참조하면, 본 발명의 일 실시예에 따른 식물 잎 식별 방법은 식물 이미지 생성 단계(S100), 제1 식물 영역 데이터 추출 단계(S110), 제2 식물 영역 데이터 추출 단계(S120)를 포함한다.Referring to Figure 6, the plant leaf identification method according to an embodiment of the present invention includes a plant image generation step (S100), the first plant area data extraction step (S110), the second plant area data extraction step (S120) do.

여기서, 상술한 각 단계를 수행하는 식물 영역 추출 시스템은 상술한 도 1의 식물 영역 추출 시스템(10)일 수 있으며, 이에 대한 구체적인 설명은 생략하도록 한다. 또한, 본 실시예의 설명을 위해 도 1 내지 도 5이 참조될 수 있다.Here, the plant region extraction system for performing each step described above may be the plant region extraction system 10 of FIG. 1 described above, and detailed description thereof will be omitted. Also, FIGS. 1 to 5 may be referred to for the description of this embodiment.

먼저, 식물 이미지를 생성한다(S100).First, a plant image is generated (S100).

식물 영역 추출 시스템(10)은 식물 이미지 생성부(100), 제1 식물 영역 추출부(110), 제2 식물 영역 추출부(120)를 포함한다. 대상 식물을 촬영하여 식물 이미지(I)를 생성하는 단계는 식물 이미지 생성부(100)에서 수행될 수 있다. The plant region extraction system 10 includes a plant image generation unit 100, a first plant region extraction unit 110, and a second plant region extraction unit 120. The step of generating a plant image (I) by photographing the target plant may be performed in the plant image generator 100.

식물 이미지 생성부(100)는 대상 식물을 촬영하여 2차원 이미지에 해당하는 식물 이미지(I)를 생성할 수 있다. 식물 이미지 생성부(100)는 식물의 이미지를 촬영하기 위한 이미지 센서를 포함할 수 있다. 여기서, 식물 이미지 생성부(100)에서 촬영되는 대상 식물은 복수의 식물 잎을 가진 식물로, 각 식물 잎은 길고 가는 형태일 수 있다. 대상 식물은 단자엽 식물(Monocotyledonous Plants)일 수 있으나, 이에 한정되는 것은 아니다. 식물 이미지(I)는 복수의 픽셀로 구성될 수 있으며, 복수의 픽셀 수에 따른 해상도를 가질 수 있다. 생성된 식물 이미지(I)는 제1 식물 영역 추출부(110) 및 제2 식물 영역 추출부(110)로 제공될 수 있다.The plant image generation unit 100 may photograph a target plant and generate a plant image I corresponding to a two-dimensional image. The plant image generator 100 may include an image sensor for photographing a plant image. Here, the target plant photographed by the plant image generating unit 100 is a plant having a plurality of plant leaves, and each plant leaf may have a long and thin shape. The target plant may be monocotyledonous plants, but is not limited thereto. The plant image I may be composed of a plurality of pixels, and may have a resolution according to the number of pixels. The generated plant image I may be provided to the first plant region extractor 110 and the second plant region extractor 110.

이어서, 제1 식물 영역 추출 데이터를 추출한다(S110).Subsequently, the first plant region extraction data is extracted (S110).

제1 식물 영역 데이터의 추출은 식물 영역 추출부(110)에서 수행될 수 있다. 제1 식물 영역 추출부(110)는 식물 이미지의 각 화소별로 식물 영역과 배경 영역을 구분할 제1 식물 영역 추출 데이터를 생성한다. 제1 식물 영역 추출 데이터는 식물 이미지(I)의 각 화소 단위로 식물 영역과 배경 영역을 확률적으로 구분한 데이터로, 식물 이미지(I)에 포함된 복수의 화소 각각이 식물 영역에 해당할 확률을 계산한 데이터일 수 있다. 제1 식물 영역 추출부(110)는 입력된 식물 이미지(I)의 복수의 화소 각각이 식물 영역에 해당하는 지를 판단하고, 식물 영역에 해당할 확률 값을 결과 값으로 생성할 수 있다. The extraction of the first plant region data may be performed by the plant region extraction unit 110. The first plant region extracting unit 110 generates first plant region extraction data for distinguishing the plant region and the background region for each pixel of the plant image. The first plant region extraction data is data that stochastically divides the plant region and the background region in units of each pixel of the plant image I, and the probability that each of the plurality of pixels included in the plant image I corresponds to the plant region It may be calculated data. The first plant region extracting unit 110 may determine whether each of the plurality of pixels of the input plant image I corresponds to the plant region, and generate a probability value corresponding to the plant region as a result value.

제1 식물 영역 추출부(110)는 컨볼루션 신경망(Convolutional Neural Network) 기반의 기계 학습 모델을 통해 제1 식물 영역 추출 데이터를 생성할 수 있다. 상기 컨볼루션 신경망(Convolutional Neural Network) 기반의 기계 학습 모델은, 상기 식물 이미지에 대한 피쳐맵을 생성하는 컨볼루션 단계(Conv), 상기 피쳐맵의 해상도를 감소시키는 트랜지션 다운(TD) 단계 및 피쳐맵의 해상도를 증가시키는 트랜지션 업(TU) 단계를 포함하고, 상기 트랜지션 다운에 입력되는 데이터는 트랜지션 업에서 출력되는 데이터와 스킵 연결(skip connetion)될 수 있다. The first plant region extraction unit 110 may generate first plant region extraction data through a machine learning model based on a convolutional neural network. The convolutional neural network-based machine learning model includes a convolution step (Conv) for generating a feature map for the plant image, a transition down (TD) step for reducing the resolution of the feature map, and a feature map It includes a transition up (TU) step of increasing the resolution, the data input to the transition down may be skipped (skip connetion) with the data output from the transition up.

또한, 상기 컨볼루션 신경망(Convolutional Neural Network) 기반의 기계 학습 모델은 복수의 컨볼루션 단계를 포함하는 밀도 블록(Dense Block)을 포함하고, 상기 밀도 블록 내에서 컨볼루션을 통해 생성된 피쳐맵은 누적되어 초기 단계 정보가 소거되지 않고 후기 단계 정보와 계속 이어질 수 있다.In addition, the convolutional neural network-based machine learning model includes a density block including a plurality of convolution steps, and feature maps generated through convolution within the density block are cumulative. As the initial stage information is not erased, it can be continued with the later stage information.

제1 식물 영역 추출부(110)은 입력 이미지인 식물 이미지(I)와 동일한 해상도, 크기를 가진 제1 식물 영역 추출 데이터가 생성될 수 있다. 또한, 식물 이미지(I)를 구성하는 전체 화소별로 식물 영역 또는 배경 영역인지 여부가 판단되는 바, 식물의 잎이 미세하더라도 이에 대한 판단이 가능하다. 또한, 단순히 색상 차이가 아닌 주변 화소와의 비교 등과 같은 이미지의 특징을 추출하는 학습된 필터를 통해 각 화소에 대한 판단을 수행하기에 보다 정확한 영역 구분이 가능할 수 있다.The first plant region extraction unit 110 may generate first plant region extraction data having the same resolution and size as the input image plant image (I). In addition, since it is determined whether it is a plant region or a background region for each pixel constituting the plant image I, even if the leaves of the plant are fine, it is possible to determine this. In addition, it may be possible to classify regions more accurately to perform judgment on each pixel through a learned filter that extracts characteristics of an image, such as comparison with surrounding pixels, not merely color differences.

여기서, 상기 제1 식물 영역 추출 데이터를 생성하는 단계는, 상기 식물 이미지를 상기 처리 가능한 이미지의 크기로 분할하여 복수의 서브 식물 이미지를 생성하는 단계; 상기 복수의 서브 식물 이미지 각각에 대한 제1 서브 식물 영역 추출 데이터를 각각 생성하는 단계; 및 상기 생성된 각각의 제1 서브 식물 영역 추출 데이터를 조합하여 상기 제1 식물 영역 추출 데이터를 생성하는 단계를 포함한다. 생성된 각각의 제1 서브 식물 영역 추출 데이터를 조합하여 상기 제1 식물 영역 추출 데이터를 생성하는 단계는, 상기 생성된 각각의 제1 서브 식물 영역 추출 데이터가 상기 복수의 서브 식물 이미지의 중복되는 화소 영역을 포함하는 경우, 상기 중복되는 화소 영역에 대해 가장 높은 확률 값을 가진 제1 서브 식물 영역 추출 데이터를 선택하여 상기 제1 식물 영역 추출 데이터를 조합할 수 있다.Here, the step of generating the first plant region extraction data includes: dividing the plant image into a size of the processable image to generate a plurality of sub-plant images; Generating first sub plant region extraction data for each of the plurality of sub plant images; And combining the generated first sub plant region extraction data to generate the first plant region extraction data. The step of generating the first plant region extraction data by combining the generated first sub plant region extraction data may include generating pixels in which the generated first sub plant region extraction data overlaps the plurality of sub plant images. When the region is included, the first plant region extraction data may be combined by selecting the first sub-plant region extraction data having the highest probability value for the overlapping pixel region.

이어서, 제2 식물 영역 추출 데이터를 생성한다(S120).Subsequently, second plant region extraction data is generated (S120).

제2 식물 영역 추출 데이터의 생성은 제2 식물 영역 추출부(120)에서 수행된다. 제2 식물 영역 추출부(120)는 확률적 그래픽 모델(probabilistic graphical models)을 통해 식물 이미지(I)의 화소의 연결성을 최대화, 극대화할 수 있다. 상기 확률적 그래픽 모델은 복수의 화소들 사이의 상호 연결 관계를 모두 형성하는 밀도 조건부 랜덤 필드(Dense Conditional Random Field)라는 조건부 확률 모델일 수 있다. 여기서, 연결성의 최대화 또는 극대화는 복수의 화소들 사이의 상호 연결 그래프를 모두 형성하고 연결된 화소들간의 상호 영향성을 고려하여 각 화소가 식물 영역인지를 결정하는 것을 의미한다.Generation of the second plant region extraction data is performed by the second plant region extraction unit 120. The second plant region extraction unit 120 may maximize and maximize the connectivity of the pixels of the plant image I through probabilistic graphical models. The probabilistic graphic model may be a conditional probability model called a density conditional random field (Dense Conditional Random Field) forming all of the interconnection relationship between a plurality of pixels. Here, maximizing or maximizing the connectivity means forming an interconnect graph between a plurality of pixels and determining whether each pixel is a plant region in consideration of the mutual influence between the connected pixels.

상기 제2 식물 영역 추출 데이터를 생성하는 단계는 상기 제1 식물 영역 추출 데이터에 따른 각 화소가 식물 영역에 해당할 확률 값 및 상기 복수의 화소들 사이의 상호 연결 그래프를 모두 형성하고 연결된 화소들간의 상호 영향성을 고려하여 각 화소가 식물 영역인지 여부를 결정한 상기 제2 식물 영역 추출 데이터를 생성할 수 있다. 상기 상호 영향성은 연결된 화소간의 거리 차이 및 상기 식물 이미지의 R, G, B 값의 유사 여부를 고려하여 결정될 수 있다. 상기 상호 영향성은 연결된 화소간의 거리 차이 및 상기 식물 이미지의 R, G, B 값의 유사 여부를 고려하여 결정할 수 있다. 하나의 화소 및 상기 하나의 화소와 연결된 다른 화소와의 관계를 고려하여 각 화소가 식물 영역에 해당하는 지에 대한 확률 값은 Gibbs energy function으로 표현되며, 이의 최적화로 제2 식물 영역 추출 데이터가 산출될 수 있다. In the generating of the second plant region extraction data, all of the pixels according to the first plant region extraction data form a probability value corresponding to the plant region and an interconnection graph between the plurality of pixels, and between the connected pixels. In consideration of the mutual influence, the second plant region extraction data for determining whether each pixel is a plant region may be generated. The mutual influence may be determined in consideration of a distance difference between connected pixels and similarity of R, G, and B values of the plant image. The mutual influence may be determined by considering the distance difference between the connected pixels and whether the R, G, and B values of the plant image are similar. Taking into account the relationship between one pixel and another pixel connected to the one pixel, the probability value of whether each pixel corresponds to a plant region is expressed as a Gibbs energy function, and optimization of the second plant region extraction data is calculated. Can be.

이상에서 설명한 실시예들에 따른 식물 영역 추출 방법에 의한 동작은, 적어도 부분적으로 컴퓨터 프로그램으로 구현되고 컴퓨터로 읽을 수 있는 기록매체에 기록될 수 있다. 실시예들에 따른 식물 영역 추출 방법에 의한 동작을 구현하기 위한 프로그램이 기록되고 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수도 있다. 또한, 본 실시예를 구현하기 위한 기능적인 프로그램, 코드 및 코드 세그먼트(segment)들은 본 실시예가 속하는 기술 분야의 통상의 기술자에 의해 용이하게 이해될 수 있을 것이다.The operation by the method for extracting plant regions according to the above-described embodiments may be at least partially implemented by a computer program and recorded in a computer-readable recording medium. The program for implementing the operation by the plant region extraction method according to the embodiments is recorded, and the computer-readable recording medium includes all types of recording devices in which data that can be read by a computer are stored. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disks, and optical data storage devices. In addition, the computer readable recording medium may be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed manner. In addition, functional programs, codes, and code segments for implementing the present embodiment will be readily understood by those skilled in the art to which this embodiment belongs.

이상에서는 실시예들을 참조하여 설명하였지만 본 발명은 이러한 실시예들 또는 도면에 의해 한정되는 것으로 해석되어서는 안 되며, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although described above with reference to embodiments, the present invention should not be construed as being limited by these embodiments or the drawings, and those skilled in the art will think and scope of the present invention described in the following claims It will be understood that various modifications and changes can be made to the present invention without departing from the scope.

10: 식물 영역 추출 시스템
100: 식물 이미지 생성부
110: 제1 식물 영역 추출부
120: 제2 식물 영역 추출부
10: Plant area extraction system
100: plant image generating unit
110: first plant region extraction unit
120: second plant area extraction unit

Claims (17)

대상 식물을 촬영하여 식물 이미지를 생성하는 식물 이미지 생성부;
컨볼루션 신경망(Convolutional Neural Network) 기반의 기계 학습 모델을 통해 상기 식물 이미지의 각 화소별로 식물 영역과 배경 영역을 구분한 제1 식물 영역 추출 데이터를 생성하는 제1 식물 영역 추출부; 및
상기 식물 이미지 및 상기 제1 식물 영역 추출 데이터를 활용하여, 상기 식물 이미지의 복수의 화소 간의 상호 연결성을 최대화한 제2 식물 영역 추출 데이터를 생성하는 제2 식물 영역 추출부를 포함하는 식물 영역 추출 시스템.
A plant image generating unit that photographs a target plant to generate a plant image;
A first plant region extraction unit for generating first plant region extraction data that separates a plant region and a background region for each pixel of the plant image through a machine learning model based on a convolutional neural network; And
A plant area extraction system comprising a second plant area extraction unit that generates second plant area extraction data that maximizes interconnection between a plurality of pixels of the plant image by utilizing the plant image and the first plant area extraction data.
제1 항에 있어서,
상기 제1 식물 영역 추출부의 상기 컨볼루션 신경망(Convolutional Neural Network) 기반의 기계 학습 모델은,
상기 식물 이미지에 대한 피쳐맵을 생성하는 컨볼루션 단계(Conv), 상기 피쳐맵의 해상도를 감소시키는 트랜지션 다운(TD) 단계 및 피쳐맵의 해상도를 증가시키는 트랜지션 업(TU) 단계를 포함하고,
상기 트랜지션 다운에 입력되는 데이터는 트랜지션 업에서 출력되는 데이터와 스킵 연결(skip connetion)되는 것을 특징으로 하는 식물 영역 추출 시스템.
According to claim 1,
The convolutional neural network-based machine learning model of the first plant region extractor,
A convolution step (Conv) for generating a feature map for the plant image, a transition down (TD) step for reducing the resolution of the feature map, and a transition up (TU) step for increasing the resolution of the feature map,
The plant region extraction system, characterized in that the data input to the transition down is skipped (skip connetion) with the data output from the transition up.
제2 항에 있어서,
상기 제1 식물 영역 추출부의 상기 컨볼루션 신경망(Convolutional Neural Network) 기반의 기계 학습 모델은 복수의 컨볼루션 단계를 포함하는 밀도 블록(Dense Block)을 포함하고,
상기 밀도 블록 내에서 컨볼루션을 통해 생성된 피쳐맵은 누적되어 초기 단계 정보가 소거되지 않고 후기 단계 정보와 계속 이어지는 것을 특징으로 하는 식물 영역 추출 시스템.
According to claim 2,
The convolutional neural network-based machine learning model of the first plant region extractor includes a density block including a plurality of convolution steps,
The feature map generated through convolution within the density block is accumulated so that the initial stage information is not erased, but the plant region extraction system is characterized in that it continues to be connected to the late stage information.
제1 항에 있어서,
상기 식물 이미지가 상기 제1 식물 영역 추출부에서 처리 가능한 이미지의 크기보다 큰 경우, 상기 제1 식물 영역 추출부는 상기 식물 이미지를 상기 처리 가능한 이미지의 크기로 분할하여 복수의 서브 식물 이미지를 생성하고,
상기 복수의 서브 식물 이미지 각각에 대한 제1 서브 식물 영역 추출 데이터를 각각 생성하고,
상기 생성된 각각의 제1 서브 식물 영역 추출 데이터를 조합하여 상기 제1 식물 영역 추출 데이터를 생성하는 것을 특징으로 하는 식물 영역 추출 시스템.
According to claim 1,
When the plant image is larger than the size of the image that can be processed by the first plant region extracting unit, the first plant region extracting unit divides the plant image into the size of the processable image to generate a plurality of sub-plant images,
First sub plant region extraction data for each of the plurality of sub plant images are respectively generated,
A plant area extraction system, characterized in that the first plant area extraction data is generated by combining the generated first sub-plant area extraction data.
제4 항에 있어서,
상기 제1 식물 영역 추출부는 상기 생성된 각각의 제1 서브 식물 영역 추출 데이터가 상기 복수의 서브 식물 이미지의 중복되는 화소 영역을 포함하는 경우,
상기 중복되는 화소 영역에 대해 가장 높은 확률 값을 가진 제1 서브 식물 영역 추출 데이터를 선택하여 상기 제1 식물 영역 추출 데이터를 조합하는 것을 특징으로 하는 식물 영역 추출 시스템.
According to claim 4,
When the first plant region extraction data of each of the first plant region extraction data includes overlapping pixel regions of the plurality of sub plant images,
And selecting the first sub-plant region extraction data having the highest probability value for the overlapping pixel regions and combining the first plant region extraction data.
제1 항에 있어서,
상기 제2 식물 영역 추출부는 상기 제1 식물 영역 추출 데이터에 따른 각 화소가 식물 영역에 해당할 확률 값 및 상기 복수의 화소들 사이의 상호 연결 그래프를 모두 형성하고 연결된 화소들간의 상호 영향성을 고려하여 각 화소가 식물 영역인지 여부를 결정한 상기 제2 식물 영역 추출 데이터를 생성하는 것을 특징으로 하는 식물 영역 추출 시스템.
According to claim 1,
The second plant region extracting unit forms a probability value for each pixel corresponding to the first plant region extraction data and a graph of interconnection between the plurality of pixels, and considers the mutual influence between connected pixels And generating the second plant region extraction data for determining whether each pixel is a plant region.
제6 항에 있어서,
상기 상호 영향성은 연결된 화소간의 거리 차이 및 상기 식물 이미지의 R, G, B 값의 유사 여부를 고려하여 결정되는 것을 특징으로 하는 식물 영역 추출 시스템.
The method of claim 6,
The mutual influence is determined by considering the distance difference between the connected pixels and whether the R, G, and B values of the plant image are similar.
제1 항에 있어서,
상기 식물은 단자엽 식물(Monocotyledonous Plants)인 것을 특징으로 하는 식물 영역 추출 시스템.
According to claim 1,
The plant is a monocotyledonous plant (Monocotyledonous Plants), characterized in that the plant area extraction system.
식물 영역 추출 시스템이, 대상 식물을 촬영하여 식물 이미지를 생성하는 단계;
상기 식물 영역 추출 시스템이, 컨볼루션 신경망(Convolutional Neural Network) 기반의 기계 학습 모델을 통해 상기 식물 이미지의 각 화소별로 식물 영역과 배경 영역을 구분한 제1 식물 영역 추출 데이터를 생성하는 단계; 및
상기 식물 영역 추출 시스템이, 상기 식물 이미지 및 상기 제1 식물 영역 추출 데이터를 활용하여, 상기 식물 이미지의 복수의 화소 간의 상호 연결성을 최대화한 제2 식물 영역 추출 데이터를 생성하는 단계를 포함하는 식물 영역 추출 방법.
A plant region extraction system, photographing a target plant to generate a plant image;
Generating, by the plant region extraction system, first plant region extraction data that separates a plant region and a background region for each pixel of the plant image through a machine learning model based on a convolutional neural network; And
The plant region extraction system, using the plant image and the first plant region extraction data, generating a second plant region extraction data that maximizes the interconnection between a plurality of pixels of the plant image Extraction method.
제9 항에 있어서,
상기 컨볼루션 신경망(Convolutional Neural Network) 기반의 기계 학습 모델은,
상기 식물 이미지에 대한 피쳐맵을 생성하는 컨볼루션 단계(Conv), 상기 피쳐맵의 해상도를 감소시키는 트랜지션 다운(TD) 단계 및 피쳐맵의 해상도를 증가시키는 트랜지션 업(TU) 단계를 포함하고,
상기 트랜지션 다운에 입력되는 데이터는 트랜지션 업에서 출력되는 데이터와 스킵 연결(skip connetion)되는 것을 특징으로 하는 식물 영역 추출 방법.
The method of claim 9,
The convolutional neural network-based machine learning model,
A convolution step (Conv) for generating a feature map for the plant image, a transition down (TD) step for reducing the resolution of the feature map, and a transition up (TU) step for increasing the resolution of the feature map,
The method of extracting a plant region, characterized in that data input to the transition down is skipped concatenated with data output from the transition up.
제10 항에 있어서,
상기 컨볼루션 신경망(Convolutional Neural Network) 기반의 기계 학습 모델은 복수의 컨볼루션 단계를 포함하는 밀도 블록(Dense Block)을 포함하고,
상기 밀도 블록 내에서 컨볼루션을 통해 생성된 피쳐맵은 누적되어 초기 단계 정보가 소거되지 않고 후기 단계 정보와 계속 이어지는 것을 특징으로 하는 식물 영역 추출 방법.
The method of claim 10,
The convolutional neural network-based machine learning model includes a density block including a plurality of convolution steps,
The feature map generated through convolution in the density block is accumulated, and the initial stage information is not erased, but the plant region extraction method is characterized in that it is continued with the later stage information.
제9 항에 있어서,
상기 제1 식물 영역 추출 데이터를 생성하는 단계는,
상기 식물 이미지를 상기 처리 가능한 이미지의 크기로 분할하여 복수의 서브 식물 이미지를 생성하는 단계;
상기 복수의 서브 식물 이미지 각각에 대한 제1 서브 식물 영역 추출 데이터를 각각 생성하는 단계; 및
상기 생성된 각각의 제1 서브 식물 영역 추출 데이터를 조합하여 상기 제1 식물 영역 추출 데이터를 생성하는 단계를 포함하는 것을 특징으로 하는 식물 영역 추출 방법.
The method of claim 9,
The step of generating the first plant region extraction data,
Dividing the plant image into a size of the processable image to generate a plurality of sub-plant images;
Generating first sub plant region extraction data for each of the plurality of sub plant images; And
And generating the first plant region extraction data by combining the generated first sub plant region extraction data.
제12 항에 있어서,
상기 생성된 각각의 제1 서브 식물 영역 추출 데이터를 조합하여 상기 제1 식물 영역 추출 데이터를 생성하는 단계는, 상기 생성된 각각의 제1 서브 식물 영역 추출 데이터가 상기 복수의 서브 식물 이미지의 중복되는 화소 영역을 포함하는 경우, 상기 중복되는 화소 영역에 대해 가장 높은 확률 값을 가진 제1 서브 식물 영역 추출 데이터를 선택하여 상기 제1 식물 영역 추출 데이터를 조합하는 것을 특징으로 하는 식물 영역 추출 방법.
The method of claim 12,
The step of generating the first plant region extraction data by combining the generated first sub plant region extraction data may include overlapping the generated first sub plant region extraction data of the plurality of sub plant images. When a pixel region is included, a plant region extraction method characterized by selecting first sub-plant region extraction data having the highest probability value for the overlapping pixel region and combining the first plant region extraction data.
제9 항에 있어서,
상기 제2 식물 영역 추출 데이터를 생성하는 단계는 상기 제1 식물 영역 추출 데이터에 따른 각 화소가 식물 영역에 해당할 확률 값 및 상기 복수의 화소들 사이의 상호 연결 그래프를 모두 형성하고 연결된 화소들간의 상호 영향성을 고려하여 각 화소가 식물 영역인지 여부를 결정한 상기 제2 식물 영역 추출 데이터를 생성하는 것을 특징으로 하는 식물 영역 추출 방법.
The method of claim 9,
In the generating of the second plant region extraction data, all of the pixels according to the first plant region extraction data form a probability value corresponding to the plant region and an interconnection graph between the plurality of pixels, and between the connected pixels. A method of extracting plant regions, characterized in that the second plant region extraction data for determining whether each pixel is a plant region in consideration of mutual influence is generated.
제14 항에 있어서,
상기 상호 영향성은 연결된 화소간의 거리 차이 및 상기 식물 이미지의 R, G, B 값의 유사 여부를 고려하여 결정되는 것을 특징으로 하는 식물 영역 추출 방법.
The method of claim 14,
The mutual influence is determined by considering the distance difference between connected pixels and whether the R, G, and B values of the plant image are similar.
제8 항에 있어서,
상기 식물은 단자엽 식물(Monocotyledonous Plants)인 것을 특징으로 하는 식물 영역 추출 방법.
The method of claim 8,
The plant is a monocotyledonous plant (Monocotyledonous Plants), characterized in that the plant region extraction method.
하드웨어와 결합되어 제9항 내지 제16항 중 하나에 따른 식물 영역 추출 방법을 실행하도록 매체에 저장된 컴퓨터 프로그램.A computer program stored in a medium to execute the plant area extraction method according to any one of claims 9 to 16 in combination with hardware.
KR1020180126611A 2018-10-23 2018-10-23 Plant Area Extraction System and Method Based on Deep Running and Connectivity Graphs KR102131243B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180126611A KR102131243B1 (en) 2018-10-23 2018-10-23 Plant Area Extraction System and Method Based on Deep Running and Connectivity Graphs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180126611A KR102131243B1 (en) 2018-10-23 2018-10-23 Plant Area Extraction System and Method Based on Deep Running and Connectivity Graphs

Publications (2)

Publication Number Publication Date
KR20200052397A true KR20200052397A (en) 2020-05-15
KR102131243B1 KR102131243B1 (en) 2020-07-07

Family

ID=70679037

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180126611A KR102131243B1 (en) 2018-10-23 2018-10-23 Plant Area Extraction System and Method Based on Deep Running and Connectivity Graphs

Country Status (1)

Country Link
KR (1) KR102131243B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140053503A (en) * 2012-10-26 2014-05-08 에스케이텔레콤 주식회사 Method and apparatus for providing acceleration image correction
JP2017077238A (en) * 2015-10-21 2017-04-27 国立大学法人神戸大学 Flower number-measuring system and flower number-measuring method
KR20170070715A (en) * 2015-12-14 2017-06-22 삼성전자주식회사 Appartus and method for Object detection based on Deep leaning, apparatus for Learning thereof

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140053503A (en) * 2012-10-26 2014-05-08 에스케이텔레콤 주식회사 Method and apparatus for providing acceleration image correction
JP2017077238A (en) * 2015-10-21 2017-04-27 国立大学法人神戸大学 Flower number-measuring system and flower number-measuring method
KR20170070715A (en) * 2015-12-14 2017-06-22 삼성전자주식회사 Appartus and method for Object detection based on Deep leaning, apparatus for Learning thereof

Also Published As

Publication number Publication date
KR102131243B1 (en) 2020-07-07

Similar Documents

Publication Publication Date Title
CN105144239B (en) Image processing apparatus, image processing method
KR101964397B1 (en) Information processing apparatus and information processing method
EP3333768A1 (en) Method and apparatus for detecting target
US8737740B2 (en) Information processing apparatus, information processing method, and non-transitory computer-readable storage medium
US10216979B2 (en) Image processing apparatus, image processing method, and storage medium to detect parts of an object
JP6351240B2 (en) Image processing apparatus, image processing method, and program
CN106408037B (en) Image recognition method and device
US20210133980A1 (en) Image processing apparatus, training apparatus, image processing method, training method, and storage medium
EP3149611A1 (en) Learning deep face representation
US10079974B2 (en) Image processing apparatus, method, and medium for extracting feature amount of image
KR102070956B1 (en) Apparatus and method for processing image
JP2011134114A (en) Pattern recognition method and pattern recognition apparatus
JP2014531097A (en) Text detection using multi-layer connected components with histograms
CN107944403B (en) Method and device for detecting pedestrian attribute in image
WO2016066042A1 (en) Segmentation method for commodity picture and device thereof
US10679096B2 (en) System and method for plant leaf identification
JP2010257140A (en) Apparatus and method for processing information
TW200529093A (en) Face image detection method, face image detection system, and face image detection program
JP6448212B2 (en) Recognition device and recognition method
CN107786867A (en) Image identification method and system based on deep learning architecture
JP2008251029A (en) Character recognition device and license plate recognition system
JP2019220014A (en) Image analyzing apparatus, image analyzing method and program
CN116740758A (en) Bird image recognition method and system for preventing misjudgment
JP6639743B1 (en) Search system, search method, and program
JP6637221B1 (en) Search system, search method, and program

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant