KR20210047230A - Fruit tree disease Classification System AND METHOD Using Generative Adversarial Networks - Google Patents

Fruit tree disease Classification System AND METHOD Using Generative Adversarial Networks Download PDF

Info

Publication number
KR20210047230A
KR20210047230A KR1020200029617A KR20200029617A KR20210047230A KR 20210047230 A KR20210047230 A KR 20210047230A KR 1020200029617 A KR1020200029617 A KR 1020200029617A KR 20200029617 A KR20200029617 A KR 20200029617A KR 20210047230 A KR20210047230 A KR 20210047230A
Authority
KR
South Korea
Prior art keywords
data
image
neural network
classification
network
Prior art date
Application number
KR1020200029617A
Other languages
Korean (ko)
Other versions
KR102526846B1 (en
Inventor
정회경
배상중
Original Assignee
배재대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 배재대학교 산학협력단 filed Critical 배재대학교 산학협력단
Publication of KR20210047230A publication Critical patent/KR20210047230A/en
Application granted granted Critical
Publication of KR102526846B1 publication Critical patent/KR102526846B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06K9/6267
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology

Abstract

According to one embodiment of the present invention, provided is a fruit tree disease and insect damage classification system using a generative adversarial network (GAN), which comprises: a data processing unit including a data pre-processing portion which pre-processes data of an original image including a disease and insect damage to reduce the data operation amount and increase a data operation speed for reducing resources used during data learning, and a post-processing portion which stores and filters result data of the pre-processing; and a network unit including a GAN network which generates a similar image corresponding to the result data of the pre-processing through the GAN, and a classification network which uses the generated similar image to train a classification model, and determines and classifies the type of the disease and insect damage of an input image based on the trained classification model.

Description

생성적 적대 신경망을 이용한 과수 병충해 분류 시스템 및 방법{Fruit tree disease Classification System AND METHOD Using Generative Adversarial Networks}Fruit tree disease classification system and method using generative adversarial networks

본 발명의 실시예들은 과수 병충해 분류 시스템 및 방법에 관한 것으로, 더욱 상세하게는 생성적 적대 신경망(Generative Adversarial Networks, GAN)을 사용하여 학습에 사용할 수 있는 데이터를 생성할 수 있는 생성적 적대 신경망을 이용한 과수 병충해 분류 시스템 및 방법에 관한 것이다.Embodiments of the present invention relate to a system and method for classifying fruit diseases and pests, and in more detail, a generative adversarial neural network capable of generating data that can be used for learning using Generative Adversarial Networks (GAN). It relates to a system and method for classification of fruit tree diseases and pests using

스마트 팜은 최근 4차 산업혁명 기술 적용으로 더욱 진화하고 있다. 정보통신기술(ICT), 사물인터넷(IoT), 빅데이터(Big data), 클라우드(Cloud), 인공지능(AI) 등의 신기술을 농작물이나 가축의 생육, 환경에 접목하여 자동화, 지능화, 연결화 등의 서비스뿐 아니라 원격 제어를 가능하게 한다. 이로 인해 농장의 현재 상태에 따라 요구되는 환경제어 동작을 비롯해 다양하게 필요한 작업을 스스로 수행할 수 있다.The smart farm is evolving more recently with the application of the 4th industrial revolution technology. Automation, intelligence, and connection by incorporating new technologies such as information and communication technology (ICT), Internet of Things (IoT), big data, cloud, and artificial intelligence (AI) with the growth and environment of crops and livestock. It enables remote control as well as services such as etc. As a result, it is possible to perform various necessary tasks by itself, including environmental control operations required according to the current state of the farm.

스마트 팜의 필요성은 세계 기후 변화와 인구 증가에 따른 식량난과 연관이 깊다. 세계 인구 증가로 식량 수요는 증가하고 있으나, 농업 인구 감소와 고령화로 농사를 지을 사람은 점점 부족해지고 있다. 즉, 인구는 증가하는데 도시화로 인해 농작물 재배 면적은 줄어들고, 생산 현장의 농업인은 고령화되고 있다. 국내를 보더라도 2017년 기준 농업인 최고 경영자 평균 연령 67세이며, 이 평균 연령은 시간이 지날수록 늘어만 가고 있다. 이로 인해 스마트 팜의 확대 보급은 필연적이라고 볼 수 있다.The need for smart farms is deeply related to the food shortage caused by global climate change and population growth. The demand for food is increasing due to the increase of the world population, but the number of people to farm due to the decline of the agricultural population and an aging population is becoming increasingly scarce. In other words, the population increases, the area of cultivation of crops decreases due to urbanization, and the farmers at the production sites are aging. Even in Korea, the average age of top farmers in 2017 is 67, and this average age is only increasing with time. For this reason, it can be seen that the expansion of smart farms is inevitable.

그러나, 스마트 팜은 스마트 원예 분야에 집중되어 있으며, 최근에는 그 적용 분야가 스마트 원예, 스마트 축산, 스마트 노지, 스마트 유통으로 확산되어 있다고는 하지만, 이 역시 시설이라는 제한된 공간에서만 활용이 되고 있다.However, smart farms are concentrated in the smart horticultural field, and in recent years their application fields have spread to smart horticulture, smart livestock, smart fields, and smart distribution, but these are also used only in a limited space called facilities.

이처럼 시설 내에서만 작업을 해야 하는 이유는 작물의 생장을 돕기 위한 물리적인 기기를 제어하기 위해서도 있지만 학습에 필요한 데이터를 수집하기 위해서 이기도 하다. 작물의 성장성을 최대화하기 위해서는 그 작물의 데이터를 수집해야 하는데 모든 작물의 데이터를 수집하는 데는 많은 문제점이 있기 때문이다.The reason why you have to work only within the facility is to control physical devices to help the growth of crops, but also to collect data necessary for learning. In order to maximize the growth potential of a crop, it is necessary to collect the data of the crop, because there are many problems in collecting the data of all crops.

또한, 스마트 팜과 데이터 사이의 문제점은, 작물에게 발생할 수 있는 질병에 관한 데이터는 작물마다 다르며 특정 작물에서만 발병하는 질병도 존재하며, 학습에 사용할 만큼 충분한 데이터를 구하기는 어려우며 제공하는 데이터조차 클래스별 데이터 불균형으로 인하여 학습에 악역향을 끼친다는 것이다.In addition, the problem between the smart farm and the data is that the data on diseases that can occur in crops are different for each crop, and there are diseases that occur only in specific crops, and it is difficult to obtain sufficient data to use for learning, and even the data provided by class It is said that it adversely affects learning due to data imbalance.

관련 선행기술로는 대한민국 등록특허공보 제10-1933657호(발명의 명칭: 딥 러닝을 이용한 작물 병충해 검출 및 진단 방법 및 장치, 등록일자: 2018.12.21.)가 있다.As a related prior art, there is Korean Patent Publication No. 10-1933657 (title of the invention: a method and apparatus for detecting and diagnosing crop diseases and pests using deep learning, registration date: 2018.12.21.).

본 발명의 일 실시예는 생성적 적대 신경망을 통해 데이터 학습을 시키고 사용하는 데이터를 입력 값으로 받아 실제 데이터와 유사한 데이터를 생성함으로써, 학습에 사용되는 데이터의 양을 증폭시키며 다양한 클래스의 데이터를 생성하여 클래스별 데이터 불균형을 해소할 수 있는 생성적 적대 신경망을 이용한 과수 병충해 분류 시스템 및 방법을 제공한다.An embodiment of the present invention amplifies the amount of data used for learning and generates data of various classes by generating data similar to actual data by learning data through a generative adversarial neural network and receiving used data as input values. Thus, a system and method for classifying fruit tree diseases and pests using a generative adversarial neural network capable of resolving the data imbalance for each class are provided.

본 발명이 해결하고자 하는 과제는 이상에서 언급한 과제(들)로 제한되지 않으며, 언급되지 않은 또 다른 과제(들)은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problem to be solved by the present invention is not limited to the problem(s) mentioned above, and another problem(s) not mentioned will be clearly understood by those skilled in the art from the following description.

본 발명의 일 실시예에 따른 생성적 적대 신경망을 이용한 과수 병충해 분류 시스템은 데이터 학습 시 사용되는 리소스를 줄이기 위하여, 병충해를 포함하는 원본 이미지의 데이터를 전처리(data preprocess)하여 데이터 연산량을 감소시켜 연산 속도를 빠르게 하는 데이터 전처리부, 및 상기 전처리의 결과 데이터를 저장하거나 필터링하는 데이터 후처리부를 포함하는 데이터 처리부; 및 생성적 적대 신경망(GAN)을 통해 상기 전처리의 결과 데이터에 대응하는 유사 이미지를 생성하는 GAN 네트워크, 및 상기 생성된 유사 이미지를 이용하여 분류 모델을 학습하고, 상기 학습된 분류 모델을 기반으로 입력 이미지의 병충해 종류를 판단하여 분류하는 분류 네트워크를 포함하는 네트워크부를 포함한다.The fruit tree disease classification system using a generative adversarial neural network according to an embodiment of the present invention is calculated by reducing the amount of data computation by preprocessing the data of the original image including the disease and pests in order to reduce the resources used when learning data. A data processing unit including a data preprocessing unit for speeding up a data preprocessing unit and a data post processing unit for storing or filtering result data of the preprocessing; And a GAN network that generates a similar image corresponding to the result data of the preprocessing through a generative hostile neural network (GAN), and a classification model using the generated similar image, and input based on the learned classification model. It includes a network unit including a classification network that determines and classifies the types of diseases and pests of the image.

상기 데이터 전처리부는 상기 원본 이미지의 사이즈를 조절하여 다운사이징(downsizing)하는 이미지 크기 조정부; 상기 다운사이징된 원본 이미지로부터 관심 영역을 추출하는 관심 영역 추출부; 및 상기 추출된 관심 영역의 이미지를 대비(contrast image) 처리하는 이미지 대비 처리부를 포함할 수 있다.The data preprocessing unit downsizing by adjusting the size of the original image; A region of interest extracting unit for extracting a region of interest from the downsized original image; And an image contrast processor configured to contrast the extracted image of the ROI.

상기 관심 영역 추출부는 소벨 마스크(sobel mask)를 이용하여 계산한 RGB 평균값을 기반으로 상기 관심 영역을 추출할 수 있다.The ROI extractor may extract the ROI based on an RGB average value calculated using a sobel mask.

상기 데이터 후처리부는 상기 전처리의 결과 데이터를 저장하고, 상기 생성된 유사 이미지가 정해진 양 이상으로 모일 경우 상기 분류 네트워크로 보내는 데이터 저장부; 및 상기 전처리의 결과 데이터를 필터링하고, 상기 생성된 유사 이미지 중에서 품질이 미리 정해진 기준치보다 낮은 데이터를 필터링하는 데이터 필터부를 포함할 수 있다.The data post-processing unit stores the result data of the pre-processing, and when the generated similarity images are collected in a predetermined amount or more, the data storage unit sends to the classification network; And a data filter configured to filter the result data of the pre-processing and filter data having a quality lower than a predetermined reference value among the generated similar images.

상기 GAN 네트워크는 병충해를 포함하지 않는 샘플 이미지를 기반으로, 상기 생성적 적대 신경망을 통해 상기 유사 이미지를 생성할 수 있다.The GAN network may generate the similar image through the generative adversarial neural network based on a sample image that does not contain a disease or pest.

상기 GAN 네트워크는 상기 유사 이미지를 생성하는 과정을 미리 설정된 일정 수에 도달할 때까지 반복하고, 상기 분류 네트워크는 상기 유사 이미지가 일정 수에 도달하면, 상기 일정 수의 유사 이미지를 이용하여 상기 분류 모델을 학습함으로써, 학습에 사용되는 데이터의 양을 늘리고 클래스별 데이터 불균형을 해소할 수 있다.The GAN network repeats the process of generating the similarity image until it reaches a preset predetermined number, and the classification network uses the predetermined number of similar images when the similarity image reaches a predetermined number. By learning, it is possible to increase the amount of data used for learning and to solve the data imbalance for each class.

상기 생성적 적대 신경망은 기존의 DCGAN와 판별자를 제외하고 모두 동일하게 설계되며, 상기 판별자는 상기 원본 이미지가 잎이라는 일정한 형태를 띠고 잎에서 발생하는 병을 주제로 하고 있는 것을 고려하여, 상기 기존의 DCGAN에서 컨볼루션 레이어(Convolution Layer)의 크기를 5*5에서 3*3으로 수정하여 연산량을 줄이고 메모리를 절약하며, 활성화 함수를 Relu가 아닌 Sigmoid를 사용하여 다양한 클래스의 유사 이미지를 생성하도록 설계될 수 있다.The generative adversarial neural network is designed identically except for the existing DCGAN and the discriminator, and the discriminator takes into account that the original image has a certain shape of a leaf and is the subject of a disease occurring in the leaf. In DCGAN, the size of the convolution layer is modified from 5*5 to 3*3 to reduce the amount of computation and save memory, and the activation function will be designed to generate similar images of various classes using Sigmoid instead of Relu. I can.

본 발명의 일 실시예에 따른 생성적 적대 신경망을 이용한 과수 병충해 분류 방법은 데이터 학습 시 사용되는 리소스를 줄이기 위하여, 병충해를 포함하는 원본 이미지의 데이터를 전처리(data preprocess)하여 데이터 연산량을 감소시켜 연산 속도를 빠르게 하는 단계; 상기 전처리의 결과 데이터를 저장하거나 필터링하는 단계; 생성적 적대 신경망(GAN)을 통해 상기 전처리의 결과 데이터에 대응하는 유사 이미지를 생성하는 단계; 상기 생성된 유사 이미지를 이용하여 분류 모델을 학습하는 단계; 및 상기 학습된 분류 모델을 기반으로 입력 이미지의 병충해 종류를 판단하여 분류하는 단계를 포함한다.In order to reduce the resources used when learning data, the method of classifying fruit trees diseases and pests using a generative adversarial neural network according to an embodiment of the present invention is calculated by reducing the amount of data computation by preprocessing the data of the original image including the disease Speeding up; Storing or filtering result data of the pre-processing; Generating a similar image corresponding to the result data of the preprocessing through a generative hostile neural network (GAN); Learning a classification model using the generated similarity image; And determining and classifying the type of disease and pest of the input image based on the learned classification model.

상기 원본 이미지의 데이터를 전처리하여 데이터 연산량을 감소시켜 연산 속도를 빠르게 하는 단계는 상기 원본 이미지의 사이즈를 조절하여 다운사이징(downsizing)하는 단계; 상기 다운사이징된 원본 이미지로부터 관심 영역을 추출하는 단계; 및 상기 추출된 관심 영역의 이미지를 대비(contrast image) 처리하는 단계를 포함할 수 있다.The step of preprocessing the data of the original image to reduce the amount of data computation to speed up the calculation speed includes: downsizing by adjusting the size of the original image; Extracting a region of interest from the downsized original image; And performing a contrast image on the extracted image of the ROI.

상기 유사 이미지를 생성하는 단계는 병충해를 포함하지 않는 샘플 이미지를 기반으로, 상기 생성적 적대 신경망을 통해 상기 유사 이미지를 생성하는 단계를 포함할 수 있다.Generating the similarity image may include generating the similarity image through the generative adversarial neural network based on a sample image that does not contain pests.

상기 생성적 적대 신경망은 기존의 DCGAN와 판별자를 제외하고 모두 동일하게 설계되며, 상기 판별자는 상기 원본 이미지가 잎이라는 일정한 형태를 띠고 잎에서 발생하는 병을 주제로 하고 있는 것을 고려하여, 상기 기존의 DCGAN에서 컨볼루션 레이어(Convolution Layer)의 크기를 5*5에서 3*3으로 수정하여 연산량을 줄이고 메모리를 절약하며, 활성화 함수를 Relu가 아닌 Sigmoid를 사용하여 다양한 클래스의 유사 이미지를 생성하도록 설계될 수 있다.The generative adversarial neural network is designed identically except for the existing DCGAN and the discriminator, and the discriminator takes into account that the original image has a certain shape of a leaf and is the subject of a disease occurring in the leaf. In DCGAN, the size of the convolution layer is modified from 5*5 to 3*3 to reduce the amount of computation and save memory, and the activation function will be designed to generate similar images of various classes using Sigmoid instead of Relu. I can.

기타 실시예들의 구체적인 사항들은 상세한 설명 및 첨부 도면들에 포함되어 있다.Details of other embodiments are included in the detailed description and the accompanying drawings.

본 발명의 일 실시예에 따르면, 적은 데이터의 양을 증폭시키고 다양한 클래스의 데이터를 생성하여 다양한 작물에서 스마트 팜을 적용할 수 있으며 기존 방법보다 더 높은 적중률을 구현할 수 있다.According to an embodiment of the present invention, a smart farm can be applied to various crops by amplifying a small amount of data and generating data of various classes, and a higher hit rate can be realized than the existing method.

본 발명의 일 실시예에 따르면, 적은 양의 데이터를 증폭시켜 학습에 충분한 양의 데이터를 생성할 수 있을 뿐만 아니라 기존의 시스템에 그대로 적용하여 이를 활용할 수 있다는 장점이 있으며, 이러한 장점을 기반으로 스마트 팜을 제한하는 문제점을 보완할 수 있다.According to an embodiment of the present invention, there is an advantage that not only can generate a sufficient amount of data for learning by amplifying a small amount of data, but also apply it to an existing system and utilize it. It can compensate for the problem of limiting the farm.

본 발명의 일 실시예에 따르면, 같은 질병이 발생하는 작물을 학습시켜 그 작물의 질병 데이터를 생성할 수 있고 적은 양의 데이터를 증폭시켜 학습에 충분한 양의 데이터를 생성할 수 있을 뿐만 아니라 기존의 시스템에 그대로 적용하여 이를 활용할 수 있다.According to an embodiment of the present invention, it is possible to learn a crop that has the same disease to generate disease data of the crop, amplify a small amount of data to generate a sufficient amount of data for learning. You can use it by applying it to the system as it is.

도 1은 본 발명의 일 실시예에 따른 생성적 적대 신경망을 이용한 과수 병충해 분류 시스템을 설명하기 위해 도시한 블록도이다.
도 2는 도 1의 데이터 전처리부의 상세 구성을 설명하기 위해 도시한 블록도이다.
도 3은 관심 영역 추출을 위해 컬러 이미지를 로딩할 경우 나타나는 이미지 행렬을 도시한 도면이다.
도 4 및 도 5는 본 발명의 일 실시예에 따른 생성적 적대 신경망을 이용한 과수 병충해 분류 방법을 설명하기 위해 도시한 흐름도이다.
도 6은 본 발명의 일 실시예에 적용되는 생성적 적대 신경망의 판별자 모델 구조를 나타내는 도면이다.
도 7은 관심 영역을 구현한 결과를 예시적으로 나타내는 도면이다.
도 8은 실제 Black rot의 이미지를 나타낸 예시도이다.
도 9는 본래의 블루베리 잎과 이를 기반으로 생성된 Black rot이 걸린 블루베리 잎의 이미지를 나타낸 예시도이다.
도 10은 본 발명의 일 실시예에 따른 시스템의 분류 정확도를 기존 시스템과 비교하여 표로 나타낸 도면이다.
FIG. 1 is a block diagram illustrating a system for classifying fruit tree diseases and pests using a generative hostile neural network according to an embodiment of the present invention.
FIG. 2 is a block diagram illustrating a detailed configuration of a data preprocessor of FIG. 1.
3 is a diagram illustrating an image matrix that appears when a color image is loaded to extract a region of interest.
4 and 5 are flowcharts illustrating a method for classifying fruit tree diseases and pests using a generative hostile neural network according to an embodiment of the present invention.
6 is a diagram showing a structure of a discriminator model of a generative adversarial neural network applied to an embodiment of the present invention.
7 is a diagram illustrating a result of implementing an ROI.
8 is an exemplary view showing an actual black rot image.
9 is an exemplary view showing an image of an original blueberry leaf and a blueberry leaf with Black rot generated based on it.
10 is a table showing classification accuracy of a system according to an embodiment of the present invention compared with an existing system.

본 발명의 이점 및/또는 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성요소를 지칭한다.Advantages and/or features of the present invention, and a method of achieving them will become apparent with reference to the embodiments described below in detail together with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but will be implemented in a variety of different forms, only the present embodiments are intended to complete the disclosure of the present invention, and common knowledge in the technical field to which the present invention pertains. It is provided to completely inform the scope of the invention to those who have, and the invention is only defined by the scope of the claims. The same reference numerals refer to the same elements throughout the specification.

또한, 이하 실시되는 본 발명의 바람직한 실시예는 본 발명을 이루는 기술적 구성요소를 효율적으로 설명하기 위해 각각의 시스템 기능구성에 기 구비되어 있거나, 또는 본 발명이 속하는 기술분야에서 통상적으로 구비되는 시스템 기능 구성은 가능한 생략하고, 본 발명을 위해 추가적으로 구비되어야 하는 기능 구성을 위주로 설명한다. 만약 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면, 하기에 도시하지 않고 생략된 기능 구성 중에서 종래에 기 사용되고 있는 구성요소의 기능을 용이하게 이해할 수 있을 것이며, 또한 상기와 같이 생략된 구성 요소와 본 발명을 위해 추가된 구성 요소 사이의 관계도 명백하게 이해할 수 있을 것이다.In addition, a preferred embodiment of the present invention to be implemented below is already provided in each system function configuration in order to efficiently describe the technical components constituting the present invention, or system functions commonly provided in the technical field to which the present invention belongs. The configuration will be omitted as much as possible, and a functional configuration that should be additionally provided for the present invention will be mainly described. If a person of ordinary skill in the art to which the present invention pertains will be able to easily understand the functions of the components previously used among the functional configurations that are not shown below and are omitted, the configurations omitted as described above. The relationship between the elements and the constituent elements added for the present invention will also be clearly understood.

또한, 이하의 설명에 있어서, 신호 또는 정보의 "전송", "통신", "송신", "수신" 기타 이와 유사한 의미의 용어는 일 구성요소에서 다른 구성요소로 신호 또는 정보가 직접 전달되는 것뿐만이 아니라 다른 구성요소를 거쳐 전달되는 것도 포함한다. 특히 신호 또는 정보를 일 구성요소로 "전송" 또는 "송신"한다는 것은 그 신호 또는 정보의 최종 목적지를 지시하는 것이고 직접적인 목적지를 의미하는 것이 아니다. 이는 신호 또는 정보의 "수신"에 있어서도 동일하다.In addition, in the following description, "transmission", "communication", "transmission", "receive" of signals or information and other terms with similar meanings refer to direct transmission of signals or information from one component to another. Not only that, but it includes things that are transmitted through other components. In particular, "transmitting" or "transmitting" a signal or information to a component indicates the final destination of the signal or information and does not mean a direct destination. The same is true for "reception" of signals or information.

이하에서는 첨부된 도면을 참조하여 본 발명의 실시예들을 상세히 설명하기로 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 생성적 적대 신경망을 이용한 과수 병충해 분류 시스템을 설명하기 위해 도시한 블록도이다.FIG. 1 is a block diagram illustrating a system for classifying fruit tree diseases and pests using a generative adversarial neural network according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 생성적 적대 신경망을 이용한 과수 병충해 분류 시스템(100)은 데이터 처리부(Data processing)(120) 및 네트워크부(Network)(110)를 포함하여 구성될 수 있다.Referring to FIG. 1, a system for classifying fruit trees diseases and pests using a generative hostile neural network according to an embodiment of the present invention includes a data processing unit 120 and a network unit 110. Can be.

상기 데이터 처리부(120)는 데이터의 전처리(preprocess)와 후처리(postprocess)를 관리하기 위하여 데이터 전처리부(122), 및 데이터 후처리부(124)를 포함할 수 있다.The data processing unit 120 may include a data preprocessing unit 122 and a data post processing unit 124 to manage data preprocessing and postprocessing.

상기 데이터 전처리부(122)는 데이터 학습 시 사용되는 리소스를 줄이기 위하여, 병충해를 포함하는 원본 이미지의 데이터를 전처리(data preprocess)하여 데이터 연산량을 감소시켜 연산 속도를 빠르게 하는 기능을 수행할 수 있다.The data preprocessor 122 may perform a function of speeding up the computation speed by reducing the amount of data computation by preprocessing data of an original image including diseases and pests in order to reduce resources used when learning data.

이를 위해, 상기 데이터 전처리부(122)는 도 2에 도시된 바와 같이 이미지 크기 조정부(210), 관심 영역 추출부(220), 및 이미지 대비 처리부(230)를 포함하여 구성될 수 있다. 참고로, 도 2는 도 1의 데이터 전처리부(122)의 상세 구성을 설명하기 위해 도시한 블록도이다.To this end, the data preprocessing unit 122 may include an image size adjusting unit 210, an ROI extracting unit 220, and an image contrast processing unit 230 as shown in FIG. 2. For reference, FIG. 2 is a block diagram illustrating a detailed configuration of the data preprocessor 122 of FIG. 1.

상기 이미지 크기 조정부(210)는 병충해를 포함하는 원본 이미지의 사이즈를 조절하여 다운사이징(downsizing)할 수 있다. 이로써, 상기 이미지 크기 조정부(210)는 상기 원본 이미지의 사이즈를 줄여 시스템이 차지하는 메모리 공간을 낮추고 연산량을 감소시킬 수 있다.The image size adjusting unit 210 may downsizing by adjusting the size of the original image including diseases and pests. Accordingly, the image size adjusting unit 210 may reduce the size of the original image, thereby reducing the memory space occupied by the system and reducing the amount of computation.

상기 관심 영역 추출부(220)는 상기 다운사이징된 원본 이미지로부터 관심 영역(Region of Interest, RoI)을 추출할 수 있다. 이를 위해, 상기 관심 영역 추출부(220)는 소벨 마스크(sobel mask)를 이용하여 계산한 RGB 평균값을 기반으로, 상기 다운사이징된 원본 이미지로부터 관심 영역을 추출할 수 있다. 이로써, 상기 관심 영역 추출부(220)는 관심 영역 이외의 데이터를 줄임으로써 연산량을 감소시킬 수 있다.The region of interest extracting unit 220 may extract a region of interest (RoI) from the downsized original image. To this end, the ROI extractor 220 may extract the ROI from the downsized original image based on an RGB average value calculated using a sobel mask. Accordingly, the region of interest extracting unit 220 may reduce the amount of computation by reducing data other than the region of interest.

관심 영역이란 말 그대로 이미지상에서 관심 있는 영역을 의미한다. 이미지를 처리하여 객체를 탐지 또는 검출하는 경우, 검출된 영역을 관심 영역이라 할 수 있다. 관심 영역을 지정하는 이유는 크게 세 가지가 있다. 첫 번째는 객체 주변 영역의 불필요한 영상을 제거하기 위해서고, 두 번째는 이렇게 제거함으로써 연산량과 리소스를 줄이기 위함이다. 마지막으로 학습의 정확도를 높일 수 있기 때문이다. 불필요한 정보를 사전에 제거함으로써 필요 부분만을 학습에 사용하기 때문에 이를 통해 정확도를 높일 수 있다.The region of interest literally means the region of interest in the image. When an object is detected or detected by processing an image, the detected area may be referred to as an ROI. There are three main reasons for designating a region of interest. The first is to remove unnecessary images in the area around the object, and the second is to reduce the amount of computation and resources by removing them in this way. Finally, it is because it can increase the accuracy of learning. By removing unnecessary information in advance, since only the necessary part is used for learning, accuracy can be improved through this.

컬러 이미지의 경우 각 픽셀마다 R, G, B 값을 가지고 있다. 즉, 한 픽셀에 세 가지 정보를 가지고 있는 멀티 채널(Multi-channel)의 이미지라고 표현을 한다. 반면에 흑백 이미지의 경우 한 픽셀마다 하나의 정보를 가지고 있기 때문에 싱글 채널(Single-channel)이라고 한다.In the case of a color image, each pixel has R, G, and B values. In other words, it is expressed as a multi-channel image that has three pieces of information in one pixel. On the other hand, in the case of a black-and-white image, since each pixel has one information, it is called a single-channel.

도 3은 관심 영역 추출을 위해 컬러 이미지를 로딩할 경우 나타나는 이미지 행렬을 도시한 도면이다. 도 3에 도시된 바와 같이, 왼쪽의 행렬은 컬러 이미지이다. 일반적으로 보았을 경우에는 2차원으로 보이지만 사실은 도면의 오른쪽과 같은 3개의 싱글 채널로 이루어져 있다. 이미지 내에서 해당하는 채널의 값은 원본 이미지에 따라 달라지며, 각 채널에 범위를 지정하고 그 내에 있는 픽셀만을 다시 그려주면 특정 색을 지닌 영역만을 지정해서 분리할 수 있다.3 is a diagram illustrating an image matrix that appears when a color image is loaded to extract a region of interest. 3, the matrix on the left is a color image. In general, it looks two-dimensional, but it is actually composed of three single channels as shown on the right side of the drawing. The value of the corresponding channel in the image varies depending on the original image, and by designating a range for each channel and redrawing only the pixels within it, only areas with a specific color can be specified and separated.

상기 이미지 대비 처리부(230)는 상기 추출된 관심 영역의 이미지를 대비(contrast image) 처리할 수 있다. 이로써, 상기 이미지 대비 처리부(230)는 데이터의 특징을 두드러지게 조절하는 역할을 진행할 수 있다.The image contrast processing unit 230 may contrast the extracted image of the ROI. Accordingly, the image contrast processing unit 230 may play a role of remarkably adjusting the characteristics of data.

상기 데이터 후처리부(124)는 상기 데이터 전처리부(122)에 의한 전처리의 결과 데이터를 저장하거나 필터링하는 기능을 수행할 수 있다. 이를 위해, 상기 데이터 후처리부(124)는 도면에는 도시되지 않았지만 데이터 저장부 및 데이터 필터부를 포함하여 구성될 수 있다.The data post-processing unit 124 may perform a function of storing or filtering result data of the pre-processing by the data pre-processing unit 122. To this end, the data post-processing unit 124 may include a data storage unit and a data filter unit, although not shown in the drawing.

상기 데이터 저장부는 상기 데이터 전처리부(122)에 의한 전처리의 결과 데이터를 저장하고, 후술하는 네트워크부(110)에 의해 생성된 유사 이미지가 정해진 양 이상으로 모일 경우 이를 상기 네트워크부(110)의 분류 네트워크(114)로 보내는 역할을 수행할 수 있다.The data storage unit stores the result data of the pre-processing by the data pre-processing unit 122, and when the similar images generated by the network unit 110 to be described later are collected in a predetermined amount or more, it is classified by the network unit 110 Sending to the network 114 may be performed.

상기 데이터 필터부는 상기 데이터 전처리부(122)에 의한 전처리의 결과 데이터를 필터링할 수 있다. 또한, 상기 데이터 필터부는 상기 생성된 유사 이미지 중에서 품질이 미리 정해진 기준치보다 낮은 데이터를 필터링할 수 있다. 상기 필터링된 데이터는 상기 데이터 저장부로 전달되어 저장될 수 있다.The data filter unit may filter result data of preprocessing by the data preprocessor 122. In addition, the data filter unit may filter data having a quality lower than a predetermined reference value among the generated similar images. The filtered data may be transferred to and stored in the data storage unit.

상기 네트워크부(110)는 GAN 네트워크(112) 및 분류 네트워크(114)를 포함하여 구성될 수 있다.The network unit 110 may include a GAN network 112 and a classification network 114.

상기 GAN 네트워크(112)는 생성적 적대 신경망(GAN)을 통해 상기 데이터 전처리부(122)에 의한 전처리의 결과 데이터에 대응하는 유사 이미지를 생성할 수 있다.The GAN network 112 may generate a similar image corresponding to the result data of preprocessing by the data preprocessor 122 through a generative hostile neural network (GAN).

이때, 상기 GAN 네트워크(112)는 병충해를 포함하지 않는 샘플 이미지를 기반으로, 상기 생성적 적대 신경망을 통해 상기 유사 이미지를 생성할 수 있다. 이를 통해, 상기 GAN 네트워크(112)는 원본 이미지에서 병이 걸린 것과 유사한 이미지를 생성할 수 있다. 또한, 상기 GAN 네트워크(112)는 상기 유사 이미지를 생성하는 과정을 미리 설정된 일정 수에 도달할 때까지 반복할 수 있다.In this case, the GAN network 112 may generate the similar image through the generative adversarial neural network based on a sample image that does not contain a disease or a pest. Through this, the GAN network 112 may generate an image similar to a diseased image from the original image. In addition, the GAN network 112 may repeat the process of generating the similar image until it reaches a predetermined number.

상기 분류 네트워크(114)는 상기 GAN 네트워크(112)에 의해 생성된 유사 이미지를 이용하여 분류 모델을 학습하고, 상기 학습된 분류 모델을 기반으로 입력 이미지의 병충해 종류를 판단하여 분류할 수 있다.The classification network 114 may learn a classification model by using the similar image generated by the GAN network 112, and classify the input image by determining the type of pests based on the learned classification model.

상기 분류 네트워크(114)는 상기 GAN 네트워크(112)에 의해 생성된 유사 이미지가 일정 수에 도달하면, 상기 일정 수의 유사 이미지를 이용하여 상기 분류 모델을 학습함으로써, 학습에 사용되는 데이터의 양을 늘리고 클래스(병충해 종류)별 데이터 불균형을 해소할 수 있다.When the number of similar images generated by the GAN network 112 reaches a certain number, the classification network 114 learns the classification model using the certain number of similar images, thereby determining the amount of data used for learning. It can increase and resolve the data imbalance by class (type of disease and pest).

생성적 적대 신경망(GAN)이란 두 개의 네트워크로 구성된 신경망 구조로 한 네트워크가 다른 네트워크와 대립하면서 학습을 진행한다. 아래의 수학식 1은 생성적 적대 신경망의 수식을 나타낸다.A generative adversarial neural network (GAN) is a neural network structure composed of two networks. One network confronts the other network and learns. Equation 1 below represents an equation of a generative adversarial neural network.

[수학식 1][Equation 1]

Figure pat00001
Figure pat00001

상기 수학식 1에서 x~Pdata(x)는 실제 이미지에 대한 확률 분포로 생성한 이미지를 나타내고, z~Pz(z)는 노이즈를 사용하여 생성한 이미지를 나타낸다. D(x)는 판별자를 나타내며 이미지가 진짜일 확률을 의미하는 0~1 사이의 값이 나오게 된다. D(G(z))의 경우에는 생성자가 생성한 이미지를 판별자를 통해 구분한 것으로 이 역시 이미지가 진짜일 확률을 의미하는 0~1 사이의 값을 가지게 된다.In Equation 1, x~P data (x) denotes an image generated by a probability distribution for an actual image, and z~P z (z) denotes an image generated using noise. D(x) represents the discriminator, and a value between 0 and 1 indicating the probability that the image is real is displayed. In the case of D(G(z)), the image created by the creator is classified through a discriminator, which also has a value between 0 and 1, which means the probability that the image is real.

상기 수학식 1을 최대화하기 위해서는 D(G(z))의 값은 1에 가까워야 하며 D(x)의 값은 1에 가까워야 한다. 이처럼 생성자와 판별자가 Minmax 문제를 풀어가며 학습을 하는 것이 생성적 적대 신경망의 학습 방법이다.In order to maximize Equation 1, the value of D(G(z)) should be close to 1 and the value of D(x) should be close to 1. In this way, the learning method of the generative adversarial neural network is that the generator and the discriminator solve the Minmax problem and learn.

본 발명의 일 실시예에서, 상기 생성적 적대 신경망은 기존의 DCGAN(Deep Convolutional)와 판별자(Discriminator)를 제외하고 모두 동일하게 설계될 수 있다. 참고로, 상기 DCGAN은 비지도학습과 CNN(Convolutional Neural Network)을 결합한 형태의 네트워크를 의미한다.In one embodiment of the present invention, the generative adversarial neural network may be designed identically except for the existing DCGAN (Deep Convolutional) and the discriminator (Discriminator). For reference, the DCGAN refers to a network in the form of a combination of unsupervised learning and a convolutional neural network (CNN).

이때, 상기 판별자는 상기 원본 이미지가 잎이라는 일정한 형태를 띠고 잎에서 발생하는 병을 주제로 하고 있는 것을 고려하여, 도 6에 도시된 바와 같이 상기 기존의 DCGAN에서 컨볼루션 레이어(Convolution Layer)의 크기를 5*5에서 3*3으로 수정하여 연산량을 줄이고 메모리를 절약하며, 활성화 함수를 Relu가 아닌 Sigmoid를 사용하여 다양한 클래스의 유사 이미지를 생성하도록 설계될 수 있다.At this time, the discriminator is the size of the convolution layer in the conventional DCGAN as shown in FIG. 6, considering that the original image has a certain shape of a leaf and is the subject of a disease occurring in the leaf. It can be designed to reduce the amount of computation and save memory by modifying from 5*5 to 3*3, and to generate similar images of various classes using Sigmoid instead of Relu as the activation function.

이상에서 설명된 시스템은 하드웨어 구성 요소, 소프트웨어 구성 요소, 및/또는 하드웨어 구성 요소 및 소프트웨어 구성 요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성 요소는, 예를 들어, 프로세서, 컨트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 컨트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The system described above may be implemented as a hardware component, a software component, and/or a combination of a hardware component and a software component. For example, the devices and components described in the embodiments include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA), It may be implemented using one or more general purpose or special purpose computers, such as a programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications executed on the operating system. Further, the processing device may access, store, manipulate, process, and generate data in response to the execution of software. For the convenience of understanding, although it is sometimes described that one processing device is used, one of ordinary skill in the art, the processing device is a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it may include. For example, the processing device may include a plurality of processors or one processor and one controller. In addition, other processing configurations are possible, such as a parallel processor.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of these, configuring the processing unit to operate as desired or processed independently or collectively. You can command the device. Software and/or data may be interpreted by a processing device or, to provide instructions or data to a processing device, of any type of machine, component, physical device, virtual equipment, computer storage medium or device. , Or may be permanently or temporarily embodyed in a transmitted signal wave. The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer-readable recording media.

도 4는 본 발명의 일 실시예에 따른 생성적 적대 신경망을 이용한 과수 병충해 분류 방법을 설명하기 위해 도시한 흐름도이다.4 is a flow chart illustrating a method for classifying fruit tree diseases and pests using a generative adversarial neural network according to an embodiment of the present invention.

여기서 설명하는 과수 병충해 분류 방법은 본 발명의 하나의 실시예에 불과하며, 그 이외에 필요에 따라 다양한 단계들이 아래와 같이 부가될 수 있고, 하기의 단계들도 순서를 변경하여 실시될 수 있으므로, 본 발명이 하기에 설명하는 각 단계 및 그 순서에 한정되는 것은 아니다.The fruit tree disease and pest classification method described herein is only one embodiment of the present invention, and various steps may be added as follows as needed, and the following steps may also be performed by changing the order, so the present invention It is not limited to each step and its sequence described below.

먼저 도 4를 참조하면, 단계(410)에서 상기 과수 병충해 분류 시스템(100)은 병충해를 포함하는 원본 이미지의 사이즈를 조절하여 다운사이징(downsizing)할 수 있다(Image Resize).First, referring to FIG. 4, in step 410, the fruit tree disease and pest classification system 100 may downsize by adjusting the size of the original image including the disease and pest (Image Resize).

다음으로, 단계(420)에서 상기 과수 병충해 분류 시스템(100)은 상기 다운사이징된 원본 이미지로부터 관심 영역(Region of Interest, RoI)을 추출할 수 있다(Crop Region of interest).Next, in step 420, the fruit tree disease and pest classification system 100 may extract a region of interest (RoI) from the downsized original image (Crop Region of interest).

다음으로, 단계(430)에서 상기 과수 병충해 분류 시스템(100)은 상기 추출된 관심 영역의 이미지를 대비(contrast image) 처리할 수 있다(Contrast Image).Next, in step 430, the fruit tree disease and pest classification system 100 may contrast the extracted image of the ROI (Contrast Image).

다음으로, 단계(440)에서 상기 과수 병충해 분류 시스템(100)은 생성적 적대 신경망(GAN)을 통해 상기와 같이 전처리(410, 420, 430)한 결과 데이터에 대응하는 유사 이미지를 생성할 수 있다(Generate Image using GAN).Next, in step 440, the fruit tree disease and pest classification system 100 may generate a similar image corresponding to data as a result of pre-processing (410, 420, 430) as described above through a generative hostile neural network (GAN). (Generate Image using GAN).

참고로, 본 발명의 일 실시예에서 설계한 생성적 적대 신경망은 기존의 신경망에 DCGAN을 기반으로 모델을 설계할 수 있다. 생성자는 기존의 DCGAN과 동일하나 판별자는 준비된 데이터에 맞게 변형을 시킬 수 있다. 도 6은 본 발명의 일 실시예에 적용되는 생성적 적대 신경망의 판별자 모델 구조를 나타내는 도면이다.For reference, the generative adversarial neural network designed in an embodiment of the present invention may design a model based on DCGAN in an existing neural network. The generator is the same as the existing DCGAN, but the discriminator can be transformed to fit the prepared data. 6 is a diagram illustrating a structure of a discriminator model of a generative adversarial neural network applied to an embodiment of the present invention.

도 6을 참조하면, 판별자는 입력으로 주어진 이미지가 잎이라는 일정한 형태를 띠고 있고 잎에서 발생하는 병을 주제로 하고 있기 때문에 이에 맞게 수정을 가할 수 있다. 먼저 Convolution Layer의 크기를 5x5에서 3x3으로 수정하여 연산량을 줄이고 메모리를 절약하는 방식을 사용할 수 있으며, 활성화 함수를 Relu가 아닌 Sigmoid를 사용하여 다양한 클래스의 이미지를 생성하도록 설계할 수 있다.Referring to FIG. 6, since the image given as an input has a certain shape of a leaf and the disease occurring in the leaf is the subject, the discriminator can correct it accordingly. First, the size of the convolution layer can be modified from 5x5 to 3x3 to reduce the amount of computation and to save memory, and the activation function can be designed to generate images of various classes using Sigmoid instead of Relu.

다음으로, 단계(450)에서 상기 과수 병충해 분류 시스템(100)은 상기 생성된 유사 이미지를 필터링하여 출력할 수 있다(Filter out).Next, in step 450, the fruit tree disease and pest classification system 100 may filter and output the generated similarity image (Filter out).

다음으로, 단계(460)에서 상기 생성된 유사 이미지의 품질이 미리 정해진 기준치를 초과하는지 여부를 판단할 수 있다(Generated Data is above the standard).Next, in step 460, it may be determined whether the quality of the generated similarity image exceeds a predetermined reference value (Generated Data is above the standard).

이때, 상기 기준치를 초과하지 않으면(460의 "no" 방향), 단계(440)으로 리턴할 수 있다. 반면에, 상기 기준치를 초과하면(460의 "yes" 방향), 단계(470)에서 상기 과수 병충해 분류 시스템(100)은 상기 생성된 유사 이미지를 이용하여 분류 모델을 학습하고, 상기 학습된 분류 모델을 기반으로 입력 이미지의 병충해 종류를 판단하여 데이터 분류를 할 수 있다(Data Classification).In this case, if the reference value is not exceeded (in the “no” direction of 460), the operation may be returned to step 440. On the other hand, if the reference value is exceeded (in the "yes" direction of 460), in step 470, the fruit tree disease and pest classification system 100 learns a classification model using the generated similarity image, and the learned classification model Based on the data classification, it is possible to classify data by determining the type of disease and pest of the input image (Data Classification).

도 5는 RGB 추출을 기반으로 소벨 마스크의 방식을 일부 채택하여 관심 영역을 추출하는 과정을 설명하기 위해 도시한 흐름도이다.5 is a flowchart illustrating a process of extracting an ROI by partially adopting a Sobel mask method based on RGB extraction.

도 5를 참조하면, 먼저 단계(510)에서 이미지를 탐색한다(Navigate Pixel). 이후, 단계(520)에서 평균값을 계산한다(Average calculation). 여기서, 상기 평균값은 소벨 마스크를 이용한 값으로 계산을 진행한다.Referring to FIG. 5, first, in step 510, an image is searched (Navigate Pixel). Thereafter, an average value is calculated in step 520 (Average calculation). Here, the average value is calculated using a Sobel mask.

다음으로, 단계(530)에서 평균값을 구한 뒤 픽셀마다 검사를 시작한다(Check the 8th direction of the pixel).Next, after calculating the average value in step 530, the inspection is started for each pixel (Check the 8th direction of the pixel).

이전에 구했던 평균값을 못 넘는 경우에는(540의 "no" 방향), 단계(550)에서 다음 픽셀을 검사한다(Navigate Diagonal Pixel).If it does not exceed the previously obtained average value (in the "no" direction of 540), the next pixel is examined in step 550 (Navigate Diagonal Pixel).

하지만, 이전에 구했던 평균값을 넘는 경우에는(540의 "yes" 방향), 단계(560)에서 그 픽셀이 저장되어 있는지 확인을 한다(check if stored coordinate).However, if it exceeds the previously obtained average value (in the "yes" direction of 540), it is checked in step 560 whether the pixel is stored (check if stored coordinate).

이때 그 픽셀이 저장되어 있지 않으면(560의 "no" 방향), 단계(570)에서 해당 픽셀을 저장하고 해당 픽셀로 이동하여 검사를 진행한다(save coordinate and move that pixel). 이때 픽셀의 검사 방향은 일정하게 진행한다.At this time, if the pixel is not stored (in the "no" direction of 560), the pixel is stored in step 570 and moves to the pixel to perform inspection (save coordinate and move that pixel). At this time, the inspection direction of the pixel proceeds constantly.

반면에 그 픽셀이 저장되어 있으면(560의 "yes" 방향), 단계(580)에서 탐색을 종료하고 저장된 픽셀들로 마스크를 만든다(Create mask).On the other hand, if the pixel is stored (in the "yes" direction of 560), the search is terminated in step 580 and a mask is created with the stored pixels (Create mask).

다음으로, 단계(590)에서 상기 마스크를 만든 그 지점을 관심 영역으로 추출한다(Crop Region of Interest).Next, the point where the mask is created in step 590 is extracted as a region of interest (Crop Region of Interest).

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CDROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CDROMs and DVDs, and magnetic-optical media such as floptical disks. A hardware device specially configured to store and execute program instructions such as magneto-optical media and ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those produced by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware device described above may be configured to operate as one or more software modules to perform the operation of the embodiment, and vice versa.

이하에서는 본 발명의 일 실시예에 따른 생성적 적대 신경망을 이용한 과수 병충해 분류 시스템의 구현에 대해서 일례를 들어서 설명하기로 한다.Hereinafter, an implementation of a system for classifying fruit trees, diseases and pests using a generative adversarial neural network according to an embodiment of the present invention will be described with reference to an example.

* 시스템 구현* System implementation

본 발명의 일 실시예에 따른 시스템을 구현하기 위해 프로세서는 i5-6500, 메모리는 16G, 그래픽 카드는 GeForce GTX 1060가 장착된 컴퓨터에 Windows 10 Pro 운영체제를 설치하여 사용할 수 있다. 또한 GPU를 사용하기 위해 CUDA 10.0을 설치하며 Juypter Notebook에서 Python3.5를 사용하여 시스템을 구현할 수 있다.In order to implement the system according to an embodiment of the present invention, a Windows 10 Pro operating system may be installed and used in a computer equipped with i5-6500 as a processor, 16G as a memory, and a GeForce GTX 1060 as a graphics card. In addition, CUDA 10.0 is installed to use the GPU, and the system can be implemented using Python3.5 in Juypter Notebook.

1. 관심 영역 추출 구현1. Implementation of region of interest extraction

도 7은 관심 영역을 구현한 결과를 예시적으로 나타내는 도면이다.7 is a diagram illustrating a result of implementing an ROI.

도 7을 참조하면, 왼쪽부터 차례로 원본, 관심 영역 추출 1회, 관심영역 추출 2회 진행한 것을 나타낸다. 1행과 이미지와 2행의 이미지 모두 2회를 진행해야 관심 영역의 추출이 제대로 일어난 것을 볼 수 있다. 이는 평균값을 구하면서 발생하는데 처음 1회 진행할 때는 배경과 그림자, 잎 세 개의 평균값을 계산하여 관심 영역을 추출하지만 2회의 경우에는 배경의 대부분이 사라져 그림자와 잎 두 개의 평균값을 구하면 된다. 또한 도 7에서는 그림자 때문에 발생하였으나 잎의 경계에서 초점이 흐려지는 경우 이와 같은 문제점이 발생할 수 있다. 이에 따라 본 발명의 일 실시예에 따른 시스템에서는 관심 영역을 특정 부분에 집중이 되도록 관심 영역 추출을 두 번 사용하여 구현할 수 있다.Referring to FIG. 7, it shows that the original, the region of interest was extracted once, and the region of interest was extracted two times in order from the left. You can see that the region of interest has been properly extracted only when the first row and the image and the second row are performed twice. This occurs while calculating the average value. In the first one, the area of interest is extracted by calculating the average value of the three backgrounds, shadows, and leaves, but in the case of two times, most of the background disappears and the average value of the two shadows and leaves can be obtained. In addition, in FIG. 7, this problem may occur when the focus is blurred at the border of the leaf, although it occurs due to a shadow. Accordingly, in the system according to an embodiment of the present invention, the ROI can be implemented by using twice the ROI extraction so that the ROI is concentrated on a specific part.

2. 생성적 적대 신경망 구현2. Implementing generative adversarial neural networks

본 발명의 일 실시예에 따른 시스템의 생성적 적대 신경망으로 사과와 포도에 있는 Black rot을 학습시켜 블루베리의 잎에 Block rot을 생성한다. 사과와 포도에 있는 Black rot 이미지의 개수는 1441개이며 이를 먼저 판별자에 학습을 시킨다. 그 후 생성자는 블루베리의 잎을 입력값으로 삼아 Black rot이 걸린 잎을 생성하기 위해 학습을 진행한다.A block rot is created on a leaf of a blueberry by learning black rot in apples and grapes with the generative hostile neural network of the system according to an embodiment of the present invention. The number of black rot images in apples and grapes is 1441, and this is first learned by the discriminator. After that, the constructor takes a blueberry leaf as an input value and proceeds to learn to generate a black rot-attached leaf.

도 8은 실제 Black rot의 이미지를 나타낸 예시도이고, 도 9는 본래의 블루베리 잎과 이를 기반으로 생성된 Black rot이 걸린 블루베리 잎의 이미지를 나타낸 예시도이다.8 is an exemplary view showing an image of an actual black rot, and FIG. 9 is an exemplary view showing an image of an original blueberry leaf and a blueberry leaf with Black rot generated based on the original blueberry leaf.

도 8 및 도 9를 참조하면, 질병의 무늬가 큰 경우 도 9의 좌측처럼 생성된 이미지가 어색하지만, 질병의 무늬가 작은 경우 도 9의 우측과 같이 어색한 부분은 찾기 힘들도록 Black rot이 걸린 잎이 잘 생성된 것을 볼 수 있다. 또한 전처리 과정에서 관심 영역을 제한함으로써 질병의 위치가 잎 위에 제대로 안착한 것을 알 수 있다.Referring to FIGS. 8 and 9, when the pattern of the disease is large, the image generated as the left side of FIG. 9 is awkward, but when the pattern of the disease is small, the leaves with black rot so that the awkward part as shown in the right side of FIG. You can see this is well created. In addition, by limiting the region of interest in the pretreatment process, it can be seen that the location of the disease is properly settled on the leaf.

도 10은 본 발명의 일 실시예에 따른 시스템의 분류 정확도를 기존 시스템과 비교하여 표로 나타낸 도면이다. 다시 말해, 도 10은 전처리 과정 없이 학습에 사용하는 경우, 회전을 통해 데이터를 늘리는 경우, 본 발명의 일 실시예에 따른 기법을 사용하였을 때 분류 정확도(Classification Accuracy)를 나타낸 것이다.10 is a table showing classification accuracy of a system according to an embodiment of the present invention compared with an existing system. In other words, FIG. 10 shows Classification Accuracy when using for learning without preprocessing, increasing data through rotation, and using the technique according to an embodiment of the present invention.

도 10을 참조하면, 전처리 과정 없이 학습에 사용하는 경우(System 1)는 데이터 셋(Data set)의 부족으로 77.99%라는 확률이 나왔으며, 회전을 통해 데이터를 늘리는 경우(System 2)는 일부 데이터 셋의 량이 적어 91.14%라는 확률을 보였다. 이에 반해 본 발명의 일 실시예에 따른 시스템(Suggest System)은 생성적 적대 신경망을 사용하여 학습에 사용한 데이터의 양을 늘렸으며 클래스마다 동일한 양의 데이터를 제공하여 98.17%라는 높은 수치의 정확도를 보였다.Referring to FIG. 10, in the case of using for learning without pre-processing (System 1), a probability of 77.99% came out due to insufficient data set, and in the case of increasing data through rotation (System 2), some data Due to the small amount of three, the probability was 91.14%. In contrast, the Suggest System according to an embodiment of the present invention increases the amount of data used for training by using a generative adversarial neural network, and provides the same amount of data for each class, showing a high numerical accuracy of 98.17%. .

* 결 론* conclusion

현재 스마트 팜이 적용된 작물은 원예나 하우스 작물에 국한되고 있으며 스마트 팜을 도입하는데 많은 비용이 필요하다는 문제점이 있다. 또한 제공되는 데이터들은 실제의 데이터와 큰 차이를 보이는 경우도 있으며 데이터의 양이 제 각각이기 때문에 학습을 시키기 위해서 가공을 거쳐야 한다는 문제점이 있고 이에 많은 노동력 등의 자원이 소모되는 문제가 있다.Currently, crops to which smart farms are applied are limited to horticultural or house crops, and there is a problem that a lot of costs are required to introduce smart farms. In addition, the provided data may show a big difference from the actual data, and since the amount of data is different, there is a problem that it must be processed in order to learn, and there is a problem that resources such as a lot of labor are consumed.

이를 해결하기 위해 본 발명의 일 실시예에서는 제공되는 데이터를 생성적 적대 신경망을 통해 학습을 시키고 사용하는 데이터를 입력 값으로 받아 실제 데이터와 유사한 데이터를 생성하는 방법을 제안한다.To solve this problem, an embodiment of the present invention proposes a method of generating data similar to actual data by learning provided data through a generative adversarial neural network and receiving used data as input values.

본 발명의 일 실시예에 따른 시스템은 데이터가 학습에 사용될 때 사용하는 리소스를 줄이기 위해 연산량을 줄여서 속도를 빠르게 할 수 있도록 전처리 방법을 제안하고 그 중 관심 영역 추출을 통해 실제로 학습에 사용되는 객체만을 학습하도록 유도할 수 있다. 그 후 생성적 적대 신경망을 사용하여 학습에 사용되는 데이터의 양을 늘리고 클래스별 데이터 불균형을 해소할 수 있다. 이를 통해, 스마트 팜을 다양한 작물에서 적용할 수 있도록 데이터를 생성할 수 있게 되고 학습의 정확도를 98%까지 끌어올릴 수 있다.The system according to an embodiment of the present invention proposes a preprocessing method to speed up the speed by reducing the amount of computation to reduce the amount of resources used when data is used for learning. Among them, only the objects actually used for learning are extracted by extracting the region of interest. It can lead to learning. After that, a generative adversarial neural network can be used to increase the amount of data used for training and to resolve the data imbalance for each class. Through this, data can be generated so that the smart farm can be applied to various crops, and the accuracy of learning can be increased to 98%.

본 발명의 일 실시예에 따른 시스템에서 사용한 분류 시스템뿐만 아니라 물류, 자동화 시스템에서도 사용할 수 있는 데이터를 생성할 수 있다면, 분류 시스템뿐만 아니라 더 다양하고 넓은 범위의 스마트 팜을 구성할 수 있다.If data that can be used not only in the classification system used in the system according to an embodiment of the present invention, but also in logistics and automation systems can be generated, not only the classification system but also a wider variety of smart farms can be configured.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.Although the embodiments have been described by the limited embodiments and drawings as described above, various modifications and variations can be made from the above description to those of ordinary skill in the art. For example, the described techniques are performed in a different order from the described method, and/or components such as systems, structures, devices, circuits, etc. described are combined or combined in a form different from the described method, or other components Alternatively, even if substituted or substituted by an equivalent, an appropriate result can be achieved.

그러므로, 다른 구현들, 다른 실시예들 및 청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims also fall within the scope of the following claims.

110: 네트워크부
112: GAN 네트워크
114: 분류 네트워크
120: 데이터 처리부
122: 데이터 전처리부
124: 데이터 후처리부
210: 이미지 크기 조정부
220: 관심 영역 추출부
230: 이미지 대비 처리부
110: network unit
112: GAN network
114: classification network
120: data processing unit
122: data preprocessor
124: data post-processing unit
210: image resizing unit
220: region of interest extraction unit
230: image contrast processing unit

Claims (11)

데이터 학습 시 사용되는 리소스를 줄이기 위하여, 병충해를 포함하는 원본 이미지의 데이터를 전처리(data preprocess)하여 데이터 연산량을 감소시켜 연산 속도를 빠르게 하는 데이터 전처리부, 및 상기 전처리의 결과 데이터를 저장하거나 필터링하는 데이터 후처리부를 포함하는 데이터 처리부; 및
생성적 적대 신경망(GAN)을 통해 상기 전처리의 결과 데이터에 대응하는 유사 이미지를 생성하는 GAN 네트워크, 및 상기 생성된 유사 이미지를 이용하여 분류 모델을 학습하고, 상기 학습된 분류 모델을 기반으로 입력 이미지의 병충해 종류를 판단하여 분류하는 분류 네트워크를 포함하는 네트워크부
를 포함하는 것을 특징으로 하는 생성적 적대 신경망을 이용한 과수 병충해 분류 시스템.
In order to reduce the resources used when learning data, a data preprocessing unit that accelerates the operation speed by reducing the amount of data calculation by preprocessing the data of the original image including diseases and pests, and storing or filtering the result data of the preprocessing A data processing unit including a data post processing unit; And
A GAN network that generates a similar image corresponding to the result data of the preprocessing through a generative hostile neural network (GAN), and a classification model using the generated similarity image, and an input image based on the learned classification model Network unit including a classification network to determine and classify the types of pests
Fruit tree disease and pest classification system using a generative hostile neural network comprising a.
제1항에 있어서,
상기 데이터 전처리부는
상기 원본 이미지의 사이즈를 조절하여 다운사이징(downsizing)하는 이미지 크기 조정부;
상기 다운사이징된 원본 이미지로부터 관심 영역을 추출하는 관심 영역 추출부; 및
상기 추출된 관심 영역의 이미지를 대비(contrast image) 처리하는 이미지 대비 처리부
를 포함하는 것을 특징으로 하는 생성적 적대 신경망을 이용한 과수 병충해 분류 시스템.
The method of claim 1,
The data preprocessor
An image size adjusting unit for downsizing by adjusting the size of the original image;
A region of interest extracting unit for extracting a region of interest from the downsized original image; And
Image contrast processing unit to process the extracted image of the region of interest contrast (contrast image)
Fruit tree disease and pest classification system using a generative hostile neural network comprising a.
제2항에 있어서,
상기 관심 영역 추출부는
소벨 마스크(sobel mask)를 이용하여 계산한 RGB 평균값을 기반으로 상기 관심 영역을 추출하는 것을 특징으로 하는 생성적 적대 신경망을 이용한 과수 병충해 분류 시스템.
The method of claim 2,
The region of interest extracting unit
A system for classification of overgrown diseases and pests using a generative adversarial neural network, characterized in that the region of interest is extracted based on an RGB average value calculated using a sobel mask.
제1항에 있어서,
상기 데이터 후처리부는
상기 전처리의 결과 데이터를 저장하고, 상기 생성된 유사 이미지가 정해진 양 이상으로 모일 경우 상기 분류 네트워크로 보내는 데이터 저장부; 및
상기 전처리의 결과 데이터를 필터링하고, 상기 생성된 유사 이미지 중에서 품질이 미리 정해진 기준치보다 낮은 데이터를 필터링하는 데이터 필터부
를 포함하는 것을 특징으로 하는 생성적 적대 신경망을 이용한 과수 병충해 분류 시스템.
The method of claim 1,
The data post-processing unit
A data storage unit that stores the result data of the pre-processing and sends the generated similarity image to the classification network when the generated similarity image is collected in a predetermined amount or more; And
A data filter unit that filters the result data of the pre-processing and filters data whose quality is lower than a predetermined reference value among the generated similar images
Fruit tree disease and pest classification system using a generative hostile neural network comprising a.
제1항에 있어서,
상기 GAN 네트워크는
병충해를 포함하지 않는 샘플 이미지를 기반으로, 상기 생성적 적대 신경망을 통해 상기 유사 이미지를 생성하는 것을 특징으로 하는 생성적 적대 신경망을 이용한 과수 병충해 분류 시스템.
The method of claim 1,
The GAN network
Based on a sample image that does not contain pests and pests, the similar image is generated through the generative adversarial neural network.
제1항에 있어서,
상기 GAN 네트워크는
상기 유사 이미지를 생성하는 과정을 미리 설정된 일정 수에 도달할 때까지 반복하고,
상기 분류 네트워크는
상기 유사 이미지가 일정 수에 도달하면, 상기 일정 수의 유사 이미지를 이용하여 상기 분류 모델을 학습함으로써, 학습에 사용되는 데이터의 양을 늘리고 클래스별 데이터 불균형을 해소하는 것을 특징으로 하는 생성적 적대 신경망을 이용한 과수 병충해 분류 시스템.
The method of claim 1,
The GAN network
The process of generating the similar image is repeated until a predetermined predetermined number is reached,
The classification network is
When the number of similar images reaches a certain number, the classification model is trained using the certain number of similar images, thereby increasing the amount of data used for learning and solving the data imbalance for each class. Fruit tree pest classification system using.
제1항에 있어서,
상기 생성적 적대 신경망은
기존의 DCGAN와 판별자를 제외하고 모두 동일하게 설계되며,
상기 판별자는
상기 원본 이미지가 잎이라는 일정한 형태를 띠고 잎에서 발생하는 병을 주제로 하고 있는 것을 고려하여, 상기 기존의 DCGAN에서 컨볼루션 레이어(Convolution Layer)의 크기를 5*5에서 3*3으로 수정하여 연산량을 줄이고 메모리를 절약하며, 활성화 함수를 Relu가 아닌 Sigmoid를 사용하여 다양한 클래스의 유사 이미지를 생성하도록 설계되는 것을 특징으로 하는 생성적 적대 신경망을 이용한 과수 병충해 분류 시스템.
The method of claim 1,
The generative adversarial neural network is
All are designed identically except for the existing DCGAN and the discriminator,
The discriminator is
Considering that the original image has a certain shape of a leaf and the subject is a disease occurring in the leaf, the size of the convolution layer in the existing DCGAN is modified from 5*5 to 3*3, and the amount of calculation It is designed to generate similar images of various classes using Sigmoid instead of Relu as an activation function, which saves memory, and uses a generative adversarial neural network.
생성적 적대 신경망을 이용한 과수 병충해 분류 시스템을 이용한 과수 병충해 분류 방법에 있어서,
데이터 학습 시 사용되는 리소스를 줄이기 위하여, 병충해를 포함하는 원본 이미지의 데이터를 전처리(data preprocess)하여 데이터 연산량을 감소시켜 연산 속도를 빠르게 하는 단계;
상기 전처리의 결과 데이터를 저장하거나 필터링하는 단계;
생성적 적대 신경망(GAN)을 통해 상기 전처리의 결과 데이터에 대응하는 유사 이미지를 생성하는 단계;
상기 생성된 유사 이미지를 이용하여 분류 모델을 학습하는 단계; 및
상기 학습된 분류 모델을 기반으로 입력 이미지의 병충해 종류를 판단하여 분류하는 단계
를 포함하는 것을 특징으로 하는 생성적 적대 신경망을 이용한 과수 병충해 분류 방법.
In the fruit tree pest classification method using a fruit tree pest classification system using a generative hostile neural network,
In order to reduce the resources used when learning data, preprocessing data of the original image including diseases and pests to reduce the amount of data computation to speed up the computation;
Storing or filtering result data of the pre-processing;
Generating a similar image corresponding to the result data of the preprocessing through a generative hostile neural network (GAN);
Learning a classification model using the generated similarity image; And
Determining and classifying the type of disease and pest of the input image based on the learned classification model
Fruit tree disease and pest classification method using a generative hostile neural network comprising a.
제8항에 있어서,
상기 원본 이미지의 데이터를 전처리하여 데이터 연산량을 감소시켜 연산 속도를 빠르게 하는 단계는
상기 원본 이미지의 사이즈를 조절하여 다운사이징(downsizing)하는 단계;
상기 다운사이징된 원본 이미지로부터 관심 영역을 추출하는 단계; 및
상기 추출된 관심 영역의 이미지를 대비(contrast image) 처리하는 단계
를 포함하는 것을 특징으로 하는 생성적 적대 신경망을 이용한 과수 병충해 분류 방법.
The method of claim 8,
Pre-processing the data of the original image to reduce the amount of data computation to speed up the computation speed
Downsizing by adjusting the size of the original image;
Extracting a region of interest from the downsized original image; And
Contrast processing the extracted image of the ROI
Fruit tree disease and pest classification method using a generative hostile neural network comprising a.
제8항에 있어서,
상기 유사 이미지를 생성하는 단계는
병충해를 포함하지 않는 샘플 이미지를 기반으로, 상기 생성적 적대 신경망을 통해 상기 유사 이미지를 생성하는 단계
를 포함하는 것을 특징으로 하는 생성적 적대 신경망을 이용한 과수 병충해 분류 방법.
The method of claim 8,
The step of generating the similar image
Generating the similar image through the generative adversarial neural network based on the sample image that does not contain pests
Fruit tree disease and pest classification method using a generative hostile neural network comprising a.
제8항에 있어서,
상기 생성적 적대 신경망은
기존의 DCGAN와 판별자를 제외하고 모두 동일하게 설계되며,
상기 판별자는
상기 원본 이미지가 잎이라는 일정한 형태를 띠고 잎에서 발생하는 병을 주제로 하고 있는 것을 고려하여, 상기 기존의 DCGAN에서 컨볼루션 레이어(Convolution Layer)의 크기를 5*5에서 3*3으로 수정하여 연산량을 줄이고 메모리를 절약하며, 활성화 함수를 Relu가 아닌 Sigmoid를 사용하여 다양한 클래스의 유사 이미지를 생성하도록 설계되는 것을 특징으로 하는 생성적 적대 신경망을 이용한 과수 병충해 분류 방법.
The method of claim 8,
The generative adversarial neural network is
All are designed identically except for the existing DCGAN and the discriminator,
The discriminator is
Considering that the original image has a certain shape of a leaf and the subject is a disease occurring in the leaf, the size of the convolution layer in the existing DCGAN is modified from 5*5 to 3*3, and the amount of calculation It is designed to generate similar images of various classes using Sigmoid instead of Relu as an activation function, which reduces memory and saves memory, and classifies fruit diseases and pests using a generative adversarial neural network.
KR1020200029617A 2019-10-21 2020-03-10 Fruit tree disease Classification System AND METHOD Using Generative Adversarial Networks KR102526846B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20190130623 2019-10-21
KR1020190130623 2019-10-21

Publications (2)

Publication Number Publication Date
KR20210047230A true KR20210047230A (en) 2021-04-29
KR102526846B1 KR102526846B1 (en) 2023-04-28

Family

ID=75728328

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200029617A KR102526846B1 (en) 2019-10-21 2020-03-10 Fruit tree disease Classification System AND METHOD Using Generative Adversarial Networks

Country Status (1)

Country Link
KR (1) KR102526846B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113112498A (en) * 2021-05-06 2021-07-13 东北农业大学 Grape leaf scab identification method based on fine-grained countermeasure generation network
CN114092457A (en) * 2021-11-26 2022-02-25 黑龙江省农业科学院 Method and system for detecting crop diseases and insect pests
KR20220160386A (en) * 2021-05-27 2022-12-06 (주)골든플래닛 Method and system for managing crops pets

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180058049A (en) * 2016-11-23 2018-05-31 세종대학교산학협력단 Apparatus and method for diagonising disease and insect pest of crops

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180058049A (en) * 2016-11-23 2018-05-31 세종대학교산학협력단 Apparatus and method for diagonising disease and insect pest of crops

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Marko Arsenovic et al., "Solving Current Limitations of Deep Learning Based Approaches for Plant Disease Detection," symmetry (2019.07.19.)* *
PL. Chithra and P. Bhavani, "A STUDY ON VARIOUS IMAGE PROCESSING TECHNIQUES," International Journal of Emerging Technology and Innovative Engineering Volume 5, Issue 5, May 2019 (2019.05.07.)* *
윤치환 외 2명, "ROI(Region Of Interest)기반의 차등적 이미지 압축에 관한 연구," 한국정보통신학회논문지(J. Korea Inst. Inf. Commun. Eng.) Vol. 18, No. 3 : 679~686 Mar. 2014 (2014.05.31.)* *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113112498A (en) * 2021-05-06 2021-07-13 东北农业大学 Grape leaf scab identification method based on fine-grained countermeasure generation network
CN113112498B (en) * 2021-05-06 2024-01-19 东北农业大学 Grape leaf spot identification method based on fine-grained countermeasure generation network
KR20220160386A (en) * 2021-05-27 2022-12-06 (주)골든플래닛 Method and system for managing crops pets
CN114092457A (en) * 2021-11-26 2022-02-25 黑龙江省农业科学院 Method and system for detecting crop diseases and insect pests

Also Published As

Publication number Publication date
KR102526846B1 (en) 2023-04-28

Similar Documents

Publication Publication Date Title
Ngugi et al. Tomato leaf segmentation algorithms for mobile phone applications using deep learning
Gutierrez et al. A benchmarking of learning strategies for pest detection and identification on tomato plants for autonomous scouting robots using internal databases
KR102526846B1 (en) Fruit tree disease Classification System AND METHOD Using Generative Adversarial Networks
Alkhudaydi et al. An exploration of deep-learning based phenotypic analysis to detect spike regions in field conditions for UK bread wheat
EP3687152B1 (en) Learning method and learning device for pooling roi by using masking parameters to be used for mobile devices or compact networks via hardware optimization, and testing method and testing device using the same
EP3798901A1 (en) Quantifying plant infestation by estimating the number of insects on leaves, by convolutional neural networks that use training images obtained by a semi-supervised approach
Alzadjali et al. Maize tassel detection from UAV imagery using deep learning
EP3924876A1 (en) Automated unsupervised localization of context sensitive events in crops and computing extent thereof
CN111582214B (en) Method, system and device for analyzing behavior of cage animal based on twin network
CN113888557A (en) Scene semantic segmentation method and system based on RGB-D feature fusion
Rezk et al. An efficient plant disease recognition system using hybrid convolutional neural networks (cnns) and conditional random fields (crfs) for smart iot applications in agriculture
Tabb et al. Automatic segmentation of trees in dynamic outdoor environments
CN110969182A (en) Convolutional neural network construction method and system based on farmland image
Gonçalves et al. Automatic detection of Acacia longifolia invasive species based on UAV-acquired aerial imagery
CN112861755A (en) Method and system for real-time segmentation of multiple classes of targets
Kalampokas et al. Semantic segmentation of vineyard images using convolutional neural networks
CN116543386A (en) Agricultural pest image identification method based on convolutional neural network
Buddha et al. Weed detection and classification in high altitude aerial images for robot-based precision agriculture
Appe et al. CAM-YOLO: tomato detection and classification based on improved YOLOv5 using combining attention mechanism
Huang et al. YOLO-EP: a detection algorithm to detect eggs of Pomacea canaliculata in rice fields
CN117593766A (en) Investigation method for wild animal population number based on unmanned aerial vehicle shooting image processing
Vijayan et al. A universal foreground segmentation technique using deep-neural network
KR20210028966A (en) Method and apparatus for disease classification of plant leafs
Gao et al. Transferring learned patterns from ground-based field imagery to predict UAV-based imagery for crop and weed semantic segmentation in precision crop farming
Omer et al. An image dataset construction for flower recognition using convolutional neural network

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant