KR102516100B1 - Disease diagnosis monitering device that diagnoses diseases of crops through image analysis and operation method thereof - Google Patents

Disease diagnosis monitering device that diagnoses diseases of crops through image analysis and operation method thereof Download PDF

Info

Publication number
KR102516100B1
KR102516100B1 KR1020210172819A KR20210172819A KR102516100B1 KR 102516100 B1 KR102516100 B1 KR 102516100B1 KR 1020210172819 A KR1020210172819 A KR 1020210172819A KR 20210172819 A KR20210172819 A KR 20210172819A KR 102516100 B1 KR102516100 B1 KR 102516100B1
Authority
KR
South Korea
Prior art keywords
disease
image
camera
unit
edge computing
Prior art date
Application number
KR1020210172819A
Other languages
Korean (ko)
Inventor
김태현
백정현
이재수
김현종
임동혁
Original Assignee
대한민국
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 대한민국 filed Critical 대한민국
Priority to KR1020210172819A priority Critical patent/KR102516100B1/en
Application granted granted Critical
Publication of KR102516100B1 publication Critical patent/KR102516100B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/02Agriculture; Fishing; Mining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Abstract

The present invention relates to a disease diagnosis monitoring device, and more specifically, to a disease diagnosis monitoring device to diagnose diseases by analyzing the image of crops. To this end, the disease diagnosis monitoring device according to one embodiment of the present invention may comprise: a first image filming unit which films a first image of crops by means of a first camera; a second image filming unit which films a second image of the crops by means of a second camera; a disease detection unit which analyzes at least one of the first and second images of the crops which are filmed based on at least one of an edge computing and a central artificial intelligence server; and a control unit which controls by one of a disease control mode and a camera changing mode depending on whether diseases are detected based on analyzed information.

Description

이미지 분석을 통해 작물의 병해를 진단하는 병해진단 모니터링 장치 및 그 동작방법{DISEASE DIAGNOSIS MONITERING DEVICE THAT DIAGNOSES DISEASES OF CROPS THROUGH IMAGE ANALYSIS AND OPERATION METHOD THEREOF}Disease diagnosis monitoring device and operation method for diagnosing crop diseases through image analysis

본 발명은 병해진단 모니터링 장치에 관한 것으로, 좀 더 자세하게는 작물의 이미지를 분석하여 병해를 진단하는 병해진단 모니터링 장치에 관한 것이다.The present invention relates to a disease diagnosis monitoring device, and more particularly, to a disease diagnosis monitoring device for diagnosing a disease by analyzing an image of a crop.

현재 농업인 및 농업 비전문가들이 병해를 시기적절 하게 판단하고 알맞은 처방을 할 수 있는 병해 관리 시스템이 부족한 실정이다. 농가에서는 병해가 의심될 경우 정확한 확인을 위해 전문가에게 의뢰해야 하고, 이는 상당한 시간이 소요되기 때문에 농민이 정확한 병해의 종류 및 방법을 중요한 시기에 전달받지 못하는 문제가 빈번하게 발생한다.Currently, there is a lack of a disease management system that allows farmers and non-agricultural experts to timely determine disease and provide appropriate treatment. Farmers must request an expert for accurate confirmation when a disease is suspected, and since this takes a considerable amount of time, a problem in which farmers are not informed of the exact type and method of disease at a critical time frequently occurs.

또한, 기존 노지재배에 사용되는 스마트팜 기술은 외기 환경정보(온도, 습도, 일사량, 풍향, 풍속, 날씨정보, 토양센서, RGB영상) 기반의 모니터링을 통한 농작물 상태를 모니터링하고 있어. 노지재배의 경우 시기별 환경정보와 농민의 경험에 기반한 농작물 재배가 이루어지고 있으며, 농민들이 농작업을 수기로 기록하지 않으면, 관리가 잘 되지 않는 문제가 발생한다.In addition, smart farm technology used in existing open-field cultivation monitors crop conditions through monitoring based on external environmental information (temperature, humidity, solar radiation, wind direction, wind speed, weather information, soil sensor, RGB image). In the case of open-field cultivation, crop cultivation is being carried out based on environmental information by period and farmers' experiences, and if farmers do not manually record their farming work, problems with poor management arise.

대부분의 농민들은 자체 농작업 기록 관리를 소홀히 하고 있는게 현실이다. The reality is that most farmers are neglecting their own agricultural record management.

스마트 팜(시설원예)에 있어서 온실 통합 관리 및 모니터링(센서 데이터 저장)은 시스템이 자동으로 관리하고 있으나, 노지재배의 경우 이를 자동 기록 해주는 시스템은 현재 전무한 수준이다.In smart farms (facility horticulture), greenhouse integrated management and monitoring (storage of sensor data) is automatically managed by the system, but in the case of outdoor cultivation, there is currently no system that automatically records it.

본 발명은 작물의 이미지를 분석하여 병해를 진단하는 병해진단 모니터링 장치를 제공하는 것에 목적이 있다.An object of the present invention is to provide a disease diagnosis monitoring device for diagnosing diseases by analyzing images of crops.

본 발명의 일 실시예에 따른 병해진단 모니터링 장치는 제1 카메라를 통해 작물의 제1 이미지를 촬영하는 제1 이미지 촬영부, 제2 카메라를 통해 상기 작물의 제2 이미지를 촬영하는 제2 이미지 촬영부, 엣지 컴퓨팅 및 중앙 인공지능 서버 중 적어도 하나에 기초하여 촬영된 상기 작물의 상기 제1 및 제2 이미지 중 적어도 하나를 분석하는 병해 검출부, 및 분석된 정보에 기초하여 병해 발견 여부에 따라 방제 모드 및 카메라 변경 모드 중 하나로 제어하는 제어부를 포함할 수 있다.An apparatus for disease diagnosis and monitoring according to an embodiment of the present invention includes a first image capture unit that captures a first image of crops through a first camera and a second image capture that captures a second image of crops through a second camera. a disease detection unit that analyzes at least one of the first and second images of the crop taken based on at least one of edge computing and a central artificial intelligence server; and a control mode according to whether or not the disease is found based on the analyzed information. and a controller controlling one of camera change modes.

본 발명의 일 실시예에 있어서, 상기 제어부는 분석된 상기 제1 이미지로부터 병해가 발견되었을 경우, 상기 방제 모드로 제어하고, 분석된 상기 제1 이미지로부터 상기 병해가 발견되지 않았을 경우, 상기 카메라 변경 모드로 제어할 수 있다.In one embodiment of the present invention, the control unit, when the disease is found from the analyzed first image, controls the control mode, and when the disease is not found from the analyzed first image, the camera change mode can be controlled.

본 발명의 일 실시예에 있어서, 상기 카메라 변경 모드일 경우, 상기 제어부는 상기 제1 카메라를 상기 제2 카메라로 변경하고, 상기 제2 이미지를 촬영하도록 제어할 수 있다.In one embodiment of the present invention, in the case of the camera change mode, the control unit may control to change the first camera to the second camera and capture the second image.

본 발명의 일 실시예에 있어서, 상기 제어부는, 상기 방제 모드일 경우에 상기 병해가 검출된 위치에 해당하는 확대 이미지를 촬영하도록 상기 제1 및 제2 이미지 촬영부를 제어하는 정밀 모니터링 제어부, 살포 농약 종류를 선정하는 살포 농약 종류 선정부, 상기 병해가 발병된 위치를 판별하는 위치 판별부, 및 방제를 위해 상기 살포 농약 종류 및 상기 병해가 발병된 위치를 전송하는 방제 정보 전송부를 포함할 수 있다.In one embodiment of the present invention, the control unit, in the case of the control mode, a precision monitoring control unit for controlling the first and second image capturing units to take an enlarged image corresponding to the location where the disease is detected, a spray pesticide It may include a spraying pesticide type selection unit for selecting the type, a location determination unit for determining the location where the disease has occurred, and a control information transmission unit for transmitting the type of pesticide spraying and the location where the disease has occurred for control.

본 발명의 일 실시예에 있어서, 상기 위치 판별부는 상기 병해가 발병한 위치 정보를 지상으로부터 x, y, z축으로 표현하는 3차원 위치 정보 및 발병 예상 시간을 포함하는 4차원 위치 정보로 나타낼 수 있다.In one embodiment of the present invention, the location determination unit can represent the disease outbreak location information as 3-dimensional location information representing x, y, and z axes from the ground and 4-dimensional location information including an expected time of onset there is.

본 발명의 일 실시예에 있어서, 상기 병해가 검출된 위치에 색소로 표시하기 위한 색소를 저장하고 있는 색소 마킹부를 더 포함하고, 상기 색소를 이용하여 상기 병해가 검출된 위치에 표시할 수 있다.In one embodiment of the present invention, a color marking unit for storing a colorant for displaying a colorant at the location where the disease is detected may be further included, and the colorant may be used to mark the location where the disease is detected.

본 발명의 일 실시예에 있어서, 상기 제1 카메라는 RGB 카메라이고, 상기 제2 카메라는 스테레오 분광 카메라일 수 있다.In one embodiment of the present invention, the first camera may be an RGB camera, and the second camera may be a stereo spectroscopy camera.

본 발명의 일 실시예에 있어서, 상기 병해 검출부는, 상기 엣지 컴퓨팅을 통해 상기 작물의 이미지를 실시간으로 분석하고, 상기 엣지 컴퓨팅으로 분석이 불가능할 경우, 상기 작물의 이미지를 상기 중앙 인공지능 서버로 전송하여, 상기 중앙 인공지능 서버로 상기 작물의 이미지를 분석할 수 있다.In one embodiment of the present invention, the disease detection unit analyzes the image of the crop in real time through the edge computing, and transmits the image of the crop to the central artificial intelligence server when the analysis is impossible through the edge computing. Thus, the image of the crop can be analyzed by the central artificial intelligence server.

본 발명의 일 실시예에 있어서, 상기 엣지 컴퓨팅은 제1 알고리즘을 기반으로 상기 작물의 상기 제1 및 제2 이미지 중 적어도 하나를 분석하고, 상기 중앙 인공 지능 서버는 제2 알고리즘을 기반으로 상기 작물의 상기 제1 및 제2 이미지 중 적어도 하나를 분석할 수 있다.In one embodiment of the present invention, the edge computing analyzes at least one of the first and second images of the crop based on a first algorithm, and the central artificial intelligence server analyzes the crop based on the second algorithm. At least one of the first and second images of may be analyzed.

본 발명의 일 실시예에 따른 병해진단 모니터링 장치의 동작방법은 제1 카메라를 통해 작물의 제1 이미지를 촬영하는 단계, 제2 카메라를 통해 상기 작물의 제2 이미지를 촬영하는 단계, 엣지 컴퓨팅 및 중앙 인공지능 서버 중 적어도 하나에 기초하여 촬영된 상기 작물의 상기 제1 및 제2 이미지 중 적어도 하나를 분석하는 단계, 및 분석된 정보에 기초하여 병해 발견 여부에 따라 방제 모드 및 카메라 변경 모드 중 하나로 제어하는 단계를 포함할 수 있다.An operation method of a disease diagnosis monitoring device according to an embodiment of the present invention includes the steps of photographing a first image of a crop through a first camera, photographing a second image of the crop through a second camera, edge computing and Analyzing at least one of the first and second images of the crop taken based on at least one of the central artificial intelligence servers, and selecting one of a control mode and a camera change mode according to whether a disease is found based on the analyzed information. It may include a control step.

본 발명의 일 실시예에 있어서, 상기 분석된 정보에 기초하여 병해 발견 여부에 따라 방제 모드 및 카메라 변경 모드 중 하나로 제어하는 단계는, 분석된 상기 제1 이미지로부터 병해가 발견되었을 경우, 상기 방제 모드로 제어하고, 분석된 상기 제1 이미지로부터 상기 병해가 발견되지 않았을 경우, 상기 카메라 변경 모드로 제어할 수 있다.In one embodiment of the present invention, the step of controlling to one of the control mode and the camera change mode according to whether or not the disease is found based on the analyzed information, when the disease is found from the analyzed first image, the control mode , and when the disease is not found in the analyzed first image, control may be performed in the camera change mode.

본 발명의 일 실시예에 있어서, 상기 카메라 변경 모드일 경우, 상기 제1 카메라를 제2 카메라로 변경하고, 상기 제2 이미지를 촬영하도록 제어할 수 있다.In one embodiment of the present invention, in the case of the camera change mode, the first camera may be changed to a second camera, and control may be performed to capture the second image.

본 발명의 일 실시예에 있어서, 상기 분석된 정보에 기초하여 병해 발견 여부에 따라 방제 모드 및 카메라 변경 모드 중 하나로 제어하는 단계는, 상기 방제 모드일 경우에 상기 병해가 검출된 위치에 해당하는 확대 이미지를 촬영하는 단계, 살포 농약 종류를 선정하는 단계, 상기 병해가 발병된 위치를 판별하는 단계, 및 방제를 위해 상기 살포 농약 종류 및 상기 병해가 발병된 위치를 전송하는 단계를 포함할 수 있다.In one embodiment of the present invention, the step of controlling to one of the control mode and the camera change mode according to whether the disease is found based on the analyzed information is the expansion corresponding to the location where the disease is detected in the case of the control mode. It may include taking an image, selecting the type of pesticide to be sprayed, determining the location where the disease has occurred, and transmitting the type of pesticide to be sprayed and the location where the disease has occurred for control.

본 발명의 일 실시예에 있어서, 상기 엣지 컴퓨팅 및 중앙 인공지능 서버 중 적어도 하나에 기초하여 촬영된 상기 작물의 이미지를 분석하는 단계는, 상기 엣지 컴퓨팅을 통해 상기 작물의 이미지를 실시간으로 분석하고, 상기 엣지 컴퓨팅으로 분석이 불가능할 경우, 상기 작물의 이미지를 상기 중앙 인공지능 서버로 전송하여, 상기 중앙 인공지능 서버로 상기 작물의 이미지를 분석할 수 있다.In one embodiment of the present invention, the step of analyzing the image of the crop taken based on at least one of the edge computing and the central artificial intelligence server includes analyzing the image of the crop in real time through the edge computing, When the analysis is impossible by the edge computing, the image of the crop may be transmitted to the central artificial intelligence server, and the image of the crop may be analyzed by the central artificial intelligence server.

본 발명의 일 실시예에 따른 컴퓨터 프로그램은 프로세서와 결합되어, 상술한 방법들 중 어느 하나의 방법을 수행하도록 매체에 저장될 수 있다.A computer program according to an embodiment of the present invention may be combined with a processor and stored in a medium to perform any one of the methods described above.

본 발명의 일 실시예에 따른 병해진단 모니터링 시스템은 병해진단 모니터링 장치, 및 상기 병해진단 모니터링 장치의 병해 발견 여부 및 병해 종류에 따른 농약 정보를 관리하는 서버를 포함하고, 상기 병해진단 모니터링 장치는, 제1 카메라를 통해 작물의 제1 이미지를 촬영하는 제1 이미지 촬영부, 제2 카메라를 통해 상기 작물의 제2 이미지를 촬영하는 제2 이미지 촬영부, 엣지 컴퓨팅 및 중앙 인공지능 서버 중 적어도 하나에 기초하여 촬영된 상기 작물의 이미지를 분석하는 병해 검출부, 및 분석된 정보에 기초하여 병해 발견 여부에 따라 방제 모드 및 카메라 변경 모드 중 하나로 제어하는 제어부를 포함할 수 있다.A disease diagnosis monitoring system according to an embodiment of the present invention includes a disease diagnosis monitoring device and a server that manages pesticide information according to whether or not the disease is discovered by the disease diagnosis monitoring device and the type of disease, the disease diagnosis monitoring device comprising: At least one of a first image capturing unit capturing a first image of crops through a first camera, a second image capturing unit capturing a second image of crops through a second camera, edge computing, and a central artificial intelligence server It may include a disease detection unit for analyzing the image of the crop taken based on the image, and a control unit for controlling one of a control mode and a camera change mode according to whether or not a disease is found based on the analyzed information.

본 발명의 병해진단 모니터링 장치는 복수 개의 카메라를 이용하여 작물의 이미지를 분석하여 병해를 진단함으로써, 보다 정밀하고 정확하게 병해를 진단할 수 있다.The disease diagnosis monitoring device of the present invention diagnoses diseases by analyzing images of crops using a plurality of cameras, thereby diagnosing diseases more precisely and accurately.

도 1은 본 발명의 일 실시예에 따른 병해진단 모니터링 장치를 도시한 블록도이다.
도 2는 본 발명의 일 실시예에 따른 병해 검출부를 도시한 블록도이다.
도 3은 본 발명의 일 실시예에 따른 제어부를 도시한 블록도이다.
도 4는 본 발명의 다른 실시예에 따른 병해진단 모니터링 장치의 예시이다.
도 5는 본 발명의 또 다른 실시예에 따른 병해진단 모니터링 장치의 예시이다.
도 6은 본 발명의 일 실시예에 따른 병해진단 모니터링 장치의 예시이다.
도 7은 본 발명의 일 실시예에 따른 병해진단 모니터링 장치의 동작방법을 도시한 순서도이다.
도 8은 본 발명의 일 실시예에 따른 병해 검출부의 동작방법을 도시한 순서도이다.
도 9는 본 발명의 일 실시예에 따른 제어부의 동작방법을 도시한 순서도이다.
1 is a block diagram illustrating a disease diagnosis monitoring apparatus according to an embodiment of the present invention.
2 is a block diagram illustrating a disease detection unit according to an embodiment of the present invention.
3 is a block diagram showing a control unit according to an embodiment of the present invention.
4 is an example of a disease diagnosis monitoring device according to another embodiment of the present invention.
5 is an example of a disease diagnosis monitoring device according to another embodiment of the present invention.
6 is an example of a disease diagnosis monitoring device according to an embodiment of the present invention.
7 is a flowchart illustrating an operating method of a disease diagnosis monitoring apparatus according to an embodiment of the present invention.
8 is a flowchart illustrating an operating method of a disease detection unit according to an embodiment of the present invention.
9 is a flowchart illustrating an operating method of a control unit according to an embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 개시를 설명한다. 본 개시는 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들이 도면에 예시되고 관련된 상세한 설명이 기재되어 있다. 그러나, 이는 본 개시를 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 개시의 사상 및 기술 범위에 포함되는 모든 변경 및/또는 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용되었다.Hereinafter, the present disclosure will be described with reference to the accompanying drawings. Since the present disclosure can make various changes and have various embodiments, specific embodiments are illustrated in the drawings and related detailed descriptions are described. However, this is not intended to limit the present disclosure to specific embodiments, and should be understood to include all changes and/or equivalents or substitutes included in the spirit and scope of the present disclosure. In connection with the description of the drawings, like reference numerals have been used for like elements.

본 개시에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 개시를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.Terms used in the present disclosure are only used to describe specific embodiments, and are not intended to limit the present disclosure. Singular expressions include plural expressions unless the context clearly dictates otherwise.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 개시에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this disclosure belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and unless explicitly defined in the present disclosure, they should not be interpreted in an ideal or excessively formal meaning. don't

도 1은 본 발명의 일 실시예에 따른 병해진단 모니터링 장치를 도시한 블록도이다.1 is a block diagram illustrating a disease diagnosis monitoring apparatus according to an embodiment of the present invention.

도 1을 참조하면, 병해진단 모니터링 장치(10)는 제1 이미지 촬영부(100), 제2 이미지 촬영부(200), 병해 검출부(300), 및 제어부(400)를 포함할 수 있다.Referring to FIG. 1 , the disease diagnosis monitoring device 10 may include a first image capture unit 100 , a second image capture unit 200 , a disease detection unit 300 , and a control unit 400 .

제1 이미지 촬영부(100)는 제1 카메라를 통해 작물의 제1 이미지를 촬영할 수 있다. 이때, 제1 카메라는 RGB 카메라일 수 있다. RGB 카메라는 분석 시간이 빨라 제1 이미지를 빠르게 분석할 수 있다.The first image capturing unit 100 may capture a first image of crops through a first camera. In this case, the first camera may be an RGB camera. The RGB camera can quickly analyze the first image due to its fast analysis time.

제2 이미지 촬영부(200)는 제2 카메라를 통해 작물의 제2 이미지를 촬영할 수 있다. 이때, 제2 카메라는 스테레오 분광 카메라일 수 있다. 스테레오 분광 카메라는 RGB 카메라보다는 분석시간이 길지만, 좀 더 길게 분석함으로써 더 정확하게 분석할 수 있다. 또한, 스테레오 분광 카메라는 대상물의 위치 자세 정밀도를 높일 수 있다.The second image capturing unit 200 may capture a second image of crops through a second camera. In this case, the second camera may be a stereo spectroscopy camera. The analysis time of the stereo spectroscopy camera is longer than that of the RGB camera, but more accurate analysis can be achieved by longer analysis. In addition, the stereoscopic camera can increase the accuracy of the position and posture of the object.

제2 이미지 촬영부(200)는 제어부(400)가 카메라 변경모드로 셋팅되었을 때, 제2 카메라를 통해 작물의 제2 이미지를 촬영할 수 있다. 예를 들어, 제2 이미지 촬영부(200)는 제1 이미지에서 병해가 검출되지 않아, 제어부(400)가 카메라 변경모드로 제어하였을 경우, 제2 카메라를 통해 작물의 제2 이미지를 촬영하도록 할 수 있다.When the controller 400 is set to the camera change mode, the second image capturing unit 200 may capture a second image of the crop through the second camera. For example, the second image capture unit 200 may capture a second image of crops through a second camera when no disease is detected in the first image and the control unit 400 controls the camera change mode. can

다른 예로, 제1 및 제2 이미지 촬영부(200)는 각각 제1 및 제2 이미지를 촬영한 후, 제1 이미지 분석 결과에 따라 제2 이미지를 분석 여부를 결정할 수 있다. 제1 이미지 분석 결과 병해가 발견되었다면, 제2 이미지를 분석하지 않고, 제1 이미지 분석 결과 병해가 발견되지 않았다면 제2 이미지를 분석할 수 있다.As another example, after capturing the first and second images, the first and second image capture units 200 may determine whether to analyze the second image according to a result of analyzing the first image. If the disease is found as a result of analyzing the first image, the second image may not be analyzed, and if the disease is not found as a result of analyzing the first image, the second image may be analyzed.

병해 검출부(300)는 엣지 컴퓨팅 및 중앙 인공지능 서버 중 하나에 기초하여, 제1 및 제2 이미지 중 적어도 하나를 분석하여, 병해 검출 여부를 확인할 수 있다. 예를 들어, 병해 검출부(300)는 제1 이미지를 먼저 분석할 수 있다. 그 후, 제1 이미지 분석 결과를 제어부(400)로 전송할 수 있다.The disease detection unit 300 may analyze at least one of the first and second images based on one of the edge computing and the central artificial intelligence server to determine whether the disease is detected. For example, the disease detection unit 300 may first analyze the first image. After that, the first image analysis result may be transmitted to the controller 400 .

다른 예로, 병해 검출부(300)는 제1 및 제2 이미지를 동시에 분석할 수 있다. 그 후, 제1 및 제2 이미지의 분석 결과를 제어부(400)로 전송할 수 있다.As another example, the disease detection unit 300 may simultaneously analyze the first and second images. After that, analysis results of the first and second images may be transmitted to the controller 400 .

제어부(400)는 병해 검출 여부에 따라 방제 모드 및 카메라 변경모드 중 하나로 제어할 수 있다. 예를 들어, 제어부(400)는 제1 이미지로부터 병해가 발견되었을 경우, 방제 모드로 제어하고, 제1 이미지로부터 병해가 발견되지 않았을 경우, 카메라 변경모드로 제어할 수 있다. 카메라 변경모드에서 제어부(400)는 제1 카메라를 제2 카메라로 변경하고, 제2 이미지를 촬영하도록 제어할 수 있다.The control unit 400 may control one of a control mode and a camera change mode depending on whether or not a disease is detected. For example, the control unit 400 may perform control in a control mode when a disease is found in the first image, and control in a camera change mode when no disease is found in the first image. In the camera change mode, the controller 400 may change the first camera to a second camera and control to capture a second image.

도 2는 본 발명의 일 실시예에 따른 병해 검출부를 도시한 블록도이다.2 is a block diagram illustrating a disease detection unit according to an embodiment of the present invention.

도 2를 참조하면, 병해 검출부(300)는 엣지 컴퓨팅 기반 검출부(310) 및 중앙 인공지능 서버 기반 검출부(320)를 포함할 수 있다.Referring to FIG. 2 , the disease detection unit 300 may include an edge computing-based detection unit 310 and a central artificial intelligence server-based detection unit 320 .

엣지 컴퓨팅 기반 검출부(310)는 엣지 컴퓨팅을 통해 제1 및 제2 이미지 중 하나를 실시간으로 분석할 수 있다. 예를 들어, 엣지 컴퓨팅 기반 검출부(310)는 제1 이미지를 분석하여 병해 검출 여부를 확인할 수 있다. 다른 예로, 엣지 컴퓨팅 기반 검출부(310)는 제2 이미지 촬영부가 제2 이미지를 촬영했을 경우, 제2 이미지를 분석하여 병해 검출 여부를 확인할 수 있다.The edge computing-based detection unit 310 may analyze one of the first and second images in real time through edge computing. For example, the edge computing-based detection unit 310 may analyze the first image to determine whether a disease is detected. As another example, when the second image capturing unit captures the second image, the edge computing-based detection unit 310 may analyze the second image to determine whether the disease is detected.

엣지 컴퓨팅 기반 검출부(310)는 제1 알고리즘을 기반으로 작물의 제1 및 제2 이미지 중 적어도 하나를 분석할 수 있다. 이때, 제1 알고리즘은 텐서(tensor) 플로우일 수 있다.The edge computing-based detection unit 310 may analyze at least one of the first and second images of crops based on the first algorithm. In this case, the first algorithm may be a tensor flow.

중앙 인공지능 서버 기반 검출부(320)는 엣지 컴퓨팅으로 제1 및 제2 이미지의 분석이 불가능할 경우, 제1 및 제2 이미지 중 적어도 하나를 중앙 인공지능 서버로 전송할 수 있다. 중앙 인공지능 서버 기반 검출부(320)는 중앙 인공지능 서버에 기초하여 제1 및 제2 이미지를 분석하여 병해 검출 여부를 확인할 수 있다.The central artificial intelligence server-based detection unit 320 may transmit at least one of the first and second images to the central artificial intelligence server when it is impossible to analyze the first and second images by edge computing. The central artificial intelligence server-based detection unit 320 may analyze the first and second images based on the central artificial intelligence server to determine whether a disease is detected.

중앙 인공지능 서버 기반 검출부(320)는 제2 알고리즘을 기반으로 작물의 제1 및 제2 이미지 중 적어도 하나를 분석할 수 있다. 이때, 제2 알고리즘은 Faster rcnn 계열의 딥러닝일 수 있다.The central artificial intelligence server-based detection unit 320 may analyze at least one of the first and second images of crops based on the second algorithm. In this case, the second algorithm may be Faster rcnn series deep learning.

도 3은 본 발명의 일 실시예에 따른 제어부를 도시한 블록도이다.3 is a block diagram showing a control unit according to an embodiment of the present invention.

도 3을 참조하면, 제어부(400)는 정밀 모니터링 제어부(410), 살포 농약 종류 선정부(420), 위치 판별부(430), 방제 정보 전송부(440), 및 카메라 모드 변경부(450)를 포함할 수 있다.Referring to FIG. 3, the control unit 400 includes a precise monitoring control unit 410, a spray pesticide type selection unit 420, a location determination unit 430, a control information transmission unit 440, and a camera mode change unit 450. can include

정밀 모니터링 제어부(410), 살포 농약 종류 선정부(420), 위치 판별부(430), 및 방제 정보 전송부(440)는 방제 모드일 때 동작하는 것으로, 병해 검출부에서 병해가 검출되었을 때, 수행될 수 있다.The precision monitoring control unit 410, the spray pesticide type selection unit 420, the location determination unit 430, and the control information transmission unit 440 operate in the control mode, and when a disease is detected by the disease detection unit, they are performed. It can be.

정밀 모니터링 제어부(410)는 병해 검출부에서 병해가 검출되었을 경우, 해당 위치를 더 자세하게 볼 수 있도록 해당 위치를 확대하여 확대 이미지를 촬영하도록 제1 및 제2 이미지 촬영부를 제어할 수 있다.The precision monitoring controller 410 may control the first and second image capturing units to enlarge the corresponding location and capture an enlarged image so that the corresponding location can be seen in more detail when the disease detection unit detects the disease.

예를 들어, 제1 카메라를 통해 찍은 제1 이미지를 분석한 결과, 병해가 검출되었다면 정밀 모니터링 제어부(410)는 제1 카메라를 해당 작물로 가까이 이동시키거나, 제1 카메라를 이용하여 확대시킴으로써, 해당 위치에 대한 확대 이미지를 촬영하도록할 수 있다.For example, as a result of analyzing the first image taken through the first camera, if a disease is detected, the precision monitoring controller 410 moves the first camera closer to the corresponding crop or zooms in using the first camera, An enlarged image of the corresponding location may be captured.

다른 예로, 제1 이미지 분석결과 병해가 발견되지 않아, 제2 카메라를 통해 제2 이미지를 촬영하고, 제2 이미지를 분석한 결과, 병해가 검출되었다면, 정밀 모니터링 제어부(410)는 제2 카메라를 해당 작물로 가까이 이동시키거나, 제2 카메라를 이용하여 확대시킴으로써, 해당 위치에 대한 확대 이미지를 촬영하도록 할 수 있다.As another example, if the disease is not found as a result of analyzing the first image, a second image is captured through the second camera, and the disease is detected as a result of analyzing the second image, the precise monitoring controller 410 may select the second camera. It is possible to capture an enlarged image of the corresponding position by moving it close to the corresponding crop or by enlarging it using the second camera.

살포 농약 종류 선정부(420)는 병해 검출부에서 검출된 병해의 종류에 따른 살포 농약 종류를 선정할 수 있다.The spray pesticide type selection unit 420 may select the spray pesticide type according to the type of disease detected by the disease detection unit.

위치 판별부(430)는 병해가 발병된 위치 및 발병될 위치 중 적어도 하나를 판별할 수 있다. 위치 판별부(430)는 병해가 발병한 위치 정보를 지상으로부터 x, y, z축으로 표현하는 위치 정보 및 발병 예상 시간을 포함하는 4차원 위치 정보로 나타낼 수 있다. 예를 들어, 위치 판별부(430)는 반복적인 급격한 온도 변화에 의한 결로 발생, 수분 스트레스, 및 팁번 중 적어도 하나에 기초하여, 인공지능 서버에서 분석된 결과를 받아 위치별 발병 예상 시간 정보를 포함하여 전송이 가능하다. 위치 판별부(430)는 병해가 발병한 위치 정보를 GPS 정보를 이용하여 판별할 수 있다. 예를 들어, 병해 검출부에서 병해가 발견되었다고 판단하면, 위치 판별부(430)는 그 때의 병해진단 모니터링 장치의 GPS 위치를 수집할 수 있다. The location determining unit 430 may determine at least one of a disease occurrence location and an onset location. The location determining unit 430 may represent the location information of the onset of the disease as 4-dimensional location information including location information expressed in x, y, and z axes from the ground and an expected time of onset. For example, the location determination unit 430 receives the result analyzed by the artificial intelligence server based on at least one of dew condensation due to repetitive rapid temperature change, moisture stress, and tip burn, and includes information on the expected onset time for each location. so it can be transmitted. The location determining unit 430 may determine location information where the disease has occurred using GPS information. For example, if it is determined that a disease is found in the disease detection unit, the location determination unit 430 may collect the GPS location of the disease diagnosis monitoring device at that time.

방제 정보 전송부(440)는 살포 농약 종류 및 병해가 발병된 위치를 서버 및 방제 장치 중 적어도 하나에 전송할 수 있다.The control information transmission unit 440 may transmit the type of pesticide to be sprayed and the location where the disease has occurred to at least one of the server and the control device.

카메라 모드 변경부(450)는 병해 검출부의 병해 검출 여부에 기초하여, 카메라 모드를 변경할 수 있다. 예를 들어, 제1 이미지 촬영부가 제1 카메라를 이용하여 제1 이미지를 촬영하고, 병해 검출부에서 제1 이미지를 분석한 결과, 병해가 검출되지 않았다면, 카메라 모드 변경부(450)는 제1 카메라를 제2 카메라로 변경하도록 할 수 있다. 카메라 모드 변경부(450)에서 제1 카메라가 제2 카메라로 변경되면, 제2 이미지 촬영부가 작물의 제2 이미지를 촬영하여, 병해 검출부를 통해 병해 검출 여부를 확인할 수 있다.The camera mode change unit 450 may change the camera mode based on whether or not the disease detection unit detects a disease. For example, if the first image capturing unit captures the first image using the first camera and the disease detection unit analyzes the first image and no disease is detected, the camera mode changing unit 450 may change the first camera mode. may be changed to the second camera. When the first camera is changed to the second camera in the camera mode changing unit 450, the second image capture unit takes a second image of the crop, and it is possible to check whether the disease is detected through the disease detection unit.

본 발명의 일 실시예에 따른 카메라 모드 변경부(450)는 제1 내지 제4 카메라 모드를 포함할 수 있다. 예를 들어, 제1 카메라 모드는 제1 카메라를 이용하는 모드이고, 제2 카메라 모드는 제2 카메라를 이용하는 모드이고, 제3 카메라는 제3 카메라를 이용하는 모드이며, 제4 카메라는 제4 카메라를 이용하는 모드일 수 있다. 이때, 제1 카메라는 RGB 카메라이고, 제2 카메라는 스테레오 분광 카메라이고, 제3 카메라는 적외선 카메라이며, 제4 카메라는 형광 카메라일 수 있다.The camera mode changing unit 450 according to an embodiment of the present invention may include first to fourth camera modes. For example, the first camera mode is a mode using the first camera, the second camera mode is a mode using the second camera, the third camera is a mode using the third camera, and the fourth camera is a mode using the fourth camera. It may be a mode to use. In this case, the first camera may be an RGB camera, the second camera may be a stereo spectroscopy camera, the third camera may be an infrared camera, and the fourth camera may be a fluorescence camera.

카메라 모드 변경부(450)는 야간 모드로 동작해야 할 경우, 제4 카메라를 이용하는 제4 카메라 모드로 변경할 수 있다. 반면, 야간 모드로 동작할 필요가 없을 경우에 카메라 모드 변경부(450)는 제1 카메라 모드를 통해 병해 검출 여부에 따라, 제2 카메라 모드 및 제3 카메라 모드 중 적어도 하나로 변경할 수 있다.When the camera mode changer 450 needs to operate in the night mode, it can change to a fourth camera mode using a fourth camera. On the other hand, when there is no need to operate in the night mode, the camera mode changer 450 may change the camera mode to at least one of the second camera mode and the third camera mode according to whether or not a disease is detected through the first camera mode.

카메라 모드 변경부(450)는 카메라 모드를 변경한 후, 병해 검출부를 통해 병해의 검출 여부에 재확인할 수 있다.After changing the camera mode, the camera mode changing unit 450 may reconfirm whether or not a disease has been detected through the disease detection unit.

상술한 바와 같이, 본 발명의 일 실시예에 따른 병해진단 모니터링 장치는 온실 내의 작물의 이미지를 촬영하여 병해의 발견 유무에 따라 방제 모드 및 카메라 변경 모드 중 어느 하나를 수행할 수 있다.As described above, the disease diagnosis monitoring device according to an embodiment of the present invention may perform one of a control mode and a camera change mode according to whether a disease is found by taking an image of a crop in a greenhouse.

좀 더 자세하게, 병해진단 모니터링 장치는 제1 카메라를 통해 작물의 제1 이미지를 촬영할 수 있다. 병해진단 모니터링 장치는 제2 카메라를 통해 상기 작물의 제2 이미지를 촬영할 수 있다. 병해진단 모니터링 장치는 엣지 컴퓨팅 및 중앙 인공지능 서버 중 적어도 하나에 기초하여 촬영된 상기 작물의 상기 제1 및 제2 이미지 중 적어도 하나를 분석할 수 있다. 병해진단 모니터링 장치는 분석된 정보에 기초하여 병해 발견 여부에 따라 방제 모드 및 카메라 변경 모드 중 하나로 제어할 수 있다.In more detail, the disease diagnosis monitoring device may capture a first image of crops through a first camera. The disease diagnosis monitoring device may capture a second image of the crop through a second camera. The disease diagnosis monitoring device may analyze at least one of the first and second images of the crop based on at least one of edge computing and a central artificial intelligence server. The disease diagnosis monitoring device may control one of a control mode and a camera change mode depending on whether a disease is found based on the analyzed information.

이에 따라, 본 발명의 병해진단 모니터링 장치는 복수 개의 카메라를 이용하여 작물의 이미지를 분석하여 병해를 진단함으로써, 보다 정밀하고 정확하게 병해를 진단할 수 있다.Accordingly, the disease diagnosis monitoring device of the present invention can diagnose diseases more precisely and accurately by analyzing images of crops using a plurality of cameras and diagnosing diseases.

도 4는 본 발명의 다른 실시예에 따른 병해진단 모니터링 장치의 예시이다.4 is an example of a disease diagnosis monitoring device according to another embodiment of the present invention.

도 4를 참조하면, 병해진단 모니터링 장치(10_1)는 제1 이미지 촬영부(100), 제2 이미지 촬영부(200), 병해 검출부(300), 제어부(400), 및 정밀 모니터링부(500)를 포함할 수 있다.Referring to FIG. 4 , the disease diagnosis monitoring device 10_1 includes a first image capture unit 100, a second image capture unit 200, a disease detection unit 300, a control unit 400, and a precise monitoring unit 500. can include

제1 이미지 촬영부(100), 제2 이미지 촬영부(200), 병해 검출부(300), 및 제어부(400)는 도 1에 개시된 제1 이미지 촬영부(100), 제2 이미지 촬영부(200), 병해 검출부(300), 및 제어부(400)와 동일하거나 유사하므로 자세한 설명은 생략될 것이다The first image capture unit 100, the second image capture unit 200, the disease detection unit 300, and the control unit 400 are the first image capture unit 100 and the second image capture unit 200 shown in FIG. ), the disease detection unit 300, and the control unit 400 are the same or similar, so detailed descriptions will be omitted.

정밀 모니터링부(500)는 제어부(400)의 정밀 모니터링 제어부의 제어 신호에 기초하여, 병해진단 모니터링 장치(10_1)의 확대 암을 동작시켜, 확대 이미지를 촬영할 수 있다. 예를 들어, 정밀 모니터링부(500)는 제1 및 제2 이미지 중 적어도 하나의 이미지에서 병해가 검출되었을 경우, 병해가 검출된 부분을 확대한 확대 이미지를 촬영할 수 있다.The precise monitoring unit 500 may capture an enlarged image by operating the magnifying arm of the disease diagnosis monitoring apparatus 10_1 based on a control signal of the precise monitoring controller of the controller 400 . For example, when a disease is detected in at least one of the first and second images, the precise monitoring unit 500 may capture an enlarged image obtained by enlarging a portion where the disease is detected.

예를 들어, 정밀 모니터링부(500)는 정밀 모니터링 제어부가 확대 이미지를 촬영하라는 제어 신호를 전송할 경우, 병해진단 모니터링 장치(10_1)의 확대 암을 작물을 향하도록 할 수 있다.For example, the precise monitoring unit 500 may direct the enlarged arm of the disease diagnosis monitoring device 10_1 toward crops when the precise monitoring controller transmits a control signal to capture an enlarged image.

좀 더 자세하게, 제1 이미지를 분석한 결과에 기초하여, 확대 이미지 촬영 제어 신호를 전송받았다면, 정밀 모니터링부(500)는 제1 이미지 촬영부(100)에 대응하는 카메라가 장착된 확대 암을 동작시킬 수 있다. 반면, 제2 이미지를 분석한 결과에 기초하여, 확대 이미지 촬영 제어 신호를 전송 받았다면, 정밀 모니터링부(500)는 제2 이미지 촬영부(200)에 대응하는 카메라가 장착된 확대 암을 동작시킬 수 있다.In more detail, based on the result of analyzing the first image, if the control signal for capturing the enlarged image is transmitted, the precision monitoring unit 500 moves the magnification arm equipped with the camera corresponding to the first image capturing unit 100. can make it work. On the other hand, based on the result of analyzing the second image, if the enlarged image capture control signal is received, the precise monitoring unit 500 operates the magnification arm equipped with the camera corresponding to the second image capture unit 200. can

정밀 모니터링부(500)는 제어부의 제어 신호에 기초하여 제1 및 제2 이미지 촬영부를 통해 확대 이미지를 촬영할 수 있다. 정밀 모니터링부(500)는 촬영된 확대 이미지를 제어부(400)로 전송하여, 확대 이미지를 분석할 수 있다.The precise monitoring unit 500 may capture an enlarged image through the first and second image capture units based on a control signal from the controller. The precise monitoring unit 500 may transmit the photographed enlarged image to the controller 400 and analyze the enlarged image.

도 5는 본 발명의 또 다른 실시예에 따른 병해진단 모니터링 장치의 예시이다.5 is an example of a disease diagnosis monitoring device according to another embodiment of the present invention.

도 5를 참조하면, 병해진단 모니터링 장치(10_2)는 제1 이미지 촬영부(100), 제2 이미지 촬영부(200), 병해 검출부(300), 제어부(400), 및 색소 마킹부(600)를 포함할 수 있다.Referring to FIG. 5 , the disease diagnosis monitoring device 10_2 includes a first image capture unit 100, a second image capture unit 200, a disease detection unit 300, a control unit 400, and a dye marking unit 600. can include

제1 이미지 촬영부(100), 제2 이미지 촬영부(200), 병해 검출부(300), 및 제어부(400)는 도 1에 개시된 제1 이미지 촬영부(100), 제2 이미지 촬영부(200), 병해 검출부(300), 및 제어부(400)와 동일하거나 유사하므로 자세한 설명은 생략될 것이다.The first image capture unit 100, the second image capture unit 200, the disease detection unit 300, and the control unit 400 are the first image capture unit 100 and the second image capture unit 200 shown in FIG. ), the disease detection unit 300, and the control unit 400 are the same or similar, so detailed descriptions will be omitted.

색소 마킹부(600)는 병해가 검출된 위치에 색소로 표시하기 위한 색소를 저장할 수 있다. 색소 마킹부(600)는 저장된 색소를 이용하여 병해가 검출된 위치에 표시할 수 있다. 예를 들어, 색소 마킹부(600)는 제어부(400)가 병해가 검출된 부분을 확대하여 촬영하기 위해, 카메라가 해당 위치에 가까이 갔을 때 해당 위치에 색소로 마킹할 수 있다.The dye marking unit 600 may store a dye for displaying the disease at a location where the disease is detected. The dye marking unit 600 may mark the location where the disease is detected using the stored dye. For example, the dye marking unit 600 may mark a corresponding location with a dye when the camera moves close to the corresponding location so that the control unit 400 enlarges and captures the portion where the disease is detected.

색소 마킹부(600)는 색소로 병해의 발병 위치를 표시함으로써, 관리자가 육안으로 확인하기 쉽도록 할 수 있다. 좀 더 자세하게, 방제 로봇이 위치 정보만을 가지고 방제할 때보다, 물리적으로 발병 위치가 표시된 색소 마킹을 이용하여 보다 정확하게 위치 파악을 할 수 있다.The dye marking unit 600 can make it easy for a manager to visually check by marking the onset location of the disease with a dye. In more detail, compared to the case where the control robot controls only with location information, it is possible to more accurately locate the location using the physically marked color marking.

도 6은 본 발명의 일 실시예에 따른 병해진단 모니터링 장치의 예시이다.6 is an example of a disease diagnosis monitoring device according to an embodiment of the present invention.

도 6을 참조하면, 병해진단 모니터링 장치(10)는 로봇으로 구현될 수 있다. 예를 들어, 병해진단 모니터링 장치(10)는 로봇의 암의 끝에 카메라를 장착하여 작물의 이미지를 촬영할 수 있다.Referring to FIG. 6 , the disease diagnosis monitoring device 10 may be implemented as a robot. For example, the disease diagnosis monitoring device 10 may capture images of crops by mounting a camera at the end of a robot arm.

로봇으로 구현된 병해진단 모니터링 장치(10)는 온실 내를 자율주행하며, 장착된 카메라를 통해 작물의 이미지를 촬영할 수 있다.The disease diagnosis monitoring device 10 implemented as a robot can autonomously drive in a greenhouse and take images of crops through an installed camera.

병해진단 모니터링 장치(10)는 카메라를 통해 촬영한 작물의 이미지를 병해 검출부로 전송하여, 병해 검출 여부를 판단할 수 있다.The disease diagnosis monitoring device 10 may transmit an image of a crop photographed through a camera to a disease detection unit to determine whether the disease is detected.

병해진단 모니터링 장치(10)는 병해가 검출되었다면, 로봇의 암을 작물 쪽으로 뻗어, 확대 이미지를 촬영함과 동시에, 색소를 이용하여 색소로 병해의 발병 위치를 표시할 수 있다.If a disease is detected, the disease diagnosis monitoring device 10 may extend the arm of the robot toward the crop, take an enlarged image, and mark the location of the disease by using a colorant.

반면, 병해진단 모니터링 장치(10)는 병해가 검출되지 않았다면, 현재의 카메라 모드를 다른 카메라 모드로 변경하여, 작물의 이미지를 재촬영할 수 있다.On the other hand, if no disease is detected, the disease diagnosis monitoring device 10 may change the current camera mode to another camera mode and retake an image of the crop.

도 7은 본 발명의 일 실시예에 따른 병해진단 모니터링 장치의 동작방법을 도시한 순서도이다.7 is a flowchart illustrating an operating method of a disease diagnosis monitoring apparatus according to an embodiment of the present invention.

S100 단계에서, 제1 이미지 촬영부는 제1 카메라를 이용하여 작물의 제1 이미지를 촬영할 수 있다. 예를 들어, 제1 이미지 촬영부는 RGB 카메라를 이용하여 작물의 제1 이미지를 촬영할 수 있다.In step S100, the first image capturing unit may capture a first image of crops using a first camera. For example, the first image capture unit may capture a first image of crops using an RGB camera.

S200 단계에서, 제2 이미지 촬영부는 제2 카메라를 이용하여 작물의 제2 이미지를 촬영할 수 있다. 예를 들어, 제2 이미지 촬영부는 스테레오 분광 카메라를 이용하여 작물의 제2 이미지를 분석할 수 있다.In step S200, the second image capture unit may capture a second image of the crop using a second camera. For example, the second image capturing unit may analyze the second image of the crop using a stereo spectroscopic camera.

S300 단계에서, 병해 검출부는 엣지 컴퓨팅 및 중앙 인공지능 서버 중 적어도 하나에 기초하여, 촬영된 작물의 제1 및 제2 이미지 중 적어도 하나를 분석할 수 있다. 예를 들어, 병해 검출부는 엣지 컴퓨팅을 기반으로 제1 및 제2 이미지 중 적어도 하나를 분석할 수 있다. 그러나, 분석 결과가 도출이 되지 않거나 엣지 컴퓨팅 기반으로 분석이 불가능할 경우에 제1 및 제2 이미지를 중앙 인공지능 서버로 전송하여, 중앙 인공지능 서버에 기반하여 제1 및 제2 이미지 중 적어도 하나를 분석할 수 있다.In step S300, the disease detection unit may analyze at least one of the captured first and second images of crops based on at least one of edge computing and a central artificial intelligence server. For example, the disease detection unit may analyze at least one of the first and second images based on edge computing. However, when the analysis result is not derived or the analysis is impossible based on edge computing, the first and second images are transmitted to the central artificial intelligence server, and at least one of the first and second images is transmitted based on the central artificial intelligence server. can be analyzed.

S400 단계에서, 병해 발견 여부에 따라 방제 모드 및 카메라 변경 모드 중 하나로 제어할 수 있다. 예를 들어, 병해가 발견되었을 경우에는 방제 모드로 동작하여 병해의 발병 위치 및 농약 정보를 수집할 수 있다. 반면, 병해가 발견되지 않았을 경우에는 카메라 변경 모드로 동작하여 RGB 카메라를 스테레오 분광 카메라로 변경하거나, 스테레오 분광 카메라를 제3 카메라로 변경할 수 있다.In step S400, it may be controlled in one of a control mode and a camera change mode according to whether or not a disease is found. For example, when a disease is found, it operates in a control mode to collect information about the outbreak location of the disease and pesticides. On the other hand, when the disease is not found, the RGB camera may be changed to a stereo spectroscopy camera or the stereo spectroscopy camera may be changed to a third camera by operating in a camera change mode.

상술한 바와 같이, 본 발명의 일 실시예에 따른 병해진단 모니터링 장치는 제1 및 제2 카메라를 이용하여 작물의 제1 및 제2 이미지를 미리 획득하고, 제1 이미지를 먼저 분석하여 병해가 발견되지 않았을 경우 제2 이미지를 분석할 수 있다. As described above, the disease diagnosis monitoring device according to an embodiment of the present invention acquires first and second images of crops in advance using first and second cameras, and analyzes the first images to discover diseases. If not, the second image may be analyzed.

그러나 다른 실시예에 따른 병해진단 모니터링 장치는 제1 카메라를 이용하여 작물의 제1 이미지를 획득하여 분석하고, 병해가 발견되지 않았을 때, 제2 카메라를 이용하여 작물의 제2 이미지를 획득하여 분석할 수 도 있다.However, the disease diagnosis monitoring device according to another embodiment acquires and analyzes a first image of a crop using a first camera, and acquires and analyzes a second image of a crop using a second camera when no disease is found. You may.

도 8은 본 발명의 일 실시예에 따른 병해 검출부의 동작방법을 도시한 순서도이다.8 is a flowchart illustrating an operating method of a disease detection unit according to an embodiment of the present invention.

S210 단계에서, 병해 검출부는 엣지 컴퓨팅 사용이 가능한지에 대해 판단할 수 있다. 예를 들어, 엣지 컴퓨팅이 꺼져있거나 신호가 잡히지 않을 경우 병해 검출부는 엣지 컴퓨팅 사용이 불가하다고 판단할 수 있다. 엣지 컴퓨팅이 사용 가능할 경우, 병해 검출부는 S220 단계를 수행하고, 엣지 컴퓨팅이 사용 불가능할 경우, 병해 검출부는 S230 단계를 수행할 수 있다.In step S210, the disease detection unit may determine whether edge computing is available. For example, if edge computing is turned off or a signal is not received, the disease detection unit may determine that edge computing cannot be used. If edge computing is available, the disease detection unit may perform step S220, and if edge computing is not available, the disease detection unit may perform step S230.

S220 단계에서, 병해 검출부는 엣지 컴퓨팅을 통해 작물의 이미지를 실시간으로 분석할 수 있다. 예를 들어, 병해 검출부는 엣지 컴퓨팅에 기반하여 작물에 병해가 있는지 분석할 수 있다. 이때, 엣지 컴퓨팅은 제1 알고리즘을 이용할 수 있으며, 제1 알고리즘은 텐서 플로우일 수 있다.In step S220, the disease detection unit may analyze the crop image in real time through edge computing. For example, the disease detection unit may analyze whether crops have diseases based on edge computing. In this case, edge computing may use a first algorithm, and the first algorithm may be Tensor Flow.

S230 단계에서, 병해 검출부는 작물의 이미지를 중앙 인공지능 서버로 전송할 수 있다. 예를 들어, 병해 검출부는 엣지 컴퓨팅이 사용 불가능할 경우, 작물의 이미지를 중앙 인공지능 서버에 기반하여 분석하기 위해, 중앙 인공지능 서버로 전송할 수 있다.In step S230, the disease detection unit may transmit the crop image to the central artificial intelligence server. For example, when edge computing is unavailable, the disease detection unit may transmit images of crops to a central artificial intelligence server for analysis based on the central artificial intelligence server.

S240 단계에서, 병해 검출부는 중앙 인공지능 서버에 기반하여 작물의 이미지를 분석할 수 있다. 예를 들어, 병해 검출부는 중앙 인공지능 서버에 기반하여 작물에 병해가 있는지 분석할 수 있다. 이때, 중앙 인공지능 서버는 제2 알고리즘을 이용할 수 있으며, 제2 알고리즘은 Faster rcnn 계열의 딥러닝일 수 있다.In step S240, the disease detection unit may analyze crop images based on the central artificial intelligence server. For example, the disease detection unit can analyze crops for disease based on a central AI server. At this time, the central artificial intelligence server may use a second algorithm, and the second algorithm may be Faster rcnn series deep learning.

도 9는 4개의 카메라를 이용하는 제어부의 동작방법을 도시한 순서도의 예이다.9 is an example of a flowchart illustrating a method of operating a controller using four cameras.

도 9를 참조하면, 병해진단 모니터링 장치는 RGB 카메라, 스테레오 분광 카메라, 적외선 카메라, 및 형광 카메라를 이용할 수 있다.Referring to FIG. 9 , the disease diagnosis monitoring device may use an RGB camera, a stereo spectroscopy camera, an infrared camera, and a fluorescence camera.

S310 단계에서, 제어부는 야간 모드로 동작해야 하는지에 대해 판단할 수 있다. 예를 들어, 현재의 시간이 밤이거나, 조명이 다 꺼져있어 어두운 상태인지 판단하여 야간 모드로 동작해야 하는지 판단할 수 있다. 만약, 야간 모드로 동작해야 한다면, 제어부는 S320 단계를 수행하고, 야간 모드로 동작할 필요가 없다면, S330 단계를 수행할 수 있다. 다만, 형광 카메라를 사용하지 않을 경우, 본 단계는 생략될 수 있다.In step S310, the controller may determine whether to operate in the night mode. For example, it may be determined whether to operate in the night mode by determining whether the current time is at night or in a dark state because all lights are turned off. If it is necessary to operate in the night mode, the controller may perform step S320, and if it is not necessary to operate in the night mode, it may perform step S330. However, if a fluorescent camera is not used, this step can be omitted.

S320 단계에서, 제어부는 현재의 카메라를 형광 카메라로 변경할 수 있다. 예를 들어, 현재 카메라가 스테레오 분광 카메라라면, 제어부는 스테레오 분광 카메라를 야간에서도 작물의 병해를 발견할 수 있는 형광 카메라로 변경할 수 있다. 다만, S320 단계는 생략될 수도 있으며, S200 단계 이전에 수행되어, 형광 카메라에 대응하는 제4 이미지가 미리 촬영되어 있을 수 도 있다.In step S320, the controller may change the current camera to a fluorescent camera. For example, if the current camera is a stereo spectroscopy camera, the controller may change the stereo spectroscopy camera to a fluorescent camera capable of detecting crop diseases even at night. However, step S320 may be omitted, and may be performed before step S200, so that the fourth image corresponding to the fluorescent camera may be captured in advance.

S330 단계에서, 제어부는 작물의 이미지에서 병해가 발견되었는지 판단할 수 있다. 예를 들어, 제어부는 병해 검출부의 분석 결과에 기초하여, 분석된 작물의 이미지에서 병해가 발견되었는지를 판단할 수 있다. 병해가 발견되었다면, 방제 모드를 시행하기 위하여 S340 단계를 수행하고, 병해가 발견되지 않았다면 카메라 변경 모드를 시행하기 위하여 S380 단계를 수행할 수 있다.In step S330, the control unit may determine whether disease is found in the image of the crop. For example, the control unit may determine whether a disease is found in the analyzed crop image based on the analysis result of the disease detection unit. If the disease is found, step S340 may be performed to implement the control mode, and if no disease is found, step S380 may be performed to implement the camera change mode.

S340 단계에서, 제어부는 병해가 검출된 위치에 해당하는 확대 이미지를 촬영할 수 있다. 예를 들어, 제어부는 병해가 검출된 위치에 카메라를 가까이 하거나 카메라 상의 화면을 확대함으로써, 해당 위치의 확대 이미지를 촬영할 수 있다.In step S340, the controller may take an enlarged image corresponding to the location where the disease is detected. For example, the controller may capture an enlarged image of the location where the disease is detected by bringing the camera closer to the location or enlarging the screen on the camera.

S350 단계에서, 제어부는 확대 이미지에 기초하여 살포 농약 종류를 선정할 수 있다. 예를 들어, 제어부는 확대 이미지를 통해 병해의 종류를 획득하고, 해당 병해에 따른 살포 농약 종류를 선정할 수 있대. 이때, 병해에 따른 살포 농약 종류는 기저장되어 있을 수 있다.In step S350, the controller may select the type of pesticide to be sprayed based on the enlarged image. For example, the control unit may acquire the type of disease through an enlarged image and select the type of pesticide to be sprayed according to the disease. At this time, the types of pesticides to be sprayed according to the disease may be pre-stored.

S360 단계에서, 제어부는 병해가 발병된 위치를 판별할 수 있다. 예를 들어, 제어부는 확대 이미지에 기초하여, 병해가 발견된 위치를 3차원 위치 정보로 표현하고, 3차원 위치 정보에 발병 예상 시간을 더 포함하여, 병해의 발병 위치 정보를 4차원 정보로 나타낼 수 있다.In step S360, the control unit can determine the location where the disease has occurred. For example, the control unit expresses the location where the disease is found in 3D location information based on the enlarged image, and further includes the expected time of onset in the 3D location information to represent the location information of the disease outbreak as 4D information. can

S370 단계에서, 제어부는 살포 농약 종류와 병해가 발병된 위치를 전송할 수 있다.In step S370, the control unit may transmit the type of pesticide to be sprayed and the location where the disease has occurred.

S380 단계에서, 제어부는 RGB 카메라를 스테레오 분광 카메라로 변경할 수 있다. 다만 이 단계는 기본 카메라가 RGB 카메라일 경우에 대한 예시일 수 있다. 일 실시예에 있어서, S380 단계는 S200 단계 이전에 수행되어, 스테레오 분광 카메라에 대응하는 제2 이미지가 미리 촬영되어 있을 수 도 있다.In step S380, the controller may change the RGB camera to a stereo spectroscopy camera. However, this step may be an example for a case where the basic camera is an RGB camera. In one embodiment, step S380 may be performed before step S200, and the second image corresponding to the stereo spectroscopic camera may have been captured in advance.

S381 단계에서, 제어부는 작물의 이미지에서 병해가 발견되었는지를 판단할 수 있다. S381 단계는 S330 단계와 동일하거나 유사하므로 자세한 설명은 생략될 수 있다. 작물의 이미지에서 병해가 발견되었다면, 방제 모드를 수행하기 위하여, S340 단계를 수행할 수 있다. 반면, 작물의 이미지에서 병해가 발견되지 않았다면, 카메라 변경 모드를 수행하기 위하여, S390 단계를 수행할 수 있다.In step S381, the control unit may determine whether disease is found in the crop image. Since step S381 is the same as or similar to step S330, a detailed description thereof may be omitted. If the disease is found in the crop image, step S340 may be performed to perform the control mode. On the other hand, if no disease is found in the crop image, step S390 may be performed to perform the camera change mode.

S390 단계에서, 제어부는 스테레오 분광 카메라를 적외선 카메라로 변경할 수 있다. 다만, S390 단계는 생략될 수도 있으며, S200 단계 이전에 수행되어, 적외선 카메라에 대응하는 제3 이미지가 미리 촬영되어 있을 수 도 있다.In step S390, the controller may change the stereo spectroscopic camera to an infrared camera. However, step S390 may be omitted, and may be performed before step S200 so that the third image corresponding to the infrared camera may have been captured in advance.

S391 단계에서, 제어부는 작물의 이미지에서 병해가 발견되었는지를 판단할 수 있다. S391 단계는 S330 단계와 동일하거나 유사하므로 자세한 설명은 생략될 수 있다. 작물의 이미지에서 병해가 발견되었다면, 방제 모드를 수행하기 위하여, S340 단계를 수행할 수 있다.In step S391, the control unit may determine whether disease is found in the image of the crop. Since step S391 is the same as or similar to step S330, a detailed description thereof may be omitted. If the disease is found in the crop image, step S340 may be performed to perform the control mode.

본 발명의 일 실시예에 있어서, 병해진단 모니터링 시스템은 병해진단 모니터링 장치 및 서버를 포함할 수 있다.In one embodiment of the present invention, the disease diagnosis monitoring system may include a disease diagnosis monitoring device and a server.

병해진단 모니터링 장치는 도 1 내지 도 6에 개시된 병해진단 모니터링 장치와 동일하거나 유사하므로 자세한 설명은 생략될 것이다.Since the disease diagnosis monitoring device is the same as or similar to the disease diagnosis monitoring device disclosed in FIGS. 1 to 6 , a detailed description thereof will be omitted.

서버는 병해진단 모니터링 장치의 병해 발견 여부 및 병해 종류에 따른 농약 정보를 관리할 수 있다. 예를 들어, 서버는 병해 종류에 따른 농약 정보를 저장하고 있을 수 있다. 병해진단 모니터링 장치에서 점박이응애라는 병해가 발견되었다면, 서버는 점박이응애 발견 정보를 전송받을 수 있다. 서버는 전송받은 점박이응애 발견 정보에 기초하여, 점박이응애에 대응하는 농약 정보를 병해진단 모니터링 장치에 전송할 수 있다.The server may manage pesticide information according to whether or not the disease diagnosis monitoring device has discovered the disease and the type of disease. For example, the server may store pesticide information according to disease types. If a disease called spotted mite is found in the disease diagnosis monitoring device, the server may receive information about the spotted mite detection. The server may transmit pesticide information corresponding to the spotted mite to the disease diagnosis monitoring device based on the transmitted spotted mite discovery information.

일 실시예에 있어서, 병해진단 모니터링 시스템은 사용자 단말을 더 포함할 수 있다. 병해진단 모니터링 시스템이 사용자 단말을 더 포함할 경우, 서버는 사용자 단말과 병해진단 모니터링 장치가 서로 통신이 가능하도록 할 수 있다. 이때, 사용자 단말은 병해진단 모니터링 장치가 촬영한 작물의 이미지를 실시간으로 확인할 수 있다. In one embodiment, the disease diagnosis monitoring system may further include a user terminal. If the disease diagnosis monitoring system further includes a user terminal, the server may allow the user terminal and the disease diagnosis monitoring device to communicate with each other. At this time, the user terminal can check the crop image captured by the disease diagnosis monitoring device in real time.

예를 들어, 사용자 단말은 스마트폰(Smartphone), 스마트패드(Smart Pad), 태블릿 PC, 웨어러블 디바이스, PCS(Personal CommunicationSystem), GSM(Global System for Mobile communication), PDC(Personal Digital Cellular), PHS(PersonalHandyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000,CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(WirelessBroadband Internet) 단말기 같은 모든 종류의 무선 통신 장치, 데스크탑 컴퓨터, 및 스마트 TV와 같은 고정용 단말기일 수도 있다.For example, the user terminal includes a smartphone, a smart pad, a tablet PC, a wearable device, a personal communication system (PCS), a global system for mobile communication (GSM), a personal digital cellular (PDC), and a PHS ( Personal Handyphone System), PDA (Personal Digital Assistant), IMT (International Mobile Telecommunication)-2000, CDMA (Code Division Multiple Access)-2000, W-CDMA (W-Code Division Multiple Access), Wibro (WirelessBroadband Internet) terminals It may be a kind of wireless communication device, a desktop computer, and a stationary terminal such as a smart TV.

본 명세서와 도면에 개시된 실시 예들은 본 개시의 내용을 쉽게 설명하고, 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 개시의 범위를 한정하고자 하는 것은 아니다. 따라서 본 개시의 범위는 여기에 개시된 실시 예들 이외에도 본 개시의 기술적 사상을 바탕으로 도출되는 모든 변경 또는 변형된 형태가 본 개시의 범위에 포함되는 것으로 해석되어야 한다.The embodiments disclosed in this specification and drawings are only presented as specific examples to easily explain the content of the present disclosure and aid understanding, and are not intended to limit the scope of the present disclosure. Therefore, the scope of the present disclosure should be construed as including all changes or modified forms derived based on the technical spirit of the present disclosure in addition to the embodiments disclosed herein.

10, 10_1, 10_2 : 병해진단 모니터링 장치
100 : 제1 이미지 촬영부
200 : 제2 이미지 촬영부
300 : 병해 검출부
310 : 엣지 컴퓨팅 기반 검출부
320 : 중앙 인공지능 서버 기반 검출부
400 : 제어부
410 : 정밀 모니터링 제어부
420 : 살포 농약 종류 선정부
430 : 위치 판별부
440 : 방제 정보 전송부
450 : 카메라 모드 변경부
500 : 정밀 모니터링부
600 : 색소 마킹부
10, 10_1, 10_2: disease diagnosis monitoring device
100: first image capture unit
200: second image capturing unit
300: disease detection unit
310: edge computing based detection unit
320: central artificial intelligence server-based detection unit
400: control unit
410: precision monitoring control unit
420: spray pesticide type selection unit
430: location determination unit
440: control information transmission unit
450: camera mode change unit
500: precision monitoring unit
600: color marking unit

Claims (16)

제1 카메라를 통해 작물의 제1 이미지를 촬영하는 제1 이미지 촬영부;
제2 카메라를 통해 상기 작물의 제2 이미지를 촬영하는 제2 이미지 촬영부;
엣지 컴퓨팅 및 중앙 인공지능 서버 중 적어도 하나에 기초하여 촬영된 상기 작물의 상기 제1 및 제2 이미지 중 적어도 하나를 분석하여 병해를 검출하는 병해 검출부;
분석된 정보에 기초하여 병해 발견 여부에 따라 방제 모드 및 카메라 변경 모드 중 하나로 제어하는 제어부; 및
상기 병해가 검출된 위치에 색소로 표시하기 위한 색소를 저장하고 있는 색소 마킹부를 포함하고,
상기 병해 검출부는 상기 엣지 컴퓨팅이 사용이 가능한지 여부를 판단하되, 상기 엣지 컴퓨팅이 꺼져있거나 신호가 잡히지 않을 경우 사용이 불가능하다고 판단하고,
상기 엣지 컴퓨팅이 사용 가능할 경우, 상기 제1 및 제2 이미지를 상기 엣지 컴퓨팅에 기반하여 분석하고,
상기 엣지 컴퓨팅으로 사용이 불가능하거나 또는 상기 엣지 컴퓨팅으로 분석 결과가 도출되지 않는 경우, 상기 작물의 이미지를 상기 중앙 인공지능 서버로 전송하여, 상기 중앙 인공지능 서버에 기반하여 상기 제1 및 제2 이미지를 분석하고,
상기 엣지 컴퓨팅은 제1 알고리즘을 기반으로 상기 작물의 상기 제1 및 제2 이미지 중 적어도 하나를 분석하고,
상기 중앙 인공지능 서버는 딥러닝 기반의 제2 알고리즘을 기반으로 상기 작물의 상기 제1 및 제2 이미지 중 적어도 하나를 분석하고,
상기 색소 마킹부는 상기 색소를 이용하여 상기 병해가 검출된 위치를 색소 마킹하고,
상기 제어부는,
분석된 상기 제1 이미지로부터 병해가 발견되었을 경우, 상기 방제 모드로 제어하고,
분석된 상기 제1 이미지로부터 상기 병해가 발견되지 않았을 경우, 상기 카메라 변경 모드로 제어하고,
상기 제어부는,
상기 방제 모드일 경우에 상기 병해가 검출된 위치에 해당하는 확대 이미지를 촬영하도록 상기 제1 및 제2 이미지 촬영부를 제어하는 정밀 모니터링 제어부;
살포 농약 종류를 선정하는 살포 농약 종류 선정부;
상기 병해가 발병된 위치를 판별하는 위치 판별부; 및
방제를 위해 상기 살포 농약 종류 및 상기 병해가 발병된 위치를 전송하는 방제 정보 전송부를 포함하고,
상기 위치 판별부는 상기 병해가 발병한 위치 정보를 지상으로부터 x, y, z축으로 표현하는 3차원 위치 정보 및 발병 예상 시간을 포함하는 4차원 위치 정보로 나타내되, 반복적인 급격한 온도 변화에 의한 결로 발생, 수분 스트레스 및 팁번 중 적어도 하나에 기초하여 상기 발병 예상 시간을 위치 별로 상기 4차원 위치 정보에 포함시키는, 병해진단 모니터링 장치.
A first image capture unit for capturing a first image of crops through a first camera;
a second image capture unit for capturing a second image of the crop through a second camera;
a disease detection unit for detecting a disease by analyzing at least one of the first and second images of the crop taken based on at least one of edge computing and a central artificial intelligence server;
A controller for controlling one of a control mode and a camera change mode according to whether a disease is found based on the analyzed information; and
A dye marking unit for storing a dye for displaying the disease at a location where the disease is detected;
The disease detection unit determines whether the edge computing is usable, but determines that it is not usable when the edge computing is turned off or cannot receive a signal;
When the edge computing is available, analyzing the first and second images based on the edge computing;
When it is impossible to use the edge computing or an analysis result is not derived by the edge computing, the image of the crop is transmitted to the central artificial intelligence server, and the first and second images are based on the central artificial intelligence server. to analyze,
The edge computing analyzes at least one of the first and second images of the crop based on a first algorithm,
The central artificial intelligence server analyzes at least one of the first and second images of the crop based on a second algorithm based on deep learning,
The dye marking unit marks the location where the disease is detected using the dye,
The control unit,
When a disease is found from the analyzed first image, it is controlled in the control mode,
When the disease is not found in the analyzed first image, control to the camera change mode,
The control unit,
Precision monitoring control unit for controlling the first and second image capturing unit to take an enlarged image corresponding to the location where the disease is detected in case of the control mode;
a spray pesticide type selection unit that selects a spray pesticide type;
a location determination unit for determining a location where the disease has occurred; and
Including a control information transmission unit for transmitting the type of spray pesticide and the location where the disease occurred for control,
The location determination unit represents the location information of the outbreak of the disease as 3-dimensional location information representing the x, y, and z-axes from the ground and 4-dimensional location information including the expected time of onset, condensation due to repeated rapid temperature change An apparatus for diagnosing and monitoring diseases that includes the expected time of onset in the 4-dimensional location information for each location based on at least one of occurrence, moisture stress, and tip burn.
삭제delete 제1항에 있어서,
상기 카메라 변경 모드일 경우,
상기 제어부는 상기 제1 카메라를 상기 제2 카메라로 변경하고, 상기 제2 이미지를 촬영하도록 제어하는, 병해진단 모니터링 장치.
According to claim 1,
In case of the above camera change mode,
Wherein the control unit changes the first camera to the second camera and controls to capture the second image.
삭제delete 삭제delete 삭제delete 제1항에 있어서,
상기 제1 카메라는 RGB 카메라이고, 상기 제2 카메라는 스테레오 분광 카메라인, 병해진단 모니터링 장치.
According to claim 1,
Wherein the first camera is an RGB camera, and the second camera is a stereo spectroscopy camera.
제1항에 있어서,
상기 병해 검출부는,
상기 엣지 컴퓨팅을 통해 상기 작물의 이미지를 실시간으로 분석하는, 병해진단 모니터링 장치.
According to claim 1,
The disease detection unit,
A disease diagnosis monitoring device that analyzes the image of the crop in real time through the edge computing.
삭제delete 병해진단 모니터링 장치에 의해 수행되는 동작방법으로서,
제1 카메라를 통해 작물의 제1 이미지를 촬영하는 단계;
제2 카메라를 통해 상기 작물의 제2 이미지를 촬영하는 단계;
엣지 컴퓨팅 및 중앙 인공지능 서버 중 적어도 하나에 기초하여 촬영된 상기 작물의 상기 제1 및 제2 이미지 중 적어도 하나를 분석하여 병해를 검출하는 단계; 및
분석된 정보에 기초하여 병해 발견 여부에 따라 방제 모드 및 카메라 변경 모드 중 하나로 제어하는 단계를 포함하고,
상기 병해를 검출하는 단계는,
상기 엣지 컴퓨팅이 사용이 가능한지 여부를 판단하되, 상기 엣지 컴퓨팅이 꺼져있거나 신호가 잡히지 않을 경우 사용이 불가능하다고 판단하고,
상기 엣지 컴퓨팅이 사용 가능할 경우, 상기 제1 및 제2 이미지를 상기 엣지 컴퓨팅에 기반하여 분석하고,
상기 엣지 컴퓨팅으로 사용이 불가능하거나 또는 상기 엣지 컴퓨팅으로 분석 결과가 도출되지 않는 경우, 상기 작물의 이미지를 상기 중앙 인공지능 서버로 전송하여, 상기 중앙 인공지능 서버에 기반하여 상기 제1 및 제2 이미지를 분석하고,
상기 엣지 컴퓨팅은 제1 알고리즘을 기반으로 상기 작물의 상기 제1 및 제2 이미지 중 적어도 하나를 분석하고,
상기 중앙 인공지능 서버는 상기 제1 알고리즘과 다른 제2 알고리즘을 기반으로 상기 작물의 상기 제1 및 제2 이미지 중 적어도 하나를 분석하고,
상기 병해진단 모니터링 장치에 포함된 색소 마킹부는 상기 색소를 이용하여 상기 병해가 검출된 위치를 색소 마킹하고,
상기 병해진단 모니터링 장치에 포함된 제어부는,
분석된 상기 제1 이미지로부터 병해가 발견되었을 경우, 상기 방제 모드로 제어하고,
분석된 상기 제1 이미지로부터 상기 병해가 발견되지 않았을 경우, 상기 카메라 변경 모드로 제어하고,
상기 제어부는,
상기 방제 모드일 경우에 상기 병해가 검출된 위치에 해당하는 확대 이미지를 촬영하도록 상기 제1 및 제2 이미지 촬영부를 제어하는 정밀 모니터링 제어부, 살포 농약 종류를 선정하는 살포 농약 종류 선정부, 상기 병해가 발병된 위치를 판별하는 위치 판별부 및 방제를 위해 상기 살포 농약 종류 및 상기 병해가 발병된 위치를 전송하는 방제 정보 전송부를 포함하고,
상기 위치 판별부는 상기 병해가 발병한 위치 정보를 지상으로부터 x, y, z축으로 표현하는 3차원 위치 정보 및 발병 예상 시간을 포함하는 4차원 위치 정보로 나타내되, 반복적인 급격한 온도 변화에 의한 결로 발생, 수분 스트레스 및 팁번 중 적어도 하나에 기초하여 상기 발병 예상 시간을 위치 별로 상기 4차원 위치 정보에 포함시키는, 병해진단 모니터링 장치의 동작방법.
As an operating method performed by the disease diagnosis monitoring device,
Taking a first image of crops through a first camera;
photographing a second image of the crop through a second camera;
detecting a disease by analyzing at least one of the first and second images of the crop taken based on at least one of edge computing and a central artificial intelligence server; and
Based on the analyzed information, controlling to one of the control mode and the camera change mode depending on whether the disease is found,
The step of detecting the disease is,
Determining whether the edge computing is usable, but determining that it is not usable when the edge computing is turned off or does not receive a signal;
When the edge computing is available, analyzing the first and second images based on the edge computing;
When it is impossible to use the edge computing or an analysis result is not derived by the edge computing, the image of the crop is transmitted to the central artificial intelligence server, and the first and second images are based on the central artificial intelligence server. to analyze,
The edge computing analyzes at least one of the first and second images of the crop based on a first algorithm,
The central artificial intelligence server analyzes at least one of the first and second images of the crop based on a second algorithm different from the first algorithm,
The dye marking unit included in the disease diagnosis monitoring device marks the location where the disease is detected using the dye,
The control unit included in the disease diagnosis monitoring device,
When a disease is found from the analyzed first image, it is controlled in the control mode,
When the disease is not found in the analyzed first image, control to the camera change mode,
The control unit,
In the case of the control mode, a precise monitoring control unit for controlling the first and second image capturing units to take an enlarged image corresponding to the location where the disease is detected, a spraying pesticide type selection unit for selecting the type of pesticide to be sprayed, Including a control information transmission unit for transmitting the type of spray pesticide and the location where the disease has occurred for control and a location determination unit for determining the location where the disease occurs,
The location determination unit represents the location information of the outbreak of the disease as 3-dimensional location information representing the x, y, and z-axes from the ground and 4-dimensional location information including the expected time of onset, condensation due to repeated rapid temperature change A method of operating a disease diagnosis monitoring device, wherein the expected time of onset is included in the four-dimensional location information for each location based on at least one of occurrence, moisture stress, and tip burn.
삭제delete 제10항에 있어서,
상기 카메라 변경 모드일 경우, 상기 제1 카메라를 제2 카메라로 변경하고, 상기 제2 이미지를 촬영하도록 제어하는, 병해진단 모니터링 장치의 동작방법.
According to claim 10,
In the case of the camera change mode, the first camera is changed to a second camera and controlled to capture the second image.
삭제delete 제10항에 있어서,
상기 엣지 컴퓨팅 및 중앙 인공지능 서버 중 적어도 하나에 기초하여 촬영된 상기 작물의 이미지를 분석하는 단계는,
상기 엣지 컴퓨팅을 통해 상기 작물의 이미지를 실시간으로 분석하는, 병해진단 모니터링 장치의 동작방법.
According to claim 10,
Analyzing the image of the crop taken based on at least one of the edge computing and the central artificial intelligence server,
A method of operating a disease diagnosis monitoring device that analyzes the image of the crop in real time through the edge computing.
프로세서와 결합되어, 제10항, 제12항 및 제14항 중 어느 하나의 항의 방법을 수행하도록 매체에 저장된 컴퓨터 프로그램.A computer program stored in a medium combined with a processor to perform the method of any one of claims 10, 12 and 14. 병해진단 모니터링 장치; 및
상기 병해진단 모니터링 장치의 병해 발견 여부 및 병해 종류에 따른 농약 정보를 관리하는 서버를 포함하고,
상기 병해진단 모니터링 장치는,
제1 카메라를 통해 작물의 제1 이미지를 촬영하는 제1 이미지 촬영부;
제2 카메라를 통해 상기 작물의 제2 이미지를 촬영하는 제2 이미지 촬영부;
엣지 컴퓨팅 및 중앙 인공지능 서버 중 적어도 하나에 기초하여 촬영된 상기 작물의 이미지를 분석하여 병해를 검출하는 병해 검출부;
분석된 정보에 기초하여 병해 발견 여부에 따라 방제 모드 및 카메라 변경 모드 중 하나로 제어하는 제어부; 및
상기 병해가 검출된 위치에 색소로 표시하기 위한 색소를 저장하고 있는 색소 마킹부를 포함하고,
상기 병해 검출부는 상기 엣지 컴퓨팅이 사용이 가능한지 여부를 판단하되, 상기 엣지 컴퓨팅이 꺼져있거나 신호가 잡히지 않을 경우 사용이 불가능하다고 판단하고,
상기 엣지 컴퓨팅이 사용 가능할 경우, 상기 제1 및 제2 이미지를 상기 엣지 컴퓨팅에 기반하여 분석하고,
상기 엣지 컴퓨팅으로 사용이 불가능하거나 또는 상기 엣지 컴퓨팅으로 분석 결과가 도출되지 않는 경우, 상기 작물의 이미지를 상기 중앙 인공지능 서버로 전송하여, 상기 중앙 인공지능 서버에 기반하여 상기 제1 및 제2 이미지를 분석하고,
상기 엣지 컴퓨팅은 제1 알고리즘을 기반으로 상기 작물의 상기 제1 및 제2 이미지 중 적어도 하나를 분석하고,
상기 중앙 인공지능 서버는 상기 제1 알고리즘과 다른 제2 알고리즘을 기반으로 상기 작물의 상기 제1 및 제2 이미지 중 적어도 하나를 분석하고,
상기 색소 마킹부는 상기 색소를 이용하여 상기 병해가 검출된 위치를 색소 마킹하고,
상기 제어부는,
분석된 상기 제1 이미지로부터 병해가 발견되었을 경우, 상기 방제 모드로 제어하고,
분석된 상기 제1 이미지로부터 상기 병해가 발견되지 않았을 경우, 상기 카메라 변경 모드로 제어하고,
상기 제어부는,
상기 방제 모드일 경우에 상기 병해가 검출된 위치에 해당하는 확대 이미지를 촬영하도록 상기 제1 및 제2 이미지 촬영부를 제어하는 정밀 모니터링 제어부;
살포 농약 종류를 선정하는 살포 농약 종류 선정부;
상기 병해가 발병된 위치를 판별하는 위치 판별부; 및
방제를 위해 상기 살포 농약 종류 및 상기 병해가 발병된 위치를 전송하는 방제 정보 전송부를 포함하고,
상기 위치 판별부는 상기 병해가 발병한 위치 정보를 지상으로부터 x, y, z축으로 표현하는 3차원 위치 정보 및 발병 예상 시간을 포함하는 4차원 위치 정보로 나타내되, 반복적인 급격한 온도 변화에 의한 결로 발생, 수분 스트레스 및 팁번 중 적어도 하나에 기초하여 상기 발병 예상 시간을 위치 별로 상기 4차원 위치 정보에 포함시키는, 병해진단 모니터링 시스템.
disease diagnosis monitoring device; and
Including a server that manages pesticide information according to whether or not the disease diagnosis monitoring device has been found and the type of disease,
The disease diagnosis monitoring device,
A first image capture unit for capturing a first image of crops through a first camera;
a second image capture unit for capturing a second image of the crop through a second camera;
a disease detecting unit for detecting a disease by analyzing an image of the crop taken based on at least one of edge computing and a central artificial intelligence server;
A controller for controlling one of a control mode and a camera change mode according to whether a disease is found based on the analyzed information; and
A dye marking unit for storing a dye for displaying the disease at a location where the disease is detected;
The disease detection unit determines whether the edge computing is usable, but determines that it is not usable when the edge computing is turned off or cannot receive a signal;
When the edge computing is available, analyzing the first and second images based on the edge computing;
When it is impossible to use the edge computing or an analysis result is not derived by the edge computing, the image of the crop is transmitted to the central artificial intelligence server, and the first and second images are based on the central artificial intelligence server. to analyze,
The edge computing analyzes at least one of the first and second images of the crop based on a first algorithm,
The central artificial intelligence server analyzes at least one of the first and second images of the crop based on a second algorithm different from the first algorithm,
The dye marking unit marks the location where the disease is detected using the dye,
The control unit,
When a disease is found from the analyzed first image, it is controlled in the control mode,
When the disease is not found in the analyzed first image, control to the camera change mode,
The control unit,
Precision monitoring control unit for controlling the first and second image capturing unit to take an enlarged image corresponding to the location where the disease is detected in case of the control mode;
a spray pesticide type selection unit that selects a spray pesticide type;
a location determination unit for determining a location where the disease has occurred; and
Including a control information transmission unit for transmitting the type of spray pesticide and the location where the disease occurred for control,
The location determination unit represents the location information of the outbreak of the disease as 3-dimensional location information representing the x, y, and z-axes from the ground and 4-dimensional location information including the expected time of onset, condensation due to repeated rapid temperature change The system for diagnosing and monitoring disease, wherein the expected time of onset is included in the 4-dimensional location information for each location based on at least one of occurrence, moisture stress, and tip burn.
KR1020210172819A 2021-12-06 2021-12-06 Disease diagnosis monitering device that diagnoses diseases of crops through image analysis and operation method thereof KR102516100B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210172819A KR102516100B1 (en) 2021-12-06 2021-12-06 Disease diagnosis monitering device that diagnoses diseases of crops through image analysis and operation method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210172819A KR102516100B1 (en) 2021-12-06 2021-12-06 Disease diagnosis monitering device that diagnoses diseases of crops through image analysis and operation method thereof

Publications (1)

Publication Number Publication Date
KR102516100B1 true KR102516100B1 (en) 2023-03-31

Family

ID=86005580

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210172819A KR102516100B1 (en) 2021-12-06 2021-12-06 Disease diagnosis monitering device that diagnoses diseases of crops through image analysis and operation method thereof

Country Status (1)

Country Link
KR (1) KR102516100B1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018158822A1 (en) * 2017-02-28 2018-09-07 株式会社オプティム Abnormality detection system, method, and program
KR20190028100A (en) * 2017-09-08 2019-03-18 마니팜 주식회사 Fruits and vegetables producing method and fruits and vegetables procduced by the same method
KR20190123102A (en) * 2018-04-23 2019-10-31 홍익대학교 산학협력단 System and method for managing lawn using drone
KR20210096439A (en) * 2020-01-28 2021-08-05 목포대학교산학협력단 System and method for detecting pathogens and determining their likelihood of developing them using deep learning learning
KR102291259B1 (en) * 2020-02-28 2021-08-20 주식회사 그릿테크 Ai system based on edge-computing for reinforcing safe-management in industrial site
KR20210143627A (en) * 2020-05-20 2021-11-29 주식회사 유에프오에스트로넛 Vegetation prediction system using drone and vegetation prediction device and vegetation prediction method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018158822A1 (en) * 2017-02-28 2018-09-07 株式会社オプティム Abnormality detection system, method, and program
KR20190028100A (en) * 2017-09-08 2019-03-18 마니팜 주식회사 Fruits and vegetables producing method and fruits and vegetables procduced by the same method
KR20190123102A (en) * 2018-04-23 2019-10-31 홍익대학교 산학협력단 System and method for managing lawn using drone
KR20210096439A (en) * 2020-01-28 2021-08-05 목포대학교산학협력단 System and method for detecting pathogens and determining their likelihood of developing them using deep learning learning
KR102291259B1 (en) * 2020-02-28 2021-08-20 주식회사 그릿테크 Ai system based on edge-computing for reinforcing safe-management in industrial site
KR20210143627A (en) * 2020-05-20 2021-11-29 주식회사 유에프오에스트로넛 Vegetation prediction system using drone and vegetation prediction device and vegetation prediction method

Similar Documents

Publication Publication Date Title
US8417534B2 (en) Automated location-based information recall
CN112823229B (en) Diagnosis support system and method thereof
EP3593324B1 (en) Target detection and mapping
JP7415347B2 (en) Information processing equipment, information processing method, program, sensing system
KR20090002711A (en) System for predicting and managing pest using wireless sensor network
US20230024701A1 (en) Thermal imaging asset inspection systems and methods
KR20200077808A (en) Video-based monitoring apparatus and operation method
WO2021100430A1 (en) Information processing device, information processing method, and program
JP2021012433A (en) Information processing apparatus, information processing method, program, and sensing system
KR102516100B1 (en) Disease diagnosis monitering device that diagnoses diseases of crops through image analysis and operation method thereof
CN105004327A (en) Intelligent terminal-based vegetation leaf area index information automatic measurement system
WO2021125285A1 (en) Information processing device, computer program, and information processing method
CN117576664A (en) Obstacle area calculation method, device, equipment and storage medium
KR102114384B1 (en) Image-based crop growth data measuring mobile app. and device therefor
Jagyasi et al. Event based experiential computing in agro-advisory system for rural farmers
WO2021132276A1 (en) Agriculture support system
WO2019235240A1 (en) Information processing device
JP2016218626A (en) Image management apparatus, image management method, and program
CN111462252B (en) Method, device and system for calibrating camera device
KR102531781B1 (en) A device for measuring crop growth using deep learning segmentation recognition technology and operation method thereof
JP7365783B2 (en) Field information management system, control method for the field information management system, and control program for the field information management system
KR102622395B1 (en) Color calibration method and SYSTEM using federated learning method
KR20150116000A (en) Apparatus and method for skin diagnosis
KR101949515B1 (en) Remote monitoring system and operating method of thereof
AU2017279562A1 (en) System and method of grouping images

Legal Events

Date Code Title Description
AMND Amendment
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant