KR20220010374A - Growth analysis method based on smart edge device and apparatus and system therefor - Google Patents

Growth analysis method based on smart edge device and apparatus and system therefor Download PDF

Info

Publication number
KR20220010374A
KR20220010374A KR1020200089192A KR20200089192A KR20220010374A KR 20220010374 A KR20220010374 A KR 20220010374A KR 1020200089192 A KR1020200089192 A KR 1020200089192A KR 20200089192 A KR20200089192 A KR 20200089192A KR 20220010374 A KR20220010374 A KR 20220010374A
Authority
KR
South Korea
Prior art keywords
information
growth
image
analysis system
camera
Prior art date
Application number
KR1020200089192A
Other languages
Korean (ko)
Other versions
KR102504318B1 (en
Inventor
이관호
Original Assignee
주식회사 쎄슬프라이머스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 쎄슬프라이머스 filed Critical 주식회사 쎄슬프라이머스
Priority to KR1020200089192A priority Critical patent/KR102504318B1/en
Publication of KR20220010374A publication Critical patent/KR20220010374A/en
Application granted granted Critical
Publication of KR102504318B1 publication Critical patent/KR102504318B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/02Agriculture; Fishing; Forestry; Mining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/257Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30188Vegetation; Agriculture

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • Mining & Mineral Resources (AREA)
  • General Business, Economics & Management (AREA)
  • Marine Sciences & Fisheries (AREA)
  • Animal Husbandry (AREA)
  • Agronomy & Crop Science (AREA)
  • Marketing (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Primary Health Care (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • Geometry (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)

Abstract

The present invention relates to a smart edge device-based growth analysis method and a device and system therefor. According to an embodiment of the present invention, the smart edge device-based growth analysis method comprises the steps of: acquiring and receiving an image photographed through a provided camera; detecting and classifying an object from the acquired image; acquiring a pre-trained deep learning model to be used in accordance with a classification processing result from an external database; detecting an object to be analyzed through machine learning based on the acquired deep learning model; analyzing a maturity level of the detected object; and determining a crop harvest time on the basis of the analyzed maturity level. Therefore, an optimal harvest time and a cultivation method can be suggested.

Description

스마트 엣지 디바이스 기반의 생육 분석 방법 및 그를 위한 장치 및 시스템{Growth analysis method based on smart edge device and apparatus and system therefor}Growth analysis method based on smart edge device and apparatus and system therefor

본 발명은 작물 생육 모니터링 기술에 관한 것으로, 보다 상세하게는 3차원 뎁스(Depth) 카메라 및 초분광 카메라 등을 통해 수집된 이미지와 분광 데이터에 기반한 딥러닝을 통해 작물의 실시간 생육 상태 및 성숙도를 분석하는 인공 지능 알고리즘이 탑재된 스마트 엣지 디바이스 기반의 생육 분석 방법 및 그를 위한 장치 및 시스템을 제공하는 것이다.The present invention relates to crop growth monitoring technology, and more particularly, analyzes the real-time growth status and maturity of crops through deep learning based on images and spectral data collected through a three-dimensional depth camera and hyperspectral camera. To provide a growth analysis method based on a smart edge device equipped with an artificial intelligence algorithm and an apparatus and system for the same.

최근 클라우드 컴퓨팅이 활성화됨에 따라 수많은 다양한 데이터가 클라우드 컴퓨팅 환경에서 처리 및 분석되고 있다.As cloud computing is recently activated, a large number of various data are being processed and analyzed in the cloud computing environment.

클라우드 컴퓨팅은 인터넷을 통해 서버, 저장소, 소프트웨어 분석 등의 서비스를 제공하는 네트워크 환경이다. Cloud computing is a network environment that provides services such as server, storage, and software analysis through the Internet.

최근 클라우드 서비스를 이용하는 사람 및 기업이 기하 급수적으로 증가함에 따라 서버 및 데이터 센서에서 처리할 수 있는 한계 용량을 초과하는 상황이 빈번히 발생되고 있으며, 그에 따른 데이터 처리 지연 현상이 발생되고 있다. 또한, 클라우드 컴퓨팅을 위한 통신 과정에서 다양한 보안 문제도 발생되고 있다.Recently, as the number of people and companies using cloud services increases exponentially, a situation in which the limit capacity that can be processed by the server and data sensor is exceeded frequently occurs, resulting in data processing delay. In addition, various security problems are also occurring in the communication process for cloud computing.

클라우드 환경에서의 데이터 처리 속도, 용량 및 보안 이슈를 해결하기 위한 도입된 기술이 엣지 컴퓨팅 기술이다.Edge computing technology is an introduced technology to solve data processing speed, capacity, and security issues in the cloud environment.

엣지 컴퓨팅은 말단 기기가 센싱 데이터에 기초하여 컴퓨팅을 수행하는 것을 의미한다.Edge computing means that an end device performs computing based on sensed data.

클라우드 컴퓨팅은 데이터를 처리하는 곳이 데이터 센터 등에 집중되는 반면, 엣지 컴퓨팅은 일부 데이터 처리를 말단 기기에서 수행함으로써, 클라우드에서의 데이터 처리 부담을 경감시키고, 그에 따른 데이터 처리 지연을 미연에 방지할 수 있는 장점이 있다.In cloud computing, where data processing is concentrated in data centers, etc., edge computing reduces the data processing burden in the cloud by performing some data processing on end devices, and consequently data processing delay can be prevented in advance. there are advantages to

최근에는 농업 분야에서도 자동화 및 무인 재배 기술이 도입됨에 따라 엣지 컴퓨팅에 대한 연구가 활발히 진행되고 있다. Recently, as automation and unmanned cultivation technologies are introduced in the agricultural field, research on edge computing is being actively conducted.

본 발명의 목적은 스마트 엣지 디바이스 기반의 생육 분석 방법 및 그를 위한 장치 및 시스템을 제공하는 것이다.An object of the present invention is to provide a growth analysis method based on a smart edge device, and an apparatus and system therefor.

본 발명의 다른 목적은 3차원 뎁스(Depth) 카메라 및 초분광 카메라를 통해 수집된 이미지와 분광 데이터에 기반한 딥러닝을 통해 작물의 실시간 생육 상태 및 성숙도를 분석하는 인공 지능 알고리즘이 탑재된 스마트 엣지 디바이스 기반의 생육 분석 방법 및 그를 위한 장치 및 시스템을 제공하는 것이다.Another object of the present invention is a smart edge device equipped with an artificial intelligence algorithm to analyze the real-time growth status and maturity of crops through deep learning based on images and spectral data collected through a three-dimensional depth camera and a hyperspectral camera. It is to provide a growth analysis method based on it, and an apparatus and system therefor.

본 발명의 또 다른 목적은 인공지능 칩셋이 내장된 GPU 보드에 카메라를 장착하여 엣지 컴퓨팅을 수행하는 것이 가능한 스마트 엣지 디바이스 기반의 생육 분석 방법 및 그를 위한 장치 및 시스템을 제공하는 것이다.Another object of the present invention is to provide a smart edge device-based growth analysis method capable of performing edge computing by mounting a camera on a GPU board having an AI chipset embedded therein, and an apparatus and system therefor.

본 발명의 또 다른 목적은 딥러닝 프로세서를 탑재한 저전력, 고성능 이미지 프로세싱 임베디드 솔루션을 이용하여 실시간 객체 인식 및 분류 서비스를 제공함으로써, 클라우드 환경에서의 과도한 데이터 트래픽과 처리 지연을 미연에 방지하는 것이 가능한 스마트 엣지 디바이스 기반의 생육 분석 방법 및 그를 위한 장치 및 시스템을 제공하는 것이다.Another object of the present invention is to provide a real-time object recognition and classification service using a low-power, high-performance image processing embedded solution equipped with a deep learning processor, thereby preventing excessive data traffic and processing delay in a cloud environment in advance. It is to provide a smart edge device-based growth analysis method, and an apparatus and system therefor.

본 발명의 또 다른 목적은 네트워크 장애에도 내장된 인공 지능 칩셋을 통해 엣지 컴퓨팅을 수행함으로써, 실시간 의사 결정이 가능한 스마트 엣지 디바이스 기반의 생육 분석 방법 및 그를 위한 장치 및 시스템을 제공하는 것이다.Another object of the present invention is to provide a growth analysis method based on a smart edge device capable of real-time decision-making by performing edge computing through an artificial intelligence chipset built in even in a network failure, and an apparatus and system therefor.

본 발명의 또 다른 목적은 히트 싱크 없이 저전력으로 동작하는 소형의 저렴한 스마트 엣지 디바이스 기반의 생육 모니터링 장치를 제공하는 것이다.Another object of the present invention is to provide a growth monitoring apparatus based on a small and inexpensive smart edge device that operates with low power without a heat sink.

본 발명의 또 다른 목적은 현장에서 수집한 환경 데이터와 작물 생육 데이터에 기반하여 최적의 수확 시기 및 재배 방법을 제시하는 것이 가능한 스마트 엣지 디바이스 기반의 생육 모니터링 장치를 제공하는 것이다.Another object of the present invention is to provide a smart edge device-based growth monitoring apparatus capable of presenting an optimal harvest time and cultivation method based on environmental data and crop growth data collected in the field.

본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재들로부터 당업자에게 명확하게 이해될 수 있을 것이다.The technical problems of the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those skilled in the art from the following description.

본 발명의 일 실시 예에 따른 스마트 엣지 디바이스 기반의 생육 분석 방법은 구비된 카메라를 통해 촬영된 이미지를 획득 받는 단계와 상기 획득된 이미지로부터 물체를 탐지하여 분류 처리하는 단계와 상기 분류 처리 결과에 따라 사용할 사전 학습된 딥러닝 모델을 외부 데이터베이스로부터 획득하는 단계와 상기 획득된 딥러닝 모델에 기반한 기계 학습을 통해 분석 대상 객체를 탐지하는 단계와 상기 탐지된 객체의 성숙도를 분석하는 단계와 상기 분석된 성숙도에 기반하여 작물 수확 시기를 결정하는 단계를 포함할 수 있다.A smart edge device-based growth analysis method according to an embodiment of the present invention includes the steps of acquiring and receiving an image photographed through a provided camera, detecting and classifying an object from the acquired image, and according to the classification processing result Acquiring a pre-trained deep learning model to be used from an external database, detecting an analysis target object through machine learning based on the obtained deep learning model, analyzing the maturity of the detected object, and the analyzed maturity It may include determining a crop harvest time based on the.

실시 예로, 상기 방법은 상기 획득된 이미지에 대한 이미지 파일을 생성하는 단계와 상기 생성된 이미지 파일을 클라우드 서버로 전송하는 단계를 포함하고, 상기 이미지 파일은 상기 서버와 연동되는 데이터베이스에 저장될 수 있다.In an embodiment, the method may include generating an image file for the acquired image and transmitting the generated image file to a cloud server, wherein the image file may be stored in a database interworking with the server. .

실시 예로, 상기 카메라는 RGB 이미지 및 DEPTH 이미지 촬영이 가능한 3D DEPTH 카메라 및 RGN 이미지 촬영이 가능한 분광 카메라를 포함할 수 있다.In an embodiment, the camera may include a 3D DEPTH camera capable of capturing RGB images and DEPTH images, and a spectroscopic camera capable of capturing RGN images.

실시 예로, 상기 방법은 상기 탐지된 객체에 상응하는 당도 측정 정보를 획득하는 단계를 더 포함하고, 상기 당도 측정 정보에 더 기반하여 상기 성숙도가 분석될 수 있다.In an embodiment, the method may further include obtaining sugar content measurement information corresponding to the detected object, and the maturity level may be analyzed further based on the sugar content measurement information.

실시 예로, 상기 방법은 상기 3D DEPTH 카메라로부터 획득된 이미지 정보에 기반하여 상기 탐지된 객체에 상응하는 객체 정보를 획득하는 단계와 상기 분광 카메라로부터 획득된 이미지 정보에 기초하여 계산된 반사율에 기반하여 식생 지수 값을 산출하는 단계를 더 포함하고, 상기 객체 정보는 크기 정보, 형상 정보, 생장 정보 및 색도 정보 중 적어도 하나를 포함하고, 상기 객체 정보 및 상기 식생 지수 값에 더 기반하여 상기 작물의 수확 시기가 결정될 수 있다.In an embodiment, the method includes: obtaining object information corresponding to the detected object based on image information obtained from the 3D DEPTH camera; and vegetation based on a reflectance calculated based on the image information obtained from the spectroscopic camera The method further comprises calculating an index value, wherein the object information includes at least one of size information, shape information, growth information, and chromaticity information, and the harvest time of the crop is further based on the object information and the vegetation index value. can be determined.

실시 예로, 상기 반사율은 가시광선대의 적색 영역에 대한 반사율 Red와 근적외선대 반사율 NIR를 포함하고, 상기 식생 지수 값 NDVI는 하기 수식:In an embodiment, the reflectivity includes reflectance Red and reflectance NIR in the near-infrared band for the red region of the visible light band, and the vegetation index value NDVI is expressed by the following formula:

NDVI = (NIR-Red)/(NIR+Red)NDVI = (NIR-Red)/(NIR+Red)

에 의해 산출될 수 있다.can be calculated by

실시 예로, 상기 방법은 상기 탐지된 객체가 육묘인 경우, 작물의 생장 정보 및 위치 정보를 획득하는 단계와 상기 획득된 생장 정보 및 위치 정보에 기반하여 상기 육묘의 불량 여부를 결정하는 단계를 더 포함하고, 상기 생장 정보는 엽장, 엽폭 및 엽형지수 중 적어도 하나를 포함할 수 있다.In an embodiment, the method further comprises the steps of obtaining growth information and location information of a crop when the detected object is a seedling, and determining whether the seedling is defective based on the obtained growth information and location information And, the growth information may include at least one of a leaf length, a leaf width, and a leaf type index.

실시 예로, 상기 획득된 딥러닝 모델에 기반하여 분석 대상 객체를 탐지하는 단계는 상기 획득된 이미지의 전체 좌표를 복수의 그리드 셀로 나누는 단계와 하나의 상기 그리드 셀 당 2개의 경계 박스를 생성하고, 상기 경계 박스 내에 물체가 들어가 있을 확률인 신뢰도를 계산하는 단계와 상기 각 그리드 셀 내 이미지가 어떤 물체 안에 포함되어 있는지를 식별하기 위한 클래스를 분류하는 단계와 상기 계산된 신뢰도 및 상기 분류된 클래스에 기반하여 상기 분석 대상 객체를 감지하는 단계를 포함할 수 있다.In an embodiment, the detecting of the analysis target object based on the obtained deep learning model includes dividing the entire coordinates of the obtained image into a plurality of grid cells, generating two bounding boxes per one grid cell, and the Calculating the reliability, which is the probability that an object is in the bounding box, classifying a class for identifying which object the image in each grid cell is included in, and based on the calculated reliability and the classified class It may include detecting the analysis target object.

실시 예로, 상기 방법은 상기 외부 데이터베이스로부터 생육 프로파일을 획득하는 단계와 생육 측정 정보를 획득하는 단계와 생육 프로파일 및 생육 측정 정보의 상관 관계를 분석하는 단계와 상기 상관 관계 분석 결과에 기초하여 생육 모델의 설정 정보를 보완하는 단계와 상기 보완된 설정 정보를 상기 외부 데이터베이스에 저장하는 단계를 더 포함하고, 상기 설정 정보는 온도 정보, 습도 정보, 이산화탄소 농도정보 및 전기전도도 중 적어도 하나를 포함할 수 있다.In an embodiment, the method includes the steps of obtaining a growth profile from the external database, obtaining growth measurement information, analyzing a correlation between the growth profile and growth measurement information, and a growth model based on the correlation analysis result. The method may further include supplementing the setting information and storing the supplemented setting information in the external database, wherein the setting information may include at least one of temperature information, humidity information, carbon dioxide concentration information, and electrical conductivity.

본 발명의 다른 실시 예에 따른 생육 분석 시스템은 3D DEPTH 카메라 및 분광 카메라를 통해 촬영된 RGB 이미지, DEPTH 이미지 및 RGN 이미지를 제공하는 이미지 촬영 시스템과 상기 이미지 촬영 시스템으로부터 획득된 이미지에 기초하여 이미지 파일을 생성하고, 상기 획득된 이미지로부터 물체를 탐지하여 분류 처리하고, 상기 분류 처리 결과에 따라 사용할 사전 학습된 딥러닝 모델을 구비된 이더넷 통신 모듈을 통해 외부 데이터베이스로부터 획득하고, 상기 획득된 딥러닝 모델에 기반한 기계 학습을 통해 분석 대상 객체를 탐지하고, 상기 탐지된 객체에 상응하는 성숙도를 분석하는 이미지 분석 시스템과 상기 분석된 성숙도에 기반하여 작물 수확 시기를 결정하는 측정 정보 분석 시스템을 포함할 수 있다.The growth analysis system according to another embodiment of the present invention provides an image photographing system that provides RGB images, DEPTH images, and RGN images photographed through a 3D DEPTH camera and a spectroscopic camera, and an image file based on an image obtained from the image photographing system generates, classifies and detects objects from the acquired image, and acquires a pre-trained deep learning model to be used according to the classification processing result from an external database through an Ethernet communication module, and the acquired deep learning model may include an image analysis system that detects an object to be analyzed through machine learning based on , and analyzes a maturity level corresponding to the detected object, and a measurement information analysis system that determines a crop harvest time based on the analyzed maturity. .

실시 예로, 상기 이미지 촬영 시스템은 상기 생성된 이미지 파일을 상기 이더넷 통신 모듈을 통해 클라우드 환경에 위치한 서버로 전송하고, 상기 이미지 파일은 상기 서버와 연동되는 데이터베이스에 저장될 수 있다.In an embodiment, the image capturing system may transmit the generated image file to a server located in a cloud environment through the Ethernet communication module, and the image file may be stored in a database interworking with the server.

실시 예로, 상기 이미지 분석 시스템은 상기 3D DEPTH 카메라와의 통신을 위한 USB 통신 모듈과 상기 분광 카메라와의 통신을 위한 와이파이 통신 모듈을 포함할 수 있다.In an embodiment, the image analysis system may include a USB communication module for communication with the 3D DEPTH camera and a Wi-Fi communication module for communication with the spectroscopic camera.

실시 예로, 상기 탐지된 객체에 상응하는 당도를 측정하는 당도 측정 시스템을 더 포함하고, 상기 측정 정보 분석 시스템은 상기 측정된 당도에 더 기반하여 상기 성숙도를 분석할 수 있다.In an embodiment, the apparatus may further include a sugar content measurement system for measuring a sugar content corresponding to the detected object, and the measurement information analysis system may further analyze the maturity level based on the measured sugar content.

실시 예로, 상기 이미지 분석 시스템은 상기 3D DEPTH 카메라로부터 획득된 이미지에 기반하여 상기 탐지된 객체에 상응하는 객체 정보를 추출하는 객체 정보 추출부와 상기 분광 카메라로부터 획득된 이미지 정보에 기초하여 계산된 반사율에 기반하여 식생 지수 값을 산출하는 식생지수 산출부를 포함하고, 상기 객체 정보는 크기 정보, 형상 정보, 생장 정보 및 색도 정보 중 적어도 하나를 포함하고, 상기 객체 정보 및 상기 식생 지수 값에 더 기반하여 상기 작물의 수확 시기가 결정될 수 있다.In an embodiment, the image analysis system includes an object information extraction unit for extracting object information corresponding to the detected object based on the image obtained from the 3D DEPTH camera, and a reflectance calculated based on image information obtained from the spectroscopic camera and a vegetation index calculation unit for calculating a vegetation index value based on The harvest time of the crop may be determined.

실시 예로, 상기 반사율은 가시광선대의 적색 영역에 대한 반사율 Red와 근적외선대 반사율 NIR를 포함하고, 상기 식생 지수 값 NDVI는 하기 수식:In an embodiment, the reflectivity includes reflectance Red and reflectance NIR in the near-infrared band for the red region of the visible light band, and the vegetation index value NDVI is expressed by the following formula:

NDVI = (NIR-Red)/(NIR+Red)NDVI = (NIR-Red)/(NIR+Red)

에 의해 산출될 수 있다.can be calculated by

실시 예로, 상기 측정 정보 분석 시스템은 상기 탐지된 객체가 육묘인 경우, 작물의 생장 정보 및 위치 정보에 기반하여 해당 육묘의 불량 여부를 결정하는 불량 결정부를 더 포함하고, 상기 생장 정보는 엽장, 엽폭 및 엽형지수 중 적어도 하나를 포함할 수 있다. In an embodiment, when the detected object is a seedling, the measurement information analysis system further comprises a failure determining unit for determining whether the seedling is defective based on growth information and location information of the crop, wherein the growth information includes a leaf length and a leaf width. And it may include at least one of the leaf type index.

실시 예로, 상기 이미지 분석 시스템은 상기 획득된 이미지의 전체 좌표를 복수의 그리드 셀로 나누고, 하나의 상기 그리드 셀 당 2개의 경계 박스를 생성한 후 상기 경계 박스 내에 물체가 들어가 있을 확률인 신뢰도를 계산하고, 상기 각 그리드 셀 내 이미지가 어떤 물체 안에 포함되어 있는지를 식별하기 위한 클래스를 분류하고, 상기 계산된 신뢰도 및 상기 분류된 클래스에 기반하여 상기 분석 대상 객체를 감지하는 객체 감지부를 포함할 수 있다.In an embodiment, the image analysis system divides the overall coordinates of the obtained image into a plurality of grid cells, generates two bounding boxes per one grid cell, and calculates the reliability, which is the probability that an object is in the bounding box, and , an object detector for classifying a class for identifying which object the image in each grid cell is included in, and detecting the analysis target object based on the calculated reliability and the classified class.

실시 예로, 상기 측정 정보 분석 시스템은 생육 프로파일 및 생육 측정 정보의 상관 관계를 분석하여 생육 모델의 설정 정보를 보완하는 생육 모델 갱신부를 더 포함하고, 상기 설정 정보는 온도 정보, 습도 정보, 이산화탄소 농도정보 및 전기전도도 중 적어도 하나를 포함할 수 있다.In an embodiment, the measurement information analysis system further comprises a growth model updater that supplements setting information of the growth model by analyzing the correlation between the growth profile and the growth measurement information, wherein the setting information includes temperature information, humidity information, and carbon dioxide concentration information. and at least one of electrical conductivity.

본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problems to be achieved in the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those of ordinary skill in the art to which the present invention belongs from the description below. will be able

본 발명은 스마트 엣지 디바이스 기반의 생육 분석 방법 및 그를 위한 장치 및 시스템을 제공하는 장점이 있다.The present invention has the advantage of providing a smart edge device-based growth analysis method and an apparatus and system for the same.

또한, 본 발명은 3차원 뎁스(Depth) 카메라 및 초분광 카메라를 통해 수집된 이미지와 분광 데이터에 기반한 딥러닝을 통해 작물의 실시간 생육 상태 및 성숙도를 분석하는 인공 지능 알고리즘이 탑재된 스마트 엣지 디바이스 기반의 생육 분석 방법 및 그를 위한 장치 및 시스템을 제공하는 장점이 있다.In addition, the present invention is based on a smart edge device equipped with an artificial intelligence algorithm that analyzes the real-time growth status and maturity of crops through deep learning based on images and spectral data collected through a three-dimensional depth camera and a hyperspectral camera. There is an advantage of providing a growth analysis method and an apparatus and system therefor.

또한, 본 발명은 인공지능 칩셋이 내장된 GPU 보드에 카메라를 장착하여 엣지 컴퓨팅을 수행하는 것이 가능한 스마트 엣지 디바이스 기반의 생육 분석 방법 및 그를 위한 장치 및 시스템을 제공하는 장점이 있다.In addition, the present invention has the advantage of providing a smart edge device-based growth analysis method capable of performing edge computing by mounting a camera on a GPU board with an artificial intelligence chipset, and an apparatus and system therefor.

또한, 본 발명은 딥러닝 프로세서를 탑재한 저전력, 고성능 이미지 프로세싱 임베디드 솔루션을 이용하여 실시간 객체 인식 및 분류 서비스를 제공함으로써, 클라우드 환경에서의 과도한 데이터 트래픽과 처리 지연을 미연에 방지하는 것이 가능한 스마트 엣지 디바이스 기반의 생육 분석 방법 및 그를 위한 장치 및 시스템을 제공하는 장점이 있다.In addition, the present invention provides a real-time object recognition and classification service using a low-power, high-performance image processing embedded solution equipped with a deep learning processor, thereby preventing excessive data traffic and processing delay in a cloud environment in advance. There is an advantage of providing a device-based growth analysis method and an apparatus and system therefor.

또한, 본 발명은 네트워크 장애에도 내장된 인공 지능 칩셋을 통해 엣지 컴퓨팅을 수행함으로써, 실시간 의사 결정이 가능한 스마트 엣지 디바이스 기반의 생육 분석 방법 및 그를 위한 장치 및 시스템을 제공하는 장점이 있다.In addition, the present invention has the advantage of providing a smart edge device-based growth analysis method capable of real-time decision-making by performing edge computing through a built-in artificial intelligence chipset even in a network failure, and an apparatus and system for the same.

또한, 본 발명의 또 다른 목적은 히트 싱크 없이 저전력으로 동작하는 소형의 저렴한 스마트 엣지 디바이스 기반의 생육 모니터링 장치를 제공하는 장점이 있다.Another object of the present invention is to provide a growth monitoring apparatus based on a small and inexpensive smart edge device that operates with low power without a heat sink.

또한, 본 발명은 현장에서 수집한 환경 데이터와 작물 생육 데이터에 기반하여 최적의 수확 시기 및 재배 방법을 제시하는 것이 가능한 스마트 엣지 디바이스 기반의 생육 모니터링 장치를 제공하는 장점이 있다.In addition, the present invention has the advantage of providing a growth monitoring apparatus based on a smart edge device capable of presenting an optimal harvest time and cultivation method based on environmental data and crop growth data collected in the field.

이 외에, 본 문서를 통해 직접적 또는 간접적으로 파악되는 다양한 효과들이 제공될 수 있다.In addition, various effects directly or indirectly identified through this document may be provided.

도 1은 본 발명의 실시 예에 따른 생육 분석 시스템의 구조를 설명하기 위한 도면이다.
도 2는 본 발명의 실시 예에 따른 생육 분석 시스템에서의 이미지 촬영 및 저장 절차를 설명하기 위한 도면이다.
도 3은 본 발명의 실시 예에 따른 생육 분석 시스템에서의 생육 분석 절차를 설명하기 위한 도면이다.
도 4는 본 발명의 실시 예에 따른 생육 분석 시스템 세부 구조를 설명하기 위한 도면이다.
도 5는 본 발명의 실시 예에 따른 생육 분석 시스템의 사시도이다.
도 6은 본 발명의 실시 예에 따른 생육 분석 시스템의 분해도이다.
도 7은 상기 도 6의 브라켓의 구조를 보여주는 사시도이다.
도 8은 실시 예에 따른 딸기 성숙도 라벨링을 위한 YOLO 테스트 결과를 보여준다.
도 9는 본 발명의 실시 예에 따른 작물 이미지로부터 객체를 탐지하는 절차를 설명하기 위한 순서도이다.
도 10은 본 발명의 실시 예에 따른 생육 정보 등록 화면을 보여준다.
도 11은 본 발명의 실시 예에 따른 생육 정보 등록 화면 생성 절차를 설명하기 위한 도면이다.
1 is a view for explaining the structure of a growth analysis system according to an embodiment of the present invention.
2 is a view for explaining an image capturing and storage procedure in the growth analysis system according to an embodiment of the present invention.
3 is a view for explaining a growth analysis procedure in the growth analysis system according to an embodiment of the present invention.
4 is a view for explaining the detailed structure of the growth analysis system according to an embodiment of the present invention.
5 is a perspective view of a growth analysis system according to an embodiment of the present invention.
6 is an exploded view of a growth analysis system according to an embodiment of the present invention.
7 is a perspective view showing the structure of the bracket of FIG.
8 shows YOLO test results for strawberry maturity labeling according to an embodiment.
9 is a flowchart illustrating a procedure for detecting an object from a crop image according to an embodiment of the present invention.
10 shows a growth information registration screen according to an embodiment of the present invention.
11 is a view for explaining a procedure for generating a growth information registration screen according to an embodiment of the present invention.

이하, 본 발명의 일부 실시 예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명의 실시 예를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 실시 예에 대한 이해를 방해한다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, some embodiments of the present invention will be described in detail with reference to exemplary drawings. In adding reference numerals to the components of each drawing, it should be noted that the same components are given the same reference numerals as much as possible even though they are indicated on different drawings. In addition, in describing the embodiment of the present invention, if it is determined that a detailed description of a related known configuration or function interferes with the understanding of the embodiment of the present invention, the detailed description thereof will be omitted.

본 발명의 실시 예의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 또한, 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.In describing the components of the embodiment of the present invention, terms such as first, second, A, B, (a), (b), etc. may be used. These terms are only for distinguishing the elements from other elements, and the essence, order, or order of the elements are not limited by the terms. In addition, unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs. Terms such as those defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. does not

이하, 도 1 내지 도 6을 참조하여, 본 발명의 실시 예들을 구체적으로 설명하기로 한다. Hereinafter, embodiments of the present invention will be described in detail with reference to FIGS. 1 to 6 .

도 1은 본 발명의 실시 예에 따른 생육 분석 시스템의 구조를 설명하기 위한 도면이다.1 is a view for explaining the structure of a growth analysis system according to an embodiment of the present invention.

도 1을 참조하면, 생육 분석 시스템(100)은 크게 이미지 촬영 시스템(10), 이미지 분석 시스템(20) 및 측정 정보 분석 시스템(30)을 포함하여 구성될 수 있다.Referring to FIG. 1 , the growth analysis system 100 may largely include an image capturing system 10 , an image analysis system 20 , and a measurement information analysis system 30 .

생육 분석 시스템(100)은 클라우드(40) 환경에 접속할 수 있다.The growth analysis system 100 may access the cloud 40 environment.

이미지 분석 시스템(20)은 이미지 촬영 시스템(10)의 동작을 제어할 수 있다.The image analysis system 20 may control the operation of the image capturing system 10 .

클라우드(40)는 촬영 이미지 서버(41)와 분석 데이터베이스(42)를 포함하여 구성될 수 있다.The cloud 40 may include a photographed image server 41 and an analysis database 42 .

이미지 촬영 시스템(10)은 구비된 알지비(RGB) 카메라, 뎁스(Depth) 카메라, RGN(또는 NDVI) 카메라, 근적외선(Near Infrared, NIR) 카메라 및 열화상 적외선(Infrared, IR) 카메라 등을 통해 대상물의 이미지를 촬영하여 이미지 분석 시스템(20)에 제공할 수 있다. 여기서, RGB 카메라와 뎁스 카메라는 하나의 디바이스 통합 구성될 수 있다. 이하 설명의 편의를 위해 RGB 카메라와 뎁스 카메라가 통합된 카메라를 3D 뎁스 카메라로 명하여 설명하기로 한다.The image capturing system 10 is equipped with an RGB camera, a depth camera, an RGN (or NDVI) camera, a near infrared (NIR) camera, and a thermal imaging infrared (Infrared, IR) camera. An image of an object may be captured and provided to the image analysis system 20 . Here, the RGB camera and the depth camera may be integrated into one device. Hereinafter, for convenience of description, a camera in which an RGB camera and a depth camera are integrated will be referred to as a 3D depth camera.

근적외선(Near Infrared, NIR) 카메라는 분광 분석을 통해 과실의 당도(BRIX) 등을 판별하기 위한 용도로 사용될 수 있다.A near-infrared (NIR) camera can be used to determine the sugar content (BRIX) of a fruit through spectral analysis.

열화상 IR 카메라는 작물의 엽온을 측정하기 위한 용도로 사용될 수 있다.Thermal imaging IR cameras can be used to measure the leaf temperature of crops.

본 발명의 실시 예에 따른 생육 분석 시스템(100)은 그것의 사용 목적에 따라 상술한 카메라들 중 적어도 하나를 포함하여 구성될 수 있다.Growth analysis system 100 according to an embodiment of the present invention may be configured to include at least one of the above-described cameras according to the purpose of its use.

이하의 설명에서는 이미지 분석 시스템(20)이 RGB/Depth 카메라(또는 3D DEPTH 카메라)와 RGN 카메라(또는 분광 카메라)를 포함하는 것을 예를 들어 설명하기로 한다.In the following description, it will be described as an example that the image analysis system 20 includes an RGB/Depth camera (or 3D DEPTH camera) and an RGN camera (or a spectroscopic camera).

이미지 촬영 시스템(10)과 이미지 분석 시스템(20)은 유선 및(또는) 무선으로 연결될 수 있다. 일 예로, RGB/Depth 카메라는 USB를 통해 이미지 분석 시스템(20)과 연결되고, RGN 카메라는 와이파이(WIFI)로 연결될 수 있다.The image capturing system 10 and the image analysis system 20 may be connected by wire and/or wirelessly. For example, the RGB/Depth camera may be connected to the image analysis system 20 through USB, and the RGN camera may be connected to Wi-Fi.

이미지 촬영 시스템(10)에 의해 촬영된 이미지는 레드(Red), 그린(Green), 블루(Blue) 3원색을 혼합하여 표현되는 디지털 영상인 RGB 이미지, 거리를 측정할 수 있는 이미지인 뎁스 이미지 및 레드, 그린 및 근적외선(Near Infrared, NIR) 데이터를 촬영한 이미지인 RGN 이미지를 포함할 수 있다. 여기서, 촬영된 이미지는 이미지 분석 시스템(20)을 통해 촬영 이미지 서버(41)로 전송되어 분석 데이터베이스(42)에 등록될 수 있다. 이미지 분석 시스템(20)은 이더넷 통신을 통해 촬영 이미지 서버(41)와 연동될 수 있다.The image photographed by the image capturing system 10 is an RGB image, which is a digital image expressed by mixing three primary colors of red, green, and blue, a depth image that is an image capable of measuring a distance, and It may include an RGN image that is an image obtained by photographing red, green, and near infrared (NIR) data. Here, the photographed image may be transmitted to the photographed image server 41 through the image analysis system 20 and registered in the analysis database 42 . The image analysis system 20 may be linked with the photographing image server 41 through Ethernet communication.

이미지 분석 시스템(20)은 딥러닝(Deep learning)을 통해 이미지를 분류하고, 분류된 이미지에 기초하여 작물의 성숙도를 분석할 수 있다.The image analysis system 20 may classify images through deep learning, and analyze the maturity level of crops based on the classified images.

측정 정보 분석 시스템(30)은 생육 전문가에 의해 생성된 생육 프로파일과 생육 측정 정보를 비교 분석하여 최적화된 생육 모델을 생성할 수 있다.The measurement information analysis system 30 may generate an optimized growth model by comparing and analyzing the growth profile generated by the growth expert and the growth measurement information.

이미지 분석 시스템(20)은 RGN 카메라(또는 NIR 카메라 또는 분광 카메라)에 의해 촬영된 NIR 이미지(또는 데이터)를 이용하여 NDVI(normalized difference vegetation index)를 산출할 수 있다.The image analysis system 20 may calculate a normalized difference vegetation index (NDVI) using the NIR image (or data) taken by the RGN camera (or NIR camera or spectroscopic camera).

여기서, NDVI는 관찰 대상인 농작물-예를 들면, 녹색 식물-에 대한 가시광선(특히 적색 영역)대의 반사율과 근적외선대의 반사율을 분석하여 해당 작물의 건강 상태를 측정할 수 있는 식생 지수로서 일 예로, 하기의 수식에 따라 계산될 수 있다.Here, NDVI is a vegetation index that can measure the health status of the crop by analyzing the reflectance of the visible light (especially the red region) and the reflectance of the near-infrared band for the crop to be observed - for example, a green plant. It can be calculated according to the formula of

NDVI = (NIR - Red) / (NIR + Red)NDVI = (NIR - Red) / (NIR + Red)

여기서, NIR은 근적외선대의 반사율이고, Red는 적색 가시광선대의 반사율을 의미한다.Here, NIR is the reflectance of the near infrared band, and Red is the reflectance of the red visible light band.

이미지 분석 시스템(20)은 RGB 이미지에 기초하여 작물의 좌표, 성숙도, NDVI 분포도 등을 산출 및(또는) 생성할 수 있다.The image analysis system 20 may calculate and/or generate crop coordinates, maturity, NDVI distribution, and the like, based on the RGB image.

측정 정보 분석 시스템(30)은 생육 프로파일 값과 현재 환경 측정 값 사이의 상관 관계를 분석하여 기존 생육 모델을 최적화하기 위한 생육 모델 설정 정보를 산출할 수 있다.The measurement information analysis system 30 may calculate the growth model setting information for optimizing the existing growth model by analyzing the correlation between the growth profile value and the current environmental measurement value.

일 예로, 생육 모델 설정 정보는 온도 값, 습도 값, 이산화탄소 농도 값, 수소이온 농도지수(PH) 값, 전기전도도(Electrical Conductivity, EC) 값 등을 포함할 수 있다.For example, the growth model setting information may include a temperature value, a humidity value, a carbon dioxide concentration value, a hydrogen ion concentration index (PH) value, an electrical conductivity (EC) value, and the like.

측정 정보 분석 시스템(30)에 의해 분석된 정보는 분석 데이터베이스(42)에 저장될 수 있다.Information analyzed by the measurement information analysis system 30 may be stored in the analysis database 42 .

일 예로, 분석 데이터베이스(42)는 하기 표 1에 도시된 바와 같이, 생육 분석 정보, 생육 모델 시스템의 생육 조사 항목 정보, 품종 별 생육 조사 항목 정보, 생육 정보 헤더 정보, 생육 정보 상세 정보, 생육 모델 정보, 생육 프로파일 정보, 환경 정보 시스템의 센서 측정 정보 등을 테이블의 형태로 구성하여 유지할 수 있다.As an example, the analysis database 42 is, as shown in Table 1 below, growth analysis information, growth survey item information of the growth model system, growth survey item information for each variety, growth information header information, growth information detailed information, growth model Information, growth profile information, sensor measurement information of the environmental information system, etc. can be configured and maintained in the form of a table.

<테이블 명세서><table specification> Table IDTable ID Table명Table name CRUDCRUD 비고note GROWTHIMG_MASTERGROWTHIMG_MASTER 생육 분석 정보Growth analysis information RR GROWTH_MASTERGROWTH_MASTER 생육조사 항목정보Growth survey item information RR GROWTH_HEADGROWTH_HEAD 생육정보 헤더growth information header RR GROWTH_DATAGROWTH_DATA 생육정보 상세Growth information details RR GROWTH_PROFILEGROWTH_PROFILE 생육프로파일growth profile RR GROWTH_MODELGROWTH_MODEL 생육모델growth model RR

여기서, 생육 분석 정보는 이미지 정보, 성숙도 정보, NDVI 분석 정보를 포함할 수 있다.Here, the growth analysis information may include image information, maturity information, and NDVI analysis information.

생육 프로파일 정보의 시작일과 종료일 기준으로 생육 정보 헤더의 조사일자와 매칭되고, 생육 모델 정보의 시작일, 종료일, 시작시간, 종료시간 기준으로 센서 측정 정보의 측정일자, 측정시각이 매칭될 수 있다.Based on the start date and end date of the growth profile information, it is matched with the investigation date of the growth information header, and the measurement date and measurement time of the sensor measurement information may be matched based on the start date, end date, start time, and end time of the growth model information.

실시 예에 따른 생육 분석 시스템(100)은 이미지 촬영 시스템(10)에 구비된 카메라를 제어하기 위한 프로그램이 적재되어 실행될 있다. 여기서, 프로그램은 Ubuntu Linux 시스템상에서 구동될 수 있으나, 이에 한정되지는 않는다.In the growth analysis system 100 according to the embodiment, a program for controlling a camera provided in the image capturing system 10 may be loaded and executed. Here, the program may be run on the Ubuntu Linux system, but is not limited thereto.

도 2는 본 발명의 실시 예에 따른 생육 분석 시스템에서의 이미지 촬영 및 저장 절차를 설명하기 위한 도면이다.2 is a view for explaining an image capturing and storage procedure in the growth analysis system according to an embodiment of the present invention.

도 2를 참조하면, 생육 분석 시스템(100)은 RGB&DEPTH 카메라 촬영을 수행하여 RGB 이미지 파일 및 뎁스 이미지 파일을 생성한 후 내부 메모리에 저장할 수 있다(S201 및 S202).Referring to FIG. 2 , the growth analysis system 100 may generate an RGB image file and a depth image file by performing RGB&DEPTH camera shooting, and then store it in the internal memory ( S201 and S202 ).

생육 분석 시스템(100)은 RGN 카메라 촬영을 수행하여 RGN 이미지 파일을 생성한 후 내부 메모리에 저장할 수 있다(S203 및 S204).Growth analysis system 100 may generate an RGN image file by performing RGN camera shooting and then store it in the internal memory (S203 and S204).

생육 분석 시스템(100)은 생성된 RGB 이미지 파일, 뎁스 이미지 파일 및 RGN 이미지 파일을 내부 메모리로부터 독출하여 클라우드(40)의 촬영 이미지 서버(41)로 전송할 수 있다(S205 및 S206).The growth analysis system 100 may read the generated RGB image file, the depth image file, and the RGN image file from the internal memory and transmit it to the photographing image server 41 of the cloud 40 ( S205 and S206 ).

촬영 이미지 서버(41)로 전송된 이미지 파일들은 분석 데이터베이스(42)에 저장될 수 있다(S207).The image files transmitted to the photographed image server 41 may be stored in the analysis database 42 (S207).

상기 도 2의 실시 예에 있어서, 생육 분석 시스템(100)은 RGB&DEPTH 카메라와 RGN 카메라가 일정 주기-예를 들면, 1시간-로 촬영을 수행하도록 제어할 수 있다.In the embodiment of FIG. 2 , the growth analysis system 100 may control the RGB&DEPTH camera and the RGN camera to perform photographing at a predetermined period - for example, 1 hour.

일 예로, RGB 이미지, 뎁스 이미지 및 RGN 이미지 각각에 상응하는 파일명은 COLOR.jpg, DEPTH.jpg 및 NDVI.jpg로 저장될 수 있다.As an example, file names corresponding to each of the RGB image, the depth image, and the RGN image may be stored as COLOR.jpg, DEPTH.jpg, and NDVI.jpg.

생육 분석 시스템(100)은 생성된 이미지 파일을 Base64 포맷의 데이터로 변환하여 촬영 이미지 서버(41)로 전송할 수 있다.The growth analysis system 100 may convert the generated image file into Base64 format data and transmit it to the photographed image server 41 .

여기서, Base64는 비트 이진 데이터(예를 들어 실행 파일이나, 이미지 파일 등)를 문자 코드에 영향을 받지 않는 공통 ASCII 영역의 문자들로만 이루어진 일련의 문자열로 바꾸는 인코딩 방식을 의미한다.Here, Base64 refers to an encoding method that converts bit binary data (eg, an executable file, an image file, etc.) into a string consisting of only characters in the common ASCII region that is not affected by character codes.

촬영 이미지 서버(41)는 이미지 파일을 수신하면, 수신된 이미지 파일에 상응하는 사진명, 촬영년월일 및 촬영 시간을 파일명에 추가하여 저장할 수 있다.When the image file is received, the photographed image server 41 may add a photograph name, photographing year, month, and photographing time corresponding to the received image file to the file name and store it.

도 3은 본 발명의 실시 예에 따른 생육 분석 시스템에서의 생육 분석 절차를 설명하기 위한 도면이다.3 is a view for explaining a growth analysis procedure in the growth analysis system according to an embodiment of the present invention.

촬영 이미지 서버(41)는 미리 수집된 데이터셋에 대한 성숙도 딥러닝을 수행하여 성숙도 분석에 필요한 학습 모델을 생성한 후 학습 모델 파일을 분석 데이터베이스(42)에 저장할 수 있다(S301 내지 S303). 여기서, 학습 모델은 작물 타입 별로 생성될 수 있다.The photographed image server 41 may perform maturity deep learning on the previously collected dataset to generate a learning model required for maturity analysis, and then store the learning model file in the analysis database 42 (S301 to S303). Here, the learning model may be generated for each crop type.

생육 분석 시스템(100)은 기 생성된 이미지 파일을 내부 메모리로부터 독출하여 분류(Classification) 처리를 수행할 수 있다(S303 내지 S304). 일 예로, 생육 분석 시스템(100)은 해당 이미지 파일을 읽고 해당 이미지상에서 객체 부분을 분류 처리할 수 있다.The growth analysis system 100 may read a pre-generated image file from an internal memory and perform a classification process (S303 to S304). For example, the growth analysis system 100 may read a corresponding image file and classify an object part on the corresponding image.

생육 분석 시스템(100)은 분석 대상 작물에 상응하는 학습 모델을 분석 데이터베이스(42)로부터 획득할 수 있다(S305).Growth analysis system 100 may obtain a learning model corresponding to the analysis target crop from the analysis database 42 (S305).

생육 분석 시스템(100)은 획득된 학습 모델에 기초한 기계 학습을 수행하여 분류된 객체에 대한 성숙도 분석을 수행할 수 있다(S306). 여기서, 기계 학습 알고리즘은 YOLO(You Only Look One) 방식이 적용될 수 있으나, 이에 한정되지는 않는다. Growth analysis system 100 may perform maturity analysis on the classified object by performing machine learning based on the acquired learning model (S306). Here, the machine learning algorithm may be a You Only Look One (YOLO) method, but is not limited thereto.

YOLO는 실시간 객체 검출 알고리즘으로, 사람이 사진을 볼 때 순간적으로 물체의 위치와 종류를 파악하는 점에서 영감을 얻어 개발된 기계 학습 알고리즘이다.YOLO is a real-time object detection algorithm, a machine learning algorithm developed with inspiration from the point that a person instantly recognizes the location and type of an object when looking at a picture.

일 예로, 분석 대상 작물이 딸기인 경우, 이미지 학습에 필요한 딸기 이미지를 수집하고, YOLO 알고리즘을 사용한 기계 학습을 시키기 위해 YOLO 마크(Mark)에서 인식시키고자 하는 객체를 박스로 표시해 주는 작업이 수행될 수 있다. 이는 정확한 학습을 위한 전처리 과정에 해당되며, 박스로 표시하는 작업을 할 때, 하기 표 1에 도시된 바와 같이, 성숙 단계-즉, 성숙도-에 따라 각기 다른 라벨링으로 박스가 표시될 수 있다. For example, if the crop to be analyzed is a strawberry, a task of displaying the object to be recognized by the YOLO Mark as a box is performed to collect the strawberry image required for image learning and perform machine learning using the YOLO algorithm. can This corresponds to a preprocessing process for accurate learning, and when the boxed work is performed, as shown in Table 1 below, boxes may be displayed with different labeling according to the maturity stage - that is, maturity level.

생육 분석 시스템(100)은 성숙도 분석 정보를 촬영 이미지 서버(41)로 전송할 수 있다(S307). 여기서, 성숙도 분석 정보는 분류된 객체에 상응하는 좌표 정보, 크기 정보, 형상 정보, 색도 정보 및 성숙도 정보를 포함할 수 있다. The growth analysis system 100 may transmit maturity analysis information to the photographed image server 41 (S307). Here, the maturity analysis information may include coordinate information, size information, shape information, chromaticity information, and maturity information corresponding to the classified object.

촬영 이미지 서버(41)는 성숙도 분석 정보를 수신하여 분석 데이터베이스(42)에 저장할 수 있다(S308).The photographed image server 41 may receive the maturity analysis information and store it in the analysis database 42 (S308).

<딸기 성숙도 라벨링><Strawberry maturity labeling> 구분division 라벨label 설명Explanation 1단계Step 1 immatureimmature 아주 미성숙very immature 2단계Step 2 30_immature30_immature 30% 성숙30% mature 3단계Step 3 50_immature50_immature 50% 성숙50% maturity 4단계Step 4 60_immature60_immature 60% 성숙60% mature 5단계Step 5 80_immature80_immature 80% 성숙80% mature 6단계Step 6 maturemature 아주 성숙very mature

[표 2]를 참조하면, 1단계 성숙도인‘immature'는 하나도 익지 않은 상태의 딸기를 가리키며, 2단계 내지 5단계 성숙도에 상응하는 라벨인'30_immature', ‘50_immature', '60_immature', '80_immature'는 각각 30% 성숙한 상태의 딸기, 50% 성숙한 상태의 딸기, 60% 성숙한 상태의 딸기, 80% 성숙한 상태의 딸기를 가리킨다. 마지막으로, 6단계 성숙도인'mature'는 완전히 익은 상태의 딸기를 가리키며, 바로 수확이 가능한 딸기임을 알려준다.Referring to [Table 2], the 1st stage of maturity, 'immature', refers to the unripe strawberry, and the labels corresponding to the 2nd to 5th stages of maturity are '30_immature', '50_immature', '60_immature', '80_immature ' denotes strawberries at 30% maturity, strawberries at 50% maturity, strawberries at 60% maturity, and strawberries at 80% maturity, respectively. Finally, 'mature', which is the 6th stage of maturity, refers to strawberries that are fully ripe, indicating that they are ready-to-harvest strawberries.

본 발명에 따른 생육 분석 시스템은 작물 수확 자동화 플랫폼 구축 시 작물의 성숙도에 따라 수확 시기를 예측할 필요성이 대두됨에 따라 성숙도에 따라 사전 분류된 딸기 이미지에 대한 딥러닝을 통해 학습 모델을 생성하고, 실제 생육 환경에서 촬영된 이미지를 생성된 학습 모델에 적용함으로써, 성숙도에 따라 작물 이미지를 분류할 수 있는 장점이 있다.The growth analysis system according to the present invention generates a learning model through deep learning on strawberry images pre-classified according to maturity as the need to predict the harvest time according to the maturity of crops arises when building an automated crop harvesting platform, and actual growth By applying the image captured in the environment to the generated learning model, there is an advantage in that crop images can be classified according to maturity.

또한, 본 발명에 따른 생육 분석 시스템이 작물 자동 수확 로봇에 장착되는 경우, 성숙도에 따라 작물을 자동 분류하여 수확할 수 있는 장점이 있다.In addition, when the growth analysis system according to the present invention is mounted on an automatic crop harvesting robot, there is an advantage in that crops can be automatically classified and harvested according to maturity.

도 4는 본 발명의 실시 예에 따른 생육 분석 시스템 세부 구조를 설명하기 위한 도면이다.4 is a view for explaining the detailed structure of the growth analysis system according to an embodiment of the present invention.

도 4를 참조하면, 생육 분석 시스템(400)은 크게 이미지 촬영 시스템(410), 이미지 분석 시스템(420), 측정 정보 분석 시스템(450) 및 당도 측정 시스템(460)을 포함하여 구성될 수 있다.Referring to FIG. 4 , the growth analysis system 400 may largely include an image capturing system 410 , an image analysis system 420 , a measurement information analysis system 450 , and a sugar content measurement system 460 .

여기서, 이미지 분석 시스템(420)과 측정 정보 분석 시스템(450)은 하나의 딥러닝 프로세서 보드에 임베디드되어 구현될 수 있다.Here, the image analysis system 420 and the measurement information analysis system 450 may be implemented by being embedded in one deep learning processor board.

딥러닝 프로세서 보드는 메모리가 구비되어 이미지 파일이 저장될 수 있다. 여기서, 메모리는 착탈식 메모리-예를 들면, SD 카드-로 구현될 수 있다. The deep learning processor board is equipped with a memory so that an image file can be stored. Here, the memory may be implemented as a removable memory - for example, an SD card.

실시 예로, 딥러닝 프로세서 보드는 별도의 히트 싱크가 필요 없는 저전력으로 동작될 수 있으며, 그에 따라 소형화된 저렴한 생육 분석 시스템(400)을 제공될 수 있다.In an embodiment, the deep learning processor board may be operated with low power without the need for a separate heat sink, thereby providing a compact and inexpensive growth analysis system 400 .

이미지 촬영 시스템(410)은 3D DEPTH 카메라(411) 및 분광 카메라(RGN 카메라, 412)를 포함하여 구성될 수 있다.The image capturing system 410 may include a 3D DEPTH camera 411 and a spectroscopic camera (RGN camera, 412 ).

이미지 분석 시스템(420)은 통신부(430) 및 추출부(440)을 포함할 수 있다.The image analysis system 420 may include a communication unit 430 and an extraction unit 440 .

통신부(430)는 USB 통신 모듈(431), 와이파이 통신 모듈(432) 및 이더넷 통신 모듈(433)을 포함하여 구성될 수 있다.The communication unit 430 may be configured to include a USB communication module 431 , a Wi-Fi communication module 432 , and an Ethernet communication module 433 .

일 예로, 3D DEPTH 카메라(411)는 USB 통신 케이블을 통해 USB 통신 모듈(431)에 연결되어 이미지 분석 시스템(420)과 정보를 교환할 수 있다. For example, the 3D DEPTH camera 411 may be connected to the USB communication module 431 through a USB communication cable to exchange information with the image analysis system 420 .

3D DEPTH 카메라(411)는 RGB 센서와 적외선 프로젝터가 구비되어 RGB 영상과 뎁스 영상을 촬영할 수 있다. The 3D DEPTH camera 411 is equipped with an RGB sensor and an infrared projector to capture an RGB image and a depth image.

분광 카메라(412)는 와이파이 통신을 통해 와이파이 통신 모듈(432)에 연결되어 이미지 분석 시스템(420)과 정보를 교환할 수 있다. The spectroscopic camera 412 may be connected to the Wi-Fi communication module 432 through Wi-Fi communication to exchange information with the image analysis system 420 .

분광 카메라(412) 초분광 스캐너가 구비되어 RGN 영상을 촬영할 수 있다. 여기서, RGN 영상은 식생 지수 산출과 당도 분석에 활용될 수 있다.The spectral camera 412 is provided with a hyperspectral scanner to take an RGN image. Here, the RGN image can be used for calculating the vegetation index and analyzing the sugar content.

당도 측정 시스템(460)은 USB 통신 모듈(431) 또는 와이파이 통신 모듈(432)에 연결되어 이미지 분석 시스템(420)과 정보를 교환할 수 있다.The sugar content measurement system 460 may be connected to the USB communication module 431 or the Wi-Fi communication module 432 to exchange information with the image analysis system 420 .

추출부(440)는 이미지 생성부(441), 객체 감지부(442), 객체 정보 추출부(443), 식생지수(NDVI) 산출부(444), 당도 추출부(445) 및 데이터 전송부(446)을 포함하여 구성될 수 있다.The extraction unit 440 includes an image generation unit 441 , an object detection unit 442 , an object information extraction unit 443 , a vegetation index (NDVI) calculation unit 444 , a sugar content extraction unit 445 and a data transmission unit ( 446) may be included.

이미지 생성부(441)는 이미지 촬영 시스템(410)에 구비된 카메라들에 의해 촬영된 영상에 대한 이미지 파일을 생성할 수 있다. 여기서, 이미지 파일은 RGB 이미지 파일, 뎁스 이미지 파일 및 RGN 이미지 파일을 포함할 수 있다.The image generator 441 may generate an image file for an image captured by cameras included in the image capturing system 410 . Here, the image file may include an RGB image file, a depth image file, and an RGN image file.

객체 감지부(442)는 YOLO 알고리즘에 기초하여 이미지 파일에 포함된 객체를 식별할 수 있다.The object detector 442 may identify an object included in the image file based on the YOLO algorithm.

객체 정보 추출부(443)는 식별된 객체에 상응하는 크기 정보, 형상 정보, 성숙도 정보 등을 추출할 수 있다.The object information extraction unit 443 may extract size information, shape information, maturity information, and the like corresponding to the identified object.

식생지수 산출부(444)는 RGN 이미지에 기초하여 NDVI 값을 추출할 수 있다.The vegetation index calculator 444 may extract an NDVI value based on the RGN image.

당도 추출부(445)는 당도 측정 시스템(460)로부터 수신된 당도 센싱 정보에 기반하여 해당 작물의 당도를 추출할 수 있다. 당도 추출부(445)는 RGN 이미지에 더 기반하여 해당 작물의 당도를 추출할 수도 있다.The sugar content extraction unit 445 may extract the sugar content of the corresponding crop based on the sugar content sensing information received from the sugar content measurement system 460 . The sugar content extraction unit 445 may further extract the sugar content of the corresponding crop based on the RGN image.

데이터 전송부(446)는 생성된 이미지 파일 및 각종 추출 정보를 이더텟 통신 모듈(443)를 통해 클라우드의 해당 서버로 전송할 수 있다.The data transmission unit 446 may transmit the generated image file and various types of extraction information to the corresponding server in the cloud through the Ethernet communication module 443 .

측정 정보 분석 시스템(450)는 이미지 분석 시스템(420)의 분석에 따라 추출된 각종 정보들에 기반하여 해당 작물의 수확 시기를 결정하는 수확 시기 결정부(451), 해당 작물의 수확 방법을 결정하는 수확 방법 결정부(452), 육묘의 불량 여부를 판별하는 불량 결정부(453) 및 생육 모델 갱신부(454)를 포함할 수 있다.The measurement information analysis system 450 includes a harvest time determining unit 451 that determines a harvest time of a corresponding crop based on various pieces of information extracted according to the analysis of the image analysis system 420, and a method of determining a harvesting method of the corresponding crop. It may include a harvest method determination unit 452 , a failure determination unit 453 for determining whether or not the seedlings are defective, and a growth model update unit 454 .

일 예로, 수확 시기 결정부(451) 작물의 수확 시기를 랜덤 포레스트(Random Forest) 방식을 이용하여 결정할 수 있다. As an example, the harvest time determiner 451 may determine the harvest time of the crop using a random forest method.

일 예로, 불량 결정부(453)는 분류된 객체가 육묘인 경우, 작물의 엽장/엽폭/엽형지수 등의 생장 정보 및 위치 정보에 기반하여 해당 육묘의 불량 여부를 판단할 수 있다.For example, when the classified object is a seedling, the defective determining unit 453 may determine whether the seedling is defective based on growth information such as leaf length/leaf width/leaf type index of the crop and location information.

생육 모델 갱신부(454)는 이더넷 통신을 통해 외부 데이터베이스에 접속하여 생육 프로파일을 획득하고, 각종 센서로부터 생육 측정 정보를 획득할 수 있다. 여기서, 센서는 생육 분석 시스템(400)에 일체형으로 장착될 수 있으나, 이는 하나의 실시 예에 불과하며, 생육 분석 시스템(400)은 USB 케이블 또는 와이파이 통신 또는 이더넷 통신 중 어느 하나를 통해 외부 센서와 통신 연결되어 각종 센싱 정보를 획득할 수 있다.The growth model update unit 454 may obtain a growth profile by accessing an external database through Ethernet communication, and may acquire growth measurement information from various sensors. Here, the sensor may be integrally mounted to the growth analysis system 400, but this is only one embodiment, and the growth analysis system 400 communicates with an external sensor through any one of a USB cable or Wi-Fi communication or Ethernet communication. It is possible to acquire various types of sensing information through communication connection.

생육 모델 갱신부(454)는 생육 프로파일 및 생육 측정 정보의 상관 관계를 분석하여 생육 모델의 설정 정보를 최적 값으로 보완하고, 상기 보완된 설정 정보를 상기 외부 데이터베이스에 저장함으로써 생육 모델을 갱신할 수 있다.The growth model update unit 454 supplements the setting information of the growth model with an optimal value by analyzing the correlation between the growth profile and the growth measurement information, and updates the growth model by storing the supplemented setting information in the external database. have.

여기서, 상기 설정 정보는 온도 정보, 습도 정보, 이산화탄소 농도정보 및 전기전도도 중 적어도 하나를 포함할 수 있다.Here, the setting information may include at least one of temperature information, humidity information, carbon dioxide concentration information, and electrical conductivity.

도 5는 본 발명의 실시 예에 따른 생육 분석 시스템의 사시도이다.5 is a perspective view of a growth analysis system according to an embodiment of the present invention.

도 6은 본 발명의 실시 예에 따른 생육 분석 시스템의 분해도이다.6 is an exploded view of a growth analysis system according to an embodiment of the present invention.

도 6을 참조하면, 생육 분석 시스템(600)은 본체(610), 제어 보드(620), 제1 내지 제3 브라켓(631 내지 633), 3D DEPTH 카메라(640), 분광 카메라(650) 및 전면 커버(660)를 포함하여 구성될 수 있다. 여기서, 분광 카메라(650) 대신 RGN 카메라 또는 NIR 카메라가 적용될 수도 있다.Referring to FIG. 6 , the growth analysis system 600 includes a main body 610 , a control board 620 , first to third brackets 631 to 633 , a 3D DEPTH camera 640 , a spectroscopic camera 650 and a front surface. It may be configured to include a cover (660). Here, an RGN camera or an NIR camera may be applied instead of the spectroscopic camera 650 .

본체(610)의 후면에는 외부 전원 단자 및 이더넷 케이블을 연결 포트가 구비될 수 있다. An external power terminal and an Ethernet cable connection port may be provided on the rear surface of the main body 610 .

제어 보드(620)는 제1 브라켓(631)을 본체(610) 내부 일측에 체결될 수 있다.The control board 620 may be coupled to the first bracket 631 on one side inside the main body 610 .

3D DEPTH 카메라(640)와 분광 카메라(650)는 각각 제2 브라켓(632)과 제3 브라켓(633)을 통해 본체(611) 및/또는 전면 커버(660) 일측에 체결될 수 있다.The 3D DEPTH camera 640 and the spectroscopic camera 650 may be coupled to one side of the main body 611 and/or the front cover 660 through the second bracket 632 and the third bracket 633, respectively.

전면 커버(660)는 분광 카메라(650)의 렌즈를 외부로 노출하기 위한 제1 개구부(661)과 3D DEPTH 카메라(640)의 렌즈 및 센서를 외부로 노출하기 위한 제2 개구부(662)를 포함하여 구성될 수 있다.The front cover 660 includes a first opening 661 for exposing the lens of the spectroscopic camera 650 to the outside and a second opening 662 for exposing the lens and sensor of the 3D DEPTH camera 640 to the outside. can be configured.

본체(610)에는 벤트(611)가 형성되어 내부 열이 외부로 배출될 수 있다.A vent 611 is formed in the body 610 so that internal heat may be discharged to the outside.

도 7은 상기 도 6의 브라켓의 구조를 보여주는 사시도이다.7 is a perspective view showing the structure of the bracket of FIG.

도 8은 실시 예에 따른 딸기 성숙도 라벨링을 위한 YOLO 테스트 결과를 보여준다. 8 shows YOLO test results for strawberry maturity labeling according to an embodiment.

도 8에 도시된 바와 같이, 객체 박스를 통해 각각의 딸기가 식별되고, 식별된 딸기에 상응하는 라벨이 해당 객체 박스의 일측에 표시될 수 있다. 이때, 딸기의 성숙도 레벨에 따라 서로 상이한 색의 라벨이 표시될 수 있다.8 , each strawberry is identified through the object box, and a label corresponding to the identified strawberry may be displayed on one side of the object box. In this case, labels of different colors may be displayed according to the maturity level of the strawberry.

도 9는 본 발명의 실시 예에 따른 작물 이미지로부터 객체를 탐지하는 절차를 설명하기 위한 순서도이다. 9 is a flowchart illustrating a procedure for detecting an object from a crop image according to an embodiment of the present invention.

상세하게 도 8은 딸기 이미지로부터 객체를 탐지하는 절차를 설명하기 이미지 분석 흐름도이다.In detail, FIG. 8 is an image analysis flowchart illustrating a procedure for detecting an object from a strawberry image.

도 9는 본 발명의 실시 예에 따른 작물 이미지로부터 객체를 탐지하는 절차를 설명하기 위한 순서도이다. 9 is a flowchart illustrating a procedure for detecting an object from a crop image according to an embodiment of the present invention.

상세하게 도 8은 생육 분석 시스템이 YOLO 알고리즘이 탑재된 신경망 네트워크를 통해 입력 이미지로부터 객체를 탐지하는 절차를 설명하기 이미지 분석 흐름도이다.In detail, FIG. 8 is an image analysis flowchart illustrating a procedure in which the growth analysis system detects an object from an input image through a neural network in which the YOLO algorithm is mounted.

생육 분석 시스템은 입력 이미지의 전체 좌표를 S x S의 그리드(Grid) 셀들로 나눌 수 있다(S910).The growth analysis system may divide the entire coordinates of the input image into S x S grid cells (S910).

생육 분석 시스템은 하나의 그리드 셀 당 두 개의 경계 박스(Bounding Box)를 생성하고, 경계 박스 내에 물체가 들어가 있을 확률-즉, 신뢰도(Confidence)-를 계산할 수 있다(S920).The growth analysis system may generate two bounding boxes per one grid cell, and calculate the probability that an object is in the bounding box—that is, confidence— ( S920 ).

여기서, 신뢰도가 높을 수록 해당 경계 박스의 테두리 두께는 굵게 표시될 수 있다.Here, the higher the reliability, the thicker the border of the corresponding bounding box may be displayed.

생육 분석 시스템은 각 그리드 셀 내 이미지가 어떤 물체 안에 포함되어 있는지를 식별하기 위해 클래스를 분류할 수 있다(S930). 여기서, 분류된 클래스에 따라 상이한 색으로 그리드 셀이 표시될 수 있다.The growth analysis system may classify a class in order to identify which object the image in each grid cell is included in (S930). Here, the grid cells may be displayed in different colors according to the classified class.

생육 분석 시스템은 상기 계산된 신뢰도 및 상기 분류된 클래스에 기반하여 객체를 감지할 수 있다(S940).The growth analysis system may detect an object based on the calculated reliability and the classified class (S940).

동일 클래스 내 신뢰도가 기준치 이하인 경우-즉, 0에 가까운 경우- 해당 경계 박스는 배경으로 인식되어 모두 제거될 수 있다.When the reliability within the same class is less than or equal to the reference value - that is, when it is close to 0 - the corresponding bounding box is recognized as a background and all can be removed.

각 경계 박스에 대해서 하나의 벡터가 출력된다. 각 벡터는 클래스 개수만큼의 요소를 가지고 있으며, 각 요소는 해당 클래스의 분류 점수를 나타낸다. 상기한 방법에 따라 생육 분석 시스템은 불필요한 경계 박스를 지운 후, 남은 경계 박스들의 벡터 값에 기반하여 내부의 물체를 분류하여 객체를 감지할 수 있다.One vector is output for each bounding box. Each vector has as many elements as the number of classes, and each element represents the classification score of the corresponding class. According to the method described above, the growth analysis system may detect an object by classifying an internal object based on vector values of the remaining bounding boxes after deleting unnecessary bounding boxes.

실시 예로, 생육 분석 시스템은 제거 후 남은 경계 박스들에 대해 비최대값 억제(Non-maximal suppression) 알고리즘을 이용해 객체를 탐지할 수 있다.In an embodiment, the growth analysis system may detect an object using a non-maximal suppression algorithm for boundary boxes remaining after removal.

도 10은 본 발명의 실시 예에 따른 생육 정보 등록 화면을 보여준다.10 shows a growth information registration screen according to an embodiment of the present invention.

실시 예로, 생육 정보 등록 화면은 생육 분석 시스템에 의해 생성되어 사용자 단말 등에 제공될 수 있으나, 이는 하나의 실시 예에 불과하며 다른 실시 예는 클라우드에 위치한 촬영 이미지 서버에 의해 생성되어 사용자 단말에 제공될 수 있다.In an embodiment, the growth information registration screen may be generated by a growth analysis system and provided to a user terminal, etc., but this is only one embodiment, and another embodiment is to be generated by a photographed image server located in the cloud and provided to the user terminal can

도 10을 참조하면, 생육 정보 등록 화면은 생육 모델 시스템에서 측정한 정보와 생육 프로파일 정보가 비교되어 표시되고 현재 환경 상태와 생육 모델 정보가 비교되어 표시될 수 있다.Referring to FIG. 10 , the growth information registration screen may be displayed by comparing information measured by the growth model system and growth profile information, and comparing and displaying current environmental conditions and growth model information.

ⓐ 이미지 촬영시스템에서 촬영된 RGB 이미지, DEPTH 이미지, RGN 이미지ⓐ RGB image, DEPTH image, RGN image captured by the image recording system

ⓑ 생육 모델 시스템에 측정한 생장 길이, 줄기 굵기, 화방 높이와 생육 프로파일의 대응되는 값들ⓑ Corresponding values of growth length, stem thickness, flower bed height and growth profile measured in the growth model system

ⓒ 환경 모니터링 시스템에서 측정된 센서 값과 생육 모델 시스템의 생육 모델 값ⓒ Sensor values measured in the environmental monitoring system and growth model values in the growth model system

ⓓ 생육 분석 시스템에서 분석된 성숙도ⓓ Maturity Analyzed in Growth Analysis System

ⓔ 생육 분석 시스템에서 분석된 식생지수(NDVI 값)ⓔ Vegetation index (NDVI value) analyzed in the growth analysis system

생육 정보 등록 화면 창이 오픈될 때 가장 최근 촬영된 이미지와 촬영 일자가 화면 일측에 표시될 수 있다.When the growth information registration screen window is opened, the most recently photographed image and the photographing date may be displayed on one side of the screen.

또한, 사용자에 의해 특정 사진이 선택되면, 선택된 사진에 대응하는 촬영 일자, 성숙도 및 식생 지수가 화면 일측에 표시될 수 있다.In addition, when a specific photo is selected by the user, the shooting date, maturity and vegetation index corresponding to the selected photo may be displayed on one side of the screen.

또한, 사용자 선택된 사진의 촬영일자와 가장 가까운 일자의 측정일자의 측정정보가 화면의 일측에 표시될 수 있다.In addition, measurement information of the measurement date of the closest date to the photographing date of the user-selected picture may be displayed on one side of the screen.

도 11은 본 발명의 실시 예에 따른 생육 정보 등록 화면 생성 절차를 설명하기 위한 도면이다.11 is a view for explaining a procedure for generating a growth information registration screen according to an embodiment of the present invention.

도 11에 도시된 바와 같이, 생육 분석 시스템은 이미지 파일과 이미지 정보를 생성하고, 환경 모니터링 시스템은 최신 환경 정보를 생성하고, 생육 모델 시스템은 생육 프로파일, 생육 모델, 생육 헤더 및 생육 정보 상세를 생성할 수 있다.11 , the growth analysis system generates image files and image information, the environmental monitoring system generates the latest environmental information, and the growth model system generates growth profiles, growth models, growth headers and growth information details. can do.

일 예로, 생육 분석 시스템, 환경 모니터링 시스템 및 생육 모델 시스템에 의해 생성된 정보들은 클라우드(40)의 촬영 이미지 서버(41)로 전송되어 분석 데이터베이스(42)에 저장될 수 있다. For example, information generated by the growth analysis system, the environmental monitoring system, and the growth model system may be transmitted to the photographed image server 41 of the cloud 40 and stored in the analysis database 42 .

도 11을 참조하면, 촬영 이미지 서버(41)는 사용자의 조회 요청에 따라 분석 데이터베이스(42)로부터 조회하여 적어도 하나의 이미지 및 그에 상응하는 이미지 정보를 표시할 수 있다.Referring to FIG. 11 , the photographed image server 41 may display at least one image and image information corresponding thereto by inquiring from the analysis database 42 according to a user's inquiry request.

표시된 이미지 중 어느 하나가 사용자에 의해 선택된 경우, 촬영 이미지 서버(41)는 분석 데이터베이스(42)로부터 현재 측정 정보(이미지 정보)와 프로파일 정보를 조회하여 비교 표시할 수 있다. 여기서, 프로파일 정보는 생육 프로파일 정보 뿐만 아니라 생육 정보 헤더 정보와 생육 정보 상세 정보를 포함할 수 있다.When any one of the displayed images is selected by the user, the photographed image server 41 may query and compare current measurement information (image information) and profile information from the analysis database 42 . Here, the profile information may include not only growth profile information but also growth information header information and detailed growth information information.

촬영 이미지 서버(41)는 분석 데이터베이스(42)로부터 생육 모델 정보 및 최신 환경 정보를 조회하여 비교 표시할 수 있다.The photographed image server 41 may compare and display the growth model information and the latest environmental information from the analysis database 42 .

본 명세서에 개시된 실시 예들과 관련하여 설명된 방법 또는 알고리즘의 단계는 프로세서에 의해 실행되는 하드웨어, 소프트웨어 모듈, 또는 그 2 개의 결합으로 직접 구현될 수 있다. 소프트웨어 모듈은 RAM 메모리, 플래시 메모리, ROM 메모리, EPROM 메모리, EEPROM 메모리, 레지스터, 하드 디스크, 착탈형 디스크, CD-ROM과 같은 저장 매체(즉, 메모리 및/또는 스토리지)에 상주할 수도 있다. The steps of a method or algorithm described in connection with the embodiments disclosed herein may be directly implemented in hardware, a software module executed by a processor, or a combination of the two. A software module may reside in a storage medium (ie, memory and/or storage) such as RAM memory, flash memory, ROM memory, EPROM memory, EEPROM memory, registers, hard disk, a removable disk, a CD-ROM.

예시적인 저장 매체는 프로세서에 커플링되며, 그 프로세서는 저장 매체로부터 정보를 판독할 수 있고 저장 매체에 정보를 기입할 수 있다. 다른 방법으로, 저장 매체는 프로세서와 일체형일 수도 있다. 프로세서 및 저장 매체는 주문형 집적회로(ASIC) 내에 상주할 수도 있다. ASIC는 사용자 단말기 내에 상주할 수도 있다. 다른 방법으로, 프로세서 및 저장 매체는 사용자 단말기 내에 개별 컴포넌트로서 상주할 수도 있다.An exemplary storage medium is coupled to the processor, the processor can read information from, and write information to, the storage medium. Alternatively, the storage medium may be integral with the processor. The processor and storage medium may reside within an application specific integrated circuit (ASIC). The ASIC may reside within the user terminal. Alternatively, the processor and storage medium may reside as separate components within the user terminal.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. The above description is merely illustrative of the technical spirit of the present invention, and various modifications and variations will be possible without departing from the essential characteristics of the present invention by those skilled in the art to which the present invention pertains.

따라서, 본 발명에 개시된 실시 예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Therefore, the embodiments disclosed in the present invention are not intended to limit the technical spirit of the present invention, but to explain, and the scope of the technical spirit of the present invention is not limited by these embodiments. The protection scope of the present invention should be construed by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present invention.

Claims (18)

스마트 엣지 디바이스 기반의 생육 분석 방법에 있어서,
구비된 카메라를 통해 촬영된 이미지를 획득 받는 단계;
상기 획득된 이미지로부터 물체를 탐지하여 분류 처리하는 단계;
상기 분류 처리 결과에 따라 사용할 사전 학습된 딥러닝 모델을 외부 데이터베이스로부터 획득하는 단계;
상기 획득된 딥러닝 모델에 기반한 기계 학습을 통해 분석 대상 객체를 탐지하는 단계;
상기 탐지된 객체의 성숙도를 분석하는 단계; 및
상기 분석된 성숙도에 기반하여 작물 수확 시기를 결정하는 단계
를 포함하는 것을 특징으로 하는 생육 분석 방법.
In the smart edge device-based growth analysis method,
obtaining and receiving an image photographed through a provided camera;
detecting and classifying an object from the acquired image;
obtaining a pre-trained deep learning model to be used according to the classification processing result from an external database;
detecting an analysis target object through machine learning based on the obtained deep learning model;
analyzing the maturity level of the detected object; and
determining a crop harvest time based on the analyzed maturity level;
Growth analysis method comprising a.
제1항에 있어서,
상기 획득된 이미지에 대한 이미지 파일을 생성하는 단계; 및
상기 생성된 이미지 파일을 클라우드 서버로 전송하는 단계
를 포함하고, 상기 이미지 파일은 상기 서버와 연동되는 데이터베이스에 저장되는 것을 특징으로 하는 생육 분석 방법.
According to claim 1,
generating an image file for the acquired image; and
Transmitting the generated image file to a cloud server
Including, wherein the image file is a growth analysis method, characterized in that stored in a database linked with the server.
제1항에 있어서,
상기 카메라는 RGB 이미지 및 DEPTH 이미지 촬영이 가능한 3D DEPTH 카메라, RGN 이미지 촬영이 가능한 분광 카메라, 열화상 적외선 카메라 중 적어도 하나를 포함하는 것을 특징으로 하는 생육 분석 방법.
According to claim 1,
The camera is a 3D DEPTH camera capable of capturing RGB images and DEPTH images, a spectroscopic camera capable of capturing RGN images, and a thermal imaging infrared camera.
제1항에서,
상기 탐지된 객체에 상응하는 당도 측정 정보를 획득하는 단계를 더 포함하고, 상기 당도 측정 정보에 더 기반하여 상기 성숙도를 분석하는 것을 특징으로 하는 생육 분석 방법.
In claim 1,
The method further comprising obtaining sugar content measurement information corresponding to the detected object, and further analyzing the maturity level based on the sugar content measurement information.
제3항에서,
상기 3D DEPTH 카메라로부터 획득된 이미지 정보에 기반하여 상기 탐지된 객체에 상응하는 객체 정보를 획득하는 단계; 및
상기 분광 카메라로부터 획득된 이미지 정보에 기초하여 계산된 반사율에 기반하여 식생 지수 값을 산출하는 단계
를 더 포함하고,
상기 객체 정보는 크기 정보, 형상 정보, 생장 정보 및 색도 정보 중 적어도 하나를 포함하고,
상기 객체 정보 및 상기 식생 지수 값에 더 기반하여 상기 작물의 수확 시기를 결정하는 것을 특징으로 하는 생육 분석 방법.
In claim 3,
obtaining object information corresponding to the detected object based on the image information obtained from the 3D DEPTH camera; and
Calculating a vegetation index value based on the calculated reflectance based on the image information obtained from the spectroscopic camera
further comprising,
The object information includes at least one of size information, shape information, growth information, and chromaticity information,
Growth analysis method, characterized in that further based on the object information and the vegetation index value to determine the harvest time of the crop.
제5항에서,
상기 반사율은 가시광선대의 적색 영역에 대한 반사율 Red와 근적외선대 반사율 NIR를 포함하고,
상기 식생 지수 값 NDVI는 하기 수식:
NDVI = (NIR-Red)/(NIR+Red)
에 의해 산출되는 것을 특징으로 하는 생육 분석 방법.
In claim 5,
The reflectance includes reflectance Red for the red region of the visible ray band and reflectance NIR for the near-infrared band,
The vegetation index value NDVI is given by the following formula:
NDVI = (NIR-Red)/(NIR+Red)
Growth analysis method, characterized in that calculated by.
제1항에서,
상기 탐지된 객체가 육묘인 경우, 작물의 생장 정보 및 위치 정보를 획득하는 단계; 및
상기 획득된 생장 정보 및 위치 정보에 기반하여 상기 육묘의 불량 여부를 결정하는 단계
를 더 포함하고, 상기 생장 정보는 엽장, 엽폭 및 엽형지수 중 적어도 하나를 포함하는 것을 특징으로 하는 생육 분석 방법.
In claim 1,
when the detected object is a seedling, obtaining crop growth information and location information; and
Determining whether the seedling is defective based on the obtained growth information and location information
Further comprising, the growth information growth analysis method, characterized in that it comprises at least one of leaf length, leaf width, and leaf type index.
제1항에서,
상기 획득된 딥러닝 모델에 기반하여 분석 대상 객체를 탐지하는 단계는,
상기 획득된 이미지의 전체 좌표를 복수의 그리드 셀로 나누는 단계;
하나의 상기 그리드 셀 당 2개의 경계 박스를 생성하고, 상기 경계 박스 내에 물체가 들어가 있을 확률인 신뢰도를 계산하는 단계;
상기 각 그리드 셀 내 이미지가 어떤 물체 안에 포함되어 있는지를 식별하기 위한 클래스를 분류하는 단계; 및
상기 계산된 신뢰도 및 상기 분류된 클래스에 기반하여 상기 분석 대상 객체를 감지하는 단계
를 포함하는 것을 특징으로 하는 생육 분석 방법.
In claim 1,
The step of detecting the analysis target object based on the obtained deep learning model,
dividing the overall coordinates of the acquired image into a plurality of grid cells;
generating two bounding boxes per one grid cell, and calculating a reliability that is a probability that an object is contained in the bounding box;
classifying a class for identifying which object the image in each grid cell is included in; and
Detecting the analysis target object based on the calculated reliability and the classified class
Growth analysis method comprising a.
제1항에서,
상기 외부 데이터베이스로부터 생육 프로파일을 획득하는 단계;
생육 측정 정보를 획득하는 단계;
생육 프로파일 및 생육 측정 정보의 상관 관계를 분석하는 단계;
상기 상관 관계 분석 결과에 기초하여 생육 모델의 설정 정보를 보완하는 단계; 및
상기 보완된 설정 정보를 상기 외부 데이터베이스에 저장하는 단계
를 더 포함하고, 상기 설정 정보는 온도 정보, 습도 정보, 이산화탄소 농도정보 및 전기전도도 중 적어도 하나를 포함하는 것을 특징으로 하는 생육 분석 방법.
In claim 1,
obtaining a growth profile from the external database;
obtaining growth measurement information;
analyzing the correlation between the growth profile and the growth measurement information;
supplementing the setting information of the growth model based on the correlation analysis result; and
Storing the supplemented setting information in the external database
Further comprising, the setting information is a growth analysis method, characterized in that it comprises at least one of temperature information, humidity information, carbon dioxide concentration information and electrical conductivity.
3D DEPTH 카메라 및 분광 카메라를 통해 촬영된 RGB 이미지, DEPTH 이미지 및 RGN 이미지를 제공하는 이미지 촬영 시스템;
상기 이미지 촬영 시스템으로부터 획득된 이미지에 기초하여 이미지 파일을 생성하고, 상기 획득된 이미지로부터 물체를 탐지하여 분류 처리하고, 상기 분류 처리 결과에 따라 사용할 사전 학습된 딥러닝 모델을 구비된 이더넷 통신 모듈을 통해 외부 데이터베이스로부터 획득하고, 상기 획득된 딥러닝 모델에 기반한 기계 학습을 통해 분석 대상 객체를 탐지하고, 상기 탐지된 객체에 상응하는 성숙도를 분석하는 이미지 분석 시스템; 및
상기 분석된 성숙도에 기반하여 작물 수확 시기를 결정하는 측정 정보 분석 시스템
을 포함하는 생육 분석 시스템.
an imaging system that provides RGB images, DEPTH images and RGN images captured by 3D DEPTH cameras and spectroscopic cameras;
An Ethernet communication module equipped with a pre-trained deep learning model to generate an image file based on the image obtained from the image capturing system, detect and classify an object from the obtained image, and use according to the classification processing result an image analysis system that acquires from an external database through, detects an analysis target object through machine learning based on the acquired deep learning model, and analyzes a maturity level corresponding to the detected object; and
Measurement information analysis system for determining crop harvest time based on the analyzed maturity level
A growth analysis system comprising a.
제10항에 있어서,
상기 이미지 촬영 시스템은 상기 생성된 이미지 파일을 상기 이더넷 통신 모듈을 통해 클라우드 환경에 위치한 서버로 전송하고, 상기 이미지 파일은 상기 서버와 연동되는 데이터베이스에 저장되는 것을 특징으로 하는 생육 분석 시스템.
11. The method of claim 10,
The image capturing system transmits the generated image file to a server located in a cloud environment through the Ethernet communication module, and the image file is stored in a database interworking with the server.
제10항에 있어서,
상기 이미지 분석 시스템은,
상기 3D DEPTH 카메라와의 통신을 위한 USB 통신 모듈; 및
상기 분광 카메라와의 통신을 위한 와이파이 통신 모듈
을 포함하는 것을 특징으로 하는 생육 분석 시스템.
11. The method of claim 10,
The image analysis system,
a USB communication module for communication with the 3D DEPTH camera; and
Wi-Fi communication module for communication with the spectroscopic camera
Growth analysis system comprising a.
제10항에서,
상기 탐지된 객체에 상응하는 당도를 측정하는 당도 측정 시스템을 더 포함하고, 상기 측정 정보 분석 시스템은 상기 측정된 당도에 더 기반하여 상기 성숙도를 분석하는 것을 특징으로 하는 생육 분석 시스템.
In claim 10,
Further comprising a sugar content measurement system for measuring a sugar content corresponding to the detected object, wherein the measurement information analysis system further analyzes the maturity level based on the measured sugar content.
제12항에서,
상기 이미지 분석 시스템은,
상기 3D DEPTH 카메라로부터 획득된 이미지에 기반하여 상기 탐지된 객체에 상응하는 객체 정보를 추출하는 객체 정보 추출부; 및
상기 분광 카메라로부터 획득된 이미지 정보에 기초하여 계산된 반사율에 기반하여 식생 지수 값을 산출하는 식생지수 산출부
를 포함하고,
상기 객체 정보는 크기 정보, 형상 정보, 생장 정보 및 색도 정보 중 적어도 하나를 포함하고,
상기 객체 정보 및 상기 식생 지수 값에 더 기반하여 상기 작물의 수확 시기가 결정되는 것을 특징으로 하는 생육 분석 시스템.
In claim 12,
The image analysis system,
an object information extraction unit for extracting object information corresponding to the detected object based on the image obtained from the 3D DEPTH camera; and
Vegetation index calculation unit for calculating a vegetation index value based on the reflectance calculated based on the image information obtained from the spectroscopic camera
including,
The object information includes at least one of size information, shape information, growth information, and chromaticity information,
Growth analysis system, characterized in that the harvest time of the crop is determined further based on the object information and the vegetation index value.
제14항에서,
상기 반사율은 가시광선대의 적색 영역에 대한 반사율 Red와 근적외선대 반사율 NIR를 포함하고,
상기 식생 지수 값 NDVI는 하기 수식:
NDVI = (NIR-Red)/(NIR+Red)
에 의해 산출되는 것을 특징으로 하는 생육 분석 시스템.
15. In claim 14,
The reflectance includes reflectance Red for the red region of the visible ray band and reflectance NIR for the near-infrared band,
The vegetation index value NDVI is given by the following formula:
NDVI = (NIR-Red)/(NIR+Red)
Growth analysis system, characterized in that calculated by.
제10항에서,
상기 측정 정보 분석 시스템은,
상기 탐지된 객체가 육묘인 경우, 작물의 생장 정보 및 위치 정보에 기반하여 해당 육묘의 불량 여부를 결정하는 불량 결정부
를 더 포함하고, 상기 생장 정보는 엽장, 엽폭 및 엽형지수 중 적어도 하나를 포함하는 것을 특징으로 하는 생육 분석 시스템.
In claim 10,
The measurement information analysis system,
When the detected object is a seedling, a defect determination unit that determines whether the seedling is defective based on crop growth information and location information
It further comprises, wherein the growth information is a growth analysis system, characterized in that it comprises at least one of a leaf length, a leaf width, and a leaf type index.
제10항에서,
상기 이미지 분석 시스템은,
상기 획득된 이미지의 전체 좌표를 복수의 그리드 셀로 나누고, 하나의 상기 그리드 셀 당 2개의 경계 박스를 생성한 후 상기 경계 박스 내에 물체가 들어가 있을 확률인 신뢰도를 계산하고, 상기 각 그리드 셀 내 이미지가 어떤 물체 안에 포함되어 있는지를 식별하기 위한 클래스를 분류하고, 상기 계산된 신뢰도 및 상기 분류된 클래스에 기반하여 상기 분석 대상 객체를 감지하는 객체 감지부를 포함하는 것을 특징으로 하는 생육 분석 시스템.
In claim 10,
The image analysis system,
After dividing the entire coordinates of the obtained image into a plurality of grid cells, generating two bounding boxes per one grid cell, calculating the reliability that is the probability that an object is in the bounding box, and the image in each grid cell is Classification of a class for identifying which object is included in the growth analysis system, characterized in that it comprises an object detection unit for detecting the object to be analyzed based on the calculated reliability and the classified class.
제10항에서,
상기 측정 정보 분석 시스템은,
생육 프로파일 및 생육 측정 정보의 상관 관계를 분석하여 생육 모델의 설정 정보를 보완하는 생육 모델 갱신부를 더 포함하고,
상기 설정 정보는 온도 정보, 습도 정보, 이산화탄소 농도정보 및 전기전도도 중 적어도 하나를 포함하는 것을 특징으로 하는 생육 분석 시스템.
In claim 10,
The measurement information analysis system,
Further comprising a growth model update unit that supplements the setting information of the growth model by analyzing the correlation between the growth profile and the growth measurement information,
The setting information is a growth analysis system, characterized in that it includes at least one of temperature information, humidity information, carbon dioxide concentration information, and electrical conductivity.
KR1020200089192A 2020-07-17 2020-07-17 Growth analysis method based on smart edge device and apparatus and system therefor KR102504318B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200089192A KR102504318B1 (en) 2020-07-17 2020-07-17 Growth analysis method based on smart edge device and apparatus and system therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200089192A KR102504318B1 (en) 2020-07-17 2020-07-17 Growth analysis method based on smart edge device and apparatus and system therefor

Publications (2)

Publication Number Publication Date
KR20220010374A true KR20220010374A (en) 2022-01-25
KR102504318B1 KR102504318B1 (en) 2023-02-28

Family

ID=80049266

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200089192A KR102504318B1 (en) 2020-07-17 2020-07-17 Growth analysis method based on smart edge device and apparatus and system therefor

Country Status (1)

Country Link
KR (1) KR102504318B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024045749A1 (en) * 2022-08-30 2024-03-07 上海第二工业大学 Method for spatio-temporal prediction of growth state of mushrooms

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180086738A (en) * 2017-01-23 2018-08-01 한국과학기술연구원 Apparatus for providing guide information for growing crops, and method thereof
KR20200020209A (en) * 2018-08-16 2020-02-26 (주)노루기반시스템즈 Applaratus for Monitoring Crop Growth through Multispectral Image Histogram Pattern Analysis of Plot Unit
KR20200042077A (en) * 2018-10-12 2020-04-23 한국생산기술연구원 Apparatus, Method For Estimating Ripening Degree Of A Plant and A Computer-readable Storage Medium For Executing The Method
KR20200071799A (en) * 2018-11-30 2020-06-22 (주)케이아이오티 object recognition and counting method using deep learning artificial intelligence technology

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180086738A (en) * 2017-01-23 2018-08-01 한국과학기술연구원 Apparatus for providing guide information for growing crops, and method thereof
KR20200020209A (en) * 2018-08-16 2020-02-26 (주)노루기반시스템즈 Applaratus for Monitoring Crop Growth through Multispectral Image Histogram Pattern Analysis of Plot Unit
KR20200042077A (en) * 2018-10-12 2020-04-23 한국생산기술연구원 Apparatus, Method For Estimating Ripening Degree Of A Plant and A Computer-readable Storage Medium For Executing The Method
KR20200071799A (en) * 2018-11-30 2020-06-22 (주)케이아이오티 object recognition and counting method using deep learning artificial intelligence technology

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024045749A1 (en) * 2022-08-30 2024-03-07 上海第二工业大学 Method for spatio-temporal prediction of growth state of mushrooms

Also Published As

Publication number Publication date
KR102504318B1 (en) 2023-02-28

Similar Documents

Publication Publication Date Title
US11749053B2 (en) Systems, methods and devices for monitoring betting activities
Heinzel et al. Prior-knowledge-based single-tree extraction
JP6592613B2 (en) Computer system, plant diagnosis method and program
Yang et al. Tea diseases detection based on fast infrared thermal image processing technology
WO2015193885A2 (en) Method for huanglongbing (hlb) detection
KR101822410B1 (en) Apparatus for diagnosing growth state of crop organ using crop organ image
Sánchez-González et al. Basal area and diameter distribution estimation using stereoscopic hemispherical images
US20220307971A1 (en) Systems and methods for phenotyping
US20220012515A1 (en) System, method and computer program for guided image capturing of a meal
CN111199192A (en) Method for detecting integral maturity of field red globe grapes by adopting parallel line sampling
CN115015258B (en) Crop growth vigor and soil moisture association determination method and related device
KR102504318B1 (en) Growth analysis method based on smart edge device and apparatus and system therefor
Zhang et al. Yield estimation of citrus fruit using rapid image processing in natural background
Swarup et al. Strawberry plant wetness detection using color and thermal imaging
KR101695246B1 (en) Device for estimating light source and method thereof
KR102177985B1 (en) Apparatus and Method for Automatically Detecting Landslide Area
CN111583333A (en) Temperature measurement method and device based on visual guidance, electronic equipment and storage medium
CN117392104A (en) Computer vision rice quality determination method based on deep learning
Xu et al. Detecting white cotton bolls using high-resolution aerial imagery acquired through unmanned aerial system
CN109459391B (en) Red date quality detection and red date polarization detection model generation method and device
CN111325241A (en) Fruit and vegetable classification method and device, intelligent sensor and computer storage medium
Biffi et al. Evaluating the performance of a semi-automatic apple fruit detection in a high-density orchard system using low-cost digital rgb imaging sensor
US11922687B2 (en) Information processing apparatus, information processing method, and program
Bonaria Grapevine yield estimation using image analysis for the variety Arinto
KR20220022961A (en) Advanced crop diagnosing system

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
AMND Amendment
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant