KR20240083254A - Automatic corn growth measurement method using 3D depth camera - Google Patents

Automatic corn growth measurement method using 3D depth camera Download PDF

Info

Publication number
KR20240083254A
KR20240083254A KR1020220166780A KR20220166780A KR20240083254A KR 20240083254 A KR20240083254 A KR 20240083254A KR 1020220166780 A KR1020220166780 A KR 1020220166780A KR 20220166780 A KR20220166780 A KR 20220166780A KR 20240083254 A KR20240083254 A KR 20240083254A
Authority
KR
South Korea
Prior art keywords
data
corn
depth camera
artificial intelligence
colony
Prior art date
Application number
KR1020220166780A
Other languages
Korean (ko)
Inventor
권동원
박혁진
상완규
백재경
장성율
반호영
조정일
서명철
Original Assignee
대한민국(농촌진흥청장)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 대한민국(농촌진흥청장) filed Critical 대한민국(농촌진흥청장)
Priority to KR1020220166780A priority Critical patent/KR20240083254A/en
Publication of KR20240083254A publication Critical patent/KR20240083254A/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N2021/1765Method using an image detector and processing of image signal
    • G01N2021/177Detector of the video camera type
    • G01N2021/1776Colour camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N2021/178Methods for obtaining spatial resolution of the property being measured
    • G01N2021/1785Three dimensional
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N2021/1793Remote sensing
    • G01N2021/1797Remote sensing in landscape, e.g. crops
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N2021/8466Investigation of vegetal material, e.g. leaves, plants, fruits
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2201/00Features of devices classified in G01N21/00
    • G01N2201/12Circuits of general importance; Signal processing
    • G01N2201/127Calibration; base line adjustment; drift compensation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20182Noise reduction or smoothing in the temporal domain; Spatio-temporal filtering

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Immunology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Biochemistry (AREA)
  • Analytical Chemistry (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Chemical & Material Sciences (AREA)
  • Image Processing (AREA)

Abstract

본 발명은, (a) 데이터 수집 모듈(100)이 3D 뎁스 카메라가 옥수수 군락를 촬영한 데이터를 이용하여 3차원 영상 RGB 데이터를 획득하는 단계; (b) 인공지능 모델 생성 모듈(200)이 상기 데이터 수집 모듈(100)에서 획득된 3차원 영상 RGB 데이터를 입력데이터로 하고, 이에 대응되도록 측정한 측정 데이터인 옥수수의 초장, 임관층, 엽면적, 및 잡초량을 출력데이터로 하는 학습 데이터를 학습시켜 옥수수 생육 자동 측정을 위한 인공지능 모델을 생성하는 단계; 및 (c) 상기 생성된 인공지능 모델에, 3D 뎁스 카메라가 옥수수 군락을 촬영한 데이터를 입력하면 옥수수의 초장, 임관층, 엽면적, 및 잡초량이 출력되는 단계;를 포함하는 방법을 제공한다.The present invention includes the steps of (a) the data collection module 100 acquiring 3D image RGB data using data captured by a 3D depth camera on a corn colony; (b) The artificial intelligence model creation module 200 uses the 3D image RGB data acquired in the data collection module 100 as input data, and the measured data measured to correspond to the data, such as corn plant height, canopy layer, and leaf area, And generating an artificial intelligence model for automatically measuring corn growth by learning learning data with the amount of weeds as output data; And (c) inputting data captured by a 3D depth camera on a corn colony to the generated artificial intelligence model, outputting the plant height, canopy layer, leaf area, and amount of weeds of corn.

Description

3D 뎁스 카메라를 이용한 옥수수 생육 자동 측정 방법{Automatic corn growth measurement method using 3D depth camera}Automatic corn growth measurement method using 3D depth camera}

본 발명은 옥수수 생육 자동 측정 방법에 관한 것으로, 3D 뎁스 카메라를 이용하는 옥수수 생육 자동 측정 방법에 관한 것이다. The present invention relates to a method for automatically measuring corn growth, and to a method for automatically measuring corn growth using a 3D depth camera.

옥수수의 생육을 측정하는 데 있어, 초장이나 엽면적 및 임관층의 변화는 옥수수의 생산량을 예측하는데 중요한 지표들이지만 이를 측정하기 위한 기존의 방식들은 작물과 접촉하거나 파괴적인 방법이며 노동력 또한 많이 투입되어야 하는 문제점이 있다.In measuring the growth of corn, changes in grass height, leaf area, and canopy layer are important indicators in predicting corn production, but existing methods for measuring this are methods that contact or are destructive to the crop and also require a lot of labor. There is a problem.

드론을 통한 촬영 및 2차원 영상을 이용한 측정 방법은 옥수수 군락이 차지하는 면적은 측정할 수 있지만 작물의 초장을 측정하지 못하며, 작물의 초장을 측정하기 위한 측면 카메라는 반대로 밭 면적에서 옥수수 군락이 차지하는 면적은 측정하지 못하는 한계점이 존재한다. Measurement methods using drone filming and 2D images can measure the area occupied by a corn colony, but cannot measure the plant height of the crop. Conversely, the side camera used to measure the plant height of the crop measures the area occupied by the corn colony in the field area. There is a limitation that cannot be measured.

이와 같은 종래의 옥수수 생육 측정 방법의 문제점을 극복하기 위한 기술이 개발되고 있다. Technologies are being developed to overcome the problems of conventional corn growth measurement methods.

미국공개특허 제2022-0138925호는 노지에서 재배하는 작물의 광학 수율 측정을 위한 시스템 및 방법에 관한 것으로, 획득된 이미지 데이터에서 하나 이상의 대상 식물이 차지하는 픽셀의 공간 영역 및 수확 가능한 식물의 픽셀을 추정할 수 있으며, 잡초와 인접한 작물을 식별할 수 있고 대상 작물로서 옥수수 등을 포함하는 작물의 수율 측정을 위한 시스템 및 방법을 개시한다.U.S. Patent Publication No. 2022-0138925 relates to a system and method for measuring the optical yield of crops grown in the open field, and estimates the spatial area of pixels occupied by one or more target plants and the pixels of harvestable plants from the acquired image data. Discloses a system and method that can identify crops adjacent to weeds and measure the yield of crops including corn as a target crop.

잡초의 픽셀을 포함하는 배경 픽셀로부터 수확 가능한 식물 픽셀을 차별화하거나 분류할 수 있는 점이 개시된다. Disclosed is the ability to differentiate or classify harvestable plant pixels from background pixels including weed pixels.

미국등록특허 제10891482호는 식물 영역에서 성장 단계1 및 작물 수확량 예측을 위한 현장 진단 방법, 장치 및 시스템을 개시한다. 본 종래기술에서는, 특정되지 않은 작물 수확량 예측을 위한 방법이 개시되나, 불특정 다수의 작물을 대상으로 한 것이어서 옥수수에 특화된 측정 방법을 제공할 순 없었다.US Patent No. 10891482 discloses an on-site diagnostic method, device and system for predicting growth stage 1 and crop yield in the plant area. In this prior art, a method for predicting the yield of an unspecified crop is disclosed, but since it targets an unspecified number of crops, a measurement method specialized for corn cannot be provided.

KRKR 10-2017-0114065 10-2017-0114065 AA USUS 2022-0138925 2022-0138925 A1A1 USUS 2021-0133443 2021-0133443 A1A1 USUS 10891482 10891482 B2B2

본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것이다.The present invention was created to solve the above problems.

옥수수의 생육과 관련된 지표를 측정할 경우 발생했던 직접 접촉 등의 작물 파괴적인 측정 문제를 해결하기 위해, 직접 접촉에 의한 측정 없이 옥수수의 생육 관련 지표들을 비접촉으로 측정할 수 있는 방법을 제공하고자 한다.In order to solve crop destructive measurement problems such as direct contact that occurred when measuring indicators related to corn growth, we aim to provide a method to measure corn growth-related indicators non-contactly without measuring through direct contact.

상기와 같은 과제를 해결하기 위한 본 발명의 일 실시예는, (a) 데이터 수집 모듈(100)이 3D 뎁스 카메라가 옥수수 군락를 촬영한 데이터를 이용하여 3차원 영상 RGB 데이터를 획득하는 단계; (b) 인공지능 모델 생성 모듈(200)이 상기 데이터 수집 모듈(100)에서 획득된 3차원 영상 RGB 데이터를 입력데이터로 하고, 이에 대응되도록 측정한 측정 데이터인 옥수수의 초장, 임관층, 엽면적, 및 잡초량을 출력데이터로 하는 학습 데이터를 학습시켜 옥수수 생육 자동 측정을 위한 인공지능 모델을 생성하는 단계; 및 (c) 상기 생성된 인공지능 모델에, 3D 뎁스 카메라가 옥수수 군락을 촬영한 데이터를 입력하면 옥수수의 초장, 임관층, 엽면적, 및 잡초량이 출력되는 단계;를 포함하는, 방법을 제공한다.One embodiment of the present invention to solve the above problems includes: (a) the data collection module 100 acquiring 3D image RGB data using data captured by a 3D depth camera on a corn colony; (b) The artificial intelligence model creation module 200 uses the 3D image RGB data acquired in the data collection module 100 as input data, and the measured data measured to correspond to the data, such as corn plant height, canopy layer, and leaf area, And generating an artificial intelligence model for automatically measuring corn growth by learning learning data with the amount of weeds as output data; and (c) inputting data captured by a 3D depth camera on a corn colony to the generated artificial intelligence model, outputting the plant height, canopy layer, leaf area, and amount of weeds of corn.

또한, 상기 (b) 단계에 있어서, 전처리 모듈(300)이 상기 데이터 수집 모듈(100)에서 상기 3D 뎁스 카메라가 옥수수 군락을 촬영한 데이터를 입력받고, 상기 전처리 모듈(300)의 노이즈 제거부(320)에서 상기 입력된 데이터를 ExGR지수로 필터링하고, 상기 전처리 모듈(300)의 좌표 보정부(330)에서 상기 입력된 데이터의 좌표를 RANSAC 알고리즘으로 보정함으로써, 3차원 영상 RGB 데이터를 획득하는 단계;를 포함하는 것이 바람직하다.In addition, in step (b), the preprocessing module 300 receives data captured by the 3D depth camera on a corn colony from the data collection module 100, and the noise removal unit of the preprocessing module 300 ( Obtaining 3D image RGB data by filtering the input data with the ExGR index in 320 and correcting the coordinates of the input data with the RANSAC algorithm in the coordinate correction unit 330 of the pre-processing module 300. It is desirable to include ;.

또한, 상기 (a)단계에 있어서, (a1) 상기 데이터 수집 모듈(100)은 3m 높이에서 3D 뎁스 카메라가 옥수수 군락을 촬영한 데이터를 수집하는 단계;를 포함하는 것이 바람직하다.In addition, in step (a), it is preferable to include (a1) the data collection module 100 collecting data captured by a 3D depth camera on a corn colony at a height of 3 m.

본 발명의 다른 실시예는, 컴퓨터에 상기 실시예에 따른 방법을 실행시키기 위한 컴퓨터 프로그램을 기록한, 컴퓨터로 읽을 수 있는 기록매체를 제공한다.Another embodiment of the present invention provides a computer-readable recording medium on which a computer program for executing the method according to the above embodiment is recorded on a computer.

본 발명의 또 다른 실시예는, 컴퓨터에 상기 실시예에 따른 방법을 실행시키기 위하여 기록매체에 저장된, 컴퓨터프로그램을 제공한다.Another embodiment of the present invention provides a computer program stored in a recording medium for executing the method according to the above embodiment on a computer.

상기와 같은 과제 해결을 통해 본 발명은 다음과 같은 효과를 얻는다. By solving the above problems, the present invention achieves the following effects.

첫째, 직접 측정 등의 파괴적인 방법을 사용하지 않고 옥수수의 생육 측정이 가능하다. 기존에 직접 측정과 함께 수기를 활용하여야 했던 초장, 임관층, 엽면적 등 옥수수의 생육 관련 지표들을 자동이자 비접촉 방식으로 측정할 수 있다.First, it is possible to measure corn growth without using destructive methods such as direct measurement. Indicators related to corn growth, such as grass height, canopy layer, and leaf area, which previously had to be measured manually and manually, can be measured automatically and non-contactly.

둘째, 기존 2차원 사진 데이터만으로는 측정이 어렵거나 불가했던 옥수수의 생육 지표를 측정하여 제공할 수 있다.Second, it is possible to measure and provide corn growth indicators that were difficult or impossible to measure using existing 2D photographic data alone.

셋째, 비접촉 방식으로 측정된 측정 값을 일일 생장량, 캐노피 평가, 엽면적 변화 등과 같은 분석 결과로서 높은 정확도로 제공할 수 있다.Third, non-contact measurement values can be provided with high accuracy as analysis results such as daily growth, canopy evaluation, and leaf area changes.

도 1은, 본 발명에 따른 방법을 수행하기 위한 시스템을 설명하기 위한 도면이다.
도 2는, 본 발명에 따른 방법을 이용한, 3D 뎁스 카메라에서 추출된 포인트의 데이터 처리 과정을 설명하기 위한 도면이다.
도 3은, 본 발명에 따른 방법을 이용한, 3D 뎁스 카메라에서 추출된 RGB 영상 데이터의 처리 과정을 설명하기 위한 도면이다.
도 4는, 3D 뎁스 카메라에서 추출되어진 데이터 파일을 설명하기 위한 도면이다.
도 5는, 본 발명에 따른 방법에 의해 옥수수 군락의 임관층을 평가하는 방법을 설명하기 위한 도면이다.
도 6 내지 도 7은, 본 발명에 따른 방법을 위해 노이즈 제거부에 의해 필터링된 영상 데이터를 설명하기 위한 도면이다.
도 8은, 본 발명에 따른 방법에 의해 측정된 옥수수 군락의 엽면적 그래프이다.
도 9는, 본 발명에 따른 방법에 의해 산출된 생장 속도 분석 그래프이다.
도 10 내지 도 11은, 본 발명에 따른 인공지능 모델의 검증을 위한 도면이다.
1 is a diagram for explaining a system for performing a method according to the present invention.
Figure 2 is a diagram for explaining the data processing process of points extracted from a 3D depth camera using the method according to the present invention.
Figure 3 is a diagram for explaining the processing process of RGB image data extracted from a 3D depth camera using the method according to the present invention.
Figure 4 is a diagram for explaining a data file extracted from a 3D depth camera.
Figure 5 is a diagram for explaining a method of evaluating the canopy layer of a corn colony by the method according to the present invention.
6 to 7 are diagrams for explaining image data filtered by a noise removal unit for the method according to the present invention.
Figure 8 is a graph of the leaf area of a corn colony measured by the method according to the present invention.
Figure 9 is a growth rate analysis graph calculated by the method according to the present invention.
10 to 11 are diagrams for verification of an artificial intelligence model according to the present invention.

본 발명의 상기와 같은 목적, 특징 및 다른 장점들은 첨부도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명함으로써 더욱 명백해질 것이다. 이 과정에서 도면에 도시된 선들의 두께나 구성요소의 크기 등은 설명의 명료성과 편의상 과장되게 도시되어 있을 수 있다. 또한, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례에 따라 달라질 수 있다. 그러므로 이러한 용어들에 대한 정의는 본 명세서 전반에 걸친 내용을 토대로 기술되어야 할 것이다.The above objectives, features and other advantages of the present invention will become more apparent by describing the preferred embodiments of the present invention in detail with reference to the accompanying drawings. In this process, the thickness of lines or sizes of components shown in the drawings may be exaggerated for clarity and convenience of explanation. In addition, the terms described below are terms defined in consideration of functions in the present invention, and may vary depending on the intention or custom of the user or operator. Therefore, definitions of these terms should be described based on the content throughout this specification.

또한, 기술되는 실시예는 발명의 설명을 위해 예시적으로 제공되는 것이며, 본 발명의 기술적 범위를 한정하는 것은 아니다.Additionally, the described embodiments are provided as examples for explanation of the invention and do not limit the technical scope of the invention.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예에 따른 옥수수 생육 자동 측정 방법을 상세히 설명한다.Hereinafter, a method for automatically measuring corn growth according to a preferred embodiment of the present invention will be described in detail with reference to the attached drawings.

3D 뎁스 카메라의 설명Description of 3D Depth Camera

본 발명에 필수 구성인 3D 뎁스 카메라를 먼저 설명한다.The 3D depth camera, which is an essential component of the present invention, will first be described.

본 발명에 따른 방법을 수행하기 위한 모델을 구축하기 위해 3D 뎁스 카메라를 이용하여 옥수수 군락을 촬영하는 것이 선행될 것이다, In order to build a model for carrying out the method according to the present invention, the corn colony will be photographed using a 3D depth camera.

3D 뎁스 카메라는 적외선을 이용해 3차원 영상 및 이미지를 촬영하는 카메라는 무엇이든 사용 가능하다. 3D 뎁스 카메라에 의해 촬영된 3D 영상 및 이미지 데이터는 도 4와 같이 RGB 이미지 데이터를 포함하는 다수의 데이터 파일로 추출될 수 있다.A 3D depth camera can be any camera that captures 3D videos and images using infrared rays. 3D video and image data captured by a 3D depth camera can be extracted into multiple data files including RGB image data, as shown in FIG. 4.

3D 뎁스 카메라는 바람직하게는 Microsoft Corporation의 Azure kinect를 이용할 수 있으나, 이 밖에도 본 발명에서 설명하는 옥수수 군락의 촬영에 적합할 경우 제한되지 않는다.The 3D depth camera may preferably use Microsoft Corporation's Azure kinect, but is not limited as long as it is suitable for photographing the corn colony described in the present invention.

3D 뎁스 카메라를 이용해 옥수수 군락을 촬영하는데 있어 바람직하게는 옥수수 군락으로부터 약 3m의 수평 높이에서 측정할 수 있다. 이를 통해 모델 생성을 위한 학습 데이터가 획득된다. 생성된 모델을 이용할 경우 3D 뎁스 카메라에 의해 촬영된 이미지만을 가지고도 작물의 초장, 임관층, 잡초량 등을 분석할 수 있다. 상세한 내용은 후술한다. When photographing a corn colony using a 3D depth camera, measurements can preferably be made at a horizontal height of about 3 m from the corn colony. Through this, learning data for model creation is obtained. When using the created model, the plant height, canopy layer, and amount of weeds can be analyzed using only images captured by a 3D depth camera. Details will be described later.

시스템의 설명Description of the system

도 1을 참고하여 본 발명에 따른 옥수수 생육 측정 방법을 수행하기 위한 시스템을 설명한다.Referring to Figure 1, a system for performing the corn growth measurement method according to the present invention will be described.

본 발명에 따른 방법을 수행하기 위한 본 발명의 시스템은 3D 뎁스 카메라의 데이터를 이용하는 시스템으로써, 데이터 수집 모듈(100), 인공지능 모델 생성 모듈(200) 및 데이터 전처리 모듈(300)을 포함한다.The system of the present invention for performing the method according to the present invention is a system that uses data from a 3D depth camera and includes a data collection module 100, an artificial intelligence model creation module 200, and a data preprocessing module 300.

데이터 수집 모듈(100)은 3D 뎁스 카메라와 연결되어 3D 뎁스 카메라의 데이터를 수집할 수 있으며, 측정 데이터를 수집하는 측정 데이터 수집부(101)와, 3D 뎁스 카메라의 데이터를 수집하는 3차원 영상 데이터부(110), 및 RGB 데이터부(120)를 포함한다.The data collection module 100 is connected to a 3D depth camera and can collect data from the 3D depth camera, and includes a measurement data collection unit 101 that collects measurement data, and 3D image data that collects data from the 3D depth camera. It includes a unit 110 and an RGB data unit 120.

측정 데이터 수집부(101)는 자동 또는 수동으로 입력한 데이터를 수집하는 것으로, 옥수수 생육을 위한 데이터라면 한정되지 않을 것이다. 그 예로, 옥수수의 초장, 엽면적, 임관층 등일 수 있다. 자동 입력 방식에 특별한 제한은 없으며, 수동 입력 방식으로 예를 들어 수기 입력이 사용될 수 있다. The measurement data collection unit 101 collects automatically or manually entered data, and will not be limited as long as it is data for corn growth. Examples include corn plant height, leaf area, and canopy layer. There are no particular restrictions on the automatic input method, and as a manual input method, for example, handwriting may be used.

3차원 영상 데이터부(110)에 추출되지 않은 3D 뎁스 카메라의 이미지 데이터가 수집된다.Image data from the 3D depth camera that is not extracted in the 3D image data unit 110 is collected.

RGB 데이터부(120)는 3D 뎁스 카메라의 이미지 데이터에서 RGB 데이터를 추출하고 수집한다.The RGB data unit 120 extracts and collects RGB data from image data of the 3D depth camera.

인공지능 모델 생성 모듈(200)은 데이터 수집 모듈(100)의 데이터와 데이터 전처리 모듈(300)의 데이터를 학습데이터로 하여 학습됨으로써 구축된 인공지능 모델을 생성할 수 있다.The artificial intelligence model creation module 200 can generate an artificial intelligence model built by learning using the data of the data collection module 100 and the data of the data pre-processing module 300 as learning data.

인공지능 모델 생성 모듈(200)에서 이용되는 인공지능 모델은 바람직하게는 U-net 모델과 Adam 함수를 이용할 수 있다. U-net은 이미지 분할 및 분석에 사용되는 인공지능 모델로 학습 데이터가 적어도 우수한 성능을 보였다, 실제로, 본 발명에서 노지에서 촬영된 이미지에서 옥수수와 잡초를 구분하고 픽셀 정보를 분석하기 위해 해당 모델을 사용하였을 때, 직접 측정한 결과 값과 거의 차이가 없는 성능으로 나타났다. The artificial intelligence model used in the artificial intelligence model creation module 200 may preferably use the U-net model and the Adam function. U-net is an artificial intelligence model used for image segmentation and analysis and has shown excellent performance even with training data. In fact, in the present invention, the model is used to distinguish corn and weeds in images taken in open fields and to analyze pixel information. When used, the performance was found to be almost the same as the directly measured results.

데이터 전처리 모듈(300)은 데이터 수집 모듈(100)의 데이터가 인공지능 모델 생성 모듈(200)이 학습데이터로써 사용할 수 있도록 데이터를 전처리할 수 있다.The data preprocessing module 300 may preprocess the data so that the data of the data collection module 100 can be used as learning data by the artificial intelligence model creation module 200.

데이터 전처리 모듈(300)은 데이터 분석부(310), 노이즈 제거부(320), 좌표 보정부(330) 및 라벨링부(340)를 포함한다.The data pre-processing module 300 includes a data analysis unit 310, a noise removal unit 320, a coordinate correction unit 330, and a labeling unit 340.

데이터 분석부(310)는 3D 뎁스 카메라의 3차원 영상 및 이미지 데이터를 분석할 수 있으며, 분석을 위한 라이브러리를 제공할 수 있다.The data analysis unit 310 can analyze 3D images and image data from a 3D depth camera and provide a library for analysis.

데이터 분석부(310)는, 파이썬(Python), 판다스(Pandas), 매트랩(matplotlib), opencv2 등을 사용할 수 있으나 이에 제한되지 않는다. 예를 들어, Pandas는 텍스트 파일 기반의 3차원 좌표 데이터 분석에 사용하고, matplotlib는 3차원 이미지 시각화 및 그래프 작성에 사용하고, opencv2는 RGB 이미지 전처리에 사용하고, Python이 이미지 분석 및 인공지능 모델 개발에 사용될 수 있다. The data analysis unit 310 may use Python, Pandas, matplotlib, opencv2, etc., but is not limited thereto. For example, Pandas is used for text file-based 3D coordinate data analysis, matplotlib is used for 3D image visualization and graphing, opencv2 is used for RGB image preprocessing, and Python is used for image analysis and artificial intelligence model development. can be used for

노이즈 제거부(320)는 3D 뎁스 카메라가 적외선이 반사되는 것을 이용함에 따라 특성상 출력 데이터에 노이즈가 생기는 경우가 있는데, 이로 인한 노이즈를 제거하기 위해 3차원 영상 데이터를 ExGR 지수로 필터링하는 것이다.(도 6 및 도 7)Due to the nature of the 3D depth camera using reflected infrared rays, noise may occur in the output data. The noise removal unit 320 filters the 3D image data using the ExGR index to remove the resulting noise. ( 6 and 7)

좌표 보정부(330)는 3D 뎁스 카메라로 측정된 데이터와 실제 측정 값의 좌표 값을 일치시키기 위한 것으로, RANSAC(Random Sample consensus) 알고리즘을 이용하여 좌표를 보정할 수 있다.The coordinate correction unit 330 is intended to match the coordinate values of data measured by a 3D depth camera and the actual measured value, and can correct the coordinates using the RANSAC (Random Sample consensus) algorithm.

라벨링부(340)는 3D 뎁스 카메라의 영상 데이터를 인공지능 모델 생성 모듈(200)의 학습데이터로써 제공하기 위해 영상 데이터를 라벨링할 수 있다.The labeling unit 340 may label the image data of the 3D depth camera to provide it as learning data for the artificial intelligence model creation module 200.

데이터 전처리 모듈(300)에 의해 이와 같은 전처리들이 완료되면, 데이터 수집 모듈(100)에서 수집한 3D 뎁스 카메라로부터의 데이터가 3차원 영상 RGB 데이터로 변환될 것이다. When such preprocessing is completed by the data preprocessing module 300, the data from the 3D depth camera collected by the data collection module 100 will be converted into 3D image RGB data.

방법의 설명Description of method

도 2 내지 도 3을 더 참조하여 옥수수 생육 측정 방법을 구체적으로 설명한다.The method for measuring corn growth will be described in detail with further reference to FIGS. 2 and 3.

먼저, 데이터 수집 모듈(100)이 3D 뎁스 카메라가 옥수수 군락를 촬영한 데이터를 이용하여 3차원 영상 RGB 데이터를 획득한다,First, the data collection module 100 acquires 3D image RGB data using data captured by a 3D depth camera on a corn colony.

이때, 데이터 수집 모듈(100)은 3m 높이에서 3D 뎁스 카메라가 옥수수 군락을 촬영한 데이터를 수집하는 것이 바람직하다.At this time, the data collection module 100 preferably collects data captured by a 3D depth camera on a corn colony from a height of 3 m.

다음, 인공지능 모델 생성 모듈(200)이 데이터 수집 모듈(100)에서 획득된 3차원 영상 RGB 데이터를 입력데이터로 하고, 이에 대응되도록 측정한 측정 데이터인 옥수수의 초장, 임관층, 엽면적, 및 잡초량을 출력데이터로 하는 학습 데이터를 학습시켜 옥수수 생육 자동 측정을 위한 인공지능 모델을 생성한다.Next, the artificial intelligence model creation module 200 uses the 3D image RGB data acquired from the data collection module 100 as input data, and the measured data measured to correspond to the input data are corn plant height, canopy layer, leaf area, and weeds. An artificial intelligence model for automatically measuring corn growth is created by learning learning data that uses quantity as output data.

이때, 인공지능 모델 생성 모듈(200)이 획득한 데이터는 전처리 모듈(300)에 의해 전처리된 데이터이다. At this time, the data acquired by the artificial intelligence model creation module 200 is data preprocessed by the preprocessing module 300.

구체적으로, 전처리 모듈(300)이 데이터 수집 모듈(100)에서 3D 뎁스 카메라가 옥수수 군락을 촬영한 데이터를 입력받고, 전처리 모듈(300)의 노이즈 제거부(320)에서 입력된 데이터를 ExGR지수로 필터링하고, 전처리 모듈(300)의 좌표 보정부(330)에서 입력된 데이터의 좌표를 RANSAC 알고리즘으로 보정함으로써, 3차원 영상 RGB 데이터를 획득할 것이다.Specifically, the preprocessing module 300 receives data captured by a 3D depth camera on a corn colony from the data collection module 100, and converts the data input from the noise removal unit 320 of the preprocessing module 300 into an ExGR index. By filtering and correcting the coordinates of the data input from the coordinate correction unit 330 of the preprocessing module 300 using the RANSAC algorithm, 3D image RGB data will be obtained.

마지막으로, 생성된 인공지능 모델에, 3D 뎁스 카메라가 옥수수 군락을 촬영한 데이터를 입력하면 옥수수의 초장, 임관층, 엽면적, 및 잡초량이 출력된다.Finally, when data captured by a 3D depth camera on a corn colony is input into the created artificial intelligence model, the corn plant height, canopy layer, leaf area, and amount of weeds are output.

이하 본 방법을 이용해 옥수수의 생육 평가를 위해 측정 값을 사용하는 경우를 설명한다. Below, we will explain the case of using measured values to evaluate the growth of corn using this method.

옥수수의 초장을 측정하는 방법을 설명한다. Explain how to measure the plant height of corn.

출력된 옥수수 초장의 측정 값을 평가하기 위해 3차원 데이터를 가시화 시켜주는 cloudcompare 등의 프로그램을 더 이용할 수 있다. 구축된 인공지능 모델은 옥수수의 각 주당 가장 높은 점을 선택하여 좌표 값을 저장하고, 저장된 좌표 값들에 대해 평균 값이 측정될 것이다. 본 방법에 따르면, 3D 뎁스 카메라의 영상 데이터를 이용한 옥수수 초장의 정확한 측정을 위해서 ExGR 지수로 옥수수 군락의 포인트 데이터만 추출 후 옥수수 군락 전체 포인트에서 Z축 좌표의 상위 1%, 10%의 포인트에 있는 좌표들의 평균값을 옥수수 군락의 평균 초장으로 측정할 수 있기 때문에, 실제 측정하지 않은 측정 값이지만 실제 측정한 데이터 값과 유사한 결과 값을 가질 것이다(도 2 참고).To evaluate the printed corn plant height measurement values, you can further use programs such as cloudcompare that visualizes 3D data. The constructed artificial intelligence model will select the highest point for each head of corn and store the coordinate values, and the average value of the stored coordinate values will be measured. According to this method, in order to accurately measure corn plant height using image data from a 3D depth camera, only the point data of the corn colony is extracted using the ExGR index, and then the points in the top 1% and 10% of the Z-axis coordinates from all points of the corn colony are extracted. Since the average value of the coordinates can be measured as the average plant height of the corn colony, although it is a measurement value that was not actually measured, it will have a result similar to the actually measured data value (see Figure 2).

옥수수 군락의 임관층을 평가하는 방법을 설명한다. 3D 뎁스 카메라의 영상 데이터에서 X,Z 또는 Y,Z의 좌표값의 포인트를 고정시켜서 히스토그램 형식으로 2차원 평면에 도면화 시켜서 작성한 후에 Z축에서의 포인트의 밀도를 평가함으로써 옥수수 군락의 임관층을 평가할 수 있다(도 5 참고)Describe how to evaluate the canopy of a corn colony. From the image data of the 3D depth camera, the points of Can be evaluated (see Figure 5)

옥수수 군락이 차지하는 면적을 측정하는 방법을 설명한다. 3D 뎁스 카메라에서 촬영한 영상 데이터를 데이터 전처리 모듈(300)을 이용해 처리한 후, 옥수수를 나타내는 픽셀수를 전체 이미지 픽셀 수로 나누어서 밭 토양에서 옥수수 군락이 차지하는 면적(Coverage)를 측정할 수 있다.Explain how to measure the area occupied by a corn colony. After processing the image data captured by the 3D depth camera using the data preprocessing module 300, the area (coverage) occupied by the corn colony in the field soil can be measured by dividing the number of pixels representing corn by the total number of image pixels.

군락에서 잡초가 차지하는 면적을 측정하는 방법을 설명한다. 미리 학습된 인공지능 모델에 3D 뎁스 카메라에서 촬영한 영상 데이터를 입력할 경우 군락에서 잡초가 차지하는 면적이 자동으로 측정되어 제공된다. 도 6은 그 예시를 도시하며, 여기에서는 인공지능 모델에서 연산된 옥수수의 엽면적을 전체 면적에서 제외함으로써 잡초량을 산출한 결과를 도시한다.Explain how to measure the area occupied by weeds in a colony. When image data taken from a 3D depth camera is input into a pre-trained artificial intelligence model, the area occupied by weeds in the colony is automatically measured and provided. Figure 6 shows an example, and here shows the result of calculating the amount of weeds by excluding the leaf area of corn calculated in the artificial intelligence model from the total area.

옥수수 군락의 엽면적 평가 방법을 설명한다. 노이즈 제거부(320)에 의해, 영상 RGB 데이터에서 red, blue, green의 값을 추출할 수 있고, ExGR 지수로 영상 RGB 데이터에서 옥수수 군락이 차지하는 면적을 추출할 수 있다. 다른 실시예에서, 영상 RGB 데이터의 전체 픽셀수와 옥수수만 추출된 영상의 픽셀수의 비율을 퍼센트로 표시할 수 있다. 이 때, python언어의 opencv2에서 제공하는 bitwise 함수를 이용할 수 있으나, 이에 한정되는 것은 아니다. 도 7과 같이 이미지로 제공된 측정 결과를 도 8과 같이 시계열로 작성된 그래프로 제공할 수도 있다.Describe the method for evaluating leaf area of corn colonies. By the noise removal unit 320, the values of red, blue, and green can be extracted from the image RGB data, and the area occupied by the corn colony can be extracted from the image RGB data using the ExGR index. In another embodiment, the ratio of the total number of pixels of the image RGB data and the number of pixels of the image from which only corn is extracted may be expressed as a percentage. At this time, the bitwise function provided by opencv2 of the python language can be used, but it is not limited to this. Measurement results provided as an image as shown in FIG. 7 can also be provided as a time series graph as shown in FIG. 8.

그 외에도, 도 9에 도시된 바와 같이 생장 속도 분석 그래프도 제공할 수 있다. 본 발명에 따라 측정된 값을 이용하여, 각 날짜의 밤에서의 옥수수 초장에서 낮에서의 옥수수 초장을 뺀 값과, 밤에서의 옥수수 초장에서 그 다음날 낮에서의 옥수수 초장을 뺀 값으로 측정한 결과를 이용하여 제공할 것이다.In addition, a growth rate analysis graph can also be provided as shown in Figure 9. Using the values measured according to the present invention, the results were measured by subtracting the corn pasture height during the day from the corn pasture height at night on each day, and the corn pasture height at night minus the corn pasture height during the day of the next day. It will be provided using .

또한, 본 발명에 따른 방법은 컴퓨터에 본 발명에 따른 방법을 실행시키기 위한 컴퓨터 프로그램을 기록한, 컴퓨터로 읽을 수 있는 기록매체 및 컴퓨터프로그램 형태로 제공될 수 있음은 물론이다.In addition, of course, the method according to the present invention can be provided in the form of a computer-readable recording medium and a computer program on which a computer program for executing the method according to the present invention is recorded on a computer.

검증verification

도 10 내지 도 11을 더 참조하여 본 발명에 따른 방법을 이용한 옥수수 생육 측정의 효과를 검증하였다.With further reference to Figures 10 and 11, the effect of measuring corn growth using the method according to the present invention was verified.

먼저, 도 10을 참고하여 설명한다.First, it will be described with reference to FIG. 10.

도 10은 대상 옥수수를 실제 측정한 값과 본 발명을 이용하여 측정한 값을 비교 분석한 그래프이다.Figure 10 is a graph comparing and analyzing the actual measured value of the target corn and the measured value using the present invention.

매 30분 간격으로 2022년 6월 8일부터 7월 26일까지 촬영되어진 옥수수 군락의 3차원 영상 및 이미지 데이터를 이용하여 모델을 생성하였다. 생성된 모델 평가를 위해 대조군으로 사용된 측정 데이터는 위 데이터 수집일의 매일 오전 5시에서 7시 사이의 데이터와 오후 5시에서 7시 사이의 데이터 각각 하나씩으로 하였다. A model was created using 3D video and image data of corn colonies captured every 30 minutes from June 8 to July 26, 2022. The measurement data used as a control group to evaluate the generated model were data from 5:00 AM to 7:00 AM and data from 5:00 PM to 7:00 PM on the above data collection day.

대조군으로서 상위 10%포인트와 1%포인트의 값으로 측정된 옥수수의 초장을 각 주에서 육안으로 확인한 후 가장 높은 포인트를 선택하여 직접 측정하였으며, 그 값과 본 발명에 따른 방법에서의 결과값을 비교 분석하였다. 분석 결과 본 발명에 따른 결과값과 직접 측정한 대조군의 측정 값은 높은 상관관계를 보이는 것을 알 수 있었다(1% R2=0.9959, 10% R2=0.9974). As a control, the plant height of corn measured at the top 10% point and 1% point was visually checked in each state, then the highest point was selected and measured directly, and the value was compared with the result from the method according to the present invention. analyzed. As a result of the analysis, it was found that the results according to the present invention and the directly measured values of the control group showed a high correlation (1% R2=0.9959, 10% R2=0.9974).

즉, 본 발명에 따른 방법으로 도출된 옥수수의 초장의 값과 직접 측정한 옥수수의 초장의 측정값이 높은 상관관계를 나타냈으며, 본 발명에 따른 방법의 정확도는 높음이 검증되었다. In other words, there was a high correlation between the corn plant height value derived by the method according to the present invention and the directly measured corn plant height value, and the accuracy of the method according to the present invention was verified to be high.

다음, 도 11을 이용해 인공지능 모델 검증 결과를 설명한다.Next, the artificial intelligence model verification results are explained using Figure 11.

사용된 영상은 총 234장으로 각 이미지에서 옥수수 픽셀 영역을 제외한 부분의 RGB값을 0으로 만든 데이터를 학습에 사용하였다. 분석에 사용된 입력 이미지의 크기는 512 * 512 로 하였다. A total of 234 images were used, and data in which the RGB value of the part of each image excluding the corn pixel area was set to 0 was used for learning. The size of the input image used for analysis was 512 * 512.

학습과정에서 사용한 U-net 모델의 옵티마이저는 Adam이며 학습 횟수는(epoch) 50번으로 하였다. 학습 결과는 전반적으로 99% 이상의 높은 정확도(Accuracy)와 0.02%미만의 낮은 손실값(Loss)을 나타내었다.The optimizer of the U-net model used in the learning process was Adam, and the number of learning times (epoch) was 50. The learning results showed overall high accuracy of over 99% and low loss of less than 0.02%.

이상, 본 명세서에는 본 발명을 당업자가 용이하게 이해하고 재현할 수 있도록 도면에 도시한 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 당업자라면 본 발명의 실시예로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 보호범위는 특허청구범위에 의해서 정해져야 할 것이다.Above, the present invention has been described with reference to the embodiments shown in the drawings so that those skilled in the art can easily understand and reproduce the present invention. However, these are merely illustrative examples, and various modifications and equivalent alternatives can be made by those skilled in the art from the embodiments of the present invention. It will be appreciated that embodiments are possible. Therefore, the scope of protection of the present invention should be determined by the scope of the patent claims.

100: 데이터 수집 모듈
101: 측정 데이터부
110: 3차원 영상 데이터부
120: RGB 데이터부
200: 인공지능 모델 생성 모듈
300: 데이터 전처리 모듈
310: 데이터 분석부
320: 노이즈 제거부
330: 좌표 보정부
340: 라벨링부
100: data acquisition module
101: Measurement data unit
110: 3D image data unit
120: RGB data unit
200: Artificial intelligence model creation module
300: Data preprocessing module
310: Data analysis department
320: noise removal unit
330: Coordinate correction unit
340: Labeling unit

Claims (5)

(a) 데이터 수집 모듈(100)이 3D 뎁스 카메라가 옥수수 군락를 촬영한 데이터를 이용하여 3차원 영상 RGB 데이터를 획득하는 단계;
(b) 인공지능 모델 생성 모듈(200)이 상기 데이터 수집 모듈(100)에서 획득된 3차원 영상 RGB 데이터를 입력데이터로 하고, 이에 대응되도록 측정한 측정 데이터인 옥수수의 초장, 임관층, 엽면적, 및 잡초량을 출력데이터로 하는 학습 데이터를 학습시켜 옥수수 생육 자동 측정을 위한 인공지능 모델을 생성하는 단계; 및
(c) 상기 생성된 인공지능 모델에, 3D 뎁스 카메라가 옥수수 군락을 촬영한 데이터를 입력하면 옥수수의 초장, 임관층, 엽면적, 및 잡초량이 출력되는 단계;를 포함하는,
방법.
(a) the data collection module 100 acquiring 3D image RGB data using data captured by a 3D depth camera on a corn colony;
(b) The artificial intelligence model creation module 200 uses the 3D image RGB data acquired in the data collection module 100 as input data, and the measured data measured to correspond to the data, such as corn plant height, canopy layer, and leaf area, And generating an artificial intelligence model for automatically measuring corn growth by learning learning data with the amount of weeds as output data; and
(c) inputting data captured by a 3D depth camera on a corn colony to the generated artificial intelligence model, outputting the plant height, canopy layer, leaf area, and amount of weeds of the corn;
method.
제 1 항에 있어서,
상기 (b) 단계에 있어서,
전처리 모듈(300)이 상기 데이터 수집 모듈(100)에서 상기 3D 뎁스 카메라가 옥수수 군락을 촬영한 데이터를 입력받고, 상기 전처리 모듈(300)의 노이즈 제거부(320)에서 상기 입력된 데이터를 ExGR지수로 필터링하고,
상기 전처리 모듈(300)의 좌표 보정부(330)에서 상기 입력된 데이터의 좌표를 RANSAC 알고리즘으로 보정함으로써, 3차원 영상 RGB 데이터를 획득하는 단계;를 포함하는,
방법.
According to claim 1,
In step (b),
The pre-processing module 300 receives data captured by the 3D depth camera on a corn colony from the data collection module 100, and converts the input data into the ExGR index from the noise removal unit 320 of the pre-processing module 300. Filter by,
Comprising: acquiring 3D image RGB data by correcting the coordinates of the input data using the RANSAC algorithm in the coordinate correction unit 330 of the pre-processing module 300,
method.
제 1 항에 있어서,
상기 (a)단계에 있어서,
(a1) 상기 데이터 수집 모듈(100)은 3m 높이에서 3D 뎁스 카메라가 옥수수 군락을 촬영한 데이터를 수집하는 단계;를 포함하는,
방법.
According to claim 1,
In step (a),
(a1) the data collection module 100 collects data captured by a 3D depth camera on a corn colony at a height of 3 m;
method.
컴퓨터에 제 1 항 내지 제 3 항 중 어느 한 항에 따른 방법을 실행시키기 위한 컴퓨터 프로그램을 기록한,
컴퓨터로 읽을 수 있는 기록매체.
A computer program for executing the method according to any one of claims 1 to 3 is recorded on a computer,
A recording medium that can be read by a computer.
컴퓨터에 제 1 항 내지 제 3 항 중 어느 한 항에 따른 방법을 실행시키기 위하여 기록매체에 저장된,
컴퓨터프로그램.
Stored on a recording medium for executing the method according to any one of claims 1 to 3 on a computer,
computer program.
KR1020220166780A 2022-12-02 2022-12-02 Automatic corn growth measurement method using 3D depth camera KR20240083254A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220166780A KR20240083254A (en) 2022-12-02 2022-12-02 Automatic corn growth measurement method using 3D depth camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220166780A KR20240083254A (en) 2022-12-02 2022-12-02 Automatic corn growth measurement method using 3D depth camera

Publications (1)

Publication Number Publication Date
KR20240083254A true KR20240083254A (en) 2024-06-12

Family

ID=91469394

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220166780A KR20240083254A (en) 2022-12-02 2022-12-02 Automatic corn growth measurement method using 3D depth camera

Country Status (1)

Country Link
KR (1) KR20240083254A (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170114065A (en) 2016-04-01 2017-10-13 한국전자통신연구원 System and method for servicing controlment for crop image and growth information
US10891482B2 (en) 2018-07-10 2021-01-12 Adroit Robotics Systems, devices, and methods for in-field diagnosis of growth stage and crop yield estimation in a plant area
US20220138925A1 (en) 2020-10-29 2022-05-05 Deere & Company Method and system for optical yield measurement of a standing crop in a field

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170114065A (en) 2016-04-01 2017-10-13 한국전자통신연구원 System and method for servicing controlment for crop image and growth information
US10891482B2 (en) 2018-07-10 2021-01-12 Adroit Robotics Systems, devices, and methods for in-field diagnosis of growth stage and crop yield estimation in a plant area
US20210133443A1 (en) 2018-07-10 2021-05-06 Adroit Robotics Systems, devices, and methods for in-field diagnosis of growth stage and crop yield estimation in a plant area
US20220138925A1 (en) 2020-10-29 2022-05-05 Deere & Company Method and system for optical yield measurement of a standing crop in a field

Similar Documents

Publication Publication Date Title
Scharr et al. Leaf segmentation in plant phenotyping: a collation study
Kataoka et al. Crop growth estimation system using machine vision
CN109447945B (en) Quick counting method for basic wheat seedlings based on machine vision and graphic processing
CN109325431B (en) Method and device for detecting vegetation coverage in feeding path of grassland grazing sheep
KR101822410B1 (en) Apparatus for diagnosing growth state of crop organ using crop organ image
US10127450B2 (en) Plot gap identification
KR20180057785A (en) A system of measuring fish number for image analysis and that of measure method
Tripathi et al. An image processing and neural network based approach for detection and classification of plant leaf diseases
Liu et al. 3DBunch: A novel iOS-smartphone application to evaluate the number of grape berries per bunch using image analysis techniques
US10192112B2 (en) Plot gap identification
Buenconsejo et al. Detection and Identification of Abaca Diseases using a Convolutional Neural Network CNN
Elfri et al. Determining paddy crop health from aerial image using machine learning approach: A Brunei Darussalam based study
CN117152110A (en) Rice AGB monitoring method based on image texture features
Li et al. Image processing for crop/weed discrimination in fields with high weed pressure
KR20240083254A (en) Automatic corn growth measurement method using 3D depth camera
CN113807143A (en) Crop connected domain identification method and device and operation system
CN115034693B (en) Biological information data security management method, system and storage medium based on Internet of things
Mishra et al. Prediction and detection of nutrition deficiency using machine learning
CN115526842A (en) Nasopharyngeal laryngoscope monitoring method, device, system, computer equipment and storage medium
KR20220022961A (en) Advanced crop diagnosing system
CN114764833A (en) Plant growth curve determination method and device, electronic equipment and medium
Mirbod et al. In-field apple size and location tracking using machine vision to assist fruit thinning and harvest decision-making
CN109632799A (en) The mobile detection stage division of rice leaf nitrogen content based on machine vision, system and computer readable storage medium
Van Pham et al. A comparison of effectiveness between 2-dimensional and 3-dimensional data visualization in detecting plant architectural characteristics
Benhaddou et al. Estimating mushroom yield and quality using computer vision