KR20220059820A - A device for measuring crop growth using deep learning segmentation recognition technology and operation method thereof - Google Patents
A device for measuring crop growth using deep learning segmentation recognition technology and operation method thereof Download PDFInfo
- Publication number
- KR20220059820A KR20220059820A KR1020200145452A KR20200145452A KR20220059820A KR 20220059820 A KR20220059820 A KR 20220059820A KR 1020200145452 A KR1020200145452 A KR 1020200145452A KR 20200145452 A KR20200145452 A KR 20200145452A KR 20220059820 A KR20220059820 A KR 20220059820A
- Authority
- KR
- South Korea
- Prior art keywords
- crop
- stem
- information
- growth
- flower
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/02—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
- G01B11/04—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness specially adapted for measuring length or width of objects while moving
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/02—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
- G01B11/022—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by means of tv-camera scanning
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/08—Measuring arrangements characterised by the use of optical techniques for measuring diameters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/84—Systems specially adapted for particular applications
- G01N2021/8466—Investigation of vegetal material, e.g. leaves, plants, fruits
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30181—Earth observation
- G06T2207/30188—Vegetation; Agriculture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/12—Bounding box
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
Abstract
Description
본 발명은 딥러닝 세그멘테이션 인식 기술을 이용한 작물 생장 측정 장치 및 그 방법에 관한 것으로, 좀 더 자세하게는 딥러닝 세그멘테이션을 이용하여 작물의 생장 길이 및 화방 부근의 줄기 굵기를 구하는 기술에 관한 것이다.The present invention relates to an apparatus and method for measuring crop growth using deep learning segmentation recognition technology, and more particularly, to a technology for obtaining a growth length of a crop and a stem thickness near a flower room using deep learning segmentation.
최근 인터넷, 근거리 무선통신 기술, 이미지프로세싱 및 다양한 센싱 ICT(Information & Communication Technology)복합 기술은 농작물 재배 및 생장 모니터링 시스템에 적용되어 발전하고 있다. 아울러, 농작물의 생장 환경을 관리할 수 있는 온실 모니터링과 관리 시스템 또한 함께 발전하는 추세이다.Recently, the Internet, short-range wireless communication technology, image processing, and various sensing ICT (Information & Communication Technology) complex technologies are being applied to crop cultivation and growth monitoring systems and are being developed. In addition, greenhouse monitoring and management systems that can manage the growing environment of crops are also developing together.
그러나, 작업자가 일정한 주기마다 대량의 작물에 대해 각 단별 생육 상태를 육안으로 확인하고 기록하기에는 많은 노동력과 시간이 소요된다. 뿐만 아니라, 작물이 작업자의 키보다 높게 생장하거나, 작업자가 대량의 작물 중에서 특정 작물 내 특정 단의 생육 상태를 확인하지 못하고 그냥 지나치는 경우에, 작물의 각 단별생육 상태를 정확하게 파악하기 어렵다는 문제점이 발생했다.However, it takes a lot of labor and time for the operator to visually check and record the growth state of each stage for a large amount of crops at regular intervals. In addition, when the crop grows higher than the worker's height or when the worker passes by without checking the growth status of a specific stage in a specific crop among a large number of crops, it is difficult to accurately grasp the growth status of each stage of the crop. happened.
또한, 농작물의 높이를 측정하는 경우 일부 농작물의 총 높이가 2m를 넘으면 화각에 잡히지 않기 때문에 일정재배기간이 지나면 농작물의 높이를 파악할 수 없는 문제가 있다. 아울러 촬영 후 이미지 인식에 있어서, 군락 별로 밀집해 있는 작물을 촬영하면, 작물이 겹쳐 있는 경우, 작물 기관을 정확히 인식하기 어렵다. 또한, 현재 측정된 작물 데이터를 수집하여, 작물의 생육 변화량을 예측하거나 작물 상태를 진단할 수 있는 시스템이 부재한 상황이다.In addition, when measuring the height of crops, if the total height of some crops exceeds 2m, the angle of view is not captured, so there is a problem in that the height of the crops cannot be determined after a certain cultivation period. In addition, in image recognition after photographing, if crops that are dense by colony are photographed, when crops overlap, it is difficult to accurately recognize crop organs. In addition, there is no system capable of predicting the change in crop growth or diagnosing crop conditions by collecting currently measured crop data.
본 발명은 딥러닝 세그멘테이션을 이용하여 작물의 생장 길이 및 화방 부근의 줄기 굵기를 구하는 작물 생육 장치 및 그 방법을 제공하고자 한다.An object of the present invention is to provide a crop growth apparatus and method for obtaining a growth length of a crop and a stem thickness in the vicinity of a flower room using deep learning segmentation.
본 발명의 일 실시예에 따른 작물 생장 측정 방법에 있어서, 작물을 촬영한 영상을 입력받는 단계, 제1 추출 파라미터에 기초하여, 상기 영상에서 인식된 상기 작물의 측정 대상의 줄기 세그멘테이션 정보를 추출하는 단계, 제2 추출 파라미터에 기초하여, 상기 영상에서 인식된 상기 작물의 측정 대상의 화방 박스 정보를 추출하는 단계, 및 상기 줄기 세그멘테이션 정보와 상기 화방 박스 정보의 교차 정보에 기반하여 상기 작물의 생장 길이 및 화방 부근의 줄기 굵기 중 적어도 하나를 측정하는 단계를 포함한다.In the method for measuring crop growth according to an embodiment of the present invention, the step of receiving an image of a crop, based on a first extraction parameter, extracting stem segmentation information of a measurement target of the crop recognized in the image step, extracting the flower box information of the measurement target of the crop recognized from the image based on the second extraction parameter, and the growth length of the crop based on the intersection information of the stem segmentation information and the flower room box information And measuring at least one of the thickness of the stem in the vicinity of the flower room.
본 발명의 일 실시예에 있어서, 상기 작물의 생장 길이 및 화방 부근의 줄기 굵기 중 적어도 하나를 측정하는 단계는, 상기 줄기 세그멘테이션 정보의 최고점과 상기 화방 박스 정보의 최저점의 차이를 측정하여 상기 작물의 생장 길이를 계산하는 단계를 포함할 수 있다.In one embodiment of the present invention, the step of measuring at least one of the growth length of the crop and the thickness of the stem in the vicinity of the flower room comprises measuring the difference between the highest point of the stem segmentation information and the lowest point of the flower room box information. It may include calculating the growth length.
본 발명의 일 실시예에 있어서, 상기 작물의 생장 길이 및 화방 부근의 줄기 굵기 중 적어도 하나를 측정하는 단계는, 상기 줄기 세그멘테이션 정보와 상기 화방 박스 정보의 교차부분에 생성된 교차 라인의 길이를 측정하여 상기 작물의 화방 부근의 줄기 굵기를 계산하는 단계를 더 포함할 수 있다.In one embodiment of the present invention, measuring at least one of the growth length of the crop and the thickness of the stem near the flower room includes measuring the length of the intersection line generated at the intersection of the stem segmentation information and the flower room box information Thus, the method may further include calculating the thickness of the stem near the flower room of the crop.
본 발명의 일 실시예에 있어서, 상기 영상을 입력받는 단계 이후에, 상기 작물 별로 기설정된 임계값에 기초하여, 상기 영상에서 상기 생장 측정 대상 작물을 인식하는 단계를 더 포함할 수 있다.In one embodiment of the present invention, after receiving the image, based on a threshold value preset for each crop, the method may further include recognizing the target crop for growth measurement in the image.
본 발명의 일 실시예에 있어서, 상기 작물의 측정 대상 중 줄기와 화방을 구분하여 라벨링하는 라벨링 단계를 더 포함할 수 있으며, 상기 라벨링 단계에서, 상기 화방 박스 정보의 최저점의 적어도 일부가 상기 줄기 세그멘테이션 정보의 결과에 따른 상기 작물의 줄기에 교차되도록 할 수 있다.In one embodiment of the present invention, the method may further include a labeling step of labeling separately a stem and a flower room among the measurement objects of the crop, and in the labeling step, at least a part of the lowest point of the flower room box information is the stem segmentation It is possible to cross the stem of the crop according to the result of the information.
본 발명의 일 실시예에 있어서, 상기 작물의 생장 길이 및 화방 부근의 줄기 굵기 중 적어도 하나를 측정하는 단계에서, 고정설치된 카메라를 통해 상기 작물의 생장 변화를 실시간으로 측정하여, 레퍼런스 값과 비교함으로써, 상기 작물의 생장 길이를 측정할 수 있다.In one embodiment of the present invention, in the step of measuring at least one of the growth length of the crop and the thickness of the stem near the flower room, the change in the growth of the crop is measured in real time through a fixed camera, and compared with a reference value. , it is possible to measure the growth length of the crop.
본 발명의 일 실시예에 있어서, 상기 작물의 생장 길이 및 화방 부근의 줄기 굵기 중 적어도 하나를 측정하는 단계에서, 상기 카메라 중 Depth 카메라를 이용하여 상기 영상과 상기 작물의 절대 크기를 입력받아, 상기 작물의 생장 길이 및 상기 화방 부근의 줄기 굵기 중 적어도 하나를 추출할 수 있다.In one embodiment of the present invention, in the step of measuring at least one of the growth length of the crop and the thickness of the stem near the flower room, the image and the absolute size of the crop are received by using a depth camera among the cameras, At least one of a growth length of a crop and a thickness of a stem near the flower room may be extracted.
본 발명의 일 실시예에 있어서, 상기 제1 추출 파라미터는 상기 측정 대상의 줄기 세그멘테이션에 사용되는 객체 정보를 포함하고, 상기 제2 추출 파라미터는 상기 측정 대상의 화방 박스 정보를 추출하기 위해 사용되는 객체 정보를 포함하며, 상기 상기 교차 라인 및 상기 작물의 정보 중 적어도 하나를 이용하여 상기 제1 및 제2 파라미터를 업데이트하는 단계를 포함할 수 있다.In an embodiment of the present invention, the first extraction parameter includes object information used for stem segmentation of the measurement target, and the second extraction parameter is an object used to extract information about a video room of the measurement target Including information, the method may include updating the first and second parameters by using at least one of the information of the crossing line and the crop.
본 발명의 일 실시예에 따른 작물 생장 측정 장치는 작물을 촬영한 영상을 입력받는 영상 입력부, 제1 추출 파라미터에 기초하여, 상기 영상에서 인식된 상기 작물의 측정 대상의 줄기 세그멘테이션 정보를 추출하는 줄기 세그멘테이션부, 제2 추출 파라미터에 기초하여, 상기 영상에서 인식된 상기 작물의 화방 박스 정보를 추출하는 화방 박스 작업부, 및 상기 줄기 세그멘테이션 정보와 상기 화방 박스 정보의 교차 정보에 기반하여 상기 작물의 생장 길이 및 화방 부근의 줄기 굵기 중 적어도 하나를 측정하는 생장 계산부를 포함할 수 있다.A crop growth measuring apparatus according to an embodiment of the present invention is an image input unit receiving an image of a crop, based on a first extraction parameter, a stem for extracting stem segmentation information of a measurement target of the crop recognized in the image A segmentation unit, a flower room box work unit for extracting flower box information of the crop recognized from the image based on a second extraction parameter, and growth of the crop based on intersection information of the stem segmentation information and the flower room box information It may include a growth calculator that measures at least one of the length and the thickness of the stem near the flower room.
본 발명의 일 실시예에 있어서, 상기 생장 계산부는 상기 줄기 세그멘테이션 정보의 최고점과 상기 화방 박스 정보의 최저점의 차이를 측정하여 상기 작물의 생장 길이를 계산할 수 있다.In one embodiment of the present invention, the growth calculator may calculate the growth length of the crop by measuring a difference between the highest point of the stem segmentation information and the lowest point of the flower box information.
본 발명의 일 실시예에 있어서, 상기 생장 계산부는 상기 줄기 세그멘테이션 정보와 상기 화방 박스 정보의 교차부분에 생성된 교차 라인의 길이를 측정하여 화방 부근의 줄기 굵기를 계산할 수 있다.In one embodiment of the present invention, the growth calculation unit may calculate the thickness of the stem near the flower room by measuring the length of the intersection line generated at the intersection of the stem segmentation information and the flower room box information.
본 발명의 일 실시예에 있어서, 상기 줄기 세그멘테이션 정보와 상기 화방 박스 정보를 이용하여, 상기 작물의 측정 대상 중 줄기와 화방을 구분하여 라벨링하는 작물 라벨링부를 더 포함할 수 있으며, 상기 작물 라벨링부에서, 상기 화방 박스 정보의 최저점의 적어도 일부가 상기 줄기 세그멘테이션 정보의 결과에 따른 상기 작물의 줄기에 교차되도록 할 수 있다.In an embodiment of the present invention, a crop labeling unit for classifying and labeling a stem and a flower room among the measurement objects of the crop may be further included using the stem segmentation information and the flower room box information, and in the crop labeling unit , at least a part of the lowest point of the flower box information may cross the stem of the crop according to the result of the stem segmentation information.
본 발명의 일 실시예에 있어서, 상기 생장 계산부는 고정설치된 카메라를 통해 상기 작물의 생장 변화를 실시간으로 측정하여, 레퍼런스 값과 비교함으로써, 상기 작물의 생장 길이를 측정할 수 있다.In one embodiment of the present invention, the growth calculation unit may measure the growth length of the crop by measuring a change in the growth of the crop in real time through a fixed camera and comparing it with a reference value.
본 발명이 일 실시예에 따른 작물 생장 측정 시스템은 작물 생장 측정 장치, 작물을 촬영하기 위한 카메라, 및 상기 작물 생장 측정 장치의 정보를 표시하는 사용자 단말을 포함하며, 상기 작물 생장 측정 장치는, 작물을 촬영한 영상을 입력받는 영상 입력부, 제1 추출 파라미터에 기초하여, 상기 영상에서 인식된 상기 작물의 측정 대상의 줄기 세그멘테이션 정보를 추출하는 줄기 세그멘테이션부, 제2 추출 파라미터에 기초하여, 상기 영상에서 인식된 상기 작물의 화방 박스 정보를 추출하는 화방 박스 작업부, 및 상기 줄기 세그멘테이션 정보와 상기 화방 박스 정보의 교차 정보에 기반하여 상기 작물의 생장 길이 및 화방 부근의 줄기 굵기 중 적어도 하나를 측정하는 생장 계산부를 포함한다.A crop growth measurement system according to an embodiment of the present invention includes a crop growth measurement device, a camera for photographing a crop, and a user terminal displaying information of the crop growth measurement device, wherein the crop growth measurement device includes: An image input unit that receives an image of a photograph of A flower room box work unit for extracting the recognized flower room box information of the crop, and the growth length measuring at least one of the growth length of the crop and the thickness of the stem near the flower room based on the intersection information of the stem segmentation information and the flower room box information Includes calculator.
본 발명의 일 실시예에 따른 컴퓨터프로그램은 작물을 촬영한 영상을 입력받는 단계, 제1 추출 파라미터에 기초하여, 상기 영상에서 인식된 상기 작물의 측정 대상의 줄기 세그멘테이션 정보를 추출하는 단계, 제2 추출 파라미터에 기초하여, 상기 영상에서 인식된 상기 작물의 화방 박스 정보를 추출하는 단계, 상기 줄기 세그멘테이션 정보와 상기 화방 박스 정보의 교차 정보에 기반하여 상기 작물의 생장 길이 및 화방 부근의 줄기 굵기 중 적어도 하나를 측정하는 단계를 실행시키기 위하여 매체에 저장된다.The computer program according to an embodiment of the present invention includes the steps of receiving an image of a crop, extracting stem segmentation information of a measurement target of the crop recognized from the image, based on a first extraction parameter, a second extracting the flower box information of the crop recognized from the image based on the extraction parameter, based on the intersection information of the stem segmentation information and the flower room box information, at least one of the growth length of the crop and the thickness of the stem near the flower room One is stored in the medium for executing the measuring step.
본 출원의 일 실시예에 따른 작물 생장 측정 방법은 작물의 생장 길이 및 화방 부근의 줄기 굵기를 정확하고 신속하게 구할 수 있다.The method for measuring crop growth according to an embodiment of the present application can accurately and quickly obtain the growth length of a crop and the thickness of a stem near the flower room.
도 1은 종래의 작물 생육 상태를 측정하는 방법에 대한 도면이다.
도 2는 본 발명의 일 실시예에 따른 작물 생장 측정 방법에 대해 도시한 순서도이다.
도 3은 본 발명의 일 실시예에 따른 생장 측정 대상 작물을 인식하는 단계를 도시한 순서도이다.
도 4는 본 발명의 일 실시예에 따른 작물의 생장 길이 및 화방 부근의 줄기 굵기 중 적어도 하나를 측정하는 단계를 도시한 순서도이다.
도 5는 본 발명의 일 실시예에 따른 작물 생장 측정 장치에 대한 블록도이다.
도 6은 본 발명의 일 실시예에 따른 굵기 측정 방법을 나타낸 도면이다.
도 7은 본 발명의 일 실시예에 따른 작물 생장 측정 시스템을 나타낸 도면이다.1 is a diagram of a method for measuring a conventional crop growth state.
2 is a flowchart illustrating a method for measuring crop growth according to an embodiment of the present invention.
3 is a flowchart illustrating a step of recognizing a growth measurement target crop according to an embodiment of the present invention.
4 is a flowchart illustrating the steps of measuring at least one of a growth length of a crop and a stem thickness near a flower room according to an embodiment of the present invention.
5 is a block diagram of an apparatus for measuring crop growth according to an embodiment of the present invention.
6 is a view showing a thickness measuring method according to an embodiment of the present invention.
7 is a view showing a crop growth measurement system according to an embodiment of the present invention.
이하, 본 명세서에 개시된 실시 예들은 도면을 참조하여 상세하게 설명하고 자 한다. 본문에서 달리 명시하지 않는 한, 도면의 유사한 참조번호들은 유사한 구성요소들을 나타낸다. 상세한 설명, 도면들 및 청구항들에서 상술하는 예시적인 실시 예들은 한정을 위한 것이 아니며, 다른 실시 예들이 이용될 수 있으며, 여기서 개시되는 기술의 사상이나 범주를 벗어나지 않는 한 다른 변경들도 가능하다. 당업자는 본 개시의 구성요소들, 즉 여기서 일반적으로 기술되고, 도면에 기재되는 구성요소들을 다양하게 다른 구성으로 배열, 구성, 결합, 도안할 수 있으며, 이것들의 모두는 명백하게 고안 되어지며, 본 개시의 일부를 형성하고 있음을 용이하게 이해할 수 있을 것이다. 도면에서 여러 층(또는 막), 영역 및 형상을 명확하게 표현하기 위하여 구성요소의 폭, 길이, 두께 또는 형상 등은 과장되어 표현될 수도 있다.Hereinafter, embodiments disclosed in the present specification will be described in detail with reference to the drawings. Unless otherwise specified in the text, like reference numbers in the drawings indicate like elements. Exemplary embodiments described above in the detailed description, drawings, and claims are not intended to be limiting, and other embodiments may be used, and other changes may be made without departing from the spirit or scope of the technology disclosed herein. Those skilled in the art may arrange, construct, combine, and design in variously different configurations the elements of the present disclosure, i.e., the elements generally described herein and illustrated in the drawings, all of which are clearly devised, and the present disclosure It can be easily understood that it forms a part of In order to clearly express various layers (or films), regions, and shapes in the drawings, the width, length, thickness, or shape of the components may be exaggerated.
개시된 기술에 관한 설명은 구조적 내지 기능적 설명을 위한 실시 예에 불과하므로, 개시된 기술의 권리범위는 본문에 설명된 실시 예에 의하여 제한되는 것으로 해석되어서는 아니된다. 즉, 실시 예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 개시된 기술의 권리범위는 기술적 사상을 실현할 수 있는 균등물을 포함하는 것으로 이해되어야 한다.Since the description of the disclosed technology is merely an embodiment for structural or functional description, the scope of the disclosed technology should not be construed as being limited by the embodiment described in the text. That is, since the embodiment may have various changes and may have various forms, it should be understood that the scope of the disclosed technology includes equivalents capable of realizing the technical idea.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, “포함하다” 또는 “가지다” 등의 용어는 실시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성 요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The singular expression is to be understood as including the plural expression unless the context clearly dictates otherwise, and terms such as “comprises” or “have” refer to the embodied feature, number, step, action, component, part or these It is to be understood that this is intended to indicate that a combination exists, and does not preclude the possibility of addition or existence of one or more other features or numbers, steps, operations, components, parts, or combinations thereof.
여기서 사용된 모든 용어들은 다르게 정의되지 않는 한, 개시된 기술이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 용어들은 관련기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석 될 수 없다.All terms used herein have the same meaning as commonly understood by one of ordinary skill in the art to which the disclosed technology belongs, unless otherwise defined. Terms defined in commonly used dictionaries should be interpreted as being consistent with the meanings in the context of the related art, and cannot be interpreted as having ideal or excessively formal meanings unless explicitly defined in the present application.
도 1은 종래의 작물 생육 상태를 측정하는 방법에 대한 도면이다.1 is a view of a method for measuring the state of the conventional crop growth.
도 1을 참조하면, 종래에는 딥러닝 box 인식 방법을 이용하여 작물의 생장점 및 화방을 인식하였다. 상단의 녹색 box는 생장점을 인식한 경우이고, 하단의 녹색 box는 화방을 인식한 경우이다. 그러나, 이 방법을 이용하여 작물의 생장 길이 및 화방 부근의 줄기 굵기를 인식하는 경우에 오차가 커서 추가의 알고리즘이 필요하고, 농작물의 생육은 상황마다 다르기 때문에 표준적인 알고리즘이 필요해 상용화에 어려움이 있었다. 또한, 세그멘테이션 알고리즘의 경우, 매번 수확물을 따서 측정해야하는 문제가 발생할 수 있다. 이에 더해, 단순히 열매의 크기로만 측정하기 어려운 경우와 매번 측정하여야하는 열매 위치가 다를 수 있기 때문에, 일률적인 측정방법이 되기 어렵다는 문제점이 발생할 수 있다.Referring to FIG. 1 , conventionally, the growth point and flower room of a crop were recognized using a deep learning box recognition method. The green box at the top is when the growth point is recognized, and the green box at the bottom is when the flower room is recognized. However, when using this method to recognize the growth length of crops and the thickness of stems near the flower room, an additional algorithm is required because of a large error. . In addition, in the case of the segmentation algorithm, there may be a problem of measuring the harvest each time. In addition, since it is difficult to measure only the size of the fruit and the location of the fruit to be measured each time may be different, there may be a problem that it is difficult to obtain a uniform measurement method.
이에 따라, 본 발명은 줄기 세그멘테이션 정보와 화방 박스 정보를 조합하여 생장 정도를 측정하는 작물 생장 측정 장치 및 그 방법에 대해 후술하고자 한다.Accordingly, the present invention will be described later on a crop growth measuring apparatus and method for measuring a growth degree by combining stem segmentation information and flower box information.
도 2는 본 발명의 일 실시예에 따른 작물 생장 측정 방법에 대해 도시한 순서도이다.2 is a flowchart illustrating a method for measuring crop growth according to an embodiment of the present invention.
도 2를 참조하면, 작물 생장 측정 방법은 작물을 촬영한 영상을 입력받는 단계(S11), 영상 내 생장 측정 대상 작물을 인식하는 단계(S13), 작물의 줄기 세그멘테이션 정보를 추출하는 단계(S15), 작물의 화방 박스 정보를 추출하는 단계(S17), 및 작물의 생장 길이 및 화방 부근의 줄기 굵기 중 적어도 하나를 측정하는 단계(S19)를 포함한다.Referring to FIG. 2 , the crop growth measurement method includes a step of receiving an image of a crop (S11), a step of recognizing a target crop for growth measurement in the image (S13), and a step of extracting stem segmentation information of the crop (S15) , extracting flower box information of the crop (S17), and measuring at least one of the growth length of the crop and the thickness of the stem near the flower room (S19).
일 실시예에 있어서, 화방 부근의 줄기 굵기는 개화된 첫 화방 부근의 줄기 두께일 수 있다. 즉, 화방 자체의 줄기의 굵기가 아닌, 화방과 접하는 줄기 부분의 두께 또는 화방이 개화되는 줄기 부분의 두께를 의미한다.In an embodiment, the thickness of the stem near the flower room may be the thickness of the stem near the first flower room that has bloomed. That is, it does not mean the thickness of the stem of the flower room itself, but the thickness of the stem portion in contact with the flower room or the thickness of the stem portion at which the flower room blooms.
일 실시예에 있어서, 작물의 생장 길이는 생장점으로부터, 화방이 개화된 줄기 부분까지의 길이일 수 있으며, 여기서 화방은 첫 개화된 화방, 즉, 줄기의 생장점에 가장 인접한 화방을 의미할 수 있다.In one embodiment, the growth length of the crop may be the length from the growth point to the part of the stem where the flower room is opened, where the flower room may mean the flower room that first opened, that is, the flower room closest to the growth point of the stem.
작물을 촬영한 영상을 입력받는 단계(S11)는 카메라를 통해 촬영된 작물의 영상을 입력받을 수 있다. 이때, 카메라는 IP카메라, HD-SDI 카메라, 아날로그 카메라, 화재감지 컬러카메라, 열화상 카메라, SD(720x486, NTSC)급의 해상도에서 HD(1920x5080, HD5080p) 카메라, IP줌 스피드 카메라, CCTV 카메라, Depth 카메라 중 적어도 하나일 수 있다. 카메라는 고정되어 설치될 수 있으며, 실시간으로 작물의 생장변화를 확인할 수 있다. In the step S11 of receiving an image of a crop photographed, an image of a crop photographed through a camera may be input. At this time, the cameras are IP cameras, HD-SDI cameras, analog cameras, fire detection color cameras, thermal imaging cameras, HD (1920x5080, HD5080p) cameras at the resolution of SD (720x486, NTSC), IP zoom speed cameras, CCTV cameras, It may be at least one of depth cameras. The camera can be fixed and installed, and changes in the growth of crops can be checked in real time.
영상 내 생장 측정 대상 작물을 인식하는 단계(S13)는 작물 별로 기설정된 임계값에 기초하여, 영상에서 생장 측정 대상 작물을 인식할 수 있다. 영상 내의 작물은 획일적으로 생장되지 않기 때문에, 영상 내에 생장 측정 대상이 되는 작물을 인식할 필요가 있다. 일 실시예에 있어서, 작물을 인식하기 위해 딥러닝 기술을 이용할 수 있다. 딥러닝 기술을 이용하기 위해서는, 여러 각도와 위치에서의 대상 작물의 사진을 수집할 필요가 있다. 또한, 정확성을 높이기 위하여, 영상 기법을 사용하여, 대상 작물의 사진을 크기 별, 각도 별로 x n개의 수량으로 증가시킬 수 있다. 상기의 방법을 통해 영상 내의 생장 측정 대상 작물을 인식할 수 있다. 이와 관련하여, 구체적인 내용은 도 3에서 후술될 것이다.In the step of recognizing the target crop for growth measurement in the image ( S13 ), the target crop for growth measurement in the image may be recognized based on a preset threshold value for each crop. Since crops in the image do not grow uniformly, it is necessary to recognize the crop to be measured in the image. In one embodiment, deep learning technology may be used to recognize crops. In order to use deep learning technology, it is necessary to collect pictures of target crops from various angles and positions. In addition, in order to increase accuracy, by using an imaging technique, the number of photos of the target crop may be increased to x n for each size and angle. Through the above method, it is possible to recognize the target crop for growth measurement in the image. In this regard, specific details will be described later with reference to FIG. 3 .
작물의 줄기 세그멘테이션 정보를 추출하는 단계(S15)는 제1 추출 파라미터에 기초하여, 영상에서 인식된 상기 작물의 측정 대상의 줄기 세그멘테이션 정보를 추출할 수 있다. 일 실시예에 있어서, 줄기 세그멘테이션 정보는 세그멘테이션화된 작물의 줄기일 수 있다. 즉, 줄기 세그멘테이션 정보는 작물의 줄기만을 추출한 정보일 수 있다. 제1 추출 파라미터는 측정 대상의 줄기 세그멘테이션에 사용되는 객체 정보를 포함할 수 있다.In the step of extracting the stem segmentation information of the crop ( S15 ), stem segmentation information of the measurement target of the crop recognized from the image may be extracted based on the first extraction parameter. In an embodiment, the stem segmentation information may be a stem of a segmented crop. That is, the stem segmentation information may be information obtained by extracting only the stem of a crop. The first extraction parameter may include object information used for stem segmentation of the measurement target.
작물의 화방 박스 정보를 추출하는 단계(S17)는 제2 추출 파라미터에 기초하여, 상기 영상에서 인식된 작물의 측정 대상의 화방 박스 정보를 추출할 수 있다. 일 실시예에 있어서, 화방 박스 정보는 꽃과 꽃의 줄기까지를 박스 처리한 정보일 수 있다. 제2 추출 파라미터는 측정 대상의 화방 박스 정보를 추출하기 위해 사용되는 객체 정보를 포함할 수 있다.In the step of extracting the flower room box information of the crop (S17), based on the second extraction parameter, the flower room box information of the measurement target of the crop recognized in the image may be extracted. According to an embodiment, the flower room box information may be information obtained by box-processing flowers and flower stems. The second extraction parameter may include object information used to extract information about a room to be measured.
일 실시예에 있어서, 작물의 줄기 세그멘테이션 정보를 추출하는 단계(S15) 및 작물의 화방 박스 정보를 추출하는 단계(S17)의 순서는 변경될 수 있다. 예를 들어, 작물의 화방 박스 정보를 추출하는 단계(S17)를 실시한 후, 작물의 줄기 세그멘테이션 정보를 추출하는 단계(S15)를 실행할 수 있다.In one embodiment, the order of extracting the stem segmentation information of the crop (S15) and extracting the flower room box information of the crop (S17) may be changed. For example, after performing the step (S17) of extracting the flower box information of the crop, the step of extracting the stem segmentation information of the crop (S15) may be executed.
작물의 생장 길이 및 화방 부근의 줄기 굵기 중 적어도 하나를 측정하는 단계(S19)는 줄기 세그멘테이션 정보와 화방 박스 정보의 교차 정보에 기반하여 작물의 생장 길이 및 화방 부근의 줄기 굵기 중 적어도 하나를 측정할 수 있다.The step of measuring at least one of the growth length of the crop and the thickness of the stem near the flower room (S19) is to measure at least one of the growth length of the crop and the thickness of the stem near the flower room based on the intersection information of the stem segmentation information and the flower box information. can
일 실시예에 있어서, 줄기 세그멘테이션 정보의 최고점과 화방 박스 정보의 최저점의 차이를 측정하여, 작물의 생장 길이를 측정할 수 있다.In an embodiment, by measuring the difference between the highest point of the stem segmentation information and the lowest point of the flower box information, the growth length of the crop may be measured.
다른 일 실시예에 있어서, 고정 설치된 카메라를 통해 작물의 생장 변화를 실시간으로 측정하여, 기존의 레퍼런스 값과 비교함으로써, 작물의 생장 길이를 측정할 수 있다. 예를 들어, 기존의 레퍼런스 값은 전날 작물의 생장값일 수 있다.In another embodiment, the growth length of the crop may be measured by measuring a change in the growth of a crop in real time through a fixed camera and comparing it with an existing reference value. For example, the existing reference value may be the growth value of the previous day's crop.
일 실시예에 있어서, 줄기 세그멘테이션 정보와 화방 박스 정보의 교차부분에 생성된 교차 라인의 길이를 측정하여 작물의 굵기를 측정할 수 있다. 일 실시예에 있어서, 교차 라인은 작물의 메인 줄기에 생성된다.In one embodiment, the thickness of the crop may be measured by measuring the length of the intersection line generated at the intersection of the stem segmentation information and the flower box information. In one embodiment, the crossing line is created in the main stem of the crop.
일 실시예에 있어서, Depth 카메라를 이용하여 영상과 작물의 절대 크기를 입력받아, 작물의 생장 길이 및 화방 부근의 줄기 굵기 중 적어도 하나를 측정하여 생장 측정의 정확도를 높일 수 있다.In an embodiment, the depth camera may be used to receive an image and an absolute size of a crop, and measure at least one of a growth length of a crop and a thickness of a stem near a flower room to increase the accuracy of growth measurement.
일 실시예에 있어서, 교차 라인과 교차 정보는 기설정된 임계치 정보에 기초하여 결정될 수 있다. 또한, 교차 라인과 같은 측정 결과 및 작물의 정보는 딥러닝 알고리즘을 이용하여 학습 과정을 거쳐 제1 및 제2 추출 파라미터를 업데이트 할 수 있다. 제1 및 제2 추출 파라미터를 업데이트하여, 더 정확하게 교차 라인을 추출할 수 있다.In an embodiment, the crossing line and the crossing information may be determined based on preset threshold information. In addition, measurement results such as crossing lines and information on crops may go through a learning process using a deep learning algorithm to update the first and second extraction parameters. By updating the first and second extraction parameters, it is possible to more accurately extract the intersection line.
이와 관련하여, 구체적인 내용은 도 4에서 후술될 것이다.In this regard, specific details will be described later with reference to FIG. 4 .
작물 생장 측정 방법은 작물의 측정 대상 중 줄기와 화방을 구분하여 라벨링하는 라벨링 단계를 더 포함할 수 있다. 라벨링 단계에서, 화방 박스 정보의 적어도 일부가 줄기 세그멘테이션 정보의 결과에 따른 작물의 줄기에 교차되도록 할 수 있다. 이때, 작물의 줄기에 교차되는 부분은 화방 박스 정보의 최저점일 수 있다.The method for measuring crop growth may further include a labeling step of classifying and labeling a stem and a flower room among measurement targets of a crop. In the labeling step, at least a part of the flower box information may be crossed with the stem of the crop according to the result of the stem segmentation information. In this case, the part intersecting the stem of the crop may be the lowest point of the flower box information.
작물의 줄기 세그멘테이션 정보를 추출하는 단계(S15) 및 작물의 화방 박스 정보를 추출하는 단계(S17)는 라벨링 단계에 기초하여, 각각 줄기 세그멘테이션 정보와 화방 박스 정보를 추출할 수 있다.The step of extracting the stem segmentation information of the crop ( S15 ) and the step of extracting the flower room box information of the crop ( S17 ) may extract stem segmentation information and the flower room box information, respectively, based on the labeling step.
도 3은 본 발명의 일 실시예에 따른 생장 측정 대상 작물을 인식하는 단계를 도시한 순서도이다.3 is a flowchart illustrating a step of recognizing a growth measurement target crop according to an embodiment of the present invention.
도 3을 참조하면, 생장 측정 대상 작물을 인식하는 단계(S13)는 인식 임계치 및 작물의 구분 기준 설정 단계(S131), 학습된 파일 로딩 단계(S133), 학습된 파일과 현재의 영상을 비교하기 위해 준비하는 단계(S135), 및 대상물 정확도가 임계치보다 큰지의 여부를 판단하는 단계(S137)를 포함할 수 있다.Referring to FIG. 3 , the step of recognizing the growth measurement target crop (S13) is the step of setting the recognition threshold and the classification criterion of the crop (S131), the loading of the learned file (S133), and comparing the learned file with the current image It may include a step of preparing for (S135), and a step of determining whether the object accuracy is greater than a threshold (S137).
인식 임계치 및 작물의 구분 기준 설정 단계(S131)는 작물 별로 인식 하기위해 임계치를 정하고, 각 작물의 종류, 구성 등을 구분하기 위한 기준을 설정할 수 있다. 이때, 작물의 구성은 생장점, 화방, 및 줄기 중 적어도 하나일 수 있다.In the recognition threshold and crop classification criteria setting step S131, threshold values may be set for recognition for each crop, and criteria for classifying each crop type, composition, etc. may be set. In this case, the composition of the crop may be at least one of a growth point, a flower room, and a stem.
학습된 파일 로딩 단계(S133)는 제1 추출 파라미터 및 제2 추출 파라미터로 학습된 작물의 영상을 로딩하는 단계일 수 있다.제1 추출 파라미터 및 제2 추출 파라미터는 S131 단계에서 설정된 기준에 기반하여 학습된 알고리즘일 수 있다. 예를 들어, 제1 추출 파라미터 및 제2 추출 파라미터는 R-CNN 및 YOLACT과 같은 세그멘테이션 툴 기반의 알고리즘일 수 있다. 제1 추출 파라미터 및 제2 추출 파라미터는 M(Restricted Boltzmann Machine), Autoencoder, Convolutional Neural Network, Recurrent Neural Network, 및 Deep Q-Network과 같은 딥러닝 알고리즘으로 학습 및 업데이트될 수 있다.The learned file loading step ( S133 ) may be a step of loading an image of a crop learned with the first extraction parameter and the second extraction parameter. The first extraction parameter and the second extraction parameter are based on the criteria set in step S131 . It may be a learned algorithm. For example, the first extraction parameter and the second extraction parameter may be algorithms based on segmentation tools such as R-CNN and YOLACT. The first extraction parameter and the second extraction parameter may be trained and updated with a deep learning algorithm such as a Restricted Boltzmann Machine (M), an Autoencoder, a Convolutional Neural Network, a Recurrent Neural Network, and a Deep Q-Network.
학습된 파일과 현재의 영상을 비교하기 위해 준비하는 단계(S135)는 현재의 작물의 영상을 입력받는 단계(S11)와 기설정된 기준으로 학습된 파일을 로딩받는 단계(S133)를 비교하기 위해 준비하는 단계일 수 있다.Preparing to compare the learned file with the current image (S135) prepares to compare the step (S11) of receiving the image of the current crop and the step (S133) of receiving the file learned based on a preset standard (S133) It may be a step to
대상물 정확도가 임계치보다 큰지의 여부를 판단하는 단계(S137)는 대상물의 정확도를 기설정된 인식 임계치보다 큰지 판단하여, 대상물의 정확도가 기설정된 인식 임계치보다 클 경우, 생장 측정 대상 작물이 정확하게 인식되었다고 판단할 수 있다. 이 경우, 작물의 줄기 세그멘테이션 정보를 추출하는 단계(S15)로 넘어갈 수 있다. 그러나, 대상물의 정확도가 기설정된 인식 임계치보다 작을 경우, 생장 측정 대상 작물의 인식이 정확하지 않다고 판단할 수 있다. 이 경우에 학습된 파일과 현재의 영상을 비교하기 위한 준비 단계(S135)로 되돌아 갈 수 있다.The step of determining whether the object accuracy is greater than the threshold (S137) is to determine whether the accuracy of the object is greater than a preset recognition threshold, and when the accuracy of the object is greater than the preset recognition threshold, it is determined that the growth measurement target crop has been accurately recognized can do. In this case, it may proceed to the step of extracting the stem segmentation information of the crop (S15). However, when the accuracy of the target is less than a preset recognition threshold, it may be determined that the recognition of the target crop for growth measurement is not accurate. In this case, it is possible to return to the preparation step (S135) for comparing the learned file and the current image.
도 4는 본 발명의 일 실시예에 따른 작물의 생장 길이 및 화방 부근의 줄기 굵기 중 적어도 하나를 측정하는 단계를 구체적으로 도시한 순서도이다.4 is a flowchart specifically illustrating the step of measuring at least one of a growth length of a crop and a stem thickness near a flower room according to an embodiment of the present invention.
도 4를 참조하면, 화방 박스 정보의 최저점을 추출하는 단계(S191), 줄기 세그멘테이션 정보의 최고점을 추출하는 단계(S193), 및 생장 길이를 계산하는 단계(S195)를 포함할 수 있다.Referring to FIG. 4 , the method may include extracting the lowest point of flower box information ( S191 ), extracting the highest point of stem segmentation information ( S193 ), and calculating the growth length ( S195 ).
화방 박스 정보의 최저점을 추출하는 단계(S191)는 라벨링 단계에서 작물의 줄기와 화방 박스의 적어도 일부가 겹치도록 되어 있어, 화방 박스 정보와 줄기 세그멘테이션 정보가 교차하는 부분을 추출하는 단계일 수 있다. 일 실시예에 있어서, 교차하는 부분 중 가장 아래에 있는 최저점 부분을 추출할 수 있다.The step of extracting the lowest point of the flower box information (S191) may be a step of extracting the portion where the flower room box information and the stem segmentation information intersect since the stem of the crop and at least a part of the flower box overlap in the labeling step. According to an embodiment, the lowest point part at the bottom among the intersecting parts may be extracted.
줄기 세그멘테이션 정보의 최고점을 추출하는 단계(S193)는 작물의 생장점을 추출하는 단계일 수 있다. 줄기 세그멘테이션 정보의 최고점은 줄기의 최상단으로, 작물의 생장점일 수 있다.The step of extracting the highest point of the stem segmentation information ( S193 ) may be a step of extracting the growth point of the crop. The highest point of the stem segmentation information is the top of the stem, and may be the growth point of the crop.
일 실시예에 있어서, 화방 박스 정보의 최저점을 추출하는 단계(S191)와 줄기 세그멘테이션 정보의 최고점을 추출하는 단계(S193)의 순서는 서로 변경될 수 있다. 예를 들어, 줄기 세그멘테이션 정보의 최고점을 추출하는 단계(S193)를 먼저 진행하고, 화방 박스 정보의 최저점을 추출하는 단계(S191)를 진행할 수 있다.In an embodiment, the order of extracting the lowest point of the video box information ( S191 ) and the step of extracting the highest point of the stem segmentation information ( S193 ) may be changed from each other. For example, the step of extracting the highest point of the stem segmentation information ( S193 ) may be performed first, and the step of extracting the lowest point of the picture room box information ( S191 ) may be performed.
생장 길이를 계산하는 단계(S195)는 [줄기 세그멘테이션 정보의 최고점 - 화방 박스 정보의 최저점]을 계산하는 것 일 수 있다. 즉, 생장점의 위치에서 교차 라인까지의 차이를 계산하는 단계일 수 있다.The step of calculating the growth length ( S195 ) may be calculating [the highest point of the stem segmentation information - the lowest point of the flower box information]. That is, it may be a step of calculating the difference from the location of the growth point to the cross line.
일 실시예에 있어서, 최저점과 최고점은 각각 수치적으로 계산할 수 있으며, 이미지를 비교하여 이미지 결과로부터 수치를 추출할 수도 있다.In an embodiment, the lowest point and the highest point may be numerically calculated, respectively, and a numerical value may be extracted from the image result by comparing the images.
종래의 세그멘테이션 알고리즘의 경우, 매번 수확물을 따서 측정해야하는 문제가 발생할 수 있다. 이에 더해, 단순히 열매의 크기로만 측정하기 어려운 경우와 매번 측정하여야하는 열매 위치가 다를 수 있기 때문에, 일률적인 측정방법이 되기 어렵다는 문제점이 발생할 수 있다. 그러나, 본 발명의 경우, 딥러닝 알고리즘으로 제1 및 제2 추출 파라미터를 학습하여, 간단하고 정확하게 자동으로 작물의 생육 길이를 추출할 수 있다.In the case of the conventional segmentation algorithm, there may be a problem of measuring the harvest each time. In addition, since it is difficult to measure only the size of the fruit and the location of the fruit to be measured each time may be different, there may be a problem that it is difficult to obtain a uniform measurement method. However, in the case of the present invention, by learning the first and second extraction parameters with a deep learning algorithm, it is possible to extract the growth length of a crop simply and accurately automatically.
화방 부근의 줄기 굵기를 측정하는 단계는 화방 박스 정보의 최저점을 추출하는 단계(S193) 및 화방 부근의 줄기 굵기를 계산하는 단계(S199)를 포함할 수 있다.The step of measuring the thickness of the stem near the room may include extracting the lowest point of the box information of the room ( S193 ) and calculating the thickness of the stem near the room ( S199 ).
화방 박스 정보의 최저점을 추출하는 단계(S191)는 작물의 생장 길이를 측정하기 위해 필요한 화방 박스 정보의 최저점을 추출하는 단계(S191)와 동일할 수 있다.The step of extracting the lowest point of the flower box information (S191) may be the same as the step of extracting the lowest point of the flower box information required to measure the growth length of a crop (S191).
화방 부근의 줄기 굵기를 계산하는 단계(S199)는 화방 박스 정보의 최저점과 줄기 세그멘테이션 정보의 교차 라인의 길이를 계산하는 것일 수 있다. 즉, 화방 박스 정보의 최저점과 줄기 세그멘테이션 정보에 따른 줄기의 교차 부분의 길이를 측정한 것일 수 있다. 교차 라인은 세그멘테이션을 통해 인식한 작물의 줄기 부분과 화방 박스 정보의 최저점이 교차되는 부분을 라인으로 나타낸 것 일 수 있다.The step of calculating the thickness of the stem near the flower room ( S199 ) may be calculating the length of the intersection line between the lowest point of the flower room box information and the stem segmentation information. That is, the length of the intersection of the lowest point of the picture box information and the stem according to the stem segmentation information may be measured. The intersecting line may be a line representing the intersection of the stem part of the crop recognized through segmentation and the lowest point of the flower box information.
종래의 박스 인식의 경우 오차가 커서 추가의 알고리즘이 필요하고, 농작물의 생육은 상황마다 다르기 때문에 표준적인 알고리즘이 필요해 상용화에 어려움이 있다는 문제점이 있었다. 하지만, 본 발명의 경우, 간단하고 정확하게 화방 부근의 줄기 굵기를 구할 수 있다.In the case of the conventional box recognition, an additional algorithm is required because of a large error, and since the growth of crops is different for each situation, a standard algorithm is required, so there is a problem in that it is difficult to commercialize. However, in the case of the present invention, it is possible to simply and accurately obtain the thickness of the stem near the flower room.
이와 같이, 본 발명의 작물 생육 장치 및 그 방법을 통해 작물의 생장 길이 및 화방을 굵기를 보다 정확하게 구할 수 있다. 또한, 사람의 작업이 많이 필요하는 측정 부분을 자동화할 수 있어서, 작물 생장 분석에 필요한 자료 취득을 용이하게 할 수 있다.As described above, it is possible to more accurately obtain the growth length and thickness of a crop through the crop growth apparatus and method of the present invention. In addition, it is possible to automate the measurement part that requires a lot of human work, so that it is possible to easily acquire data required for crop growth analysis.
도 5는 본 발명의 일 실시예에 따른 작물 생장 측정 장치에 대한 블록도이다.5 is a block diagram of an apparatus for measuring crop growth according to an embodiment of the present invention.
도 5를 참조하면, 작물 생장 측정 장치(10)는 영상 입력부(100), 측정 대상 인식부(200), 줄기 세그멘테이션부(400), 화방 박스 작업부(500), 및 생장 계산부(600)를 포함할 수 있다.Referring to FIG. 5 , the crop
영상 입력부(100)는 작물을 촬영한 영상을 입력받을 수 있다. 영상은 카메라를 통해 촬영될 수 있다. 이때, 카메라는 IP카메라, HD-SDI 카메라, 아날로그 카메라, 화재감지 컬러카메라, 열화상 카메라, SD(720x486, NTSC)급의 해상도에서 HD(1920x5080, HD5080p) 카메라, IP줌 스피드 카메라, CCTV 카메라, Depth 카메라 중 적어도 하나일 수 있다. 카메라는 고정되어 설치될 수 있으며, 실시간으로 작물의 생장변화를 확인할 수 있다. 일 실시예에 있어서, Depth 카메라는 작물의 절대 크기를 제공할 수 있다.The
측정 대상 인식부(200)는 작물 별로 기설정된 임계값에 기초하여, 영상에서 생장 측정 대상 작물을 인식할 수 있다. 영상 내의 작물은 획일적으로 생장하지 않기 때문에, 영상 내에 생장 측정 대상이 되는 작물을 인식할 필요가 있다.The measurement
일 실시예에 있어서, 작물을 인식하기 위해 딥러닝 기술을 이용할 수 있다. 딥러닝 기술을 이용하기 위해, 여러 각도와 위치에서의 대상 작물의 사진을 수집할 수 있다. 또한, 정확성을 높이기 위하여, 영상 기법을 사용하여, 대상 작물의 사진을 크기 별, 각도 별로 x n개의 수량으로 증가시킬 수 있다.In one embodiment, deep learning technology may be used to recognize crops. In order to use deep learning technology, it is possible to collect pictures of target crops from different angles and positions. In addition, in order to increase accuracy, by using an imaging technique, the number of photos of the target crop may be increased to x n for each size and angle.
작물 생장 측정 장치는 작물의 측정 대상 중 줄기와 화방을 구분하여 라벨링하는 작물 라벨링부(300)를 더 포함할 수 있다. 작물 라벨링부(300)에서, 화방 박스 정보의 적어도 일부가 줄기 세그멘테이션 정보의 결과에 따른 작물의 줄기에 교차되도록 할 수 있다. 이때, 작물의 줄기 부분에 교차되는 부분은 화방 박스 정보의 최저점일 수 있다.The apparatus for measuring crop growth may further include a
줄기 세그멘테이션부(400)는 제1 추출 파라미터에 기초하여, 영상에서 인식된 생장 측정 대상 작물의 줄기 세그멘테이션 정보를 추출할 수 있다. 일 실시예에 있어서, 줄기 세그멘테이션 정보는 세그멘테이션화된 작물의 줄기일 수 있다. 즉, 줄기 세그멘테이션 정보는 작물의 줄기만을 추출한 정보일 수 있다.The
작물의 화방 박스 작업부(500)는 제2 추출 파라미터에 기초하여, 영상에서 인식된 상기 작물의 측정 대상의 화방 박스 정보를 추출할 수 있다. 일 실시예에 있어서, 화방 박스 정보는 꽃과 꽃의 줄기까지를 박스 처리한 정보일 수 있다.The flower room
줄기 세그멘테이션부(400) 및 작물의 화방 박스 작업부(500)는 작물 라벨링부(300)에 기초하여, 각각 줄기 세그멘테이션 정보와 화방 박스 정보를 추출할 수 있다.The
생장 계산부(600)는 줄기 세그멘테이션 정보와 화방 박스 정보의 교차 정보에 기반하여 작물의 생장 길이 및 화방 부근의 줄기 굵기 중 적어도 하나를 측정할 수 있다.The
일 실시예에 있어서, 줄기 세그멘테이션 정보의 최고점과 화방 박스 정보의 최저점의 차이를 측정하여, 작물의 생장 길이를 측정할 수 있다.In an embodiment, by measuring the difference between the highest point of the stem segmentation information and the lowest point of the flower box information, the growth length of the crop may be measured.
일 실시예에 있어서, 고정 설치된 카메라를 통해 작물의 생장 변화를 실시간으로 측정하여, 기존의 레퍼런스 값과 비교함으로써, 작물의 생장 길이를 측정할 수 있다. 예를 들어, 기존의 레퍼런스 값은 전날 작물의 생장값일 수 있다.In one embodiment, by measuring the change in the growth of a crop in real time through a fixedly installed camera, and comparing it with an existing reference value, the growth length of the crop may be measured. For example, the existing reference value may be the growth value of the previous day's crop.
일 실시예에 있어서, 줄기 세그멘테이션 정보와 화방 박스 정보의 교차부분에 생성된 교차 라인의 길이를 측정하여 작물의 굵기를 측정할 수 있다. 교차 라인은 화방과 가까운 줄기 부분으로부터 화방과 먼 줄기 부분까지의 거리일 수 있다. 예를 들어, 교차 라인은 교차 지점으로부터 줄기까지의 최단 거리로 결정될 수 있다.In one embodiment, the thickness of the crop may be measured by measuring the length of the intersection line generated at the intersection of the stem segmentation information and the flower box information. The crossing line may be a distance from a stem portion close to the flower room to a stem portion farther from the flower room. For example, the intersection line may be determined as the shortest distance from the intersection point to the stem.
일 실시예에 있어서, Depth 카메라를 이용하여 영상과 작물의 절대 크기를 입력받아, 작물의 생장 길이 및 화방 부근의 줄기 굵기 중 적어도 하나를 측정하여 생장 측정의 정확도를 높일 수 있다.In an embodiment, the depth camera may be used to receive an image and an absolute size of a crop, and measure at least one of a growth length of a crop and a thickness of a stem near a flower room to increase the accuracy of growth measurement.
일 실시예에 있어서, 교차 라인과 교차 정보는 기설정된 임계치 정보에 기초하여 결정될 수 있다. 또한, 교차 라인과 같이 측정된 정보 및 작물의 정보는 제1 및 제2 추출 파라미터에 업데이트 될 수 있다.In an embodiment, the crossing line and the crossing information may be determined based on preset threshold information. In addition, information on crops and measured information such as cross lines may be updated in the first and second extraction parameters.
명세서에서 사용되는 "부" 또는 “모듈”이라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부" 또는 “모듈”은 어떤 역할들을 수행한다. 그렇지만 "부" 또는 “모듈”은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부" 또는 “모듈”은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수 도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부" 또는 “모듈”은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부" 또는 “모듈”들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부" 또는 “모듈”들로 결합되거나 추가적인 구성요소들과 "부" 또는 “모듈”들로 더 분리될 수 있다.As used herein, the term “unit” or “module” refers to a hardware component such as software, FPGA, or ASIC, and “unit” or “module” performs certain roles. However, “part” or “module” is not meant to be limited to software or hardware. A “unit” or “module” may be configured to reside on an addressable storage medium or configured to reproduce one or more processors. Thus, as an example, “part” or “module” refers to components such as software components, object-oriented software components, class components and task components, processes, functions, properties, Includes procedures, subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays, and variables. Components and functionality provided within “parts” or “modules” may be combined into a smaller number of components and “parts” or “modules” or as additional components and “parts” or “modules”. can be further separated.
도 6은 본 발명의 일 실시예에 따른 화방 부근의 줄기 굵기 측정 방법을 나타낸 도면이다.6 is a view showing a method for measuring the thickness of a stem near a flower room according to an embodiment of the present invention.
도 6을 참조하면, 작물의 화방 부근의 줄기 굵기는 줄기(410)와 화방(510)에 기초하여 결정될 수 있다. 편의를 위해 작물의 줄기와 화방을 제외한 잎은 생략되었다.Referring to FIG. 6 , the thickness of the stem near the flower room of the crop may be determined based on the
도 6에서 확인할 수 있는 바와 같이, 줄기(410)와 화방(510)의 교차부분에 생성된 교차 라인(415)의 길이를 측정하여 작물의 굵기를 측정할 수 있다. 이때, 교차 라인(415)은 줄기 세그멘테이션으로부터 추출된 작물의 줄기와 화방 박스 정보의 최저점의 교차 부분일 수 있다. 즉, W는 교차 라인의 길이이며, 화방 부근의 줄기 굵기일 수 있다.As can be seen in FIG. 6 , the thickness of the crop can be measured by measuring the length of the
일 실시예에 있어서, 줄기는 제1 라인(411)과 제2 라인(412)을 포함할 수 있으며, 제2 라인(412)은 화방 박스 정보(510)와 교차되는 라인일 수 있다. 교차 라인(415)은 제2 라인(412)에서 화방 박스 정보(510)의 최저점 부분과 제1 라인(411)까지의 거리로 결정될 수 있다. In an embodiment, the stem may include a
일 실시예에 있어서, 화방 부근의 줄기 굵기는 개화된 첫 화방 부근의 줄기 두께일 수 있다. 즉, 화방 자체의 줄기의 굵기가 아닌, 화방과 접하는 줄기 부분의 두께 또는 화방이 개화되는 줄기 부분의 두께를 의미한다. 화방 부근의 줄기 굵기 W는 줄기 세그멘테이션 정보(410)와 화방 박스 정보(510)가 교차되는 부분을 작물의 줄기 상에 라인으로 나타낸 것일 수 있다. 이때, 라인은 줄기 상에 나타낼 수 있는 길이 중 최단 길이일 수 있다.In an embodiment, the thickness of the stem near the flower room may be the thickness of the stem near the first flower room that has bloomed. That is, it does not mean the thickness of the stem of the flower room itself, but the thickness of the stem portion in contact with the flower room or the thickness of the stem portion at which the flower room blooms. The stem thickness W in the vicinity of the flower room may indicate a portion where the
일 실시예에 있어서, 작물의 생장 길이는 생장점으로부터, 화방이 개화된 줄기 부분까지의 길이일 수 있으며, 여기서 화방은 첫 개화된 화방, 즉, 줄기의 생장점에 가장 인접한 화방을 의미할 수 있다. 작물의 생장 길이는 H로, 교차 라인으로부터 생장점까지의 최단 길이일 수 있다.In one embodiment, the growth length of the crop may be the length from the growth point to the part of the stem where the flower room is opened, where the flower room may mean the flower room that first opened, that is, the flower room closest to the growth point of the stem. The growing length of the crop is H, which may be the shortest length from the crossing line to the growing point.
도 7은 본 발명의 일 실시예에 따른 작물 생장 측정 시스템을 나타낸 도면이다.7 is a view showing a crop growth measurement system according to an embodiment of the present invention.
도 7을 참조하면, 작물 생장 측정 시스템은 작물 생장 측정 장치(10), 카메라(30), 및 사용자 단말(50)을 포함할 수 있다.Referring to FIG. 7 , the crop growth measurement system may include a crop
작물 생장 측정 장치(10)는 도 5에 개시된 작물 생장 측정 장치(10)와 동일할 수 있다. The crop
카메라(30)는 작물을 촬영하기 위한 것 일 수 있다. 카메라(30)는 IP카메라, HD-SDI 카메라, 아날로그 카메라, 화재감지 컬러카메라, 열화상 카메라, SD(720x486, NTSC)급의 해상도에서 HD(1920x5080, HD5080p) 카메라, IP줌 스피드 카메라, CCTV 카메라, Depth 카메라 중 적어도 하나일 수 있다. 카메라는 고정되어 설치될 수 있으며, 실시간으로 작물의 생장변화를 확인할 수 있다. 이때, Depth 카메라는 작물의 절대 크기를 구할 수 있다.The
사용자 단말(50)은 작물 생장 측정 장치의 정보를 표시할 수 있다. 재배자는 자신의 사용자 단말(50)을 통해 현재 생육 중인 작물의 생육 측정대상의 생육 상태를 손쉽게 확인할 수 있다. 따라서, 상기 재배자는 상기 작물이 정상적으로 생장하고 있는지 판단할 수 있고, 만약 생장이 원활하게 이루어지지 않는다고 판단되는 작물에 대해서는 보다 많은 양의 비료 또는 영양제를 공급하는 등의 재배과정을 변화시킬 수 있다.The
사용자 단말(50)은 유선단말 또는 무선단말을 포함하는 광범위한 개념으로, PC(Personal Computer), IP 텔레비전(Internet Protocol Television), 노트형 퍼스컴(Notebook-sized personal computer), PDA(Personal Digital Assistant), 스마트폰, IMT-2000(International Mobile Telecommunication 2000)폰, GSM(Global System for Mobile Communication)폰, GPRS(General Packet Radio Service)폰, WCDMA(Wideband Code Division Multiple Access)폰, UMTS(Universal Mobile Telecommunication Service)폰, MBS(Mobile Broadband System)폰 등을 포함할 수 있다. The
본 발명의 일 실시예에 있어서, 컴퓨터프로그램은 컴퓨터에 작물을 촬영한 영상을 입력받는 단계, 제1 추출 파라미터에 기초하여, 상기 영상에서 인식된 상기 작물의 측정 대상의 줄기 세그멘테이션 정보를 추출하는 단계, 제2 추출 파라미터에 기초하여, 상기 영상에서 인식된 상기 작물의 화방 박스 정보를 추출하는 단계, 상기 줄기 세그멘테이션 정보와 상기 화방 박스 정보의 교차 정보에 기반하여 상기 작물의 생장 길이 및 화방 부근의 줄기 굵기 중 적어도 하나를 측정하는 단계를 실행시키기 위하여 매체에 저장될 수 있다. In an embodiment of the present invention, the computer program includes the steps of receiving an image of a crop photographed into a computer, and extracting stem segmentation information of a measurement target of the crop recognized from the image, based on a first extraction parameter , extracting the flower room box information of the crop recognized from the image based on a second extraction parameter, the growth length of the crop and the stem near the flower room based on the intersection information of the stem segmentation information and the flower room box information It may be stored in the medium to execute the step of measuring at least one of the thickness.
컴퓨터 프로그램은 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상기 저장되는 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있지만, 이에 제한되지 않는다. 즉, 상기 프로그램은 상기 컴퓨터가 접속할 수 있는 다양한 서버 상의 다양한 기록매체 또는 사용자의 상기 컴퓨터상의 다양한 기록매체에 저장될 수 있다. 또한, 상기 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장될 수 있다.A computer program is not a medium that stores data for a short moment, such as a register, a cache, a memory, etc., but a medium that stores data semi-permanently and can be read by a device. Specifically, examples of the storage medium include, but are not limited to, ROM, RAM, CD-ROM, magnetic tape, floppy disk, and optical data storage device. That is, the program may be stored in various recording media on various servers accessible by the computer or in various recording media on the computer of the user. In addition, the medium may be distributed in a computer system connected to a network, and a computer-readable code may be stored in a distributed manner.
10 : 작물 생장 측정 장치
30 : 카메라
50 : 사용자 단말
100 : 영상 입력부
200 : 측정 대상 인식부
300 : 작물 라벨링부
400 : 줄기 세그멘테이션부
410 : 줄기
411 : 제1 라인
412 : 제2 라인
415 : 교차 라인
500 : 화방 박스 작업부
510 : 화방
600 : 생장 계산부10: crop growth measuring device
30 : camera
50: user terminal
100: video input unit
200: measurement target recognition unit
300: crop labeling unit
400: stem segmentation unit
410: stem
411: first line
412: second line
415: intersecting line
500: flower box work department
510 : Hwabang
600: growth calculation unit
Claims (15)
작물을 촬영한 영상을 입력받는 단계;
제1 추출 파라미터에 기초하여, 상기 영상에서 인식된 상기 작물의 측정 대상의 줄기 세그멘테이션 정보를 추출하는 단계;
제2 추출 파라미터에 기초하여, 상기 영상에서 인식된 상기 작물의 측정 대상의 화방 박스 정보를 추출하는 단계; 및
상기 줄기 세그멘테이션 정보와 상기 화방 박스 정보의 교차 정보에 기반하여 상기 작물의 생장 길이 및 화방 부근의 줄기 굵기 중 적어도 하나를 측정하는 단계를 포함하는 작물 생장 측정 방법.In the method for measuring crop growth,
receiving an input image of crops;
extracting stem segmentation information of a measurement target of the crop recognized from the image based on a first extraction parameter;
extracting, based on a second extraction parameter, information on a flower room of a measurement target of the crop recognized in the image; and
and measuring at least one of a growth length of the crop and a thickness of a stem in the vicinity of a flower room based on cross information of the stem segmentation information and the flower room box information.
상기 작물의 생장 길이 및 화방 부근의 줄기 굵기 중 적어도 하나를 측정하는 단계는,
상기 줄기 세그멘테이션 정보의 최고점과 상기 화방 박스 정보의 최저점의 차이를 측정하여 상기 작물의 생장 길이를 계산하는 단계를 포함하는 작물 생장 측정 방법.According to claim 1,
The step of measuring at least one of the growth length of the crop and the thickness of the stem near the flower room,
and calculating the growth length of the crop by measuring a difference between the highest point of the stem segmentation information and the lowest point of the flower box information.
상기 작물의 생장 길이 및 화방 부근의 줄기 굵기 중 적어도 하나를 측정하는 단계는,
상기 줄기 세그멘테이션 정보와 상기 화방 박스 정보의 교차부분에 생성된 교차 라인의 길이를 측정하여 상기 작물의 화방 부근의 줄기 굵기를 계산하는 단계를 더 포함하는 작물 생장 측정 방법.3. The method of claim 2,
The step of measuring at least one of the growth length of the crop and the thickness of the stem near the flower room,
The method further comprising the step of calculating a stem thickness in the vicinity of the flower room of the crop by measuring the length of the intersection line generated at the intersection of the stem segmentation information and the flower room box information.
상기 영상을 입력받는 단계 이후에,
상기 작물 별로 기설정된 임계값에 기초하여, 상기 영상에서 생장 측정 대상 작물을 인식하는 단계를 더 포함하는 작물 생장 측정 방법.According to claim 1,
After receiving the image,
Crop growth measurement method further comprising the step of recognizing a growth measurement target crop in the image based on a threshold value preset for each crop.
상기 작물의 측정 대상 중 줄기와 화방을 구분하여 라벨링하는 라벨링 단계를 더 포함하며,
상기 라벨링 단계에서, 상기 화방 박스 정보의 최저점의 적어도 일부가 상기 줄기 세그멘테이션 정보의 결과에 따른 상기 작물의 줄기에 교차되도록하는 작물 생장 측정 방법.According to claim 1,
It further comprises a labeling step of labeling by distinguishing the stem and the flower room among the measurement target of the crop,
In the labeling step, at least a part of the lowest point of the flower box information crosses the stem of the crop according to the result of the stem segmentation information.
상기 작물의 생장 길이 및 화방 부근의 줄기 굵기 중 적어도 하나를 측정하는 단계에서, 고정설치된 카메라를 통해 상기 작물의 생장 변화를 실시간으로 측정하여, 레퍼런스 값과 비교함으로써, 상기 작물의 생장 길이를 측정하는 작물 생장 측정 방법.According to claim 1,
In the step of measuring at least one of the growth length of the crop and the thickness of the stem near the flower room, the growth change of the crop is measured in real time through a fixed camera and compared with a reference value to measure the growth length of the crop A method of measuring crop growth.
상기 작물의 생장 길이 및 화방 부근의 줄기 굵기 중 적어도 하나를 측정하는 단계에서, 상기 카메라 중 Depth 카메라를 이용하여 상기 영상과 상기 작물의 절대 크기를 입력받아, 상기 작물의 생장 길이 및 상기 화방 부근의 줄기 굵기 중 적어도 하나를 추출하는 작물 생장 측정 방법.7. The method of claim 6,
In the step of measuring at least one of the growth length of the crop and the thickness of the stem near the flower room, the image and the absolute size of the crop are received using a depth camera among the cameras, A method of measuring crop growth by extracting at least one of stem thickness.
상기 제1 추출 파라미터는 상기 측정 대상의 줄기 세그멘테이션에 사용되는 객체 정보를 포함하고,
상기 제2 추출 파라미터는 상기 측정 대상의 화방 박스 정보를 추출하기 위해 사용되는 객체 정보를 포함하며,
상기 교차 라인 및 상기 작물의 정보 중 적어도 하나를 이용하여 상기 제1 및 제2 파라미터를 업데이트하는 단계를 포함하는 작물 생장 측정 방법.According to claim 1,
The first extraction parameter includes object information used for stem segmentation of the measurement target,
The second extraction parameter includes object information used to extract the picture room box information of the measurement target,
and updating the first and second parameters using at least one of the crossed line and the crop information.
제1 추출 파라미터에 기초하여, 상기 영상에서 인식된 상기 작물의 측정 대상의 줄기 세그멘테이션 정보를 추출하는 줄기 세그멘테이션부;
제2 추출 파라미터에 기초하여, 상기 영상에서 인식된 상기 작물의 화방 박스 정보를 추출하는 화방 박스 작업부; 및
상기 줄기 세그멘테이션 정보와 상기 화방 박스 정보의 교차 정보에 기반하여 상기 작물의 생장 길이 및 화방 부근의 줄기 굵기 중 적어도 하나를 측정하는 생장 계산부를 포함하는, 작물 생장 측정 장치.an image input unit for receiving an image of crops;
a stem segmentation unit for extracting stem segmentation information of a measurement target of the crop recognized from the image based on a first extraction parameter;
a flower room box work unit for extracting flower room box information of the crop recognized from the image based on a second extraction parameter; and
and a growth calculator configured to measure at least one of a growth length of the crop and a thickness of a stem in the vicinity of the flower room based on the intersection information of the stem segmentation information and the flower room box information.
상기 생장 계산부는 상기 줄기 세그멘테이션 정보의 최고점과 상기 화방 박스 정보의 최저점의 차이를 측정하여 상기 작물의 생장 길이를 계산하는 작물 생장 측정 장치.10. The method of claim 9,
The growth calculation unit measures the difference between the highest point of the stem segmentation information and the lowest point of the flower box information to calculate the growth length of the crop.
상기 생장 계산부는 상기 줄기 세그멘테이션 정보와 상기 화방 박스 정보의 교차부분에 생성된 교차 라인의 길이를 측정하여 화방 부근의 줄기 굵기를 계산하는 작물 생장 측정 장치.10. The method of claim 9,
The growth calculation unit measures the length of the intersection line generated at the intersection of the stem segmentation information and the flower box information to calculate the thickness of the stem in the vicinity of the flower room.
상기 줄기 세그멘테이션 정보와 상기 화방 박스 정보를 이용하여, 상기 작물의 측정 대상 중 줄기와 화방을 구분하여 라벨링하는 작물 라벨링부를 더 포함하며,
상기 작물 라벨링부에서, 상기 화방 박스 정보의 최저점의 적어도 일부가 상기 줄기 세그멘테이션 정보의 결과에 따른 상기 작물의 줄기에 교차되도록하는 작물 생장 측정 장치.10. The method of claim 9,
and a crop labeling unit for classifying and labeling a stem and a flower room among the measurement targets of the crop by using the stem segmentation information and the flower room box information,
In the crop labeling unit, at least a part of the lowest point of the flower box information crosses the stem of the crop according to the result of the stem segmentation information.
상기 생장 계산부는 고정설치된 카메라를 통해 상기 작물의 생장 변화를 실시간으로 측정하여, 레퍼런스 값과 비교함으로써, 상기 작물의 생장 길이를 측정하는 작물 생장 측정 장치.10. The method of claim 9,
The growth calculation unit measures the growth change of the crop in real time through a fixed camera, and compares it with a reference value, thereby measuring the growth length of the crop.
작물을 촬영하기 위한 카메라; 및
상기 작물 생장 측정 장치의 정보를 표시하는 사용자 단말을 포함하며,
상기 작물 생장 측정 장치는,
작물을 촬영한 영상을 입력받는 영상 입력부;
제1 추출 파라미터에 기초하여, 상기 영상에서 인식된 상기 작물의 측정 대상의 줄기 세그멘테이션 정보를 추출하는 줄기 세그멘테이션부;
제2 추출 파라미터에 기초하여, 상기 영상에서 인식된 상기 작물의 화방 박스 정보를 추출하는 화방 박스 작업부; 및
상기 줄기 세그멘테이션 정보와 상기 화방 박스 정보의 교차 정보에 기반하여 상기 작물의 생장 길이 및 화방 부근의 줄기 굵기 중 적어도 하나를 측정하는 생장 계산부를 포함하는, 작물 생장 측정 시스템.crop growth measuring device;
a camera for photographing crops; and
It includes a user terminal for displaying information of the crop growth measurement device,
The crop growth measuring device,
an image input unit for receiving an image of crops;
a stem segmentation unit for extracting stem segmentation information of a measurement target of the crop recognized from the image based on a first extraction parameter;
a flower room box work unit for extracting flower room box information of the crop recognized from the image based on a second extraction parameter; and
and a growth calculator configured to measure at least one of a growth length of the crop and a thickness of a stem in the vicinity of the flower room based on the intersection information of the stem segmentation information and the flower room box information.
작물을 촬영한 영상을 입력받는 단계;
제1 추출 파라미터에 기초하여, 상기 영상에서 인식된 상기 작물의 측정 대상의 줄기 세그멘테이션 정보를 추출하는 단계;
제2 추출 파라미터에 기초하여, 상기 영상에서 인식된 상기 작물의 화방 박스 정보를 추출하는 단계;
상기 줄기 세그멘테이션 정보와 상기 화방 박스 정보의 교차 정보에 기반하여 상기 작물의 생장 길이 및 화방 부근의 줄기 굵기 중 적어도 하나를 측정하는 단계를 실행시키기 위하여 매체에 저장된 컴퓨터프로그램.on the computer,
receiving an input image of crops;
extracting stem segmentation information of a measurement target of the crop recognized from the image based on a first extraction parameter;
extracting the flower room box information of the crop recognized from the image based on a second extraction parameter;
A computer program stored in a medium for executing the step of measuring at least one of a growth length of the crop and a thickness of a stem in the vicinity of a flower room based on the intersection information of the stem segmentation information and the flower room box information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200145452A KR102531781B1 (en) | 2020-11-03 | 2020-11-03 | A device for measuring crop growth using deep learning segmentation recognition technology and operation method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200145452A KR102531781B1 (en) | 2020-11-03 | 2020-11-03 | A device for measuring crop growth using deep learning segmentation recognition technology and operation method thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220059820A true KR20220059820A (en) | 2022-05-10 |
KR102531781B1 KR102531781B1 (en) | 2023-05-12 |
Family
ID=81591889
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200145452A KR102531781B1 (en) | 2020-11-03 | 2020-11-03 | A device for measuring crop growth using deep learning segmentation recognition technology and operation method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102531781B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116147508A (en) * | 2022-10-18 | 2023-05-23 | 广西科技大学 | Visual measurement method for sugarcane height of sugarcane harvester |
WO2024101592A1 (en) * | 2022-11-09 | 2024-05-16 | 주식회사 아비넨 | Crop growth rate monitoring system using deep learning |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3234411B2 (en) * | 1994-09-07 | 2001-12-04 | 株式会社マキ製作所 | How to find the centerline of a flower stem |
JP2017042133A (en) * | 2015-08-28 | 2017-03-02 | 株式会社日立製作所 | Plant growth rate calculation system and plant growth rate calculation method |
KR101752313B1 (en) * | 2015-11-13 | 2017-07-12 | 사단법인 한국온실작물연구소 | System for measuring growth amount and plant length using lindenmayer system and image and beam criterion |
JP2018143214A (en) * | 2017-03-09 | 2018-09-20 | パナソニック株式会社 | Pedicel position estimation device and pedicel position estimation method |
US20200355829A1 (en) * | 2013-07-11 | 2020-11-12 | Blue River Technology Inc. | Plant treatment based on morphological and physiological measurements |
-
2020
- 2020-11-03 KR KR1020200145452A patent/KR102531781B1/en active IP Right Grant
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3234411B2 (en) * | 1994-09-07 | 2001-12-04 | 株式会社マキ製作所 | How to find the centerline of a flower stem |
US20200355829A1 (en) * | 2013-07-11 | 2020-11-12 | Blue River Technology Inc. | Plant treatment based on morphological and physiological measurements |
JP2017042133A (en) * | 2015-08-28 | 2017-03-02 | 株式会社日立製作所 | Plant growth rate calculation system and plant growth rate calculation method |
KR101752313B1 (en) * | 2015-11-13 | 2017-07-12 | 사단법인 한국온실작물연구소 | System for measuring growth amount and plant length using lindenmayer system and image and beam criterion |
JP2018143214A (en) * | 2017-03-09 | 2018-09-20 | パナソニック株式会社 | Pedicel position estimation device and pedicel position estimation method |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116147508A (en) * | 2022-10-18 | 2023-05-23 | 广西科技大学 | Visual measurement method for sugarcane height of sugarcane harvester |
CN116147508B (en) * | 2022-10-18 | 2023-09-19 | 广西科技大学 | Visual measurement method for sugarcane height of sugarcane harvester |
WO2024101592A1 (en) * | 2022-11-09 | 2024-05-16 | 주식회사 아비넨 | Crop growth rate monitoring system using deep learning |
Also Published As
Publication number | Publication date |
---|---|
KR102531781B1 (en) | 2023-05-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101822410B1 (en) | Apparatus for diagnosing growth state of crop organ using crop organ image | |
CN102306304B (en) | Face occluder identification method and device | |
CN109977813A (en) | A kind of crusing robot object localization method based on deep learning frame | |
KR102531781B1 (en) | A device for measuring crop growth using deep learning segmentation recognition technology and operation method thereof | |
US20050286760A1 (en) | Method for associating stereo image and three-dimensional data preparation system | |
KR101974638B1 (en) | Apparatus for processing plant images and method thereof | |
KR20170052416A (en) | System for distinguishing image divided by crop organ using image in colony | |
CN108829762B (en) | Vision-based small target identification method and device | |
US20180121726A1 (en) | Plot gap identification | |
CN111476785B (en) | Night infrared light-reflecting water gauge detection method based on position recording | |
US20240037724A1 (en) | Plant detection and display system | |
CN115661650A (en) | Farm management system based on data monitoring of Internet of things | |
US10192112B2 (en) | Plot gap identification | |
CN114511820A (en) | Goods shelf commodity detection method and device, computer equipment and storage medium | |
CN106709922B (en) | Pasture grass coverage and biomass automatic detection method based on image | |
CN117451012B (en) | Unmanned aerial vehicle aerial photography measurement method and system | |
CN113778091A (en) | Method for inspecting equipment of wind power plant booster station | |
KR101525915B1 (en) | object information provision system and object information provision apparatus and object information providing method | |
CN113378663A (en) | Inspection pointer type circular instrument identification method and device | |
CN116721344A (en) | Vegetation detection method, device and equipment based on aerial photographing equipment | |
CN116612389A (en) | Building construction progress management method and system | |
JPH10254903A (en) | Image retrieval method and device therefor | |
KR20220022961A (en) | Advanced crop diagnosing system | |
CN114663652A (en) | Image processing method, image processing apparatus, management system, electronic device, and storage medium | |
Mirbod et al. | In-field apple size and location tracking using machine vision to assist fruit thinning and harvest decision-making |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |