KR20220022961A - Advanced crop diagnosing system - Google Patents

Advanced crop diagnosing system Download PDF

Info

Publication number
KR20220022961A
KR20220022961A KR1020200104292A KR20200104292A KR20220022961A KR 20220022961 A KR20220022961 A KR 20220022961A KR 1020200104292 A KR1020200104292 A KR 1020200104292A KR 20200104292 A KR20200104292 A KR 20200104292A KR 20220022961 A KR20220022961 A KR 20220022961A
Authority
KR
South Korea
Prior art keywords
image
unit
depth
camera
crop growth
Prior art date
Application number
KR1020200104292A
Other languages
Korean (ko)
Inventor
이옥정
이영호
Original Assignee
아이티컨버젼스 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 아이티컨버젼스 주식회사 filed Critical 아이티컨버젼스 주식회사
Priority to KR1020200104292A priority Critical patent/KR20220022961A/en
Publication of KR20220022961A publication Critical patent/KR20220022961A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/02Agriculture; Fishing; Forestry; Mining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N5/9201Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving the multiplexing of an additional signal and the video signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Business, Economics & Management (AREA)
  • Artificial Intelligence (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • Marketing (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • Mining & Mineral Resources (AREA)
  • Marine Sciences & Fisheries (AREA)
  • Animal Husbandry (AREA)
  • Agronomy & Crop Science (AREA)
  • Primary Health Care (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

The present invention relates to a crop growth analyzing system using an RGB-Depth image and, more specifically, to a crop growth analyzing system, which generates a bag file (.bag file) in which filming environment data including an RGB-Depth camera filming image of a camera unit and a Depth sensor value is compressed to store the bag file in a database unit and supports a server unit to extract and image-process the bag file, thereby improving an image recognition rate to 95% or higher.

Description

개선된 작물생육 분석시스템{Advanced crop diagnosing system}Improved crop growth analysis system {Advanced crop diagnosing system}

본 발명은 RGB-Depth영상을 이용한 작물생육 분석시스템으로, 구체적으로는 카메라부의 RGB-Depth카메라 촬영 영상과 함께 Depth센서값을 포함한 촬영환경 데이터를 압축한 백파일(.bag file)을 생성하여 데이터베이스부에 저장하고 서버부가 이를 추출하여 이미지 프로세싱하도록 지원함으로써 이미지 인식율을 95%이상으로 개선 한 작물생육 분석시스템이다.The present invention is a crop growth analysis system using RGB-Depth images. Specifically, a bag file (.bag file) is created by compressing the photographing environment data including the depth sensor value together with the RGB-Depth camera photographed image of the camera unit. It is a crop growth analysis system that improves the image recognition rate to more than 95% by storing it in the department and supporting the server part to extract it and process the image.

인공지능에 관한 최초의 연구는 기계 스스로 생각할 수 있는지에 대한 학문적 관심으로 시작되었고, 신경외과의사 워랜 매컬릭에 의해 신경망과 그물망상태 뉴런 모델로 발전하였고, 프랭크 로센블라트의 퍼셉트론이론과 ‘XOR’문제가 제시되며 한단계 도약하는 진전을 이루었다. 특히 다층퍼셉트론 이론과 빅데이터 기술, 초고속인터넷 개발은 인공지능분야의 비약적 성과를 담보하였고 마침내 2006년 제프리 힌턴은 딥러닝 심층신경망 발표와 이세돌9단의 알파고간 대결은 인공지능과 딥러닝이 우리사회에 깊숙이 들어와 있음을 알려준 사건이었다. The first research on artificial intelligence began as an academic interest in whether machines could think on their own, and was developed by neurosurgeon Warren McCullick into neural networks and reticulated neuron models, and Frank Rosenblatt's perceptron theory and 'XOR' The problem was presented and progress was made one step further. In particular, the development of multi-layer perceptron theory, big data technology, and high-speed Internet ensured breakthroughs in the field of artificial intelligence. Finally, in 2006, Jeffrey Hinton announced the deep learning deep neural network and the confrontation between Sedol Lee's 9th-dan AlphaGo and artificial intelligence and deep learning were the main differences in our society. It was an incident that informed us that we were deeply in.

그러나 대표적 전통산업인 농업에서 인공지능 도입은 쉽지 않았고 최근까지 기초 연구만 할뿐 농부의 감각과 특화 로봇을 이용하는 자동화기술 정도만 이용되고 있다.However, it was not easy to introduce artificial intelligence in agriculture, a representative traditional industry, and until recently, only basic research was conducted, and only automation technology using the senses of farmers and specialized robots was used.

한편 작물의 생육측정기술로 제안된 한국등록특허공보 제10-2131941호는 온실에 설치된 레일을 따라 센서와 카메라가 구동되게 편의성을 개선한바 있고, 한국등록특허공보제10-2114384호는 영상기반 작물생육데이터 측정용 모바일앱과 그 디바이스에 관한 것이나 쉽게 현장 적용하기 어려웠고, 한국공개특허공보 제10-2012-0075559호는 하우스내 환경정보 및 작물 생육정보를 센서로 수신하되 생육정보에 해당하는 만큼 높이를 이동시키고, 이동에 따라 해당 높이에서 작물을 촬영한 후 영상을 분석하여 작물 생장의 정상여부를 비교하여 비정상 원인을 분석하고 이에 대응한 액추에이터가 실행하도록 제어하여 자동화시키는 기술로 본 발명자가 초기에 개발했던 정도의 초보적자동화장치 기술로 평가되어 왔다. 이와함께 최근에는 RGB-Depth카메라가 포함된 최신 모바일폰이 발매되기 시작하였다. Meanwhile, Korean Patent Publication No. 10-2131941 proposed as a crop growth measurement technology has improved convenience so that sensors and cameras are driven along rails installed in greenhouses, and Korean Patent Publication No. 10-2114384 is an image-based crop. It was difficult to apply the mobile app and device for measuring growth data to the field, but Korean Patent Publication No. 10-2012-0075559 received environmental information and crop growth information in the house with a sensor, but the height corresponding to the growth information This is a technology that automates the movement by moving and photographing crops at the corresponding height according to the movement, analyzing the images, comparing the normal growth of the crops, analyzing the causes of abnormalities, and controlling the actuators corresponding to them to be executed. It has been evaluated as a rudimentary automation device technology to the extent that it was developed. Along with this, the latest mobile phones with RGB-Depth cameras have started to be released recently.

본 발명자가 개발한 한국등록특허공보제10-1763835호는 작물 군락으로부터 작물 객체의 잎, 줄기, 화방, 과일 등 각 기관 이미지를 영상이미지로 식별하여 성장을 측정하기 위해 제1,2카메라 및 온실환경정보수집시스템을 결합하고 수집정보는 정보처리장치에서 처리하는 본격 영상이미지를 이용한 작물생육측정시스템을 제공한 것이고, 이를 개선한 한국등록특허공보 제10-1822410호는 생육상태 진단시 색채, 모양 및 에지 정보에 기초하여 이미지를 분석하되 온도를 감안하고 수학식으로 모듈화하여 성장량을 측정하도록 하였다. 또한 이를 더욱 개선한 한국등록특허공보 제10-1832724호는 스마트단말에서 촬영한 컬러RGB이미지 및 IR(depth)이미지를 서버에 전송하여 저장하여 엽, 마디, 화방, 과일을 포함하는 작물기관별 길이, 넓이 및 굵기를 측정하여 생육량을 진단하고 수확을 예측하도록 하였으나, 저장된 컬러RGB이미지 및 IR(depth)이미지는 추출 분석 과정에서 픽셀불량 문제는 여전히 해결할 수 없어 촬영당시 환경데이터를 반영할 수 없었고, 이 때문에 이미지프로세싱 과정에서도 통상의 jpg화일을 이용할 경우 소정의 품질 확보가 어려웠고, 정밀작업을 위한 처리 과정은 더 복잡해지고 작업자에 따른 분석결과도 다르곤 했다.Korea Patent Publication No. 10-1763835 developed by the present inventor identifies each organ image such as leaf, stem, flower room, fruit, etc. of a crop object from a crop community as a video image to measure the growth of the first and second cameras and greenhouses. The environmental information collection system is combined and the collected information provides a crop growth measurement system using full-scale image images processed by the information processing device. And the image was analyzed based on the edge information, but the amount of growth was measured by modularizing it with an equation considering the temperature. In addition, Korea Patent Publication No. 10-1832724, which has further improved this, transmits and stores color RGB images and IR (depth) images captured by a smart terminal to the server, so that the length of each crop organ including leaves, nodes, flower rooms, and fruits; The width and thickness were measured to diagnose the growth rate and predict the harvest, but the stored color RGB images and IR (depth) images still could not solve the pixel defect problem during the extraction and analysis process, so the environmental data at the time of shooting could not be reflected. Therefore, in the image processing process, when using a normal jpg file, it was difficult to secure a certain quality, and the processing process for precision work became more complicated and the analysis results according to the workers were different.

한편 이미지인식기술 중 R-CNN(regions with convolutional neuron networks)이란 이미지를 통한 데이터와 레이블을 투입하여 물체를 인식하고 계층구조의 선택적탐색을 통해 임의의 BB(bounding box)를 설정하고 준비된 정답BB와 IOU를 비교하여 이미지를 인식하는 기술로 Fast R-CNN 방식은 cnn이 한번으로 줄면서 피처맵에 리전프로포절이 이동된 개선된 학습방식이나 Faster R-CNN 방식은 이를 더욱 발전시켜 처리시간을 획기적으로 단축하였고, Mask R-CNN 방식은 Faster R-CNN 방식과 기본구조가 동일하나 알오아이 풀링(ROI POOLING))대신 알오아이 얼라인(ROI ALIGN) 방식을 사용함으로써 마스크와 클래 예측을 분리, 더욱 정확한 데이터처리가 가능하도록 지원하는 것이나, 지금까지 작물생육 분석시스템에 이를 구체적으로 사용한 경우는 찾아보기 어려웠다.Meanwhile, R-CNN (regions with convolutional neuron networks) among image recognition technologies recognizes objects by inputting data and labels through images, sets arbitrary BBs (bounding boxes) through selective search of hierarchical structures, and As a technology to recognize images by comparing IOUs, the Fast R-CNN method is an improved learning method in which the cnn is reduced to one and the region proposal is moved to the feature map. The Mask R-CNN method has the same basic structure as the Faster R-CNN method, but by using the ROI ALIGN method instead of the ROI POOLING), the mask and the clash prediction are separated and more accurate It has been difficult to find support for data processing, but it has been difficult to find cases where it has been specifically used in a crop growth analysis system so far.

이처럼 지금까지 사용해왔던 작물생육 측정기술은 모두 하드웨어는 고도화되었음에도 소프트웨어면에서는 강한 개선이 요구되어 왔다.As such, although all of the crop growth measurement techniques used so far have advanced hardware, strong improvement has been required in terms of software.

한국등록특허공보 제10-1763835호Korean Patent Publication No. 10-1763835 한국등록특허공보 제10-1822410호Korean Patent Publication No. 10-1822410 한국등록특허공보 제10-2114384호Korean Patent Publication No. 10-2114384 한국공개특허공보 제10-2012-0075559호Korean Patent Publication No. 10-2012-0075559 한국공개특허공보 제10-2020-0029657호Korean Patent Publication No. 10-2020-0029657

「RGB-Depth카메라를 이용한 실내 연기검출」(JKIECS, vol. 9, no. 2, 155-160, 2014) 「Indoor smoke detection using RGB-Depth camera」 (JKIECS, vol. 9, no. 2, 155-160, 2014)

상기와 같은 문제를 해결하기 위하여 본 발명은 촬영 영상의 분석에 필요한 촬영당시 Depth센서값을 포함한 촬영환경 데이터를 RGB 및 Depth 영상과 함께 저장하여 이미지프로세싱에 사용할 수 있게 지원하고자 한다. In order to solve the above problems, the present invention is to support image processing by storing the shooting environment data including the depth sensor value at the time of shooting necessary for the analysis of the captured image together with the RGB and the depth image.

또한 본 발명은 정밀 측정을 위해 개선된 이미지프로세싱모듈을 제시하고자 한다. In addition, the present invention intends to present an improved image processing module for precise measurement.

상기 과제를 해결하기 위하여 본 발명은 카메라부, 서버부 및 데이터베이스부로 이루어지는 작물생육 분석시스템에 있어서 상기 카메라부는, RGB 영상 및 Depth 영상을 획득할 수 있는 카메라; 및 상기 RGB 영상 및 Depth 영상의 픽셀불량을 보정하여 Depth센서값을 추출하는 보정모듈;을 포함하며, 상기 보정모듈은 Depth센서값을 포함한 메타데이터를 생성후, 메타데이터, RGB 영상 및 Depth 영상을 함께 압축하여 백파일(.bag file)을 생성하는 것을 특징으로 제공할 수 있다.In order to solve the above problems, the present invention provides a crop growth analysis system comprising a camera unit, a server unit and a database unit, wherein the camera unit includes: a camera capable of acquiring an RGB image and a depth image; and a correction module that extracts a depth sensor value by correcting pixel defects of the RGB image and the depth image, wherein the correction module generates metadata including the depth sensor value, and then converts the metadata, the RGB image and the depth image. It can be provided as a feature of generating a bag file (.bag file) by compressing it together.

또한 본 발명 작물생육 분석시스템 서버부는 카메라부터로부터 영상을 획득하는 영상획득부, 상기 데이터베이스부로부터 저장된 압축파일을 받아 영상 및 메타데이터를 분리하는 이미지식별부, 상기 분리된 영상 및 메타테이터를 분석하여 작물 기관을 측정하는 이미지분석부 및, 상기 측정 데이터값을 데이터베이스부에 저장하도록하는 데이터저장부를 포함하여 이루어진 것을 제공할 수 있다.In addition, the server unit of the crop growth analysis system of the present invention includes an image acquisition unit that acquires images from a camera, an image identification unit that receives compressed files stored from the database unit and separates images and metadata, and analyzes the separated images and metadata. An image analysis unit for measuring crop organs, and a data storage unit for storing the measured data value in a database unit may be provided.

또한 본 발명 작물생육 분석시스템 이미지식별부는, faster R-CNN 및 mask R-CNN방식을 순차처리하는 이미지프로세싱모듈로 이루어진 것을 제공할 수 있다.In addition, the present invention crop growth analysis system image identification unit can provide that consisting of an image processing module that sequentially processes faster R-CNN and mask R-CNN methods.

또한 본 발명 데이터베이스부는 사전학습데이터를 저장한 딥러닝 빅데이터를 포함한 것을 제공할 수 있다. In addition, the database unit of the present invention may provide that including the deep learning big data storing the prior learning data.

또한 본 발명은 카메라부, 서버부 및 데이터베이스부로 이루어지는 작물생육 분석시스템을 이용하는 방법에 있어서, 상기 카메라부는 보정모듈을 포함하되, 상기 보정모듈은 Depth센서값을 포함한 메타데이터의 생성 및, 상기 메타데이터, RGB영상 및 Depth영상을 함께 압축하여 백파일(.bag file)을 생성하여 이용하는 것을 특징으로하는 작물생육 분석방법을 제공할 수 있다.The present invention also provides a method of using a crop growth analysis system comprising a camera unit, a server unit, and a database unit, wherein the camera unit includes a correction module, wherein the correction module generates metadata including a depth sensor value, and the metadata , it is possible to provide a crop growth analysis method characterized in that the RGB image and the depth image are compressed together to generate and use a bag file (.bag file).

본 발명은 RGB 및 Depth 영상과 함께 픽셀불량을 보정한 Depth센서값을 포함하는 메타데이터를 포함한 데이터를 저장한 후 분석에 활용함으로써 실시간으로만 확인가능하던 이미지의 Depth센서값을 나중에 분석하더라도 정밀하게 작물 기관을 측정할 수 있도록 지원한다.The present invention stores data including metadata including the depth sensor value corrected for pixel defects along with RGB and depth images and uses it for analysis, so that even if the depth sensor value of the image, which could only be checked in real time, is analyzed later, it is precisely Support to measure crop organs.

본 발명은 Depth센서값을 포함하는 메타데이터를 포함한 데이터를 백파일(.bag file)로 압축, 생성하여 클라우드상에 전송, 저장하기 때문에 이미지 처리속도를 빠르고 정확하게 지원함으로써 경비절감을 이룰 수 있게 지원한다.The present invention compresses and generates data including metadata including the depth sensor value into a bag file (.bag file), and transmits and stores it on the cloud, so it is possible to achieve cost reduction by quickly and accurately supporting image processing speed. do.

본 발명은 메타데이터를 포함한 촬영 영상의 이미지프로세싱시 1차 faster R-CNN 및 2차 mask R-CNN방식을 순차처리하는 이미지프로세싱모듈로 설계함으로써 더욱 개선된 정밀한 객체 분리와 측정을 지원할 수 있다. The present invention can support more improved precise object separation and measurement by designing as an image processing module that sequentially processes the first faster R-CNN and the second mask R-CNN method during image processing of a captured image including metadata.

도 1은 배경기술에 소개한 본 발명자의 등록특허 제10-1832724호의 개요를 도시한 것이고, 도 2는 특허의 구체적인 처리과정 전체를 도시한 것이다.
도 3은 본 발명의 시계열적 처리 과정 전체를 도시한 것이다.
도 4은 본 발명 촬영 영상저장시 생성된 백파일(.bag file)의 네이밍규칙을 예시한 것이다. 촬영 위치와 시간정보를 네이밍에 활용함으로써 빠른 정보처리를 지원할 수 있다.
도 5는 본 발명 데이터베이스부에 저장된 백파일(.bag file)로부터 RGB영상(A)과 Depth영상(B)을 분리하여 디스플레이한 예시이다.
도 6 및 도 7은 본 발명 백파일(.bag file)에서 분리한 RGB영상으로부터 작물인 토마토와 멜론의 기관을 패스터알시엔엔(faster r-cnn)방식으로 탐지하고, 태깅 선택하여 1차 이미지프로세싱하는 과정을 예시한 것이다.
도 8 및 도 9는 본 발명 도 6 및 도 7에서 1차 이미지프로세싱 처리한 객체에 대하여 2차 마스크알시엔엔(mask r-cnn) 방식을 적용하는 과정으로, 세그멘테이션(segmentation), 배경 제거 하여 객체를 정확히 분리하는 것을 예시한 것이다.
도 10은 본 발명 작물생육량 분석시 분석할 기관 및 항목을 토마토와 멜론을 예시하여 도시한 것이다.
도 11은 본 발명 백파일(.bag file)로부터 추출한 Depth센서값을 이용하여 작물 기관의 굽은 각도를 따라 1cm단위의 길이와 폭 분석 과정을 예시한 것이다.
도 12는 본 발명 특정작물의 영상으로부터 기관별 분석결과를 종합하여 디스플레이하는 예시이다.
도 13은 본 발명 특정작물의 기관별 생육변화량을 토대로 생육 상태를 진단하고 예측하여 디스플레이한 예시이다.
도 14는 본 발명 도 13의 진단및 예측의 일 예시로서 멜론 엽생육 결과를 디스플레이한 것이다.
도 15는 본 발명의 한 실시예로 스마트폰앱 매뉴얼에 구현된 카메라 촬영프로그램 조작화면을 예시한 것이다.
도 16은 본 발명의 한 실시예로 스마트폰앱 매뉴얼에 구현된 영상분석 결과 화면을 예시한 것이다.
Figure 1 shows the outline of the inventor's Patent Registration No. 10-1832724 introduced in the background, Figure 2 shows the entire specific processing process of the patent.
3 shows the entire time-series processing process of the present invention.
4 illustrates a naming rule of a bag file (.bag file) generated when storing a captured image according to the present invention. By using the shooting location and time information for naming, it is possible to support fast information processing.
5 is an example in which the RGB image (A) and the depth image (B) are separated and displayed from the bag file stored in the database unit of the present invention.
6 and 7 are primary images by detecting the organs of tomato and melon crops from the RGB image separated from the bag file of the present invention in a faster r-cnn method, and selecting tagging. The processing process is illustrated.
8 and 9 are a process of applying the secondary mask r-cnn method to the object subjected to the primary image processing in FIGS. 6 and 7 of the present invention, segmentation and background removal It exemplifies the exact separation of objects.
10 is an illustration showing the organs and items to be analyzed during the analysis of crop growth according to the present invention, exemplifying tomatoes and melons.
11 illustrates the length and width analysis process in units of 1 cm along the bending angle of the crop organ using the depth sensor value extracted from the bag file of the present invention.
12 is an example of displaying the results of analysis for each organ from an image of a specific crop according to the present invention.
13 is an example of diagnosing, predicting, and displaying the growth state based on the amount of change in growth for each organ of a specific crop of the present invention.
14 is a display of melon growth results as an example of the diagnosis and prediction of FIG. 13 of the present invention.
15 illustrates an operation screen of a camera shooting program implemented in a smartphone app manual as an embodiment of the present invention.
16 illustrates an image analysis result screen implemented in a smartphone app manual as an embodiment of the present invention.

본 발명의 측정 대상(object)로 사용된 작물 기관 중 잎(leaf) 또는 엽(葉)은 엽신(葉身) 또는 잎몸이라도 하며 기능상 햇빛을 받아 광합성하는 평평한 모양의 기관(Organ)이며, 엽수(잎의수)와 엽 면적(잎의 길이인 엽장과 넓이인 엽폭을 측정하여 계산)을 분석 변수이다. Among the crop organs used as the measurement object of the present invention, a leaf or a leaf is a leaf blade or a leaf body, and functionally, it is a flat-shaped organ that photosynthesizes by receiving sunlight, and a leaf tree ( The number of leaves) and leaf area (calculated by measuring leaf length, which is the length of a leaf, and leaf width, which is the width) are analysis variables.

화방(花房)은 꽃집이라고도 하는 작물 기관이며, 화방에 핀 꽃은 착과후 과일이 되기때문에 재배시 화방수, 한 화방당 꽃의 수 및 착과 수는 주요 수확 변수로 활용된다. 작물별로는 적정한 화방 및 꽃수가 착과 단계에서 철저히 관리되어야만 수확시 상품성이 담보되므로 생육량 측정후 현장 조치방법 제시의 주요 항목으로 활용된다. A flower room is a crop organ, also called a flower shop, and the flowers blooming in the flower room become fruits after fruiting. For each crop, the proper number of flower beds and flowers must be thoroughly managed at the stage of harvesting to ensure marketability at harvest, so it is used as a major item for proposing on-site measures after measuring growth.

과일(fruit)은 과수작물의 가장 중요한 작물 기관이며, 직선 길이인 과장, 넓이인 과폭, 과일의 개수 등이 진단 및 수확 예측의 주요 변수로 이용된다.The fruit is the most important crop organ of the orchard, and the length of the straight line, the exaggeration, the width, and the number of fruits are used as main variables for diagnosis and harvest prediction.

줄기(stem)는 엽을 지탱하는 작물 기관이며, 햇빛에 잎을 효과적으로 노출되도록 적절히 배열하고, 엽, 화방, 과일 등 많은 기관을 지탱하며 물/영양분의 통로로 활용되고 양분을 저장하며, 분열조직을 통해 새 조직을 발생시키고, 광합성 기능까지 담당하는 등 생육 과정 전체와 수확과 관련한 주요 변수이다. The stem is a crop organ that supports the leaves, is properly arranged to effectively expose the leaves to sunlight, supports many organs such as leaves, flower beds, fruits, etc. It is a major variable related to the overall growth process and harvest, such as generating new tissues through

한편 잎자루(patiole, 엽병)는 줄기와 엽(잎몸)을 이어주는 자루 기능의 작물 기관으로 엽이 햇빛 방향으로 향하도록 바꿔 주며, 길이와 넓이, 잎자루의 수 등이 분석시 주요 변수로 활용된다. On the other hand, the petiole (patiole) is a crop organ with a stalk function that connects the stem and the leaf (the leaf body), and changes the leaf to face the sunlight.

이하에서 본 발명에 대하여 구체적으로 설명한다.Hereinafter, the present invention will be described in detail.

먼저 도 3은 본 발명의 전체 처리과정을 도시한 것으로서, 배경기술에 소개한 선행기술인 도 1, 2의 등록특허제10-1832724호와 대비하여 설명한다. First, FIG. 3 shows the entire process of the present invention, and will be described in comparison with Patent Registration No. 10-1832724 of FIGS. 1 and 2, which is a prior art introduced in the background art.

본 발명 작물생육 분석시스템은 도 3과 같이 카메라부(100), 서버부(200), 데이터베이스부(300)으로 이루어지며, 종래의 도 1과 동일한 구조인 인터넷을 이용하여 쌍방향 데이터송수신할 수 있도록 연계되어 클라우드환경에서 원격 데이터전송이 이루어질 수 있다. 즉 본 발명은 카메라부, 서버부 및 데이터베이스부로 이루어지는 작물생육 분석시스템에 있어서 상기 카메라부는, RGB 영상 및 Depth 영상을 획득할 수 있는 카메라; 및 상기 RGB 영상 및 Depth 영상의 픽셀불량을 보정하여 Depth센서값을 추출하는 보정모듈;을 포함하며, 상기 보정모듈은 Depth센서값을 포함한 메타데이터를 생성후, 메타데이터, RGB 영상 및 Depth 영상을 함께 압축하여 백파일(.bag file)을 생성하는 것을 특징으로 한다. The crop growth analysis system of the present invention consists of a camera unit 100, a server unit 200, and a database unit 300 as shown in FIG. In connection, remote data transmission can be made in a cloud environment. That is, the present invention provides a crop growth analysis system comprising a camera unit, a server unit, and a database unit, the camera unit comprising: a camera capable of acquiring an RGB image and a depth image; and a correction module that extracts a depth sensor value by correcting pixel defects of the RGB image and the depth image, wherein the correction module generates metadata including the depth sensor value, and then converts the metadata, the RGB image and the depth image. It is characterized in that it is compressed together to create a bag file (.bag file).

또한 본 발명 작물생육 분석시스템 서버부는 카메라부터로부터 영상을 획득하는 영상획득부, 상기 데이터베이스부로부터 저장된 압축파일을 받아 영상 및 메타데이터를 분리하는 이미지식별부, 상기 분리된 영상 및 메타테이터를 분석하여 작물 기관을 측정하는 이미지분석부 및, 상기 측정 데이터값을 데이터베이스부에 저장하도록하는 데이터저장부를 포함하여 이루어진 것을 특징으로 한다.In addition, the server unit of the crop growth analysis system of the present invention includes an image acquisition unit that acquires images from a camera, an image identification unit that receives compressed files stored from the database unit and separates images and metadata, and analyzes the separated images and metadata. It is characterized in that it comprises an image analysis unit for measuring the crop organs, and a data storage unit to store the measured data value in the database unit.

또한 본 발명 작물생육 분석시스템 이미지식별부는, faster R-CNN 및 mask R-CNN방식을 순차처리하는 이미지프로세싱모듈로 이루어진 것을 특징으로 한다.In addition, the image identification unit of the crop growth analysis system of the present invention is characterized in that it consists of an image processing module that sequentially processes faster R-CNN and mask R-CNN methods.

또한 본 발명 데이터베이스부는 사전학습데이터를 저장한 딥러닝 빅데이터를 포함한 것을 특징으로 한다. In addition, the database unit of the present invention is characterized in that it includes deep learning big data storing the pre-learning data.

또한 본 발명은 카메라부, 서버부 및 데이터베이스부로 이루어지는 작물생육 분석시스템을 이용하는 방법에 있어서, 상기 카메라부는 보정모듈을 포함하되, 상기 보정모듈은 Depth센서값을 포함한 메타데이터의 생성 및, 상기 메타데이터, RGB영상 및 Depth영상을 함께 압축하여 백파일(.bag file)을 생성하여 이용하는 것을 특징으로하는 작물생육 분석방법을 제공할 수 있다.The present invention also provides a method of using a crop growth analysis system comprising a camera unit, a server unit, and a database unit, wherein the camera unit includes a correction module, wherein the correction module generates metadata including a depth sensor value, and the metadata , it is possible to provide a crop growth analysis method characterized in that the RGB image and the depth image are compressed together to generate and use a bag file (.bag file).

본 발명 분석시스템의 전체 시간별 흐름은 다음과 같다.The overall time flow of the analysis system of the present invention is as follows.

도 3과 같이 본 발명은 카메라부의 RGB영상 및 Depth영상 촬영으로 시작된다. 촬영된 영상은 카메라부 보정모듈에서 픽셀 불량을 체크 후 보정한 Depth센서값 등 촬영환경 데이터를 포함하는 메타데이터를 생성하게 된다.As shown in FIG. 3, the present invention starts with capturing RGB images and depth images of the camera unit. The captured image generates metadata including the shooting environment data such as the corrected depth sensor value after checking for pixel defects in the camera correction module.

또한 보정모듈은 생성된 메타데이터, RGB영상 및 Depth영상을 백파일(.bag file) 형태로 압축하며, 백파일은 서버부의 영상획득부를 거쳐 데이터베이스부에 저장된다. In addition, the correction module compresses the generated metadata, RGB image, and depth image in the form of a bag file (.bag file), which is stored in the database unit through the image acquisition unit of the server unit.

또한 서버부의 이미지식별부는 이미 데이터베이스부에 저장된 백파일(.bag file)을 추출하여 RGB영상, Depth영상 및 메타데이터를 분리하고(S5), 이를 이미지분석부에서 1차 Faster R-CNN및 2차 Mask R-CNN 모듈로 이루어진 이미지프로세싱모듈에 투입하여 처리한다(S6). 상기 처리된 이미지에는 ID가 부여되고(S7), Depth센서값을 이용하여 생육량을 측정하며(S8), 분리된 이미지 및 측정값은 다시 데이터베이스부에 저장하게 된다(S9).In addition, the image identification unit of the server unit extracts the bag file (.bag file) already stored in the database unit, separates the RGB image, the depth image, and the metadata (S5), and the image analysis unit uses the first Faster R-CNN and the second It is processed by putting it into the image processing module composed of the Mask R-CNN module (S6). ID is assigned to the processed image (S7), growth is measured using the depth sensor value (S8), and the separated image and measured value are stored again in the database unit (S9).

이후 필요에 따라 데이터베이스부에 저장된 사전학습데이터(딥러닝 빅데이터) 및 누적 관리된 작물 기관의 측정값을 이용하여 생육변화 분석(S11), 생육진단 및 변화량예측(S12) 과정을 거쳐 현장 조치방법을 제시한다(S13). 이 과정에서 카메라가 포함된 스마트폰 등 카메라부에는 분석결과뿐 아니라 진단, 수확예측 및 조치방법이 모두 통지되어 디스플레이될 수 있다. After that, if necessary, using the pre-learning data (deep learning big data) stored in the database unit and the measurement values of the accumulated managed crop organizations, the growth change analysis (S11), growth diagnosis and change amount prediction (S12) process are performed, and then the on-site action method is presented (S13). In this process, the camera unit, such as a smartphone including a camera, may notify and display not only the analysis result but also diagnosis, harvest prediction, and action method.

이하에서는 처리 단계별로 상세하게 설명한다.Hereinafter, each processing step will be described in detail.

본 발명은 카메라부(100)를 통해 RGB영상과 Depth영상을 촬영하며, Depth영상 이미지에서 픽셀 불량을 체크하여 보정한 Depth센서값과 촬영환경 데이터를 포함하는 메타데이터를 생성하여 압축하는 기능을 담당한다. 본 발명에서는 압축도가 높고 사용편의성 및 안정성이 뛰어나 정밀 로봇제어용에 사용되는 백파일(.bag file) 형태를 사용하여 압축하였다. The present invention takes an RGB image and a depth image through the camera unit 100, and generates and compresses metadata including a depth sensor value corrected by checking pixel defects in the depth image image and shooting environment data. do. In the present invention, it was compressed using a bag file format used for precision robot control because of its high degree of compression and excellent usability and stability.

상기 픽셀 불량 체크 및 조정 Depth센서값과 촬영환경 데이터를 포함하는 메타데이터를 생성하여 압축하는 기능은 보정모듈을 통해 수행될 수 있다.The function of generating and compressing metadata including the pixel defect check and adjustment depth sensor value and the photographing environment data may be performed through a correction module.

또한 실제 현장촬영에서 발명자가 실험한 실시에에서는 RGB영상 및 Depth영상이 카메라로부터 0.6~1.2mm의 거리에서 촬영되는 것이 더욱 바람직하였다. In addition, it was more preferable that the RGB image and the Depth image were photographed at a distance of 0.6 to 1.2 mm from the camera in the embodiment experimented by the inventor in actual field photography.

즉 본 발명은 앞서 배경기술의 공지특허도 작물생육 분석시 RGB영상 및 Depth영상이미지를 함께 사용하지만, 공지특허에서 분석하는 이들 영상은 JPG형태 등 통상의 이미지파일형태 그대로 전송 데이터베이스부에 저장한 것이기때문에 이 경우 소정의 시간 경과후 서버부에서 이를 다시 불러내 이미지프로세싱시 촬영당시의 환경데이터 반영이 불가능하여 분석결과가 실시간 분석한 것과 크게 달라지게 되고, 이미지인식율도 90%를 넘기기 매우 어려웠다. That is, the present invention uses RGB images and Depth image images together when analyzing crop growth in the known patents of the background art, but these images analyzed in the known patents are stored in the transmission database unit as they are in the form of normal image files such as JPG format. Therefore, in this case, after a predetermined period of time has elapsed, the server unit calls it again and it is impossible to reflect the environmental data at the time of image processing during image processing, so the analysis result is significantly different from the real-time analysis, and the image recognition rate is also very difficult to exceed 90%.

그러나 본 발명은 보정모듈을 이용하여 Depth센서값 등 촬영환경데이터를 포함하는 메타데이터를 RGB영상 및 Depth영상이미지와 함께 백파일(.bag file)에 압축 저장하기 때문에 소정시간 경과 후 서버부에서 추출, 분석할 경우에도 Depth센서값 등 촬영환경데이터를 매핑에 활용하기 때문에 언제, 어디서 누가 분석해도 이미지 왜곡이 없어 이미지프로세싱 후 이미지 인식율은 95%이상 달성할 수 있었다. 이를 통해 작물 기관을 측정하여 생육량 비교시 이전보다 훨씬 정밀하게 분석할 수 있도록 지원한다.However, the present invention compresses and stores the metadata including the shooting environment data, such as the depth sensor value, in a bag file together with the RGB image and the depth image image by using the correction module, so that it is extracted from the server after a predetermined time has elapsed. Even when analyzing , since the shooting environment data such as the depth sensor value is used for mapping, there is no image distortion no matter who analyzes anytime, anywhere, and the image recognition rate after image processing was able to achieve more than 95%. Through this, it supports the analysis more precisely than before when comparing the growth rate by measuring the crop organs.

또한 카메라부는 RGB영상과 Depth영상을 촬영할 수 있는 스마트 단말에 착탈 가능한 부착식 카메라일 수 있고, 기기일체형으로 제조된 스마트폰일 수도 있다. 5G통신기술 및 VR기능 요구추세에 따라 최근에는 고급 스마트폰에 RGB-Depth카메라가 디폴트로 포함되는 경우도 늘고 있다. In addition, the camera unit may be an attachable camera detachable to a smart terminal capable of photographing RGB images and depth images, or may be a smartphone manufactured as an integrated device. According to the trend of demanding 5G communication technology and VR function, the case of including RGB-Depth camera by default in high-end smartphones is increasing recently.

또한 카메라부는 촬영 RGB영상 및 Depth영상을 서버부를 통해 데이터베이스부에 저장하도록 제어할 수 있다. 일예로 도 15와 같이 스마트폰앱을 통해 생육 작물의 기관을 소정의 고정 위치에서 촬영하고, 촬영시점의 Depth영상 이미지에서 픽셀 불량을 체크 후 보정한 Depth센서값이 포함된 메타데이터를 RGB영상 및 Depth영상과 함께 백파일(.bag file)로 생성하여 전송하고 데이터베이스부에 저장할 수 있다. In addition, the camera unit may control the captured RGB image and the depth image to be stored in the database unit through the server unit. As an example, as shown in FIG. 15, the organs of growing crops are photographed at a predetermined fixed position through a smartphone app, and after checking pixel defects in the depth image image at the time of shooting, metadata including the corrected depth sensor value is converted into RGB image and depth It can be created and transmitted as a bag file together with the video and stored in the database unit.

또한 상기 메타데이터에는 서버부에서 정보처리하기 위하여 필요한 촬영시점 정보를 더 추가하여 생성될 수 있다. In addition, the metadata may be generated by further adding photographing time information necessary for information processing in the server unit.

이하에서는 서버부(200)에 대하여 설명한다.Hereinafter, the server unit 200 will be described.

본 발명 서버부(200)는 카메라부로부터 영상을 획득하는 영상획득부, 상기 데이터베이스부로부터 저장된 압축파일을 받아 영상 및 메타데이터를 분석하는 이미지식별부, 상기 분리된 영상 및 메타데이터를 분석하여 작물 기관을 측정하는 이미지 분석부 및, 상기 측정 데이터값을 데이터베이스부에 저장하도록하는 데이터저장부를 포함하여 이루어질 수 있고, 스마트폰앱 또는 컴퓨터 프로그램의 형태로 제공될 수 있다. The server unit 200 of the present invention includes an image acquisition unit that acquires an image from a camera unit, an image identification unit that receives a compressed file stored from the database unit and analyzes the image and metadata, and analyzes the separated image and metadata to produce crops. It may include an image analysis unit for measuring an organ, and a data storage unit for storing the measured data value in a database unit, and may be provided in the form of a smartphone app or a computer program.

본 발명 이미지식별부는 데이터베이스에 저장된 백파일(.bag file)을 불러낸 후 Depth센서값과 촬영환경 데이터가 포함된 메타데이터, RGB영상 및 Depth영상을 분리하여(S5) 이미지프로세싱 과정에 투입한다. The image identification unit of the present invention calls the bag file stored in the database, and then separates the metadata, RGB image, and depth image including the depth sensor value and the shooting environment data (S5) and puts it in the image processing process.

또한 본 발명 이미지분석부는 1,2차에 걸친 미세 이미지프로세싱 과정을 담당하게 되는데, 1차는 Faster R-CNN방식으로 2차는 Mask R-CNN 방식으로 순차조합한 이미지프로세싱모듈로 제공될 수 있고, 최초 촬영시부터 현재까지 시차를 두고 누적하여 객체별 ID를 부여 관리하도록 지원할 수 있다.In addition, the image analysis unit of the present invention is responsible for the fine image processing process in the first and second phases. The first is a Faster R-CNN method and the second is a Mask R-CNN method. It can be provided as an image processing module sequentially combined, It can be supported to assign and manage IDs for each object by accumulating with a time difference from the time of shooting to the present.

또한 본 발명의 Faster R-CNN 방식은 도 8 및 도 9의 예시와 같이, 원본이미지로부터 객체(object)를 탐지, 태깅 선택하고 후속하여 Mask R-CNN 방식을 통해 객체를 정밀 세그멘테이션(Segmentation)하여 분리해낸다. 이 과정에서 보정 Depth센서값이 포함된 메타데이터는 더 정밀한 분리를 지원하고, 분리된 객체는 도 11과 같이 기관 측정항목별로 측정하며, 도 12와 같이 측정결과는 디스플레이 화면에 표시되도록 지원할 수 있다.In addition, in the Faster R-CNN method of the present invention, as in the examples of FIGS. 8 and 9 , an object is detected from the original image, selected by tagging, and then the object is precisely segmented through the Mask R-CNN method. separate In this process, metadata including the corrected depth sensor value supports more precise separation, the separated object is measured for each institution measurement item as shown in FIG. 11, and the measurement result can be supported to be displayed on the display screen as shown in FIG. 12. .

상기와 같은 이미지프로세싱 및 생육량이 측정 후, 이미지 및 측정값이 데이터베이스에 저장되면 도 13과 같이 엽, 줄기, 화방, 과일 등 작물 기관별 측정결과를 제공할 수 있다. 이를 통해 아이디가 부여된 특정위치의 특정 작물의 기관별 생육 상태를 쉽게 진단하여 관리할 수 있게 지원한다.After the image processing and growth rate measurement as described above, when the image and the measurement value are stored in the database, it is possible to provide measurement results for each crop organ such as a leaf, a stem, a flower room, and a fruit, as shown in FIG. 13 . Through this, it supports to easily diagnose and manage the growth status of a specific crop in a specific location given an ID.

또한 서버부의 특정 작물에 대한 수확예측 알고리즘이 적용될 경우 데이터베이스에 저장된 측정값들로부터 수확 예측을 제공할 수 있다.In addition, when a harvest prediction algorithm for a specific crop of the server is applied, it is possible to provide a harvest prediction from the measured values stored in the database.

이하에서 데이터베이스부(300)에 대하여 상세히 설명한다.Hereinafter, the database unit 300 will be described in detail.

데이터베이스부(300)는 사전학습데이터부, 기본데이터부 및 측정데이터부로 이루어질 수 있고, 수확예측 알고리즘이 더 포함될 수 있다.The database unit 300 may include a pre-learning data unit, a basic data unit, and a measurement data unit, and may further include a harvest prediction algorithm.

상기 사전학습데이터부는 본 발명 작물생육 분석시스템을 본격 적용할 수 있도록 분석 대상지의 작물 기관 RGB영상을 촬영하여 저장, 학습하여 구축된 것으로서, 소정의 시간 간격으로 소정의 고정된 위치에서 촬영한 작물 기관의 영상을 이용하여 각각의 작물 기관에 특정 ID를 부여하여 관리하되 누적적으로 관리함으로써 딥러닝 빅데이터를 구축, 활용할 수 있다.The pre-learning data unit is built by recording, storing, and learning the RGB images of crop organs in the analysis target area so that the crop growth analysis system of the present invention can be applied in earnest. You can build and utilize deep learning big data by assigning a specific ID to each crop organization using the image of the crop and managing it cumulatively.

상기 기본데이터부는 상기 카메라부에서 전송받은 Depth센서값이 포함된 메타데이터, RGB영상 및 Depth영상이 함께 압축된 백파일(.bag file)을 그대로 저장한 데이터부로서 언제든지 카메라부 또는 서버부로부터 호출되도록 관리된다.The basic data unit is a data unit that stores the metadata including the depth sensor value received from the camera unit, a bag file in which the RGB image and the depth image are compressed together, as it is, and is called from the camera unit or the server unit at any time. managed as much as possible.

또한 상기 측정데이터부는 본 발명 작물생육 분석시스템이 본격 적용된 이미지프로세싱을 거쳐 ID가 부여된 처리 이미지와 측정값을 저장하는 데이터부로서, 시계열적으로 관리하는 측정값과 이미지는 진단 및 수확예측에 이용되고, 사전학습데이터 등 데이터베이스부 데이터를 참고하여 현장조치 제시 등에 활용된다. In addition, the measurement data unit is a data unit that stores the processed images and measurement values assigned IDs through image processing to which the crop growth analysis system of the present invention is applied in earnest. The measurement values and images managed in time series are used for diagnosis and harvest prediction. It is used for presenting on-site measures by referring to database data such as pre-learning data.

100 : 카메라부 200 : 서버부
300 : 데이터베이스부
100: camera unit 200: server unit
300: database unit

Claims (5)

카메라부, 서버부 및 데이터베이스부로 이루어지는 작물생육 분석시스템에 있어서,
상기 카메라부는,
RGB 영상 및 Depth 영상을 획득할 수 있는 카메라;및
상기 RGB 영상 및 Depth 영상의 픽셀불량을 보정하여 Depth센서값을 추출하는 보정모듈;을 포함하며,
상기 보정모듈은 Depth센서값을 포함한 메타데이터를 생성후, 메타데이터, RGB 영상 및 Depth 영상을 함께 압축하여 백파일(.bag file)을 생성하는 것을 특징으로하는, 작물생육 분석시스템
In the crop growth analysis system comprising a camera unit, a server unit and a database unit,
The camera unit,
A camera capable of acquiring RGB images and depth images; and
A correction module for extracting a depth sensor value by correcting pixel defects of the RGB image and the depth image;
The correction module generates metadata including the depth sensor value, and then compresses the metadata, RGB image, and depth image together to generate a bag file (.bag file), crop growth analysis system
제1항에 있어서,
상기 서버부는,
카메라부터로부터 영상을 획득하는 영상획득부; 데이터베이스부로부터 저장된 압축파일을 받아 영상 및 메타데이터를 분리하는 이미지식별부; 상기 분리된 영상 및 메타테이터를 분석하여 측정하는 이미지분석부; 및, 상기 측정 데이터값을 데이터베이스부에 저장하도록하는 데이터저장부;를 포함하여 이루어진 것을 특징으로 하는, 작물생육 분석시스템
According to claim 1,
The server unit,
an image acquisition unit for acquiring an image from a camera; an image identification unit that receives the compressed file stored from the database unit and separates the image and metadata; an image analysis unit that analyzes and measures the separated image and metadata; and a data storage unit configured to store the measured data value in the database unit;
제2항에 있어서,
상기 이미지식별부는,
faster R-CNN 및 mask R-CNN방식을 순차처리하는 이미지프로세싱모듈로 이루어진 것을 특징으로하는, 작물생육 분석시스템
3. The method of claim 2,
The image identification unit,
Crop growth analysis system, characterized in that it consists of an image processing module that sequentially processes faster R-CNN and mask R-CNN methods
제1항에 있어서, 상기 데이터베이스부는 사전학습데이터를 저장한 딥러닝 빅데이터를 포함한 것을 특징으로하는, 작물생육 분석시스템
The crop growth analysis system according to claim 1, wherein the database unit includes deep learning big data storing prior learning data.
카메라부, 서버부 및 데이터베이스부로 이루어지는 작물생육 분석시스템을 이용하는 방법에 있어서,
상기 카메라부는 보정모듈을 포함하되, 상기 보정모듈은 Depth센서값을 포함한 메타데이터의 생성 및, 상기 메타데이터, RGB영상 및 Depth영상을 함께 압축하여 백파일(.bag file)을 생성하여 이용하는 것을 특징으로하는, 작물생육 분석방법
In the method of using a crop growth analysis system consisting of a camera unit, a server unit and a database unit,
The camera unit includes a correction module, wherein the correction module generates metadata including a depth sensor value and compresses the metadata, RGB image, and depth image together to generate and use a bag file (.bag file) Crop growth analysis method
KR1020200104292A 2020-08-20 2020-08-20 Advanced crop diagnosing system KR20220022961A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200104292A KR20220022961A (en) 2020-08-20 2020-08-20 Advanced crop diagnosing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200104292A KR20220022961A (en) 2020-08-20 2020-08-20 Advanced crop diagnosing system

Publications (1)

Publication Number Publication Date
KR20220022961A true KR20220022961A (en) 2022-03-02

Family

ID=80815230

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200104292A KR20220022961A (en) 2020-08-20 2020-08-20 Advanced crop diagnosing system

Country Status (1)

Country Link
KR (1) KR20220022961A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102522341B1 (en) * 2022-11-04 2023-04-18 아이티컨버젼스 주식회사 Automatic crop growth measurement system using artificial intelligence

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120075559A (en) 2010-11-23 2012-07-09 한국전자통신연구원 Method of observating crops growth and apparatus for the same
KR101763835B1 (en) 2015-10-30 2017-08-03 사단법인 한국온실작물연구소 System for distinguishing image divided by crop organ using image in colony
KR101822410B1 (en) 2016-07-22 2018-01-29 아인정보기술 주식회사 Apparatus for diagnosing growth state of crop organ using crop organ image
KR20200029657A (en) 2018-09-06 2020-03-19 장성식 Farming automation system using crop image big data
KR102114384B1 (en) 2017-01-24 2020-05-25 한국과학기술연구원 Image-based crop growth data measuring mobile app. and device therefor

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120075559A (en) 2010-11-23 2012-07-09 한국전자통신연구원 Method of observating crops growth and apparatus for the same
KR101763835B1 (en) 2015-10-30 2017-08-03 사단법인 한국온실작물연구소 System for distinguishing image divided by crop organ using image in colony
KR101822410B1 (en) 2016-07-22 2018-01-29 아인정보기술 주식회사 Apparatus for diagnosing growth state of crop organ using crop organ image
KR102114384B1 (en) 2017-01-24 2020-05-25 한국과학기술연구원 Image-based crop growth data measuring mobile app. and device therefor
KR20200029657A (en) 2018-09-06 2020-03-19 장성식 Farming automation system using crop image big data

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
「Indoor smoke detection using RGB-Depth camera」 (JKIECS, vol. 9, no. 2, 155-160, 2014)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102522341B1 (en) * 2022-11-04 2023-04-18 아이티컨버젼스 주식회사 Automatic crop growth measurement system using artificial intelligence

Similar Documents

Publication Publication Date Title
KR101832724B1 (en) System and method for diagnosing crop through the video image
KR101763835B1 (en) System for distinguishing image divided by crop organ using image in colony
CN109977813A (en) A kind of crusing robot object localization method based on deep learning frame
JP2019520632A (en) Weed recognition in the natural environment
KR101822410B1 (en) Apparatus for diagnosing growth state of crop organ using crop organ image
US20210241482A1 (en) Yield prediction for a cornfield
KR101846301B1 (en) Crops grow and management system using automatic control device
JP6704148B1 (en) Crop yield forecast program and crop quality forecast program
CN111199192A (en) Method for detecting integral maturity of field red globe grapes by adopting parallel line sampling
US20240037724A1 (en) Plant detection and display system
CN116051996A (en) Two-stage crop growth prediction method based on multi-mode information
CN112580540A (en) Artificial intelligent crop processing system and method
CN112560748A (en) Crop shape analysis subsystem and method
Paturkar et al. Non-destructive and cost-effective 3D plant growth monitoring system in outdoor conditions
KR20220022961A (en) Advanced crop diagnosing system
KR102531781B1 (en) A device for measuring crop growth using deep learning segmentation recognition technology and operation method thereof
Badeka et al. Harvest crate detection for grapes harvesting robot based on YOLOv3 model
KR20180086776A (en) Method Tagging Images with Plant Identifier Using a Tagging Application, Mobile Smart Device Comprising The Same, And Plant Growth Information Analysis System
KR102522341B1 (en) Automatic crop growth measurement system using artificial intelligence
US20190191630A1 (en) Augmented-human field inspection tools for automated phenotyping systems and agronomy tools
CN112560749A (en) Crop analysis system and analysis method
CN112581459A (en) Crop classification system and method
CN117218534A (en) Crop leaf disease identification method
KR102485816B1 (en) Crop growth analysis system using image collection device
CN116189076A (en) Observation and identification system and method for bird observation station

Legal Events

Date Code Title Description
E902 Notification of reason for refusal