KR20180086776A - Method Tagging Images with Plant Identifier Using a Tagging Application, Mobile Smart Device Comprising The Same, And Plant Growth Information Analysis System - Google Patents

Method Tagging Images with Plant Identifier Using a Tagging Application, Mobile Smart Device Comprising The Same, And Plant Growth Information Analysis System Download PDF

Info

Publication number
KR20180086776A
KR20180086776A KR1020170010634A KR20170010634A KR20180086776A KR 20180086776 A KR20180086776 A KR 20180086776A KR 1020170010634 A KR1020170010634 A KR 1020170010634A KR 20170010634 A KR20170010634 A KR 20170010634A KR 20180086776 A KR20180086776 A KR 20180086776A
Authority
KR
South Korea
Prior art keywords
plant
information
image
unit
identification information
Prior art date
Application number
KR1020170010634A
Other languages
Korean (ko)
Inventor
김형석
이주영
이운석
장성율
노주원
오상록
Original Assignee
한국과학기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술연구원 filed Critical 한국과학기술연구원
Priority to KR1020170010634A priority Critical patent/KR20180086776A/en
Publication of KR20180086776A publication Critical patent/KR20180086776A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/02Agriculture; Fishing; Forestry; Mining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K19/00Record carriers for use with machines and with at least a part designed to carry digital markings
    • G06K19/06Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
    • G06K19/06009Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking
    • G06K19/06018Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking one-dimensional coding
    • G06K19/06028Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking one-dimensional coding using bar codes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K19/00Record carriers for use with machines and with at least a part designed to carry digital markings
    • G06K19/06Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
    • G06K19/06009Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking
    • G06K19/06037Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking multi-dimensional coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K19/00Record carriers for use with machines and with at least a part designed to carry digital markings
    • G06K19/06Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
    • G06K19/067Record carriers with conductive marks, printed circuits or semiconductor circuit elements, e.g. credit or identity cards also with resonating or responding marks without active components
    • G06K19/07Record carriers with conductive marks, printed circuits or semiconductor circuit elements, e.g. credit or identity cards also with resonating or responding marks without active components with integrated circuit chips
    • G06K19/0723Record carriers with conductive marks, printed circuits or semiconductor circuit elements, e.g. credit or identity cards also with resonating or responding marks without active components with integrated circuit chips the record carrier comprising an arrangement for non-contact communication, e.g. wireless communication circuits on transponder cards, non-contact smart cards or RFIDs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72519
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/81Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
    • H04N5/217

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Agronomy & Crop Science (AREA)
  • Animal Husbandry (AREA)
  • Marine Sciences & Fisheries (AREA)
  • Mining & Mineral Resources (AREA)
  • Computer Hardware Design (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

The present invention relates to a method to tag and analyze plant identification information by using a tagging application, a portable smart device executing the same, and a plant growth information analysis system including the same. According to the present invention, the portable smart device comprises: a camera to acquire an image; a memory unit to store a tagging application for tagging plant identification information to a plant image; an application control unit to execute the tagging application; a display unit to display a user interface screen in accordance with execution of the tagging application; and a communication unit to communicate with the outside. The tagging application comprises: an identification information recognition unit to recognize identification information of a plant; an image acquisition unit to activate the camera to acquire the image of the plant; a tagging unit to tag identification information of the plant to the image information of the plant; and a transmission unit to transmit image information of the plant tagged with the identification information to an analysis server. Accordingly, particulars of each portion of an individual plant are photographed as an image, and the identification information of the individual plant is tagged to be transmitted to an analysis server, thereby being able to simply add growth data of the plant.

Description

태깅 어플리케이션을 이용하여 식물 식별 정보를 태깅 및 분석하는 방법, 이를 실행하는 휴대용 스마트 기기 및 이를 포함하는 식물 생육정보 분석 시스템{Method Tagging Images with Plant Identifier Using a Tagging Application, Mobile Smart Device Comprising The Same, And Plant Growth Information Analysis System}FIELD OF THE INVENTION [0001] The present invention relates to a method for tagging and analyzing plant identification information using a tagging application, a portable smart device for executing the same, and a plant growth information analysis system including the method. Plant Growth Information Analysis System}

본 발명은 태깅 어플리케이션을 이용하여 식물 식별 정보를 태깅 및 분석하는 방법, 이를 실행하는 휴대용 스마트 기기, 및 이를 포함하는 식물 생육 정보 분석 시스템에 관한 것으로, 보다 구체적으로는 휴대용 스마트 기기에서 실행하는 어플리케이션을 이용하여 식물의 이미지와 함께 식별정보를 태깅하고 식물 이미지를 분석하여 식물의 생육 정보를 추출하는 기술에 관한 것이다.The present invention relates to a method for tagging and analyzing plant identification information using a tagging application, a portable smart device for executing the same, and a plant growth information analysis system including the same. More particularly, Tagging identification information together with an image of the plant, and analyzing the plant image to extract the growth information of the plant.

식물 육종은 식물을 재배하면서 다양한 식물 유전자원 집단 내에서 각각의 개체들의 특성을 분석하고, 식물 품종 육성을 위한 집단 내에서 우량한 개체를 선발하며, 식물 유전자 변형 또는 인위적 돌연변이 집단 내에서 특정 관심 변이체를 분석하고 선발하는 일련의 과정을 수행하게 된다.Plant breeding involves the analysis of the characteristics of individual individuals within a variety of plant genetic resources, plant selection, selection of superior individuals within a population for plant breeding, and identification of specific mutants within a plant genetic modification or anthropogenic mutant population Analysis, and selection.

식물 표현형 분석은 사람이 직접 식물의 키, 잎의 수량, 색상 및 모양 등을 직접적으로 측정하거나 식물의 일부를 채취하여 화학적으로 분석하는 등의 방법을 사용하였다. 하지만, 사람의 눈에 의존한 분석의 경우 많은 공수와 작업시간이 요구되고 사람마다 다르게 분석할 수 있으므로 신뢰성과 정확성이 저하되는 단점이 있다. Plant phenotypic analysis was performed by directly measuring the plant height, the number of leaves, color and shape, or chemically analyzing a part of the plant. However, analysis based on the human eye requires a lot of air and work time, and it can be analyzed differently for each person, so that reliability and accuracy are degraded.

이러한 문제점을 개선하기 위해서 대량의 식물의 생육데이터를 자동으로 분석하는 시스템이 개발되어 종자회사나 육종 연구기관에서 활용하고 있다. To solve these problems, a system for automatically analyzing the growth data of a large number of plants has been developed and utilized by seed companies and breeding research institutes.

종래 식물 생육데이터를 자동으로 분석하는 시스템은 식물 용기 각각에 식별수단을 장착하고 이송장비를 통해 순차적으로 검사챔버로 이동시켜 식물의 이미징을 획득하여 분석하는 방법을 이용하고 있다.Conventionally, a system for automatically analyzing plant growth data utilizes a method of acquiring and analyzing the image of a plant by attaching identification means to each of the plant containers and sequentially moving the same through the transfer equipment to the inspection chamber.

그러나, 식물 이미징을 획득하는 검사챔버는 식물 전체의 이미지를 획득하여 분석하기 때문에, 식물의 줄기나 잎 등의 일부에 특이점 등이 있다고 하더라도 간과하기 쉽고, 식물의 특이사항을 알아낸다고 하더라도 해당 부위에 대한 상세 데이터가 부족하기 때문에 분석에 어려움이 있다. However, since the inspection chamber for obtaining plant imaging acquires an image of the whole plant and analyzes it, even if there is a singular point in a part of a stem or a leaf of a plant, it is easy to overlook, and even if a plant is identified, There is a lack of detailed data on the analysis, which makes analysis difficult.

이런 경우, 연구자나 작업자가 분석을 요하는 특이사항이 발견된 식물에 대해 이미지를 획득해서 생육데이터 분석DB에 별도로 저장해야 필요성이 있다. 그런데, 이러한 작업을 위해서는 연구자나 작업자가 획득한 식물 이미지를 각각의 식물의 식별정보를 추가 입력해서 저장해야 하는데, 작업자가 이미지를 촬상한 식물의 식별정보를 일일이 기억했다가 입력하는 것도 어렵고, 해당 이미지나 데이터를 분석DB에 입력하는 작업도 매우 번거롭다. In such a case, it is necessary to acquire an image of a plant in which the researcher or the worker has found a specific matter that needs analysis, and separately store the image in the growth data analysis DB. However, in order to perform such work, it is necessary to store the plant image acquired by the researcher or the worker as additional identification information of each plant, and it is also difficult for the operator to individually memorize and input the identification information of the plant that images the image, Inputting the image or data into the analysis DB is also very cumbersome.

또한, 식물의 이미지 획득 시 연구자나 작업자마다 카메라 조작 숙련도, 카메라 촬상 조건, 카메라 조작 방법 등이 제각각이기 때문에 데이터의 신뢰성을 담보하기 어려운 문제가 있다.In addition, there is a problem that it is difficult to guarantee the reliability of data because each researcher or worker acquires the image of the plant, the camera operation skill, the camera image pickup condition, and the camera operation method are different.

특히, 식물의 표현형 데이터는 식물의 크기나 색상 등의 분석이 매우 중요한데, 카메라와 식물과의 거리, 화이트 밸런스 등 카메라의 촬상 조건 등이 연구자나 작업자마다 상이하기 때문에 식물 자체 또는 타 개체 식물의 데이터 간의 비교 자체를 할 수가 없는 문제가 있다.In particular, the phenotype data of a plant is very important to analyze the size and color of the plant. Since the distance between the camera and the plant and the imaging conditions of the camera such as white balance are different for each researcher or operator, There is a problem that it is not possible to compare itself.

전술한 바와 같은 문제점을 해결하기 위하여, 본 발명에서는 개별 식물의 부위별 특이사항 등을 이미지로 촬영하고 개별 식물의 식별정보를 함께 태깅하여 분석서버로 전송함으로써 간단히 식물의 생육데이터를 추가할 수 있는 태깅 어플리케이션을 이용하여 식물 식별 정보를 태깅하는 방법 및 이를 실행하는 휴대용 스마트 기기를 제공하는 것이다. In order to solve the above-mentioned problems, in the present invention, it is possible to add plant growth data by simply photographing specific plant-specific information of each plant, tagging identification information of individual plants together, A method for tagging plant identification information using a tagging application, and a portable smart device for executing the method.

또한, 그동안 수집한 식물 이미지 DB를 이용하여 기계학습을 통해 생육정보에 관한 기계학습모델을 구축하고, 휴대용 스마트기기로 촬영한 식물 이미지를 기계학습모델에 기초하여 분석 및 처리하여 식물의 잎, 줄기, 과실, 가지 등의 크기, 면적, 색상 등의 생육정보를 산출함으로써, 촬영자나 촬영기기가 다르더라도 신뢰성있는 분석을 담보할 수 있는 생육정보 분석 시스템을 제공하는 것이다. In addition, a machine learning model of the growth information is constructed through machine learning using the collected plant image DB, and the plant image captured by the portable smart device is analyzed and processed based on the machine learning model, , A fruit, an egg, and the like, a growth information such as an area, a color, and the like is calculated, thereby providing a reliable analysis even if the photographer or the photographing apparatus is different.

더 나아가, 식물의 관심부분(ROI) 등을 설정할 수 있게 함으로써 추후 이미지 분석 시 식물의 특이사항 등을 간과하지 않고 명확하게 분석할 수 있도록 정보를 제공하는 식물 식별 정보를 태깅하는 방법 및 이를 실행하는 휴대용 스마트 기기 및 생육정보 분석 시스템을 제공하는데 목적이 있다.Further, by setting the ROI of the plant, it is possible to provide a method of tagging the plant identification information that provides information so as to clearly analyze the plant specific information at the time of the later image analysis, A portable smart device and a growth information analysis system.

상기 목적은 이미지를 획득하기 위한 카메라; 식물 이미지에 식물 식별 정보를 태깅하기 위한 태깅 어플리케이션이 저장된 메모리부; 상기 태깅 어플리케이션을 실행시키는 어플리케이션제어부; 상기 태깅 어플리케이션의 실행에 따른 사용자 인터페이스 화면을 디스플레이하는 디스플레이부; 및 외부와의 통신을 위한 통신부를 포함하며; 상기 태깅 어플리케이션은 상기 식물의 식별정보를 인식하는 식별정보인식부, 상기 카메라를 활성화시켜 식물의 이미지를 획득하는 이미지획득부, 상기 식물의 식별정보를 상기 식물의 이미지 정보에 태깅하는 태깅부, 및 상기 식별정보가 태깅된 상기 식물의 이미지 정보를 분석서버로 전송하는 전송부를 포함하는, 휴대용 스마트 기기에 의해 달성될 수 있다. The object is achieved by a camera for acquiring an image; A memory unit storing a tagging application for tagging plant identification information on a plant image; An application control unit for executing the tagging application; A display unit for displaying a user interface screen according to execution of the tagging application; And a communication unit for communicating with the outside; The tagging application includes an identification information recognizing unit for recognizing the identification information of the plant, an image acquiring unit for acquiring an image of the plant by activating the camera, a tagging unit for tagging the identification information of the plant to image information of the plant, And a transmitting unit for transmitting the image information of the plant tagged with the identification information to the analysis server.

여기서, 상기 이미지획득부는 상기 식물의 관심영역을 입력 또는 선택할 수 있는 관심영역설정부; 및 상기 식물의 이미지 획득 시 상기 식물의 관심영역에 관한 정보를 상기 식물의 이미지 정보에 포함시켜 저장하는 정보저장부를 더 포함할 수 있다. Here, the image obtaining unit may include a region of interest setting unit that can input or select a region of interest of the plant; And an information storage unit for storing information about a region of interest of the plant in the image information of the plant when the image of the plant is acquired.

또한, 식별정보인식부는 RFID, QR코드, 및 바코드 방식 중 적어도 어느 하나의 인식수단을 포함할 수 있다. In addition, the identification information recognizing unit may include at least one of RFID, QR code, and bar code recognition unit.

그리고, 상기 태깅 어플리케이션은 상기 식물의 특이사항을 사용자로부터 입력받기 위한 사용자입력부를 더 포함할 수 있다. In addition, the tagging application may further include a user input unit for inputting a specific item of the plant from a user.

더 나아가, 상기 태깅 어플리케이션은 상기 식물의 식별정보를 상기 분석서버로 전송하여 상기 식물에 관한 개체정보를 요청하는 정보요청부, 및 상기 분석서버로부터 전송된 상기 식물에 관한 개체정보를 항목별로 표시하는 정보표시부를 더 포함하고, 상기 식물에 관한 개체정보는 식물의 유전자정보, 식물의 2D 또는 3D 영상정보, 상기 식물의 재배환경정보, 상기 식물의 생장정보, 및 상기 식물의 표현형정보 중 적어도 하나를 포함할 수 있다. Further, the tagging application may include an information requesting unit for transmitting identification information of the plant to the analysis server to request individual information on the plant, and object information about the plant transmitted from the analysis server Wherein the individual information on the plant includes at least one of genetic information of the plant, 2D or 3D image information of the plant, cultivation environment information of the plant, growth information of the plant, and phenotype information of the plant .

또한, 상기 태깅 어플리케이션은 상기 이미지획득부를 통해 획득한 식물의 이미지를 기계학습모델을 이용하여 분석하여 식물의 생육 특성 정보를 산출하는 생육정보산출부를 더 포함하고, 상기 정보저장부는 산출한 식물의 생육 특성 정보를 상기 식물의 이미지 정보에 포함시켜 저장할 수 있다. The tagging application may further include a growth information calculating unit for calculating a growth characteristic information of a plant by analyzing an image of the plant acquired through the image obtaining unit using a machine learning model, Characteristic information may be stored in the image information of the plant.

그리고, 상기 식물의 생육 특성 정보는 식물의 잎, 줄기, 가지 또는 과실의 크기, 면적, 색상 정보를 포함할 수 있다. The growth characteristics information of the plant may include leaf size, stem, branch or fruit size, area, and color information of the plant.

한편, 상기 목적은 식별정보인식수단을 이용하여 식물의 식별정보를 인식하고, 식물의 이미지를 획득하여 상기 식별정보와 함께 상기 식물의 이미지를 분석서버로 전송하는 휴대용 스마트 기기; 및 상기 휴대용 스마트 기기로부터 전송된 식물의 이미지를 기계학습을 통해 구축한 기계학습모델부를 이용하여 분석함으로써, 상기 식물의 생육 특성 정보를 산출하는 생육정보산출부를 포함하는 상기 분석서버를 포함하는 식물의 생육정보 분석시스템에 의해서도 달성될 수 있다. The above object is also achieved by a portable smart device for recognizing identification information of a plant using identification information recognition means, acquiring an image of the plant, and transmitting the image of the plant to the analysis server together with the identification information; And a growth information calculation unit for calculating a growth characteristic information of the plant by analyzing the image of the plant transmitted from the portable smart device using a machine learning model unit constructed through machine learning Can also be achieved by a growth information analysis system.

여기서, 상기 생육정보산출부는 기계학습을 통해 구축한 모델을 이용하여 식물의 이미지에서 잎, 줄기, 과실, 또는 가지의 영역을 추출하고, 기준이 되는 모델과 매칭을 수행하여 식물의 잎, 줄기, 가지 또는 과실의 크기, 면적, 색상 정보를 산출할 수 있다. Here, the growth information calculating unit extracts areas of leaves, stems, fruits, or branches from the images of the plants using the model constructed through machine learning, and performs matching with the reference model to determine the leaves, stems, The size, area, and color information of branches or fruits can be calculated.

한편, 상기 목적은 태깅 어플리케이션을 이용하여 식물 식별 정보를 태깅 및 분석하는 방법에 있어서, 상기 태깅 어플리케이션을 스마트 기기에서 실행시키는 단계; 식별정보인식수단을 이용하여 식물의 식별정보를 인식하는 단계; 상기 스마트 기기의 카메라를 이용하여 상기 식물의 이미지를 획득하는 단계; 상기 식물의 식별정보를 상기 식물의 이미지 정보에 태깅하는 단계; 및 상기 식물의 이미지를 기계학습모델을 통해 분석하여 식물의 생육 특성 정보를 산출하는 단계를 포함할 수 있다. According to another aspect of the present invention, there is provided a method for tagging and analyzing plant identification information using a tagging application, the method comprising: executing the tagging application in a smart device; Recognizing the identification information of the plant using the identification information recognition means; Obtaining an image of the plant using a camera of the smart device; Tagging the identification information of the plant to the image information of the plant; And analyzing the image of the plant through a machine learning model to calculate the growth characteristics information of the plant.

그리고, 상기 생육 특성 정보를 산출하는 단계는, 기계학습을 통해 구축한 모델을 이용하여 식물의 이미지에서 잎, 줄기, 과실, 또는 가지의 영역을 추출하는 단계; 및 기준이 되는 모델과 매칭을 수행하여 식물의 잎, 줄기, 가지 또는 과실의 크기, 면적, 색상 정보를 산출하는 단계를 포함할 수 있다. The step of calculating the growth characteristics information includes extracting leaf, stem, fruit, or branch regions from the image of the plant using a model constructed through machine learning; And a step of calculating size, area, and color information of leaves, stems, branches or fruits of plants by performing matching with the reference model.

또한, 상기 식물의 이미지를 획득하는 단계는, 상기 식물의 관심영역을 입력 또는 선택 받는 단계, 및 상기 식물의 이미지 획득 시 상기 식물의 관심영역에 관한 정보를 상기 식물의 이미지 정보에 포함시켜 저장하는 단계를 더 포함할 수 있다. In addition, the step of acquiring the image of the plant may include inputting or selecting a region of interest of the plant, and storing information about the region of interest of the plant in the image information of the plant when the image of the plant is acquired Step < / RTI >

아울러, 상기 식물의 식별정보를 상기 분석서버로 전송하여 상기 식물에 관한 개체정보를 요청하는 단계; 및 상기 분석서버로부터 전송된 상기 식물에 관한 개체정보를 항목별로 표시하는 단계를 더 포함하고; 상기 식물에 관한 개체정보는 식물의 유전자정보, 식물의 2D 또는 3D 영상정보, 상기 식물의 재배환경정보, 상기 식물의 생장정보, 및 상기 식물의 표현형정보 중 적어도 하나를 포함할 수 있다. Transmitting identification information of the plant to the analysis server to request individual information about the plant; And displaying entity information on the plant transmitted from the analysis server by item; The individual information on the plant may include at least one of genetic information of the plant, 2D or 3D image information of the plant, cultivation environment information of the plant, growth information of the plant, and phenotype information of the plant.

상기한 바와 같이, 본 발명에 의한 식물 식별 정보를 태깅하는 방법 및 이를 실행하는 휴대용 스마트 기기는 개별 식물의 부위별 특이사항 등을 이미지로 촬영하고 개별 식물의 식별정보를 함께 태깅하여 분석서버로 전송함으로써 간단히 식물의 생육데이터를 추가할 수 있다. As described above, the method for tagging the plant identification information according to the present invention and the portable smart device for executing the method according to the present invention take an image of the specific matters of each plant and tag the identification information of the individual plants together and transmit them to the analysis server The growth data of the plant can be simply added.

또한, 휴대용 스마트기기로 촬영한 식물 이미지를 기계학습모델에 기초하여 분석 및 처리하여 식물의 잎, 줄기, 과실, 가지 등의 크기, 면적, 색상 등의 생육정보를 산출함으로써, 촬영자나 촬영기기가 다르더라도 신뢰성있는 분석을 담보할 수 있다. In addition, by analyzing and processing plant images photographed by a portable smart device on the basis of a machine learning model, the information such as the size, area, and color of leaves, stems, fruits, Reliable analysis can be assured even if different.

더 나아가, 식물의 관심부분(ROI) 등을 설정할 수 있게 함으로써 추후 이미지 분석 시 식물의 특이사항 등을 간과하지 않고 명확하게 분석할 수 있도록 추가정보를 제공할 수 있다.Further, by setting the ROI of the plant, it is possible to provide additional information so that the analysis of the plant image can be clearly analyzed without overlooking the plant characteristics.

도 1은 본 발명의 일 실시예에 따른 태깅 어플리케이션을 이용하여 식물 식별 정보를 태깅하고 분석하는 식물 생육정보 분석 시스템의 개략도를 도시한 것이다.
도 2는 본 발명의 일 실시예에 따른 태깅 어플리케이션이 저장, 실행되는 휴대용 스마트 기기의 제어블록도이다.
도 3은 본 발명의 일 실시예에 따른 태깅 어플리케이션의 개략도이다.
도 4는 본 발명의 일 실시예에 따른 이미지획득부의 개략도이다.
도 5는 본 발명의 일 실시예에 따른 관심영역 설정 화면의 일 예이다.
도 6은 도 1의 식물 생육정보 분석 시스템에서 분석서버의 내부 구성의 개략도이다.
도 7은 본 발명의 일 실시예에 따른 식물정보확인 어플리케이션의 개략도이다.
도 8 내지 도 12는 식물정보확인 어플리케이션의 항목별 구현화면의 일 예를 도시한 것이다.
도 13은 본 발명의 일 실시예에 따른 태깅 어플리케이션을 이용한 식물 식별 정보를 태깅하는 방법의 흐름도이다.
도 14는 식물의 이미지를 분석하여 식물의 생육정보를 산출하는 프로세스를 설명하기 위한 흐름도이다.
1 is a schematic diagram of a plant growth information analysis system for tagging and analyzing plant identification information using a tagging application according to an embodiment of the present invention.
2 is a control block diagram of a portable smart device in which a tagging application according to an embodiment of the present invention is stored and executed.
3 is a schematic diagram of a tagging application in accordance with an embodiment of the present invention.
4 is a schematic diagram of an image acquisition unit according to an embodiment of the present invention.
5 is an example of a region-of-interest setting screen according to an embodiment of the present invention.
FIG. 6 is a schematic diagram of an internal configuration of an analysis server in the plant growth information analysis system of FIG. 1;
7 is a schematic diagram of a plant information verification application according to an embodiment of the present invention.
FIGS. 8 to 12 show an example of an item-specific implementation screen of the plant information confirmation application.
13 is a flowchart of a method of tagging plant identification information using a tagging application according to an embodiment of the present invention.
14 is a flowchart for explaining the process of calculating the growth information of a plant by analyzing the image of the plant.

이하, 도면을 참조하여 본 발명의 구체적인 실시예들에 대해 설명하기로 한다.Hereinafter, specific embodiments of the present invention will be described with reference to the drawings.

도 1은 본 발명의 일 실시예에 따른 태깅 어플리케이션(100)을 이용하여 식물 식별 정보를 태깅하는 시스템의 개략도를 도시한 것이다. 도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 태깅 어플리케이션(100)을 이용한 식물 개체 정보 태깅 시스템은 태깅 어플리케이션(100)을 휴대용 스마트 기기(1) 및 분석서버(2)를 포함한다.1 is a schematic diagram of a system for tagging plant identification information using a tagging application 100 according to an embodiment of the present invention. 1, a plant entity information tagging system using a tagging application 100 according to an embodiment of the present invention includes a portable smart device 1 and an analysis server 2 as a tagging application 100 .

휴대용 스마트 기기(1)는 카메라(10)가 설치되어 있는 휴대용 기기를 의미하는 것으로, 어플리케이션을 다운로드 설치하여 실행시킬 수 있는 모든 종류의 휴대용 스마트 기기(1), 예컨대 스마트폰, 테블릿 PC, 노트북 등을 포함하나, 이에 한정되지 않으며 통신기능 및 카메라(10) 기능을 구비한 휴대용 기기라면 다른 기기를 포함할 수 있다.The portable smart device 1 refers to a portable device in which the camera 10 is installed. The portable smart device 1 can be any type of portable smart device 1 that can download and execute applications, for example, a smart phone, a tablet PC, And the like. However, the present invention is not limited thereto and may include other devices as long as it is a portable device having a communication function and a camera 10 function.

휴대용 스마트 기기(1)에서 태깅 어플리케이션(100)을 실행시키면, 식물 또는 식물 주변에 부착된 식물의 식별정보 예컨대, RFID 태그, QR 코드, 바코드 방식의 식별정보에 대응하는 인식수단을 통해 개별 식물의 식별정보를 인식하고, 식물의 이미지를 획득한 후 식물의 식별정보를 식물의 이미지 정보에 태깅하여 분석서버(2)로 전송한다.When the tagging application 100 is executed in the portable smart device 1, identification information corresponding to the identification information of the plant or the plant attached to the periphery of the plant, for example, RFID tag, QR code, Identifies the identification information, obtains the image of the plant, tags the identification information of the plant in the image information of the plant, and transmits the tag information to the analysis server 2.

분석서버(2)는 식물 개체의 생육데이터에 관한 정보를 저장, 분석하기 위한 서버로서, 식물의 자동 이송에 의한 대량분석플랫폼시스템의 이미지 챔버를 통해 획득한 개별 식물의 생육데이터DB에 더하여 본 발명과 같이 태깅 어플리케이션(100)을 통해 전송되는 각 개별 식물의 이미지 데이터를 추가로 저장하여 표현형 분석에 사용한다.The analysis server 2 is a server for storing and analyzing information on the growth data of plant individuals. In addition to the individual plant growth data DB obtained through the image chamber of the mass analysis platform system by automatic transfer of plants, The image data of each individual plant transmitted through the tagging application 100 is further stored and used for the phenotype analysis.

전술한 바와 같이, 식물 이미징을 획득하는 이미지챔버는 식물 전체의 이미지를 획득하는데 비해, 본 발명에 따른 태깅 어플리케이션(100)은 전체 이미지뿐만 아니라 사용자나 연구자가 관심이 있는 식물의 줄기나 잎 등에 존재하는 특이부위를 별도로 이미지 획득할 수 있다는 점에서 기존의 대량분석플랫폼시스템의 단점을 보완할 수 있어 매우 유용하다.  As described above, while the image chamber acquiring the plant imaging obtains the image of the whole plant, the tagging application 100 according to the present invention can be used not only for the whole image but also for the user or the researcher, Which can be obtained by separately acquiring the specific region of the mass analysis platform system.

도 2는 본 발명의 일 실시예에 따른 태깅 어플리케이션(100)이 저장, 실행되는 휴대용 스마트 기기(1)의 제어블록도이다. 도 2를 참조하면, 본 발명의 일 실시예에 따른 휴대용 스마트 기기(1)는 카메라(10), 메모리부(20), 어플리케이션제어부(30), 디스플레이부(40), 및 통신부(50)를 포함한다.FIG. 2 is a control block diagram of a portable smart device 1 in which a tagging application 100 according to an embodiment of the present invention is stored and executed. 2, the portable smart device 1 according to an exemplary embodiment of the present invention includes a camera 10, a memory unit 20, an application control unit 30, a display unit 40, and a communication unit 50 .

카메라(10)는 식물의 이미지를 촬상하기 위한 것으로, 경우에 따라서는 식물의 식별정보 예컨대, 바코드 방식이나 QR 코드 등의 영상인식을 위한 촬상수단으로 활용될 수 있다.The camera 10 is for capturing an image of a plant, and in some cases, can be utilized as an image pickup means for image recognition such as identification information of a plant, for example, a bar code system or a QR code.

메모리부(20)는 식물 이미지에 식물 식별 정보를 태깅하기 위한 태깅 어플리케이션(100)을 저장하며, 휴대용 스마트 기기(1)의 운용 및 동작에 필요한 다양한 어플리케이션을 저장할 수 있다.The memory unit 20 stores a tagging application 100 for tagging plant identification information on a plant image and may store various applications necessary for operation and operation of the portable smart device 1. [

어플리케이션제어부(30)는 어플리케이션 관리 및 어플리케이션 실행과 관련된 동작을 제어하는 모듈로서, 일련의 실행코드 및 실행코드가 동작하는 마이크로프로세서, 마이크로컨트롤러, 마이크로칩 등으로 구현될 수 있다.The application control unit 30 is a module for controlling operations related to application management and application execution, and may be implemented by a microprocessor, a microcontroller, a microchip, or the like in which a series of execution codes and execution codes operate.

디스플레이부(40)는 태깅 어플리케이션(100)의 실행에 따른 사용자 인터페이스 화면(41)이 표시되는 모듈로서, LCD, LED, OLED, AMOLED, IPS 등 다양한 방식의 디스플레이 패널이 적용 가능하다. The display unit 40 is a module for displaying the user interface screen 41 according to the execution of the tagging application 100 and can be applied to various display panels such as LCD, LED, OLED, AMOLED, and IPS.

통신부(50)는 3G 통신, WIFI, 블루투스, NFC(Near Field Communication), RFID 등의 모듈을 이용하여 분석서버(2)와 통신 가능하며, 후술하는 식물의 식별수단으로서 NFC(RFID 태그)를 사용하는 경우 통신부(50)의 NFC(RFID 태그)가 식별수단으로 활용될 수 있다.The communication unit 50 is capable of communicating with the analysis server 2 using modules such as 3G communication, WIFI, Bluetooth, NFC (Near Field Communication) and RFID, and uses an NFC (RFID tag) The NFC (RFID tag) of the communication unit 50 can be utilized as an identification means.

도 3은 본 발명의 일 실시예에 따른 태깅 어플리케이션(100)의 개략도이다. 도 3을 참조하면, 본 발명의 일 실시예에 따른 태깅 어플리케이션(100)은 식별정보인식부(110), 이미지획득부(120), 태깅부(130), 및 전송부(140)를 포함한다. 태깅 어플리케이션(100)은 프로세서 등에서 동작하는 일련의 소프트웨어 프로그램코드를 포함한다.3 is a schematic diagram of a tagging application 100 in accordance with an embodiment of the present invention. 3, the tagging application 100 according to an exemplary embodiment of the present invention includes an identification information recognition unit 110, an image acquisition unit 120, a tagging unit 130, and a transmission unit 140 . The tagging application 100 includes a series of software program codes that operate on a processor or the like.

식별정보인식부(110)는 식물의 식별정보를 인식하기 위한 모듈로서, NFC, RFID, 바코드, QR 코드 등을 인식 및 판독하기 위한 모듈 중 적어도 하나 이상을 포함할 수 있다.The identification information recognizing unit 110 is a module for recognizing plant identification information and may include at least one or more modules for recognizing and reading NFC, RFID, bar code, QR code and the like.

이미지획득부(120)는 카메라(10)를 활성화시켜 원하는 식물의 이미지를 획득하기 위한 모듈로서, 이에 대해서는 도 4를 참조하며 후술하기로 한다.The image obtaining unit 120 is a module for activating the camera 10 to obtain an image of a desired plant, which will be described later with reference to FIG.

태깅부(130)는 식물의 식별정보를 식물의 이미지 정보에 태깅하기 위한 모듈로서, 식물의 이미지 정보에 식물의 식별정보가 포함됨으로써, 분석서버(2)에서 각각의 식물 이미지에 대한 식물의 식별정보를 기초로 표현형 분석 및 분석결과를 DB화 할 수 있다.The tagging unit 130 is a module for tagging the identification information of the plant to the image information of the plant. The identification information of the plant is included in the image information of the plant, so that in the analysis server 2, Based on the information, the phenotype analysis and analysis results can be DB.

전송부(140)는 식물의 식별정보가 태깅된 식물의 이미지 정보를 분석서버(2)로 전송하기 위한 것으로, 전송부(140)의 실행에 의해 통신부(50)를 통해 식물의 이미지 정보가 분석서버(2)로 전송된다.The transmitting unit 140 is for transmitting the image information of the plant tagged with the identification information of the plant to the analysis server 2. The transmitting unit 140 analyzes the image information of the plant through the communication unit 50 And transmitted to the server 2.

도 4는 본 발명의 일 실시예에 따른 이미지획득부(120)의 개략도이다. 도 4를 참조하면, 본 발명의 일 실시예에 따른 이미지획득부(120)는 스케일설정부(121), 스케일조정부(122), 정보저장부(123), 및 관심영역설정부(124)를 포함한다.4 is a schematic diagram of an image acquisition unit 120 according to an embodiment of the present invention. 4, an image obtaining unit 120 according to an exemplary embodiment of the present invention includes a scale setting unit 121, a scale adjusting unit 122, an information storing unit 123, and a region of interest setting unit 124 .

스케일설정부(121)은 식물의 크기에 관한 스케일을 선택 또는 조정할 수 있는 것으로, 화면의 축소, 확대 비율 등을 선택할 수 있는 메뉴를 의미한다.The scale setting unit 121 is capable of selecting or adjusting a scale relating to the size of a plant, and means a menu that allows selection of a reduction or enlargement ratio of a screen.

스케일조정부(122)는 사용자의 입력 또는 선택에 대응하는 스케일로 카메라(10)의 초점거리를 조정하여 식물의 화면을 확대 또는 축소한다.The scale adjusting unit 122 enlarges or reduces the screen of the plant by adjusting the focal distance of the camera 10 at a scale corresponding to a user's input or selection.

정보저장부(123)는 식물과 화면의 스케일 정보를 식물의 이미지 정보에 포함시켜 저장하는 것으로, 이미지 획득 시 스케일 화면을 함께 포함시킬 수도 있고, 별도의 데이터로 이미지에 첨부할 수도 있다.The information storage unit 123 stores the scale information of the plant and the screen in the image information of the plant. The information storage unit 123 may include a scale screen when the image is acquired, or may be attached to the image as separate data.

관심영역설정부(124)는 식물의 줄기, 잎 등의 일부 부위를 관심영역으로 입력 또는 선택할 수 있는 것으로, 사용자의 화면 클릭이나 영역 그리기 등에 의해 설정 가능하다.The region-of-interest setting unit 124 can input or select a part of a stem, a leaf, or the like of a plant as a region of interest, and can be set by clicking on a screen or drawing an area of the user.

또한, 관심영역설정시 정보저장부(123)는 식물의 이미지 획득 시 식물의 관심영역에 관한 정보를 식물의 이미지 정보에 포함시켜 저장함으로써, 추후 분석서버(2)에서 분석 시 해당 관심영역을 쉽게 찾을 수 있도록 한다. 이때, 관심영역에 관한 정보는 이미지에 직접 영역이 표시된 화면의 형태로 추가되거나 별도의 관심영역에 관한 좌표정보로 부가될 수 있다. In addition, the information storage unit 123 stores the information about the interest area of the plant in the image information of the plant when the image of the plant is acquired, and stores the information of interest in the analysis server 2 in the analysis server 2 So that you can find it. At this time, the information about the ROI may be added in the form of a screen in which the ROI is displayed directly on the image, or may be added to the ROI regarding the ROI.

도 5는 본 발명의 일 실시예에 따른 관심영역 설정 화면의 일 예이다. 도 5를 참조하면, 잎 부위의 특이소견이 보이는 부위를 사용자가 디스플레이 화면에서 해당 영역을 원형으로 그리는 동작 등으로 설정할 수 있으며, 관심영역에 관한 정보가 이미지 정보에 포함되어 분석서버(2)로 전송된다.5 is an example of a region-of-interest setting screen according to an embodiment of the present invention. Referring to FIG. 5, a user can set a region in which a specific feature of a leaf part can be seen, such as an operation in which a user draws a circle in a corresponding area on a display screen. Information about an area of interest is included in image information, .

한편, 도 3을 다시 참조하면 본 발명의 일 실시예에 따른 태깅 어플리케이션(100)은 사용자입력부(150)를 더 포함할 수 있다.Referring again to FIG. 3, the tagging application 100 according to an exemplary embodiment of the present invention may further include a user input unit 150.

사용자입력부(150)는 사용자가 이미지를 획득한 식물에 관한 특이사항 등을 텍스트 등으로 입력할 수 있도록 한 것으로, 이미지 획득 시 텍스트 입력창을 별도로 마련하거나 식물의 이미지에 직접 터치펜 등으로 입력하도록 할 수도 있다. The user input unit 150 allows the user to input specific information related to the plant in which the image is acquired by text or the like. A text input window may be separately provided at the time of image acquisition, or may be input directly to the image of the plant using a touch pen You may.

예컨대, 이미지상으로는 알 수 없는 식물의 상태 등을 추가로 코멘트하고 싶을 경우, 해당 입력창이나 이미지에 사용자가 코멘트를 입력하고 이를 이미지 정보에 포함시킴으로써 추후 분석서버(2)에서 분석 시 데이터로 활용될 수 있다.For example, if the user wants to further comment on the state of the unknown plant on the image, the user inputs the comment in the input window or the image and includes it in the image information, .

도 6은 도 1의 식물 생육정보 시스템에서 분석서버(2)의 내부 구성을 개략적으로 나타낸 개략도이다. 도 6을 참조하면, 분석서버(2)는 식물데이터베이스부(210) 및 생육정보산출부(220)를 포함한다.FIG. 6 is a schematic view schematically showing the internal configuration of the analysis server 2 in the plant growth information system of FIG. 1; Referring to FIG. 6, the analysis server 2 includes a plant database 210 and a growth information calculation unit 220.

식물데이터베이스부(210)는 식물의 생육정보가 DB로 구축된 것으로, 식물의 종류에 따른 생육정보로서, 잎, 가지, 줄기, 및 과실 등 식물의 각 영역에 관한 형태(morphology), 색상(전경/배경), 기하학(geometry), 질감(texture) 등의 정보가 데이터베이스화되어 저장된다. 식물데이터베이스는 식물의 종류별, 생육시기별로 다양하게 구축되며, 식물의 식별정보 별로도 구축될 수 있다. The plant database part 210 is constructed of a database of the growth information of the plant. The plant database part 210 is information on the growth depending on the type of plant, and includes morphology, color (foreground / Background), geometry, texture, and the like are stored in a database. The plant database is structured in various ways according to the types of plants and the growth periods, and can also be constructed by identification information of plants.

생육정보산출부(220)는 식물의 이미지를 분석하여 식물의 생육 특성 정보를 산출하기 위한 것으로, 기계학습을 통해 구축한 기계학습모델부(221)를 포함한다.The growth information calculating unit 220 includes a machine learning model unit 221 constructed by analyzing a plant image to calculate growth characteristics information of the plant and constructed by machine learning.

기계학습모델부(221)는 식물의 생육정보 DB를 기계학습을 통해 구축된 이미지 분석 알고리즘으로서, 식물의 생육시기별 잎, 가지, 줄기, 및 과실의 크기, 색상, 면적 등에 관한 정보를 기계학습하여 구축된다.The machine learning model unit 221 is an image analysis algorithm constructed through machine learning of a plant growth information DB. The machine learning model unit 221 stores information on the size, color, and area of leaves, branches, stems, .

기계학습모델부(221)는 휴대용 스마트기기로부터 전송된 식물의 이미지를 분석하여 전경과 배경 영역을 분리하여 식물영역을 추출한다. 그리고, 식물영역에서 식물의 잎, 가지, 줄기, 및 과실 영역 등을 추출한다. The machine learning model unit 221 analyzes the image of the plant transmitted from the portable smart device and extracts the plant area by separating the foreground and the background area. Then, leaves, branches, stems, and fruit regions of plants are extracted from the plant area.

그리고, 추출한 식물의 잎, 가지, 줄기, 및 과실 영역을 기하학적 변환을 통해 기계학습을 통해 산출된 기준이 되는 모델과 매칭을 수행하여 크기, 면적, 및 색상 정보를 추출한다.Then, size, area, and color information are extracted by matching the leaf, branch, stem, and fruit area of the extracted plant with the reference model calculated through machine learning through geometric transformation.

예컨대, 식물영역에서 추출한 잎의 형태, 모양, 색상, 및 질감 등을 분석하여 가장 유사한 형태를 갖는 모델을 찾아서 그 크기 및 색상을 산출할 수 있다.For example, by analyzing the shape, shape, color, and texture of the leaves extracted from the plant area, it is possible to find a model having the most similar shape and to calculate the size and color thereof.

또한, 식물 이미지 정보에 잎의 화방정보가 포함되거나 식물 이미지로부터 화방정보를 분석할 수 있는 경우라면, 화방정보에 따라 매칭 범위를 축소할 수 있을 것이다.In addition, if the plant image information includes the leaf information of the leaf or the leaf information can be analyzed from the plant image, the matching range may be reduced according to the leaf information.

더 나아가, 본 발명에서는 식물 이미지 정보에 식물 식별정보가 태깅되어 있으므로, 식별정보에 대응하는 식물의 생육정보나 식물의 특성 정보를 식물데이터베이스부(210)로부터 추출하여 이를 기준으로 휴대용 스마트 기기로 촬영한 잎, 줄기, 가지 또는 과실의 크기나 면적, 색상 등의 정보를 산출해 낼 수 있다.Further, in the present invention, since the plant identification information is tagged in the plant image information, the plant growth information and the plant characteristic information corresponding to the identification information are extracted from the plant database unit 210 and photographed by the portable smart device The information such as the size, area, and color of a leaf, stem, branch, or fruit can be calculated.

예컨대, 본 발명의 식물데이터베이스부(210)에는 각 식물의 식별정보별로 생육시기별 정확한 식물의 생육 특성 정보(잎, 줄기, 가지, 또는 과실의 크기, 각도, 색상, 질감 등의 정보)가 저장되어 있으므로, 가장 최근에 분석된 해당 식물의 생육특성 정보와 비교를 수행하는 것으로 휴대용 스마트 기기로 촬영한 식물의 각 구성의 크기나 색상, 면적 등을 정확하게 분석해 낼 수 있다.For example, in the plant database part 210 of the present invention, information on the growth characteristics (leaf, stem, branch, or fruit size, angle, color, texture, etc.) of each plant is stored Therefore, it is possible to accurately analyze the size, color, and area of each composition of a plant photographed with a portable smart device by performing comparison with the most recently analyzed information on the growth characteristics of the corresponding plant.

본 발명에 적용되는 기계학습모델은 서포트 벡터 머신(Support Vector Machine; SVM) 또는 최소 자승 서포트 벡터 머신(Least Squares Support Vector Machines; LS-SVM) 등이 적용될 수 있다. A support vector machine (SVM) or a least squares support vector machine (LS-SVM) may be applied to the machine learning model applied to the present invention.

도 7은 본 발명의 일 실시예에 따른 식물정보확인 어플리케이션(100')의 개략도이다. 식물정보확인 어플리케이션(100')은 휴대용 스마트 기기(1)에 설치되어 동작하는 것으로, 분석서버(2)에 식물 개체정보를 요청하여 원격에서 휴대용 스마트 기기(1)를 통해 확인할 수 있는 어플리케이션이다.FIG. 7 is a schematic diagram of a plant information confirmation application 100 'according to an embodiment of the present invention. The plant information confirmation application 100 'is installed in the portable smart device 1 and is operated by requesting the plant entity information from the analysis server 2 and remotely verifying the plant information through the portable smart device 1.

종래에는 연구자가 재배 중인 식물 중에서 특정 식물의 개체정보나 표현형 분석 정보가 궁금하면 해당 식별정보를 기록해 두었다가 분석서버(2)로 가서 일일이 해당 식물의 식별정보를 입력하여 해당 식물의 개체정보를 확인해야 하는데, 본 발명에 따르면 식물을 관찰하면서 해당 식물이 궁금하면 휴대용 스마트 기기(1)를 사용하여 식물의 식별정보만 태깅해서 전송하면 바로 그 자리에서 해당 식물의 개체정보를 확인할 수 있어 매우 편리하다.Conventionally, if a researcher wonders about object information or phenotypic analysis information of a particular plant among the plants cultivated by the researcher, the identification information is recorded, and then, the analysis server 2 goes to the analysis server 2 and inputs individual identification information of the plant, However, according to the present invention, when the plant is wondering while observing the plant, only the identification information of the plant is tagged and transmitted using the portable smart device 1, so that it is very convenient to confirm the individual information of the plant on the spot.

도 7을 참조하면, 본 발명의 일 실시예에 따른 식물정보확인 어플리케이션(100')은 식별정보인식부(110), 정보요청부(170), 및 정보표시부(180)를 포함한다.Referring to FIG. 7, the plant information confirmation application 100 'according to an embodiment of the present invention includes an identification information recognition unit 110, an information request unit 170, and an information display unit 180.

식별정보인식부(160)는 전술한 태깅 어플리케이션(100)의 식별정보인식부(110)와 동일한 구성이므로 이에 관한 설명은 생략한다.The identification information recognizing unit 160 has the same configuration as the identification information recognizing unit 110 of the above-described tagging application 100, and a description thereof will be omitted.

정보요청부(170)는 식별정보인식부(160)에서 인식한 식물의 식별정보를 분석서버(2)로 전송하여 해당 식물의 개체정보를 요청하고, 정보표시부(180)는 분석서버(2)로부터 전송된 식물의 개체정보를 항목별로 화면에 표시한다.The information requesting unit 170 sends identification information of the plant recognized by the identification information recognizing unit 160 to the analysis server 2 to request individual information of the plant, And displays plant information of the plant transferred from the plant on a screen by item.

여기서, 정보표시부(180)에서 표시하는 식물의 개체정보는 식물의 유전자정보, 식물의 2D 또는 3D 영상정보, 식물의 재배환경정보, 식물의 생장정보, 및/또는 식물의 표현형정보를 포함할 수 있다. Here, the individual information of the plant displayed by the information display unit 180 may include genetic information of the plant, 2D or 3D image information of the plant, information on the cultivation environment of the plant, information on the growth of the plant, and / have.

도 8 내지 도 12는 식물정보확인 어플리케이션(100')의 항목별 구현화면의 일 예를 도시한 것이다. 도 8의 맨 아래 아이콘을 보면 홈 화면, OI, IMG, GC, EI 항목의 아이콘이 있다. 8 to 12 show an example of an itemized screen for each item of the plant information confirmation application 100 '. 8, there are icons of home screen, OI, IMG, GC, EI items.

홈 화면은 식물정보식별에 관한 화면이고, OI는 식물의 개체정보, IMG는 식물의 이미지정보, GC는 식물의 생육환경정보, EI는 식물의 표현형정보를 의미한다.The home screen is a screen for identifying plant information, OI is individual information of the plant, IMG is the image information of the plant, GC is the growth environment information of the plant, and EI is the phenotype information of the plant.

도 8의 홈 화면은 식물의 RFID 태그, QR코드, 바코드 등을 통신모듈이나 카메라(10)를 통해 인식한 후 표시되는 화면이다. 도 8에서 'Tag Reading' 버튼을 클릭하면 해당 식물의 식별정보가 분석서버(2)로 전송되어 해당 식물의 개체정보를 요청하게 된다.The home screen of FIG. 8 is a screen displayed after recognizing the RFID tag, QR code, bar code, etc. of the plant through the communication module or the camera 10. When the 'Tag Reading' button is clicked in FIG. 8, the identification information of the corresponding plant is transmitted to the analysis server 2 to request individual information of the corresponding plant.

도 9는 OI 아이콘, 즉 식물의 개체정보에 관한 화면으로 분석서버(2)로부터 전송된 식물의 개체정보가 표시되는 화면이다. 사용자가 OI를 클릭하면 해당 식물의 개체정보가 화면에 표시된다. FIG. 9 is a screen for displaying the OI icon, that is, the plant information of the plant, transmitted from the analysis server 2. When the user clicks on the OI, the plant information of the plant is displayed on the screen.

도 10은 IMG 아이콘, 즉 식물의 이미지 정보가 표시되는 화면으로 식물의 2D 이미지나 3D 이미지가 화면에 표시된다.FIG. 10 is a screen on which an IMG icon, that is, image information of a plant, is displayed. A 2D image or a 3D image of a plant is displayed on the screen.

도 11은 GC 아이콘, 즉 식물의 생육환경정보가 표시되는 화면으로 현재 식물의 생육환경에 관한 정보가 표시되어, 연구자가 온도나 습도 등이 적절한지 여부를 바로 확인할 수 있다.FIG. 11 is a screen for displaying the GC icon, that is, information on the growth environment of the plant. Information about the current growth environment of the plant is displayed, and the researcher can immediately check whether the temperature or humidity is appropriate.

도 12는 EI 아이콘 즉, 식물의 표현형 정보가 표시되는 화면으로 식물의 잎 수, 가지분화, 과실수, 특이사항 등을 확인할 수 있으며, 경우에 따라서는 입력되지 않은 표현형 정보나 잘못 입력되거나 재배과정에서 표현형 정보를 업데이트할 필요가 있는 경우 사용자가 직접 식물을 보면서 표현형 정보를 입력할 수도 있다. 이렇게 입력된 정보는 식물 식별정보, 입력시간 등과 함께 저장되어 분석서버(2)로 전송되어 DB에 저장될 수 있다. FIG. 12 is a screen displaying the EI icon, that is, the phenotype information of the plant. The number of the leaves, the number of differentiations, the number of fruits, the specificity, etc. of the plant can be confirmed. In some cases, The user may directly enter the phenotype information while watching the plant. The input information may be stored together with the plant identification information, the input time, and the like, transmitted to the analysis server 2, and stored in the DB.

전술한 실시예에서는 식물정보확인 어플리케이션(100')이 태깅 어플리케이션(100)과는 별도의 어플리케이션으로 구현되는 것으로 설명하였지만, 그 기능이 태깅 어플리케이션(100)과 통합되어 구현될 수도 있다.In the above-described embodiment, the plant information confirmation application 100 'is implemented as an application separate from the tagging application 100, but the function may be integrated with the tagging application 100.

태깅 어플리케이션(100)과 식물정보확인 어플리케이션(100')은 처음 동작 시 식물의 식별정보를 확인하는 점에서 동일하고, 두 어플리케이션 모두 분석서버(2)와 연동한다는 점에서 통합하여 구현한다면 사용자의 편의성을 증가시킬 수 있을 것이다.The tagging application 100 and the plant information confirmation application 100 'are the same in that they identify the plant identification information at the time of initial operation. If the two applications are integrated with the analysis server 2, . ≪ / RTI >

도 13은 본 발명의 일 실시예에 따른 태깅 어플리케이션(100)을 이용한 식물 식별 정보를 태깅하는 방법의 흐름도이다. 13 is a flowchart of a method of tagging plant identification information using the tagging application 100 according to an embodiment of the present invention.

도 13을 참조하면, 본 발명의 일 실시예에 따른 식물 개체 정보의 태깅 방법은 태깅 어플리케이션(100)을 휴대용 스마트 기기(1)에 다운로드 설치한다(S10). 태깅 어플리케이션(100)을 실행시키면(S11) 식물의 식별정보를 인식하기 위한 모듈이 활성화된다. 예컨대, 식물의 식별정보가 RFID 태그라면 RFID 판독모듈을 통해 식물의 식별정보를 확인하고 NFC 모듈이라면 NFC 통신을 통해 식물의 식별정보를 인식한다(S12). 다른 예로, 식물의 식별정보가 화분 등이 QR 코드나 바코드 형식으로 기재되어 있다면 카메라(10)를 활성화시켜 QR 코드나 바코드를 획득한 후 이를 읽어들여 식물의 식별정보를 확인한다(S12).Referring to FIG. 13, a method for tagging plant entity information according to an embodiment of the present invention downloads tagging application 100 to portable smart device 1 (S10). When the tagging application 100 is executed (S11), a module for recognizing plant identification information is activated. For example, if the identification information of the plant is the RFID tag, the identification information of the plant is confirmed through the RFID reading module. If the identification information of the plant is the NFC module, the identification information of the plant is recognized through the NFC communication (S12). As another example, if the plant identification information is written in the QR code or the barcode format, the camera 10 is activated to acquire the QR code or the bar code, and then the identification information of the plant is confirmed (S12).

식물의 식별정보 확인 후 식물 이미지를 획득한다(S13). 식물의 이미지를 획득 한 후 식물의 식별정보를 식물의 이미지 정보에 태깅하고(S14), 식별정보가 태깅된 이미지 정보를 분석서버(2)로 전송한다(S15).After confirming the identification information of the plant, a plant image is obtained (S13). After obtaining the image of the plant, the identification information of the plant is tagged to the image information of the plant (S14), and the tagged image information is transmitted to the analysis server 2 (S15).

여기서, 식물의 이미지는 1회 획득할 수도 있고 다 수회 획득할 수도 있다. 이는 사용자의 필요에 따라서 달라지는데, 프로세스상 식물 이미지 획득이 완료되었는지 여부를 확인할 수 있는 절차가 필요할 수 있다.Here, the image of the plant may be obtained once or several times. This may vary depending on the needs of the user, but a procedure may be required to confirm whether the plant image acquisition has been completed in the process.

이미지 획득 완료 여부를 클릭할 수 있는 아이콘을 표시하여 이를 사용자가 클릭하면 식물 식별정보 인식 후 획득한 이미지들에 해당 식물 식별정보를 태깅하여 전송하도록 할 수 있다. 다른 예로는 사용자가 원하는 식물의 이미지를 모두 획득한 후 식물의 식별정보는 다시 한번 인식함으로써 해당 식물의 이미지 획득 프로세스가 종료되었음을 확인시켜줄 수 있다. 이 경우, 태깅 어플리케이션(100)은 식물 식별정보 인식, 이미지 획득, 식물 식별정보 재인식의 절차가 진행되면 해당 식물의 이미지 획득이 완료되었음을 인식하고 해당 이미지들에 식물 식별정보를 태깅하여 전송한다. If the user clicks on the icon indicating that the image acquisition is complete, the user can click on the icon to tag the plant identification information to the acquired images after the recognition of the plant identification information. Another example is that once the user acquires all the images of the desired plant, the identification information of the plant is recognized once again to confirm that the image acquisition process of the plant has been completed. In this case, the tagging application 100 recognizes that the image acquisition of the corresponding plant is completed, and tags and transmits the plant identification information to the images when the procedure of recognizing plant identification information, image acquisition, and plant identification information is performed.

한편, 식물의 이미지를 획득하는 프로세스는 아래와 같다. 식물의 식별정보 획득 후 식물의 이미지를 획득하기 위해 카메라(10)가 활성화된다. 만약, 사용자가 화면에 표시된 식물의 크기나 화면 스케일을 조정하면, 조정된 스케일로 카메라(10) 초점을 조절하여 화면을 확대 또는 축소한다. 만약, 사용자가 화면의 일부 영역을 관심영역으로 설정하면, 관심영역정보를 저장한다. 이렇게 저장된 관심영역정보는 이미지 정보에 포함되어 분석서버(2)로 전송된다.On the other hand, the process of acquiring an image of a plant is as follows. After acquiring the identification information of the plant, the camera 10 is activated to acquire an image of the plant. If the user adjusts the size of the plant or the screen scale displayed on the screen, the camera 10 focuses on the adjusted scale to enlarge or reduce the screen. If the user sets a certain area of the screen as a region of interest, the region of interest information is stored. The stored ROI information is included in the image information and transmitted to the analysis server 2.

도 15는 분석서버(2)에서 식물의 이미지를 분석하는 프로세스를 설명하기 위한 흐름도이다. 분석서버(2)는 휴대용 스마트기기로부터 식물 이미지 전보를 수신한다(S20). 수신한 정보에서 식별정보를 이용하여 해당 식물을 식별한다(S21).FIG. 15 is a flowchart for explaining a process of analyzing a plant image in the analysis server 2. The analysis server 2 receives the plant image telegram from the portable smart device (S20). Identify the plant using the identification information in the received information (S21).

그리고, 기계학습을 통해 구축한 모델을 이용하여 식물의 이미지를 분석하는데, 식물의 이미지에서 전경과 배경을 분리하고, 전경에서 식물영역 즉, 잎, 줄기, 과실, 가지 등의 영역을 추출한다(S23). Then, the image of the plant is analyzed using the model constructed through the machine learning. The foreground and the background are separated from the image of the plant, and the plant areas such as leaf, stem, fruit, and branch are extracted from the foreground S23).

그리고, 추출한 식물영역인 잎, 줄기, 과실, 가지 등의 영역을 기하학적 변환하고, 기계학습모델을 통해 구축한 모델과 매칭을 수행하여 크기, 면적 및 색상정보를 산출해 낸다(S25).The size, area, and color information are calculated by geometric transformation of the extracted plant areas such as leaf, stem, fruit, and branches, and matching with the model constructed through the machine learning model (S25).

이때, 전술한 바와 같이, 전체 데이터에서 매칭을 수행하지 않고, 식물 이미지에 포함된 정보를 이용하여 매칭 범위를 좁히거나, 식물 식별정보를 통해 알 수 있는 기 저장된 해당 식물의 생육 정보나 식물 분석 정보를 기준으로 이미지를 분석할 수도 있다.At this time, as described above, the matching range may be narrowed by using the information included in the plant image without performing matching in the entire data, or the growing information of the plant or the plant analysis information May be used to analyze the image.

이와 같이, 본 발명에 따르면 태깅 어플리케이션(100)을 휴대용 스마트 기기(1)에 설치하여 식물의 특이사항 등에 관한 이미지를 식별정보를 태깅하여 분석서버(2)로 전송하여 식물의 정확한 표현형정보를 획득할 수 있는 장점이 있다. 또한, 분석서버(2)에서 기계학습을 통해 구축한 모델을 기초로 이미지를 분석함으로써, 식물의 잎, 줄기, 가지 및 과실의 크기나 색상 면적 등을 정확히 분석해 낼 수 있다. As described above, according to the present invention, the tagging application 100 is installed in the portable smart device 1, the identification information is tagged and transmitted to the analysis server 2 to acquire the accurate phenotype information of the plant There is an advantage to be able to do. Also, by analyzing the image based on the model constructed through the machine learning in the analysis server 2, it is possible to accurately analyze the size, color area and the like of the leaves, stems, branches and fruits of the plants.

전술한 실시예에서는 생육정보산출부(220)가 분석서버(2)에 마련된 것으로 설명하였으나, 본 발명의 다른 실시예에 따르면 생육정보산출부(220)가 태깅 어플리케이션(100)에 포함되어 구성될 수 있다. 태깅 어플리케이션은 분석서버(2)와 연동하여 식물의 생육정보를 산출하는 기계학습모델부(221)를 계속하여 업데이트 받을 수 있으며, 이미지 획득과 분석을 모두 태깅 어플리케이션에서 수행할 수 있다. Although the growth information calculating unit 220 is described in the above embodiment as being provided in the analysis server 2, according to another embodiment of the present invention, the growth information calculating unit 220 may be included in the tagging application 100 . The tagging application can be continuously updated with the machine learning model unit 221 that calculates the growth information of the plant in conjunction with the analysis server 2, and both image acquisition and analysis can be performed in the tagging application.

여기서, 기계학습모델은 식물의 종류에 따라 DB로 구축된 해당 식물들의 생육데이터를 기계학습한 모델을 적용할 수도 있지만, 본 발명의 분석서버(2)에는 식물의 식별정보별로 식물의 생육시기에 따른 생육정보, 즉, 잎, 줄기, 과실, 가지 등의 크기나 색상정보가 이미 구축되어 있으므로, 해당 식별정보에 대응하는 식물에만 적응된 기계학습모델을 적용할 수도 있다. Here, the machine learning model may be a model in which the growth data of the plants constructed by DB are machine-learned, depending on the kinds of plants. However, in the analysis server 2 of the present invention, The size and color information of leaves, stems, fruits, branches, and the like are already established, so that a machine learning model adapted only to plants corresponding to the identification information can be applied.

이상에서, 본 발명의 실시예를 구성하는 모든 구성 요소들이 하나로 결합하거나 결합하여 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성 요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 그 컴퓨터 프로그램을 구성하는 코드들 및 코드 세그먼트들은 본 발명의 기술 분야의 당업자에 의해 용이하게 추론될 수 있을 것이다. 이러한 컴퓨터 프로그램은 컴퓨터가 읽을 수 있는 저장매체(Computer Readable Media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시예를 구현할 수 있다. 컴퓨터 프로그램의 저장매체로서는 자기 기록매체, 광 기록매체, 캐리어 웨이브 매체 등이 포함될 수 있다.While the present invention has been described in connection with what is presently considered to be the most practical and preferred embodiment, it is to be understood that the invention is not limited to the disclosed embodiments. That is, within the scope of the present invention, all of the components may be selectively coupled to one or more of them. In addition, although all of the components may be implemented as one independent hardware, some or all of the components may be selectively combined to perform a part or all of the functions in one or a plurality of hardware. As shown in FIG. The codes and code segments constituting the computer program may be easily deduced by those skilled in the art. Such a computer program can be stored in a computer-readable storage medium, readable and executed by a computer, thereby realizing an embodiment of the present invention. As the storage medium of the computer program, a magnetic recording medium, an optical recording medium, a carrier wave medium, or the like may be included.

또한, 이상에서 기재된 "포함하다", "구성하다" 또는 "가지다" 등의 용어는, 특별히 반대되는 기재가 없는 한, 해당 구성 요소가 내재할 수 있음을 의미하는 것이므로, 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것으로 해석되어야 한다. 기술적이거나 과학적인 용어를 포함한 모든 용어들은, 다르게 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미가 있다. 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥상의 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Furthermore, the terms "comprises", "comprising", or "having" described above mean that a component can be implanted unless otherwise specifically stated, But should be construed as including other elements. All terms, including technical and scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs, unless otherwise defined. Commonly used terms, such as predefined terms, should be interpreted to be consistent with the contextual meanings of the related art, and are not to be construed as ideal or overly formal, unless expressly defined to the contrary.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The foregoing description is merely illustrative of the technical idea of the present invention, and various changes and modifications may be made by those skilled in the art without departing from the essential characteristics of the present invention. Therefore, the embodiments disclosed in the present invention are intended to illustrate rather than limit the scope of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents should be construed as falling within the scope of the present invention.

1: 휴대용 스마트 기기 2: 분석서버
10: 카메라 20: 메모리부
30: 어플리케이션제어부 40: 디스플레이부
41: 사용자 인터페이스 화면 50: 통신부
100: 태깅 어플리케이션 110: 식별정보인식부
120: 이미지획득부 121: 스케일설정부
122: 스케일조정부 123: 정보저장부
124: 관심영역설정부 125: 태깅부
140: 전송부 150: 사용자입력부
210: 식물데이터베이스부 211: 잎DB
213: 가지DB 215: 줄기DB
217: 과실DB 220: 생육정보산출부
221: 기계학습모델부
1: Portable Smart Device 2: Analysis Server
10: camera 20: memory unit
30: Application control section 40:
41: user interface screen 50:
100: tagging application 110: identification information recognition unit
120: Image acquiring unit 121: Scale setting unit
122: scale adjustment unit 123: information storage unit
124: ROI setting unit 125:
140: Transmission unit 150: User input unit
210: Plant Database Division 211: Leaf DB
213: Branch DB 215: Stem DB
217: Fruit DB 220: Growth information calculating section
221: Machine learning model part

Claims (13)

이미지를 획득하기 위한 카메라;
식물 이미지에 식물 식별 정보를 태깅하기 위한 태깅 어플리케이션이 저장된 메모리부;
상기 태깅 어플리케이션을 실행시키는 어플리케이션제어부;
상기 태깅 어플리케이션의 실행에 따른 사용자 인터페이스 화면을 디스플레이하는 디스플레이부; 및
외부와의 통신을 위한 통신부를 포함하며;
상기 태깅 어플리케이션은 상기 식물의 식별정보를 인식하는 식별정보인식부, 상기 카메라를 활성화시켜 식물의 이미지를 획득하는 이미지획득부, 상기 식물의 식별정보를 상기 식물의 이미지 정보에 태깅하는 태깅부, 및 상기 식별정보가 태깅된 상기 식물의 이미지 정보를 분석서버로 전송하는 전송부를 포함하는, 휴대용 스마트 기기.
A camera for acquiring an image;
A memory unit storing a tagging application for tagging plant identification information on a plant image;
An application control unit for executing the tagging application;
A display unit for displaying a user interface screen according to execution of the tagging application; And
And a communication unit for communication with the outside;
The tagging application includes an identification information recognizing unit for recognizing the identification information of the plant, an image acquiring unit for acquiring an image of the plant by activating the camera, a tagging unit for tagging the identification information of the plant to image information of the plant, And a transmitting unit for transmitting image information of the plant tagged with the identification information to an analysis server.
제1항에 있어서,
상기 이미지획득부는 상기 식물의 관심영역을 입력 또는 선택할 수 있는 관심영역설정부; 및
상기 식물의 이미지 획득 시 상기 식물의 관심영역에 관한 정보를 상기 식물의 이미지 정보에 포함시켜 저장하는 정보저장부를 더 포함하는 것을 특징으로 하는 휴대용 스마트 기기.
The method according to claim 1,
Wherein the image obtaining unit comprises: a region of interest setting unit that can input or select a region of interest of the plant; And
Further comprising an information storage unit for storing information about a region of interest of the plant in the image information of the plant upon image acquisition of the plant.
제1항에 있어서,
식별정보인식부는 RFID, QR코드, 및 바코드 방식 중 적어도 어느 하나의 인식수단을 포함하는 것을 특징으로 하는 휴대용 스마트 기기.
The method according to claim 1,
Wherein the identification information recognizing unit includes at least one of RFID, QR code, and bar code recognition unit.
제1항에 있어서,
상기 태깅 어플리케이션은 상기 식물의 특이사항을 사용자로부터 입력받기 위한 사용자입력부를 더 포함하는 것을 특징으로 하는 휴대용 스마트 기기.
The method according to claim 1,
Wherein the tagging application further comprises a user input unit for receiving a specific item of the plant from the user.
제1항 내지 제4항 중 어느 하나의 항에 있어서,
상기 태깅 어플리케이션은 상기 식물의 식별정보를 상기 분석서버로 전송하여 상기 식물에 관한 개체정보를 요청하는 정보요청부, 및 상기 분석서버로부터 전송된 상기 식물에 관한 개체정보를 항목별로 표시하는 정보표시부를 더 포함하고,
상기 식물에 관한 개체정보는 식물의 유전자정보, 식물의 2D 또는 3D 영상정보, 상기 식물의 재배환경정보, 상기 식물의 생장정보, 및 상기 식물의 표현형정보 중 적어도 하나를 포함하는 것을 특징으로 하는 휴대용 스마트 기기.
5. The method according to any one of claims 1 to 4,
The tagging application includes an information requesting unit for transmitting identification information of the plant to the analysis server and requesting individual information about the plant, and an information display unit for displaying item information on the plant sent from the analysis server Further included,
Wherein the individual information on the plant includes at least one of genetic information of the plant, 2D or 3D image information of the plant, cultivation environment information of the plant, growth information of the plant, and phenotype information of the plant. Smart devices.
제1항 내지 제4항 중 어느 하나의 항에 있어서,
상기 태깅 어플리케이션은 상기 이미지획득부를 통해 획득한 식물의 이미지를 기계학습모델을 이용하여 분석하여 식물의 생육 특성 정보를 산출하는 생육정보산출부를 더 포함하고,
상기 정보저장부는 산출한 식물의 생육 특성 정보를 상기 식물의 이미지 정보에 포함시켜 저장하는 것을 특징으로 하는 휴대용 스마트 기기.
5. The method according to any one of claims 1 to 4,
The tagging application further includes a growth information calculation unit for calculating a growth characteristic information of the plant by analyzing the image of the plant acquired through the image acquisition unit using a machine learning model,
Wherein the information storage unit stores the calculated growth characteristics information of the plant in the image information of the plant.
제6항에 있어서,
상기 식물의 생육 특성 정보는 식물의 잎, 줄기, 가지 또는 과실의 크기, 면적, 색상 정보를 포함하는 것을 특징으로 하는 휴대용 스마트 기기.
The method according to claim 6,
Wherein the growth characteristics information of the plant includes the size, area, and color information of a leaf, a stem, a branch or a fruit of the plant.
식별정보인식수단을 이용하여 식물의 식별정보를 인식하고, 식물의 이미지를 획득하여 상기 식별정보와 함께 상기 식물의 이미지를 분석서버로 전송하는 휴대용 스마트 기기; 및
상기 휴대용 스마트 기기로부터 전송된 식물의 이미지를 기계학습을 통해 구축한 기계학습모델부를 이용하여 분석함으로써, 상기 식물의 생육 특성 정보를 산출하는 생육정보산출부를 포함하는 상기 분석서버를 포함하는 식물의 생육정보 분석시스템.
A portable smart device that recognizes identification information of a plant using identification information recognition means, acquires an image of the plant, and transmits the image of the plant together with the identification information to an analysis server; And
And a growth information calculation unit for calculating the growth characteristics information of the plant by analyzing the image of the plant transmitted from the portable smart device using a machine learning model unit constructed through machine learning, Information analysis system.
제8항에 있어서,
상기 생육정보산출부는 기계학습을 통해 구축한 모델을 이용하여 식물의 이미지에서 잎, 줄기, 과실, 또는 가지의 영역을 추출하고, 기준이 되는 모델과 매칭을 수행하여 식물의 잎, 줄기, 가지 또는 과실의 크기, 면적, 색상 정보를 산출하는 것을 특징으로 하는 식물의 생육정보 분석시스템.
9. The method of claim 8,
The growth information calculating unit extracts leaf, stem, fruit, or branch area from the image of the plant using the model constructed through machine learning, and performs matching with the reference model to determine the leaf, stem, And the size, area, and color information of the fruit are calculated.
태깅 어플리케이션을 이용하여 식물 식별 정보를 태깅 및 분석하는 방법에 있어서,
상기 태깅 어플리케이션을 스마트 기기에서 실행시키는 단계;
식별정보인식수단을 이용하여 식물의 식별정보를 인식하는 단계;
상기 스마트 기기의 카메라를 이용하여 상기 식물의 이미지를 획득하는 단계;
상기 식물의 식별정보를 상기 식물의 이미지 정보에 태깅하는 단계; 및
상기 식물의 이미지를 기계학습모델을 통해 분석하여 식물의 생육 특성 정보를 산출하는 단계를 포함하는 것을 특징으로 하는 식물 식별 정보를 태깅 및 분석하는 방법.
A method for tagging and analyzing plant identification information using a tagging application,
Executing the tagging application on a smart device;
Recognizing the identification information of the plant using the identification information recognition means;
Obtaining an image of the plant using a camera of the smart device;
Tagging the identification information of the plant to the image information of the plant; And
And analyzing the image of the plant through a machine learning model to calculate the growth characteristics information of the plant.
제10항에 있어서,
상기 생육 특성 정보를 산출하는 단계는,
기계학습을 통해 구축한 모델을 이용하여 식물의 이미지에서 잎, 줄기, 과실, 또는 가지의 영역을 추출하는 단계; 및
기준이 되는 모델과 매칭을 수행하여 식물의 잎, 줄기, 가지 또는 과실의 크기, 면적, 색상 정보를 산출하는 단계를 포함하는 것을 특징으로 식물 식별 정보를 태깅 및 분석하는 방법.
11. The method of claim 10,
The step of calculating the growth characteristics information comprises:
Extracting leaf, stem, fruit, or branch regions from the plant image using a model constructed through machine learning; And
And calculating the size, area, and color information of leaves, stems, branches or fruits of the plant by performing matching with the reference model.
제11항에 있어서,
상기 식물의 이미지를 획득하는 단계는, 상기 식물의 관심영역을 입력 또는 선택 받는 단계, 및 상기 식물의 이미지 획득 시 상기 식물의 관심영역에 관한 정보를 상기 식물의 이미지 정보에 포함시켜 저장하는 단계를 더 포함하는 것을 특징으로 하는 식물 식별 정보를 태깅 및 분석하는 방법.
12. The method of claim 11,
The step of acquiring an image of the plant may include the steps of inputting or selecting a region of interest of the plant, and storing information about a region of interest of the plant in the image information of the plant when the image of the plant is acquired The method comprising the steps of:
제10항에 있어서,
상기 식물의 식별정보를 상기 분석서버로 전송하여 상기 식물에 관한 개체정보를 요청하는 단계; 및
상기 분석서버로부터 전송된 상기 식물에 관한 개체정보를 항목별로 표시하는 단계를 더 포함하고;
상기 식물에 관한 개체정보는 식물의 유전자정보, 식물의 2D 또는 3D 영상정보, 상기 식물의 재배환경정보, 상기 식물의 생장정보, 및 상기 식물의 표현형정보 중 적어도 하나를 포함하는 것을 특징으로 하는 식물 식별 정보를 태깅 및 분석하는 방법.
11. The method of claim 10,
Transmitting identification information of the plant to the analysis server to request individual information about the plant; And
Further comprising the step of displaying entity information on the plant transmitted from the analysis server by item;
Wherein the individual information on the plant includes at least one of genetic information of the plant, 2D or 3D image information of the plant, cultivation environment information of the plant, growth information of the plant, and phenotype information of the plant. How to tag and analyze identification information.
KR1020170010634A 2017-01-23 2017-01-23 Method Tagging Images with Plant Identifier Using a Tagging Application, Mobile Smart Device Comprising The Same, And Plant Growth Information Analysis System KR20180086776A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170010634A KR20180086776A (en) 2017-01-23 2017-01-23 Method Tagging Images with Plant Identifier Using a Tagging Application, Mobile Smart Device Comprising The Same, And Plant Growth Information Analysis System

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170010634A KR20180086776A (en) 2017-01-23 2017-01-23 Method Tagging Images with Plant Identifier Using a Tagging Application, Mobile Smart Device Comprising The Same, And Plant Growth Information Analysis System

Publications (1)

Publication Number Publication Date
KR20180086776A true KR20180086776A (en) 2018-08-01

Family

ID=63227899

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170010634A KR20180086776A (en) 2017-01-23 2017-01-23 Method Tagging Images with Plant Identifier Using a Tagging Application, Mobile Smart Device Comprising The Same, And Plant Growth Information Analysis System

Country Status (1)

Country Link
KR (1) KR20180086776A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110807445A (en) * 2019-12-15 2020-02-18 怀化学院 Intelligent mobile monitoring instrument and monitoring method thereof
KR102167494B1 (en) * 2020-03-26 2020-10-19 주식회사 엔플라스틱 Method for providing cloud platform based organization solution using qr code and storage box
CN113486892A (en) * 2021-07-02 2021-10-08 东北大学 Production information acquisition method and system based on smartphone image recognition
KR102321137B1 (en) 2021-03-29 2021-11-03 서봉주 System and method for collecting/providing data on optimal growth conditions of organisms

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110807445A (en) * 2019-12-15 2020-02-18 怀化学院 Intelligent mobile monitoring instrument and monitoring method thereof
KR102167494B1 (en) * 2020-03-26 2020-10-19 주식회사 엔플라스틱 Method for providing cloud platform based organization solution using qr code and storage box
KR102321137B1 (en) 2021-03-29 2021-11-03 서봉주 System and method for collecting/providing data on optimal growth conditions of organisms
CN113486892A (en) * 2021-07-02 2021-10-08 东北大学 Production information acquisition method and system based on smartphone image recognition
CN113486892B (en) * 2021-07-02 2023-11-28 东北大学 Production information acquisition method and system based on smart phone image recognition

Similar Documents

Publication Publication Date Title
US20200264759A1 (en) Horticultural care tracking, validation and verification
US11145130B2 (en) Method for automatically capturing data from non-networked production equipment
Minervini et al. Image analysis: the new bottleneck in plant phenotyping [applications corner]
CN109690570B (en) Computer room management method and dynamic loop system
CN108010008B (en) Target tracking method and device and electronic equipment
US10337962B2 (en) Visible audiovisual annotation of infrared images using a separate wireless mobile device
US20200167712A1 (en) Method for augmenting procedures of a locked, regulated document
KR20180086776A (en) Method Tagging Images with Plant Identifier Using a Tagging Application, Mobile Smart Device Comprising The Same, And Plant Growth Information Analysis System
US20140168412A1 (en) Methods and systems for automated micro farming
WO2018198319A1 (en) Wearable terminal display system, wearable terminal display method and program
US20180308229A1 (en) Method and information system for detecting at least one plant planted on a field
CA3038966A1 (en) Horticultural care tracking, validation and verification
US11900549B2 (en) Method for automatically capturing data from non-networked production equipment
JP2013196458A (en) Image search system, image search device, image search method and program
CN109558913A (en) A kind of crop disease and insect monitoring system based on radar
CN104123516A (en) Gold label card detection method and reader based cloud computation network platform
CN108038473A (en) Method and apparatus for output information
KR102532651B1 (en) Greenhouse crop management system
EP3931789A1 (en) Automated mobile field scouting sensor data and image classification devices
JP2020109610A (en) Plant classification system using deep running and method therefor
KR102485816B1 (en) Crop growth analysis system using image collection device
US11308051B1 (en) Touchless harvesting system and method
EP3973767B1 (en) Information processing device and index value calculation method
KR20220022961A (en) Advanced crop diagnosing system
US20220051154A1 (en) Method and apparatus for measuring plant trichomes