KR20180086776A - Method Tagging Images with Plant Identifier Using a Tagging Application, Mobile Smart Device Comprising The Same, And Plant Growth Information Analysis System - Google Patents
Method Tagging Images with Plant Identifier Using a Tagging Application, Mobile Smart Device Comprising The Same, And Plant Growth Information Analysis System Download PDFInfo
- Publication number
- KR20180086776A KR20180086776A KR1020170010634A KR20170010634A KR20180086776A KR 20180086776 A KR20180086776 A KR 20180086776A KR 1020170010634 A KR1020170010634 A KR 1020170010634A KR 20170010634 A KR20170010634 A KR 20170010634A KR 20180086776 A KR20180086776 A KR 20180086776A
- Authority
- KR
- South Korea
- Prior art keywords
- plant
- information
- image
- unit
- identification information
- Prior art date
Links
- 238000004458 analytical method Methods 0.000 title claims abstract description 70
- 238000000034 method Methods 0.000 title claims abstract description 34
- 230000008635 plant growth Effects 0.000 title abstract description 11
- 230000012010 growth Effects 0.000 claims abstract description 49
- 238000004891 communication Methods 0.000 claims abstract description 13
- 238000010801 machine learning Methods 0.000 claims description 31
- 235000013399 edible fruits Nutrition 0.000 claims description 21
- 230000002068 genetic effect Effects 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 4
- 230000003213 activating effect Effects 0.000 claims description 3
- 239000000284 extract Substances 0.000 claims description 3
- 230000005540 biological transmission Effects 0.000 abstract description 3
- 241000196324 Embryophyta Species 0.000 description 256
- 238000010586 diagram Methods 0.000 description 11
- 238000012790 confirmation Methods 0.000 description 7
- 230000008569 process Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 238000004590 computer program Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 238000012706 support-vector machine Methods 0.000 description 3
- 238000010191 image analysis Methods 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 238000003976 plant breeding Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 229920001621 AMOLED Polymers 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000009395 breeding Methods 0.000 description 1
- 230000001488 breeding effect Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 238000012239 gene modification Methods 0.000 description 1
- 230000005017 genetic modification Effects 0.000 description 1
- 235000013617 genetically modified food Nutrition 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004069 plant analysis Substances 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 241000215338 unidentified plant Species 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/02—Agriculture; Fishing; Forestry; Mining
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06K—GRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
- G06K19/00—Record carriers for use with machines and with at least a part designed to carry digital markings
- G06K19/06—Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
- G06K19/06009—Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking
- G06K19/06018—Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking one-dimensional coding
- G06K19/06028—Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking one-dimensional coding using bar codes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06K—GRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
- G06K19/00—Record carriers for use with machines and with at least a part designed to carry digital markings
- G06K19/06—Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
- G06K19/06009—Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking
- G06K19/06037—Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking multi-dimensional coding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06K—GRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
- G06K19/00—Record carriers for use with machines and with at least a part designed to carry digital markings
- G06K19/06—Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
- G06K19/067—Record carriers with conductive marks, printed circuits or semiconductor circuit elements, e.g. credit or identity cards also with resonating or responding marks without active components
- G06K19/07—Record carriers with conductive marks, printed circuits or semiconductor circuit elements, e.g. credit or identity cards also with resonating or responding marks without active components with integrated circuit chips
- G06K19/0723—Record carriers with conductive marks, printed circuits or semiconductor circuit elements, e.g. credit or identity cards also with resonating or responding marks without active components with integrated circuit chips the record carrier comprising an arrangement for non-contact communication, e.g. wireless communication circuits on transponder cards, non-contact smart cards or RFIDs
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
-
- H04M1/72519—
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
- H04N23/81—Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
-
- H04N5/217—
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Health & Medical Sciences (AREA)
- Signal Processing (AREA)
- Agronomy & Crop Science (AREA)
- Animal Husbandry (AREA)
- Marine Sciences & Fisheries (AREA)
- Mining & Mineral Resources (AREA)
- Computer Hardware Design (AREA)
- Human Resources & Organizations (AREA)
- Economics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- Tourism & Hospitality (AREA)
- General Business, Economics & Management (AREA)
- Microelectronics & Electronic Packaging (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
본 발명은 태깅 어플리케이션을 이용하여 식물 식별 정보를 태깅 및 분석하는 방법, 이를 실행하는 휴대용 스마트 기기, 및 이를 포함하는 식물 생육 정보 분석 시스템에 관한 것으로, 보다 구체적으로는 휴대용 스마트 기기에서 실행하는 어플리케이션을 이용하여 식물의 이미지와 함께 식별정보를 태깅하고 식물 이미지를 분석하여 식물의 생육 정보를 추출하는 기술에 관한 것이다.The present invention relates to a method for tagging and analyzing plant identification information using a tagging application, a portable smart device for executing the same, and a plant growth information analysis system including the same. More particularly, Tagging identification information together with an image of the plant, and analyzing the plant image to extract the growth information of the plant.
식물 육종은 식물을 재배하면서 다양한 식물 유전자원 집단 내에서 각각의 개체들의 특성을 분석하고, 식물 품종 육성을 위한 집단 내에서 우량한 개체를 선발하며, 식물 유전자 변형 또는 인위적 돌연변이 집단 내에서 특정 관심 변이체를 분석하고 선발하는 일련의 과정을 수행하게 된다.Plant breeding involves the analysis of the characteristics of individual individuals within a variety of plant genetic resources, plant selection, selection of superior individuals within a population for plant breeding, and identification of specific mutants within a plant genetic modification or anthropogenic mutant population Analysis, and selection.
식물 표현형 분석은 사람이 직접 식물의 키, 잎의 수량, 색상 및 모양 등을 직접적으로 측정하거나 식물의 일부를 채취하여 화학적으로 분석하는 등의 방법을 사용하였다. 하지만, 사람의 눈에 의존한 분석의 경우 많은 공수와 작업시간이 요구되고 사람마다 다르게 분석할 수 있으므로 신뢰성과 정확성이 저하되는 단점이 있다. Plant phenotypic analysis was performed by directly measuring the plant height, the number of leaves, color and shape, or chemically analyzing a part of the plant. However, analysis based on the human eye requires a lot of air and work time, and it can be analyzed differently for each person, so that reliability and accuracy are degraded.
이러한 문제점을 개선하기 위해서 대량의 식물의 생육데이터를 자동으로 분석하는 시스템이 개발되어 종자회사나 육종 연구기관에서 활용하고 있다. To solve these problems, a system for automatically analyzing the growth data of a large number of plants has been developed and utilized by seed companies and breeding research institutes.
종래 식물 생육데이터를 자동으로 분석하는 시스템은 식물 용기 각각에 식별수단을 장착하고 이송장비를 통해 순차적으로 검사챔버로 이동시켜 식물의 이미징을 획득하여 분석하는 방법을 이용하고 있다.Conventionally, a system for automatically analyzing plant growth data utilizes a method of acquiring and analyzing the image of a plant by attaching identification means to each of the plant containers and sequentially moving the same through the transfer equipment to the inspection chamber.
그러나, 식물 이미징을 획득하는 검사챔버는 식물 전체의 이미지를 획득하여 분석하기 때문에, 식물의 줄기나 잎 등의 일부에 특이점 등이 있다고 하더라도 간과하기 쉽고, 식물의 특이사항을 알아낸다고 하더라도 해당 부위에 대한 상세 데이터가 부족하기 때문에 분석에 어려움이 있다. However, since the inspection chamber for obtaining plant imaging acquires an image of the whole plant and analyzes it, even if there is a singular point in a part of a stem or a leaf of a plant, it is easy to overlook, and even if a plant is identified, There is a lack of detailed data on the analysis, which makes analysis difficult.
이런 경우, 연구자나 작업자가 분석을 요하는 특이사항이 발견된 식물에 대해 이미지를 획득해서 생육데이터 분석DB에 별도로 저장해야 필요성이 있다. 그런데, 이러한 작업을 위해서는 연구자나 작업자가 획득한 식물 이미지를 각각의 식물의 식별정보를 추가 입력해서 저장해야 하는데, 작업자가 이미지를 촬상한 식물의 식별정보를 일일이 기억했다가 입력하는 것도 어렵고, 해당 이미지나 데이터를 분석DB에 입력하는 작업도 매우 번거롭다. In such a case, it is necessary to acquire an image of a plant in which the researcher or the worker has found a specific matter that needs analysis, and separately store the image in the growth data analysis DB. However, in order to perform such work, it is necessary to store the plant image acquired by the researcher or the worker as additional identification information of each plant, and it is also difficult for the operator to individually memorize and input the identification information of the plant that images the image, Inputting the image or data into the analysis DB is also very cumbersome.
또한, 식물의 이미지 획득 시 연구자나 작업자마다 카메라 조작 숙련도, 카메라 촬상 조건, 카메라 조작 방법 등이 제각각이기 때문에 데이터의 신뢰성을 담보하기 어려운 문제가 있다.In addition, there is a problem that it is difficult to guarantee the reliability of data because each researcher or worker acquires the image of the plant, the camera operation skill, the camera image pickup condition, and the camera operation method are different.
특히, 식물의 표현형 데이터는 식물의 크기나 색상 등의 분석이 매우 중요한데, 카메라와 식물과의 거리, 화이트 밸런스 등 카메라의 촬상 조건 등이 연구자나 작업자마다 상이하기 때문에 식물 자체 또는 타 개체 식물의 데이터 간의 비교 자체를 할 수가 없는 문제가 있다.In particular, the phenotype data of a plant is very important to analyze the size and color of the plant. Since the distance between the camera and the plant and the imaging conditions of the camera such as white balance are different for each researcher or operator, There is a problem that it is not possible to compare itself.
전술한 바와 같은 문제점을 해결하기 위하여, 본 발명에서는 개별 식물의 부위별 특이사항 등을 이미지로 촬영하고 개별 식물의 식별정보를 함께 태깅하여 분석서버로 전송함으로써 간단히 식물의 생육데이터를 추가할 수 있는 태깅 어플리케이션을 이용하여 식물 식별 정보를 태깅하는 방법 및 이를 실행하는 휴대용 스마트 기기를 제공하는 것이다. In order to solve the above-mentioned problems, in the present invention, it is possible to add plant growth data by simply photographing specific plant-specific information of each plant, tagging identification information of individual plants together, A method for tagging plant identification information using a tagging application, and a portable smart device for executing the method.
또한, 그동안 수집한 식물 이미지 DB를 이용하여 기계학습을 통해 생육정보에 관한 기계학습모델을 구축하고, 휴대용 스마트기기로 촬영한 식물 이미지를 기계학습모델에 기초하여 분석 및 처리하여 식물의 잎, 줄기, 과실, 가지 등의 크기, 면적, 색상 등의 생육정보를 산출함으로써, 촬영자나 촬영기기가 다르더라도 신뢰성있는 분석을 담보할 수 있는 생육정보 분석 시스템을 제공하는 것이다. In addition, a machine learning model of the growth information is constructed through machine learning using the collected plant image DB, and the plant image captured by the portable smart device is analyzed and processed based on the machine learning model, , A fruit, an egg, and the like, a growth information such as an area, a color, and the like is calculated, thereby providing a reliable analysis even if the photographer or the photographing apparatus is different.
더 나아가, 식물의 관심부분(ROI) 등을 설정할 수 있게 함으로써 추후 이미지 분석 시 식물의 특이사항 등을 간과하지 않고 명확하게 분석할 수 있도록 정보를 제공하는 식물 식별 정보를 태깅하는 방법 및 이를 실행하는 휴대용 스마트 기기 및 생육정보 분석 시스템을 제공하는데 목적이 있다.Further, by setting the ROI of the plant, it is possible to provide a method of tagging the plant identification information that provides information so as to clearly analyze the plant specific information at the time of the later image analysis, A portable smart device and a growth information analysis system.
상기 목적은 이미지를 획득하기 위한 카메라; 식물 이미지에 식물 식별 정보를 태깅하기 위한 태깅 어플리케이션이 저장된 메모리부; 상기 태깅 어플리케이션을 실행시키는 어플리케이션제어부; 상기 태깅 어플리케이션의 실행에 따른 사용자 인터페이스 화면을 디스플레이하는 디스플레이부; 및 외부와의 통신을 위한 통신부를 포함하며; 상기 태깅 어플리케이션은 상기 식물의 식별정보를 인식하는 식별정보인식부, 상기 카메라를 활성화시켜 식물의 이미지를 획득하는 이미지획득부, 상기 식물의 식별정보를 상기 식물의 이미지 정보에 태깅하는 태깅부, 및 상기 식별정보가 태깅된 상기 식물의 이미지 정보를 분석서버로 전송하는 전송부를 포함하는, 휴대용 스마트 기기에 의해 달성될 수 있다. The object is achieved by a camera for acquiring an image; A memory unit storing a tagging application for tagging plant identification information on a plant image; An application control unit for executing the tagging application; A display unit for displaying a user interface screen according to execution of the tagging application; And a communication unit for communicating with the outside; The tagging application includes an identification information recognizing unit for recognizing the identification information of the plant, an image acquiring unit for acquiring an image of the plant by activating the camera, a tagging unit for tagging the identification information of the plant to image information of the plant, And a transmitting unit for transmitting the image information of the plant tagged with the identification information to the analysis server.
여기서, 상기 이미지획득부는 상기 식물의 관심영역을 입력 또는 선택할 수 있는 관심영역설정부; 및 상기 식물의 이미지 획득 시 상기 식물의 관심영역에 관한 정보를 상기 식물의 이미지 정보에 포함시켜 저장하는 정보저장부를 더 포함할 수 있다. Here, the image obtaining unit may include a region of interest setting unit that can input or select a region of interest of the plant; And an information storage unit for storing information about a region of interest of the plant in the image information of the plant when the image of the plant is acquired.
또한, 식별정보인식부는 RFID, QR코드, 및 바코드 방식 중 적어도 어느 하나의 인식수단을 포함할 수 있다. In addition, the identification information recognizing unit may include at least one of RFID, QR code, and bar code recognition unit.
그리고, 상기 태깅 어플리케이션은 상기 식물의 특이사항을 사용자로부터 입력받기 위한 사용자입력부를 더 포함할 수 있다. In addition, the tagging application may further include a user input unit for inputting a specific item of the plant from a user.
더 나아가, 상기 태깅 어플리케이션은 상기 식물의 식별정보를 상기 분석서버로 전송하여 상기 식물에 관한 개체정보를 요청하는 정보요청부, 및 상기 분석서버로부터 전송된 상기 식물에 관한 개체정보를 항목별로 표시하는 정보표시부를 더 포함하고, 상기 식물에 관한 개체정보는 식물의 유전자정보, 식물의 2D 또는 3D 영상정보, 상기 식물의 재배환경정보, 상기 식물의 생장정보, 및 상기 식물의 표현형정보 중 적어도 하나를 포함할 수 있다. Further, the tagging application may include an information requesting unit for transmitting identification information of the plant to the analysis server to request individual information on the plant, and object information about the plant transmitted from the analysis server Wherein the individual information on the plant includes at least one of genetic information of the plant, 2D or 3D image information of the plant, cultivation environment information of the plant, growth information of the plant, and phenotype information of the plant .
또한, 상기 태깅 어플리케이션은 상기 이미지획득부를 통해 획득한 식물의 이미지를 기계학습모델을 이용하여 분석하여 식물의 생육 특성 정보를 산출하는 생육정보산출부를 더 포함하고, 상기 정보저장부는 산출한 식물의 생육 특성 정보를 상기 식물의 이미지 정보에 포함시켜 저장할 수 있다. The tagging application may further include a growth information calculating unit for calculating a growth characteristic information of a plant by analyzing an image of the plant acquired through the image obtaining unit using a machine learning model, Characteristic information may be stored in the image information of the plant.
그리고, 상기 식물의 생육 특성 정보는 식물의 잎, 줄기, 가지 또는 과실의 크기, 면적, 색상 정보를 포함할 수 있다. The growth characteristics information of the plant may include leaf size, stem, branch or fruit size, area, and color information of the plant.
한편, 상기 목적은 식별정보인식수단을 이용하여 식물의 식별정보를 인식하고, 식물의 이미지를 획득하여 상기 식별정보와 함께 상기 식물의 이미지를 분석서버로 전송하는 휴대용 스마트 기기; 및 상기 휴대용 스마트 기기로부터 전송된 식물의 이미지를 기계학습을 통해 구축한 기계학습모델부를 이용하여 분석함으로써, 상기 식물의 생육 특성 정보를 산출하는 생육정보산출부를 포함하는 상기 분석서버를 포함하는 식물의 생육정보 분석시스템에 의해서도 달성될 수 있다. The above object is also achieved by a portable smart device for recognizing identification information of a plant using identification information recognition means, acquiring an image of the plant, and transmitting the image of the plant to the analysis server together with the identification information; And a growth information calculation unit for calculating a growth characteristic information of the plant by analyzing the image of the plant transmitted from the portable smart device using a machine learning model unit constructed through machine learning Can also be achieved by a growth information analysis system.
여기서, 상기 생육정보산출부는 기계학습을 통해 구축한 모델을 이용하여 식물의 이미지에서 잎, 줄기, 과실, 또는 가지의 영역을 추출하고, 기준이 되는 모델과 매칭을 수행하여 식물의 잎, 줄기, 가지 또는 과실의 크기, 면적, 색상 정보를 산출할 수 있다. Here, the growth information calculating unit extracts areas of leaves, stems, fruits, or branches from the images of the plants using the model constructed through machine learning, and performs matching with the reference model to determine the leaves, stems, The size, area, and color information of branches or fruits can be calculated.
한편, 상기 목적은 태깅 어플리케이션을 이용하여 식물 식별 정보를 태깅 및 분석하는 방법에 있어서, 상기 태깅 어플리케이션을 스마트 기기에서 실행시키는 단계; 식별정보인식수단을 이용하여 식물의 식별정보를 인식하는 단계; 상기 스마트 기기의 카메라를 이용하여 상기 식물의 이미지를 획득하는 단계; 상기 식물의 식별정보를 상기 식물의 이미지 정보에 태깅하는 단계; 및 상기 식물의 이미지를 기계학습모델을 통해 분석하여 식물의 생육 특성 정보를 산출하는 단계를 포함할 수 있다. According to another aspect of the present invention, there is provided a method for tagging and analyzing plant identification information using a tagging application, the method comprising: executing the tagging application in a smart device; Recognizing the identification information of the plant using the identification information recognition means; Obtaining an image of the plant using a camera of the smart device; Tagging the identification information of the plant to the image information of the plant; And analyzing the image of the plant through a machine learning model to calculate the growth characteristics information of the plant.
그리고, 상기 생육 특성 정보를 산출하는 단계는, 기계학습을 통해 구축한 모델을 이용하여 식물의 이미지에서 잎, 줄기, 과실, 또는 가지의 영역을 추출하는 단계; 및 기준이 되는 모델과 매칭을 수행하여 식물의 잎, 줄기, 가지 또는 과실의 크기, 면적, 색상 정보를 산출하는 단계를 포함할 수 있다. The step of calculating the growth characteristics information includes extracting leaf, stem, fruit, or branch regions from the image of the plant using a model constructed through machine learning; And a step of calculating size, area, and color information of leaves, stems, branches or fruits of plants by performing matching with the reference model.
또한, 상기 식물의 이미지를 획득하는 단계는, 상기 식물의 관심영역을 입력 또는 선택 받는 단계, 및 상기 식물의 이미지 획득 시 상기 식물의 관심영역에 관한 정보를 상기 식물의 이미지 정보에 포함시켜 저장하는 단계를 더 포함할 수 있다. In addition, the step of acquiring the image of the plant may include inputting or selecting a region of interest of the plant, and storing information about the region of interest of the plant in the image information of the plant when the image of the plant is acquired Step < / RTI >
아울러, 상기 식물의 식별정보를 상기 분석서버로 전송하여 상기 식물에 관한 개체정보를 요청하는 단계; 및 상기 분석서버로부터 전송된 상기 식물에 관한 개체정보를 항목별로 표시하는 단계를 더 포함하고; 상기 식물에 관한 개체정보는 식물의 유전자정보, 식물의 2D 또는 3D 영상정보, 상기 식물의 재배환경정보, 상기 식물의 생장정보, 및 상기 식물의 표현형정보 중 적어도 하나를 포함할 수 있다. Transmitting identification information of the plant to the analysis server to request individual information about the plant; And displaying entity information on the plant transmitted from the analysis server by item; The individual information on the plant may include at least one of genetic information of the plant, 2D or 3D image information of the plant, cultivation environment information of the plant, growth information of the plant, and phenotype information of the plant.
상기한 바와 같이, 본 발명에 의한 식물 식별 정보를 태깅하는 방법 및 이를 실행하는 휴대용 스마트 기기는 개별 식물의 부위별 특이사항 등을 이미지로 촬영하고 개별 식물의 식별정보를 함께 태깅하여 분석서버로 전송함으로써 간단히 식물의 생육데이터를 추가할 수 있다. As described above, the method for tagging the plant identification information according to the present invention and the portable smart device for executing the method according to the present invention take an image of the specific matters of each plant and tag the identification information of the individual plants together and transmit them to the analysis server The growth data of the plant can be simply added.
또한, 휴대용 스마트기기로 촬영한 식물 이미지를 기계학습모델에 기초하여 분석 및 처리하여 식물의 잎, 줄기, 과실, 가지 등의 크기, 면적, 색상 등의 생육정보를 산출함으로써, 촬영자나 촬영기기가 다르더라도 신뢰성있는 분석을 담보할 수 있다. In addition, by analyzing and processing plant images photographed by a portable smart device on the basis of a machine learning model, the information such as the size, area, and color of leaves, stems, fruits, Reliable analysis can be assured even if different.
더 나아가, 식물의 관심부분(ROI) 등을 설정할 수 있게 함으로써 추후 이미지 분석 시 식물의 특이사항 등을 간과하지 않고 명확하게 분석할 수 있도록 추가정보를 제공할 수 있다.Further, by setting the ROI of the plant, it is possible to provide additional information so that the analysis of the plant image can be clearly analyzed without overlooking the plant characteristics.
도 1은 본 발명의 일 실시예에 따른 태깅 어플리케이션을 이용하여 식물 식별 정보를 태깅하고 분석하는 식물 생육정보 분석 시스템의 개략도를 도시한 것이다.
도 2는 본 발명의 일 실시예에 따른 태깅 어플리케이션이 저장, 실행되는 휴대용 스마트 기기의 제어블록도이다.
도 3은 본 발명의 일 실시예에 따른 태깅 어플리케이션의 개략도이다.
도 4는 본 발명의 일 실시예에 따른 이미지획득부의 개략도이다.
도 5는 본 발명의 일 실시예에 따른 관심영역 설정 화면의 일 예이다.
도 6은 도 1의 식물 생육정보 분석 시스템에서 분석서버의 내부 구성의 개략도이다.
도 7은 본 발명의 일 실시예에 따른 식물정보확인 어플리케이션의 개략도이다.
도 8 내지 도 12는 식물정보확인 어플리케이션의 항목별 구현화면의 일 예를 도시한 것이다.
도 13은 본 발명의 일 실시예에 따른 태깅 어플리케이션을 이용한 식물 식별 정보를 태깅하는 방법의 흐름도이다.
도 14는 식물의 이미지를 분석하여 식물의 생육정보를 산출하는 프로세스를 설명하기 위한 흐름도이다. 1 is a schematic diagram of a plant growth information analysis system for tagging and analyzing plant identification information using a tagging application according to an embodiment of the present invention.
2 is a control block diagram of a portable smart device in which a tagging application according to an embodiment of the present invention is stored and executed.
3 is a schematic diagram of a tagging application in accordance with an embodiment of the present invention.
4 is a schematic diagram of an image acquisition unit according to an embodiment of the present invention.
5 is an example of a region-of-interest setting screen according to an embodiment of the present invention.
FIG. 6 is a schematic diagram of an internal configuration of an analysis server in the plant growth information analysis system of FIG. 1;
7 is a schematic diagram of a plant information verification application according to an embodiment of the present invention.
FIGS. 8 to 12 show an example of an item-specific implementation screen of the plant information confirmation application.
13 is a flowchart of a method of tagging plant identification information using a tagging application according to an embodiment of the present invention.
14 is a flowchart for explaining the process of calculating the growth information of a plant by analyzing the image of the plant.
이하, 도면을 참조하여 본 발명의 구체적인 실시예들에 대해 설명하기로 한다.Hereinafter, specific embodiments of the present invention will be described with reference to the drawings.
도 1은 본 발명의 일 실시예에 따른 태깅 어플리케이션(100)을 이용하여 식물 식별 정보를 태깅하는 시스템의 개략도를 도시한 것이다. 도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 태깅 어플리케이션(100)을 이용한 식물 개체 정보 태깅 시스템은 태깅 어플리케이션(100)을 휴대용 스마트 기기(1) 및 분석서버(2)를 포함한다.1 is a schematic diagram of a system for tagging plant identification information using a
휴대용 스마트 기기(1)는 카메라(10)가 설치되어 있는 휴대용 기기를 의미하는 것으로, 어플리케이션을 다운로드 설치하여 실행시킬 수 있는 모든 종류의 휴대용 스마트 기기(1), 예컨대 스마트폰, 테블릿 PC, 노트북 등을 포함하나, 이에 한정되지 않으며 통신기능 및 카메라(10) 기능을 구비한 휴대용 기기라면 다른 기기를 포함할 수 있다.The portable smart device 1 refers to a portable device in which the
휴대용 스마트 기기(1)에서 태깅 어플리케이션(100)을 실행시키면, 식물 또는 식물 주변에 부착된 식물의 식별정보 예컨대, RFID 태그, QR 코드, 바코드 방식의 식별정보에 대응하는 인식수단을 통해 개별 식물의 식별정보를 인식하고, 식물의 이미지를 획득한 후 식물의 식별정보를 식물의 이미지 정보에 태깅하여 분석서버(2)로 전송한다.When the
분석서버(2)는 식물 개체의 생육데이터에 관한 정보를 저장, 분석하기 위한 서버로서, 식물의 자동 이송에 의한 대량분석플랫폼시스템의 이미지 챔버를 통해 획득한 개별 식물의 생육데이터DB에 더하여 본 발명과 같이 태깅 어플리케이션(100)을 통해 전송되는 각 개별 식물의 이미지 데이터를 추가로 저장하여 표현형 분석에 사용한다.The
전술한 바와 같이, 식물 이미징을 획득하는 이미지챔버는 식물 전체의 이미지를 획득하는데 비해, 본 발명에 따른 태깅 어플리케이션(100)은 전체 이미지뿐만 아니라 사용자나 연구자가 관심이 있는 식물의 줄기나 잎 등에 존재하는 특이부위를 별도로 이미지 획득할 수 있다는 점에서 기존의 대량분석플랫폼시스템의 단점을 보완할 수 있어 매우 유용하다. As described above, while the image chamber acquiring the plant imaging obtains the image of the whole plant, the
도 2는 본 발명의 일 실시예에 따른 태깅 어플리케이션(100)이 저장, 실행되는 휴대용 스마트 기기(1)의 제어블록도이다. 도 2를 참조하면, 본 발명의 일 실시예에 따른 휴대용 스마트 기기(1)는 카메라(10), 메모리부(20), 어플리케이션제어부(30), 디스플레이부(40), 및 통신부(50)를 포함한다.FIG. 2 is a control block diagram of a portable smart device 1 in which a
카메라(10)는 식물의 이미지를 촬상하기 위한 것으로, 경우에 따라서는 식물의 식별정보 예컨대, 바코드 방식이나 QR 코드 등의 영상인식을 위한 촬상수단으로 활용될 수 있다.The
메모리부(20)는 식물 이미지에 식물 식별 정보를 태깅하기 위한 태깅 어플리케이션(100)을 저장하며, 휴대용 스마트 기기(1)의 운용 및 동작에 필요한 다양한 어플리케이션을 저장할 수 있다.The
어플리케이션제어부(30)는 어플리케이션 관리 및 어플리케이션 실행과 관련된 동작을 제어하는 모듈로서, 일련의 실행코드 및 실행코드가 동작하는 마이크로프로세서, 마이크로컨트롤러, 마이크로칩 등으로 구현될 수 있다.The
디스플레이부(40)는 태깅 어플리케이션(100)의 실행에 따른 사용자 인터페이스 화면(41)이 표시되는 모듈로서, LCD, LED, OLED, AMOLED, IPS 등 다양한 방식의 디스플레이 패널이 적용 가능하다. The
통신부(50)는 3G 통신, WIFI, 블루투스, NFC(Near Field Communication), RFID 등의 모듈을 이용하여 분석서버(2)와 통신 가능하며, 후술하는 식물의 식별수단으로서 NFC(RFID 태그)를 사용하는 경우 통신부(50)의 NFC(RFID 태그)가 식별수단으로 활용될 수 있다.The
도 3은 본 발명의 일 실시예에 따른 태깅 어플리케이션(100)의 개략도이다. 도 3을 참조하면, 본 발명의 일 실시예에 따른 태깅 어플리케이션(100)은 식별정보인식부(110), 이미지획득부(120), 태깅부(130), 및 전송부(140)를 포함한다. 태깅 어플리케이션(100)은 프로세서 등에서 동작하는 일련의 소프트웨어 프로그램코드를 포함한다.3 is a schematic diagram of a
식별정보인식부(110)는 식물의 식별정보를 인식하기 위한 모듈로서, NFC, RFID, 바코드, QR 코드 등을 인식 및 판독하기 위한 모듈 중 적어도 하나 이상을 포함할 수 있다.The identification
이미지획득부(120)는 카메라(10)를 활성화시켜 원하는 식물의 이미지를 획득하기 위한 모듈로서, 이에 대해서는 도 4를 참조하며 후술하기로 한다.The
태깅부(130)는 식물의 식별정보를 식물의 이미지 정보에 태깅하기 위한 모듈로서, 식물의 이미지 정보에 식물의 식별정보가 포함됨으로써, 분석서버(2)에서 각각의 식물 이미지에 대한 식물의 식별정보를 기초로 표현형 분석 및 분석결과를 DB화 할 수 있다.The
전송부(140)는 식물의 식별정보가 태깅된 식물의 이미지 정보를 분석서버(2)로 전송하기 위한 것으로, 전송부(140)의 실행에 의해 통신부(50)를 통해 식물의 이미지 정보가 분석서버(2)로 전송된다.The transmitting
도 4는 본 발명의 일 실시예에 따른 이미지획득부(120)의 개략도이다. 도 4를 참조하면, 본 발명의 일 실시예에 따른 이미지획득부(120)는 스케일설정부(121), 스케일조정부(122), 정보저장부(123), 및 관심영역설정부(124)를 포함한다.4 is a schematic diagram of an
스케일설정부(121)은 식물의 크기에 관한 스케일을 선택 또는 조정할 수 있는 것으로, 화면의 축소, 확대 비율 등을 선택할 수 있는 메뉴를 의미한다.The
스케일조정부(122)는 사용자의 입력 또는 선택에 대응하는 스케일로 카메라(10)의 초점거리를 조정하여 식물의 화면을 확대 또는 축소한다.The
정보저장부(123)는 식물과 화면의 스케일 정보를 식물의 이미지 정보에 포함시켜 저장하는 것으로, 이미지 획득 시 스케일 화면을 함께 포함시킬 수도 있고, 별도의 데이터로 이미지에 첨부할 수도 있다.The
관심영역설정부(124)는 식물의 줄기, 잎 등의 일부 부위를 관심영역으로 입력 또는 선택할 수 있는 것으로, 사용자의 화면 클릭이나 영역 그리기 등에 의해 설정 가능하다.The region-of-
또한, 관심영역설정시 정보저장부(123)는 식물의 이미지 획득 시 식물의 관심영역에 관한 정보를 식물의 이미지 정보에 포함시켜 저장함으로써, 추후 분석서버(2)에서 분석 시 해당 관심영역을 쉽게 찾을 수 있도록 한다. 이때, 관심영역에 관한 정보는 이미지에 직접 영역이 표시된 화면의 형태로 추가되거나 별도의 관심영역에 관한 좌표정보로 부가될 수 있다. In addition, the
도 5는 본 발명의 일 실시예에 따른 관심영역 설정 화면의 일 예이다. 도 5를 참조하면, 잎 부위의 특이소견이 보이는 부위를 사용자가 디스플레이 화면에서 해당 영역을 원형으로 그리는 동작 등으로 설정할 수 있으며, 관심영역에 관한 정보가 이미지 정보에 포함되어 분석서버(2)로 전송된다.5 is an example of a region-of-interest setting screen according to an embodiment of the present invention. Referring to FIG. 5, a user can set a region in which a specific feature of a leaf part can be seen, such as an operation in which a user draws a circle in a corresponding area on a display screen. Information about an area of interest is included in image information, .
한편, 도 3을 다시 참조하면 본 발명의 일 실시예에 따른 태깅 어플리케이션(100)은 사용자입력부(150)를 더 포함할 수 있다.Referring again to FIG. 3, the tagging
사용자입력부(150)는 사용자가 이미지를 획득한 식물에 관한 특이사항 등을 텍스트 등으로 입력할 수 있도록 한 것으로, 이미지 획득 시 텍스트 입력창을 별도로 마련하거나 식물의 이미지에 직접 터치펜 등으로 입력하도록 할 수도 있다. The
예컨대, 이미지상으로는 알 수 없는 식물의 상태 등을 추가로 코멘트하고 싶을 경우, 해당 입력창이나 이미지에 사용자가 코멘트를 입력하고 이를 이미지 정보에 포함시킴으로써 추후 분석서버(2)에서 분석 시 데이터로 활용될 수 있다.For example, if the user wants to further comment on the state of the unknown plant on the image, the user inputs the comment in the input window or the image and includes it in the image information, .
도 6은 도 1의 식물 생육정보 시스템에서 분석서버(2)의 내부 구성을 개략적으로 나타낸 개략도이다. 도 6을 참조하면, 분석서버(2)는 식물데이터베이스부(210) 및 생육정보산출부(220)를 포함한다.FIG. 6 is a schematic view schematically showing the internal configuration of the
식물데이터베이스부(210)는 식물의 생육정보가 DB로 구축된 것으로, 식물의 종류에 따른 생육정보로서, 잎, 가지, 줄기, 및 과실 등 식물의 각 영역에 관한 형태(morphology), 색상(전경/배경), 기하학(geometry), 질감(texture) 등의 정보가 데이터베이스화되어 저장된다. 식물데이터베이스는 식물의 종류별, 생육시기별로 다양하게 구축되며, 식물의 식별정보 별로도 구축될 수 있다. The
생육정보산출부(220)는 식물의 이미지를 분석하여 식물의 생육 특성 정보를 산출하기 위한 것으로, 기계학습을 통해 구축한 기계학습모델부(221)를 포함한다.The growth
기계학습모델부(221)는 식물의 생육정보 DB를 기계학습을 통해 구축된 이미지 분석 알고리즘으로서, 식물의 생육시기별 잎, 가지, 줄기, 및 과실의 크기, 색상, 면적 등에 관한 정보를 기계학습하여 구축된다.The machine
기계학습모델부(221)는 휴대용 스마트기기로부터 전송된 식물의 이미지를 분석하여 전경과 배경 영역을 분리하여 식물영역을 추출한다. 그리고, 식물영역에서 식물의 잎, 가지, 줄기, 및 과실 영역 등을 추출한다. The machine
그리고, 추출한 식물의 잎, 가지, 줄기, 및 과실 영역을 기하학적 변환을 통해 기계학습을 통해 산출된 기준이 되는 모델과 매칭을 수행하여 크기, 면적, 및 색상 정보를 추출한다.Then, size, area, and color information are extracted by matching the leaf, branch, stem, and fruit area of the extracted plant with the reference model calculated through machine learning through geometric transformation.
예컨대, 식물영역에서 추출한 잎의 형태, 모양, 색상, 및 질감 등을 분석하여 가장 유사한 형태를 갖는 모델을 찾아서 그 크기 및 색상을 산출할 수 있다.For example, by analyzing the shape, shape, color, and texture of the leaves extracted from the plant area, it is possible to find a model having the most similar shape and to calculate the size and color thereof.
또한, 식물 이미지 정보에 잎의 화방정보가 포함되거나 식물 이미지로부터 화방정보를 분석할 수 있는 경우라면, 화방정보에 따라 매칭 범위를 축소할 수 있을 것이다.In addition, if the plant image information includes the leaf information of the leaf or the leaf information can be analyzed from the plant image, the matching range may be reduced according to the leaf information.
더 나아가, 본 발명에서는 식물 이미지 정보에 식물 식별정보가 태깅되어 있으므로, 식별정보에 대응하는 식물의 생육정보나 식물의 특성 정보를 식물데이터베이스부(210)로부터 추출하여 이를 기준으로 휴대용 스마트 기기로 촬영한 잎, 줄기, 가지 또는 과실의 크기나 면적, 색상 등의 정보를 산출해 낼 수 있다.Further, in the present invention, since the plant identification information is tagged in the plant image information, the plant growth information and the plant characteristic information corresponding to the identification information are extracted from the
예컨대, 본 발명의 식물데이터베이스부(210)에는 각 식물의 식별정보별로 생육시기별 정확한 식물의 생육 특성 정보(잎, 줄기, 가지, 또는 과실의 크기, 각도, 색상, 질감 등의 정보)가 저장되어 있으므로, 가장 최근에 분석된 해당 식물의 생육특성 정보와 비교를 수행하는 것으로 휴대용 스마트 기기로 촬영한 식물의 각 구성의 크기나 색상, 면적 등을 정확하게 분석해 낼 수 있다.For example, in the
본 발명에 적용되는 기계학습모델은 서포트 벡터 머신(Support Vector Machine; SVM) 또는 최소 자승 서포트 벡터 머신(Least Squares Support Vector Machines; LS-SVM) 등이 적용될 수 있다. A support vector machine (SVM) or a least squares support vector machine (LS-SVM) may be applied to the machine learning model applied to the present invention.
도 7은 본 발명의 일 실시예에 따른 식물정보확인 어플리케이션(100')의 개략도이다. 식물정보확인 어플리케이션(100')은 휴대용 스마트 기기(1)에 설치되어 동작하는 것으로, 분석서버(2)에 식물 개체정보를 요청하여 원격에서 휴대용 스마트 기기(1)를 통해 확인할 수 있는 어플리케이션이다.FIG. 7 is a schematic diagram of a plant information confirmation application 100 'according to an embodiment of the present invention. The plant information confirmation application 100 'is installed in the portable smart device 1 and is operated by requesting the plant entity information from the
종래에는 연구자가 재배 중인 식물 중에서 특정 식물의 개체정보나 표현형 분석 정보가 궁금하면 해당 식별정보를 기록해 두었다가 분석서버(2)로 가서 일일이 해당 식물의 식별정보를 입력하여 해당 식물의 개체정보를 확인해야 하는데, 본 발명에 따르면 식물을 관찰하면서 해당 식물이 궁금하면 휴대용 스마트 기기(1)를 사용하여 식물의 식별정보만 태깅해서 전송하면 바로 그 자리에서 해당 식물의 개체정보를 확인할 수 있어 매우 편리하다.Conventionally, if a researcher wonders about object information or phenotypic analysis information of a particular plant among the plants cultivated by the researcher, the identification information is recorded, and then, the
도 7을 참조하면, 본 발명의 일 실시예에 따른 식물정보확인 어플리케이션(100')은 식별정보인식부(110), 정보요청부(170), 및 정보표시부(180)를 포함한다.Referring to FIG. 7, the plant information confirmation application 100 'according to an embodiment of the present invention includes an identification
식별정보인식부(160)는 전술한 태깅 어플리케이션(100)의 식별정보인식부(110)와 동일한 구성이므로 이에 관한 설명은 생략한다.The identification
정보요청부(170)는 식별정보인식부(160)에서 인식한 식물의 식별정보를 분석서버(2)로 전송하여 해당 식물의 개체정보를 요청하고, 정보표시부(180)는 분석서버(2)로부터 전송된 식물의 개체정보를 항목별로 화면에 표시한다.The
여기서, 정보표시부(180)에서 표시하는 식물의 개체정보는 식물의 유전자정보, 식물의 2D 또는 3D 영상정보, 식물의 재배환경정보, 식물의 생장정보, 및/또는 식물의 표현형정보를 포함할 수 있다. Here, the individual information of the plant displayed by the
도 8 내지 도 12는 식물정보확인 어플리케이션(100')의 항목별 구현화면의 일 예를 도시한 것이다. 도 8의 맨 아래 아이콘을 보면 홈 화면, OI, IMG, GC, EI 항목의 아이콘이 있다. 8 to 12 show an example of an itemized screen for each item of the plant
홈 화면은 식물정보식별에 관한 화면이고, OI는 식물의 개체정보, IMG는 식물의 이미지정보, GC는 식물의 생육환경정보, EI는 식물의 표현형정보를 의미한다.The home screen is a screen for identifying plant information, OI is individual information of the plant, IMG is the image information of the plant, GC is the growth environment information of the plant, and EI is the phenotype information of the plant.
도 8의 홈 화면은 식물의 RFID 태그, QR코드, 바코드 등을 통신모듈이나 카메라(10)를 통해 인식한 후 표시되는 화면이다. 도 8에서 'Tag Reading' 버튼을 클릭하면 해당 식물의 식별정보가 분석서버(2)로 전송되어 해당 식물의 개체정보를 요청하게 된다.The home screen of FIG. 8 is a screen displayed after recognizing the RFID tag, QR code, bar code, etc. of the plant through the communication module or the
도 9는 OI 아이콘, 즉 식물의 개체정보에 관한 화면으로 분석서버(2)로부터 전송된 식물의 개체정보가 표시되는 화면이다. 사용자가 OI를 클릭하면 해당 식물의 개체정보가 화면에 표시된다. FIG. 9 is a screen for displaying the OI icon, that is, the plant information of the plant, transmitted from the
도 10은 IMG 아이콘, 즉 식물의 이미지 정보가 표시되는 화면으로 식물의 2D 이미지나 3D 이미지가 화면에 표시된다.FIG. 10 is a screen on which an IMG icon, that is, image information of a plant, is displayed. A 2D image or a 3D image of a plant is displayed on the screen.
도 11은 GC 아이콘, 즉 식물의 생육환경정보가 표시되는 화면으로 현재 식물의 생육환경에 관한 정보가 표시되어, 연구자가 온도나 습도 등이 적절한지 여부를 바로 확인할 수 있다.FIG. 11 is a screen for displaying the GC icon, that is, information on the growth environment of the plant. Information about the current growth environment of the plant is displayed, and the researcher can immediately check whether the temperature or humidity is appropriate.
도 12는 EI 아이콘 즉, 식물의 표현형 정보가 표시되는 화면으로 식물의 잎 수, 가지분화, 과실수, 특이사항 등을 확인할 수 있으며, 경우에 따라서는 입력되지 않은 표현형 정보나 잘못 입력되거나 재배과정에서 표현형 정보를 업데이트할 필요가 있는 경우 사용자가 직접 식물을 보면서 표현형 정보를 입력할 수도 있다. 이렇게 입력된 정보는 식물 식별정보, 입력시간 등과 함께 저장되어 분석서버(2)로 전송되어 DB에 저장될 수 있다. FIG. 12 is a screen displaying the EI icon, that is, the phenotype information of the plant. The number of the leaves, the number of differentiations, the number of fruits, the specificity, etc. of the plant can be confirmed. In some cases, The user may directly enter the phenotype information while watching the plant. The input information may be stored together with the plant identification information, the input time, and the like, transmitted to the
전술한 실시예에서는 식물정보확인 어플리케이션(100')이 태깅 어플리케이션(100)과는 별도의 어플리케이션으로 구현되는 것으로 설명하였지만, 그 기능이 태깅 어플리케이션(100)과 통합되어 구현될 수도 있다.In the above-described embodiment, the plant information confirmation application 100 'is implemented as an application separate from the tagging
태깅 어플리케이션(100)과 식물정보확인 어플리케이션(100')은 처음 동작 시 식물의 식별정보를 확인하는 점에서 동일하고, 두 어플리케이션 모두 분석서버(2)와 연동한다는 점에서 통합하여 구현한다면 사용자의 편의성을 증가시킬 수 있을 것이다.The
도 13은 본 발명의 일 실시예에 따른 태깅 어플리케이션(100)을 이용한 식물 식별 정보를 태깅하는 방법의 흐름도이다. 13 is a flowchart of a method of tagging plant identification information using the
도 13을 참조하면, 본 발명의 일 실시예에 따른 식물 개체 정보의 태깅 방법은 태깅 어플리케이션(100)을 휴대용 스마트 기기(1)에 다운로드 설치한다(S10). 태깅 어플리케이션(100)을 실행시키면(S11) 식물의 식별정보를 인식하기 위한 모듈이 활성화된다. 예컨대, 식물의 식별정보가 RFID 태그라면 RFID 판독모듈을 통해 식물의 식별정보를 확인하고 NFC 모듈이라면 NFC 통신을 통해 식물의 식별정보를 인식한다(S12). 다른 예로, 식물의 식별정보가 화분 등이 QR 코드나 바코드 형식으로 기재되어 있다면 카메라(10)를 활성화시켜 QR 코드나 바코드를 획득한 후 이를 읽어들여 식물의 식별정보를 확인한다(S12).Referring to FIG. 13, a method for tagging plant entity information according to an embodiment of the present invention
식물의 식별정보 확인 후 식물 이미지를 획득한다(S13). 식물의 이미지를 획득 한 후 식물의 식별정보를 식물의 이미지 정보에 태깅하고(S14), 식별정보가 태깅된 이미지 정보를 분석서버(2)로 전송한다(S15).After confirming the identification information of the plant, a plant image is obtained (S13). After obtaining the image of the plant, the identification information of the plant is tagged to the image information of the plant (S14), and the tagged image information is transmitted to the analysis server 2 (S15).
여기서, 식물의 이미지는 1회 획득할 수도 있고 다 수회 획득할 수도 있다. 이는 사용자의 필요에 따라서 달라지는데, 프로세스상 식물 이미지 획득이 완료되었는지 여부를 확인할 수 있는 절차가 필요할 수 있다.Here, the image of the plant may be obtained once or several times. This may vary depending on the needs of the user, but a procedure may be required to confirm whether the plant image acquisition has been completed in the process.
이미지 획득 완료 여부를 클릭할 수 있는 아이콘을 표시하여 이를 사용자가 클릭하면 식물 식별정보 인식 후 획득한 이미지들에 해당 식물 식별정보를 태깅하여 전송하도록 할 수 있다. 다른 예로는 사용자가 원하는 식물의 이미지를 모두 획득한 후 식물의 식별정보는 다시 한번 인식함으로써 해당 식물의 이미지 획득 프로세스가 종료되었음을 확인시켜줄 수 있다. 이 경우, 태깅 어플리케이션(100)은 식물 식별정보 인식, 이미지 획득, 식물 식별정보 재인식의 절차가 진행되면 해당 식물의 이미지 획득이 완료되었음을 인식하고 해당 이미지들에 식물 식별정보를 태깅하여 전송한다. If the user clicks on the icon indicating that the image acquisition is complete, the user can click on the icon to tag the plant identification information to the acquired images after the recognition of the plant identification information. Another example is that once the user acquires all the images of the desired plant, the identification information of the plant is recognized once again to confirm that the image acquisition process of the plant has been completed. In this case, the tagging
한편, 식물의 이미지를 획득하는 프로세스는 아래와 같다. 식물의 식별정보 획득 후 식물의 이미지를 획득하기 위해 카메라(10)가 활성화된다. 만약, 사용자가 화면에 표시된 식물의 크기나 화면 스케일을 조정하면, 조정된 스케일로 카메라(10) 초점을 조절하여 화면을 확대 또는 축소한다. 만약, 사용자가 화면의 일부 영역을 관심영역으로 설정하면, 관심영역정보를 저장한다. 이렇게 저장된 관심영역정보는 이미지 정보에 포함되어 분석서버(2)로 전송된다.On the other hand, the process of acquiring an image of a plant is as follows. After acquiring the identification information of the plant, the
도 15는 분석서버(2)에서 식물의 이미지를 분석하는 프로세스를 설명하기 위한 흐름도이다. 분석서버(2)는 휴대용 스마트기기로부터 식물 이미지 전보를 수신한다(S20). 수신한 정보에서 식별정보를 이용하여 해당 식물을 식별한다(S21).FIG. 15 is a flowchart for explaining a process of analyzing a plant image in the
그리고, 기계학습을 통해 구축한 모델을 이용하여 식물의 이미지를 분석하는데, 식물의 이미지에서 전경과 배경을 분리하고, 전경에서 식물영역 즉, 잎, 줄기, 과실, 가지 등의 영역을 추출한다(S23). Then, the image of the plant is analyzed using the model constructed through the machine learning. The foreground and the background are separated from the image of the plant, and the plant areas such as leaf, stem, fruit, and branch are extracted from the foreground S23).
그리고, 추출한 식물영역인 잎, 줄기, 과실, 가지 등의 영역을 기하학적 변환하고, 기계학습모델을 통해 구축한 모델과 매칭을 수행하여 크기, 면적 및 색상정보를 산출해 낸다(S25).The size, area, and color information are calculated by geometric transformation of the extracted plant areas such as leaf, stem, fruit, and branches, and matching with the model constructed through the machine learning model (S25).
이때, 전술한 바와 같이, 전체 데이터에서 매칭을 수행하지 않고, 식물 이미지에 포함된 정보를 이용하여 매칭 범위를 좁히거나, 식물 식별정보를 통해 알 수 있는 기 저장된 해당 식물의 생육 정보나 식물 분석 정보를 기준으로 이미지를 분석할 수도 있다.At this time, as described above, the matching range may be narrowed by using the information included in the plant image without performing matching in the entire data, or the growing information of the plant or the plant analysis information May be used to analyze the image.
이와 같이, 본 발명에 따르면 태깅 어플리케이션(100)을 휴대용 스마트 기기(1)에 설치하여 식물의 특이사항 등에 관한 이미지를 식별정보를 태깅하여 분석서버(2)로 전송하여 식물의 정확한 표현형정보를 획득할 수 있는 장점이 있다. 또한, 분석서버(2)에서 기계학습을 통해 구축한 모델을 기초로 이미지를 분석함으로써, 식물의 잎, 줄기, 가지 및 과실의 크기나 색상 면적 등을 정확히 분석해 낼 수 있다. As described above, according to the present invention, the tagging
전술한 실시예에서는 생육정보산출부(220)가 분석서버(2)에 마련된 것으로 설명하였으나, 본 발명의 다른 실시예에 따르면 생육정보산출부(220)가 태깅 어플리케이션(100)에 포함되어 구성될 수 있다. 태깅 어플리케이션은 분석서버(2)와 연동하여 식물의 생육정보를 산출하는 기계학습모델부(221)를 계속하여 업데이트 받을 수 있으며, 이미지 획득과 분석을 모두 태깅 어플리케이션에서 수행할 수 있다. Although the growth
여기서, 기계학습모델은 식물의 종류에 따라 DB로 구축된 해당 식물들의 생육데이터를 기계학습한 모델을 적용할 수도 있지만, 본 발명의 분석서버(2)에는 식물의 식별정보별로 식물의 생육시기에 따른 생육정보, 즉, 잎, 줄기, 과실, 가지 등의 크기나 색상정보가 이미 구축되어 있으므로, 해당 식별정보에 대응하는 식물에만 적응된 기계학습모델을 적용할 수도 있다. Here, the machine learning model may be a model in which the growth data of the plants constructed by DB are machine-learned, depending on the kinds of plants. However, in the
이상에서, 본 발명의 실시예를 구성하는 모든 구성 요소들이 하나로 결합하거나 결합하여 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성 요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 그 컴퓨터 프로그램을 구성하는 코드들 및 코드 세그먼트들은 본 발명의 기술 분야의 당업자에 의해 용이하게 추론될 수 있을 것이다. 이러한 컴퓨터 프로그램은 컴퓨터가 읽을 수 있는 저장매체(Computer Readable Media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시예를 구현할 수 있다. 컴퓨터 프로그램의 저장매체로서는 자기 기록매체, 광 기록매체, 캐리어 웨이브 매체 등이 포함될 수 있다.While the present invention has been described in connection with what is presently considered to be the most practical and preferred embodiment, it is to be understood that the invention is not limited to the disclosed embodiments. That is, within the scope of the present invention, all of the components may be selectively coupled to one or more of them. In addition, although all of the components may be implemented as one independent hardware, some or all of the components may be selectively combined to perform a part or all of the functions in one or a plurality of hardware. As shown in FIG. The codes and code segments constituting the computer program may be easily deduced by those skilled in the art. Such a computer program can be stored in a computer-readable storage medium, readable and executed by a computer, thereby realizing an embodiment of the present invention. As the storage medium of the computer program, a magnetic recording medium, an optical recording medium, a carrier wave medium, or the like may be included.
또한, 이상에서 기재된 "포함하다", "구성하다" 또는 "가지다" 등의 용어는, 특별히 반대되는 기재가 없는 한, 해당 구성 요소가 내재할 수 있음을 의미하는 것이므로, 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것으로 해석되어야 한다. 기술적이거나 과학적인 용어를 포함한 모든 용어들은, 다르게 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미가 있다. 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥상의 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Furthermore, the terms "comprises", "comprising", or "having" described above mean that a component can be implanted unless otherwise specifically stated, But should be construed as including other elements. All terms, including technical and scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs, unless otherwise defined. Commonly used terms, such as predefined terms, should be interpreted to be consistent with the contextual meanings of the related art, and are not to be construed as ideal or overly formal, unless expressly defined to the contrary.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The foregoing description is merely illustrative of the technical idea of the present invention, and various changes and modifications may be made by those skilled in the art without departing from the essential characteristics of the present invention. Therefore, the embodiments disclosed in the present invention are intended to illustrate rather than limit the scope of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents should be construed as falling within the scope of the present invention.
1: 휴대용 스마트 기기 2: 분석서버
10: 카메라 20: 메모리부
30: 어플리케이션제어부 40: 디스플레이부
41: 사용자 인터페이스 화면 50: 통신부
100: 태깅 어플리케이션 110: 식별정보인식부
120: 이미지획득부 121: 스케일설정부
122: 스케일조정부 123: 정보저장부
124: 관심영역설정부 125: 태깅부
140: 전송부 150: 사용자입력부
210: 식물데이터베이스부 211: 잎DB
213: 가지DB 215: 줄기DB
217: 과실DB 220: 생육정보산출부
221: 기계학습모델부1: Portable Smart Device 2: Analysis Server
10: camera 20: memory unit
30: Application control section 40:
41: user interface screen 50:
100: tagging application 110: identification information recognition unit
120: Image acquiring unit 121: Scale setting unit
122: scale adjustment unit 123: information storage unit
124: ROI setting unit 125:
140: Transmission unit 150: User input unit
210: Plant Database Division 211: Leaf DB
213: Branch DB 215: Stem DB
217: Fruit DB 220: Growth information calculating section
221: Machine learning model part
Claims (13)
식물 이미지에 식물 식별 정보를 태깅하기 위한 태깅 어플리케이션이 저장된 메모리부;
상기 태깅 어플리케이션을 실행시키는 어플리케이션제어부;
상기 태깅 어플리케이션의 실행에 따른 사용자 인터페이스 화면을 디스플레이하는 디스플레이부; 및
외부와의 통신을 위한 통신부를 포함하며;
상기 태깅 어플리케이션은 상기 식물의 식별정보를 인식하는 식별정보인식부, 상기 카메라를 활성화시켜 식물의 이미지를 획득하는 이미지획득부, 상기 식물의 식별정보를 상기 식물의 이미지 정보에 태깅하는 태깅부, 및 상기 식별정보가 태깅된 상기 식물의 이미지 정보를 분석서버로 전송하는 전송부를 포함하는, 휴대용 스마트 기기.
A camera for acquiring an image;
A memory unit storing a tagging application for tagging plant identification information on a plant image;
An application control unit for executing the tagging application;
A display unit for displaying a user interface screen according to execution of the tagging application; And
And a communication unit for communication with the outside;
The tagging application includes an identification information recognizing unit for recognizing the identification information of the plant, an image acquiring unit for acquiring an image of the plant by activating the camera, a tagging unit for tagging the identification information of the plant to image information of the plant, And a transmitting unit for transmitting image information of the plant tagged with the identification information to an analysis server.
상기 이미지획득부는 상기 식물의 관심영역을 입력 또는 선택할 수 있는 관심영역설정부; 및
상기 식물의 이미지 획득 시 상기 식물의 관심영역에 관한 정보를 상기 식물의 이미지 정보에 포함시켜 저장하는 정보저장부를 더 포함하는 것을 특징으로 하는 휴대용 스마트 기기.
The method according to claim 1,
Wherein the image obtaining unit comprises: a region of interest setting unit that can input or select a region of interest of the plant; And
Further comprising an information storage unit for storing information about a region of interest of the plant in the image information of the plant upon image acquisition of the plant.
식별정보인식부는 RFID, QR코드, 및 바코드 방식 중 적어도 어느 하나의 인식수단을 포함하는 것을 특징으로 하는 휴대용 스마트 기기.
The method according to claim 1,
Wherein the identification information recognizing unit includes at least one of RFID, QR code, and bar code recognition unit.
상기 태깅 어플리케이션은 상기 식물의 특이사항을 사용자로부터 입력받기 위한 사용자입력부를 더 포함하는 것을 특징으로 하는 휴대용 스마트 기기.
The method according to claim 1,
Wherein the tagging application further comprises a user input unit for receiving a specific item of the plant from the user.
상기 태깅 어플리케이션은 상기 식물의 식별정보를 상기 분석서버로 전송하여 상기 식물에 관한 개체정보를 요청하는 정보요청부, 및 상기 분석서버로부터 전송된 상기 식물에 관한 개체정보를 항목별로 표시하는 정보표시부를 더 포함하고,
상기 식물에 관한 개체정보는 식물의 유전자정보, 식물의 2D 또는 3D 영상정보, 상기 식물의 재배환경정보, 상기 식물의 생장정보, 및 상기 식물의 표현형정보 중 적어도 하나를 포함하는 것을 특징으로 하는 휴대용 스마트 기기.
5. The method according to any one of claims 1 to 4,
The tagging application includes an information requesting unit for transmitting identification information of the plant to the analysis server and requesting individual information about the plant, and an information display unit for displaying item information on the plant sent from the analysis server Further included,
Wherein the individual information on the plant includes at least one of genetic information of the plant, 2D or 3D image information of the plant, cultivation environment information of the plant, growth information of the plant, and phenotype information of the plant. Smart devices.
상기 태깅 어플리케이션은 상기 이미지획득부를 통해 획득한 식물의 이미지를 기계학습모델을 이용하여 분석하여 식물의 생육 특성 정보를 산출하는 생육정보산출부를 더 포함하고,
상기 정보저장부는 산출한 식물의 생육 특성 정보를 상기 식물의 이미지 정보에 포함시켜 저장하는 것을 특징으로 하는 휴대용 스마트 기기.
5. The method according to any one of claims 1 to 4,
The tagging application further includes a growth information calculation unit for calculating a growth characteristic information of the plant by analyzing the image of the plant acquired through the image acquisition unit using a machine learning model,
Wherein the information storage unit stores the calculated growth characteristics information of the plant in the image information of the plant.
상기 식물의 생육 특성 정보는 식물의 잎, 줄기, 가지 또는 과실의 크기, 면적, 색상 정보를 포함하는 것을 특징으로 하는 휴대용 스마트 기기.
The method according to claim 6,
Wherein the growth characteristics information of the plant includes the size, area, and color information of a leaf, a stem, a branch or a fruit of the plant.
상기 휴대용 스마트 기기로부터 전송된 식물의 이미지를 기계학습을 통해 구축한 기계학습모델부를 이용하여 분석함으로써, 상기 식물의 생육 특성 정보를 산출하는 생육정보산출부를 포함하는 상기 분석서버를 포함하는 식물의 생육정보 분석시스템.
A portable smart device that recognizes identification information of a plant using identification information recognition means, acquires an image of the plant, and transmits the image of the plant together with the identification information to an analysis server; And
And a growth information calculation unit for calculating the growth characteristics information of the plant by analyzing the image of the plant transmitted from the portable smart device using a machine learning model unit constructed through machine learning, Information analysis system.
상기 생육정보산출부는 기계학습을 통해 구축한 모델을 이용하여 식물의 이미지에서 잎, 줄기, 과실, 또는 가지의 영역을 추출하고, 기준이 되는 모델과 매칭을 수행하여 식물의 잎, 줄기, 가지 또는 과실의 크기, 면적, 색상 정보를 산출하는 것을 특징으로 하는 식물의 생육정보 분석시스템.
9. The method of claim 8,
The growth information calculating unit extracts leaf, stem, fruit, or branch area from the image of the plant using the model constructed through machine learning, and performs matching with the reference model to determine the leaf, stem, And the size, area, and color information of the fruit are calculated.
상기 태깅 어플리케이션을 스마트 기기에서 실행시키는 단계;
식별정보인식수단을 이용하여 식물의 식별정보를 인식하는 단계;
상기 스마트 기기의 카메라를 이용하여 상기 식물의 이미지를 획득하는 단계;
상기 식물의 식별정보를 상기 식물의 이미지 정보에 태깅하는 단계; 및
상기 식물의 이미지를 기계학습모델을 통해 분석하여 식물의 생육 특성 정보를 산출하는 단계를 포함하는 것을 특징으로 하는 식물 식별 정보를 태깅 및 분석하는 방법.
A method for tagging and analyzing plant identification information using a tagging application,
Executing the tagging application on a smart device;
Recognizing the identification information of the plant using the identification information recognition means;
Obtaining an image of the plant using a camera of the smart device;
Tagging the identification information of the plant to the image information of the plant; And
And analyzing the image of the plant through a machine learning model to calculate the growth characteristics information of the plant.
상기 생육 특성 정보를 산출하는 단계는,
기계학습을 통해 구축한 모델을 이용하여 식물의 이미지에서 잎, 줄기, 과실, 또는 가지의 영역을 추출하는 단계; 및
기준이 되는 모델과 매칭을 수행하여 식물의 잎, 줄기, 가지 또는 과실의 크기, 면적, 색상 정보를 산출하는 단계를 포함하는 것을 특징으로 식물 식별 정보를 태깅 및 분석하는 방법.
11. The method of claim 10,
The step of calculating the growth characteristics information comprises:
Extracting leaf, stem, fruit, or branch regions from the plant image using a model constructed through machine learning; And
And calculating the size, area, and color information of leaves, stems, branches or fruits of the plant by performing matching with the reference model.
상기 식물의 이미지를 획득하는 단계는, 상기 식물의 관심영역을 입력 또는 선택 받는 단계, 및 상기 식물의 이미지 획득 시 상기 식물의 관심영역에 관한 정보를 상기 식물의 이미지 정보에 포함시켜 저장하는 단계를 더 포함하는 것을 특징으로 하는 식물 식별 정보를 태깅 및 분석하는 방법.
12. The method of claim 11,
The step of acquiring an image of the plant may include the steps of inputting or selecting a region of interest of the plant, and storing information about a region of interest of the plant in the image information of the plant when the image of the plant is acquired The method comprising the steps of:
상기 식물의 식별정보를 상기 분석서버로 전송하여 상기 식물에 관한 개체정보를 요청하는 단계; 및
상기 분석서버로부터 전송된 상기 식물에 관한 개체정보를 항목별로 표시하는 단계를 더 포함하고;
상기 식물에 관한 개체정보는 식물의 유전자정보, 식물의 2D 또는 3D 영상정보, 상기 식물의 재배환경정보, 상기 식물의 생장정보, 및 상기 식물의 표현형정보 중 적어도 하나를 포함하는 것을 특징으로 하는 식물 식별 정보를 태깅 및 분석하는 방법.11. The method of claim 10,
Transmitting identification information of the plant to the analysis server to request individual information about the plant; And
Further comprising the step of displaying entity information on the plant transmitted from the analysis server by item;
Wherein the individual information on the plant includes at least one of genetic information of the plant, 2D or 3D image information of the plant, cultivation environment information of the plant, growth information of the plant, and phenotype information of the plant. How to tag and analyze identification information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170010634A KR20180086776A (en) | 2017-01-23 | 2017-01-23 | Method Tagging Images with Plant Identifier Using a Tagging Application, Mobile Smart Device Comprising The Same, And Plant Growth Information Analysis System |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170010634A KR20180086776A (en) | 2017-01-23 | 2017-01-23 | Method Tagging Images with Plant Identifier Using a Tagging Application, Mobile Smart Device Comprising The Same, And Plant Growth Information Analysis System |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20180086776A true KR20180086776A (en) | 2018-08-01 |
Family
ID=63227899
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170010634A KR20180086776A (en) | 2017-01-23 | 2017-01-23 | Method Tagging Images with Plant Identifier Using a Tagging Application, Mobile Smart Device Comprising The Same, And Plant Growth Information Analysis System |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20180086776A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110807445A (en) * | 2019-12-15 | 2020-02-18 | 怀化学院 | Intelligent mobile monitoring instrument and monitoring method thereof |
KR102167494B1 (en) * | 2020-03-26 | 2020-10-19 | 주식회사 엔플라스틱 | Method for providing cloud platform based organization solution using qr code and storage box |
CN113486892A (en) * | 2021-07-02 | 2021-10-08 | 东北大学 | Production information acquisition method and system based on smartphone image recognition |
KR102321137B1 (en) | 2021-03-29 | 2021-11-03 | 서봉주 | System and method for collecting/providing data on optimal growth conditions of organisms |
-
2017
- 2017-01-23 KR KR1020170010634A patent/KR20180086776A/en unknown
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110807445A (en) * | 2019-12-15 | 2020-02-18 | 怀化学院 | Intelligent mobile monitoring instrument and monitoring method thereof |
KR102167494B1 (en) * | 2020-03-26 | 2020-10-19 | 주식회사 엔플라스틱 | Method for providing cloud platform based organization solution using qr code and storage box |
KR102321137B1 (en) | 2021-03-29 | 2021-11-03 | 서봉주 | System and method for collecting/providing data on optimal growth conditions of organisms |
CN113486892A (en) * | 2021-07-02 | 2021-10-08 | 东北大学 | Production information acquisition method and system based on smartphone image recognition |
CN113486892B (en) * | 2021-07-02 | 2023-11-28 | 东北大学 | Production information acquisition method and system based on smart phone image recognition |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20200264759A1 (en) | Horticultural care tracking, validation and verification | |
US11145130B2 (en) | Method for automatically capturing data from non-networked production equipment | |
Minervini et al. | Image analysis: the new bottleneck in plant phenotyping [applications corner] | |
CN109690570B (en) | Computer room management method and dynamic loop system | |
CN108010008B (en) | Target tracking method and device and electronic equipment | |
US10337962B2 (en) | Visible audiovisual annotation of infrared images using a separate wireless mobile device | |
US20200167712A1 (en) | Method for augmenting procedures of a locked, regulated document | |
KR20180086776A (en) | Method Tagging Images with Plant Identifier Using a Tagging Application, Mobile Smart Device Comprising The Same, And Plant Growth Information Analysis System | |
US20140168412A1 (en) | Methods and systems for automated micro farming | |
WO2018198319A1 (en) | Wearable terminal display system, wearable terminal display method and program | |
US20180308229A1 (en) | Method and information system for detecting at least one plant planted on a field | |
CA3038966A1 (en) | Horticultural care tracking, validation and verification | |
US11900549B2 (en) | Method for automatically capturing data from non-networked production equipment | |
JP2013196458A (en) | Image search system, image search device, image search method and program | |
CN109558913A (en) | A kind of crop disease and insect monitoring system based on radar | |
CN104123516A (en) | Gold label card detection method and reader based cloud computation network platform | |
CN108038473A (en) | Method and apparatus for output information | |
KR102532651B1 (en) | Greenhouse crop management system | |
EP3931789A1 (en) | Automated mobile field scouting sensor data and image classification devices | |
JP2020109610A (en) | Plant classification system using deep running and method therefor | |
KR102485816B1 (en) | Crop growth analysis system using image collection device | |
US11308051B1 (en) | Touchless harvesting system and method | |
EP3973767B1 (en) | Information processing device and index value calculation method | |
KR20220022961A (en) | Advanced crop diagnosing system | |
US20220051154A1 (en) | Method and apparatus for measuring plant trichomes |