KR20160049569A - System and method for providing plant information using smart device - Google Patents

System and method for providing plant information using smart device Download PDF

Info

Publication number
KR20160049569A
KR20160049569A KR1020140145769A KR20140145769A KR20160049569A KR 20160049569 A KR20160049569 A KR 20160049569A KR 1020140145769 A KR1020140145769 A KR 1020140145769A KR 20140145769 A KR20140145769 A KR 20140145769A KR 20160049569 A KR20160049569 A KR 20160049569A
Authority
KR
South Korea
Prior art keywords
plant
smart device
information
target
photographed
Prior art date
Application number
KR1020140145769A
Other languages
Korean (ko)
Other versions
KR101673558B1 (en
Inventor
이건명
홍성덕
최성룡
Original Assignee
충북대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 충북대학교 산학협력단 filed Critical 충북대학교 산학협력단
Priority to KR1020140145769A priority Critical patent/KR101673558B1/en
Publication of KR20160049569A publication Critical patent/KR20160049569A/en
Application granted granted Critical
Publication of KR101673558B1 publication Critical patent/KR101673558B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/432Query formulation
    • G06F16/434Query formulation using image data, e.g. images, photos, pictures taken by a user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

The present invention relates to a system and a method for providing plant information using a smart device, which includes: a smart device for providing photographing guide information regarding a target plant, determining whether the target plant exists in a photographed image, and requesting for the plant information of the target plant by using the photographed image; and a server for extracting the plant information of the target plant, with respect to the photographed image transmitted from the smart device, from a plant information database through a plant extract algorithm to transmit the plant information to the smart device. According to the present invention, an accurate image with respect to a corresponding plant is obtained by photographing with the smart device depending on the photographing guide, more accurate image is secured by performing a target determination which primarily determines whether the corresponding plant exists based on the image photographed by the smart device, and accurate plant information is provided by analyzing the corresponding plant through the plant extract algorithm at the server.

Description

스마트기기를 이용한 식물정보 제공 시스템 및 방법{SYSTEM AND METHOD FOR PROVIDING PLANT INFORMATION USING SMART DEVICE}TECHNICAL FIELD [0001] The present invention relates to a system and a method for providing plant information using a smart device,

본 발명은 스마트기기를 이용한 식물정보 제공 시스템 및 방법에 관한 것으로, 더욱 상세하게는 스마트기기에서의 촬영 가이드 및 촬영 대상 판별과, 서버에서의 식물 분석을 통해 정확한 식물정보를 제공할 수 있도록 하는 스마트기기를 이용한 식물정보 제공 시스템 및 방법에 관한 것이다.
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a system and a method for providing plant information using a smart device, and more particularly, to a system and method for providing plant information using a smart device, And more particularly, to a system and method for providing plant information using a device.

기존에도 스마트기기를 이용하여 식물정보를 제공하는 방안들이 많이 제안된 바 있다.There have been many proposals for providing plant information using smart devices.

하나의 방안으로서, 스마트기기와 서버간 통신을 통해 식물정보 요청 및 다운로드를 통해 식물정보를 확인하는 기법이 있다. 그런데, 이 기법은 다운로드된 방대한 자료를 직접 검색하여야 하므로 번거로운 단점이 있다.As one method, there is a technique of confirming plant information by requesting and downloading plant information through communication between a smart device and a server. However, this technique has a disadvantage in that it requires a large amount of downloaded data to be directly retrieved.

이에 이러한 단점을 보완하기 위해, 또한 다른 방안으로서, 스마트기기에서 식물을 촬영한 후, 식물 영상을 서버로 전송하여 검색이 이루어지도록 하고, 서버로부터 식물정보를 다운로드하여 출력하는 기법이 있다. 그런데, 이 기법은 스마트기기에서 단순히 근접 촬영만 수행하여 서버로 전송하므로, 즉 촬영 가이드가 설정되지 않음에 따라 서버에서 해당 식물을 분석하는데 오류가 많이 발생하는 문제점이 있다.
In order to compensate for these drawbacks, another method is to transmit a plant image to a server after the plant is photographed in a smart device, to retrieve the plant image, and to download and output plant information from the server. However, since this technique is performed only on close-up photographing in a smart device and transmitted to the server, that is, since the photographing guide is not set, there is a problem that errors occur in analyzing the plant in the server.

대한민국 공개특허공보 제10-2011-0127473(공개일 2011.11.25.)Korean Patent Publication No. 10-2011-0127473 (published on November 25, 2011)

[1] "Interactive Graph Cuts for Optimal Boundary & Region Segmentation of Objects in N-D Images" ECSE-626: Statistical Computer Vision (ICCV 2001)[1] "Interactive Graph Cuts for Optimal Boundary and Region Segmentation of Objects in N-D Images" ECSE-626: Statistical Computer Vision (ICCV 2001) [2] "A Method for Regional Feature Extraction of Flower Images," International Conference on ICIP-2010:Yong Pei, and Weiqun Cao (2010)[2] "A Method for Regional Feature Extraction of Flower Images," International Conference on ICIP-2010: Yong Pei, and Weiqun Cao (2010) [3] "Tutorial: Image Segmentation", Graduate Institute of Communication Engineering National Taiwan University, Taipei, Taiwan, ROC : Yu-Hsiang Wang[3] "Tutorial: Image Segmentation", Graduate Institute of Communication Engineering National Taiwan University, Taipei, Taiwan, ROC: Yu-Hsiang Wang

따라서, 본 발명은 상기한 종래 기술의 문제점을 해결하기 위해 이루어진 것으로서, 본 발명의 목적은 스마트기기에서 촬영 가이드를 통한 촬영이 이루어지도록 함과 아울러 촬영 영상에서 대상 판별을 수행한 후 촬영 영상을 서버로 전송하고, 서버에서 식물 추출 알고리즘을 통해 정확한 식물정보 제공이 가능하도록 하는 스마트기기를 이용한 식물정보 제공 시스템 및 방법을 제공하는데 있다.
SUMMARY OF THE INVENTION The present invention has been made in order to solve the problems of the prior art described above. Accordingly, it is an object of the present invention to provide a smart device that enables shooting through a photographing guide, And to provide plant information providing system and method using a smart device that enables accurate plant information to be provided through a plant extracting algorithm in a server.

상기와 같은 목적을 달성하기 위한 본 발명의 스마트기기를 이용한 식물정보 제공 시스템은, 대상 식물에 대한 촬영 가이드 정보를 제공하며, 촬영 영상에서의 상기 대상 식물의 존재 여부를 판별하고, 상기 촬영 영상을 이용하여 상기 대상 식물의 식물정보를 요청하는 스마트기기; 및 상기 스마트기기로부터 전송된 상기 촬영 영상에 대해 식물 추출 알고리즘을 통해 상기 대상 식물의 식물정보를 식물정보 데이터베이스로부터 추출하여 상기 스마트기기로 전송하는 서버를 포함하는 것을 특징으로 한다.According to another aspect of the present invention, there is provided a system for providing plant information using a smart device, the system comprising: providing photographing guide information about a target plant; determining whether the target plant exists in the photographed image; A smart device for requesting plant information of the plant; And a server for extracting the plant information of the target plant from the plant information database through the plant extraction algorithm for the photographed image transmitted from the smart device and transmitting the plant information to the smart device.

이 때, 상기 스마트기기는, 상기 촬영 가이드에서 선택한 식물의 분류체계에 맞게 촬영되었는지 확인하기 위해, 식물에 대한 기계학습을 시켜 구현된 판별기를 포함하는 것이 바람직하다.In this case, the smart device preferably includes a discriminator implemented by performing machine learning on the plant to confirm whether the smart device is photographed according to the classification system of the plant selected in the photographing guide.

또한, 상기 서버는, 상기 식물 추출 알고리즘을 통해 해당 식물을 분석하여 특징을 추출하고, 추출된 식물정보를 대조하는 식물정보 데이터베이스를 포함하는 것이 바람직하다.
In addition, the server preferably includes a plant information database for analyzing the plant, extracting features, and comparing the extracted plant information through the plant extraction algorithm.

한편, 본 발명의 스마트기기를 이용한 식물정보 제공 방법은, (a) 스마트기기에서, 촬영하고자 하는 대상 식물에 대한 속성을 선택할 수 있도록 촬영 가이드를 제공하는 단계; (b) 상기 스마트기기에서, 상기 대상 식물의 촬영에 대응하여 상기 촬영 가이드를 통해 선택한 상기 대상 식물의 분류체계에 맞게 촬영되었는지 확인하는 단계; 및 (c) 서버에서, 크롭(CROP) 알고리즘을 이용하여 상기 대상 식물과 배경을 분리하고, 식물정보 데이터베이스에서 검색을 수행하는 단계를 포함하는 것을 특징으로 한다.Meanwhile, a plant information providing method using a smart device of the present invention includes the steps of: (a) providing a photographing guide in a smart device so that an attribute of a target plant to be photographed can be selected; (b) checking whether the smart device is photographed in accordance with the classification scheme of the target plant selected through the photographing guide in response to the photographing of the target plant; And (c) separating the target plant and the background using a CROP algorithm in the server, and performing a search in the plant information database.

상기 단계 (a)에서 촬영 가이드는 상기 대상 식물의 촬영 프레임을 제공하는 것이 바람직하다.In the step (a), the photographing guide preferably provides a photographing frame of the target plant.

상기 단계 (b)는 식물에 대한 기계학습을 시켜 구현된 판별기를 통해 이루어지는 것이 바람직하다.The step (b) is preferably performed through a discriminator realized by performing machine learning on a plant.

상기 크롭 알고리즘은, 중심 영역과 모서리 영역의 색상차를 구분하여, 배경에 해당하는 부분을 검은색으로 채우는 방법과, 상기 스마트기기에서의 촬영 프레임의 크기에 맞추어 잘라내는 방법을 선택적으로 사용할 수 있다.
The crop algorithm can selectively use a method of dividing the color difference between the center area and the edge area, filling a part corresponding to the background with black, and a method of cutting the image according to the size of the shooting frame in the smart device .

상술한 바와 같이, 본 발명에 의한 스마트기기를 이용한 식물정보 제공 시스템 및 방법에 따르면, 스마트기기에서 촬영 가이드에 따른 촬영이 이루어짐으로써 해당 식물에 대한 정확한 영상을 획득할 수 있다.As described above, according to the plant information providing system and method using the smart device according to the present invention, it is possible to acquire an accurate image of the plant by photographing in accordance with the photographing guide in the smart device.

또한, 본 발명에 따르면, 스마트기기에서 촬영된 영상으로부터 1차적으로 해당 식물의 존재 여부를 판별하는 대상 판별을 수행함으로써 더욱 정확한 영상을 확보할 수 있다.In addition, according to the present invention, a more accurate image can be obtained by performing object discrimination for discriminating the presence or absence of the plant from the image photographed by the smart device.

그리고, 본 발명에 따르면, 서버에서 식물 추출 알고리즘을 통해 해당 식물을 분석함으로써 정확한 식물정보를 제공할 수 있다.
According to the present invention, accurate plant information can be provided by analyzing the plant through the plant extraction algorithm in the server.

도 1은 본 발명의 일 실시예에 따른 스마트기기를 이용한 식물정보 제공 시스템의 운영개념도이다.
도 2는 본 발명의 일 실시예에 따른 스마트기기를 이용한 식물정보 제공 시스템의 구성도이다.
도 3은 본 발명의 일 실시예에 따른 스마트기기를 이용한 식물정보 제공 방법의 흐름도이다.
도 4는 본 발명의 일 실시예에 따른 대상 판별 과정을 나타낸 흐름도이다.
도 5는 본 발명의 일 실시예에 따른 식물 추출 알고리즘의 흐름도이다.
1 is a conceptual diagram illustrating an operation of a plant information providing system using a smart device according to an embodiment of the present invention.
2 is a configuration diagram of a plant information providing system using a smart device according to an embodiment of the present invention.
3 is a flowchart of a plant information providing method using a smart device according to an embodiment of the present invention.
4 is a flowchart illustrating an object determination process according to an exemplary embodiment of the present invention.
5 is a flowchart of a plant extraction algorithm according to an embodiment of the present invention.

이하, 본 발명의 스마트기기를 이용한 식물정보 제공 시스템 및 방법에 대하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.Hereinafter, a plant information providing system and method using the smart device of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 스마트기기를 이용한 식물정보 제공 시스템의 운영개념도이다.1 is a conceptual diagram illustrating an operation of a plant information providing system using a smart device according to an embodiment of the present invention.

도 1을 참조하면, 먼저, 촬영하고자 하는 대상 식물에 대한 속성(예를 들어, 꽃 모양, 꽃잎 수)을 확인한 후, 속성 조건 입력 또는 검색에 대응하여 해당 속성에 대응하는 촬영 가이드를 스마트기기에 출력한다. 이에 사용자가 촬영 가이드를 확인하고, 대상 식물을 촬영한다. 이에 스마트기기에서는 촬영 영상에 대상 식물이 존재하는지 판별(대상 판별)한다. 이 때, 대상 판별은, 스마트기기에서의 자체적인 분석을 통해 이루어질 수도 있고, 촬영 영상을 서버로 전송하여 분석 결과를 응답받을 수도 있을 것이다. 한편, 대상 판별시, 스마트기기 자체적으로 분석한 결과, 분석 결과를 얻을 수 없으면 서버를 통해 분석 결과를 응답받는 것도 바람직할 것이다. 여기서, 대상 판별은 촬영된 영상에서의 식물 존재 여부를 판별하는 것뿐만 아니라, 식물의 대한 상세정보인 식물정보를 추출하는 것을 포함할 수 있다.Referring to FIG. 1, first, a photographing guide corresponding to a property to be photographed (for example, a flower shape, a number of petals) is input to a smart device Output. The user confirms the photographing guide and photographs the target plant. In the smart device, it is determined whether the target plant exists in the photographed image (object discrimination). At this time, the object discrimination may be performed through its own analysis in the smart device, or the captured image may be transmitted to the server to receive the analysis result. On the other hand, if it is not possible to obtain the analysis results as a result of analyzing the smart device itself at the time of object discrimination, it is also preferable to receive the analysis result through the server. Here, the object discrimination may include not only determining the presence or absence of a plant in the photographed image, but also extracting plant information as detailed information on the plant.

이어서, 대상 판별이 완료되면, 촬영 영상은 서버로 전송되고, 이에 서버에서는 식물 추출 알고리즘을 통해 해당 식물을 분석하여 특징을 추출하고, 추출된 식물정보를 식물정보 데이터베이스에 대조하여 식물정보를 스마트기기로 제공한다.Then, when the object discrimination is completed, the photographed image is transmitted to the server. In the server, the plant is analyzed by the plant extracting algorithm to extract the features, the extracted plant information is compared with the plant information database, .

이와 같이, 본 발명은 촬영 가이드, 대상 판별, 식물 추출 알고리즘을 통해 오차를 최소화하여 보다 높은 인식률로 더 정확한 식물정보를 제공한다.
As described above, the present invention minimizes the error through the photographing guide, object discrimination, and plant extraction algorithm, and provides more accurate plant information with higher recognition rate.

도 2는 본 발명의 일 실시예에 따른 스마트기기를 이용한 식물정보 제공 시스템의 구성도이다.2 is a configuration diagram of a plant information providing system using a smart device according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 스마트기기를 이용한 식물정보 제공 시스템은, UI(User Interface, 11)를 통해 대상 식물에 대한 촬영 가이드 정보를 제공하며, 카메라(12)를 통한 촬영 영상에서의 대상 식물의 존재 여부를 판별하고, 통신부(13)를 통해 촬영 영상을 이용하여 대상 식물의 식물정보를 요청하는 스마트기기(1)와, 통신부(21)를 통해 스마트기기(1)로부터 전송된 촬영 영상을 수신하여 영상 분석부(22)에서의 식물 추출 알고리즘의 실행을 통해 대상 식물의 식물정보를 식물정보 데이터베이스(23)로부터 추출하여 스마트기기(1)로 전송하는 서버(2)를 포함한다.Referring to FIG. 2, the plant information providing system using the smart device of the present invention provides photographing guide information on a target plant through a UI (User Interface) 11, A smart device 1 for discriminating the presence or absence of a plant and requesting plant information of the target plant by using the photographed image through the communication unit 13 and a photographed image transmitted from the smart device 1 via the communication unit 21. [ And a server 2 for extracting the plant information of the target plant from the plant information database 23 through execution of the plant extraction algorithm in the image analysis unit 22 and transmitting the plant information to the smart device 1.

여기서, 스마트기기(1)는 촬영 가이드를 제공함에 있어, 예를 들어 꽃의 모양은 "국가 생물 종 지식 정보 시스템"에 등록되어 있는 꽃 모양에 대한 분류 체계를 기반으로 5가지로 압축하여 제공하며, 꽃잎 수는 10개 이하에 대해 사용자의 입력을 받으며, 그 이상일 경우에는 "알 수 없음"등으로 제공한다. 그리고, 촬영시 원모양의 촬영 프레임을 제공하여 일정한 크기의 꽃 모양을 얻을 수 있도록 하는 것이 바람직하다.Here, in providing the photographing guide, for example, the smart device 1 compresses the flower shape into five types based on the classification system for the flower shape registered in the "National Biology Information System" , The number of petals receives user input for less than 10, and if it is more than that, it is provided as "unknown". Further, it is preferable to provide a photographing frame of a circular shape at the time of photographing so as to obtain a flower shape of a certain size.

또한, 스마트기기(1)는 OPenCV에서 제공하는 기계 학습프로그램을 이용하여 식물에 대한 기계학습을 시켜 구현된 판별기를 통해 촬영 가이드에서 선택한 식물(예를 들어, 꽃)의 분류체계에 맞게 촬영되었는지 확인한 후, 영상 가공부(14)를 통해 가공된 영상을 출력하는 것이 바람직하다.In addition, the smart device 1 confirms whether it is photographed according to the classification system of the plant (for example, flower) selected in the photographing guide through the discriminator implemented by machine learning on the plant using the machine learning program provided by OPenCV It is preferable to output the processed image through the video processing section 14. [

여기서, 판별기가 꽃에 대해 학습이 이루어지는 과정에 대해 간략하게 설명한다.Here, the process in which the discriminator learns flowers is briefly described.

꽃의 촬영 영상에 대해 적외선센서를 이용하여 촬영 영상 전체를 스캐닝하고, 스캐닝을 통해 센서데이터를 획득한다. 촬영 가이드에서 제공하는 촬영 프레임을 설정갯수의 단위셀로 분할한다. 분할된 각각의 단위셀 내에서 측정된 센서데이터를 이용하여 각 단위셀을 대표하는 대표값을 산출한다. 산출된 각 단위셀별 대표값을 인자로 하는 꽃의 특징벡터를 추출한다. 특징벡터가 추출되면 추출된 특징벡터 인자들을 비교하여 꽃의 종류를 학습하게 되는데, 특징벡터의 인자가 너무 많을 경우 꽃의 종류를 구별하기 어려우므로, 특징벡터의 차원을 감소시키는 과정을 진행하는 것이 바람직하다. 이는 특징벡터의 불필요한 부분을 제거하여 연산대상을 줄이고, 진위 판별에 있어 중요한 대표 특징벡터만을 추출하기 위함이다. 이에, 선형특징추출법을 적용하여 추출된 특징벡터의 차원을 감소시키고, 꽃의 특징을 대표하는 소정의 대표 특징벡터만을 선별하는 것이 바람직하다.
The photographed image of the flower is scanned over the whole photographed image by using an infrared sensor, and the sensor data is obtained by scanning. The photographing frame provided by the photographing guide is divided into a set number of unit cells. A representative value representative of each unit cell is calculated using sensor data measured in each divided unit cell. And extracts a feature vector of a flower having a representative value for each calculated unit cell as a factor. When the feature vector is extracted, the extracted feature vector factors are compared to learn the type of the flower. If the factor of the feature vector is too large, it is difficult to distinguish the type of the flower. Therefore, desirable. This is to reduce unnecessary parts of the feature vector to reduce the object to be computed and to extract only the representative feature vectors that are important in authenticity discrimination. Accordingly, it is preferable to reduce the dimension of the extracted feature vector by applying the linear feature extraction method, and to select only a representative representative feature vector representing the feature of the flower.

그리고, 서버(2)는 스마트기기(1)에서 수신된 촬영 영상을 비교할 수 있도록 영상 분석부(22)에서의 식물 추출 알고리즘을 통해 식물의 일부분(예를 들어, 꽃 부분)을 크롭(CROP)후 HSV 색상값을 추출한다. 여기서, 식물 추출 알고리즘은 두 가지 CROP 알고리즘을 이용하는데, 먼저 중심 영역과 모서리 영역의 색상차를 구분하여, 배경에 해당하는 부분을 검은색으로 채우는 방법을 우선적으로 사용하고, 이 CROP 과정에서 문제가 발생할 경우 스마트기기(1)에서 촬영된 촬영 프레임의 크기에 맞추어 잘라내는 방법을 사용한다. 그 후 꽃 잎 부분과 꽃 중심부분의 색상을 평균 내어 HSV 색상값을 추출한다. 한편, 서버(2)에서 HSV 색상값의 추출이 이루어지지 않을 경우에는 후보리스트를 제공할 수도 있다. 여기서, HSV(Hue Saturation Value)는 RGB(Red, Green, Blue)처럼 색상(Hue), 채도(Saturation), 명도(Value)로 색을 지정하는 방법을 의미한다. The server 2 crops a part of the plant (for example, flower part) through a plant extraction algorithm in the image analysis part 22 so that the captured image received from the smart device 1 can be compared. And then extracts HSV color values. Here, the plant extraction algorithm uses two CROP algorithms. First, the method of dividing the color difference between the center area and the corner area and filling the background part with black color is preferentially used. In this CROP process, A method of cutting out the image according to the size of the photographing frame photographed by the smart device 1 is used. Then, HSV color value is extracted by averaging the color of the flower leaf part and flower center part. On the other hand, if the HSV color value is not extracted from the server 2, the candidate list may be provided. Here, HSV (Hue Saturation Value) means a method of assigning a color to a hue, a saturation, and a brightness as RGB (Red, Green, Blue).

한편, 영상 분석 대상이 꽃일 경우에는, 꽃은 색계통에 따라 HSV 공간 상에 특정 위치에 분포하게 되는데, 영상 분석부(22)에서는 HSV 좌표계 중에서 Hue 정보를 알 수 있는 색공간만을 이용하여 꽃의 색을 구분할 수 있다.
If the image analysis target is a flower, the flower is distributed at a specific position in the HSV space according to the color system. In the image analysis unit 22, The color can be distinguished.

그러면, 여기서 상기와 같이 구성된 시스템을 이용한 본 발명의 스마트기기를 이용한 식물정보 제공 방법에 대해 설명하기로 한다.Hereinafter, a plant information providing method using the smart device of the present invention using the system configured as described above will be described.

도 3은 본 발명의 일 실시예에 따른 스마트기기를 이용한 식물정보 제공 방법의 흐름도이다.3 is a flowchart of a plant information providing method using a smart device according to an embodiment of the present invention.

S(Step)1 : 사용자가 촬영하고자 하는 대상 식물에 대한 속성(예를 들어, 꽃 모양, 꽃잎 수)을 촬영 가이드를 통해 선택한다. 이 때, 속성을 선택함에 있어, 예를 들어 꽃의 모양은 "국가 생물 종 지식 정보 시스템"에 등록되어 있는 꽃 모양에 대한 분류 체계를 기반으로 5가지로 압축하여 제공하며, 꽃잎 수는 10개 이하에 대해 사용자의 입력을 받으며, 그 이상일 경우에는 "알 수 없음"등으로 제공한다.S (Step) 1: The user selects an attribute (for example, flower shape, number of petals) for the target plant to be photographed through the photographing guide. In choosing attributes, for example, the shape of flowers is provided in five types based on the classification system for flower shapes registered in the "National Biology Information System", and the number of petals is 10 And receives the user input for the following, and if it is more than that, it is provided as "unknown ".

S2 : 이후, 촬영 프레임을 고려하여 대상 식물을 촬영한다.S2: The target plant is then photographed in consideration of the photographed frame.

S3 : OPenCV에서 제공하는 기계 학습프로그램을 이용하여 식물에 대한 기계학습을 시켜 구현된 판별기를 통해 촬영 가이드에서 선택한 식물의 분류체계에 맞게 촬영되었는지 확인한다. 즉, 촬영 영상에서의 대상 식물의 존재 여부를 판별하는 대상 판별을 수행한다. 이 때, 대상 판별 과정에서 가공된 영상을 전송하는 것이 바람직하다.S3: Using the machine learning program provided by OPENCV, machine learning for the plant is carried out, and it is confirmed by the discriminator implemented that it is photographed according to the plant classification system selected in the photographing guide. That is, an object discrimination for discriminating the presence or absence of the target plant in the photographed image is performed. At this time, it is preferable to transmit the processed image in the object discrimination process.

S4 : 대상 판별이 완료되면, 스마트기기(1)는 촬영 영상을 서버(2)로 전송한다.S4: When the object discrimination is completed, the smart device 1 transmits the photographed image to the server 2.

S5 : 이에 서버(2)에서는 식물 추출 알고리즘을 통해 식물의 일부분(예를 들어, 꽃 부분)을 CROP후 HSV 색상값을 추출한다.S5: The server 2 extracts the HSV color value after CROP of a part of the plant (for example, flower part) through a plant extraction algorithm.

S6 : 다음으로 서버(2)는 추출한 데이터(꽃 잎 부분과 꽃 중심부분의 색상 평균)를 기반으로 식물정보 데이터베이스(23)에서 검색한다. 이 때, 검색에 있어, 꽃 모양(촬영 가이드를 통해 사용자로부터 제공받은 데이터 값), 꽃잎 수(촬영 가이드를 통해 사용자로부터 제공받은 데이터 범위(1~10, 알 수 없음)), 꽃 잎 꽃 중심 색상(각 영역의 평균 색상 값의 범위), 개화 시기(촬영시간을 기점으로 한 값)를 기준으로 식물정보 데이터베이스(23)에서 대상을 검색한다.S6: Next, the server 2 searches in the plant information database 23 based on the extracted data (the average of the flower leaf parts and the flower center parts). At this time, in the search, the flower shape (data value provided from the user through the photographing guide), the number of petals (the data range (1 to 10, unknown) provided by the user through the photographing guide) The plant information database 23 searches for an object on the basis of color (range of average color values of each region) and flowering time (value based on photographing time).

S7 : 검색이 완료되면, 검색된 결과를 스마트기기(1)에 반환한다.S7: When the search is completed, the search result is returned to the smart device 1.

S8 : 스마트기기(1)는 대표영상과 꽃 이름을 출력한다.S8: The smart device 1 outputs the representative image and the flower name.

S9 : 사용자에게 검색결과가 대상 식물과 일치하는지 확인을 받는다.S9: The user is asked to confirm that the search result matches the target plant.

S10 : 검색결과가 대상 식물과 일치하는 경우, 꽃에 대한 상세 정보(학명, 꽃말, 서식지, 개화시기 등)를 제공한다. 한편, 검색결과가 대상 식물과 일치하지 않는 경우, 후보리스트를 제공할 수 있다.
S10: Provide detailed information (flower name, flower language, habitat, flowering time, etc.) of the flower when the search result matches the target plant. On the other hand, if the search result does not match the target plant, a candidate list can be provided.

도 4는 본 발명의 일 실시예에 따른 대상 판별 과정을 나타낸 흐름도이다.4 is a flowchart illustrating an object determination process according to an exemplary embodiment of the present invention.

도 4를 참조하면, 대상 식물에 대해 촬영이 이루어지면, 기계 학습프로그램을 이용하여 꽃에 대한 기계학습을 시켜 구현된 판별기를 통해 영상에 대상 식물이 존재하는지 판별한다(S21 ~ S22).Referring to FIG. 4, when the target plant is photographed, it is determined whether the target plant exists in the image through the discriminator realized by machine learning on the flower using the machine learning program (S21 to S22).

대상 식물이 존재할 경우에는 서버(2)로 촬영 영상을 전송하고(S23), 그렇지 않을 경우에는 재촬영 메시지를 출력한다(S24).
If the target plant exists, the photographed image is transmitted to the server 2 (S23). Otherwise, the resume message is output (S24).

도 5는 본 발명의 일 실시예에 따른 식물 추출 알고리즘의 흐름도이다.5 is a flowchart of a plant extraction algorithm according to an embodiment of the present invention.

도 5를 참조하면, 먼저, 식물의 일부분(예를 들어, 꽃 부분)을 크롭(CROP)한다(S51).Referring to FIG. 5, first, a part of a plant (for example, flower part) is cropped (S51).

중심 영역과 모서리 영역의 색상차를 구분하여, 배경에 해당하는 부분을 검은색으로 채운다. 이를 통해 확실한 전경과 배경을 기점으로 색상차에 따라 좌표에 값을 배정한 후, 전경 이외의 값을 가진 부분을 삭제하여 대상 식물을 분리한다(S52).The color difference between the center area and the corner area is distinguished, and the part corresponding to the background is filled with black. In step S52, the target plant is separated by deleting a portion having a value other than the foreground, after assigning a value to the coordinates according to the color difference based on the clear foreground and background.

배경과 대상 식물이 분리되었는가를 판별하여, 배경과 대상 식물이 분리되지 않을 경우, 즉 CROP 과정에서 문제가 발생할 경우, 'Step 1'에서 스마트기기(1)에 의해 촬영된 촬영 프레임의 크기에 맞추어 잘라낸다(S53 ~ S54). 이를 통해 식물과 배경이 분리된다.If the background and the target plant are not separated, that is, if a problem occurs in the CROP process, it is determined whether or not the background and the target plant are separated from each other according to the size of the shooting frame photographed by the smart device 1 in 'Step 1' (S53 to S54). This separates the plant from the background.

한편, 배경과 대상 식물이 분리되면, 꽃 잎 부분과 꽃 중심부분의 색상을 평균 내어 HSV 색상값을 추출한다(S55).
On the other hand, when the background and the target plant are separated, HSV color values are extracted by averaging the colors of the flower leaf part and flower central part (S55).

이와 같이, 본 발명은 촬영 가이드, 대상 판별 및 식물 추출 알고리즘을 통해 식물을 보다 정확히 판별하고, 보다 정확한 식물정보를 추출할 수 있도록 향상시켜, 더 정확한 식물정보를 제공할 수 있다. 즉, 사용자에게 촬영 가이드를 제공하여 정확한 정보 입력이 이루어지도록 하고, 영상을 서버(2)로 전송하기 이전에 대상 판별을 통하여 보다 높은 인식률로 더 정확한 정보를 제공할 수 있고, 서버(2)에서 필요한 부분을 분리하기 위한 분석단계에서 서로 다른 알고리즘을 적용하여 오차를 최소화할 수 있다. 이와 같이, 다양한 식물정보를 제공하는 서버(2)를 통해 관찰된 식물정보를 영상으로 획득한 후 상기 서버(2)로 전송함으로써 해당 식물 영상을 분석하여 그에 해당하는 식물에 대한 정보를 쉽고 더 정확하게 제공받을 수 있는 이점이 있다. 또한, 사용자가 필요한 식물에 대한 상세정보를 스마트기기(1)를 이용하여 서버(2)로부터 제공받을 수 있어 식물에 관한 정보를 용이하게 파악할 수 있고, 교육적으로도 매우 유익한 이점이 있다.
As described above, the present invention can provide more accurate plant information by more accurately discriminating plants and extracting more accurate plant information through a photographing guide, an object discrimination, and a plant extraction algorithm. That is, it is possible to provide the photographing guide to the user so that accurate information can be input, and more precise information can be provided at a higher recognition rate through object discrimination before transmitting the image to the server 2, In the analysis step for separating the necessary parts, different algorithms can be applied to minimize errors. As described above, the plant information observed through the server 2 providing various plant information is acquired as an image and transmitted to the server 2, thereby analyzing the corresponding plant image and easily and accurately There is an advantage to be provided. In addition, detailed information about plants that the user needs can be provided from the server 2 using the smart device 1, so that information about the plant can be easily grasped, and there is an advantage that it is educationally advantageous.

이상에서 몇 가지 실시예를 들어 본 발명을 더욱 상세하게 설명하였으나, 본 발명은 반드시 이러한 실시예로 국한되는 것이 아니고 본 발명의 기술사상을 벗어나지 않는 범위 내에서 다양하게 변형실시될 수 있다.
While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, is intended to cover various modifications and equivalent arrangements included within the spirit and scope of the invention.

1 : 스마트기기
14 : 영상 가공부
2 : 서버
22 : 영상 분석부
1: Smart devices
14:
2: Server
22: Image analysis section

Claims (7)

대상 식물에 대한 촬영 가이드 정보를 제공하며, 촬영 영상에서의 상기 대상 식물의 존재 여부를 판별하고, 상기 촬영 영상을 이용하여 상기 대상 식물의 식물정보를 요청하는 스마트기기; 및
상기 스마트기기로부터 전송된 상기 촬영 영상에 대해 식물 추출 알고리즘을 통해 상기 대상 식물의 식물정보를 식물정보 데이터베이스로부터 추출하여 상기 스마트기기로 전송하는 서버를 포함하는 스마트기기를 이용한 식물정보 제공 시스템.
A smart device that provides photographing guide information on a target plant, determines whether or not the target plant exists in a photographed image, and requests plant information of the target plant using the photographed image; And
And a server for extracting the plant information of the target plant from the plant information database through the plant extraction algorithm for the photographed image transmitted from the smart device and transmitting the plant information to the smart device.
제1항에 있어서,
상기 스마트기기는, 상기 촬영 가이드에서 선택한 식물의 분류체계에 맞게 촬영되었는지 확인하기 위해, 식물에 대한 기계학습을 시켜 구현된 판별기를 포함하는 스마트기기를 이용한 식물정보 제공 시스템.
The method according to claim 1,
Wherein the smart device comprises a discriminator implemented by performing a machine learning on a plant in order to confirm whether the smart device is photographed according to the classification system of the plant selected in the photographing guide.
제1항에 있어서,
상기 서버는, 상기 식물 추출 알고리즘을 통해 해당 식물을 분석하여 특징을 추출하고, 추출된 식물정보를 대조하는 식물정보 데이터베이스를 포함하는 스마트기기를 이용한 식물정보 제공 시스템.
The method according to claim 1,
Wherein the server includes a plant information database for analyzing the plant to extract features and extracting the extracted plant information through the plant extraction algorithm.
(a) 스마트기기에서, 촬영하고자 하는 대상 식물에 대한 속성을 선택할 수 있도록 촬영 가이드를 제공하는 단계;
(b) 상기 스마트기기에서, 상기 대상 식물의 촬영에 대응하여 상기 촬영 가이드를 통해 선택한 상기 대상 식물의 분류체계에 맞게 촬영되었는지 확인하는 단계; 및
(c) 서버에서, 크롭(CROP) 알고리즘을 이용하여 상기 대상 식물과 배경을 분리하고, 식물정보 데이터베이스에서 검색을 수행하는 단계를 포함하는 스마트기기를 이용한 식물정보 제공 방법.
(a) providing, in a smart device, a photographing guide so that an attribute of a target plant to be photographed can be selected;
(b) checking whether the smart device is photographed in accordance with the classification scheme of the target plant selected through the photographing guide in response to the photographing of the target plant; And
(c) separating the target plant and the background using a CROP algorithm in the server, and performing a search in a plant information database.
제4항에 있어서,
상기 단계 (a)에서 촬영 가이드는 상기 대상 식물의 촬영 프레임을 제공하는 스마트기기를 이용한 식물정보 제공 방법.
5. The method of claim 4,
Wherein the photographing guide in the step (a) provides a photographing frame of the target plant.
제4항에 있어서,
상기 단계 (b)는 식물에 대한 기계학습을 시켜 구현된 판별기를 통해 이루어지는 스마트기기를 이용한 식물정보 제공 방법.
5. The method of claim 4,
Wherein the step (b) is performed through a discriminator implemented by machine learning on a plant.
제4항에 있어서,
상기 크롭 알고리즘은,
중심 영역과 모서리 영역의 색상차를 구분하여, 배경에 해당하는 부분을 검은색으로 채우는 방법과, 상기 스마트기기에서의 촬영 프레임의 크기에 맞추어 잘라내는 방법을 선택적으로 사용하는 스마트기기를 이용한 식물정보 제공 방법.
5. The method of claim 4,
Wherein the crop algorithm comprises:
A method of dividing a color difference between a center area and an edge area and filling a part corresponding to a background with black and a method of cutting a frame according to the size of a frame in the smart device, Delivery method.
KR1020140145769A 2014-10-27 2014-10-27 System and method for providing plant information using smart device KR101673558B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140145769A KR101673558B1 (en) 2014-10-27 2014-10-27 System and method for providing plant information using smart device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140145769A KR101673558B1 (en) 2014-10-27 2014-10-27 System and method for providing plant information using smart device

Publications (2)

Publication Number Publication Date
KR20160049569A true KR20160049569A (en) 2016-05-10
KR101673558B1 KR101673558B1 (en) 2016-11-08

Family

ID=56020741

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140145769A KR101673558B1 (en) 2014-10-27 2014-10-27 System and method for providing plant information using smart device

Country Status (1)

Country Link
KR (1) KR101673558B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017222234A1 (en) * 2016-06-23 2017-12-28 주식회사 한농쿱 System for providing age information of mountain-cultivated ginseng
KR101887503B1 (en) * 2017-06-13 2018-08-10 (주)다온정보 Apparatus for smart control system in greenhouse using artificial intelligence
KR20200087342A (en) * 2018-12-31 2020-07-21 월드버텍 주식회사 Plant recognizing system based deep learning
KR20200087343A (en) * 2018-12-31 2020-07-21 월드버텍 주식회사 System for classifying plant using deep learning and method thereof

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110127473A (en) 2010-05-19 2011-11-25 윤용철 Information system using smart phones and how to plan
KR20120076491A (en) * 2010-11-26 2012-07-09 한국생명공학연구원 Plants information providing service system and method thereof
KR20130039014A (en) * 2011-10-11 2013-04-19 정재웅 An identification apparatus for living things

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110127473A (en) 2010-05-19 2011-11-25 윤용철 Information system using smart phones and how to plan
KR20120076491A (en) * 2010-11-26 2012-07-09 한국생명공학연구원 Plants information providing service system and method thereof
KR20130039014A (en) * 2011-10-11 2013-04-19 정재웅 An identification apparatus for living things

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
[1] "Interactive Graph Cuts for Optimal Boundary & Region Segmentation of Objects in N-D Images" ECSE-626: Statistical Computer Vision (ICCV 2001)
[2] "A Method for Regional Feature Extraction of Flower Images," International Conference on ICIP-2010:Yong Pei, and Weiqun Cao (2010)
[3] "Tutorial: Image Segmentation", Graduate Institute of Communication Engineering National Taiwan University, Taipei, Taiwan, ROC : Yu-Hsiang Wang

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017222234A1 (en) * 2016-06-23 2017-12-28 주식회사 한농쿱 System for providing age information of mountain-cultivated ginseng
US10997718B2 (en) 2016-06-23 2021-05-04 Hannongcoop Co., Ltd. System for providing age information of ginseng cultivated in the woods
KR101887503B1 (en) * 2017-06-13 2018-08-10 (주)다온정보 Apparatus for smart control system in greenhouse using artificial intelligence
KR20200087342A (en) * 2018-12-31 2020-07-21 월드버텍 주식회사 Plant recognizing system based deep learning
KR20200087343A (en) * 2018-12-31 2020-07-21 월드버텍 주식회사 System for classifying plant using deep learning and method thereof

Also Published As

Publication number Publication date
KR101673558B1 (en) 2016-11-08

Similar Documents

Publication Publication Date Title
EP3740897B1 (en) License plate reader using optical character recognition on plural detected regions
US10977494B2 (en) Recognition of weed in a natural environment
Aquino et al. vitisBerry: An Android-smartphone application to early evaluate the number of grapevine berries by means of image analysis
US10558844B2 (en) Lightweight 3D vision camera with intelligent segmentation engine for machine vision and auto identification
US9189861B2 (en) Image processing device, image processing method, program, and recording medium
KR20180081104A (en) A method for acquiring and analyzing aerial images
KR101673558B1 (en) System and method for providing plant information using smart device
CN112541395A (en) Target detection and tracking method and device, storage medium and electronic device
US9002071B2 (en) Image search system, image search apparatus, image search method and computer-readable storage medium
EP3279831A1 (en) Recognition of weed in a natural environment using a digital image
US10395091B2 (en) Image processing apparatus, image processing method, and storage medium identifying cell candidate area
CN107220664B (en) Oil bottle boxing and counting method based on structured random forest
JP2012238119A (en) Object recognition device, control method of object recognition device and program
CN110070571B (en) Phyllostachys pubescens morphological parameter detection method based on depth camera
CN111090768A (en) Similar image retrieval system and method based on deep convolutional neural network
CN111931581A (en) Agricultural pest identification method based on convolutional neural network, terminal and readable storage medium
CN113792827B (en) Target object recognition method, electronic device, and computer-readable storage medium
CN104951440B (en) Image processing method and electronic equipment
CN111161295A (en) Background stripping method for dish image
US10395139B2 (en) Information processing apparatus, method and computer program product
JP2018013887A (en) Feature selection device, tag relevant area extraction device, method, and program
Tompalski et al. A comparison of LiDAR and image-derived canopy height models for individual tree crown segmentation with object based image analysis
JP2019021100A (en) Image search device, merchandise recognition device, and image search program
WO2017219562A1 (en) Method and apparatus for generating two-dimensional code
CN113095147A (en) Skin area detection method, system, image processing terminal and storage medium

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant