KR102631883B1 - 스마트 온습조도계를 이용한 식물 생육 위치 제안 시스템 및 방법 - Google Patents

스마트 온습조도계를 이용한 식물 생육 위치 제안 시스템 및 방법 Download PDF

Info

Publication number
KR102631883B1
KR102631883B1 KR1020230041677A KR20230041677A KR102631883B1 KR 102631883 B1 KR102631883 B1 KR 102631883B1 KR 1020230041677 A KR1020230041677 A KR 1020230041677A KR 20230041677 A KR20230041677 A KR 20230041677A KR 102631883 B1 KR102631883 B1 KR 102631883B1
Authority
KR
South Korea
Prior art keywords
plant
space
growth
user terminal
image
Prior art date
Application number
KR1020230041677A
Other languages
English (en)
Inventor
이준원
Original Assignee
이준원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이준원 filed Critical 이준원
Application granted granted Critical
Publication of KR102631883B1 publication Critical patent/KR102631883B1/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/02Agriculture; Fishing; Forestry; Mining
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01GHORTICULTURE; CULTIVATION OF VEGETABLES, FLOWERS, RICE, FRUIT, VINES, HOPS OR SEAWEED; FORESTRY; WATERING
    • A01G9/00Cultivation in receptacles, forcing-frames or greenhouses; Edging for beds, lawn or the like
    • A01G9/24Devices or systems for heating, ventilating, regulating temperature, illuminating, or watering, in greenhouses, forcing-frames, or the like
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16YINFORMATION AND COMMUNICATION TECHNOLOGY SPECIALLY ADAPTED FOR THE INTERNET OF THINGS [IoT]
    • G16Y20/00Information sensed or collected by the things
    • G16Y20/10Information sensed or collected by the things relating to the environment, e.g. temperature; relating to location
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16YINFORMATION AND COMMUNICATION TECHNOLOGY SPECIALLY ADAPTED FOR THE INTERNET OF THINGS [IoT]
    • G16Y40/00IoT characterised by the purpose of the information processing
    • G16Y40/10Detection; Monitoring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30188Vegetation; Agriculture

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Marketing (AREA)
  • General Health & Medical Sciences (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Primary Health Care (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Operations Research (AREA)
  • Computer Graphics (AREA)
  • Environmental Sciences (AREA)
  • Development Economics (AREA)
  • Educational Administration (AREA)
  • Animal Husbandry (AREA)
  • Game Theory and Decision Science (AREA)
  • Mining & Mineral Resources (AREA)
  • Quality & Reliability (AREA)
  • Agronomy & Crop Science (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Environmental & Geological Engineering (AREA)
  • Toxicology (AREA)
  • Marine Sciences & Fisheries (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

본 발명은 식물의 생육 위치 제안 시스템 및 서버의 동작 방법에 관한 것으로, 서버는 하나 이상의 IoT 센서로부터 센서가 위치한 공간의 생육 환경 정보를 수신하는 단계, 대상 식물이 없는 경우, 사용자 단말에 상기 공간에 적합한 식물 정보를 제공하는 단계, 대상 식물이 있는 경우, 사용자 단말로부터 식물의 이미지 또는 영상 데이터를 수신하는 단계, 데이터로부터 식물을 식별하는 단계, 식물에 적합한 생육 환경을 가지는 공간을 판단하는 단계, 판단 결과와 데이터를 정합한 AR(Augmented Reality) 영상을 상기 사용자 단말에 제공하는 단계로 동작한다. 이를 통해 여러 식물을 하나의 공간에서 키울 때 발생하는 식물 폐사를 방지 할 수 있으며, 식물의 생육 조건에 맞는 생육 위치를 AR기술을 활용하여 영상에 정합하여 제공함으로써 사용자가 보다 직관적으로 대상 식물의 생육 환경을 이해하고, 생육할 수 있도록 한다.

Description

스마트 온습조도계를 이용한 식물 생육 위치 제안 시스템 및 방법{Plant growth location suggestion system and method using smart temperature and humidity mete}
본 발명은 식물에게 최적의 생육 환경을 가진 공간을 제안할 수 있는 식물 생육 위치 제안 시스템 및 방법에 관한 것으로, 보다 구체적으로 본 발명에 따른 시스템은 대상 공간의 생육 환경 정보를 획득하고, 획득된 이미지로부터 대상 식물 정보를 추출하여 대상 식물의 생육 조건에 부합하는 대상 공간을 매칭하고, 이를 정합한 AR 영상을 사용자 단말에 제공하는 시스템 및 방법에 관한 것이다.
통상적으로 식물을 실내에서 기르기 위해서는 실내의 환경 조건, 토양, 온도, 습도 등과 식물의 생육 조건을 파악하여 올바른 위치에서 식물을 재배하여야 한다. 다만, 대부분의 가정집에서는 키우는 식물의 종류가 다양하고, 이러한 식물의 생육 조건을 정확하게 파악하지 못하기 때문에 식물 관리가 제대로 이루어지지 못하는 애로사항들이 많았다. 또한, 지식이 부족한 사람들은 생육 조건이 상이한 다양한 식물들을 한 공간에 배치하여 생육함으로써 일부 식물들은 제대로 성장하지 못하는 경우가 빈번하게 발생하고 있다.
식물들은 식물의 종류 및 성장 단계에 따라 화분 흙의 습도, 염류, 주변 온도, 빛의 밝기 등의 생육 조건이 상이하며, 최적의 상태로 유지시켜 주어야 빠르게 성장할 수 있으나, 전문가가 아닌 관리자는 각 식물의 최적 조건을 알기가 어렵다는 문제가 있다.
종래 식물에 대한 기초지식이 부족한 소비자를 위해 토양상태를 관리해주는 시스템이 보고되었다. 토양 관리 시스템은 식물이 포함된 토양의 상태(수분량, 영양분, 온도, 일사량)를 토양관리 장치의 센서로 측정하고, 사용자는 무선통신(예: 블루투스)을 이용하여 자신의 스마트폰을 통해 그 토양관리 장치의 센서로부터 그 토양 상태에 대응하는 데이터를 수신하여 관리하는 방식을 취하였다. 다만, 이는 단순하게 토양의 상태만 관리하는 시스템으로, 식물별로 요구되는 생육 조건에 대한 관리가 부족하다는 문제가 있었다.
본 발명은 상기와 같은 종래의 문제점들을 개선하기 위한 것으로, 본 발명의 생육 위치 제안 시스템은 IoT 센서를 포함하여, 공간의 환경 정보를 획득하고, 이를 대상 식물과 매칭한 AR영상을 제공하고자 한다.
본 발명은 식물에 대한 지식이 부족한 사용자가 대상 식물의 생육 위치를 직관적으로 확인할 있도록 하는 시스템을 제공하고자 한다.
본 발명은 전술한 목적을 달성하기 위한 것으로, 식물의 생육 위치 제안 서버의 동작방법은 IoT 센서로부터 공간의 생육 환경 정보를 수신하는 단계, 사용자 단말로부터 대상 식물의 이미지 또는 영상을 수신하는 단계, 수신한 이미지 또는 영상으로부터 대상 식물을 추출하는 단계, 대상 식물에 적합한 생육 환경을 가지는 공간을 매칭하는 판단단계, 판단 결과값과 상기 사용자 단말로부터 획득한 영상을 정합한 AR(Augmented Reality) 영상을 상기 사용자 단말에 제공하는 단계를 포함한다.
본 발명의 실시 예에 따른 식물 생육 위치 제안 시스템에 의하면, 여러 식물이 있는 경우에도, 식물의 생육 조건 별로 적합한 생육 위치를 제안함으로써 식물의 폐사를 방지 할 수 있다.
또한, 식물의 생육 조건에 맞는 생육 위치를 AR기술을 활용하여 영상에 정합하여 사용자 단말에 제공함으로써 사용자가 보다 직관적으로 식물의 생육 위치를 이해하고, 식물을 혼동하는 일을 줄일 수 있다.
도 1은 본 발명 일 실시예에 따른 식물 생육 위치 제안 시스템에 관한 개략도이다.
도 2는 본 발명의 일 실시예에 따른 식물 생육 위치 제안 서버를 도식화한 개략도이다.
도 3은 본 발명의 일 실시예에 따른 IoT 센서가 생육 환경 정보를 수집하여 서버에 저장하는 과정을 설명하기 위한 개략도이다.
도 4는 본 발명의 일 실시예에 따른 생육 위치 제안 시스템의 제네릭 동작을 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시예에 따른 공간정보부가 구획된 공간의 생육 환경 정보를 수집하고, 공간별 색상을 부여하는 과정의 이해를 돕기 위한 도면이다.
도 6은 본 발명의 일 실시예에 따른 시스템에 따라 대상 식물에 매칭된 공간과 동일한 색상이 부여되고, 획득된 영상에 색상이 정합된 결과를 보여주기 위한 도면이다.
도 7은 본 발명의 일 실시예에 따른 시스템의 사용자 단말에 표시된 인터페이스를 보여주기 위한 개략도이다.
도 8은 본 발명에 따른 서버의 동작 방법을 도시화한 도면이다.
도 9는 본 발명의 일 실시예에 따른 식물의 생육 위치 제안 서버의 동작방법의 순서도이다.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 명세서의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
생육 환경이란, 온도, 습도, 조도 및 일사량을 포함하여 식물 성장에 영향을 미치는 공간의 환경 정보를 의미한다.
생육 조건이란, 식물의 종류 및 발육 상태에 따라 요구되는 광, 온도, 토양, 대기 중의 습도 등 식물의 생육에 관여하는 조건을 의미한다.
식물의 발육 상태란 식물의 발육 정도를 나타내는 것으로, 휴면상태, 발아상태, 성숙상태, 개화상태, 결실, 노화상태 또는 씨앗, 새싹잎, 떡잎, 생장점 상태 등으로 나뉘어질 수 있다.
이하에서는 도 1 내지 도 9를 참고하여, 본 발명의 식물의 생육 위치 제안 시스템 및 서버의 동작 방법에 관하여 설명한다. 본 발명에 따른 생육 위치 제안 시스템은 가정에서 키우는 반려식물을 시작으로, 주말농장, 농업, Smart Farm 등에 적용하기 위한 식물 관리용 IoT센서 및 AR기술을 포함한다. 본 발명은 IoT 센서(ex. 스마트 온습조도계)를 설치하고 생육중인 식물을 사용자 단말 또는 서버에 등록한 뒤, 센서를 통해 수집된 공간의 생육 환경 정보를 기반으로 대상 식물의 생육 조건에 부합하는 공간을 매칭하는 식물 생육위치 제안 시스템을 제공한다. 또한, 본 발명의 식물 생육 위치 제안 시스템은 스마트폰으로 Image Processing을 통해 환경에 맞지 않는 식물을 색상으로 표기하여 직관적으로 구분할 수 있게 해주며, 적합한 생육 환경을 가지는 위치로의 안내 및 서버에 저장된 대처방안을 제공하여 식물을 모르는 사람도 식물을 키울 수 있도록 해결방안을 제공한다.
도 1은 본 발명의 일 실시예에 따른 식물의 생육 위치 제안 시스템을 도식화한 개략도이다.
도 1을 참조하면, 본 발명의 일 실시예에 따른 식물의 생육 위치 제안 시스템(10)은 웹 애플리케이션 서버(110) 및 데이터 분석 서버(120)를 포함하는 서버(100), 적어도 하나 이상의 사용자 단말(200-n), 적어도 하나나 이상의 IoT 센서(300-n) 및 적어도 하나 이상의 스마트 제어기(400)로 구성될 수 있다.
도 2는 본 발명의 일 실시예에 따른 서버(100)의 구성도이다.
도 1 및 2를 참조하면, 웹 애플리케이션 서버(110)는 데이터 분석 서버(120), 적어도 하나 이상의 사용자 단말(200-n), 적어도 하나 이상의 IoT 센서(300-n) 및 적어도 하나 이상의 스마트 제어기(400)와 유선 또는 무선 통신망으로 연결된다.
웹 애플리케이션 서버(110)는 IoT 센서(300-n) 및 사용자 단말(200-n)로부터 데이터를 수신하고, 저장하고 있는 다양한 데이터 및 수신한 데이터를 데이터 분석 서버(120)로 전송할 수 있다. 또한, 웹 애플리케이션 서버(110)는 데이터 분석 서버(120)로부터 분석된 데이터를 획득하고, 판단부의 결과와 사용자 단말로부터 획득한 영상에서 식물에 대응하는 영역을 정합하여 AR영상을 제작하고, 이를 사용자 단말에 전송할 수 있다. 또한, 웹 애플리케이션 서버(110)는 대상 공간의 생육 환경을 변화시키기 위해 스마트 제어기(400)에 제어신호를 전송할 수 있다.
필요에 따라, 웹 애플리케이션 서버(110)는 병해충 API, 식물 API, 기상 API 등의 데이터를 저장하고 있을 수 있으며, 필요시 해당 정보를 사용자 단말(200-n)에 제공할 수 있다.
데이터 분석 서버(120)는 웹 애플리케이션 서버(110)와 유선 또는 무선 통신망으로 연결된다.
데이터 분석 서버(120)는 웹 애플리케이션 서버(110)로부터 획득한 이미지를 입력 데이터(input)로 하고 대상 식물의 종류 또는 발육 상태 정보 중 적어도 하나를 출력 데이터(output)로 추출할 수 있는 식물 추출 모듈(123)을 포함할 수 있다. 식물 추출 모듈(123)은 식물의 종류 및 발육 상태 정보를 출력할 수 있는 딥러닝 모델로, 딥러닝 기반 CNN을 적용한 알고리즘을 적용하여 구축될 수 있다. 보다 구체적으로, 식물 추출 모듈(123)은 획득한 이미지를 이용하여 식물의 종류 및 현재 발육 상태를 예측하는 과제를 수행하기 위하여 인공 신경망 모델을 학습할 수 있다. 식물 추출 모듈(123)은 인공 신경망 모델을 학습시키기 위해 저장된 이미지를 이용하여 트레이닝 데이터 세트를 생성할 수 있다. 인공 신경망 모델의 학습은 라벨링된 데이터 세트를 이용하여 지도 학습하는 방법으로 이루어질 수 있으며, 이는 종래 인공 신경망 모델의 학습 방법을 사용하는 바, 이에 대한 자세한 설명은 생략하도록 한다.
사용자 단말(200-n)은 시스템을 사용하는 자가 사용하는 단말기로 일반 컴퓨터, 스마트폰, 테블릿PC 등 다양한 형태일 수 있다. 사용자 단말(200-n)은 카메라, 키보드 등의 입력 장치를 통해 데이터를 획득하고, 네트워크를 통해 획득한 데이터를 서버에 전송할 수 있다. 나아가, 사용자 단말(200-n)은 서버(100)로부터 생성된 데이터를 수신하고, 출력 장치를 통해 수신한 데이터를 출력할 수 있다. 또한, 사용자 단말(200-n)은 서버(100)를 통해, 또는 직접 스마트 제어기(400)에 제어 신호를 전송할 수 있다.
도 3은 다른 공간에 설치된 IoT 센서(300-n)가 생육 환경 정보를 수집하여 서버에 저장하는 과정을 설명하기 위한 개략도이다. 도 3을 참조하면, 본 발명의 일 실시예에서 IoT 센서(300-n)는 스마트 온도계, 습도계, 조도계를 포함할 수 있다. 이를 통해 IoT 센서(300-n)는 시간별/계절별 공간 내의 온도, 습도, 조도를 모니터링할 수 있다. 필요에 따라, 하나의 구획된 공간에 하나 이상의 IoT 센서(300-n)가 설치될 수 있으며, 복수개로 구획된 공간 각각에 하나 이상의 IoT 센서(300-n)가 설치될 수 있다.
스마트 제어기(400)는 구획된 공간에 설치하여 대상 공간의 생육 환경을 조절하기 위한 장치로, 대상 공간의 온도, 습도, 조도, 일조량 등을 제어하는 장치 또는 대상 공간의 공기를 순환시킬 수 있는 제어 장치를 의미한다. 필요에 따라, 서버는 스마트 제어기(400)에 제어 신호를 전송하여 대상 공간의 온도, 습도, 조도, 일조량 등 생육 환경을 제어할 수 있다. 보다 구체적으로, 시스템은 하나의 공간 내에서 복수의 IoT 센서를 통해 획득한 온도 또는 습도의 차이가 기 설정된 값 이상인 경우, 스마트 제어기(400)를 통해 해당 공간의 온도 또는 습도를 균일하게 제어할 수 있다. 필요에 따라, 시스템은 식물에 적합한 생육 환경을 가진 공간이 없는 것으로 판단하는 경우, 선택된 공간이 해당 식물에 적합한 생육 환경을 가지도록 스마트 제어기를 통해 공간의 생육 환경을 제어할 수 있다.
도 4는 본 발명의 일 실시예에 따른 생육 위치 제안 시스템(10)의 제네릭 동작을 설명하기 위한 도면이다.
도 4를 참조하면, 식물의 생육 위치 제안 시스템(10)은 사용자 단말(200-n) 또는 IoT 센서(300-n)로부터 대상 식물 정보 또는 공간의 생육 환경 정보를 획득하고, 서버(100)로부터 대상 식물에 적합한 공간을 파악하고, 이를 표시한 AR영상을 사용자 단말(200-n)에 전송하도록 구성된 시스템(10)이다.
식물의 생육 위치 제안 시스템(10)은 IoT 센서(300-n)로부터 시간에 따른 대상 공간의 온도, 습도, 조도, 일조량 등의 생육 환경 정보를 획득할 수 있다. 시스템(10)은 대상 식물이 없는 경우, 획득된 생육 환경 정보를 이용하여 해당 공간에 가장 적합한 생육 조건을 가지는 식물 정보를 사용자 단말에 전송할 수 있다.
시스템(10)은 하나 이상의 사용자 단말(200-n)을 통해 대상 식물 정보를 획득할 수 있다. 일 실시예에 따르면, 사용자 단말(200-n)은 대상 식물의 이미지 또는 영상을 서버(100)에 전송할 수 있으며, 서버(100)는 획득된 이미지 또는 영상으로부터 대상 식물의 종류 또는 발육 상태 정보를 추출할 수 있다. 또 다른 실시예에 따르면, 서버(100)는 사용자 단말(200-n)의 입력장치를 통해 입력된 대상 식물에 관한 정보를 획득할 수 있다. 시스템(10)은 획득된 대상 식물의 종류 또는 발육 상태 정보 중 적어도 하나 이상의 정보를 이용하여 대상 식물의 생육 조건을 파악할 수 있다. 즉, 식물은 종류 및 발육 상태에 따라 요구되는 생육 조건이 상이한 바, 시스템(10)은 식물의 종류 및 발육 상태를 파악하여 이에 요구되는 생육 조건을 파악할 수 있다.
도 5는 본 발명의 일 실시예에 따라 구획된 공간에 색상을 부여하는 단계의 이해를 돕기 위한 도면이다. 도 5를 참조하면, 시스템(10)은 구획된 공간에 별도의 색상을 부여할 수 있다. 보다 구체적으로, 시스템(10)은 생육 환경 정보가 획득된 공간에 생육 환경에 따라 별도의 색상을 부여할 수 있다. 시스템(10)은 복수의 공간이 동일한 생육 환경을 가지는 경우, 대상 공간에 동일한 색상을 부여할 수 있으며, 복수의 공간이 유사한 생육 환경을 가지는 경우, 시스템(10)은 대상 공간에 유사한 색상을 부여할 수 있다. 시스템(10)은 집 내부에 구획된 공간별로 생육 환경 정보를 획득할 수 있으며, 생육 환경이 상이한 공간에 별도의 색상을 부여할 수 있다. 시스템(10)은 생육 환경 정보를 획득한 제1 공간은 붉은색, 제2 공간은 푸른색, 제3 공간은 초록색으로 색상을 부여할 수 있다. 일 실시예에 따르면, 시스템(10)은 베란다는 붉은색, 거실은 푸른색, 온실장은 초록색의 색상을 부여할 수 있다. 이는 사용자가 공간과 식물의 매칭 결과를 보다 직관적으로 이해할 수 있도록 매칭된 공간과 식물에 동일한 색상을 부여하기 위함이다.
시스템(10)은 대상 식물의 생육 조건을 파악하고, 파악된 생육 조건에 부합하는 생육 환경을 가지는 공간이 있는 경우, 대상 식물과 대상 공간을 매칭할 수 있으며, 공간에 매칭된 식물에는 대상 공간에 부여된 색상을 부여할 수 있다. 즉, 일 실시예에 따르면, 시스템(10)은 사용자 단말로부터 획득된 이미지로부터 대상 식물인 노란개나리, 옥시카르디움, 산세베리아을 추출하고, 이들의 생육 조건을 획득하고, 생육 환경 정보를 이용하여 노란개나리는 베란다, 옥시카르디움은 거실, 산세베리아는 온실장과 매칭시킬 수 있으며, 노란개나리는 베란다에 부여된 붉은색, 옥시카르디움은 거실에 부여된 푸른색, 산세베리아는 온실장에 부여된 초록색을 부여할 수 있다.
도 6은 본 발명의 시스템에 따라 대상 식물에 색상이 부여되고, 정합된 영상을 보여주기 위한 도면이다. 도 6을 참조하면, 시스템(10)은 사용자 단말로부터 획득한 이미지를 통해 대상 식물을 식별하고, 식별된 식물의 생육 조건을 파악하고 적합한 공간과 매칭한 뒤, 대상 식물에 색상을 부여하고, 부여된 색상과 정합한 영상을 사용자 단말에 제공할 수 있다. 시스템(10)은 대상 식물을 포함하는 영상에서 대상 식물에 대응하는 제1 영역을 파악하고, 해당 영역에 부여된 색상을 정합한 AR(Augmented Reality) 영상을 생성할 수 있으며, 이를 사용자 단말에 전송할 수 있다.
도 7은 본 발명에 따른 사용자 단말에 표시된 인터페이스를 보여주기 위한 개략도이다. 도 7을 참조하면, 시스템(10)은 사용자 단말로부터 대상 식물을 포함하는 이미지 또는 영상을 수신하면서 식물의 현재 위치 정보를 획득할 수 있다. 시스템은 대상 식물의 현재 위치가 매칭된 공간이 아닌 경우, 매칭된 공간으로 이동할 것을 결과로 출력할 수 있으며, 대상 식물의 위치가 매칭된 공간인 경우, 매칭된 공간에 머무를 것을 결과로 출력할 수 있다.
시스템(10)은 스마트 제어기(400)를 통해 대상 공간의 생육 환경을 조절할 수 있다. 보다 구체적으로, 시스템(10)은 대상 식물에 적합한 생육 환경을 가진 공간이 없는 경우, 사용자 단말을 통해 공간을 선택하고, 스마트 제어기(400)로 선택된 공간의 생육 환경을 제어하여 대상 식물에 적합한 생육 환경을 조성할 수 있다. 또한, 시스템(10)은 하나의 공간 내에 설치된 복수의 IoT 센서를 통해 획득한 온도 또는 습도의 차이가 기 설정된 값 이상인 경우, 스마트 제어기(400)를 통해 해당 공간의 온도 또는 습도를 균일하게 제어할 수 있다. 즉, 시스템(10)은 대상 공간의 생육 환경을 제어하기 위해, 또는 대상 공간의 생육 환경을 균일하게 유지하기 위해 스마트 제어기(400)에 제어 신호를 전송할 수 있다.
도 8은 본 발명에 따른 서버(100)의 동작 방법을 도시화한 도면이다. 도 2 및 도 8을 참조하면, 서버(100)는 웹 애플리케이션 서버(110) 및 데이터 분석 서버(120)를 포함할 수 있다.
필요에 따라, 웹 애플리케이션 서버(110)는 통신부(111), 저장부(112), 공간정보부(113), 식물정보부(114), 판단부(115), AR부(116), 제어부(117)를 포함할 수 있다.
웹 애플리케이션 서버(110)의 통신부(111)는 임의의 외부 기기 및 내부 서버와 통신을 수행할 수 있다. 예컨대, 웹 애플리케이션 서버(110)는, 통신부(111)를 통해, 사용자 단말(200-n)로부터 대상 식물에 관한 데이터를 획득할 수 있으며, 임의의 외부 서버로부터 식물, 날씨, 병충해에 관한 데이터베이스를 획득하고, 이를 저장부(112)에 저장하여 관리할 수 있다. 또한, 웹 애플리케이션 서버(110)는, 통신부(111)를 통해, IoT 센서로(300-n)로부터 공간의 생육 환경 정보를 획득할 수 있으며, 필요시 스마트 제어기(400)에 제어 신호를 전송하여 공간의 환경 정보를 제어할 수 있다. 또한, 웹 애플리케이션 서버(110)는, 통신부(111)를 통해, 획득한 식물 정보 및 공간의 생육 환경 정보를 데이터 분석 서버(120)로 전송하고, 데이터 분석 서버(120)의 분석 데이터를 수신할 수 있다.
웹 애플리케이션 서버(110)의 저장부(112)는 식물의 종류, 식물의 종류별 이미지, 식물의 종류 및 발육 상태에 따른 생육 조건, 날씨, 병충해에 관한 데이터를 저장하고 관리할 수 있다. 또한, 저장부(112)는 웹 애플리케이션 서버(110)가 외부로부터 획득한 데이터, 즉, 사용자 단말로부터 획득한 정보 및 IoT 센서로부터 획득한 모니터링 정보를 저장하고 관리할 수 있다.
웹 애플리케이션 서버(110)의 공간정보부(113)는 IoT 센서 또는 사용자 단말을 통해 획득한 공간 모니터링 정보를 기반으로 대상 공간의 생육 환경을 파악하는 구성을 의미한다. 공간정보부(113)는 IoT 센서 또는 사용자 단말을 통해 획득된 정보를 기반으로 하나 이상의 대상 공간의 온도, 습도, 일조량 등의 생육 환경을 파악할 수 있다. 필요에 따라, 공간정보부(113)는 시간 및 날씨에 따른 대상 공간의 생육 환경 정보를 파악할 수 있다. 필요에 따라, 공간정보부(113)는 대상 공간의 생육 환경에 따라 별도의 색상을 부여할 수 있다.
웹 애플리케이션 서버(110)의 식물정보부(114)는 데이터 분석 서버(120)로부터 획득한 대상 식물의 종류 및 발육 상태 정보를 이용하여 대상 식물의 생육 조건을 파악하는 구성을 의미한다. 필요에 따라, 식물정보부(114)는 사용자 단말로부터 직접 대상 식물의 종류 및 발육 상태 정보를 획득할 수 있다.
웹 애플리케이션 서버(110)의 판단부(115)는 공간정보부(113) 및 식물정보부(114)로부터 획득한 정보를 이용하여 대상 식물에 적합한 공간을 매칭하는 구성을 의미한다. 보다 구체적으로, 판단부(115)는 식물정보부(114)로부터 대상 식물의 생육 조건을 파악하고, 공간정보부(113)의 대상 공간 중 대상 식물에 적합한 공간을 파악하여 대상 식물과 매칭한다. 판단부(115)는 대상 공간에 부여된 색상을 이에 매칭된 식물의 결과값으로 제공할 수 있다. 판단부(115)는 사용자 단말로부터 획득된 대상 식물이 없는 경우, 공간의 생육 환경을 기반으로 상기 공간에 적합한 식물 정보를 판단의 결과로 출력하고, 대상 식물이 있는 경우, 식물의 생육 조건에 적합한 공간을 매칭하고, 식물에 매칭된 공간과 동일한 색상을 부여하고, 색상을 결과로 출력할 수 있다. 판단부(115)는 식물 추출 모듈을 통해 획득된 식물의 현재 위치가 매칭된 공간이 아닌 경우, 매칭된 공간으로 이동할 것을 결과로 출력할 수 있으며, 현재 위치가 매칭된 공간인 경우, 해당 공간에 머무를 것을 결과로 출력할 수 있다.
AR부(116)는 판단부의 결과와 사용자 단말로부터 획득한 영상을 정합한 AR(Augmented Reality) 영상을 생성할 수 있다. 보다 구체적으로, 판단부의 결과값이란, 대상 식물의 색상, 대상 식물에 매칭된 공간의 명칭, 식물의 위치 이동 여부를 의미한다. AR부(116)는 단말로부터 획득한 영상에서 대상 식물에 대응하는 영역을 제1 영역으로 하고, 제1 영역에 판단부의 결과를 정합한 AR영상을 생성할 수 있다. 즉, AR부는 제1 영역에 식물에 부여된 색상, 매칭된 공간의 명칭, 식물의 이동 여부 값 중 적어도 어느 하나를 정합한 AR영상을 생성할 수 있다. AR부(116)에서 생성된 영상은 통신부를 통해 사용자 단말에 전송되며, 사용자는 해당 영상을 통해 직관적으로 대상 식물에 적합한 대상 공간을 파악할 수 있다.
제어부(117)는 스마트 제어기(400)를 통해 공간의 생육 환경을 제어할 수 있다. 보다 구체적으로, 제어부(117)는 하나의 공간 내에서 복수의 IoT 센서를 통해 획득한 온도 또는 습도의 차이가 기 설정된 값 이상인 경우, 스마트 제어기를 통해 공간 내의 공기를 대류 또는 순환시켜 공간의 온도 또는 습도를 균일하게 제어할 수 있으며, 판단부가 식물에 적합한 공간이 없는 것으로 판단하는 경우, 사용자 단말에 의해 선택된 공간의 생육 환경을 대상 식물에 적합하도록 스마트 제어기를 제어하여 공간의 생육 환경을 제어할 수 있다.
데이터 분석 서버(120)는 통신부(121), 저장부(122), 식물 추출 모듈(123)을 포함할 수 있다.
데이터 분석 서버(120)의 통신부(121)는 웹 애플리케이션 서버(110)의 통신부(111)와 통신을 수행할 수 있다. 데이터 분석 서버(120)의 통신부(121)는 웹 애플리케이션 서버(110)의 통신부(111)로부터 대상 식물, 대상 공간에 대한 데이터를 획득할 수 있으며, 분석된 데이터를 전송할 수 있다.
데이터 분석 서버(120)의 저장부(122)는 식물 추출 모듈의 학습 데이터 등의 데이터베이스를 저장하고 관리할 수 있다.
식물 추출 모듈(123)이란, 사용자 단말로부터 획득한 데이터를 통해 식물의 종류 및 발육 상태 정보를 출력할 수 있는 딥러닝 모델로, 딥러닝 기반 CNN을 적용한 알고리즘을 적용하여 구축될 수 있다. 식물 추출 모듈(123)은 획득된 이미지 또는 영상을 입력값(input)으로 하여 대상 식물의 종류 및 발육 상태 정보를 출력값(output)으로 획득할 수 있다. 필요에 따라, 식물 추출 모듈(123)은 사용자 단말로부터 획득한 이미지 또는 영상에 포함된 식물의 현재 위치 정보를 획득할 수 있다.
도 9는 본 발명의 일 실시예에 따른 식물의 생육 위치 제안 서버의 동작 방법을 도식화한 도면이다. 이하에서는 도 9를 참고하여, 본 발명의 일 실시예에 따른 서버(100)의 동작 방법을 구체적으로 서술한다.
도 9를 참고하면, 식물의 생육 위치 제안 서버의 동작방법은 공간의 생육 환경 정보를 수신하는 단계(S1000), 대상 식물의 존부를 판단하는 단계, 대상 식물의 이미지 또는 영상을 수신하는 단계(S2000), 수신한 이미지 또는 영상으로부터 대상 식물을 식별하는 단계(S3000), 대상 식물에 적합한 생육 환경을 가지는 공간을 판단하는 단계(S4000), 판단 결과와 사용자 단말로부터 획득한 영상을 정합한 AR(Augmented Reality) 영상을 생성하고, 이를 사용자 단말에 제공하는 단계(S5000)를 포함할 수 있다.
공간의 생육 환경 정보를 수신하는 단계(S1000)에서, 서버는 하나 이상의 IoT 센서로부터 센서가 위치한 공간의 생육 환경 정보를 모니터링한 데이터를 획득할 수 있다. 생육 환경 정보란 온도, 습도, 조도 및 일사량을 포함하여 식물 성장에 영향을 미치는 공간의 환경 정보를 의미한다. 서버는 시간에 따른 모니터링 결과를 획득하여 공간별로 생육 환경을 파악할 수 있다.
필요에 따라, 서버는 파악한 생육 환경에 따라 공간에 색상을 부여하는 단계를 더 포함할 수 있다. 서버는 복수개의 공간에 공간 별로 생육 환경을 파악하고, 생육 환경이 동일한 공간은 동일한 색으로, 생육 환경이 상이한 공간은 다른 색을 부여할 수 있다.
서버는 대상식물이 존재하는 경우, 사용자 단말로부터 대상 식물의 이미지 또는 영상을 수신할 수 있으며(S2000), 대상 식물이 존재하지 않는 경우, 공간별로 획득된 생육 환경 정보를 이용하여 해당 공간에 적합한 식물 정보를 사용자 단말에 제공할 수 있다.
서버는 대상 식물이 존재하는 경우, 사용자 단말로부터 수신한 이미지 또는 영상으로부터 대상 식물을 식별할 수 있다(S3000). 대상 식물을 식별하는 단계(S3000)는 이미지 또는 영상으로부터 대상 식물의 종류 또는 대상 식물의 발육 상태 정보 중 적어도 하나 이상의 데이터를 추출하는 단계를 의미한다. 대상 식물을 추출하는 단계(S3000)에서 서버는 학습된 컨볼루션 신경망(CNN; Convolution Neural Network)을 통해 식물의 종류 및 식물의 발육 상태를 파악할 수 있다.
필요에 따라, 서버는 사용자 단말로부터 수신한 이미지 또는 영상으로부터 대상 식물의 위치를 파악할 수 있다.
서버는 대상 식물에 적합한 생육 환경을 가지는 공간을 판단할 수 있다(S4000). 보다 구체적으로, 서버는 대상 식물의 종류 및 발육 상태 정보를 식별한 뒤, 이를 이용하여 대상 식물의 생육 조건을 파악할 수 있다. 그 후, 저장된 대상 공간의 생육 환경 정보를 이용하여 대상 식물의 생육 조건에 적합한 대상 공간을 판단하고, 적합한 공간을 식물과 매칭할 수 있다. 즉, 서버는 대상 식물의 생육 조건을 이용하여 적합한 생육 환경을 가지는 공간을 판단하고, 식물에 공간과 동일한 색상을 판단의 결과로 부여할 수 있다. 필요에 따라, 서버는 대상 식물이 이동이 필요한지 여부를 판단할 수 있다. 즉, 서버는 획득된 식물의 현재 위치 정보를 이용하여, 식물의 현재 위치가 매칭된 공간이 아닌 경우, 매칭된 공간으로 이동할 것을 결과로 출력할 수 있으며, 식물의 현재 위치가 매칭된 공간인 경우, 식물이 현재 공간에 머무를 것을 결과로 출력할 수 있다. 즉 S4000단계에 따른 판단 결과는 식물에 부여된 색상, 매칭된 공간의 명칭 또는 식물이 이동이 필요한지 여부여부일 수 있다.
서버는, S4000단계에서 식물에 적합한 생육 환경을 가지는 공간이 없는 경우, 사용자 단말에 의해 선택된 공간의 생육 환경을 대상 식물에 적합하도록 제어할 수 있다. 즉, 서버는 제어부를 통해 스마트 제어기를 제어할 수 있으며, 획득된 대상 식물의 생육 조건에 부합하도록 선택된 공간의 생육 환경을 제어할 수 있다.
서버는 하나의 공간 내에서 복수의 IoT 센서를 통해 획득한 온도 또는 습도의 차이가 기 설정된 값 이상인 경우, 스마트 제어기를 통해 공간의 온도 또는 습도를 균일하게 제어하는 제어단계를 더 포함할 수 있다. 이는 해당 공간 내의 공기를 대류 또는 순환시키는 방법으로 실행될 수 있으며, 온도제어 장치, 습도제어 장치, 스마트 블라인드 등 다양한 장치를 이용하여 실행될 수 있다.
서버는 판단 결과와 사용자 단말로부터 획득한 영상을 정합한 AR(Augmented Reality) 영상을 생성하고, 이를 사용자 단말에 제공할 수 있다 (S5000). 즉, 서버는 획득된 영상에 식물이 표시된 영역을 제1 영역으로 구분하고, 제1 영역에 판단 결과를 정합한 AR영상을 생성할 수 있다. 서버는 정합한 AR영상을 사용자 단말에 전송할 수 있다,
본 발명의 또 다른 실시예에 따르면, 식물의 생육 위치를 표시하는 방법은
하나 이상의 IoT 센서로부터 센서가 위치한 공간의 생육 환경 정보를 파악하고, 공간별로 색상을 부여하고, 공간에 적합한 생육 조건을 가지는 식물을 표시하는 단계, 사용자 단말로부터 대상 식물의 영상 데이터를 획득하고, 데이터를 바탕으로 식물을 식별하여 생육 조건을 파악하고, 식물에 적합한 생육 환경을 가지는 공간을 매칭하는 단계, 식물의 현재 위치가 매칭된 공간인 경우, 매칭된 공간의 색상 및 공간에 머무를 것을 제1 결과로 출력하고, 영상 데이터에서 식물에 대응하는 제1 영역에 제1 결과를 정합한 AR(Augmented Reality) 영상을 표시하는 단계, 식물의 현재 위치가 매칭된 공간이 아닌 경우, 매칭된 공간의 색상 및 매칭된 공간에 이동할 것을 제2 결과로 출력하고, 영상 데이터에서 식물에 대응하는 제1 영역에 제2 결과를 정합한 AR(Augmented Reality) 영상을 표시하는 단계를 포함할 수 있다.
본 발명은 하나의 공간에서 여러 식물을 키울 때 발생하는 식물간 특성 차이로 인한 폐사 막기 위한 것으로, 각 공간의 생육 환경에 맞는 식물을 제안함으로써 식물 생육 비용 및 에너지가 크게 절감되는 최적화 식물 생육 시스템을 제공하고자 한다. 또한, 본 발명은 하나의 공간에서 발생하는 온도차로 인해 식물간 생육정도 차이를 최소화하고, 이후 실내 공간에서 나아가 야외의 환경변화 정보를 수집하여 지구온난화에 따른 노지 재배환경 변화에 대해 가장 알맞은 재배식물을 제안하여, 농업에서 발생하는 손실을 최소화하고자 한다. 본 발명의 실시예는 주기적으로 수집되는 환경정보를 통해 식물 생장의 적합성을 판별하고, 식물 생장 손실을 예방하여, 경제적 효과를 높일 수 있을 것으로 보인다.
이에 더하여, 본 발명은 대상 공간별로 색상을 부여하고, 대상 공간과 매칭된 대상 식물에 동일한 색상을 부여한 뒤, 사용자 단말기의 카메라를 통해 획득된 영상에 대상 식물에 해당 색상을 정합한 AR영상을 제공해줌으로써 식물 생육 위치 판단의 직관력이 높아지고, 식물을 혼동하는 일이 없어진다.
이상 본 발명의 실시예들에 대해 설명하였으나, 해당 기술분야에서 통상의 지식을 가진 자라면 특허청구범위에 기재된 본 발명의 기술적 사상으로부터 벗어나지 않는 범위 내에서 구성요소의 부가, 변경, 삭제 또는 추가 등에 의해 본 발명을 다양하게 수정 또는 변경시킬 수 있을 것이고, 이 또한 본 발명의 권리범위에 포함된다고 할 것이다.

Claims (14)

  1. 식물의 생육 위치 제안 서버의 동작방법에 있어서,
    하나 이상의 IoT 센서로부터 상기 센서가 위치한 공간의 생육 환경 정보를 수신하고, 구획된 상기 공간에 색상을 부여하는 단계;
    사용자 단말로부터 대상 식물 데이터를 획득하는 단계;
    상기 사용자 단말로부터 상기 대상 식물 데이터를 획득하지 못한 경우, 상기 사용자 단말에 상기 공간에 적합한 식물 정보를 제공하는 단계;
    상기 사용자 단말로부터 상기 대상 식물 데이터를 획득한 경우, 상기 대상 식물 데이터를 이용하여 상기 식물의 종류 및 발육 상태를 식별하는 단계;
    상기 식물에 적합한 생육 환경을 가지는 상기 공간이 있는지 파악하고, 상기 식물을 적합한 생육 환경을 가지는 상기 공간과 매칭하고, 상기 매칭된 공간과 동일한 색상을 결과로 출력하는 단계;
    상기 출력한 색상과 상기 대상 식물 데이터를 정합한 AR(Augmented Reality) 영상을 상기 사용자 단말에 제공하는 단계;를 포함하는,
    식물의 생육 위치 제안 서버의 동작 방법.
  2. 제1 항에 있어서,
    상기 생육 환경 정보는,
    온도, 습도, 조도 및 일사량을 포함하여 식물 성장에 영향을 미치는 공간 정보를 의미하며,
    상기 획득단계는,
    상기 사용자 단말로부터 상기 식물의 이미지 또는 영상 데이터를 획득하는,
    식물의 생육 위치 제안 서버의 동작 방법.
  3. 제1 항에 있어서,
    상기 식별단계는,
    학습된 컨볼루션 신경망(CNN; Convolution Neural Network)을 통해 상기 식물의 종류 및 발육 상태를 식별하는 단계;
    상기 식물의 생육 조건을 파악하는 단계;를 포함하는
    식물의 생육 위치 제안 서버의 동작 방법.
  4. 제1 항에 있어서,
    상기 제공단계는,
    상기 데이터에서 상기 식물에 대응하는 제1 영역에 상기 결과를 정합한 AR(Augmented Reality) 영상을 상기 사용자 단말에 제공하는,
    식물의 생육 위치 제안 서버의 동작 방법.
  5. 제1 항에 있어서,
    상기 데이터는,
    상기 식물의 위치 정보를 포함하고,
    상기 출력단계는,
    상기 식물의 위치가 매칭된 공간이 아닌 경우, 매칭된 공간으로 이동할 것을 결과로 출력하며,
    상기 식물의 위치가 매칭된 공간인 경우, 상기 공간에 머무를 것을 결과로 출력하며,
    상기 제공단계는,
    상기 대상식물 데이터에서 상기 식물에 대응하는 제1 영역에 출력한 공간 정보를 정합한 AR(Augmented Reality) 영상을 상기 사용자 단말에 제공하는,
    식물의 생육 위치 제안 서버의 동작 방법.
  6. 제1 항에 있어서,
    상기 식물에 적합한 생육 환경을 가지는 상기 공간이 없는 경우, 상기 사용자 단말에 의해 선택된 상기 공간의 생육 환경을 스마트 제어기를 통해 상기 식물에 적합하도록 제어하는 제어단계;를 더 포함하는
    식물의 생육 위치 제안 서버의 동작 방법.
  7. 제1 항에 있어서,
    하나의 공간 내에서 복수의 IoT 센서를 통해 획득한 온도 또는 습도의 차이가 기 설정된 값 이상인 경우, 스마트 제어기를 통해 상기 공간의 온도 또는 습도를 균일하게 제어하는 제어단계;를 더 포함하는
    식물의 생육 위치 제안 서버의 동작 방법.
  8. 통신 가능하며, 대상 공간의 생육 환경을 모니터링하기 위한 IoT 센서;
    상기 공간의 생육 환경을 제어하기 위한 스마트 제어기;
    하나 이상의 사용자 단말;
    서버;를 포함하고,
    상기 서버는,
    식물의 종류, 식물의 이미지, 식물의 생육 조건, 상기 사용자 단말로부터 획득한 식물 정보 및 상기 IoT 센서로부터 획득한 생육 환경 모니터링 정보를 저장하는 저장부;
    상기 IoT 센서 또는 상기 사용자 단말을 통해 획득된 정보를 기반으로 상기 공간의 생육 환경을 파악하고, 생육 환경에 따라 상기 공간에 별도의 색상을 부여하는 공간정보부;
    상기 사용자 단말로부터 획득한 이미지 또는 영상에 포함된 대상 식물의 종류 및 발육 상태를 파악하는 식물 추출 모듈;
    상기 식물의 생육 조건을 파악하는 식물정보부;
    상기 식물의 생육 조건과 상기 공간의 생육 환경을 비교하여, 상기 식물을 적합한 생육 환경을 가지는 상기 공간과 매칭하고, 상기 매칭된 공간과 동일한 색상을 출력하는 판단부;
    상기 출력된 색상과 상기 사용자 단말로부터 획득한 영상을 정합한 AR(Augmented Reality) 영상을 생성하는 AR부;
    외부 기기와 통신을 수행하는 통신부;를 포함하는,
    시스템.
  9. 제8 항에 있어서,
    상기 생육 환경은,
    온도, 습도, 조도 및 일사량을 포함하여 식물 성장에 영향을 미치는 공간의 환경을 의미하는,
    시스템.
  10. 제9 항에 있어서,
    상기 판단부는,
    대상 식물이 없는 경우, 상기 공간의 생육 환경을 기반으로 상기 공간에 적합한 식물 정보를 출력하고,
    대상 식물이 있는 경우, 상기 식물의 생육 조건에 적합한 공간을 매칭하고, 상기 식물에 상기 공간과 동일한 색상을 부여하고, 상기 색상을 결과로 출력하는,
    시스템.
  11. 제10 항에 있어서,
    상기 식물정보부는,
    학습된 컨볼루션 신경망(CNN; Convolution Neural Network)을 통해 식물의 종류 및 식물의 발육상태를 식별하고,
    상기 AR부는,
    상기 사용자 단말로부터 획득한 영상에서 상기 식물에 대응하는 제1 영역에 상기 출력된 색상을 정합한 AR(Augmented Reality) 영상을 생성하는,
    시스템.
  12. 제8 항에 있어서,
    상기 식물 추출 모듈은,
    상기 사용자 단말로부터 획득한 이미지 또는 영상에 포함된 상기 식물의 위치 정보를 획득하고,
    상기 판단부는,
    상기 식물의 위치가 매칭된 공간이 아닌 경우, 매칭된 공간으로 이동할 것을 결과로 출력하며, 상기 위치가 매칭된 공간인 경우, 상기 공간에 머무를 것을 결과로 출력하는,
    시스템.
  13. 제8 항에 있어서,
    상기 서버는,
    상기 스마트 제어기를 통해 상기 공간의 생육 환경을 제어하는 제어부;를 더 포함하며,
    상기 제어부는,
    하나의 공간 내에서 복수의 IoT 센서를 통해 획득한 온도 또는 습도의 차이가 기 설정된 값 이상인 경우, 상기 스마트 제어기를 통해 상기 공간의 온도 또는 습도를 균일하게 제어하고,
    상기 판단부가 상기 식물에 적합한 상기 공간이 없는 것으로 판단하는 경우, 상기 사용자 단말에 의해 선택된 공간의 생육 환경을 상기 식물에 적합하도록 상기 스마트 제어기를 제어하는,
    시스템.
  14. 서버의 식물의 생육 위치 표시 방법에 있어서,
    하나 이상의 IoT 센서로부터 상기 센서가 위치한 공간의 생육 환경 정보를 파악하고, 구획된 상기 공간별로 색상을 부여하고, 상기 공간에 적합한 생육 조건을 가지는 식물을 표시하는 단계;
    사용자 단말로부터 대상 식물의 영상 데이터를 획득하고, 상기 데이터를 바탕으로 상기 식물의 종류 및 발육 상태를 식별하여 생육 조건을 파악하고, 상기 식물에 적합한 생육 환경을 가지는 상기 공간을 매칭하는 단계;
    상기 식물의 위치가 매칭된 공간인 경우, 상기 매칭된 공간의 색상 및 상기 공간에 머무를 것을 제1 결과로 출력하고, 상기 영상 데이터에서 상기 식물에 대응하는 제1 영역에 상기 제1 결과를 정합한 AR(Augmented Reality) 영상을 표시하는 단계;
    상기 식물의 위치가 상기 매칭된 공간이 아닌 경우, 상기 매칭된 공간의 색상 및 상기 매칭된 공간에 이동할 것을 제2 결과로 출력하고, 상기 영상 데이터에서 상기 식물에 대응하는 제1 영역에 상기 제2 결과를 정합한 AR(Augmented Reality) 영상을 표시하는 단계;를 포함하는 식물의 생육 위치를 표시하는 방법.
KR1020230041677A 2023-02-28 2023-03-30 스마트 온습조도계를 이용한 식물 생육 위치 제안 시스템 및 방법 KR102631883B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020230026542 2023-02-28
KR20230026542 2023-02-28

Publications (1)

Publication Number Publication Date
KR102631883B1 true KR102631883B1 (ko) 2024-01-31

Family

ID=89717282

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230041677A KR102631883B1 (ko) 2023-02-28 2023-03-30 스마트 온습조도계를 이용한 식물 생육 위치 제안 시스템 및 방법

Country Status (1)

Country Link
KR (1) KR102631883B1 (ko)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011182764A (ja) * 2010-03-11 2011-09-22 Toyota Home Kk 建物の生物生育システム
KR20220085654A (ko) * 2020-12-15 2022-06-22 이해영 스마트 재배 시스템 및 이의 제어방법
KR20230011053A (ko) * 2021-07-13 2023-01-20 강향원 이미지 분석 기반 공간맞춤형?식물정보 제공 장치 및 이에 의한?식물,처방정보 제공 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011182764A (ja) * 2010-03-11 2011-09-22 Toyota Home Kk 建物の生物生育システム
KR20220085654A (ko) * 2020-12-15 2022-06-22 이해영 스마트 재배 시스템 및 이의 제어방법
KR20230011053A (ko) * 2021-07-13 2023-01-20 강향원 이미지 분석 기반 공간맞춤형?식물정보 제공 장치 및 이에 의한?식물,처방정보 제공 방법

Similar Documents

Publication Publication Date Title
US10028452B2 (en) Horticultural monitoring system
CN102523991B (zh) 网络化智能植物生长系统
KR101852987B1 (ko) 고부가가치 버섯재배를 위한 모듈형 식물공장시스템
US10627785B2 (en) Plant production feedback control loop optimization
KR101696611B1 (ko) 온실 제어 방법 및 이를 위한 시스템
CN110262443A (zh) 一种基于移动互联网的温室大棚环境监测系统
WO2019245122A1 (ko) 아이오티 기반 온실 내 작물 생육상태 실시간 모니터링 시스템
Manoharan Supervised Learning for Microclimatic parameter Estimation in a Greenhouse environment for productive Agronomics
KR20190143678A (ko) IoT 기반 온실 환경 관리 시스템
US20230215511A1 (en) Real-time projections and estimated distributions of agricultural pests, diseases, and biocontrol agents
KR20190100541A (ko) 데이터 분석 기법을 이용한 스마트 팜 관리 시스템
KR20150007668A (ko) 식물공장의 자동화를 위한 맞춤 제어 시스템 및 그 방법
KR102018526B1 (ko) 팜 클라우드 시스템에 사용되는 팜 클라우드 서버 및 온실용 복합 환경 제어장치
CN114879786B (zh) 一种获取食用菌决策方案的方法、系统、装置及介质
WO2021081428A1 (en) Agricultural systems and platforms
JP2020149674A (ja) 農作物の栽培方法提案プログラム及びシステム
CN107368129A (zh) 一种温室种植显示的方法及温室种植显示的系统
KR102380989B1 (ko) 스마트팜에서 재배되는 작물에 대한 생육 레시피 정보를 제공하는 스마트팜 제어장치 및 이의 동작방법
TW201833860A (zh) 以物聯網進行菇類智能栽培的管理系統
KR20140132873A (ko) 온톨로지 기반의 작물 생장환경 관리 장치, 시스템, 및 방법
KR102631883B1 (ko) 스마트 온습조도계를 이용한 식물 생육 위치 제안 시스템 및 방법
Braem et al. Microclimatic buffering in forest, agricultural, and urban landscapes through the lens of a grass‐feeding insect
KR20210149622A (ko) Vr 기반 스마트팜 교육 시스템
Gao et al. An IOT-based Multi-sensor Ecological Shared Farmland Management System.
KR102377963B1 (ko) 육묘장 관리 시스템 및 방법

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
A107 Divisional application of patent
GRNT Written decision to grant