KR102597253B1 - 영상을 기반으로 한 작물재배 생육 플랫폼 구축을 통한스마트 팜 시스템 - Google Patents

영상을 기반으로 한 작물재배 생육 플랫폼 구축을 통한스마트 팜 시스템 Download PDF

Info

Publication number
KR102597253B1
KR102597253B1 KR1020230088738A KR20230088738A KR102597253B1 KR 102597253 B1 KR102597253 B1 KR 102597253B1 KR 1020230088738 A KR1020230088738 A KR 1020230088738A KR 20230088738 A KR20230088738 A KR 20230088738A KR 102597253 B1 KR102597253 B1 KR 102597253B1
Authority
KR
South Korea
Prior art keywords
crops
smart farm
growth
image information
image
Prior art date
Application number
KR1020230088738A
Other languages
English (en)
Inventor
박성호
Original Assignee
주식회사 성호에스아이코퍼레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 성호에스아이코퍼레이션 filed Critical 주식회사 성호에스아이코퍼레이션
Priority to KR1020230088738A priority Critical patent/KR102597253B1/ko
Application granted granted Critical
Publication of KR102597253B1 publication Critical patent/KR102597253B1/ko

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/02Agriculture; Fishing; Forestry; Mining
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01GHORTICULTURE; CULTIVATION OF VEGETABLES, FLOWERS, RICE, FRUIT, VINES, HOPS OR SEAWEED; FORESTRY; WATERING
    • A01G7/00Botany in general
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01GHORTICULTURE; CULTIVATION OF VEGETABLES, FLOWERS, RICE, FRUIT, VINES, HOPS OR SEAWEED; FORESTRY; WATERING
    • A01G9/00Cultivation in receptacles, forcing-frames or greenhouses; Edging for beds, lawn or the like
    • A01G9/24Devices or systems for heating, ventilating, regulating temperature, illuminating, or watering, in greenhouses, forcing-frames, or the like
    • A01G9/247Watering arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/38Services specially adapted for particular environments, situations or purposes for collecting sensor information

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Tourism & Hospitality (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Human Resources & Organizations (AREA)
  • Environmental Sciences (AREA)
  • General Business, Economics & Management (AREA)
  • Signal Processing (AREA)
  • Forests & Forestry (AREA)
  • Computing Systems (AREA)
  • Botany (AREA)
  • Ecology (AREA)
  • Mining & Mineral Resources (AREA)
  • Marine Sciences & Fisheries (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Animal Husbandry (AREA)

Abstract

본 발명은 작물의 영상 이미지를 활용한 생육 단계별 AI 분석 기반의 생육정보자동계측 기술의 고도화 및 클라우드 기반의 서버 내 생육 영상 정보를 구축한 뒤 사용자가 전용 어플리케이션을 이용하여 용이하게 접근할 수 있도록 구현한 영상을 기반으로 한 작물재배 생육 플랫폼 구축을 통한 스마트 팜 시스템에 관한 것으로, 작물을 재배하기 위해 설치되는 스마트팜; 상기 스마트팜에 설치되어 상기 스마트팜에서 재배 중인 작물을 촬영하여 영상 정보를 수집하는 영상 정보 수집 장치; 및 상기 영상 정보 수집 장치로부터 수신되는 영상 정보를 입력 정보로 하여 AI 영상 분석 기반의 생육정보자동계측기술을 이용한 영상 진단을 통해 상기 스마트팜에서 재배 중인 작물의 생육 상태를 진단하는 동시에 생육 단계별 생육 영상 정보의 데이터베이스를 구축하며, 상기 스마트팜의 소유 농가가 사용하는 사용자 단말기로 농가 자신의 스마트팜에서 재배 중인 작물의 생육 단계별 영상 정보를 전송하는 클라우드 서버;를 포함한다.

Description

영상을 기반으로 한 작물재배 생육 플랫폼 구축을 통한 스마트 팜 시스템{Smart Farm System Through Video-based Crop Cultivation Growth Platform Construction}
본 발명은 영상을 기반으로 한 작물재배 생육 플랫폼 구축을 통한 스마트 팜 시스템에 관한 것으로서, 보다 상세하게는 작물의 영상 이미지를 활용한 생육 단계별 AI 분석 기반의 생육정보자동계측 기술의 고도화 및 클라우드 기반의 서버 내 생육 영상 정보를 구축한 뒤 사용자가 전용 어플리케이션을 이용하여 용이하게 접근할 수 있도록 구현한 영상을 기반으로 한 작물재배 생육 플랫폼 구축을 통한 스마트 팜 시스템에 관한 것이다.
일반적으로, 자연환경 계측 데이터(온도, 습도, 일사량, 풍량 등)는 다양하게 여러 경로를 통해 데이터를 얻고 확인할 수 있으나, 작물 재배, 생육 정보를 직접 확인하고 측정 가능한 시스템 및 관련 데이터 획득과 플랫폼이 미비한 실정이다.
그리고, 스마트팜의 확산으로 농장에 사물 인터넷(센서) 등을 설치하여 운영하고 있으나, 단순 기계화, 자동화의 수준으로 빅데이터, AI, 클라우드 컴퓨팅 등 디지털 기술의 활용이 제한적이고, 현장 체감형 등의 양질의 데이터 취득, 분석 시스템이 미흡한 것이 실정이다.
또한, 생육 정보 계측치가 실제 측정과의 오차가 있어 통계적으로 정확한 데이터 수집이 어려우며, 영상 정보의 스케일 환산을 위한 레퍼런스를 추가 설치해야 하는 번거로움 및 데이터 자동 수집에 대한 제한이 있다.
종래 스마트팜의 경우 작물의 파괴적인 방법에 의해 품질 예측을 모니터링하고 있어 품질, 성숙도 등의 전수조가 불가하여, 농가들이 필요한 클라우드 체계로 구축되어 쉬운 접근 및 공유가 가능한 작물 재배 생육 플랫폼이 요구되고 있는 실정이다.
한편, 전술한 배경 기술은 발명자가 본 발명의 도출을 위해 보유하고 있었거나, 본 발명의 도출 과정에서 습득한 기술 정보로서, 반드시 본 발명의 출원 전에 일반 공중에게 공개된 공지기술이라 할 수는 없다.
한국공개특허 제10-2020-0045219호 (2020.05.04. 공개) 한국등록특허 제10-2434210호 (2022.08.19. 공고)
본 발명의 일측면은 작물의 영상 이미지를 활용한 생육 단계별 AI 분석 기반의 생육정보자동계측 기술의 고도화 및 클라우드 기반의 서버 내 생육 영상 정보를 구축한 뒤 사용자가 전용 어플리케이션을 이용하여 용이하게 접근할 수 있도록 구현한 영상을 기반으로 한 작물재배 생육 플랫폼 구축을 통한 스마트 팜 시스템을 제공한다.
본 발명의 기술적 과제는 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
본 발명의 일 실시예에 따른 영상을 기반으로 한 작물재배 생육 플랫폼 구축을 통한 스마트 팜 시스템은, 작물을 재배하기 위해 설치되는 스마트팜; 상기 스마트팜에 설치되어 상기 스마트팜에서 재배 중인 작물을 촬영하여 영상 정보를 수집하는 영상 정보 수집 장치; 및 상기 영상 정보 수집 장치로부터 수신되는 영상 정보를 입력 정보로 하여 AI 영상 분석 기반의 생육정보자동계측기술을 이용한 영상 진단을 통해 상기 스마트팜에서 재배 중인 작물의 생육 상태를 진단하는 동시에 생육 단계별 생육 영상 정보의 데이터베이스를 구축하며, 상기 스마트팜의 소유 농가가 사용하는 사용자 단말기로 농가 자신의 스마트팜에서 재배 중인 작물의 생육 단계별 영상 정보를 전송하는 클라우드 서버;를 포함한다.
일 실시예에서, 상기 영상 정보 수집 장치는, 상기 스마트팜에서 재배 중인 작물의 주변의 바닥면을 따라 연장 설치되는 이동 레일; 상기 이동 레일에 안착되어 작물 주변을 따라 이동하는 컨트롤 박스; 상기 컨트롤 박스의 상측에 직립 설치되는 승강 레일; 및 상기 승강 레일에 승강 이동이 가능하도록 연결 설치되며, 상기 스마트팜에서 재배 중인 작물을 촬영하여 영상 정보를 수집하는 촬영 모듈;을 포함할 수 있다.
일 실시예에서, 상기 영상 정보 수집 장치는, 상기 사용자 단말기 또는 상기 클라우드 서버로부터 원격 제어 신호를 수신 받아 상기 컨트롤 박스로 전달하기 위한 원격 제어 모듈;을 더 포함할 수 있다.
일 실시예에서, 상기 영상 정보 수집 장치는, 상기 촬영 모듈에서 촬영 중인 작물의 영상 정보를 전달받아 상기 클라우드 서버로 실시간으로 전송하는 실시간 영상 정보 전송 모듈;을 더 포함할 수 있다.
일 실시예에서, 상기 사용자 단말기는, 상기 클라우드 서버에서 제공되는 스마트 팜 제공을 위한 전용 어플리케이션이 설치되며, 상기 전용 어플리케이션을 통해 상기 영상 정보 수집 장치의 구동을 제어하며, 상기 클라우드 서버로부터 수신되는 상기 스마트팜에서 재배 중인 작물의 생육 단계별 영상 정보 및 상기 스마트팜에서 재배 중인 작물의 실시간 영상 정보를 수신받아 재생할 수 있다.
일 실시예에서, 상기 촬영 모듈은, 설정한 시간에 Booting 후 스케줄에 의해 영상 정보를 수집한 뒤 상기 클라우드 서버로 전송하고 ShutDown되는 촬영 제어부; 작물의 입체 영상과 RGB 영상을 촬영하는 Depth 카메라; 작물 잎의 광합성 상태를 촬영하는 열화상 카메라; 및 작물의 생산량 예측을 위해 원거리에서 일정한 구역을 촬영하는 RGB 캐노피 카메라;를 포함할 수 있다.
일 실시예에서, 상기 촬영 모듈은, 비파괴 분석 방법을 이용하여 작물의 품질을 진단할 수 있도록 초분광 영상 촬영을 수행하는 초분광 영상 촬영 모듈;을 더 포함할 수 있다.
일 실시예에서, 상기 촬영 모듈은, 상기 초분광 영상 촬영 모듈을 이용하여 폭 넓은 스펙트럼을 가지고 있는 데이터를 획득할 수 있도록 가시광으로부터 적외선 영역까지 폭 넓은 스펙트럼을 가지고 있는 할로겐 램프;를 더 포함할 수 있다.
일 실시예에서, 상기 초분광 영상 촬영 모듈은, 초분광 영상 촬영 시 외부 광원에 의한 간섭을 최소화시킬 수 있도록 해가 진 밤 시간대에 촬영을 수행할 수 있다.
일 실시예에서, 상기 초분광 영상 촬영 모듈은, 상기 승강 레일을 따라 일정한 간격으로 이동하면서 한 라인씩 측정하는 라인스캔 방식에 의해 촬영을 수행하여 400nm ~ 1000nm의 가시광선 및 근적외선 영역의 스펙트럼 데이터를 획득할 수 있다.
일 실시예에서, 상기 클라우드 서버는, 상기 초분광 영상 촬영 모듈에서 획득한 스펙트럼 데이터의 노이즈 영역 제거 및 보정의 전처리를 수행한 뒤, 고차원 데이터를 저차원으로 변환하여 주요 특징을 추출함과 동시에 연산 파라미터 수를 줄여 딥러닝 학습을 원활하게 하여 분류 정확도를 향상시킬 수 있도록 차원 축소 알고리즘을 수행하며, 전처리 및 차원축소를 수행한 초분광 영상을 입력 정보로 하여 Filter를 적용하여 주요 특징을 추출하는 Convolution layer와 Pooling Layer를 통해 Feature map을 구성하는 합성곱 신경망(Convolutional Neural Network, CNN) 모델을 활용한 스트레스 진단 모델을 적용하며 작물의 종류를 판별함과 동시에 증상 발현 전 수분 스트레스 작물을 조기 검출할 수 있다.
일 실시예에서, 상기 스마트팜은, 상기 클라우드 서버로부터 수신되는 수분 스트레스 판독 결과에 대응하여 작물의 수분 스트레스 발생 전 선제적으로 작물로 공급되는 수분 공급량을 조절할 수 있다.
상술한 본 발명의 일측면에 따르면, 작물의 영상 이미지를 활용한 생육 단계별 AI 분석 기반의 생육정보자동계측 기술의 고도화 및 클라우드 기반의 서버 내 생육 영상 정보를 구축한 뒤 사용자가 전용 어플리케이션을 이용하여 용이하게 접근할 수 있다.
또한, 자연환경 계측 데이터를 여러 경로를 통해 얻고 확인할 수 있을 뿐만 아니라, 작물 재배, 생육 정보를 직접 확인하고 측정 가능한 시스템 및 관련 데이터 획득과 플랫폼을 구축할 수 있다.
또한, 빅데이터, AI, 클라우드 컴퓨팅 등 디지털 기술의 활용뿐만 아니라, 현장 체감형 등의 양질의 데이터의 취득 및 분석 시스템을 구축할 수 있다.
또한, 생육 정보 계측치와 실제 측정치 사이의 오차가 최소화된 정확한 데이터 수집이 가능하고, 영상 정보의 스케일 환산을 위한 레퍼런스를 추가 없이 간편하고 데이터 자동 수집에 대한 제한을 제거할 수 있다.
그리고, 비파괴적인 방법에 의해 스마트팜의 품질 예측을 모니터링하고, 병해, 품질, 성숙도 등의 전수조가 가능하며, 농가들에게 필요한 누구나 쉽게 접근 및 공유가 가능한 클라우드 체계를 구축할 수 있다.
본 발명의 효과는 이상에서 언급한 효과들로 제한되지 않으며, 이하에서 설명할 내용으로부터 통상의 기술자에게 자명한 범위 내에서 다양한 효과들이 포함될 수 있다.
도 1은 본 발명의 일 실시예에 따른 영상을 기반으로 한 작물재배 생육 플랫폼 구축을 통한 스마트 팜 시스템의 개략적인 구성이 도시된 도면이다.
도 2는 도 1의 스마트팜을 보여주는 도면이다.
도 3은 본 발명에 따른 생육 단계별 생육 영상 정보의 데이터베이스를 구축을 설명하는 도면이다.
도 4는 사용자 단말기로 전송되는 생육 단계별 영상 정보를 보여주는 도면이다.
도 5는 AI 분석을 통한 작물의 생육 데이터를 보여주는 도면이다.
도 6은 본 발명에 따른 영상처리 기반의 작물 생육 정보를 보여주는 도면이다.
도 7은 본 발명에 따른 전용 어플리케이션의 UI를 보여주는 도면이다.
도 8은 도 1의 영상 정보 수집 장치를 보여주는 도면이다.
도 9는 도 8의 촬영 모듈을 보여주는 도면이다.
후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예와 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.
이하, 도면들을 참조하여 본 발명의 바람직한 실시예들을 보다 상세하게 설명하기로 한다.
도 1은 본 발명의 일 실시예에 따른 영상을 기반으로 한 작물재배 생육 플랫폼 구축을 통한 스마트 팜 시스템의 개략적인 구성이 도시된 도면이다.
도 1을 참조하면, 본 발명의 일 실시예에 따른 영상을 기반으로 한 작물재배 생육 플랫폼 구축을 통한 스마트 팜 시스템(10)은, 스마트팜(100-1 내지 100-N), 영상 정보 수집 장치(200) 및 클라우드 서버(300)를 포함한다.
스마트팜(100-1 내지 100-N)은, 작물(P)을 재배하기 위해 설치되며, 적어도 하나 이상의 영상 정보 수집 장치(200)가 내부에 설치된다.
일 실시예에서, 스마트팜(100-1 내지 100-N)은, 작물(P)의 생육을 위한 물 분사를 위한 스프링쿨러(110) 및 냉온풍기(120) 등 기타 작물(P)의 생육에 필요한 각종 장비 뿐만 아니라, IoT 환경을 구축할 수 있도록 다양한 종류의 센서(예를 들어, 온도 센서, 습도 센서, 조도 센서 등) 및 네트워크 환경을 위한 무선 또는 유선 네트워크 장치(설명의 편의상 도면에는 도시하지 않음) 등을 구비할 수 있다.
영상 정보 수집 장치(200)는, 스마트팜(100-1 내지 100-N)에 각각 설치되며, 도 2에 도시된 바와 같이 스마트팜(100-1 내지 100-N)의 내부를 이동하면서 스마트팜(100-1 내지 100-N)에서 재배 중인 작물(P)을 촬영하여 영상 정보(온실 환경 정보 및 생육 정보(잎, 줄기, 과육 등) 등을 포함함)를 수집한 뒤 도 5에 도시된 바와 같은 AI 분석을 통한 작물(딸기)의 생육 데이터(과, 장, 과폭, 과일 온도 등)을 네트워크(N)를 통해 클라우드 서버(300)로 실시간으로 전송한다.
여기서, 네트워크(N)는, 예컨대 무선 통신, 유선 통신, 광 초음파 또는 그 조합을 포함할 수 있다. BAN(Body Area Network), 위성 통신, 셀룰러 통신, 블루투스, NFC(Near Field Communication), IrDA(Infrared Data Association standard), WiFi(Wireless Fidelity), 및 WiMAX(Worldwide Interoperability for Microwave access)는 통신 경로에 포함될 수 있는 무선 통신의 예이며, 이더넷, DSL(Digital Subscriber Line), FTTH(Fiber to the Home), 및 POTS(Plain Old Telephone Service)는 통신망에 포함될 수 있는 유선 통신의 예이다. 또한, 통신망은 다수의 네트워크 토폴로지 및 거리를 횡단할 수 있다. 예컨대, 통신망은 직접 연결, PAN(Personal Area Network), LAN(Local Area Network), MAN(Metropolitan Area Network), WAN(Wide Area Network), 또는 그 임의의 조합을 포함할 수 있다. 또한, LoRaWAN, NB-Fi, RPMA을 포함하는 저전력광대역 네트워크(Low Power Wide Area Network)를 통해 이루어 질 수도 있다. 다만, 네트워크(N)는, 통신망에 관한 설명은 상기한 통신망으로 한정되는 것이 아니며, 임의의 최신 데이터 통신망이 적용될 수 있다.
클라우드 서버(300)는, 영상 정보 수집 장치(200)로부터 수신되는 영상 정보를 입력 정보로 하여 AI 영상 분석 기반의 생육정보자동계측기술을 이용한 영상 진단을 통해 스마트팜(100-1 내지 100-N)에서 재배 중인 작물(P)의 생육 상태를 진단하는 동시에 도 3에 예시된 바와 같은 생육 단계별 생육 영상 정보의 데이터베이스를 구축하며, 스마트팜(100-1 내지 100-N)의 소유 농가가 사용하는 사용자 단말기(400-1 내지 400-N)로 도 4에 도시된 바와 같은 농가 자신의 스마트팜(100-1 내지 100-N)에서 재배 중인 작물(P)의 생육 단계별 영상 정보를 전송한다.
여기서, 사용자 단말기(400)는, 하나 이상으로 구성될 수 있으며, 데스크탑 컴퓨터(PC)는 물론, 노트북(Notebook), 스마트 폰(Smart Phone), 태블릿 컴퓨터(Tablet PC) 등과 같이 일반인들에게 널리 사용되는 이동 통신 단말기 등, 유무선 네트워크를 지원하는 다양한 종류의 정보 통신 기기 및 멀티미디어 기기를 의미하는 광의의 개념이다.
상술한 바와 같은 구성을 가지는 본 발명의 일 실시예에 따른 영상을 기반으로 한 작물재배 생육 플랫폼 구축을 통한 스마트 팜 시스템(10)은, 1) 대상작물 딥러닝 학습 이미지 DB확보 및 딥러닝 모델 구현하고, 2) 작물 생육측정 알고리즘 설계 및 Depth 보정기술 구현, 3) 작물 별 측정기관 측정 시 Depth 값 및 온도 캘리브레이션 보정 기술 구현, 4) 작물기관 측정에 따라 작물기관 중심 방향에 따라서 길이, 넓이측정 5) 경장 마디의 시작지점 및 끝 지점 식별 및 마디길이 마디 넓이 측정 6) 잎의 RGB 영상에서 딥러닝을 통해 작물기관 식별 후 Depth 영상과 매핑하여 엽장 엽폭을 픽셀 단위 센서값을 통해 계측 엽 순번과 같이 데이터베이스 저장 7) 과일의 꼭지에서 과일 끝의 과장길이 및 과폭을 측정 화방 및 과일 순번과 같이 데이터 베이스 저장 기능 8) 줄기의 마디와 마디 사이의 줄기 길이(절간장) 및 중간지점 폭을 자동 계측 마디 순번과 같이 데이터베이스 저장 기능을 수행 9) 전체화면의 Depth 센서 Bad인 것은 버리고 보정지수에 의해서 빈 센서값을 채우면서 Depth 센서값을 보정하여 정확한 계측이 될 수 있도록 Depth 센서 퀄리티를 보정하는 기술을 구현할 수 있다.
상술한 바와 같은 구성을 가지는 본 발명의 일 실시예에 따른 영상을 기반으로 한 작물재배 생육 플랫폼 구축을 통한 스마트 팜 시스템(10)은, 작물의 영상 이미지를 활용한 생육 단계별 AI 분석 기반의 생육정보자동계측 기술의 고도화 및 클라우드 기반의 서버 내 생육 영상 정보를 구축한 뒤 사용자가 도 7에 도시된 바와 같은 전용 어플리케이션을 이용하여 용이하게 접근할 수 있다.
또한, 자연환경 계측 데이터를 여러 경로를 통해 얻고 확인할 수 있을 뿐만 아니라, 작물 재배, 생육 정보를 직접 확인하고 측정 가능한 시스템 및 관련 데이터 획득과 플랫폼을 구축할 수 있다.
또한, 빅데이터, AI, 클라우드 컴퓨팅 등 디지털 기술의 활용 뿐만 아니라, 현장 체감형 등의 양질의 데이터의 취득 및 분석 시스템을 구축할 수 있다.
또한, 생육 정보 계측치와 실제 측정치 사이의 오차가 최소화된 정확한 데이터 수집이 가능하고, 영상 정보의 스케일 환산을 위한 레퍼런스를 추가 없이 간편하고 데이터 자동 수집에 대한 제한을 제거할 수 있다.
그리고, 비파괴적인 방법에 의해 스마트팜의 품질 예측을 모니터링하고, 병해, 품질, 성숙도 등의 전수조가 가능하며, 농가들에게 필요한 누구나 쉽게 접근 및 공유가 가능한 클라우드 체계를 구축할 수 있다.
도 8은 도 1의 영상 정보 수집 장치를 보여주는 도면이다.
도 8을 참조하면, 영상 정보 수집 장치(200)는, 이동 레일(210), 컨트롤 박스(220), 승강 레일(230) 및 촬영 모듈(240)을 포함한다.
이동 레일(210)은, 컨트롤 박스(220)이 안착되어 사용자가 손수 이동시킴에 따라 수동으로 또는 설정된 셋팅에 대응하여 자동으로 이동할 수 있도록 스마트팜(100-1 내지 100-N)에서 재배 중인 작물(P)의 주변의 바닥면을 따라 연장 설치된다.
컨트롤 박스(220)는, 영상 정보 수집 장치(200)의 기본 동작을 위한 전원 공급 장치 또는 제어 장치 등의 장치들이 설치되며, 이동 레일(210)에 안착되어 작물(P) 주변을 따라 이동하며, 이동 레일(210)을 따라 이동 또는 촬영 모듈(240)의 승강 또는 촬영 등의 구동을 제어한다.
승강 레일(230)은, 촬영 모듈(240)이 연결 설치되어 상하 방향으로 승강 이동할 수 있도록 컨트롤 박스(220)의 상측에 직립 설치된다.
촬영 모듈(240)은, 승강 레일(230)에 승강 이동이 가능하도록 연결 설치되며, 스마트팜(100-1 내지 100-N)에서 재배 중인 작물(P)을 촬영하여 영상 정보를 수집한다.
상술한 바와 같은 구성을 가지는 영상 정보 수집 장치(200)는, 원격 제어 모듈(설명의 편의상 도면에는 도시하지 않음) 및 실시간 영상 정보 전송 모듈(설명의 편의상 도면에는 도시하지 않음)을 더 포함할 수 있다.
원격 제어 모듈은, 사용자 단말기(400-1 내지 400-N) 또는 클라우드 서버(300)로부터 원격 제어 신호를 수신 받아 컨트롤 박스(220)로 전달하여 컨트롤 박스(220)의 이동 또는 촬영 모듈(240)의 승강 이동 및 촬영을 제어한다.
실시간 영상 정보 전송 모듈은, 촬영 모듈(240)에서 촬영 중인 작물(P)의 영상 정보를 전달받아 네트워크(N)를 통해 클라우드 서버(300)로 실시간으로 전송한다.
일 실시예에서, 사용자 단말기(400-1 내지 400-N)는, 클라우드 서버(300)에서 제공되는 스마트 팜 제공을 위한 전용 어플리케이션이 설치되며, 전용 어플리케이션을 통해 영상 정보 수집 장치(200)의 구동을 제어하며, 클라우드 서버(300)로부터 수신되는 스마트팜(100-1 내지 100-N)에서 재배 중인 작물(P)의 생육 단계별 영상 정보 및 스마트팜(100-1 내지 100-N)에서 재배 중인 작물(P)의 실시간 영상 정보를 수신받아 재생할 수 있다.
도 9는 도 8의 촬영 모듈을 보여주는 도면이다.
도 9를 참조하면, 촬영 모듈(240)은, 촬영 제어부(241), Depth 카메라(242), 열화상 카메라(243) 및 RGB 캐노피 카메라(244)를 포함한다.
촬영 제어부(241)는, 설정한 시간(월별/일별, 시간/분당, 농가코드, 구역코드, 식별코드, 수동업로드 등)에 부팅(Booting) 후 스케줄에 의해 Depth 카메라(242), 열화상 카메라(243), RGB 캐노피 카메라(244) 및 초분광 영상 촬영 모듈(245) 중 적어도 하나 이상의 촬영 장치에서 획득한 영상 정보를 수집한 뒤 클라우드 서버(300)로 전송하고 셧다운(ShutDown)된다.
Depth 카메라(242)는, 작물(P)의 입체 영상과 RGB 영상(작물(P)의 길이, 굵기, 크기 등)을 촬영한 뒤 촬영 제어부(241)로 전송한다.
열화상 카메라(243)는, 작물(P) 잎의 광합성 상태를 촬영한 뒤 촬영 제어부(241)로 전송한다.
RGB 캐노피 카메라(244)는, 작물(P)의 생산량 예측을 위해 원거리에서 일정한 구역을 촬영한 뒤 촬영 제어부(241)로 전송한다.
상술한 바와 같은 구성을 가지는 촬영 모듈(240)은, 초분광 영상 촬영 모듈(245) 및 할로겐 램프(설명의 편의상 도면에는 도시하지 않음)를 더 포함할 수 있다.
초분광 영상 촬영 모듈(245)은, 비파괴 분석 방법을 이용하여 작물(P)의 품질을 진단할 수 있도록 초분광 영상 촬영한 뒤 촬영 제어부(241)로 전송한다.
일 실시예에서, 초분광 영상 촬영 모듈(245)은, 초분광 영상 촬영 시 외부 광원에 의한 간섭을 최소화시킬 수 있도록 해가 진 밤 시간대에 촬영을 수행할 수 있다.
할로겐 램프는, 촬영 모듈(240)은, 초분광 영상 촬영 모듈(245)을 이용하여 폭 넓은 스펙트럼을 가지고 있는 데이터를 획득할 수 있도록 가시광으로부터 적외선 영역까지 폭 넓은 스펙트럼을 가지며 할로겐 광을 초분광 영상 촬영 모듈(245)이 촬영하고 있는 작물(P)로 조사한다.
일 실시예에서, 초분광 영상 촬영 모듈(245)은, 승강 레일(230)을 따라 일정한 간격으로 이동하면서 한 라인씩 측정하는 라인스캔 방식에 의해 촬영을 수행하여 400nm ~ 1000nm의 가시광선 및 근적외선 영역의 스펙트럼 데이터를 획득할 수 있다.
일 실시예에서, 초분광 영상 촬영 모듈(245)은, 스텝으로 움직이며 한 라인씩 측정하는 라인스캔 방식을 사용하며, 승강 레일(230)을 따라 일정한 간격으로 이동하며, 작물(P)은 라인스캔으로 촬영이 되는데 하나의 라인에 640 개의 공간 정보와 270개의 파장밴드가 획득될 수 있다.
일 실시예에서, 초분광 영상 촬영 모듈(245)은, 모터 컨트롤러에 의해 1 스텝에 0.344 mm씩 8.59 mm/s의 속도로 총 640 스텝을 적용하며, 최종적으로 640 Х 640 Х 270 픽셀 크기의 초분광 영상을 획득할 수 있다.
일 실시예에서, 클라우드 서버(300)는, 초분광 영상 촬영 모듈(245)에서 획득한 스펙트럼 데이터의 노이즈 영역 제거 및 보정의 전처리를 수행한 뒤, 고차원 데이터를 저차원으로 변환하여 주요 특징을 추출함과 동시에 연산 파라미터 수를 줄여 딥러닝 학습을 원활하게 하여 분류 정확도를 향상시킬 수 있도록 차원 축소 알고리즘을 수행하며, 전처리 및 차원축소를 수행한 초분광 영상을 입력 정보로 하여 Filter를 적용하여 주요 특징을 추출하는 Convolution layer와 Pooling Layer를 통해 Feature map을 구성하는 합성곱 신경망(Convolutional Neural Network, CNN) 모델을 활용한 스트레스 진단 모델을 적용하며 작물(P)의 종류를 판별함과 동시에 증상 발현 전 수분 스트레스 작물(P)을 조기 검출할 수 있다.
일 실시예에서, 클라우드 서버(300)는, 초분광 영상 촬영 모듈(245)을 이용하여 획득한 작물(P)(예를 들어, 토마토 또는 파프리카 등)의 평균 스펙트럼 및 각 파장에 대한 영상을 분석한 결과 초분광 영상 촬영 모듈(245)과 외부 환경 문제 등으로 인하여 400 nm~470 nm 영역과 960~1000 nm의 신호가 낮아 심한 노이즈가 발생할 수 있는 바, 해당 스펙트럼 대역은 제거하고 470~960 nm 영역 204개 파장 정보만 분석에 사용할 수 있다.
초분광 영상 획득 시 물체에 따라 반사율이 다른데, 이는 광의 세기, 방향, 각도 등에 의해 차이가 발생하기 때문이다.
이에, 클라우드 서버(300)는, 광조건에 따른 영향을 최소화하기 위해 초분광 영상 촬영 모듈(245)의 렌즈 마개를 닫아 반사율 0%인 Dark Reference 데이터를 획득하고 반사율 99% 이상인 Teflon board를 이용하여 White Reference 데이터를 측정하여 보정을 수행할 수 있다.
많은 수의 스펙트럼 채널에서 획득한 초분광 영상 데이터는 좁은 파장 간격으로 인해 중복 정 보가 포함되어 있을 가능성이 높다. 따라서 중복 또는 불필요한 파장 정보를 제거할 필요가 있다. 또한, 딥러닝을 활용한 분류 모델 개발에 있어 합성곱 신경망은 많은 수의 레이어를 깊게 쌓아 모델을 구성하고 영상의 중요한 특징을 추출하게 되는데 대용량의 초분광 영상 데이터를 딥러닝 학습을 수행할 경우 연산 시 발생하는 파라미터 수의 증가로 메모리 부족 오류가 자주 발생하고 학습 소요 시간도 증가하게 된다.
따라서, 클라우드 서버(300)는, 고차원 데이터를 저차원으로 변환하여 주요 특징을 추출함과 동시에 연산 파라미터 수를 줄여 딥러닝 학습을 원활하게 하여 분류 정확도 를 향상시키기 위해 차원 축소 알고리즘을 적용 하였다.
또한, 클라우드 서버(300)는, 차원 축소를 통한 중요 정보를 활용함과 동시에 딥러닝 모델 레이어 구성 및 학습에 적합한 차원을 고려하여 204개의 차원을 16개 차원으로 축소하였다
클라우드 서버(300)는, 전처리 및 차원축소를 수행한 초분광 영상과 합성곱 신경망(Convolutional Neural Network, CNN) 모델을 활용하여 스트레스 진단 모델을 적용하였다.
합성곱 신경망은 영상에 Filter를 적용하여 주요 특징을 추출하는 Convolution layer와 Pooling Layer를 통해 Feature map을 구성한다. 획득한 Feature map을 이용하여 Fully Connected Layer에서 영상을 분류한다.
본 발명에 따른 클라우드 서버(300)는, 딥러닝 CNN 알고리즘을 활용한 영상 분류에서 좋은 성능을 보인 EfficientNet과 ConvNext 모델을 활용하였다. EfficientNet은 기존의 CNN 네트워크와 구성하는 방법을 다르게 고안한 것으로 ResNet, DenseNet, Inception과 같은 모델은 layer를 쌓아 depth를 깊게 하는 방식으로 정확도를 향상시켰다. 하지만 layer가 깊어질수록 소모되는 자원은 크게 증가하고 정확도는 변함이 거의 없었다. EfficientNet은 네트워크의 depth 뿐만 아니라 filter를 통한 채널 수, 영상의 해상도를 모두 고려한 scaling을 통해 적은 파라미터로 높은 성능을 보였다
ConvNeXt는 ResNet을 기반으로 하는 모델로 이전의 모델에서 정확도를 향상시켰던 기법들을 차례로 적용시켜 높은 성능을 보인 네트워크이다. 적용된 기법은 Residual block 수 변경, convolution filter 크기 변경, 입력 채널 변경이 있 고 합성곱 연산 후 하나로 통합시키는 grouped convolution 및 1Х1 convolution을 사용하여 연산 수를 줄인 inverted bottleneck과 activation function 위치 변경, normalization function 변경, down sampling layer를 추가하여 높은 성능의 모델을 구성하였다.
RGB 3개의 채널을 갖는 영상을 기반으로 구축된 위 모델을 16개의 채널을 갖는 초분광 영상에 적용하기 위하여 첫 번째 layer의 입력 채널을 3 에서 16으로 변경하였다. 학습 후 4개의 클래스로 분류하기 위해 마지막 분류기의 output을 4개 로 조정하였다.
보정된 초분광 영상 데이터는 차원 축소를 위해 3차원의 하이퍼큐브 형태의 데이터를 2차원으로 변환한다. Python 머신러닝 라이브러리인 Scikit Learn을 활용하여 PCA, NMF, ICA, FA 차원 축소를 수행한 후 3차원의 형태로 재변환하였다. 데이터는 토마토 정상 및 스트레스, 파프리카 정상 및 스트레스로 4가지 클래스이며, 클래스 당 각 35개의 데이터를 4일차부터 10일차까지 7 일간 획득하였다. 각 클래스에서 데이터 셋의 비율은 학습 셋 21개, 검증 셋 7개, 테스트 셋 7개 이며 총 데이터 셋의 개수는 학습 셋 588개, 검증 셋 196개, 테스트 셋 196개이다. 테스트 식물 샘플은 학습 데이터 샘플과 독립적으로 설정하였다. 4~10일차의 시간에 따른 초분광 데이터를 학습하여 개발된 모델에 적용함으로써 증상 발현 전 얼마나 조기에 스트레스를 진단할 수 있는지 추론할 수 있다. 특정 날짜의 데이터를 개발 모델에 적용하여 나온 결과로 작물의 스트레스 정도를 판단할 수 있다.
즉, 클라우드 서버(300)는, 비파괴 분석 방법으로 시료에 광을 조사하여 시료 내부를 통과한 투과광을 이용한 투과방식과 시료를 침투한 빛이 표면 근처의 입자들과 반응한 후 여러 방향으로 확산되어 나오는 반사광을 이용하는 초분광 영상 촬영 모듈(245)을 통해 획득한 영상 데이터를 이용하여 작물(P)의 품질, 성숙도(3단계), 병해, 및 품질의 예측을 모니터링할 수 있다.
이를 통해, 본 발명에 따른 클라우드 서버(300)는, 약해(병해) 유무 판단, 품질 평가 및 품질 예측, 작물의 성숙도 등의 모니터링을 구현할 수 있다.
일 실시예에서, 스마트팜(100-1 내지 100-N)은, 클라우드 서버(300)로부터 수신되는 수분 스트레스 판독 결과에 대응하여 작물(P)의 수분 스트레스 발생 전 선제적으로 작물(P)로 공급되는 수분 공급량을 조절할 수 있다.
상술된 실시예들은 예시를 위한 것이며, 상술된 실시예들이 속하는 기술분야의 통상의 지식을 가진 자는 상술된 실시예들이 갖는 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 상술된 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 명세서를 통해 보호받고자 하는 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태를 포함하는 것으로 해석되어야 한다.
10: 영상을 기반으로 한 작물재배 생육 플랫폼 구축을 통한 스마트 팜 시스템
100: 스마트팜
200: 영상 정보 수집 장치
300: 클라우드 서버
400: 사용자 단말기

Claims (12)

  1. 작물을 재배하기 위한 스프링쿨러 및 냉온풍기와, 온도센서, 습도센서 및 조도센서가 구비된 스마트팜;
    상기 스마트팜에 설치되어 상기 스마트팜에서 재배 중인 작물을 촬영하여 영상 정보를 수집하는 영상 정보 수집 장치;
    상기 영상 정보 수집 장치는 상기 스마트팜에서 작물 주변의 바닥면을 따라 연장 설치되는 이동 레일, 상기 이동 레일에 안착되어 작물 주변을 따라 이동하는 컨트롤 박스, 상기 컨트롤 박스의 상측에 직립 설치되는 승강 레일, 상기 승강 레일에 승강 이동이 가능하도록 연결 설치되며 상기 스마트팜에서 재배 작물을 촬영하여 영상 정보를 수집하는 촬영 모듈, 상기 촬영 모듈에서 수집된 영상 정보를 사용자 단말기 또는 클라우드 서버로부터 원격 제어 신호를 수신 받아 컨트롤 박스로 전달하기 위한 원격 제어 모듈, 및 상기 촬영 모듈에서 촬영 중인 작물의 영상 정보를 전달받아 상기 클라우드 서버로 실시간으로 전송하는 실시간 영상 정보 전송 모듈;을 포함하고,
    상기 사용자 단말기는 상기 클라우드 서버에서 제공되는 스마트 팜 제공을 위한 전용 어플리케이션이 설치되며 상기 전용 어플리케이션을 통해 상기 영상 정보 수집 장치의 구동을 제어하고 상기 클라우드 서버로부터 수신되는 상기 스마트팜에서 재배 중인 작물의 생육 단계별 영상 정보 및 상기 스마트팜에서 재배 중인 작물의 실시간 영상 정보를 수신받아 재생하고,
    상기 촬영 모듈은 월별/일별, 시간/분당, 농가코드, 구역코드, 식별코드, 수동업로드의 설정한 시간에 Booting후 스케줄에 의해 영상 정보를 수집한 뒤 상기 클라우드 서버로 전송하고 ShutDown되는 촬영 제어부, 작물의 입체 영상과 RGB 영상을 촬영하는 Depth 카메라, 작물 잎의 광합성 상태를 촬영하는 열화상 카메라, 및 작물의 생산량 예측을 위해 원거리에서 일정한 구역을 촬영하는 RGB 캐노피 카메라, 비파괴 분석 방법을 이용하여 작물의 품질을 진단할 수 있도록 초분광 영상 촬영을 수행하는 초분광 영상 촬영 모듈, 가시광으로부터 적외선 영역까지 폭 넓은 스펙트럼을 가지고 있는 할로겐 램프;을 더 포함하며,
    상기 초분광 영상 촬영 모듈은 상기 승강 레일을 따라 일정한 간격으로 이동하면서 한 라인씩 측정하는 라인스캔 방식에 의해 촬영을 수행하여 400nm ~ 1000nm의 가시광선 및 근적외선 영역의 스펙트럼 데이터를 획득하고,
    상기 영상 정보 수집 장치로부터 수신되는 영상 정보를 입력 정보로 하여 AI 영상 분석 기반의 생육정보자동계측기술을 이용한 영상 진단을 통해 상기 스마트팜에서 재배 중인 작물의 생육 상태를 진단하는 동시에 생육 단계별 생육 영상 정보의 데이터베이스를 구축하며, 상기 스마트팜의 소유 농가가 사용하는 사용자 단말기로 농가 자신의 스마트팜에서 재배 중인 작물의 생육 단계별 영상 정보를 전송하는 클라우드 서버;를 포함하는, 영상을 기반으로 한 작물재배 생육 플랫폼 구축을 통한 스마트 팜 시스템.
  2. 삭제
  3. 삭제
  4. 삭제
  5. 삭제
  6. 삭제
  7. 삭제
  8. 삭제
  9. 삭제
  10. 삭제
  11. 제1항에 있어서,
    상기 클라우드 서버는,
    상기 초분광 영상 촬영 모듈에서 획득한 스펙트럼 데이터의 노이즈 영역 제거 및 보정의 전처리를 수행한 뒤, 고차원 데이터를 저차원으로 변환하여 주요 특징을 추출함과 동시에 연산 파라미터 수를 줄여 딥러닝 학습을 원활하게 하여 분류 정확도를 향상시킬 수 있도록 차원 축소 알고리즘을 수행하며, 전처리 및 차원축소를 수행한 초분광 영상을 입력 정보로 하여 Filter를 적용하여 주요 특징을 추출하는 Convolution layer와 Pooling Layer를 통해 Feature map을 구성하는 합성곱 신경망(Convolutional Neural Network, CNN) 모델을 활용한 스트레스 진단 모델을 적용하며 작물의 종류를 판별함과 동시에 증상 발현 전 수분 스트레스 작물을 조기 검출하는, 영상을 기반으로 한 작물재배 생육 플랫폼 구축을 통한 스마트 팜 시스템.
  12. 제11항에 있어서,
    상기 스마트팜은,
    상기 클라우드 서버로부터 수신되는 수분 스트레스 판독 결과에 대응하여 작물의 수분 스트레스 발생 전 선제적으로 작물로 공급되는 수분 공급량을 조절하는, 영상을 기반으로 한 작물재배 생육 플랫폼 구축을 통한 스마트 팜 시스템.
KR1020230088738A 2023-07-09 2023-07-09 영상을 기반으로 한 작물재배 생육 플랫폼 구축을 통한스마트 팜 시스템 KR102597253B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230088738A KR102597253B1 (ko) 2023-07-09 2023-07-09 영상을 기반으로 한 작물재배 생육 플랫폼 구축을 통한스마트 팜 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020230088738A KR102597253B1 (ko) 2023-07-09 2023-07-09 영상을 기반으로 한 작물재배 생육 플랫폼 구축을 통한스마트 팜 시스템

Publications (1)

Publication Number Publication Date
KR102597253B1 true KR102597253B1 (ko) 2023-11-06

Family

ID=88748286

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230088738A KR102597253B1 (ko) 2023-07-09 2023-07-09 영상을 기반으로 한 작물재배 생육 플랫폼 구축을 통한스마트 팜 시스템

Country Status (1)

Country Link
KR (1) KR102597253B1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200045219A (ko) 2018-10-22 2020-05-04 이종건 카메라 영상 및 데이터의 동시 통신을 위한 스마트 제어보드를 이용한 원격지 제어 시스템이 적용된 스마트 팜
KR20200144905A (ko) * 2019-06-19 2020-12-30 대한민국(농촌진흥청장) 스마트 팜의 작물 자동 생육 계측 시스템 및 그 방법
KR102297913B1 (ko) * 2021-01-25 2021-09-06 (주)스마트링스 하이퍼스펙트럴 반사광 및 형광 산란을 이용한 식물 생장 모니터링 시스템 및 그 방법
KR102434210B1 (ko) 2020-07-03 2022-08-19 부산대학교 산학협력단 파노라마 영상에 의한 다양한 개체의 스마트 팜 생육 관리 시스템 및 방법
KR102532651B1 (ko) * 2022-11-21 2023-05-15 주식회사 크로프트 온실 작물 관리 시스템

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200045219A (ko) 2018-10-22 2020-05-04 이종건 카메라 영상 및 데이터의 동시 통신을 위한 스마트 제어보드를 이용한 원격지 제어 시스템이 적용된 스마트 팜
KR20200144905A (ko) * 2019-06-19 2020-12-30 대한민국(농촌진흥청장) 스마트 팜의 작물 자동 생육 계측 시스템 및 그 방법
KR102434210B1 (ko) 2020-07-03 2022-08-19 부산대학교 산학협력단 파노라마 영상에 의한 다양한 개체의 스마트 팜 생육 관리 시스템 및 방법
KR102297913B1 (ko) * 2021-01-25 2021-09-06 (주)스마트링스 하이퍼스펙트럴 반사광 및 형광 산란을 이용한 식물 생장 모니터링 시스템 및 그 방법
KR102532651B1 (ko) * 2022-11-21 2023-05-15 주식회사 크로프트 온실 작물 관리 시스템

Similar Documents

Publication Publication Date Title
CN102495005B (zh) 高光谱图像技术诊断作物水分亏缺的方法
CN101718683B (zh) 快速检测叶片叶绿素含量的建模方法及检测方法
CN106525732B (zh) 基于高光谱成像技术的苹果内外品质快速无损检测方法
CN111008733B (zh) 一种作物生长管控方法和系统
WO2016009752A1 (ja) 情報処理装置、制御信号の生産方法、情報処理システム、プログラム
CN102081039A (zh) 一种环境可控的作物营养水分高光谱图像检测装置
CN106290238A (zh) 一种基于高光谱成像的苹果品种快速鉴别方法
CN112345458A (zh) 一种基于无人机多光谱影像的小麦产量估测方法
KR102297913B1 (ko) 하이퍼스펙트럴 반사광 및 형광 산란을 이용한 식물 생장 모니터링 시스템 및 그 방법
CN103018196A (zh) 一种油菜需水信息的快速探测方法
JP2016211899A (ja) 植物ストレス検出装置及び植物ストレス検出方法
CN103278503B (zh) 一种基于多传感器技术的葡萄水分胁迫诊断方法及系统
KR20210120967A (ko) 스마트 식물 모니터링 장치 및 방법
WO2017199757A1 (ja) 光学装置および情報処理方法
KR20210077504A (ko) 스마트팜 데이터 생육연동시스템
WO2020230126A1 (en) Systems and methods for phenotyping
JP2017042136A (ja) 植物栽培支援装置、植物栽培支援方法、プログラム、記憶媒体
CN114898405A (zh) 基于边缘计算的便携式肉鸡异常监测系统
Fan et al. Application of internet of things to agriculture—The LQ-FieldPheno platform: A high-throughput platform for obtaining crop phenotypes in field
KR102597253B1 (ko) 영상을 기반으로 한 작물재배 생육 플랫폼 구축을 통한스마트 팜 시스템
CN109187356A (zh) 基于卫星遥感数据的大豆长势预测方法
CN112816441A (zh) 一种设施园艺作物生长状况检测方法及装置
KR102582588B1 (ko) Ai를 활용한 작물의 엽 생육지수 측정시스템
CN113514402B (zh) 一种冬小麦叶绿素含量的预测系统及方法
GB2605253A (en) A data collection and monitoring system, a controlled environment farming system, devices and related methods

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant