KR102504318B1 - 스마트 엣지 디바이스 기반의 생육 분석 방법 및 그를 위한 장치 및 시스템 - Google Patents

스마트 엣지 디바이스 기반의 생육 분석 방법 및 그를 위한 장치 및 시스템 Download PDF

Info

Publication number
KR102504318B1
KR102504318B1 KR1020200089192A KR20200089192A KR102504318B1 KR 102504318 B1 KR102504318 B1 KR 102504318B1 KR 1020200089192 A KR1020200089192 A KR 1020200089192A KR 20200089192 A KR20200089192 A KR 20200089192A KR 102504318 B1 KR102504318 B1 KR 102504318B1
Authority
KR
South Korea
Prior art keywords
information
growth
image
analysis system
delete delete
Prior art date
Application number
KR1020200089192A
Other languages
English (en)
Other versions
KR20220010374A (ko
Inventor
이관호
Original Assignee
주식회사 쎄슬프라이머스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 쎄슬프라이머스 filed Critical 주식회사 쎄슬프라이머스
Priority to KR1020200089192A priority Critical patent/KR102504318B1/ko
Publication of KR20220010374A publication Critical patent/KR20220010374A/ko
Application granted granted Critical
Publication of KR102504318B1 publication Critical patent/KR102504318B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/02Agriculture; Fishing; Mining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/257Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30188Vegetation; Agriculture

Abstract

본 발명은 스마트 엣지 디바이스 기반의 생육 분석 방법 및 그를 위한 장치 및 시스템에 관한 것으로서, 본 발명의 일 실시 예에 따른 스마트 엣지 디바이스 기반의 생육 분석 방법은 구비된 카메라를 통해 촬영된 이미지를 획득 받는 단계와 상기 획득된 이미지로부터 물체를 탐지하여 분류 처리하는 단계와 상기 분류 처리 결과에 따라 사용할 사전 학습된 딥러닝 모델을 외부 데이터베이스로부터 획득하는 단계와 상기 획득된 딥러닝 모델에 기반한 기계 학습을 통해 분석 대상 객체를 탐지하는 단계와 상기 탐지된 객체의 성숙도를 분석하는 단계와 상기 분석된 성숙도에 기반하여 작물 수확 시기를 결정하는 단계를 포함할 수 있다.

Description

스마트 엣지 디바이스 기반의 생육 분석 방법 및 그를 위한 장치 및 시스템{Growth analysis method based on smart edge device and apparatus and system therefor}
본 발명은 작물 생육 모니터링 기술에 관한 것으로, 보다 상세하게는 3차원 뎁스(Depth) 카메라 및 초분광 카메라 등을 통해 수집된 이미지와 분광 데이터에 기반한 딥러닝을 통해 작물의 실시간 생육 상태 및 성숙도를 분석하는 인공 지능 알고리즘이 탑재된 스마트 엣지 디바이스 기반의 생육 분석 방법 및 그를 위한 장치 및 시스템을 제공하는 것이다.
최근 클라우드 컴퓨팅이 활성화됨에 따라 수많은 다양한 데이터가 클라우드 컴퓨팅 환경에서 처리 및 분석되고 있다.
클라우드 컴퓨팅은 인터넷을 통해 서버, 저장소, 소프트웨어 분석 등의 서비스를 제공하는 네트워크 환경이다.
최근 클라우드 서비스를 이용하는 사람 및 기업이 기하 급수적으로 증가함에 따라 서버 및 데이터 센서에서 처리할 수 있는 한계 용량을 초과하는 상황이 빈번히 발생되고 있으며, 그에 따른 데이터 처리 지연 현상이 발생되고 있다. 또한, 클라우드 컴퓨팅을 위한 통신 과정에서 다양한 보안 문제도 발생되고 있다.
클라우드 환경에서의 데이터 처리 속도, 용량 및 보안 이슈를 해결하기 위한 도입된 기술이 엣지 컴퓨팅 기술이다.
엣지 컴퓨팅은 말단 기기가 센싱 데이터에 기초하여 컴퓨팅을 수행하는 것을 의미한다.
클라우드 컴퓨팅은 데이터를 처리하는 곳이 데이터 센터 등에 집중되는 반면, 엣지 컴퓨팅은 일부 데이터 처리를 말단 기기에서 수행함으로써, 클라우드에서의 데이터 처리 부담을 경감시키고, 그에 따른 데이터 처리 지연을 미연에 방지할 수 있는 장점이 있다.
최근에는 농업 분야에서도 자동화 및 무인 재배 기술이 도입됨에 따라 엣지 컴퓨팅에 대한 연구가 활발히 진행되고 있다.
본 발명의 목적은 스마트 엣지 디바이스 기반의 생육 분석 방법 및 그를 위한 장치 및 시스템을 제공하는 것이다.
본 발명의 다른 목적은 3차원 뎁스(Depth) 카메라 및 초분광 카메라를 통해 수집된 이미지와 분광 데이터에 기반한 딥러닝을 통해 작물의 실시간 생육 상태 및 성숙도를 분석하는 인공 지능 알고리즘이 탑재된 스마트 엣지 디바이스 기반의 생육 분석 방법 및 그를 위한 장치 및 시스템을 제공하는 것이다.
본 발명의 또 다른 목적은 인공지능 칩셋이 내장된 GPU 보드에 카메라를 장착하여 엣지 컴퓨팅을 수행하는 것이 가능한 스마트 엣지 디바이스 기반의 생육 분석 방법 및 그를 위한 장치 및 시스템을 제공하는 것이다.
본 발명의 또 다른 목적은 딥러닝 프로세서를 탑재한 저전력, 고성능 이미지 프로세싱 임베디드 솔루션을 이용하여 실시간 객체 인식 및 분류 서비스를 제공함으로써, 클라우드 환경에서의 과도한 데이터 트래픽과 처리 지연을 미연에 방지하는 것이 가능한 스마트 엣지 디바이스 기반의 생육 분석 방법 및 그를 위한 장치 및 시스템을 제공하는 것이다.
본 발명의 또 다른 목적은 네트워크 장애에도 내장된 인공 지능 칩셋을 통해 엣지 컴퓨팅을 수행함으로써, 실시간 의사 결정이 가능한 스마트 엣지 디바이스 기반의 생육 분석 방법 및 그를 위한 장치 및 시스템을 제공하는 것이다.
본 발명의 또 다른 목적은 히트 싱크 없이 저전력으로 동작하는 소형의 저렴한 스마트 엣지 디바이스 기반의 생육 모니터링 장치를 제공하는 것이다.
본 발명의 또 다른 목적은 현장에서 수집한 환경 데이터와 작물 생육 데이터에 기반하여 최적의 수확 시기 및 재배 방법을 제시하는 것이 가능한 스마트 엣지 디바이스 기반의 생육 모니터링 장치를 제공하는 것이다.
본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재들로부터 당업자에게 명확하게 이해될 수 있을 것이다.
본 발명의 일 실시 예에 따른 스마트 엣지 디바이스 기반의 생육 분석 방법은 구비된 카메라를 통해 촬영된 이미지를 획득 받는 단계와 상기 획득된 이미지로부터 물체를 탐지하여 분류 처리하는 단계와 상기 분류 처리 결과에 따라 사용할 사전 학습된 딥러닝 모델을 외부 데이터베이스로부터 획득하는 단계와 상기 획득된 딥러닝 모델에 기반한 기계 학습을 통해 분석 대상 객체를 탐지하는 단계와 상기 탐지된 객체의 성숙도를 분석하는 단계와 상기 분석된 성숙도에 기반하여 작물 수확 시기를 결정하는 단계를 포함할 수 있다.
실시 예로, 상기 방법은 상기 획득된 이미지에 대한 이미지 파일을 생성하는 단계와 상기 생성된 이미지 파일을 클라우드 서버로 전송하는 단계를 포함하고, 상기 이미지 파일은 상기 서버와 연동되는 데이터베이스에 저장될 수 있다.
실시 예로, 상기 카메라는 RGB 이미지 및 DEPTH 이미지 촬영이 가능한 3D DEPTH 카메라 및 RGB 이미지 촬영이 가능한 분광 카메라를 포함할 수 있다.
실시 예로, 상기 방법은 상기 탐지된 객체에 상응하는 당도 측정 정보를 획득하는 단계를 더 포함하고, 상기 당도 측정 정보에 더 기반하여 상기 성숙도가 분석될 수 있다.
실시 예로, 상기 방법은 상기 3D DEPTH 카메라로부터 획득된 이미지 정보에 기반하여 상기 탐지된 객체에 상응하는 객체 정보를 획득하는 단계와 상기 분광 카메라로부터 획득된 이미지 정보에 기초하여 계산된 반사율에 기반하여 식생 지수 값을 산출하는 단계를 더 포함하고, 상기 객체 정보는 크기 정보, 형상 정보, 생장 정보 및 색도 정보 중 적어도 하나를 포함하고, 상기 객체 정보 및 상기 식생 지수 값에 더 기반하여 상기 작물의 수확 시기가 결정될 수 있다.
실시 예로, 상기 반사율은 가시광선대의 적색 영역에 대한 반사율 Red와 근적외선대 반사율 NIR를 포함하고, 상기 식생 지수 값 NDVI는 하기 수식:
NDVI = (NIR-Red)/(NIR+Red)
에 의해 산출될 수 있다.
실시 예로, 상기 방법은 상기 탐지된 객체가 육묘인 경우, 작물의 생장 정보 및 위치 정보를 획득하는 단계와 상기 획득된 생장 정보 및 위치 정보에 기반하여 상기 육묘의 불량 여부를 결정하는 단계를 더 포함하고, 상기 생장 정보는 엽장, 엽폭 및 엽형지수 중 적어도 하나를 포함할 수 있다.
실시 예로, 상기 획득된 딥러닝 모델에 기반하여 분석 대상 객체를 탐지하는 단계는 상기 획득된 이미지의 전체 좌표를 복수의 그리드 셀로 나누는 단계와 하나의 상기 그리드 셀 당 2개의 경계 박스를 생성하고, 상기 경계 박스 내에 물체가 들어가 있을 확률인 신뢰도를 계산하는 단계와 상기 각 그리드 셀 내 이미지가 어떤 물체 안에 포함되어 있는지를 식별하기 위한 클래스를 분류하는 단계와 상기 계산된 신뢰도 및 상기 분류된 클래스에 기반하여 상기 분석 대상 객체를 감지하는 단계를 포함할 수 있다.
실시 예로, 상기 방법은 상기 외부 데이터베이스로부터 생육 프로파일을 획득하는 단계와 생육 측정 정보를 획득하는 단계와 생육 프로파일 및 생육 측정 정보의 상관 관계를 분석하는 단계와 상기 상관 관계 분석 결과에 기초하여 생육 모델의 설정 정보를 보완하는 단계와 상기 보완된 설정 정보를 상기 외부 데이터베이스에 저장하는 단계를 더 포함하고, 상기 설정 정보는 온도 정보, 습도 정보, 이산화탄소 농도정보 및 전기전도도 중 적어도 하나를 포함할 수 있다.
본 발명의 다른 실시 예에 따른 생육 분석 시스템은 3D DEPTH 카메라 및 분광 카메라를 통해 촬영된 RGB 이미지, DEPTH 이미지 및 RGB 이미지를 제공하는 이미지 촬영 시스템과 상기 이미지 촬영 시스템으로부터 획득된 이미지에 기초하여 이미지 파일을 생성하고, 상기 획득된 이미지로부터 물체를 탐지하여 분류 처리하고, 상기 분류 처리 결과에 따라 사용할 사전 학습된 딥러닝 모델을 구비된 이더넷 통신 모듈을 통해 외부 데이터베이스로부터 획득하고, 상기 획득된 딥러닝 모델에 기반한 기계 학습을 통해 분석 대상 객체를 탐지하고, 상기 탐지된 객체에 상응하는 성숙도를 분석하는 이미지 분석 시스템과 상기 분석된 성숙도에 기반하여 작물 수확 시기를 결정하는 측정 정보 분석 시스템을 포함할 수 있다.
실시 예로, 상기 이미지 촬영 시스템은 상기 생성된 이미지 파일을 상기 이더넷 통신 모듈을 통해 클라우드 환경에 위치한 서버로 전송하고, 상기 이미지 파일은 상기 서버와 연동되는 데이터베이스에 저장될 수 있다.
실시 예로, 상기 이미지 분석 시스템은 상기 3D DEPTH 카메라와의 통신을 위한 USB 통신 모듈과 상기 분광 카메라와의 통신을 위한 와이파이 통신 모듈을 포함할 수 있다.
실시 예로, 상기 탐지된 객체에 상응하는 당도를 측정하는 당도 측정 시스템을 더 포함하고, 상기 측정 정보 분석 시스템은 상기 측정된 당도에 더 기반하여 상기 성숙도를 분석할 수 있다.
실시 예로, 상기 이미지 분석 시스템은 상기 3D DEPTH 카메라로부터 획득된 이미지에 기반하여 상기 탐지된 객체에 상응하는 객체 정보를 추출하는 객체 정보 추출부와 상기 분광 카메라로부터 획득된 이미지 정보에 기초하여 계산된 반사율에 기반하여 식생 지수 값을 산출하는 식생지수 산출부를 포함하고, 상기 객체 정보는 크기 정보, 형상 정보, 생장 정보 및 색도 정보 중 적어도 하나를 포함하고, 상기 객체 정보 및 상기 식생 지수 값에 더 기반하여 상기 작물의 수확 시기가 결정될 수 있다.
실시 예로, 상기 반사율은 가시광선대의 적색 영역에 대한 반사율 Red와 근적외선대 반사율 NIR를 포함하고, 상기 식생 지수 값 NDVI는 하기 수식:
NDVI = (NIR-Red)/(NIR+Red)
에 의해 산출될 수 있다.
실시 예로, 상기 측정 정보 분석 시스템은 상기 탐지된 객체가 육묘인 경우, 작물의 생장 정보 및 위치 정보에 기반하여 해당 육묘의 불량 여부를 결정하는 불량 결정부를 더 포함하고, 상기 생장 정보는 엽장, 엽폭 및 엽형지수 중 적어도 하나를 포함할 수 있다.
실시 예로, 상기 이미지 분석 시스템은 상기 획득된 이미지의 전체 좌표를 복수의 그리드 셀로 나누고, 하나의 상기 그리드 셀 당 2개의 경계 박스를 생성한 후 상기 경계 박스 내에 물체가 들어가 있을 확률인 신뢰도를 계산하고, 상기 각 그리드 셀 내 이미지가 어떤 물체 안에 포함되어 있는지를 식별하기 위한 클래스를 분류하고, 상기 계산된 신뢰도 및 상기 분류된 클래스에 기반하여 상기 분석 대상 객체를 감지하는 객체 감지부를 포함할 수 있다.
실시 예로, 상기 측정 정보 분석 시스템은 생육 프로파일 및 생육 측정 정보의 상관 관계를 분석하여 생육 모델의 설정 정보를 보완하는 생육 모델 갱신부를 더 포함하고, 상기 설정 정보는 온도 정보, 습도 정보, 이산화탄소 농도정보 및 전기전도도 중 적어도 하나를 포함할 수 있다.
본 발명에서 이루고자 하는 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
본 발명은 스마트 엣지 디바이스 기반의 생육 분석 방법 및 그를 위한 장치 및 시스템을 제공하는 장점이 있다.
또한, 본 발명은 3차원 뎁스(Depth) 카메라 및 초분광 카메라를 통해 수집된 이미지와 분광 데이터에 기반한 딥러닝을 통해 작물의 실시간 생육 상태 및 성숙도를 분석하는 인공 지능 알고리즘이 탑재된 스마트 엣지 디바이스 기반의 생육 분석 방법 및 그를 위한 장치 및 시스템을 제공하는 장점이 있다.
또한, 본 발명은 인공지능 칩셋이 내장된 GPU 보드에 카메라를 장착하여 엣지 컴퓨팅을 수행하는 것이 가능한 스마트 엣지 디바이스 기반의 생육 분석 방법 및 그를 위한 장치 및 시스템을 제공하는 장점이 있다.
또한, 본 발명은 딥러닝 프로세서를 탑재한 저전력, 고성능 이미지 프로세싱 임베디드 솔루션을 이용하여 실시간 객체 인식 및 분류 서비스를 제공함으로써, 클라우드 환경에서의 과도한 데이터 트래픽과 처리 지연을 미연에 방지하는 것이 가능한 스마트 엣지 디바이스 기반의 생육 분석 방법 및 그를 위한 장치 및 시스템을 제공하는 장점이 있다.
또한, 본 발명은 네트워크 장애에도 내장된 인공 지능 칩셋을 통해 엣지 컴퓨팅을 수행함으로써, 실시간 의사 결정이 가능한 스마트 엣지 디바이스 기반의 생육 분석 방법 및 그를 위한 장치 및 시스템을 제공하는 장점이 있다.
또한, 본 발명의 또 다른 목적은 히트 싱크 없이 저전력으로 동작하는 소형의 저렴한 스마트 엣지 디바이스 기반의 생육 모니터링 장치를 제공하는 장점이 있다.
또한, 본 발명은 현장에서 수집한 환경 데이터와 작물 생육 데이터에 기반하여 최적의 수확 시기 및 재배 방법을 제시하는 것이 가능한 스마트 엣지 디바이스 기반의 생육 모니터링 장치를 제공하는 장점이 있다.
이 외에, 본 문서를 통해 직접적 또는 간접적으로 파악되는 다양한 효과들이 제공될 수 있다.
도 1은 본 발명의 실시 예에 따른 생육 분석 시스템의 구조를 설명하기 위한 도면이다.
도 2는 본 발명의 실시 예에 따른 생육 분석 시스템에서의 이미지 촬영 및 저장 절차를 설명하기 위한 도면이다.
도 3은 본 발명의 실시 예에 따른 생육 분석 시스템에서의 생육 분석 절차를 설명하기 위한 도면이다.
도 4는 본 발명의 실시 예에 따른 생육 분석 시스템 세부 구조를 설명하기 위한 도면이다.
도 5는 본 발명의 실시 예에 따른 생육 분석 시스템의 사시도이다.
도 6은 본 발명의 실시 예에 따른 생육 분석 시스템의 분해도이다.
도 7은 상기 도 6의 브라켓의 구조를 보여주는 사시도이다.
도 8은 실시 예에 따른 딸기 성숙도 라벨링을 위한 YOLO 테스트 결과를 보여준다.
도 9는 본 발명의 실시 예에 따른 작물 이미지로부터 객체를 탐지하는 절차를 설명하기 위한 순서도이다.
도 10은 본 발명의 실시 예에 따른 생육 정보 등록 화면을 보여준다.
도 11은 본 발명의 실시 예에 따른 생육 정보 등록 화면 생성 절차를 설명하기 위한 도면이다.
이하, 본 발명의 일부 실시 예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명의 실시 예를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 실시 예에 대한 이해를 방해한다고 판단되는 경우에는 그 상세한 설명은 생략한다.
본 발명의 실시 예의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 또한, 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가진 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하, 도 1 내지 도 6을 참조하여, 본 발명의 실시 예들을 구체적으로 설명하기로 한다.
도 1은 본 발명의 실시 예에 따른 생육 분석 시스템의 구조를 설명하기 위한 도면이다.
도 1을 참조하면, 생육 분석 시스템(100)은 크게 이미지 촬영 시스템(10), 이미지 분석 시스템(20) 및 측정 정보 분석 시스템(30)을 포함하여 구성될 수 있다.
생육 분석 시스템(100)은 클라우드(40) 환경에 접속할 수 있다.
이미지 분석 시스템(20)은 이미지 촬영 시스템(10)의 동작을 제어할 수 있다.
클라우드(40)는 촬영 이미지 서버(41)와 분석 데이터베이스(42)를 포함하여 구성될 수 있다.
이미지 촬영 시스템(10)은 구비된 알지비(RGB) 카메라, 뎁스(Depth) 카메라, RGB(또는 NDVI) 카메라, 근적외선(Near Infrared, NIR) 카메라 및 열화상 적외선(Infrared, IR) 카메라 등을 통해 대상물의 이미지를 촬영하여 이미지 분석 시스템(20)에 제공할 수 있다. 여기서, RGB 카메라와 뎁스 카메라는 하나의 디바이스 통합 구성될 수 있다. 이하 설명의 편의를 위해 RGB 카메라와 뎁스 카메라가 통합된 카메라를 3D 뎁스 카메라로 명하여 설명하기로 한다.
근적외선(Near Infrared, NIR) 카메라는 분광 분석을 통해 과실의 당도(BRIX) 등을 판별하기 위한 용도로 사용될 수 있다.
열화상 IR 카메라는 작물의 엽온을 측정하기 위한 용도로 사용될 수 있다.
본 발명의 실시 예에 따른 생육 분석 시스템(100)은 그것의 사용 목적에 따라 상술한 카메라들 중 적어도 하나를 포함하여 구성될 수 있다.
이하의 설명에서는 이미지 분석 시스템(20)이 RGB/Depth 카메라(또는 3D DEPTH 카메라)와 RGB 카메라(또는 분광 카메라)를 포함하는 것을 예를 들어 설명하기로 한다.
이미지 촬영 시스템(10)과 이미지 분석 시스템(20)은 유선 및(또는) 무선으로 연결될 수 있다. 일 예로, RGB/Depth 카메라는 USB를 통해 이미지 분석 시스템(20)과 연결되고, RGB 카메라는 와이파이(WIFI)로 연결될 수 있다.
이미지 촬영 시스템(10)에 의해 촬영된 이미지는 레드(Red), 그린(Green), 블루(Blue) 3원색을 혼합하여 표현되는 디지털 영상인 RGB 이미지, 거리를 측정할 수 있는 이미지인 뎁스 이미지 및 레드, 그린 및 근적외선(Near Infrared, NIR) 데이터를 촬영한 이미지인 RGB 이미지를 포함할 수 있다. 여기서, 촬영된 이미지는 이미지 분석 시스템(20)을 통해 촬영 이미지 서버(41)로 전송되어 분석 데이터베이스(42)에 등록될 수 있다. 이미지 분석 시스템(20)은 이더넷 통신을 통해 촬영 이미지 서버(41)와 연동될 수 있다.
이미지 분석 시스템(20)은 딥러닝(Deep learning)을 통해 이미지를 분류하고, 분류된 이미지에 기초하여 작물의 성숙도를 분석할 수 있다.
측정 정보 분석 시스템(30)은 생육 전문가에 의해 생성된 생육 프로파일과 생육 측정 정보를 비교 분석하여 최적화된 생육 모델을 생성할 수 있다.
이미지 분석 시스템(20)은 RGB 카메라(또는 NIR 카메라 또는 분광 카메라)에 의해 촬영된 NIR 이미지(또는 데이터)를 이용하여 NDVI(normalized difference vegetation index)를 산출할 수 있다.
여기서, NDVI는 관찰 대상인 농작물-예를 들면, 녹색 식물-에 대한 가시광선(특히 적색 영역)대의 반사율과 근적외선대의 반사율을 분석하여 해당 작물의 건강 상태를 측정할 수 있는 식생 지수로서 일 예로, 하기의 수식에 따라 계산될 수 있다.
NDVI = (NIR - Red) / (NIR + Red)
여기서, NIR은 근적외선대의 반사율이고, Red는 적색 가시광선대의 반사율을 의미한다.
이미지 분석 시스템(20)은 RGB 이미지에 기초하여 작물의 좌표, 성숙도, NDVI 분포도 등을 산출 및(또는) 생성할 수 있다.
측정 정보 분석 시스템(30)은 생육 프로파일 값과 현재 환경 측정 값 사이의 상관 관계를 분석하여 기존 생육 모델을 최적화하기 위한 생육 모델 설정 정보를 산출할 수 있다.
일 예로, 생육 모델 설정 정보는 온도 값, 습도 값, 이산화탄소 농도 값, 수소이온 농도지수(PH) 값, 전기전도도(Electrical Conductivity, EC) 값 등을 포함할 수 있다.
측정 정보 분석 시스템(30)에 의해 분석된 정보는 분석 데이터베이스(42)에 저장될 수 있다.
일 예로, 분석 데이터베이스(42)는 하기 표 1에 도시된 바와 같이, 생육 분석 정보, 생육 모델 시스템의 생육 조사 항목 정보, 품종 별 생육 조사 항목 정보, 생육 정보 헤더 정보, 생육 정보 상세 정보, 생육 모델 정보, 생육 프로파일 정보, 환경 정보 시스템의 센서 측정 정보 등을 테이블의 형태로 구성하여 유지할 수 있다.
<테이블 명세서>
Table ID Table명 CRUD 비고
GROWTHIMG_MASTER 생육 분석 정보 R
GROWTH_MASTER 생육조사 항목정보 R
GROWTH_HEAD 생육정보 헤더 R
GROWTH_DATA 생육정보 상세 R
GROWTH_PROFILE 생육프로파일 R
GROWTH_MODEL 생육모델 R
여기서, 생육 분석 정보는 이미지 정보, 성숙도 정보, NDVI 분석 정보를 포함할 수 있다.
생육 프로파일 정보의 시작일과 종료일 기준으로 생육 정보 헤더의 조사일자와 매칭되고, 생육 모델 정보의 시작일, 종료일, 시작시간, 종료시간 기준으로 센서 측정 정보의 측정일자, 측정시각이 매칭될 수 있다.
실시 예에 따른 생육 분석 시스템(100)은 이미지 촬영 시스템(10)에 구비된 카메라를 제어하기 위한 프로그램이 적재되어 실행될 있다. 여기서, 프로그램은 Ubuntu Linux 시스템상에서 구동될 수 있으나, 이에 한정되지는 않는다.
도 2는 본 발명의 실시 예에 따른 생육 분석 시스템에서의 이미지 촬영 및 저장 절차를 설명하기 위한 도면이다.
도 2를 참조하면, 생육 분석 시스템(100)은 RGB&DEPTH 카메라 촬영을 수행하여 RGB 이미지 파일 및 뎁스 이미지 파일을 생성한 후 내부 메모리에 저장할 수 있다(S201 및 S202).
생육 분석 시스템(100)은 RGB 카메라 촬영을 수행하여 RGB 이미지 파일을 생성한 후 내부 메모리에 저장할 수 있다(S203 및 S204).
생육 분석 시스템(100)은 생성된 RGB 이미지 파일, 뎁스 이미지 파일 및 RGB 이미지 파일을 내부 메모리로부터 독출하여 클라우드(40)의 촬영 이미지 서버(41)로 전송할 수 있다(S205 및 S206).
촬영 이미지 서버(41)로 전송된 이미지 파일들은 분석 데이터베이스(42)에 저장될 수 있다(S207).
상기 도 2의 실시 예에 있어서, 생육 분석 시스템(100)은 RGB&DEPTH 카메라와 RGB 카메라가 일정 주기-예를 들면, 1시간-로 촬영을 수행하도록 제어할 수 있다.
일 예로, RGB 이미지, 뎁스 이미지 및 RGB 이미지 각각에 상응하는 파일명은 COLOR.jpg, DEPTH.jpg 및 NDVI.jpg로 저장될 수 있다.
생육 분석 시스템(100)은 생성된 이미지 파일을 Base64 포맷의 데이터로 변환하여 촬영 이미지 서버(41)로 전송할 수 있다.
여기서, Base64는 비트 이진 데이터(예를 들어 실행 파일이나, 이미지 파일 등)를 문자 코드에 영향을 받지 않는 공통 ASCII 영역의 문자들로만 이루어진 일련의 문자열로 바꾸는 인코딩 방식을 의미한다.
촬영 이미지 서버(41)는 이미지 파일을 수신하면, 수신된 이미지 파일에 상응하는 사진명, 촬영년월일 및 촬영 시간을 파일명에 추가하여 저장할 수 있다.
도 3은 본 발명의 실시 예에 따른 생육 분석 시스템에서의 생육 분석 절차를 설명하기 위한 도면이다.
촬영 이미지 서버(41)는 미리 수집된 데이터셋에 대한 성숙도 딥러닝을 수행하여 성숙도 분석에 필요한 학습 모델을 생성한 후 학습 모델 파일을 분석 데이터베이스(42)에 저장할 수 있다(S301 내지 S303). 여기서, 학습 모델은 작물 타입 별로 생성될 수 있다.
생육 분석 시스템(100)은 기 생성된 이미지 파일을 내부 메모리로부터 독출하여 분류(Classification) 처리를 수행할 수 있다(S303 내지 S304). 일 예로, 생육 분석 시스템(100)은 해당 이미지 파일을 읽고 해당 이미지상에서 객체 부분을 분류 처리할 수 있다.
생육 분석 시스템(100)은 분석 대상 작물에 상응하는 학습 모델을 분석 데이터베이스(42)로부터 획득할 수 있다(S305).
생육 분석 시스템(100)은 획득된 학습 모델에 기초한 기계 학습을 수행하여 분류된 객체에 대한 성숙도 분석을 수행할 수 있다(S306). 여기서, 기계 학습 알고리즘은 YOLO(You Only Look One) 방식이 적용될 수 있으나, 이에 한정되지는 않는다.
YOLO는 실시간 객체 검출 알고리즘으로, 사람이 사진을 볼 때 순간적으로 물체의 위치와 종류를 파악하는 점에서 영감을 얻어 개발된 기계 학습 알고리즘이다.
일 예로, 분석 대상 작물이 딸기인 경우, 이미지 학습에 필요한 딸기 이미지를 수집하고, YOLO 알고리즘을 사용한 기계 학습을 시키기 위해 YOLO 마크(Mark)에서 인식시키고자 하는 객체를 박스로 표시해 주는 작업이 수행될 수 있다. 이는 정확한 학습을 위한 전처리 과정에 해당되며, 박스로 표시하는 작업을 할 때, 하기 표 1에 도시된 바와 같이, 성숙 단계-즉, 성숙도-에 따라 각기 다른 라벨링으로 박스가 표시될 수 있다.
생육 분석 시스템(100)은 성숙도 분석 정보를 촬영 이미지 서버(41)로 전송할 수 있다(S307). 여기서, 성숙도 분석 정보는 분류된 객체에 상응하는 좌표 정보, 크기 정보, 형상 정보, 색도 정보 및 성숙도 정보를 포함할 수 있다.
촬영 이미지 서버(41)는 성숙도 분석 정보를 수신하여 분석 데이터베이스(42)에 저장할 수 있다(S308).
<딸기 성숙도 라벨링>
구분 라벨 설명
1단계 immature 아주 미성숙
2단계 30_immature 30% 성숙
3단계 50_immature 50% 성숙
4단계 60_immature 60% 성숙
5단계 80_immature 80% 성숙
6단계 mature 아주 성숙
[표 2]를 참조하면, 1단계 성숙도인‘immature'는 하나도 익지 않은 상태의 딸기를 가리키며, 2단계 내지 5단계 성숙도에 상응하는 라벨인'30_immature', ‘50_immature', '60_immature', '80_immature'는 각각 30% 성숙한 상태의 딸기, 50% 성숙한 상태의 딸기, 60% 성숙한 상태의 딸기, 80% 성숙한 상태의 딸기를 가리킨다. 마지막으로, 6단계 성숙도인'mature'는 완전히 익은 상태의 딸기를 가리키며, 바로 수확이 가능한 딸기임을 알려준다.
본 발명에 따른 생육 분석 시스템은 작물 수확 자동화 플랫폼 구축 시 작물의 성숙도에 따라 수확 시기를 예측할 필요성이 대두됨에 따라 성숙도에 따라 사전 분류된 딸기 이미지에 대한 딥러닝을 통해 학습 모델을 생성하고, 실제 생육 환경에서 촬영된 이미지를 생성된 학습 모델에 적용함으로써, 성숙도에 따라 작물 이미지를 분류할 수 있는 장점이 있다.
또한, 본 발명에 따른 생육 분석 시스템이 작물 자동 수확 로봇에 장착되는 경우, 성숙도에 따라 작물을 자동 분류하여 수확할 수 있는 장점이 있다.
도 4는 본 발명의 실시 예에 따른 생육 분석 시스템 세부 구조를 설명하기 위한 도면이다.
도 4를 참조하면, 생육 분석 시스템(400)은 크게 이미지 촬영 시스템(410), 이미지 분석 시스템(420), 측정 정보 분석 시스템(450) 및 당도 측정 시스템(460)을 포함하여 구성될 수 있다.
여기서, 이미지 분석 시스템(420)과 측정 정보 분석 시스템(450)은 하나의 딥러닝 프로세서 보드에 임베디드되어 구현될 수 있다.
딥러닝 프로세서 보드는 메모리가 구비되어 이미지 파일이 저장될 수 있다. 여기서, 메모리는 착탈식 메모리-예를 들면, SD 카드-로 구현될 수 있다.
실시 예로, 딥러닝 프로세서 보드는 별도의 히트 싱크가 필요 없는 저전력으로 동작될 수 있으며, 그에 따라 소형화된 저렴한 생육 분석 시스템(400)을 제공될 수 있다.
이미지 촬영 시스템(410)은 3D DEPTH 카메라(411) 및 분광 카메라(RGB 카메라, 412)를 포함하여 구성될 수 있다.
이미지 분석 시스템(420)은 통신부(430) 및 추출부(440)을 포함할 수 있다.
통신부(430)는 USB 통신 모듈(431), 와이파이 통신 모듈(432) 및 이더넷 통신 모듈(433)을 포함하여 구성될 수 있다.
일 예로, 3D DEPTH 카메라(411)는 USB 통신 케이블을 통해 USB 통신 모듈(431)에 연결되어 이미지 분석 시스템(420)과 정보를 교환할 수 있다.
3D DEPTH 카메라(411)는 RGB 센서와 적외선 프로젝터가 구비되어 RGB 영상과 뎁스 영상을 촬영할 수 있다.
분광 카메라(412)는 와이파이 통신을 통해 와이파이 통신 모듈(432)에 연결되어 이미지 분석 시스템(420)과 정보를 교환할 수 있다.
분광 카메라(412) 초분광 스캐너가 구비되어 RGB 영상을 촬영할 수 있다. 여기서, RGB 영상은 식생 지수 산출과 당도 분석에 활용될 수 있다.
당도 측정 시스템(460)은 USB 통신 모듈(431) 또는 와이파이 통신 모듈(432)에 연결되어 이미지 분석 시스템(420)과 정보를 교환할 수 있다.
추출부(440)는 이미지 생성부(441), 객체 감지부(442), 객체 정보 추출부(443), 식생지수(NDVI) 산출부(444), 당도 추출부(445) 및 데이터 전송부(446)을 포함하여 구성될 수 있다.
이미지 생성부(441)는 이미지 촬영 시스템(410)에 구비된 카메라들에 의해 촬영된 영상에 대한 이미지 파일을 생성할 수 있다. 여기서, 이미지 파일은 RGB 이미지 파일, 뎁스 이미지 파일 및 RGB 이미지 파일을 포함할 수 있다.
객체 감지부(442)는 YOLO 알고리즘에 기초하여 이미지 파일에 포함된 객체를 식별할 수 있다.
객체 정보 추출부(443)는 식별된 객체에 상응하는 크기 정보, 형상 정보, 성숙도 정보 등을 추출할 수 있다.
식생지수 산출부(444)는 RGB 이미지에 기초하여 NDVI 값을 추출할 수 있다.
당도 추출부(445)는 당도 측정 시스템(460)로부터 수신된 당도 센싱 정보에 기반하여 해당 작물의 당도를 추출할 수 있다. 당도 추출부(445)는 RGB 이미지에 더 기반하여 해당 작물의 당도를 추출할 수도 있다.
데이터 전송부(446)는 생성된 이미지 파일 및 각종 추출 정보를 이더텟 통신 모듈(443)를 통해 클라우드의 해당 서버로 전송할 수 있다.
측정 정보 분석 시스템(450)는 이미지 분석 시스템(420)의 분석에 따라 추출된 각종 정보들에 기반하여 해당 작물의 수확 시기를 결정하는 수확 시기 결정부(451), 해당 작물의 수확 방법을 결정하는 수확 방법 결정부(452), 육묘의 불량 여부를 판별하는 불량 결정부(453) 및 생육 모델 갱신부(454)를 포함할 수 있다.
일 예로, 수확 시기 결정부(451) 작물의 수확 시기를 랜덤 포레스트(Random Forest) 방식을 이용하여 결정할 수 있다.
일 예로, 불량 결정부(453)는 분류된 객체가 육묘인 경우, 작물의 엽장/엽폭/엽형지수 등의 생장 정보 및 위치 정보에 기반하여 해당 육묘의 불량 여부를 판단할 수 있다.
생육 모델 갱신부(454)는 이더넷 통신을 통해 외부 데이터베이스에 접속하여 생육 프로파일을 획득하고, 각종 센서로부터 생육 측정 정보를 획득할 수 있다. 여기서, 센서는 생육 분석 시스템(400)에 일체형으로 장착될 수 있으나, 이는 하나의 실시 예에 불과하며, 생육 분석 시스템(400)은 USB 케이블 또는 와이파이 통신 또는 이더넷 통신 중 어느 하나를 통해 외부 센서와 통신 연결되어 각종 센싱 정보를 획득할 수 있다.
생육 모델 갱신부(454)는 생육 프로파일 및 생육 측정 정보의 상관 관계를 분석하여 생육 모델의 설정 정보를 최적 값으로 보완하고, 상기 보완된 설정 정보를 상기 외부 데이터베이스에 저장함으로써 생육 모델을 갱신할 수 있다.
여기서, 상기 설정 정보는 온도 정보, 습도 정보, 이산화탄소 농도정보 및 전기전도도 중 적어도 하나를 포함할 수 있다.
도 5는 본 발명의 실시 예에 따른 생육 분석 시스템의 사시도이다.
도 6은 본 발명의 실시 예에 따른 생육 분석 시스템의 분해도이다.
도 6을 참조하면, 생육 분석 시스템(600)은 본체(610), 제어 보드(620), 제1 내지 제3 브라켓(631 내지 633), 3D DEPTH 카메라(640), 분광 카메라(650) 및 전면 커버(660)를 포함하여 구성될 수 있다. 여기서, 분광 카메라(650) 대신 RGB 카메라 또는 NIR 카메라가 적용될 수도 있다.
본체(610)의 후면에는 외부 전원 단자 및 이더넷 케이블을 연결 포트가 구비될 수 있다.
제어 보드(620)는 제1 브라켓(631)을 본체(610) 내부 일측에 체결될 수 있다.
3D DEPTH 카메라(640)와 분광 카메라(650)는 각각 제2 브라켓(632)과 제3 브라켓(633)을 통해 본체(611) 및/또는 전면 커버(660) 일측에 체결될 수 있다.
전면 커버(660)는 분광 카메라(650)의 렌즈를 외부로 노출하기 위한 제1 개구부(661)과 3D DEPTH 카메라(640)의 렌즈 및 센서를 외부로 노출하기 위한 제2 개구부(662)를 포함하여 구성될 수 있다.
본체(610)에는 벤트(611)가 형성되어 내부 열이 외부로 배출될 수 있다.
도 7은 상기 도 6의 브라켓의 구조를 보여주는 사시도이다.
도 8은 실시 예에 따른 딸기 성숙도 라벨링을 위한 YOLO 테스트 결과를 보여준다.
도 8에 도시된 바와 같이, 객체 박스를 통해 각각의 딸기가 식별되고, 식별된 딸기에 상응하는 라벨이 해당 객체 박스의 일측에 표시될 수 있다. 이때, 딸기의 성숙도 레벨에 따라 서로 상이한 색의 라벨이 표시될 수 있다.
도 9는 본 발명의 실시 예에 따른 작물 이미지로부터 객체를 탐지하는 절차를 설명하기 위한 순서도이다.
상세하게 도 8은 딸기 이미지로부터 객체를 탐지하는 절차를 설명하기 이미지 분석 흐름도이다.
도 9는 본 발명의 실시 예에 따른 작물 이미지로부터 객체를 탐지하는 절차를 설명하기 위한 순서도이다.
상세하게 도 8은 생육 분석 시스템이 YOLO 알고리즘이 탑재된 신경망 네트워크를 통해 입력 이미지로부터 객체를 탐지하는 절차를 설명하기 이미지 분석 흐름도이다.
생육 분석 시스템은 입력 이미지의 전체 좌표를 S x S의 그리드(Grid) 셀들로 나눌 수 있다(S910).
생육 분석 시스템은 하나의 그리드 셀 당 두 개의 경계 박스(Bounding Box)를 생성하고, 경계 박스 내에 물체가 들어가 있을 확률-즉, 신뢰도(Confidence)-를 계산할 수 있다(S920).
여기서, 신뢰도가 높을 수록 해당 경계 박스의 테두리 두께는 굵게 표시될 수 있다.
생육 분석 시스템은 각 그리드 셀 내 이미지가 어떤 물체 안에 포함되어 있는지를 식별하기 위해 클래스를 분류할 수 있다(S930). 여기서, 분류된 클래스에 따라 상이한 색으로 그리드 셀이 표시될 수 있다.
생육 분석 시스템은 상기 계산된 신뢰도 및 상기 분류된 클래스에 기반하여 객체를 감지할 수 있다(S940).
동일 클래스 내 신뢰도가 기준치 이하인 경우-즉, 0에 가까운 경우- 해당 경계 박스는 배경으로 인식되어 모두 제거될 수 있다.
각 경계 박스에 대해서 하나의 벡터가 출력된다. 각 벡터는 클래스 개수만큼의 요소를 가지고 있으며, 각 요소는 해당 클래스의 분류 점수를 나타낸다. 상기한 방법에 따라 생육 분석 시스템은 불필요한 경계 박스를 지운 후, 남은 경계 박스들의 벡터 값에 기반하여 내부의 물체를 분류하여 객체를 감지할 수 있다.
실시 예로, 생육 분석 시스템은 제거 후 남은 경계 박스들에 대해 비최대값 억제(Non-maximal suppression) 알고리즘을 이용해 객체를 탐지할 수 있다.
도 10은 본 발명의 실시 예에 따른 생육 정보 등록 화면을 보여준다.
실시 예로, 생육 정보 등록 화면은 생육 분석 시스템에 의해 생성되어 사용자 단말 등에 제공될 수 있으나, 이는 하나의 실시 예에 불과하며 다른 실시 예는 클라우드에 위치한 촬영 이미지 서버에 의해 생성되어 사용자 단말에 제공될 수 있다.
도 10을 참조하면, 생육 정보 등록 화면은 생육 모델 시스템에서 측정한 정보와 생육 프로파일 정보가 비교되어 표시되고 현재 환경 상태와 생육 모델 정보가 비교되어 표시될 수 있다.
ⓐ 이미지 촬영시스템에서 촬영된 RGB 이미지, DEPTH 이미지, RGB 이미지
ⓑ 생육 모델 시스템에 측정한 생장 길이, 줄기 굵기, 화방 높이와 생육 프로파일의 대응되는 값들
ⓒ 환경 모니터링 시스템에서 측정된 센서 값과 생육 모델 시스템의 생육 모델 값
ⓓ 생육 분석 시스템에서 분석된 성숙도
ⓔ 생육 분석 시스템에서 분석된 식생지수(NDVI 값)
생육 정보 등록 화면 창이 오픈될 때 가장 최근 촬영된 이미지와 촬영 일자가 화면 일측에 표시될 수 있다.
또한, 사용자에 의해 특정 사진이 선택되면, 선택된 사진에 대응하는 촬영 일자, 성숙도 및 식생 지수가 화면 일측에 표시될 수 있다.
또한, 사용자 선택된 사진의 촬영일자와 가장 가까운 일자의 측정일자의 측정정보가 화면의 일측에 표시될 수 있다.
도 11은 본 발명의 실시 예에 따른 생육 정보 등록 화면 생성 절차를 설명하기 위한 도면이다.
도 11에 도시된 바와 같이, 생육 분석 시스템은 이미지 파일과 이미지 정보를 생성하고, 환경 모니터링 시스템은 최신 환경 정보를 생성하고, 생육 모델 시스템은 생육 프로파일, 생육 모델, 생육 헤더 및 생육 정보 상세를 생성할 수 있다.
일 예로, 생육 분석 시스템, 환경 모니터링 시스템 및 생육 모델 시스템에 의해 생성된 정보들은 클라우드(40)의 촬영 이미지 서버(41)로 전송되어 분석 데이터베이스(42)에 저장될 수 있다.
도 11을 참조하면, 촬영 이미지 서버(41)는 사용자의 조회 요청에 따라 분석 데이터베이스(42)로부터 조회하여 적어도 하나의 이미지 및 그에 상응하는 이미지 정보를 표시할 수 있다.
표시된 이미지 중 어느 하나가 사용자에 의해 선택된 경우, 촬영 이미지 서버(41)는 분석 데이터베이스(42)로부터 현재 측정 정보(이미지 정보)와 프로파일 정보를 조회하여 비교 표시할 수 있다. 여기서, 프로파일 정보는 생육 프로파일 정보 뿐만 아니라 생육 정보 헤더 정보와 생육 정보 상세 정보를 포함할 수 있다.
촬영 이미지 서버(41)는 분석 데이터베이스(42)로부터 생육 모델 정보 및 최신 환경 정보를 조회하여 비교 표시할 수 있다.
본 명세서에 개시된 실시 예들과 관련하여 설명된 방법 또는 알고리즘의 단계는 프로세서에 의해 실행되는 하드웨어, 소프트웨어 모듈, 또는 그 2 개의 결합으로 직접 구현될 수 있다. 소프트웨어 모듈은 RAM 메모리, 플래시 메모리, ROM 메모리, EPROM 메모리, EEPROM 메모리, 레지스터, 하드 디스크, 착탈형 디스크, CD-ROM과 같은 저장 매체(즉, 메모리 및/또는 스토리지)에 상주할 수도 있다.
예시적인 저장 매체는 프로세서에 커플링되며, 그 프로세서는 저장 매체로부터 정보를 판독할 수 있고 저장 매체에 정보를 기입할 수 있다. 다른 방법으로, 저장 매체는 프로세서와 일체형일 수도 있다. 프로세서 및 저장 매체는 주문형 집적회로(ASIC) 내에 상주할 수도 있다. ASIC는 사용자 단말기 내에 상주할 수도 있다. 다른 방법으로, 프로세서 및 저장 매체는 사용자 단말기 내에 개별 컴포넌트로서 상주할 수도 있다.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다.
따라서, 본 발명에 개시된 실시 예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.

Claims (18)

  1. 삭제
  2. 삭제
  3. 삭제
  4. 삭제
  5. 삭제
  6. 삭제
  7. 삭제
  8. 삭제
  9. 삭제
  10. 3D DEPTH 카메라 및 분광 카메라를 통해 촬영된 DEPTH 이미지 및 RGB 이미지를 제공하는 이미지 촬영 시스템;
    상기 이미지 촬영 시스템으로부터 획득된 이미지에 기초하여 이미지 파일을 생성하고, 상기 획득된 이미지로부터 물체를 탐지하여 분류 처리하고, 상기 분류 처리 결과에 따라 사용할 사전 학습된 딥러닝 모델을 구비된 이더넷 통신 모듈을 통해 외부 데이터베이스로부터 획득하고, 상기 획득된 딥러닝 모델에 기반한 기계 학습을 통해 분석 대상 객체를 탐지하고, 상기 탐지된 객체에 상응하는 성숙도를 분석하는 이미지 분석 시스템; 및
    상기 분석된 성숙도에 기반하여 작물 수확 시기를 결정하는 측정 정보 분석 시스템; 을 포함하고,
    상기 이미지 분석 시스템은,
    상기 3D DEPTH 카메라와의 통신을 위한 USB 통신 모듈; 및
    상기 분광 카메라와의 통신을 위한 와이파이 통신 모듈; 을 포함하며,
    상기 이미지 분석 시스템은,
    상기 3D DEPTH 카메라로부터 획득된 이미지에 기반하여 상기 탐지된 객체에 상응하는 객체 정보를 추출하는 객체 정보 추출부; 및
    상기 분광 카메라로부터 획득된 이미지 정보에 기초하여 계산된 반사율에 기반하여 식생 지수 값을 산출하는 식생지수 산출부; 를 포함하고,
    상기 객체 정보는 크기 정보, 형상 정보, 생장 정보 및 색도 정보 중 적어도 하나를 포함하고, 상기 객체 정보 및 상기 식생 지수 값에 더 기반하여 상기 작물의 수확 시기가 결정되며,
    상기 반사율은 가시광선대의 적색 영역에 대한 반사율 Red와 근적외선대 반사율 NIR를 포함하고,
    상기 식생 지수 값 NDVI는 하기 수식:
    NDVI = (NIR-Red)/(NIR+Red)
    에 의해 산출되며,
    상기 이미지 촬영 시스템은 상기 생성된 이미지 파일을 상기 이더넷 통신 모듈을 통해 클라우드 환경에 위치한 서버로 전송하고, 상기 이미지 파일은 상기 서버와 연동되는 데이터베이스에 저장되고,
    상기 측정 정보 분석 시스템은, 상기 탐지된 객체에 상응하는 당도를 측정하는 당도 측정 시스템을 더 포함하고, 상기 측정 정보 분석 시스템은 상기 측정된 당도에 더 기반하여 상기 성숙도를 분석하며,
    상기 탐지된 객체가 육묘인 경우, 작물의 생장 정보 및 위치 정보에 기반하여 해당 육묘의 불량 여부를 결정하는 불량 결정부를 더 포함하고, 상기 생장 정보는 엽장, 엽폭 및 엽형지수 중 적어도 하나를 포함하며,
    상기 이미지 분석 시스템은,
    상기 획득된 이미지의 전체 좌표를 복수의 그리드 셀로 나누고, 하나의 상기 그리드 셀 당 2개의 경계 박스를 생성한 후 상기 경계 박스 내에 물체가 들어가 있을 확률인 신뢰도를 계산하고, 각 상기 그리드 셀 내 이미지가 어떤 물체 안에 포함되어 있는지를 식별하기 위한 클래스를 분류하고, 상기 계산된 신뢰도 및 상기 분류된 클래스에 기반하여 상기 분석 대상 객체를 감지하는 객체 감지부를 포함하고,
    상기 측정 정보 분석 시스템은,
    생육 프로파일 및 생육 측정 정보의 상관 관계를 분석하여 생육 모델의 설정 정보를 보완하는 생육 모델 갱신부를 더 포함하고,
    상기 설정 정보는 온도 정보, 습도 정보, 이산화탄소 농도정보 및 전기전도도 중 적어도 하나를 포함하는 것을 특징으로 하는 생육 분석 시스템.
  11. 삭제
  12. 삭제
  13. 삭제
  14. 삭제
  15. 삭제
  16. 삭제
  17. 삭제
  18. 삭제
KR1020200089192A 2020-07-17 2020-07-17 스마트 엣지 디바이스 기반의 생육 분석 방법 및 그를 위한 장치 및 시스템 KR102504318B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200089192A KR102504318B1 (ko) 2020-07-17 2020-07-17 스마트 엣지 디바이스 기반의 생육 분석 방법 및 그를 위한 장치 및 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200089192A KR102504318B1 (ko) 2020-07-17 2020-07-17 스마트 엣지 디바이스 기반의 생육 분석 방법 및 그를 위한 장치 및 시스템

Publications (2)

Publication Number Publication Date
KR20220010374A KR20220010374A (ko) 2022-01-25
KR102504318B1 true KR102504318B1 (ko) 2023-02-28

Family

ID=80049266

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200089192A KR102504318B1 (ko) 2020-07-17 2020-07-17 스마트 엣지 디바이스 기반의 생육 분석 방법 및 그를 위한 장치 및 시스템

Country Status (1)

Country Link
KR (1) KR102504318B1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115392576A (zh) * 2022-08-30 2022-11-25 上海第二工业大学 一种蘑菇生长状态时空预测方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180086738A (ko) * 2017-01-23 2018-08-01 한국과학기술연구원 작물 재배 가이드 정보 제공 장치, 및 그 방법
KR102125780B1 (ko) * 2018-08-16 2020-06-23 (주)노루기반시스템즈 포장 단위별 다분광 영상 히스토그램 패턴 분석을 통한 작물 생육 모니터링 장치
KR102151688B1 (ko) * 2018-10-12 2020-09-07 한국식품연구원 작물의 숙도 판별 장치, 방법 및 그 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체
KR102197946B1 (ko) * 2018-11-30 2021-01-04 (주)케이아이오티 딥러닝 인공지능 기술을 이용한 객체인식 및 카운팅 방법

Also Published As

Publication number Publication date
KR20220010374A (ko) 2022-01-25

Similar Documents

Publication Publication Date Title
CN109461168B (zh) 目标对象的识别方法和装置、存储介质、电子装置
Li et al. Immature green citrus fruit detection and counting based on fast normalized cross correlation (FNCC) using natural outdoor colour images
Yang et al. Tea diseases detection based on fast infrared thermal image processing technology
KR102237583B1 (ko) 빌리루빈 레벨의 추정
Kandare et al. Individual tree crown approach for predicting site index in boreal forests using airborne laser scanning and hyperspectral data
JP6592613B2 (ja) コンピュータシステム、植物の診断方法及びプログラム
AU2007217794A1 (en) Method for spectral data classification and detection in diverse lighting conditions
WO2015193885A2 (en) Method for huanglongbing (hlb) detection
KR20150000435A (ko) 작물 생장 단계 인식 및 환경 제어 시스템 및 그 방법
US20220307971A1 (en) Systems and methods for phenotyping
Sánchez-González et al. Basal area and diameter distribution estimation using stereoscopic hemispherical images
EP3528219A1 (en) Systems, methods and devices for monitoring betting activities
KR102504318B1 (ko) 스마트 엣지 디바이스 기반의 생육 분석 방법 및 그를 위한 장치 및 시스템
Swarup et al. Strawberry plant wetness detection using color and thermal imaging
KR101695246B1 (ko) 광원 추정 장치 및 광원 추정 방법
CN117392104A (zh) 一种基于深度学习的计算机视觉水稻质量测定方法
Xu et al. Detecting white cotton bolls using high-resolution aerial imagery acquired through unmanned aerial system
CN109459391B (zh) 一种红枣品质检测、红枣偏振检测模型生成方法及装置
US11922687B2 (en) Information processing apparatus, information processing method, and program
Pedraza et al. Sweet citrus fruit detection in thermal images using fuzzy image processing
CN115015258B (zh) 一种农作物长势与土壤水分关联确定方法及相关装置
Du et al. Diagnostic model for wheat leaf conditions using image features and a support vector machine
KR102522341B1 (ko) 인공지능을 이용한 작물 생육 자동 계측 시스템
Amziane et al. Frame-based reflectance estimation from multispectral images for weed identification in varying illumination conditions
CN111325241A (zh) 果蔬分类方法、装置、智能传感器及计算机存储介质

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
AMND Amendment
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant