KR20230094020A - 농작물 관리 시스템 및 농작물 관리 제어방법 - Google Patents

농작물 관리 시스템 및 농작물 관리 제어방법 Download PDF

Info

Publication number
KR20230094020A
KR20230094020A KR1020210183155A KR20210183155A KR20230094020A KR 20230094020 A KR20230094020 A KR 20230094020A KR 1020210183155 A KR1020210183155 A KR 1020210183155A KR 20210183155 A KR20210183155 A KR 20210183155A KR 20230094020 A KR20230094020 A KR 20230094020A
Authority
KR
South Korea
Prior art keywords
crop
crops
control unit
camera
stereo
Prior art date
Application number
KR1020210183155A
Other languages
English (en)
Inventor
이경석
Original Assignee
주식회사 케이비전
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 케이비전 filed Critical 주식회사 케이비전
Priority to KR1020210183155A priority Critical patent/KR20230094020A/ko
Publication of KR20230094020A publication Critical patent/KR20230094020A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/02Agriculture; Fishing; Mining
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01GHORTICULTURE; CULTIVATION OF VEGETABLES, FLOWERS, RICE, FRUIT, VINES, HOPS OR SEAWEED; FORESTRY; WATERING
    • A01G7/00Botany in general
    • A01G7/06Treatment of growing trees or plants, e.g. for preventing decay of wood, for tingeing flowers or wood, for prolonging the life of plants
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01GHORTICULTURE; CULTIVATION OF VEGETABLES, FLOWERS, RICE, FRUIT, VINES, HOPS OR SEAWEED; FORESTRY; WATERING
    • A01G9/00Cultivation in receptacles, forcing-frames or greenhouses; Edging for beds, lawn or the like
    • A01G9/24Devices or systems for heating, ventilating, regulating temperature, illuminating, or watering, in greenhouses, forcing-frames, or the like
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps

Abstract

본 발명의 농작물 관리 제어방법은 제어부가 검출부를 통해 농작물에 대한 특징 정보를 획득하고, 상기 제어부가 상기 특징 정보에 포함된 상기 농작물의 영상 이미지가 최적의 영상 이미지인지를 판단하며, 상기 제어부가 상기 영상 이미지의 판단결과에 따라 제 1 스테레오-카메라와 제 2 스테레오-카메라에 대해 파라미터를 조정하는 영상보정을 수행하며, 상기 제어부가 상기 농작물에 대한 특징 정보를 중앙 서버로 전송하고, 상기 중앙 서버는 상기 농작물에 대한 특징 정보를 내부에 구비된 인공지능 신경망에서 학습하여 깊이맵과 히트맵을 획득하며, 상기 중앙 서버가 상기 히트맵과 깊이맵을 이용하여 상기 농작물의 이상 특징 정보를 검출하며, 상기 제어부가 상기 농작물의 이상 특징 정보에 따라 상기 농작물에 대한 관리를 수행한다.

Description

농작물 관리 시스템 및 농작물 관리 제어방법{Crop management system and method of controlling the same}
본 발명은 농작물 관리 시스템 및 농작물 관리 제어방법에 관한 것으로, 특히 인공지능을 이용하여 농작물과 잡초를 구분하고 농작물을 관리하여 재배하기 위한 농작물 관리 시스템 및 농작물 관리 제어방법에 관한 것이다.
시설재배는 과학기술과 자본의 집약적인 생산방식으로, 작물의 생산에 최적조건을 유지하기 위한 식물의 생리학, 건축 및 환경조절을 위한 물리 및 공학, 양액이나 토양에 대한 화학 등의 종합적인 지식을 필요로하며, 시설의 건축 뿐만 아니라 환경 조절과 작업의 생력화를 위한 장치를 갖추기 위해서 많은 자본을 요구되고 있다.
온실의 환경관리는 온실경영이라는 관점에서 종합적으로 이루어지지 않으면 안되는데, 이와 같이 종합화하는 것은 식물공장의 형태로 나타난다.
식물공장은 농업생산시스템의 상징적인 존재로, 생물공학분야에서 해명되는 생물학적 지식을 응용한 식물의 대량생산시스템 등을 전개하는 차세대 농업 생산시스템으로서 미래사회에 큰 기대가 따르고 있다.
첨단 온실 환경의 최적 조건을 조성하고, 자동화, 로봇화, 정보화를 도입하는 이른바 인공지능형 식물공장에서 이루어진 생산기술이야말로 다가올 미래에 새로운 농업생산을 위한 중요한 요건이라 할 수 있다.
현재까지 연구 개발된 복합 환경제어시스템으로 시설 내 환경 제어를 하는 경우는 온도, 습도, 토양수분, 탄산가스, 광도 등 개개의 인자들을 개별적으로 제어하는 경우가 일반적이었다.
또한 종래의 온실은 작물의 실온관리가 중심이었으나 앞으로는 작물의 생육단계별 온도, 습도, 탄산가스, 지온, 토양수분, 일조량, 방제, 시비 등의 관리에 좀 더 중점적으로 연구를 하여 식물공장으로서의 복합 환경제어를 위한 역할을 충족시켜야 하며, 시설재배의 최종 목표인 자동화와 무인화를 이루어 농업생산성을 극대화해야 한다는 의미에서 지능형 온실시스템에 대한 연구 개발이 진행되고 있다.
이렇게 농작물의 생장 환경을 관리할 수 있는 온실 모니터링과 관리 시스템이 개발되어 농작물의 생장 환경 모니터링 뿐만 아니라 농작물의 생육 변화량을 측정하고 성장 과정을 관찰하여 농작물의 상태를 분석하고 있다.
그러나, 종래의 농작물 이미지 처리 기술은 한정적인 데이터량에 의존하여 이미지처리로 분석하기에는 데이터양이 한정되며, 작물기관별 인식과 측정방식은 개별작물의 화분을 이용하여 작물기관을 직접 측정하는 방식이기 때문에, 이미지 획득을 위한 별도의 컨베이어 시스템이나 촬영장치 및 측정장치가 필요한 문제점이 있다.
또한, 작물 기관별 이미지 획득을 위해서는 일관성 있는 이미지가 수집되어야 하는데, 농작물의 성장에 따라 높이가 변화되므로 촬영장치의 꾸준한 관리가 필요한 문제점이 있다.
특히, 촬영후 이미지 인식에 있어서, 군락 별로 밀집해 있는 작물을 촬영하면, 작물이 겹쳐 있는 경우, 작물기관을 정확히 인식하기 어려워 현재 측정된 작물 데이터를 수집하여, 작물의 생육 변화량을 예측하거나 작물상태를 진단할 수 있는 시스템에 관한 필요성이 매우 큰 실정이다.
특허문헌 : 등록특허공보 제10-1832724호
본 발명은 상기 문제점을 해소하기 위하여 안출된 것으로, 본 발명의 목적은 인공지능을 이용하여 농작물과 잡초를 구분하고 농작물의 생육 특성을 검출하여 농작물을 관리 재배하기 위한 농작물 관리 시스템을 제공하는 데 있다.
본 발명의 다른 목적은 인공지능을 이용하여 농작물과 잡초를 구분하고 농작물의 생육 특성을 검출하여 농작물을 관리 재배하기 위한 농작물 관리 제어방법을 제공하는 데 있다.
본 발명의 일실시예에 따른 농작물 관리 시스템은 일방향의 두둑에 식재된 다수의 농작물에 대해 일정 높이에서 상기 농작물의 식재방향과 평행하게 구비된 적어도 두개의 레일에 각각 구비된 이송모터; 지지판의 양측단부에 각각 구비되고, 상기 이송모터에 각각 연결된 구동부; 상기 구동부 각각의 하부에 연결되어 연장 또는 단축되는 다단 연결부; 상기 다단 연결부 각각의 선단부에 연결장착된 지지봉; 상기 지지봉의 하부에 일정 간격으로 구비된 다수의 검출부; 상기 지지판의 상부에 구비된 제어부; 상기 제어부를 기준으로 상기 지지판의 상부 일측에 구비된 제 1 저장탱크; 상기 제어부를 기준으로 상기 지지판의 상부 타측에 구비된 제 2 저장탱크; 외부에 구비되고, 내부에 인공지능 신경망을 구비하여 상기 제어부와 유,무선 연결된 중앙 서버; 및 상기 중앙 서버에 연결된 빅데이터 서버;를 포함하고, 상기 검출부는 중앙의 라이다(Lidar), 상기 라이다의 일측에 구비되고 하부에 다단 노즐을 장착한 토출부, 상기 라이다의 타측에 구비된 제 1 스테레오-카메라(Stereo-Camera) 및 상기 토출부의 외측에 구비된 제 2 스테레오-카메라를 포함하는 것을 특징으로 한다.
본 발명의 일실시예에 따른 농작물 관리 시스템에서 상기 토출부는 연결 튜브를 통해 상기 제 1 저장탱크 또는 제 2 저장탱크에 저장된 관리액을 주입받고, 상기 관리액은 제초액, 액체비료 및 병충해약 중 어느 하나인 것을 특징으로 한다.
본 발명의 일실시예에 따른 농작물 관리 시스템에서 상기 중앙 서버의 내부에 구비된 인공지능 신경망은 입력층(input layer)과 출력층(output layer) 사이에 다수의 은닉층(hidden layer)을 갖는 CNN(Convolutional Neural Network) 신경망을 포함하는 것을 특징으로 한다.
본 발명의 일실시예에 따른 농작물 관리 시스템에서 상기 빅데이터 서버는 상기 농작물에 대한 특징 정보, 상기 농작물의 재배에 관한 정보, 다수의 병해충에 관한 정보, 다수의 잡초에 관한 정보, 제조제, 병충해약과 액체비료에 관한 정보 및 상기 제 1 스테레오-카메라와 제 2 스테레오-카메라를 통해 이전에 촬영된 상기 농작물의 영상 이미지 정보를 저장하는 것을 특징으로 한다.
또는, 본 발명의 다른 실시예에 따른 농작물 관리 제어방법은 (A) 제어부가 검출부를 통해 농작물에 대한 특징 정보를 획득하는 단계; (B) 상기 제어부가 상기 특징 정보에 포함된 상기 농작물의 영상 이미지가 최적의 영상 이미지인지를 판단하는 단계; (C) 상기 제어부가 상기 영상 이미지의 판단결과에 따라 제 1 스테레오-카메라와 제 2 스테레오-카메라에 대해 파라미터를 조정하는 영상보정을 수행하는 단계; (D) 상기 제어부가 상기 농작물에 대한 특징 정보를 중앙 서버로 전송하고, 상기 중앙 서버는 상기 농작물에 대한 특징 정보를 내부에 구비된 인공지능 신경망에서 학습하여 깊이맵과 히트맵을 획득하는 단계; (E) 상기 중앙 서버가 상기 히트맵과 깊이맵을 이용하여 상기 농작물의 이상 특징 정보를 검출하는 단계; 및 (F) 상기 제어부가 상기 농작물의 이상 특징 정보에 따라 상기 농작물에 대한 관리를 수행하는 단계;를 포함한다.
본 발명의 다른 실시예에 따른 농작물 관리 제어방법에서 상기 (A)단계는 (A-1) 상기 제어부가 상기 검출부의 라이다를 통해 상기 검출부로부터 상기 농작물의 각 특징부분까지의 깊이를 포함한 물리적 특성을 검출하는 단계; 및 (A-2) 상기 제어부가 상기 검출부의 제 1 스테레오-카메라와 제 2 스테레오-카메라를 통해 상기 농작물의 영상 이미지를 획득하는 단계;를 더 포함하는 것을 특징으로 한다.
본 발명의 다른 실시예에 따른 농작물 관리 제어방법에서 상기 (B)단계는 상기 제어부가 상기 농작물의 영상 이미지가 설정된 해상도 범위의 해상도를 갖는지를 판단하는 것을 특징으로 한다.
본 발명의 다른 실시예에 따른 농작물 관리 제어방법에서 상기 (C)단계는 상기 제어부가 상기 제 1 스테레오-카메라와 제 2 스테레오-카메라에 대해 조리개의 크기, 카메라 셔터속도 및 이미지 센서의 ISO 감도 중 어느 하나를 조정하는 것을 특징으로 한다.
본 발명의 다른 실시예에 따른 농작물 관리 제어방법에서 상기 (E)단계는 상기 중앙 서버가 연결된 빅데이터 서버에 저장된 정보와 비교하여, 상기 농작물의 생육상태특징, 상기 농작물의 병충해 발생특징 및 잡초의 발생특징을 분석하여 도출하는 것을 특징으로 한다.
본 발명의 다른 실시예에 따른 농작물 관리 제어방법에서 상기 (F)단계는 상기 제어부가 상기 농작물의 이상 특징 정보에 따라 상기 농작물에 상기 검출부에 구비된 토출부의 다단 노즐을 위치시키고, 상기 다단 노즐을 통해 관리액을 분사하며, 상기 관리액은 제초액, 액체비료 및 병충해약 중 어느 하나인 것을 특징으로 한다.
본 발명의 특징 및 이점들은 첨부도면에 의거한 다음의 상세한 설명으로 더욱 명백해질 것이다.
이에 앞서, 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이고, 사전적인 의미로 해석되어서는 아니 되며, 발명자가 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합되는 의미와 개념으로 해석되어야만 한다.
본 발명의 일실시예에 따른 농작물 관리 시스템은 검출부의 라이다를 통해 검출한 농작물의 물리적 특성 및 제 1 스테레오-카메라와 제 2 스테레오-카메라를 통해 획득한 농작물에 대한 최적의 영상 이미지를 중앙 서버에서 CNN 신경망을 이용하여 학습하고, 깊이맵과 히트맵을 용이하게 생성하여 농작물의 관리를 수행할 수 있는 효과가 있다.
본 발명의 다른 실시예에 따른 농작물 관리 제어방법은 중앙 서버에서 CNN 신경망으로 학습하여 농작물의 이상 특징을 나타낸 깊이맵과 히트맵을 용이하게 생성하고, 제어부가 생성된 깊이맵과 히트맵을 이용하여 농작물의 관리를 수행할 수 있는 효과가 있다.
도 1은 본 발명의 일실시예에 따른 농작물 관리 시스템을 나타낸 예시도.
도 2는 본 발명의 일실시예에 따른 농작물 관리 시스템을 구성하는 검출부의 구성을 도시한 단면도.
도 3은 본 발명의 다른 실시예에 따른 농작물 관리 제어방법을 설명하기 위한 순서도.
도 4는 본 발명의 다른 실시예에 따른 농작물 관리 제어방법에 적용되는 CNN 신경망의 구조도.
도 5a는 본 발명의 다른 실시예에 따른 농작물 관리 제어방법에 따라 촬상된 농작물 이미지.
도 5b는 도 5a의 히트맵 이미지.
도 6은 본 발명의 다른 실시예에 따른 농작물 관리 제어방법에 따라 획득한 병충해 이미지.
도 7은 본 발명의 다른 실시예에 따른 농작물 관리 제어방법에 따라 획득한 깊이맵의 예시도.
본 발명의 목적, 특정한 장점들 및 신규한 특징들은 첨부된 도면들과 연관되는 이하의 상세한 설명과 바람직한 실시예로부터 더욱 명백해질 것이다. 본 명세서에서 각 도면의 구성요소들에 참조번호를 부가함에 있어서, 동일한 구성 요소들에 한해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 번호를 가지도록 하고 있음에 유의하여야 한다. 또한, 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 또한, 본 발명을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명은 생략한다.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명하기로 한다. 도 1은 본 발명의 일실시예에 따른 농작물 관리 시스템을 나타낸 예시도이고, 도 2는 본 발명의 일실시예에 따른 농작물 관리 시스템을 구성하는 검출부의 구성을 도시한 단면도이다.
본 발명의 일실시예에 따른 농작물 관리 시스템은 도 1에 도시된 바와 같이 농작물 시설재배에 적용되어 일방향의 두둑에 식재된 다수의 농작물(1)에 대해 일정 높이에서 농작물(1)의 식재방향과 평행하게 구비된 적어도 두개의 레일(10)에 각각 구비된 이송모터(141-3,142-3), 지지판(30)의 양측단부에 각각 구비되고 이송모터(141-3,142-3)에 각각 연결된 구동부(141,142), 구동부(141,142) 각각의 하부에 연결되어 연장 또는 단축되는 다단 연결부(141-2,142-2), 다단 연결부(141-2,142-2) 각각의 선단부에 연결장착된 지지봉(20), 지지봉(20)의 하부에 일정 간격으로 구비된 다수의 검출부(100), 지지판(30)의 상부에 구비된 제어부(120), 제어부(120)를 기준으로 지지판(30)의 상부 일측에 구비된 제 1 저장탱크(110), 제어부(120)를 기준으로 지지판(30)의 상부 타측에 구비된 제 2 저장탱크(130), 외부에 구비되고 제어부(120)와 유,무선 연결된 중앙 서버(200) 및 중앙 서버(200)에 연결된 빅데이터 서버(300)를 포함한다. 물론, 본 발명의 일실시예에 따른 농작물 관리 시스템은 이외에 농작물 시설재배에 필요한 온도관리장치, 습도관리장치, 채광관리장치 등을 포함하지만 생략하여 설명한다.
검출부(100)는 도 2에 도시된 바와 같이 라이다(Lidar: 101), 라이다(101)의 일측에 구비되고 하부에 다단 노즐(102-2)을 장착한 토출부(102), 라이다(101)의 타측에 구비된 제 1 스테레오-카메라(Stereo-Camera: 103) 및 토출부(102)의 외측에 구비된 제 2 스테레오-카메라(104)를 포함한다.
구체적으로, 라이다(101)는 레이저를 발사하여 산란되거나 반사되는 레이저가 돌아오는 시간과 강도, 주파수의 변화, 편광 상태의 변화 등으로부터 농작물(1)과의 거리와 농도, 형상 등 물리적 성질을 측정하는 장치이다. 이러한 라이다(101)는 농작물(1)의 각 특징부분까지의 깊이 차이를 나타낸 깊이맵(depth map) 생성을 위해 기능할 수 있다.
토출부(102)는 라이다(101)의 일측에 구비되고 하부에 제어부(120)의 제어에 따라 농작물(1) 방향으로 연장 또는 단축되는 다단 노즐(102-2)을 장착한 구성으로, 연결 튜브(40)를 통해 제 1 저장탱크(110) 또는 제 2 저장탱크(130)에 저장된 관리액을 주입받고 다단 노즐(102-2)을 통해 농작물(1) 또는 잡초에 관리액을 분사할 수 있다. 여기서, 다단 노즐(102-2)은 적어도 3개의 단으로 구성되고, 마지막 단이 선단부 방향으로 내부 직경이 좁아지는 테이퍼(taper) 형태로 구비될 수 있다.
제 1 스테레오-카메라(103)와 제 2 스테레오-카메라(104)는 각각 렌즈, 이미지 센서, 조리개 및 셔터를 포함한 카메라로서, 농작물(1)의 입체 이미지 촬영, 즉 농작물(1)의 좌측과 우측 각각의 영상 이미지를 촬영하여 제어부(120)로 전달하고, 제어부(120)에서 좌측과 우측 각각의 영상 이미지를 이용하여 입체 이미지를 생성한다. 이러한 입체 이미지는 농작물(1)의 특징 발생을 나타낸 히트맵(heat map) 생성을 위해 이용될 수 있다.
구동부(141,142)는 예컨대 리니어 모터(linear motor) 등을 포함하고, 제어부(120)의 제어에 따라 상부에 구비된 이송모터(141-3,142-3)를 동작시키고 하부에 연결된 다단 연결부(141-2,142-2)를 길이방향, 즉 농작물(1)의 방향으로 연장 또는 단축하는 기능을 수행한다. 이에 따라 이송모터(141-3,142-3)는 레일(10)을 따라 이동할 수 있고, 다단 연결부(141-2,142-2) 각각의 선단부에 연결장착된 지지봉(20)이 위,아래로 이동하여 검출부(100)의 위치를 조정할 수 있다.
제 1 저장탱크(110)와 제 2 저장탱크(130)는 각각 농작물(1)의 관리를 위한 제초액, 병충해약 또는 액체비료를 저장한 탱크로서, 예컨대 제 1 저장탱크(110)는 잡초 제거를 위한 제초액을 저장하고 제 2 저장탱크(130)는 농작물(1)의 생육을 위한 액체비료 또는 병충해약을 저장할 수 있다. 이러한 제 1 저장탱크(110)와 제 2 저장탱크(130)는 제어부(120)의 제어에 따라 연결 튜브(40)를 통해 토출부(102)로 제초액, 병충해약 또는 액체비료를 주입되며, 다단 노즐(102-2)을 통해 농작물(1) 또는 잡초에 제초액, 병충해약 또는 액체비료를 분사시킬 수 있다.
제어부(120)는 상술한 검출부(100), 구동부(141,142), 제 1 저장탱크(110)와 제 2 저장탱크(130)에 연결되고 외부의 중앙 서버(200)에 유,무선 연결되어, 검출부(100), 구동부(141,142), 제 1 저장탱크(110)와 제 2 저장탱크(130)를 전반적으로 제어한다. 특히, 제어부(120)는 검출부(100)를 통해 농작물(1)에 대한 깊이맵과 히트맵에 관한 정보를 검출하기 위해, 라이다(101)를 제어하여 농작물(1)과의 거리, 농작물(1)의 특징 부분까지의 깊이 등의 물리적 특성을 검출하게 하고, 제 1 스테레오-카메라(103)와 제 2 스테레오-카메라(104)를 제어하여 농작물(1)의 입체 이미지를 촬영하여 중앙 서버(200)로 전송한다.
중앙 서버(200)는 내부에 인공지능 신경망을 구비하고, 제어부(120)로부터 수신한 깊이정보와 이미지에 관한 정보를 학습하여 농작물(1)에 대한 깊이맵과 히트맵을 생성한다. 이렇게 생성된 농작물(1)에 대한 깊이맵과 히트맵은 제어부(120)로 전송되어, 제어부(120)가 농작물(1)에 대한 관리를 수행하는데 사용된다. 여기서, 인공지능 신경망은 예컨대 도 4에 도시된 바와 같이 입력층(input layer: 201)과 출력층(output layer: 205) 사이에 다수의 은닉층(hidden layer: 202,203,204)을 갖는 CNN(Convolutional Neural Network) 신경망을 포함할 수 있다. 물론, CNN 신경망 이외의 다른 신경망을 포함할 수도 있다.
빅데이터 서버(300)는 중앙 서버(200)에 연결되고, 농작물(1)에 대한 특징 정보, 농작물(1)의 재배에 관한 정보, 다수의 병해충에 관한 정보, 다수의 잡초에 관한 정보, 제조제, 병충해약과 액체비료에 관한 정보 등을 저장할 수 있다. 이러한 빅데이터 서버(300)는 주기적으로 상술한 정보들을 업데이트하고, 특히 제 1 스테레오-카메라(103)와 제 2 스테레오-카메라(104)를 통해 이전에 촬영된 농작물(1)의 영상 이미지를 저장하며, 중앙 서버(200)가 CNN 신경망을 이용하여 깊이맵과 히트맵을 생성하는데 필요한 정보를 전달할 수 있다.
이와 같이 구성된 본 발명의 일실시예에 따른 농작물 관리 시스템은 검출부(100)의 라이다(101)를 통해 검출한 농작물(1)의 물리적 특성 및 제 1 스테레오-카메라(103)와 제 2 스테레오-카메라(104)를 통해 획득한 농작물(1)에 대한 최적의 영상 이미지를 중앙 서버(200)에서 CNN 신경망을 이용하여 학습하고, 깊이맵과 히트맵을 용이하게 생성하여 농작물(1)의 관리를 수행할 수 있다.
이하, 본 발명의 다른 실시예에 따른 농작물 관리 제어방법에 대해 도 3 내지 도 7을 참조하여 설명한다. 도 3은 본 발명의 다른 실시예에 따른 농작물 관리 제어방법을 설명하기 위한 순서도이고, 도 4는 본 발명의 다른 실시예에 따른 농작물 관리 제어방법에 적용되는 CNN 신경망의 구조도이며, 도 5a는 본 발명의 다른 실시예에 따른 농작물 관리 제어방법에 따라 촬상된 농작물 이미지이며, 도 5b는 도 5a의 히트맵 이미지이며, 도 6은 본 발명의 다른 실시예에 따른 농작물 관리 제어방법에 따라 획득한 병충해 이미지이며, 도 7은 본 발명의 다른 실시예에 따른 농작물 관리 제어방법에 따라 획득한 깊이맵의 예시도이다.
본 발명의 다른 실시예에 따른 농작물 관리 제어방법은 먼저 농작물 관리를 위한 사용자 명령으로 농작물 관리 시스템에 전원이 인가되면서 농작물 관리를 시동한다(S310).
이에 따라 제어부(120)는 구동부(141,142)를 구동하여, 이송모터(141-3,142-3)와 다단 연결부(141-2,142-2)를 동작시켜 지지봉(20)에 장착된 검출부(100)의 위치를 조정할 수 있다.
이후, 제어부(120)는 검출부(100)의 라이다(101)를 통해 검출부(100)로부터 농작물(1)의 각 특징부분까지의 깊이를 포함한 물리적 특성을 검출하고, 제 1 스테레오-카메라(103) 및 제 2 스테레오-카메라(104)를 통해 농작물(1)의 영상 이미지를 획득한다(S320).
구체적으로, 제어부(120)는 제 1 스테레오-카메라(103) 및 제 2 스테레오-카메라(104)를 통해 농작물(1)의 영상 이미지를 수신하고, 동시에 라이다(101)를 통해 영상 이미지에 해당하는 농작물(1)에 레이저를 발사하여 산란/반사되는 레이저가 돌아오는 시간과 강도, 주파수의 변화, 편광 상태의 변화 등으로부터 농작물(1)과의 거리를 포함한 물리적 특성 정보를 수신한다.
이때, 제어부(120)는 제 1 스테레오-카메라(103) 및 제 2 스테레오-카메라(104)를 통해 수신한 농작물(1)의 영상 이미지가 최적의 영상 이미지인지를 판단한다(S330).
즉, 제어부(120)는 제 1 스테레오-카메라(103) 및 제 2 스테레오-카메라(104)를 통해 수신한 농작물(1)의 영상 이미지에 대해 해상도(resolution)를 분석하여 설정된 해상도 범위에 포함되는지를 판단할 수 있다. 이때, 설정된 해상도 범위는 제어부(120)가 영상 이미지의 농작물(1)을 선명하게 인식할 수 있는 정도의 범위로서, 예를 들어 600 ~ 1000 DPI의 범위를 갖는다.
이런 해상도의 범위에서 영상 이미지의 해상도가 600 DPI 보다 낮으면 후술할 농작물(1)의 특성을 제대로 검출하기 어려워 히트맵의 신뢰성이 상실되고, 영상 이미지의 해상도가 1000 DPI 보다 높으면 중앙 서버(200)에서 CNN 신경망을 이용한 학습량이 과도해지는 문제가 있다.
이에 따라, 제어부(120)는 농작물(1)의 영상 이미지가 최적의 영상 이미지가 아닌 경우에 제 1 스테레오-카메라(103) 및 제 2 스테레오-카메라(104)에 대해 파라미터를 조정하는 영상보정을 수행한다(S332).
즉, 제어부(120)는 제 1 스테레오-카메라(103) 및 제 2 스테레오-카메라(104)에 대한 파라미터, 예를 들어 조리개의 크기, 카메라 셔터속도 및 이미지 센서의 ISO 감도를 포함한 파라미터를 각각 조정하는 영상보정을 수행할 수 있다.
이러한 파라미터의 조정으로 제어부(120)는 제 1 스테레오-카메라(103) 및 제 2 스테레오-카메라(104)를 통해 농작물(1)에 대한 최적의 영상 이미지를 획득하게 된다.
이렇게 농작물(1)에 대한 최적의 영상 이미지를 획득한 후, 제어부(120)는 획득한 농작물(1)에 대한 최적의 영상 이미지 및 라이다(101)를 통해 검출한 물리적 특성정보를 중앙 서버(200)로 전송한다.
이에 대해 중앙 서버(200)는 내부에 구비된 인공지능 신경망에 영상 이미지 및 물리적 특성정보를 입력하고 학습하여, 농작물(1)에 대한 깊이맵과 히트맵을 획득한다(S340).
구체적으로, 중앙 서버(200)는 도 4에 도시된 CNN 신경망의 입력층(201)에 제 1 스테레오-카메라(103) 및 제 2 스테레오-카메라(104)를 통해 획득한 농작물(1)의 영상 이미지 및 라이다(101)를 통해 검출한 물리적 특성정보를 입력한다.
이렇게 중앙 서버(200)가 농작물(1)의 영상 이미지 및 물리적 특성정보를 CNN 신경망에 입력하여 특징맵(feature map)을 추출한다.
이러한 특징맵의 추출과정은 농작물(1)의 영상 이미지가 제 1 은닉층(202)을 거치면서 필터를 이용해 컨벌루션(convolution) 연산을 실행하는 과정을 포함할 수 있다.
이때, 필터를 이용한 컨벌루션 연산은 아래의 [수학식 1]을 이용하여 실행할 수 있다.
Figure pat00001
Figure pat00002
여기에서, l은 층(layer)를 의미하고, sizel은 층의 사이즈를 의미하며, In은 입력층에 입력되는 데이터(data)의 수를 의미하고, Ia는 라벨(label)의 수를 의미하며, O는 출력 컨볼루션층(Output Convolution Layer)을 의미하고, w는 가중치를 의미하며, b는 특징맵의 편향 바이어스(bias)를 의미한다.
이러한 컨벌루션 연산을 통해 처리된 특징맵을 추출한 후, 중앙 서버(200)는 추출한 다수의 특징맵을 합산하고, 합산한 특징맵에 대하여 컨벌루션 연산을 수행해 특징맵을 재생성한다.
이때, 특징맵을 재생성하는 과정은 아래의 [수학식 2]를 이용하여 합산한 특징맵을 컨캐터네이팅(Concatenating)하고, [수학식 3]을 이용한 컨벌루션 연산을 수행하여 실행될 수 있다.
Figure pat00003
Figure pat00004
Figure pat00005
여기서, In은 입력되는 데이터(data)의 수를 의미하고, Ia는 라벨(label)의 수를 의미하며, O는 출력 컨볼루션층(Output Convolution Layer)을 의미하며, w는 가중치를 의미한다.
이때, fc는 컨캐터네이팅한 특징맵을 이용하여 컨벌루션 연산을 수행한 결과값을 나타낸 것으로, 재생성된 특징맵을 의미할 수 있다.
특징맵을 재생성한 후, 중앙 서버(200)는 제 2 은닉층(203)에서 재생성된 특징맵을 활성화 함수(Activation function)에 대입하여 연산할 수 있다. 여기서, 활성화 함수는 Sigmoid 함수 또는 ReLu 함수를 이용할 수 있다.
활성화 함수를 이용하여 출력된 출력값에 대해, 중앙 서버(200)는 획득한 출력값을 이용하여 풀링(pooling) 연산을 실행한다.
구체적으로, 풀링 연산은 데이터의 차원의 크기를 축소하기 위한 것으로, 데이터에서 세로 및 가로 방향 공간의 크기를 줄이는 연산이다. 이러한 풀링 연산은 다양한 파라미터, 예를 들어 평균, 중간값, 최댓값, 최소값 등을 이용할 수 있고, 여기서는 최댓값을 이용한 최댓값 풀링 연산을 적용한다.
중앙 서버(200)는 최댓값 풀링 연산(max polling)을 이용하여 이미지의 제한 영역에서 최댓값을 추출하고, 데이터의 노이즈를 제거할 수 있으며, 데이터가 줄어드는 과정에서 오버 피팅(over fitting)을 방지할 수 있다.
이러한 최댓값 풀링 연산은 아래의 [수학식 4]를 이용하여 실행될 수 있다.
Figure pat00006
Figure pat00007
여기서, x는 풀링 연산을 위해 입력되는 행렬을 의미하고, l은 풀링 연산의 해당층을 의미하며, i는 입력되는 행렬의 행을 의미하며, j는 입력되는 행렬의 열을 의미하며, sizel은 풀링 연산의 해당층 사이즈를 의미하며, Im은 풀링 연산의 해당층에 입력되는 데이터(data)의 수를 의미하고, Ia는 라벨(label)의 수를 의미한다.
풀링 연산을 실행한 후, 중앙 서버(200)는 제 3 은닉층(204)에서 풀링 연산값과 미리 설정한 목표 출력값을 이용하여 손실값을 연산한다.
구체적으로, 손실값 연산은 아래의 [수학식 5]의 MSLE, [수학식 6]의 RMSLE 또는 [수학식 7]의 sMAPE를 이용하여 연산할 수 있고, 미리 설정한 목표 출력값은 GT(Ground Truth)일 수 있다.
이때, GT는 예컨대 이미지 데이터를 제 1 은닉층(202)에서 컨벌루션 연산을 수행한 컨벌루션 연산값을 기초로 최댓값 풀링 연산(Max Pooling)을 수행한 값일 수도 있다.
Figure pat00008
Figure pat00009
Figure pat00010
여기서,
Figure pat00011
는 풀링 연산 단계의 풀링 연산값을 의미하고,
Figure pat00012
는 미리 설정한 목표 출력값을 의미한다.
손실값을 연산한 후, 중앙 서버(200)는 연산된 손실값을 이용해 매개변수에 대한 수정값을 획득한다.
이때, 매개변수는 w인 가중치를 의미할 수 있고, 중앙 서버(200)는 획득한 매개 변수에 대한 수정값을 이용하여 매개 변수를 업데이트할 수 있다.
이렇게 업데이트된 매개 변수를 이용하여, 중앙 서버(200)는 상술한 특징맵을 재생성하는 단계부터 매개변수의 수정값을 획득하는 단계까지를 설정된 횟수로 재수행할 수 있다.
이러한 재수행 과정이 1번 완료되면 epoch 1번 학습 완료한 것이고, 재수행 과정이 100번 반복적으로 수행되면 epoch 100으로 학습 완료한 것이다.
이러한 설정 횟수의 재수행 과정에 따라, 중앙 서버(200)는 농작물(1)의 히트맵과 깊이맵을 획득하고, 농작물(1)의 이상 특징을 검출한다(S350).
구체적으로, 중앙 서버(200)는 농작물(1)의 외형적 특징들, 예를 들어 잎맥의 형태, 잎 테두리, 꽃의 형태, 줄기 형태, 열매의 형태, 색상 변화 등과 같은 특징들을 검출할 수 있고, 이와 동시에 농작물(1)과 함께 존재하는 잡초의 외형적 특징들을 검출할 수 있다.
이에 중앙 서버(200)는 검출된 외형적 특징들을 빅데이터 서버(300)에 저장된 정보와 비교하여, 농작물(1)의 생육상태특징, 농작물(1)의 병충해 발생특징, 잡초의 발생특징 등을 분석하여 도출할 수 있다.
이러한 도출된 특징들에 대해, 중앙 서버(200)는 도출된 특징들을 반영한 히트맵과 깊이맵을 생성한다.
즉, 도 5a에 도시된 농작물(1)의 잎에 대해 학습하여 도 5b에 도시된 바와 같이 잎의 테두리 성장 특징과 병충해 발생특징을 붉은색상 영역(501)으로 외형적 특징들을 나타내고, 생육의 변동이 없는 특징은 파란색상 영역(502)으로 나타낸 히트맵을 생성할 수 있다.
이때, 중앙 서버(200)는 도 6에 도시된 바와 같이 히트맵에서 병충해가 발생한 특징 부위(601)를 검은색으로 명확하게 표시할 수 있다.
또한, 중앙 서버(200)는 도 7에 도시된 바와 같이 검출부(100)로부터 농작물(1)의 각 특징부위까지의 깊이를 색상의 명도 차이로 나타낸 깊이맵을 생성하여, 검출부(100)로부터 가까운 농작물(1)의 특징부위는 짙은 명도로 표시하고 농작물(1)의 특징부위가 검출부(100)로부터 멀수록 옅은 명도로 표시할 수 있다.
이에 따라 농작물(1)의 특징부위가 서로 겹쳐져도 검출부(100)를 기준으로 명도 차이로 나타낸 깊이맵을 통해 해당 농작물(1)의 이상특징이 발생한 특징부위의 위치를 명확하게 인식할 수 있다.
이후, 중앙 서버(200)는 농작물(1)의 이상 특징 및 잡초발생 특징을 포함한 히트맵과 깊이맵에 관한 정보를 제어부(120)로 전송한다.
이에 따라, 제어부(120)는 수신한 농작물(1)의 이상 특징 및 잡초발생 특징을 포함한 히트맵과 깊이맵에 관한 정보를 이용하여 농작물 관리를 수행한다(S360).
즉, 제어부(120)는 수신한 히트맵과 깊이맵에 관한 정보를 통해 농작물(1)의 병충해가 발생한 부위에 토출부(102)의 다단 노즐(102-2)을 위치시키고, 다단 노즐(102-2)을 통해 농약을 분사할 수 있다.
또한, 제어부(120)는 수신한 히트맵과 깊이맵에 관한 정보를 통해 농작물(1)의 생육정도를 획득하고, 해당 농작물(1)의 밑둥 부위 또는 잎 부위에 토출부(102)의 다단 노즐(102-2)을 위치시켜 액체비료를 분사할 수 있다.
반면에, 제어부(120)는 수신한 히트맵과 깊이맵에 관한 정보를 통해 잡초의 발생 영역을 획득하고, 해당 잡초의 밑둥 부위에 토출부(102)의 다단 노즐(102-2)을 위치시켜 제초액을 분사할 수 있다.
이에 따라, 본 발명의 다른 실시예에 따른 농작물 관리 제어방법은 중앙 서버(200)에서 CNN 신경망으로 학습하여 농작물(1)의 이상 특징을 나타낸 깊이맵과 히트맵을 용이하게 생성하고, 제어부(120)가 생성된 깊이맵과 히트맵을 이용하여 농작물(1)의 관리를 수행할 수 있다.
본 발명의 기술사상은 상기 바람직한 실시예에 따라 구체적으로 기술되었으나, 전술한 실시예들은 그 설명을 위한 것이며, 그 제한을 위한 것이 아님을 주의하여야 한다.
또한, 본 발명의 기술분야의 통상의 전문가라면 본 발명의 기술사상의 범위 내에서 다양한 실시가 가능함을 이해할 수 있을 것이다.
1: 농작물 10: 레일
20: 지지봉 30: 지지판
40: 연결 튜브 100: 검출부
101: 라이다 102: 토출부
102-2: 다단 노즐 103: 제 1 스테레오-카메라
104: 제 2 스테레오-카메라 110: 제 1 저장탱크
120: 제어부 130: 제 2 저장탱크
141,142: 구동부 141-2,142-2: 다단 연결부
200: 중앙서버 300: 빅데이터 서버

Claims (10)

  1. 일방향의 두둑에 식재된 다수의 농작물에 대해 일정 높이에서 상기 농작물의 식재방향과 평행하게 구비된 적어도 두개의 레일에 각각 구비된 이송모터;
    지지판의 양측단부에 각각 구비되고, 상기 이송모터에 각각 연결된 구동부;
    상기 구동부 각각의 하부에 연결되어 연장 또는 단축되는 다단 연결부;
    상기 다단 연결부 각각의 선단부에 연결장착된 지지봉;
    상기 지지봉의 하부에 일정 간격으로 구비된 다수의 검출부;
    상기 지지판의 상부에 구비된 제어부;
    상기 제어부를 기준으로 상기 지지판의 상부 일측에 구비된 제 1 저장탱크;
    상기 제어부를 기준으로 상기 지지판의 상부 타측에 구비된 제 2 저장탱크;
    외부에 구비되고, 내부에 인공지능 신경망을 구비하여 상기 제어부와 유,무선 연결된 중앙 서버; 및
    상기 중앙 서버에 연결된 빅데이터 서버;
    를 포함하고,
    상기 검출부는 중앙의 라이다(Lidar), 상기 라이다의 일측에 구비되고 하부에 다단 노즐을 장착한 토출부, 상기 라이다의 타측에 구비된 제 1 스테레오-카메라(Stereo-Camera) 및 상기 토출부의 외측에 구비된 제 2 스테레오-카메라를 포함하는 것을 특징으로 하는 농작물 관리 시스템.
  2. 제 1 항에 있어서,
    상기 토출부는 연결 튜브를 통해 상기 제 1 저장탱크 또는 제 2 저장탱크에 저장된 관리액을 주입받고, 상기 관리액은 제초액, 액체비료 및 병충해약 중 어느 하나인 것을 특징으로 하는 농작물 관리 시스템.
  3. 제 1 항에 있어서,
    상기 중앙 서버의 내부에 구비된 인공지능 신경망은 입력층(input layer)과 출력층(output layer) 사이에 다수의 은닉층(hidden layer)을 갖는 CNN(Convolutional Neural Network) 신경망을 포함하는 것을 특징으로 하는 농작물 관리 시스템.
  4. 제 1 항에 있어서,
    상기 빅데이터 서버는 상기 농작물에 대한 특징 정보, 상기 농작물의 재배에 관한 정보, 다수의 병해충에 관한 정보, 다수의 잡초에 관한 정보, 제조제, 병충해약과 액체비료에 관한 정보 및 상기 제 1 스테레오-카메라와 제 2 스테레오-카메라를 통해 이전에 촬영된 상기 농작물의 영상 이미지 정보를 저장하는 것을 특징으로 하는 농작물 관리 시스템.
  5. (A) 제어부가 검출부를 통해 농작물에 대한 특징 정보를 획득하는 단계;
    (B) 상기 제어부가 상기 특징 정보에 포함된 상기 농작물의 영상 이미지가 최적의 영상 이미지인지를 판단하는 단계;
    (C) 상기 제어부가 상기 영상 이미지의 판단결과에 따라 제 1 스테레오-카메라와 제 2 스테레오-카메라에 대해 파라미터를 조정하는 영상보정을 수행하는 단계;
    (D) 상기 제어부가 상기 농작물에 대한 특징 정보를 중앙 서버로 전송하고, 상기 중앙 서버는 상기 농작물에 대한 특징 정보를 내부에 구비된 인공지능 신경망에서 학습하여 깊이맵과 히트맵을 획득하는 단계;
    (E) 상기 중앙 서버가 상기 히트맵과 깊이맵을 이용하여 상기 농작물의 이상 특징 정보를 검출하는 단계; 및
    (F) 상기 제어부가 상기 농작물의 이상 특징 정보에 따라 상기 농작물에 대한 관리를 수행하는 단계;
    를 포함하는 농작물 관리 제어방법.
  6. 제 5 항에 있어서,
    상기 (A)단계는
    (A-1) 상기 제어부가 상기 검출부의 라이다를 통해 상기 검출부로부터 상기 농작물의 각 특징부분까지의 깊이를 포함한 물리적 특성을 검출하는 단계; 및
    (A-2) 상기 제어부가 상기 검출부의 제 1 스테레오-카메라와 제 2 스테레오-카메라를 통해 상기 농작물의 영상 이미지를 획득하는 단계;
    를 더 포함하는 것을 특징으로 하는 농작물 관리 제어방법.
  7. 제 5 항에 있어서,
    상기 (B)단계는 상기 제어부가 상기 농작물의 영상 이미지가 설정된 해상도 범위의 해상도를 갖는지를 판단하는 것을 특징으로 하는 농작물 관리 제어방법.
  8. 제 6 항에 있어서,
    상기 (C)단계는 상기 제어부가 상기 제 1 스테레오-카메라와 제 2 스테레오-카메라에 대해 조리개의 크기, 카메라 셔터속도 및 이미지 센서의 ISO 감도 중 어느 하나를 조정하는 것을 특징으로 하는 농작물 관리 제어방법.
  9. 제 5 항에 있어서,
    상기 (E)단계는 상기 중앙 서버가 연결된 빅데이터 서버에 저장된 정보와 비교하여, 상기 농작물의 생육상태특징, 상기 농작물의 병충해 발생특징 및 잡초의 발생특징을 분석하여 도출하는 것을 특징으로 하는 농작물 관리 제어방법.
  10. 제 5 항에 있어서,
    상기 (F)단계는 상기 제어부가 상기 농작물의 이상 특징 정보에 따라 상기 농작물에 상기 검출부에 구비된 토출부의 다단 노즐을 위치시키고, 상기 다단 노즐을 통해 관리액을 분사하며, 상기 관리액은 제초액, 액체비료 및 병충해약 중 어느 하나인 것을 특징으로 하는 농작물 관리 제어방법.
KR1020210183155A 2021-12-20 2021-12-20 농작물 관리 시스템 및 농작물 관리 제어방법 KR20230094020A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210183155A KR20230094020A (ko) 2021-12-20 2021-12-20 농작물 관리 시스템 및 농작물 관리 제어방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210183155A KR20230094020A (ko) 2021-12-20 2021-12-20 농작물 관리 시스템 및 농작물 관리 제어방법

Publications (1)

Publication Number Publication Date
KR20230094020A true KR20230094020A (ko) 2023-06-27

Family

ID=86947097

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210183155A KR20230094020A (ko) 2021-12-20 2021-12-20 농작물 관리 시스템 및 농작물 관리 제어방법

Country Status (1)

Country Link
KR (1) KR20230094020A (ko)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101832724B1 (ko) 2016-09-08 2018-04-16 아인정보기술 주식회사 영상이미지를 통한 농작물 생육 진단 시스템 및 방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101832724B1 (ko) 2016-09-08 2018-04-16 아인정보기술 주식회사 영상이미지를 통한 농작물 생육 진단 시스템 및 방법

Similar Documents

Publication Publication Date Title
EP3357332B1 (en) Agricultural sprayer
WO2023069842A1 (en) Precision detection and control of vegetation with real time pose estimation
US20230026679A1 (en) Mobile sensing system for crop monitoring
US11631475B2 (en) Real-time projections and estimated distributions of agricultural pests, diseases, and biocontrol agents
CN109003198A (zh) 一种基于大数据技术的精准农业管理平台及方法
KR101726944B1 (ko) 작물의 생육 정보 수집 장치 및 방법
US20220272907A1 (en) Automated plant monitoring systems and methods
Dharmasena et al. Autonomous cloud robotic system for smart agriculture
KR20160076317A (ko) 병해충 발생 예측 장치 및 방법
WO2021198731A1 (en) An artificial-intelligence-based method of agricultural and horticultural plants' physical characteristics and health diagnosing and development assessment.
EP4187344A1 (en) Work machine distance prediction and action control
KR20230094020A (ko) 농작물 관리 시스템 및 농작물 관리 제어방법
EP4239593A1 (en) Compensating for occlusions in a detection system of a farming machine
KR20220036433A (ko) 과일 생장 모니터링 시스템 및 이를 이용한 과일 생장 모니터링 방법
Patil et al. Review on automatic variable-rate spraying systems based on orchard canopy characterization
Ahmed et al. Introduction to robotics agriculture in pest control: a review
BK et al. An approach for digital farming using mobile robot
Lippi et al. An autonomous spraying robot architecture for sucker management in large‐scale hazelnut orchards
US20230103532A1 (en) Non-contact, non-invasive, and quantitative agricultural monitoring devices and systems
EP4197325A1 (en) Farming machine with forward-looking sensor system and actuatable beam
KR20230038941A (ko) 작물 모니터링 장치
US20230210039A1 (en) Virtual safety bubbles for safe navigation of farming machines
US20240008388A1 (en) A method for forecasting of a parameter of a cultivation area
Prieto The use of UAV technology for weed detection and management in cauliflower cultivation
TUĞRUL ARTIFICIAL INTELLIGENCE AND SMART FARMING APPLICATIONS IN AGRICULTURAL MACHINERY

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E601 Decision to refuse application