KR102601734B1 - 딥러닝을 이용하여 열매의 생육 과정을 모니터링하는 방법 및 이를 수행하기 위한 장치 - Google Patents
딥러닝을 이용하여 열매의 생육 과정을 모니터링하는 방법 및 이를 수행하기 위한 장치 Download PDFInfo
- Publication number
- KR102601734B1 KR102601734B1 KR1020210078991A KR20210078991A KR102601734B1 KR 102601734 B1 KR102601734 B1 KR 102601734B1 KR 1020210078991 A KR1020210078991 A KR 1020210078991A KR 20210078991 A KR20210078991 A KR 20210078991A KR 102601734 B1 KR102601734 B1 KR 102601734B1
- Authority
- KR
- South Korea
- Prior art keywords
- fruits
- fruit
- size
- control unit
- computing device
- Prior art date
Links
- 235000013399 edible fruits Nutrition 0.000 title claims abstract description 145
- 238000000034 method Methods 0.000 title claims abstract description 66
- 238000012544 monitoring process Methods 0.000 title claims abstract description 25
- 238000013135 deep learning Methods 0.000 title claims abstract description 24
- 230000011218 segmentation Effects 0.000 claims abstract description 17
- 238000001514 detection method Methods 0.000 claims abstract description 13
- 238000013145 classification model Methods 0.000 claims abstract description 12
- 238000013528 artificial neural network Methods 0.000 claims description 13
- 238000004590 computer program Methods 0.000 claims description 7
- 241000220223 Fragaria Species 0.000 description 24
- 230000015654 memory Effects 0.000 description 15
- 235000016623 Fragaria vesca Nutrition 0.000 description 13
- 235000011363 Fragaria x ananassa Nutrition 0.000 description 13
- 235000021012 strawberries Nutrition 0.000 description 11
- 238000010586 diagram Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 241000607479 Yersinia pestis Species 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 240000009088 Fragaria x ananassa Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000013403 standard screening design Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/188—Vegetation
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01G—HORTICULTURE; CULTIVATION OF VEGETABLES, FLOWERS, RICE, FRUIT, VINES, HOPS OR SEAWEED; FORESTRY; WATERING
- A01G22/00—Cultivation of specific crops or plants not otherwise provided for
- A01G22/05—Fruit crops, e.g. strawberries, tomatoes or cucumbers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30181—Earth observation
- G06T2207/30188—Vegetation; Agriculture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/22—Cropping
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Environmental Sciences (AREA)
- Molecular Biology (AREA)
- Botany (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Investigating Or Analysing Materials By Optical Means (AREA)
- Testing And Monitoring For Control Systems (AREA)
Abstract
딥러닝을 이용하여 열매의 생육 과정을 모니터링하는 방법은, 자동으로 열매들을 촬영한 영상을 수신하는 단계, 객체 검출(object detection) 모델을 이용하여 상기 촬영된 영상에서 상기 열매들의 위치를 검출하는 단계, 상기 검출된 위치를 크로핑(cropping)하는 단계, 분류(classification) 모델을 이용하여, 상기 크로핑된 영역에 포함된 열매의 성장 단계(growth grade)를 확인하는 단계, 분할(segmentation) 모델을 이용하여 상기 크로핑된 영역에 포함된 열매의 개수 및 크기를 측정하는 단계 및 상기 열매의 개수, 성장 단계 및 크기를 저장하는 단계를 포함한다.
Description
본 명세서에서 개시되는 실시예들은 자동으로 열매를 재배하는 시스템을 구축하기 위해, 딥러닝을 이용하여 열매의 생육 과정을 모니터링하는 방법 및 이를 수행하기 위한 장치에 관한 것이다.
'스마트 팜(smart farm)'이란 정보통신기술(ICT)을 접목하여 지능화된 농업 시스템을 의미하며, 자세하게는 사물인터넷 및 인공지능 등을 통해 수집한 빅데이터를 기반으로 최적의 생육 환경을 자동으로 제어하는 시스템을 의미한다.
스마트 팜을 이용하면 최적화된 생육 환경이 유지되므로 단위 면적당 생산량이 높아질 수 있을 뿐만 아니라, 사람이 직접 하던 일 중 상당 부분을 자동화할 수 있고, 관리자는 PC나 스마트폰으로 원격에서 자동으로 관리할 수 있어, 생산성, 효율성 및 편리성을 모두 향상시킬 수 있다.
한편, 딥러닝 기술은 최근 비약적인 발전으로 인해 영상으로부터 객체를 검출하거나, 객체의 종류를 분류하는 등의 작업을 수행함에 있어서 처리 속도 및 정확도가 향상되어 다양한 분야에 널리 사용되고 있으며, 스마트 팜 구축 시에도 활용될 수 있을 것이다.
관련하여 선행기술 문헌인 한국등록특허 제1933657호에는 작물 이미지에서 병충해 의심 영역에 대한 바운딩 박스(bounding box)를 생성하고, 바운딩 박스의 이미지를 입력 값으로 하여 의심 영역의 병해충 이름과 정확도 값을 진단하는 내용이 개시되어 있다.
한편, 전술한 배경기술은 발명자가 본 발명의 도출을 위해 보유하고 있었거나, 본 발명의 도출 과정에서 습득한 기술 정보로서, 반드시 본 발명의 출원 전에 일반 공중에게 공개된 공지기술이라 할 수는 없다.
본 명세서에서 개시되는 실시예들은, 스마트 팜 구축을 위해 필요한 기술로서, 딥러닝을 이용하여 열매의 생육 과정을 모니터링하기 위한 기술을 제공하고자 한다.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 일 실시예에 따르면, 딥러닝을 이용하여 열매의 생육 과정을 모니터링하는 방법은, 자동으로 열매들을 촬영한 영상을 수신하는 단계, 객체 검출(object detection) 모델을 이용하여 상기 촬영된 영상에서 상기 열매들의 위치를 검출하는 단계, 상기 검출된 위치를 크로핑(cropping)하는 단계, 분류(classification) 모델을 이용하여, 상기 크로핑된 영역에 포함된 열매의 성장 단계(growth grade)를 확인하는 단계, 분할(segmentation) 모델을 이용하여 상기 크로핑된 영역에 포함된 열매의 개수 및 크기를 측정하는 단계 및 상기 열매의 개수, 성장 단계 및 크기를 저장하는 단계를 포함할 수 있다.
다른 실시예에 따르면, 딥러닝을 이용하여 열매의 생육 과정을 모니터링하는 방법을 수행하기 위한 컴퓨터 프로그램으로서, 딥러닝을 이용하여 열매의 생육 과정을 모니터링하는 방법은, 자동으로 열매들을 촬영한 영상을 수신하는 단계, 객체 검출(object detection) 모델을 이용하여 상기 촬영된 영상에서 상기 열매들의 위치를 검출하는 단계, 상기 검출된 위치를 크로핑(cropping)하는 단계, 분류(classification) 모델을 이용하여, 상기 크로핑된 영역에 포함된 열매의 성장 단계(growth grade)를 확인하는 단계, 분할(segmentation) 모델을 이용하여 상기 크로핑된 영역에 포함된 열매의 개수 및 크기를 측정하는 단계 및 상기 열매의 개수, 성장 단계 및 크기를 저장하는 단계를 포함할 수 있다.
또 다른 실시예에 따르면, 딥러닝을 이용하여 열매의 생육 과정을 모니터링하는 방법을 수행하는 프로그램이 기록된 컴퓨터 판독 가능한 기록매체로서, 딥러닝을 이용하여 열매의 생육 과정을 모니터링하는 방법은, 자동으로 열매들을 촬영한 영상을 수신하는 단계, 객체 검출(object detection) 모델을 이용하여 상기 촬영된 영상에서 상기 열매들의 위치를 검출하는 단계, 상기 검출된 위치를 크로핑(cropping)하는 단계, 분류(classification) 모델을 이용하여, 상기 크로핑된 영역에 포함된 열매의 성장 단계(growth grade)를 확인하는 단계, 분할(segmentation) 모델을 이용하여 상기 크로핑된 영역에 포함된 열매의 개수 및 크기를 측정하는 단계 및 상기 열매의 개수, 성장 단계 및 크기를 저장하는 단계를 포함할 수 있다.
또 다른 실시예에 따르면, 딥러닝을 이용하여 열매의 생육 과정을 모니터링하는 방법을 수행하기 위한 컴퓨팅 장치는, 데이터 또는 커맨드를 입력받거나 출력하기 위한 입출력부, 열매들에 대한 촬영 영상을 이용하여 상기 열매들의 생육 과정을 모니터링하기 위한 프로그램이 저장되는 저장부 및 상기 저장부에 저장된 프로그램을 실행함으로써 복수의 인공신경망 모델을 구현하고, 상기 복수의 인공신경망 모델을 이용하여 상기 촬영 영상으로부터 상기 열매들의 재배와 관련된 정보들을 획득하는 제어부를 포함하며, 상기 제어부는, 상기 입출력부를 통해 상기 촬영 영상을 수신하면, 객체 검출(object detection) 모델을 이용하여 상기 촬영 영상에서 상기 열매들의 위치를 검출하고, 상기 검출된 위치를 크로핑(cropping)하고, 분류(classification) 모델을 이용하여 상기 크로핑된 영역에 포함된 열매의 성장 단계(growth grade)를 확인하고, 분할(segmentation) 모델을 이용하여 상기 크로핑된 영역에 포함된 열매의 개수 및 크기를 측정하고, 상기 열매의 개수, 성장 단계 및 크기를 저장할 수 있다.
전술한 과제 해결 수단 중 어느 하나에 의하면, 학습된 인공신경망을 이용하여, 열매들을 촬영한 영상으로부터 열매의 개수, 성장 단계 및 크기에 대한 정보를 자동으로 획득하고, 이에 기초하여 생육에 필요한 관리를 효율적으로 수행할 수 있는 효과를 기대할 수 있다.
개시되는 실시예들에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 개시되는 실시예들이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
도 1은 일 실시예에 따른 딥러닝을 이용하여 열매의 생육 과정을 모니터링하는 시스템을 도시한 도면이다.
도 2는 일 실시예에 따른 딥러닝을 이용하여 열매의 생육 과정을 모니터링하는 방법을 수행하기 위한 컴퓨팅 장치의 구성을 도시한 도면이다.
도 3은 일 실시예에 따른 딥러닝을 이용하여 열매의 생육 과정을 모니터링하는 방법을 설명하기 위한 순서도이다.
도 4는 일 실시예에 따른 딥러닝을 이용하여 열매의 생육 과정을 모니터링하는 방법을 수행함에 있어서, 복수의 인공신경망 모델들이 촬영 영상으로부터 데이터를 추출하는 과정을 설명하기 위한 도면이다.
도 5 및 도 6은 도 3의 순서도에 포함된 단계 중 일부에 포함된 세부단계들을 설명하기 위한 순서도들이다.
도 7 및 도 8은 일 실시예에 따라 영상에서 둘 이상의 열매가 겹쳐진 경우 이를 고려하여 열매의 개수 및 크기를 측정하는 방법을 설명하기 위한 도면들이다.
도 2는 일 실시예에 따른 딥러닝을 이용하여 열매의 생육 과정을 모니터링하는 방법을 수행하기 위한 컴퓨팅 장치의 구성을 도시한 도면이다.
도 3은 일 실시예에 따른 딥러닝을 이용하여 열매의 생육 과정을 모니터링하는 방법을 설명하기 위한 순서도이다.
도 4는 일 실시예에 따른 딥러닝을 이용하여 열매의 생육 과정을 모니터링하는 방법을 수행함에 있어서, 복수의 인공신경망 모델들이 촬영 영상으로부터 데이터를 추출하는 과정을 설명하기 위한 도면이다.
도 5 및 도 6은 도 3의 순서도에 포함된 단계 중 일부에 포함된 세부단계들을 설명하기 위한 순서도들이다.
도 7 및 도 8은 일 실시예에 따라 영상에서 둘 이상의 열매가 겹쳐진 경우 이를 고려하여 열매의 개수 및 크기를 측정하는 방법을 설명하기 위한 도면들이다.
아래에서는 첨부한 도면을 참조하여 다양한 실시예들을 상세히 설명한다. 아래에서 설명되는 실시예들은 여러 가지 상이한 형태로 변형되어 실시될 수도 있다. 실시예들의 특징을 보다 명확히 설명하기 위하여, 이하의 실시예들이 속하는 기술분야에서 통상의 지식을 가진 자에게 널리 알려져 있는 사항들에 관해서 자세한 설명은 생략하였다. 그리고, 도면에서 실시예들의 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
명세서 전체에서, 어떤 구성이 다른 구성과 "연결"되어 있다고 할 때, 이는 '직접적으로 연결'되어 있는 경우뿐 아니라, '그 중간에 다른 구성을 사이에 두고 연결'되어 있는 경우도 포함한다. 또한, 어떤 구성이 어떤 구성을 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한, 그 외 다른 구성을 제외하는 것이 아니라 다른 구성들을 더 포함할 수도 있음을 의미한다.
이하 첨부된 도면을 참고하여 실시예들을 상세히 설명하기로 한다.
도 1은 일 실시예에 따른 딥러닝을 이용하여 열매의 생육 과정을 모니터링하는 시스템을 도시한 도면이다.
도 1을 참조하면, 일 실시예에 따른 생육 과정 모니터링 시스템은, 서버(100) 및 자동촬영장치(200) 등을 포함할 수 있다.
서버(100)는 자동촬영장치(200)를 통해 촬영된 영상을 수신하고, 딥러닝 모델을 이용하여 촬영 영상으로부터 열매의 재배와 관련된 데이터들을 획득함으로써, 자동으로 열매의 생육 과정을 모니터링 할 수 있다. 서버(100)에 포함된 구성들과, 각 구성들이 수행하는 동작에 대해서는 아래에서 다른 도면들을 참조하여 자세히 설명한다.
자동촬영장치(200)는 열매를 재배하는 공간(e.g. 밭 또는 비닐하우스 등)에 설치되어, 미리 프로그래밍된 방식에 따라서 자동으로 열매들을 촬영하고, 촬영 영상을 서버(100)에 전송할 수 있다. 자동촬영장치(200)의 세부 구성과, 해당 구성들을 통해 자동으로 열매들을 촬영하는 방법에 대해서 자세히 설명하면 다음과 같다.
자동촬영장치(200)는 촬영부(210), 안전센서(220), 경광등(230) 및 충전단자(240) 등을 포함할 수 있으며, 레일(10)을 따라 횡방향으로 이동할 수 있다.
촬영부(210)는 복수의 카메라들(211, 212, 213)을 포함할 수 있으며, 복수의 카메라들(211, 212, 213)은 각각 서로 다른 종류일 수 있다. 예를 들어, 복수의 카메라들(211, 212, 213)에는 피사체 표면까지의 깊이 측정이 가능한 뎁스(depth) 카메라가 포함될 수도 있고, 피사체를 고해상도로 촬영하기 위한 고해상도 카메라가 포함될 수도 있다.
안전센서(220)는 초음파를 송출함으로써 자동촬영장치(200)가 레일(10)을 따라 자동으로 이동할 때 전방에 장애물이 존재하는지 여부를 파악할 수 있도록 한다.
경광등(230)은 작동 오류, 장애물과의 충돌 등이 발생했을 경우 점등되어 관리자에게 비상상황임을 알려줄 수 있다.
충전단자(240)는 자동촬영장치(200)가 출발지점(12)에 위치할 때 출발지점(12)의 충전단자(13)와 결합되어 자동촬영장치(200) 내부에 구비된 배터리를 충전하기 위한 구성이다.
자동촬영장치(200)는 레일(10)을 따라 이동하며, 복수의 촬영지점(14a, 14b, 14c)에서 잠시 정지한 후 촬영부(210)를 이용해 열매들을 촬영할 수 있다. 복수의 촬영지점(14a, 14b, 14c)에는 자동촬영장치(200)가 정지할 위치를 인식하기 위한 센서가 설치될 수 있으며, 일 실시예에 따르면 자석센서가 설치될 수 있다.
자동촬영장치(200)는 이와 같은 구성을 통해 자동으로 열매들을 촬영하고, 촬영 영상을 서버(100)에 전송한다. 서버(100)는 미리 학습된 인공신경망 모델을 이용하여 촬영 영상으로부터 열매의 재배와 관련된 데이터(열매의 개수, 성장 단계, 크기 등)를 획득할 수 있다.
일 실시예에 따르면, 촬영 조건을 가급적 비슷하게 유지하기 위해 자동촬영장치(200)가 열매를 촬영하는 시점을 조절할 수도 있다. 만약, 매일 동일한 시각에 촬영을 한다면, 계절에 따른 일출 시각의 차이로 인해 촬영 시 주변의 밝기에 차이가 있을 수 있다. 이러한 문제점을 해결하기 위해, 예를 들어 '일출 후 30분이 되는 시점'과 같이 특정 기준(e.g. 일출 시각 또는 일몰 시각 등)에 따라 결정되는 시점에 촬영하도록 자동촬영장치(200)의 설정을 조정할 수 있으며, 일출 시각은 기상청의 예보를 바탕으로 파악할 수 있다.
도 2는 일 실시예에 따른 딥러닝을 이용하여 열매의 생육 과정을 모니터링하는 방법을 수행하기 위한 컴퓨팅 장치의 구성을 도시한 도면이다. 도 2에 도시된 컴퓨팅 장치는 도 1의 서버(100)에 해당되므로, 이하에서는 명칭을 서버(100)라고 하여 설명한다.
일 실시예에 따른 서버(100)는 입출력부(110), 제어부(120) 및 저장부(130)를 포함할 수 있다.
입출력부(110)는 데이터 또는 커맨드의 입출력을 위한 구성이다. 서버(100)는 입출력부(110)를 통해 자동촬영장치(200)로부터 촬영 영상을 수신하고, 촬영 영상으로부터 획득한 데이터를 분석한 결과를 영상 등을 통해 출력할 수도 있다. 또한, 서버(100)는 입출력부(110)를 통해 자동촬영장치(200)에 자동 촬영 수행을 위한 제어명령을 전송할 수도 있다. 입출력부(110)는 키보드, 하드 버튼 및 터치스크린 등과 같은 입력을 수신하기 위한 구성과, LCD 패널 등과 같은 출력을 위한 구성, 그리고 유무선 통신 포트와 같은 입출력을 위한 구성을 포함할 수 있다.
제어부(120)는 CPU 등과 같은 적어도 하나의 프로세서를 포함하는 구성으로서, 서버(100)의 전반적인 동작을 제어할 수 있다. 특히, 제어부(120)는 후술할 저장부(130)에 저장된 프로그램을 실행함으로써, 미리 학습된 인공신경망 모델을 이용해 촬영 영상으로부터 열매의 재배와 관련된 데이터를 획득할 수 있다. 제어부(120)가 인공신경망 모델을 이용해 촬영 영상으로부터 열매의 재배와 관련된 데이터를 획득하는 구체적인 방법에 대해서는 아래에서 다른 도면들을 참조하여 자세히 설명한다.
저장부(130)는 데이터 및 프로그램 등이 저장될 수 있는 구성으로서, RAM, HDD 및 SSD 등과 같이 다양한 종류의 메모리 중 적어도 하나를 포함하도록 구성될 수 있다. 저장부(130)에는 열매의 촬영 영상으로부터 열매의 재배와 관련된 데이터를 획득하는데 사용되는 인공신경망 모델을 실행하기 위한 프로그램이 저장될 수 있다.
이하에서는 도 3 내지 도 8을 참조하여, 제어부(120)가 인공신경망 모델을 이용해 촬영 영상으로부터 열매의 재배와 관련된 데이터를 획득하는 구체적인 방법에 대해서 설명한다.
도 3은 일 실시예에 따른 딥러닝을 이용하여 열매의 생육 과정을 모니터링하는 방법을 설명하기 위한 순서도이고, 도 4는 일 실시예에 따른 딥러닝을 이용하여 열매의 생육 과정을 모니터링하는 방법을 수행함에 있어서, 복수의 인공신경망 모델들이 촬영 영상으로부터 데이터를 추출하는 과정을 상세하게 설명하기 위한 도면이다. 이하에서는 도 3의 각 단계를 설명함에 있어서, 도 4를 참조하여 자세한 설명을 보충한다.
도 3을 참조하면, 301 단계에서 서버(100)의 제어부(120)는 자동촬영장치(200)로부터 자동으로 열매들을 촬영한 영상을 수신한다. 제어부(120)는 주기적으로 촬영 영상을 수신할 수 있으며, 수신한 촬영 영상은 저장부(130)에 저장한 뒤 분석에 이용할 수 있다. 도 4를 참조하면, 시작 단계에서 딸기에 대한 촬영 영상(40)이 수신된다.
302 단계에서 제어부(120)는 객체 검출(object detection) 모델을 이용하여 촬영 영상으로부터 열매의 위치를 검출할 수 있다. 도 4를 참조하면, 객체 검출 모델(410)은 촬영 영상(40)으로부터 딸기를 검출하여, 딸기의 위치에 바운딩 박스(bounding box)를 표시한 제1 영상(41)을 생성한다. 객체 검출 모델(410)은 제어부(120)에 의해 실행되는 인경신경망 모델이며, 영상으로부터 특정 열매(e.g. 딸기)를 검출할 수 있도록, 해당 열매를 촬영한 영상들을 학습용 데이터로 이용하여 미리 학습될 수 있다.
303 단계에서 제어부(120)는 검출된 위치를 크로핑(cropping)한다. 도 4를 참조하면, 제어부(120)는 제1 영상(41)에서 딸기의 위치에 표시된 바운딩 박스 부분을 크로핑(420)하여 제2 영상(42)을 생성한다. 도 4에 도시된 제2 영상(42)에는 한 개의 딸기만 포함되었지만, 제1 영상(40)에서 둘 이상의 딸기가 겹쳐져 있는 경우에는 하나의 바운딩 박스 안에 둘 이상의 딸기가 포함될 수도 있는데, 이러한 경우 추후 설명할 분할 모델(440)이 딸기의 크기를 측정하는 과정에서 오류가 발생할 수 있다. 본 명세서에서는 이러한 문제를 해결하기 위한 방법을 제시하고 있으며, 자세한 내용은 아래에서 다시 설명하도록 한다.
제어부(120)가 303 단계에서 크로핑을 수행하는 이유는, 이후의 단계들에서 각각의 딸기별로 성장 단계 및 크기를 용이하게 측정하기 위함이다. 또한, 도 4에는 하나의 딸기를 크로핑한 제2 영상(42)만을 도시하였으나, 제어부(120)는 제1 영상(41)에서 검출된 모든 위치 각각에 대해서 크로핑을 수행하여 복수의 영상들을 생성할 수 있다.
제어부(120)는 기본적으로 크로핑을 통해 생성된 영상의 수를 열매의 개수로 파악하고, 추후 설명할 분할 모델(440)에서 겹쳐진 열매의 개수를 확인한 결과에 기초하여 이를 보완할 수 있다. 예를 들어 설명하면, 임의의 촬영 영상으로부터 객체 검출을 통해 크로핑된 영상의 개수가 3개라면, 제어부(120)는 일단 열매가 3개라고 판단한다. 그런데 만약, 크로핑된 영상 중 어느 하나에 2개의 열매가 겹쳐진 상태로 표시되어 있다면, 제어부(120)는 열매의 총 개수가 4개라고 판단한다.
304 단계에서 제어부(120)는 분류(classification) 모델을 이용하여 크로핑된 영역에 포함된 열매의 성장 단계를 확인한다. 도 4를 참조하면, 분류 모델(430)은 제2 영상(42)을 입력으로 수신하면, 제2 영상(42)에 포함된 딸기의 성장 단계를 결과로서 출력할 수 있다. 도 4에서는 분류 모델(430)에서 출력된 제3 영상(43)의 좌측 상단에 딸기의 성장 단계를 나타내는 숫자(“6”)가 표시되었다. 분류 모델(430)은 이와 같이 성장 단계가 표시된 영상을 출력할 수도 있고, 성장 단계에 대한 데이터(성장 단계를 나타내는 숫자인 “6”)만을 출력할 수도 있다.
분류 모델(430)은 제어부(120)에 의해 실행되는 인공신경망 모델이며, 영상에 포함된 열매의 성장 단계를 분류할 수 있도록 미리 학습될 수 있다. 예를 들어, 딸기의 성장 단계를 복수로 설정하고, 각각의 성장 단계에 대응되는 딸기를 촬영한 영상에, 대응되는 성장 단계를 라벨링(labeling)한 영상을 학습용 데이터로 이용하여 분류 모델(430)을 학습시킬 수 있다.
305 단계에서 제어부(120)는 분할(segmentation) 모델을 이용하여 크로핑된 영역에 포함된 열매의 개수 및 크기를 측정한다. 도 4를 참조하면, 분할 모델(440)은 제2 영상(42) 또는 제3 영상(43)을 입력으로 수신하면, 제2 영상(42) 또는 제3 영상(43)에서 딸기에 해당되는 영역을 배경으로부터 분할하여 경계선을 표시한 제4 영상(44)을 생성할 수 있다. 이어서, 제어부(120)는 제4 영상(44)에서 경계선 내에 포함된 픽셀 수를 확인하고, 확인된 픽셀 수에 기초하여 딸기의 크기를 측정할 수 있다.
306 단계에서 제어부(120)는 촬영 영상으로부터 획득한 정보인 열매의 개수, 성장 단계 및 크기를 저장부(130)에 저장할 수 있다. 제어부(120)는 저장된 정보를 분석하여 열매의 재배와 관련된 피드백을 제공할 수도 있고, 또는 저장된 정보를 표시한 영상을 화면에 출력할 수도 있다. 도 4를 참조하면, 제어부(120)는 촬영 영상(40)으로부터 획득한 정보들을 표시한 제5 영상(45)을 화면에 표시하고, 획득한 정보들을 저장부(130)에 저장할 수 있다. (450)
한편, 앞서 설명한 바와 같이 크로핑된 영역 내에서 둘 이상의 열매들이 겹쳐진 상태로 존재할 수 있는데, 이러한 경우 제어부(120)가 측정하는 열매의 개수 및 크기에 있어서 오류가 발생할 수 있다. 이러한 문제를 해결하기 위해 제어부(120)는 분할 모델(440)을 이용하여 크로핑된 영역에 포함된 열매의 개수 및 크기를 측정함에 있어서, 둘 이상의 열매가 겹쳐진 상태인지 여부를 확인하고, 겹쳐진 상태라면 이를 고려하여 열매의 개수 및 크기를 측정할 수 있다. 이에 대해서 자세히 설명하면 다음과 같다.
도 5는 도 3의 305 단계에 포함된 세부단계들을 설명하기 위한 순서도이다.
도 5를 참조하면, 501 단계에서 제어부(120)는 크로핑된 영역에 분할을 수행하여 열매의 경계선(열매와 배경을 구분하는 경계선)을 검출한다.
502 단계에서 제어부(120)는 경계선 내에 둘 이상의 열매가 겹쳐져 있는지 여부를 확인한다. 제어부(120)는 객체 검출 모델을 이용하여 열매의 위치를 검출하는 단계에서, 열매의 형태에 기초하여 둘 이상의 열매가 겹쳐진 상태인지 여부를 판단할 수 있다. 또는, 제어부(120)는 뎁스 카메라의 촬영 결과에 기초하여 둘 이상의 열매가 겹쳐진 상태인지 여부를 판단할 수도 있다.
도 7을 참조하여 설명하면, 제1 크로핑 영상(700)에 분할을 수행함으로써 딸기들(710, 720, 730)을 배경과 구분하는 경계선이 표시되었는데, 경계선 내에 3개의 딸기들이 겹쳐져 있으므로 503 단계로 진행한다.
503 단계에서 제어부(120)는 겹쳐진 영역을 고려하여 열매의 개수 및 각 열매의 크기를 측정할 수 있다. 도 6에는 503 단계에 포함되는 세부단계들을 도시하였다.
도 6을 참조하면, 601 단계에서 제어부(120)는 RANSAC (Random Sample Consensus) 알고리즘을 이용하여 각 열매에 대해 타원 피팅을 수행한다. 자세하게는, 제어부(120)는 경계선 내의 픽셀들 중 일부를 무작위로 선택한 후, 선택된 픽셀들의 위치(좌표)를 포함하는 타원 모델을 생성하는 프로세스를 반복적으로 수행함으로써 가장 많은 픽셀들이 만족하는 타원 모델을 찾을 수 있다. 이때, 제어부(120)는 피팅해야 할 타원의 개수가 미리 결정된 상태에서 RANSAC 알고리즘을 적용할 수 있는데, 예를 들어 제어부(120)는 경계선의 전체적인 형태에 기초하여 겹쳐있는 딸기의 개수를 결정하거나, 또는 뎁스 카메라의 촬영 결과에 기초하여 겹쳐있는 딸기의 개수를 결정하고, 이렇게 결정된 타원의 개수에 따라서 타원 피팅을 수행할 수 있다.
도 7 및 도 8을 참조하여 설명하면, 도 7의 제1 크로핑 영상(700)에 표시된 경계선에 대해서 타원 피팅을 수행한 결과, 도 8의 제2 크로핑 영상(800)에 표시된 바와 같이 딸기들(710, 720, 730) 각각의 실제 모양에 근접한 타원들(810, 820, 830)이 피팅되었다.
다시 도 6으로 돌아와서, 602 단계에서 제어부(120)는 피팅된 타원의 개수를 열매의 개수로 설정하고, 각 열매에 대해 피팅된 타원에 포함된 픽셀 수를 확인한다. 예를 들어 도 8에서 피팅된 타원들(810, 820, 830)은 3개이므로, 제어부(120)는 제2 크로핑 영상(800)에 포함된 딸기의 개수가 3개라고 판단한다. 그리고, 제어부(120)는 피팅된 타원들(810, 820, 830) 각각에 포함된 픽셀 수를 확인한다.
603 단계에서 제어부(120)는 확인된 픽셀 수에 기초하여 각 열매의 크기를 측정한다. 예를 들어, 도 8에서 제어부(120)는 제1 타원(810)에 포함된 픽셀 수에 기초하여, 제1 타원(810)에 대응되는 제1 딸기(710)의 크기를 측정(추정)할 수 있다. 또한, 제어부(120)는 다른 딸기들(720, 730)에 대해서도 동일한 방식으로 타원들(820, 830)에 포함된 픽셀 수에 기초하여 크기를 측정할 수 있다.
이상 설명한 실시예들에 따르면, 자동으로 열매를 촬영한 영상으로부터 열매의 개수, 성장 단계 및 크기 등과 같이 열매의 재배와 관련된 정보를 자동으로 획득하고, 획득한 정보를 표시한 영상을 화면에 표시하거나 획득한 정보를 분석한 결과에 따라 사용자에게 피드백을 제공함으로써, 열매의 생육에 필요한 관리를 효율적으로 수행할 수 있는 효과를 기대할 수 있다.
이상의 실시예들에서 사용되는 '~부'라는 용어는 소프트웨어 또는 FPGA(field programmable gate array) 또는 ASIC 와 같은 하드웨어 구성요소를 의미하며, '~부'는 어떤 역할들을 수행한다. 그렇지만 '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램특허 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다.
구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로부터 분리될 수 있다.
뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU 들을 재생시키도록 구현될 수도 있다.
도 3 내지 도 8을 통해 설명된 실시예들에 따른 딥러닝을 이용하여 열매의 생육 과정을 모니터링하는 방법은 컴퓨터에 의해 실행 가능한 명령어 및 데이터를 저장하는, 컴퓨터로 판독 가능한 매체의 형태로도 구현될 수 있다. 이때, 명령어 및 데이터는 프로그램 코드의 형태로 저장될 수 있으며, 프로세서에 의해 실행되었을 때, 소정의 프로그램 모듈을 생성하여 소정의 동작을 수행할 수 있다. 또한, 컴퓨터로 판독 가능한 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터로 판독 가능한 매체는 컴퓨터 기록 매체일 수 있는데, 컴퓨터 기록 매체는 컴퓨터 판독 가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함할 수 있다. 예를 들어, 컴퓨터 기록 매체는 HDD 및 SSD 등과 같은 마그네틱 저장 매체, CD, DVD 및 블루레이 디스크 등과 같은 광학적 기록 매체, 또는 네트워크를 통해 접근 가능한 서버에 포함되는 메모리일 수 있다.
또한 도 3 내지 도 8을 통해 설명된 실시예들에 따른 딥러닝을 이용하여 열매의 생육 과정을 모니터링하는 방법은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 컴퓨터 프로그램(또는 컴퓨터 프로그램 제품)으로 구현될 수도 있다. 컴퓨터 프로그램은 프로세서에 의해 처리되는 프로그래밍 가능한 기계 명령어를 포함하고, 고레벨 프로그래밍 언어(High-level Programming Language), 객체 지향 프로그래밍 언어(Object-oriented Programming Language), 어셈블리 언어 또는 기계 언어 등으로 구현될 수 있다. 또한 컴퓨터 프로그램은 유형의 컴퓨터 판독가능 기록매체(예를 들어, 메모리, 하드디스크, 자기/광학 매체 또는 SSD(Solid-State Drive) 등)에 기록될 수 있다.
따라서 도 3 내지 도 8을 통해 설명된 실시예들에 따른 딥러닝을 이용하여 열매의 생육 과정을 모니터링하는 방법은 상술한 바와 같은 컴퓨터 프로그램이 컴퓨팅 장치에 의해 실행됨으로써 구현될 수 있다. 컴퓨팅 장치는 프로세서와, 메모리와, 저장 장치와, 메모리 및 고속 확장포트에 접속하고 있는 고속 인터페이스와, 저속 버스와 저장 장치에 접속하고 있는 저속 인터페이스 중 적어도 일부를 포함할 수 있다. 이러한 성분들 각각은 다양한 버스를 이용하여 서로 접속되어 있으며, 공통 머더보드에 탑재되거나 다른 적절한 방식으로 장착될 수 있다.
여기서 프로세서는 컴퓨팅 장치 내에서 명령어를 처리할 수 있는데, 이런 명령어로는, 예컨대 고속 인터페이스에 접속된 디스플레이처럼 외부 입력, 출력 장치상에 GUI(Graphic User Interface)를 제공하기 위한 그래픽 정보를 표시하기 위해 메모리나 저장 장치에 저장된 명령어를 들 수 있다. 다른 실시예로서, 다수의 프로세서 및(또는) 다수의 버스가 적절히 다수의 메모리 및 메모리 형태와 함께 이용될 수 있다. 또한 프로세서는 독립적인 다수의 아날로그 및(또는) 디지털 프로세서를 포함하는 칩들이 이루는 칩셋으로 구현될 수 있다.
또한 메모리는 컴퓨팅 장치 내에서 정보를 저장한다. 일례로, 메모리는 휘발성 메모리 유닛 또는 그들의 집합으로 구성될 수 있다. 다른 예로, 메모리는 비휘발성 메모리 유닛 또는 그들의 집합으로 구성될 수 있다. 또한 메모리는 예컨대, 자기 혹은 광 디스크와 같이 다른 형태의 컴퓨터 판독 가능한 매체일 수도 있다.
그리고 저장장치는 컴퓨팅 장치에게 대용량의 저장공간을 제공할 수 있다. 저장 장치는 컴퓨터 판독 가능한 매체이거나 이런 매체를 포함하는 구성일 수 있으며, 예를 들어 SAN(Storage Area Network) 내의 장치들이나 다른 구성도 포함할 수 있고, 플로피 디스크 장치, 하드 디스크 장치, 광 디스크 장치, 혹은 테이프 장치, 플래시 메모리, 그와 유사한 다른 반도체 메모리 장치 혹은 장치 어레이일 수 있다.
상술된 실시예들은 예시를 위한 것이며, 상술된 실시예들이 속하는 기술분야의 통상의 지식을 가진 자는 상술된 실시예들이 갖는 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 상술된 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.
본 명세서를 통해 보호 받고자 하는 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태를 포함하는 것으로 해석되어야 한다.
100: 서버 110: 입출력부
120: 제어부 130: 저장부
200: 자동촬영장치 210: 촬영부
220: 엣지 디바이스 230: 경광등
240: 충전단자 10: 레일
120: 제어부 130: 저장부
200: 자동촬영장치 210: 촬영부
220: 엣지 디바이스 230: 경광등
240: 충전단자 10: 레일
Claims (10)
- 컴퓨팅 장치가, 딥러닝을 이용하여 열매의 생육 과정을 모니터링하는 방법에 있어서,
상기 컴퓨팅 장치가, 자동으로 열매들을 촬영한 영상을 수신하는 단계;
상기 컴퓨팅 장치가, 객체 검출(object detection) 모델을 이용하여 상기 촬영된 영상에서 상기 열매들의 위치를 검출하는 단계;
상기 컴퓨팅 장치가, 상기 검출된 위치를 크로핑(cropping)하는 단계;
상기 컴퓨팅 장치가, 분류(classification) 모델을 이용하여, 상기 크로핑된 영역에 포함된 열매의 성장 단계(growth grade)를 확인하는 단계;
상기 컴퓨팅 장치가, 분할(segmentation) 모델을 이용하여 상기 크로핑된 영역에 포함된 열매의 개수 및 크기를 측정하는 단계; 및
상기 컴퓨팅 장치가, 상기 열매의 개수, 성장 단계 및 크기를 저장하는 단계를 포함하고,
상기 열매의 개수 및 크기를 측정하는 단계는,
상기 크로핑된 영역에 분할을 수행하여 열매의 경계선을 검출하는 단계;
상기 검출된 경계선 내에 둘 이상의 열매가 겹쳐져있는지 판단하는 단계; 및
상기 경계선 내에 둘 이상의 열매가 겹쳐져있다면 겹쳐진 영역을 고려하여 상기 열매의 개수 및 각 열매의 크기를 측정하는 단계를 포함하며,
상기 겹쳐진 영역을 고려하여 상기 열매의 개수 및 각 열매의 크기를 측정하는 단계는,
RANSAC (Random Sample Consensus) 알고리즘을 이용하여 각 열매에 대해 타원 피팅을 수행하는 단계;
상기 피팅된 타원의 개수를 상기 열매의 개수로 설정하고, 각 열매에 대해 피팅된 타원에 포함된 픽셀 수를 확인하는 단계; 및
상기 확인된 픽셀 수에 기초하여 각 열매의 크기를 측정하는 단계를 포함하는 것을 특징으로 하는 방법. - 삭제
- 제1항에 있어서,
상기 둘 이상의 열매가 겹쳐져있는지 판단하는 단계는,
상기 크로핑된 영역을 뎁스(depth) 카메라로 촬영한 결과를 이용하여 둘 이상의 열매가 겹쳐져있는지 여부를 판단하는 것을 특징으로 하는 방법. - 삭제
- 컴퓨터에 제1항에 기재된 방법을 실행시키기 위한 프로그램이 기록된 컴퓨터 판독 가능한 기록 매체.
- 컴퓨팅 장치에 의해 수행되며, 제1항에 기재된 방법을 수행하기 위해 매체에 저장된 컴퓨터 프로그램.
- 딥러닝을 이용하여 열매의 생육 과정을 모니터링하는 방법을 수행하기 위한 컴퓨팅 장치에 있어서,
데이터 또는 커맨드를 입력받거나 출력하기 위한 입출력부;
열매들에 대한 촬영 영상을 이용하여 상기 열매들의 생육 과정을 모니터링하기 위한 프로그램이 저장되는 저장부; 및
상기 저장부에 저장된 프로그램을 실행함으로써 복수의 인공신경망 모델을 구현하고, 상기 복수의 인공신경망 모델을 이용하여 상기 촬영 영상으로부터 상기 열매들의 재배와 관련된 정보들을 획득하는 제어부를 포함하며,
상기 제어부는,
상기 입출력부를 통해 상기 촬영 영상을 수신하면, 객체 검출(object detection) 모델을 이용하여 상기 촬영 영상에서 상기 열매들의 위치를 검출하고, 상기 검출된 위치를 크로핑(cropping)하고, 분류(classification) 모델을 이용하여 상기 크로핑된 영역에 포함된 열매의 성장 단계(growth grade)를 확인하고, 분할(segmentation) 모델을 이용하여 상기 크로핑된 영역에 포함된 열매의 개수 및 크기를 측정하고, 상기 열매의 개수, 성장 단계 및 크기를 저장하고,
상기 제어부는 상기 열매의 개수 및 크기를 측정함에 있어서,
상기 크로핑된 영역에 분할을 수행하여 열매의 경계선을 검출하고, 상기 검출된 경계선 내에 둘 이상의 열매가 겹쳐져있는지 판단하고, 상기 경계선 내에 둘 이상의 열매가 겹쳐져있다면 겹쳐진 영역을 고려하여 상기 열매의 개수 및 각 열매의 크기를 측정하며,
상기 제어부는 상기 겹쳐진 영역을 고려하여 상기 열매의 개수 및 각 열매의 크기를 측정함에 있어서,
RANSAC (Random Sample Consensus) 알고리즘을 이용하여 각 열매에 대해 타원 피팅을 수행하고, 상기 피팅된 타원의 개수를 상기 열매의 개수로 설정하고, 각 열매에 대해 피팅된 타원에 포함된 픽셀 수를 확인하고, 상기 확인된 픽셀 수에 기초하여 각 열매의 크기를 측정하는 것을 특징으로 하는 장치. - 삭제
- 제7항에 있어서,
상기 제어부는 상기 둘 이상의 열매가 겹쳐져있는지 판단함에 있어서,
상기 크로핑된 영역을 뎁스(depth) 카메라로 촬영한 결과를 이용하여 둘 이상의 열매가 겹쳐져있는지 여부를 판단하는 것을 특징으로 하는 장치. - 삭제
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210078991A KR102601734B1 (ko) | 2021-06-17 | 2021-06-17 | 딥러닝을 이용하여 열매의 생육 과정을 모니터링하는 방법 및 이를 수행하기 위한 장치 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210078991A KR102601734B1 (ko) | 2021-06-17 | 2021-06-17 | 딥러닝을 이용하여 열매의 생육 과정을 모니터링하는 방법 및 이를 수행하기 위한 장치 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220168914A KR20220168914A (ko) | 2022-12-26 |
KR102601734B1 true KR102601734B1 (ko) | 2023-11-13 |
Family
ID=84547508
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210078991A KR102601734B1 (ko) | 2021-06-17 | 2021-06-17 | 딥러닝을 이용하여 열매의 생육 과정을 모니터링하는 방법 및 이를 수행하기 위한 장치 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102601734B1 (ko) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180027778A (ko) * | 2016-09-07 | 2018-03-15 | 한국과학기술연구원 | 식물 생육 모니터링 시스템 및 그 방법 |
KR101930025B1 (ko) * | 2017-04-28 | 2018-12-17 | 주식회사 지농 | 작물의 생육 상태 측정 방법 및 시스템 |
KR102554629B1 (ko) * | 2017-11-10 | 2023-07-12 | 한국전자통신연구원 | 작물의 생육 모델링을 이용한 생산 효율 최적화 장치 및 방법 |
-
2021
- 2021-06-17 KR KR1020210078991A patent/KR102601734B1/ko active IP Right Grant
Non-Patent Citations (2)
Title |
---|
M. Ren et al., ‘End-to-End Instance Segmentation with Recurrent Attention,’ IEEE CVFR 2017, pp.6656-6664 (2017.07.21.) 1부.* |
김영춘 외 2인 공저, ‘식물측정 알고리즘을 이용한 식물성장 모니터링 시스템의 개발에 관한 연구,’ 한국산학기술학회논문지 제13권 제6호, 2012, pp.2702-2706 (2012.06.30.) 1부.* |
Also Published As
Publication number | Publication date |
---|---|
KR20220168914A (ko) | 2022-12-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Tian et al. | Detection of apple lesions in orchards based on deep learning methods of CycleGAN and YOLOV3‐dense | |
JP6905081B2 (ja) | 車両損失査定画像を取得するための方法および装置、サーバ、ならびに端末デバイス | |
US11205274B2 (en) | High-performance visual object tracking for embedded vision systems | |
US10055843B2 (en) | System and methods for automatic polyp detection using convulutional neural networks | |
Chen et al. | Detecting citrus in orchard environment by using improved YOLOv4 | |
CN109145759B (zh) | 车辆属性识别方法、装置、服务器及存储介质 | |
Wang et al. | YOLOv3‐Litchi Detection Method of Densely Distributed Litchi in Large Vision Scenes | |
CN110008806B (zh) | 信息处理装置、学习处理方法、学习装置及物体识别装置 | |
US20110182469A1 (en) | 3d convolutional neural networks for automatic human action recognition | |
US11295169B2 (en) | Method, device, and program for sampling frame image of object to be learned in video for artificial intelligence video learning, and image learning method thereof | |
US20240029303A1 (en) | Three-dimensional target detection method and apparatus | |
KR102283452B1 (ko) | 작물 이미지의 병해충 검출 방법 및 장치 | |
Ye et al. | An image-based approach for automatic detecting tasseling stage of maize using spatio-temporal saliency | |
TW202029134A (zh) | 行車偵測方法、車輛及行車處理裝置 | |
US20130258063A1 (en) | Computing device and method for automatically inspecting quality of products on an automatic production line | |
Mitra et al. | aGRodet 2.0: An Automated Real-Time Approach for Multiclass Plant Disease Detection | |
KR102601734B1 (ko) | 딥러닝을 이용하여 열매의 생육 과정을 모니터링하는 방법 및 이를 수행하기 위한 장치 | |
NO20210472A1 (en) | Bird detection and species determination | |
JP2020021368A (ja) | 画像解析システム、画像解析方法及び画像解析プログラム | |
Poleshchenko et al. | Detection of Sunflower Plants in UAV Photos | |
Turečková et al. | Slicing aided large scale tomato fruit detection and counting in 360-degree video data from a greenhouse | |
KR20230069396A (ko) | 인공신경망을 이용하여 영상으로부터 식물 잎을 검출하는 방법 및 이를 수행하기 위한 컴퓨팅 장치 | |
JPWO2020153264A1 (ja) | 校正方法および校正装置 | |
CN108875825B (zh) | 一种基于图像分块的粮仓害虫检测方法 | |
Jenkins et al. | Online detection of occluded plant stalks for manipulation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |