KR20230038941A - Crop monitering apparatus - Google Patents
Crop monitering apparatus Download PDFInfo
- Publication number
- KR20230038941A KR20230038941A KR1020210121651A KR20210121651A KR20230038941A KR 20230038941 A KR20230038941 A KR 20230038941A KR 1020210121651 A KR1020210121651 A KR 1020210121651A KR 20210121651 A KR20210121651 A KR 20210121651A KR 20230038941 A KR20230038941 A KR 20230038941A
- Authority
- KR
- South Korea
- Prior art keywords
- unit
- photographing
- image
- target object
- bed
- Prior art date
Links
- 238000012806 monitoring device Methods 0.000 claims abstract description 49
- 230000015654 memory Effects 0.000 claims abstract description 33
- 241000607479 Yersinia pestis Species 0.000 claims description 26
- 230000003028 elevating effect Effects 0.000 claims description 11
- 238000012544 monitoring process Methods 0.000 claims description 5
- 238000009434 installation Methods 0.000 claims description 2
- 238000000034 method Methods 0.000 description 22
- 238000004891 communication Methods 0.000 description 20
- 238000003860 storage Methods 0.000 description 11
- 238000013136 deep learning model Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 8
- 238000013528 artificial neural network Methods 0.000 description 7
- 235000013399 edible fruits Nutrition 0.000 description 7
- 238000003745 diagnosis Methods 0.000 description 6
- 238000004590 computer program Methods 0.000 description 5
- 238000005259 measurement Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 241000675108 Citrus tangerina Species 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000033001 locomotion Effects 0.000 description 4
- 241000196324 Embryophyta Species 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000009795 derivation Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 239000003337 fertilizer Substances 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 238000005507 spraying Methods 0.000 description 2
- 235000016623 Fragaria vesca Nutrition 0.000 description 1
- 240000009088 Fragaria x ananassa Species 0.000 description 1
- 235000011363 Fragaria x ananassa Nutrition 0.000 description 1
- 241000700605 Viruses Species 0.000 description 1
- 238000012271 agricultural production Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000004040 coloring Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000009313 farming Methods 0.000 description 1
- 235000013305 food Nutrition 0.000 description 1
- 238000003306 harvesting Methods 0.000 description 1
- 244000144972 livestock Species 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 235000015097 nutrients Nutrition 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 244000052769 pathogen Species 0.000 description 1
- 239000000575 pesticide Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 241000894007 species Species 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 125000000391 vinyl group Chemical group [H]C([*])=C([H])[H] 0.000 description 1
- 229920002554 vinyl polymer Polymers 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/183—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
- H04N7/185—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control
-
- A—HUMAN NECESSITIES
- A01—AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
- A01G—HORTICULTURE; CULTIVATION OF VEGETABLES, FLOWERS, RICE, FRUIT, VINES, HOPS OR SEAWEED; FORESTRY; WATERING
- A01G9/00—Cultivation in receptacles, forcing-frames or greenhouses; Edging for beds, lawn or the like
- A01G9/24—Devices or systems for heating, ventilating, regulating temperature, illuminating, or watering, in greenhouses, forcing-frames, or the like
- A01G9/26—Electric devices
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F16—ENGINEERING ELEMENTS AND UNITS; GENERAL MEASURES FOR PRODUCING AND MAINTAINING EFFECTIVE FUNCTIONING OF MACHINES OR INSTALLATIONS; THERMAL INSULATION IN GENERAL
- F16M—FRAMES, CASINGS OR BEDS OF ENGINES, MACHINES OR APPARATUS, NOT SPECIFIC TO ENGINES, MACHINES OR APPARATUS PROVIDED FOR ELSEWHERE; STANDS; SUPPORTS
- F16M11/00—Stands or trestles as supports for apparatus or articles placed thereon ; Stands for scientific apparatus such as gravitational force meters
- F16M11/02—Heads
- F16M11/04—Means for attachment of apparatus; Means allowing adjustment of the apparatus relatively to the stand
- F16M11/043—Allowing translations
- F16M11/046—Allowing translations adapted to upward-downward translation movement
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B17/00—Details of cameras or camera bodies; Accessories therefor
- G03B17/56—Accessories
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Life Sciences & Earth Sciences (AREA)
- Environmental Sciences (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Image Processing (AREA)
Abstract
Description
본 명세서에서 개시되는 실시예들은 작물 모니터링 장치에 관한 것으로, 더욱 상세하게는 작물의 배드 사이를 이동하면서 작물을 촬영하여 작물의 생장상태를 모니터링할 수 있는 작물 모니터링 장치에 관한 것이다.Embodiments disclosed herein relate to a crop monitoring device, and more particularly, to a crop monitoring device capable of monitoring the growth state of a crop by photographing the crop while moving between beds of the crop.
최근 들어, 정보통신기술을 농업의 생산/가공/유통/소비 등에 접목 하여 원격에서 자동으로 작물의 생육환경을 관리하도록 하고 생산효율성을 높일 수 있도록 하고, 식물재배를 농촌 환경은 물론 도심 속에서도 구축할 수 있는 스마트팜(smart farm) 기술이 개발되고 있다.In recent years, information and communication technology has been grafted onto agricultural production/processing/distribution/consumption to remotely and automatically manage crop growth environments and increase production efficiency. Smart farm technology is being developed.
구체적으로, 스마트팜이란, 비닐하우스, 축사 등 기존의 농사 기술에 정보통신기술(Information Communication Technoloy)을 접목하여 원격 및 자동으로 작물 또는 가축의 생육환경을 적절하게 유지, 관리할 수 있는 농장에 관련된 기술을 지칭한다. 스마트팜을 이용함으로써, 작물의 생육 정보와 환경 정보에 대한 데이터를 기반으로 최적의 생육 환경을 조성하여 농산물의 생산성과 품질을 제고할 수 있다.Specifically, smart farm is related to a farm that can remotely and automatically maintain and manage the growth environment of crops or livestock appropriately by grafting information communication technology to existing farming technologies such as vinyl houses and barns. refers to technology By using smart farms, it is possible to improve the productivity and quality of agricultural products by creating an optimal growth environment based on data on crop growth and environmental information.
여기서, 작물의 생육 상태를 정확하게 진단하기 위해서는 작물의 생장점을 관찰하는 것이 중요하다.Here, it is important to observe the growth point of the crop in order to accurately diagnose the growth state of the crop.
그런데, 작물의 생장공간을 이루는 배지의 높이가 불균일하여 촬영 이미지마다 서로 차이가 있으며, 작물이 생장함에 따라 생장점의 위치가 달라지므로 작물을 촬영하기 위한 카메라도 생장점의 높이에 맞게 일일이 설치되어야 하는 번거로움이 있다.However, since the height of the medium constituting the growing space of crops is not uniform, each photographed image is different from each other, and the position of the growing point changes as the crop grows, so the camera for photographing the crops has to be installed individually according to the height of the growing point. There is a romance.
스마트팜의 구현을 위한 관련된 선행기술로서 한국공개특허공보 제10-2020-0140953호에 개시된 자율주행식 무인방제차량의 분사장치가 있으나, 차량으로부터 전송되는 카메라의 영상을 통해 차량을 이동시키면서 작물에 약액을 분사하는 구성만이 개시되어 있을 뿐이어서 작물의 생장점의 높이에 맞게 촬영할 수 없는 문제점이 있다.As a related prior art for the implementation of smart farms, there is an autonomous driving unmanned pest control vehicle spraying device disclosed in Korean Patent Laid-open Publication No. 10-2020-0140953. There is a problem in that only the configuration for spraying the chemical solution is disclosed, so that it cannot be photographed according to the height of the growing point of the crop.
따라서, 상술한 문제점을 해결하기 위한 기술이 필요하게 되었다.Therefore, a technique for solving the above problems has been required.
한편, 전술한 배경기술은 발명자가 본 발명의 도출을 위해 보유하고 있었거나, 본 발명의 도출 과정에서 습득한 기술 정보로서, 반드시 본 발명의 출원 전에 일반 공중에게 공개된 공지기술이라 할 수는 없다.On the other hand, the above-mentioned background art is technical information that the inventor possessed for derivation of the present invention or acquired in the process of derivation of the present invention, and cannot necessarily be said to be known art disclosed to the general public prior to filing the present invention. .
본 명세서에서 개시되는 실시예들은, 작물의 생장점에 대응하는 높이에서 작물을 촬영함으로써 작물의 생장상태를 정확하게 진단할 수 있는 작물 모니터링 장치를 제시하는데 목적이 있다.Embodiments disclosed herein are intended to provide a crop monitoring device capable of accurately diagnosing the growth state of crops by photographing crops at a height corresponding to the growing point of the crop.
구체적으로, 본 명세서에서 개시되는 실시예들은, 촬영유닛을 지지하는 승강유닛의 승강을 통해 촬영유닛을 작물의 생장점에 대응하는 높이로 승강시키면서 작물의 촬영을 수행할 수 있는 작물 모니터링 장치를 제시하는데 목적이 있다.Specifically, the embodiments disclosed herein present a crop monitoring device capable of photographing crops while elevating the photographing unit to a height corresponding to the growing point of the crop through the elevation of the lifting unit supporting the photographing unit. There is a purpose.
또한, 본 명세서에서 개시되는 실시예들은, 작물이 생장하는 배드 사이의 지면 또는 배드의 상부를 이동하면서 작물의 생장점을 촬영할 수 있는 작물 모니터링 장치를 제시하는데 목적이 있다.In addition, the embodiments disclosed in this specification are aimed at presenting a crop monitoring device capable of photographing the growing point of a crop while moving the ground between beds or the top of the bed in which the crop grows.
또한, 본 명세서에서 개시되는 실시예들은, 배드의 상부를 이동할 경우에는 배드의 길이방향은 물론, 배드를 가로지르는 방향으로 이동하면서 작물의 생장점을 촬영할 수 있는 작물 모니터링 장치를 제시하는데 목적이 있다.In addition, the embodiments disclosed herein are aimed at presenting a crop monitoring device capable of photographing the growing point of a crop while moving in a longitudinal direction of the bed as well as a direction transverse to the bed when moving the top of the bed.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 작물 모니터링 장치의 일 실시예에 따르면, 복수열을 이루면서 소정의 높이로 설치되어 작물의 생장공간을 제공하는 배드의 사이를 이동하면서 작물의 생장상태를 모니터링하는 작물 모니터링 장치에 있어서, 상기 배드 사이의 지면과 상기 배드의 상부 중 적어도 하나에 이동 가능하게 설치되어 상기 배드를 따라 이동하는 이동유닛; 상기 이동유닛에 설치되어 작물을 촬영하면서 제1 이미지 및 제2 이미지를 제공하는 촬영유닛; 상기 이동유닛에 설치되어 상기 촬영유닛을 승강 가능하게 지지하면서 상기 촬영유닛의 높이를 조절하는 적어도 하나의 승강유닛; 상기 촬영유닛의 촬영상태정보를 저장하는 메모리; 및 상기 제1 이미지에 기초하여 상기 촬영유닛의 촬영상태정보를 결정하고, 상기 촬영상태정보에 기초하여 작물의 일부분 중 타깃객체를 촬영하도록 상기 이동유닛, 상기 촬영유닛 및 상기 승강유닛을 제어하며, 상기 타깃객체를 촬영한 상기 제2 이미지를 기반으로 진단정보를 생성하는 제어부를 포함할 수 있다.As a technical means for achieving the above-described technical problem, according to an embodiment of the crop monitoring device, while moving between beds installed at a predetermined height while forming a plurality of rows to provide a growth space for crops, the growth state of crops is monitored. A crop monitoring device for monitoring, comprising: a moving unit movably installed on at least one of a ground between the beds and an upper portion of the beds and moving along the beds; a photographing unit installed in the moving unit to provide a first image and a second image while photographing crops; At least one elevating unit installed in the moving unit to adjust the height of the recording unit while supporting the recording unit so as to be able to move up and down; a memory for storing photographing state information of the photographing unit; and determining photographing state information of the photographing unit based on the first image, and controlling the moving unit, the photographing unit, and the elevating unit to photograph a target object among parts of a crop based on the photographing state information; A control unit generating diagnostic information based on the second image of the target object may be included.
전술한 과제 해결 수단 중 어느 하나에 의하면, 작물의 생장점에 대응하는 높이에서 작물을 촬영함으로써 작물의 생장상태를 정확하게 진단할 수 있는 작물 모니터링 장치를 제시할 수 있다.According to any one of the above-mentioned problem solving means, it is possible to present a crop monitoring device capable of accurately diagnosing the growth state of a crop by photographing the crop at a height corresponding to the growth point of the crop.
전술한 과제 해결 수단 중 어느 하나에 의하면, 촬영유닛을 지지하는 승강유닛의 승강을 통해 촬영유닛을 작물의 생장점에 대응하는 높이로 승강시키면서 작물의 촬영을 수행할 수 있는 작물 모니터링 장치를 제시할 수 있다.According to any one of the above-described problem solving means, it is possible to present a crop monitoring device capable of photographing crops while elevating the photographing unit to a height corresponding to the growing point of the crop through the elevation of the lifting unit supporting the photographing unit. there is.
전술한 과제 해결 수단 중 어느 하나에 의하면, 작물이 생장하는 배드 사이의 지면 또는 배드의 상부를 이동하면서 작물의 생장점을 촬영할 수 있는 작물 모니터링 장치를 제시할 수 있다.According to any one of the above-described problem solving means, it is possible to present a crop monitoring device capable of photographing the growing point of a crop while moving the upper part of the bed or the ground between the beds in which the crop grows.
전술한 과제 해결 수단 중 어느 하나에 의하면, 배드의 상부를 이동할 경우에는 배드의 길이방향은 물론, 배드를 가로지르는 방향으로 이동하면서 작물의 생장점을 촬영할 수 있는 작물 모니터링 장치를 제시할 수 있다.According to any one of the above-described problem solving means, when moving the top of the bed, it is possible to present a crop monitoring device capable of photographing the growing point of the crop while moving in the longitudinal direction of the bed as well as in the direction crossing the bed.
개시되는 실시예들에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 개시되는 실시예들이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.Effects obtainable from the disclosed embodiments are not limited to those mentioned above, and other effects not mentioned are clear to those skilled in the art from the description below to which the disclosed embodiments belong. will be understandable.
도 1은 일 실시예에 따른 작물 모니터링 장치가 지상에 설치된 상태를 나타내는 구성도이다.
도 2는 일 실시예에 따른 작물 모니터링 장치가 배드의 상부에 설치된 상태를 나타내는 구성도이다.
도 3은 일 실시예에 따른 작물 모니터링 장치의 구성을 나타내는 블록도이다.
도 4는 일 실시예에 따른 작물 모니터링 장치의 이동레일이 배드의 상부에 설치된 상태를 나타내는 구성도이다.
도 5는 일 실시예에 따른 작물 모니터링 장치에 의한 작물 모니터링 방법을 나타내는 순서도이다.1 is a configuration diagram showing a state in which a crop monitoring device according to an embodiment is installed on the ground.
Figure 2 is a configuration diagram showing a state in which the crop monitoring device according to an embodiment is installed on top of the bed.
Figure 3 is a block diagram showing the configuration of a crop monitoring device according to an embodiment.
Figure 4 is a configuration diagram showing a state in which the movable rail of the crop monitoring device according to an embodiment is installed on top of the bed.
5 is a flowchart illustrating a crop monitoring method by a crop monitoring device according to an embodiment.
아래에서는 첨부한 도면을 참조하여 다양한 실시예들을 상세히 설명한다. 아래에서 설명되는 실시예들은 여러 가지 상이한 형태로 변형되어 실시될 수도 있다. 실시예들의 특징을 보다 명확히 설명하기 위하여, 이하의 실시예들이 속하는 기술분야에서 통상의 지식을 가진 자에게 널리 알려져 있는 사항들에 관해서 자세한 설명은 생략하였다. 그리고, 도면에서 실시예들의 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, various embodiments will be described in detail with reference to the accompanying drawings. Embodiments described below may be modified and implemented in various different forms. In order to more clearly describe the characteristics of the embodiments, detailed descriptions of matters widely known to those skilled in the art to which the following embodiments belong are omitted. And, in the drawings, parts irrelevant to the description of the embodiments are omitted, and similar reference numerals are attached to similar parts throughout the specification.
명세서 전체에서, 어떤 구성이 다른 구성과 "연결"되어 있다고 할 때, 이는 '직접적으로 연결'되어 있는 경우뿐 아니라, '그 중간에 다른 구성을 사이에 두고 연결'되어 있는 경우도 포함한다. 또한, 어떤 구성이 어떤 구성을 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한, 그 외 다른 구성을 제외하는 것이 아니라 다른 구성들을 더 포함할 수도 있음을 의미한다.Throughout the specification, when a component is said to be “connected” to another component, this includes not only the case of being “directly connected” but also the case of being “connected with another component intervening therebetween”. In addition, when a certain component "includes" a certain component, this means that other components may be further included without excluding other components unless otherwise specified.
이하 첨부된 도면을 참고하여 실시예들을 상세히 설명하기로 한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings.
다만, 이를 설명하기에 앞서 아래에서 사용되는 용어들의 의미를 먼저 정의한다.However, prior to explaining this, the meanings of the terms used below are first defined.
'작물'이란 농장에서 재배되는 식물뿐만 아니라 산림식물이나 온실의 식물을 지칭하며, 예를 들어 식용작물, 공예작물, 사료작물, 비료작물, 원예작물 등이 될 수 있다.'Crops' refers not only to plants grown on farms, but also to forest plants and greenhouse plants, and may be, for example, food crops, craft crops, fodder crops, fertilizer crops, and horticultural crops.
'타깃객체'는 생육 진단 또는 병해충 검출의 대상을 의미하는 것으로서, 농장에서 작물의 과실, 열매, 꽃, 잎 등일 수 있다.The 'target object' refers to an object for growth diagnosis or pest detection, and may be fruits, fruits, flowers, leaves, etc. of crops on a farm.
도 1은 일 실시예에 따른 작물 모니터링 장치가 지상에 설치된 상태를 나타내는 구성도이고, 도 2는 일 실시예에 따른 작물 모니터링 장치가 배드의 상부에 설치된 상태를 나타내는 구성도이며, 도 3은 일 실시예에 따른 작물 모니터링 장치의 구성을 나타내는 블록도이다. 또한, 도 4는 일 실시예에 따른 작물 모니터링 장치의 이동레일이 배드의 상부에 설치된 상태를 나타내는 구성도이고, 도 5는 일 실시예에 따른 작물 모니터링 장치에 의한 작물 모니터링 방법을 나타내는 순서도이다.1 is a configuration diagram showing a state in which a crop monitoring device according to an embodiment is installed on the ground, Figure 2 is a configuration diagram showing a state in which the crop monitoring device according to an embodiment is installed on an upper portion of a bed, and FIG. It is a block diagram showing the configuration of the crop monitoring device according to the embodiment. In addition, Figure 4 is a configuration diagram showing a state in which the moving rail of the crop monitoring device according to an embodiment is installed on top of the bed, Figure 5 is a flow chart showing a crop monitoring method by the crop monitoring device according to an embodiment.
일 실시예에 따른 작물 모니터링 장치(10)는 도 1에 도시된 바와 같이 작물의 생장공간을 제공하는 배드(1)의 사이를 이동하면서 작물의 촬영을 통해 작물의 생장상태를 관찰하기 위한 장치이다.As shown in FIG. 1, the
여기서, 배드(1)는 작물의 생장을 위한 영양분이 마련되어 미도시된 작물이 식재되면서 생장하는 구성으로 소정의 높이로 설치될 수 있으며, 복수열을 이루면서 길이방향으로 연속될 수 있다.Here, the
구체적으로, 일 실시예에 따른 작물 모니터링 장치(10)는 도 1 내지 도 3에 도시된 바와 같이 이동유닛(100), 촬영유닛(200), 승강유닛(300), 메모리(400) 및 제어부(500)를 포함하여 구성될 수 있다.Specifically, the
상기 이동유닛(100)은 후술되는 구성요소들의 설치공간을 제공하는 구성요소이며, 도 1에 도시된 바와 같이 배드(1) 사이의 지면을 이동하거나 도 2에 도시된 바와 같이 배드(1)의 상부를 이동하면서 배드(1)의 길이 방향을 따라 이동하는 구성요소이다.The moving
이러한 이동유닛(100)은 도 1 및 도 2에 도시된 바와 같이 로봇(110) 및 이동레일(120)을 포함하여 구성될 수 있다.As shown in FIGS. 1 and 2 , the moving
상기 로봇(110)은 자율주행이나 원격제어에 의한 주행을 통해 배드(1) 사이의 지면이나 배드(1)의 상부를 주행하면서 후술되는 촬영유닛(200) 및 승강유닛(300)을 배드(1)의 길이 방향을 따라 이동시킬 수 있다.The
이러한 로봇(110)은 후술되는 제어부(400)의 제어에 의해 작동하면서 주행할 수 있다.The
여기서, 로봇(110)은 제어부(500)에 의해 작동하는 복수의 바퀴의 회전을 통해 이동하거나 무한궤도의 회전을 통해 주행할 수 있으나 이에 한정하지 않으며, 원격제어에 의해 주행할 수 있는 모든 구성이 적용될 수 있다.Here, the
상기 이동레일(120)은 전술한 로봇(110)의 이동경로를 제공하기 위한 구성요소이다.The
이러한 이동레일(120)은 배드(1)의 사이 지면의 길이방향을 따라 설치되거나 배드(1)의 상부에 설치될 수 있다.These
여기서, 이동레일(120)은 로봇(110)이 배드(1) 사이의 지면을 따라 이동하는 구성을 가질 경우에는 생략될 수도 있다.Here, the moving
한편, 이동레일(120)은 로봇(110)이 배드(1)의 상부를 이동하도록 구성될 경우에는, 도 2에 도시된 바와 같이 배드(1)의 사이에 길이 방향을 따라 설치될 수 있다.Meanwhile, when the
이에 따라, 로봇(110)은 배드(1) 상부에 설치된 이동레일(120)에 매달린 상태로 설치되어 이동레일(120)의 길이방향을 따라 이동할 수 있다.Accordingly, the
상기 촬영유닛(200)은 로봇(110)에 설치된 상태로 로봇(110)과 함께 이동하면서 배드(1)의 작물을 촬영하는 구성요소이다.The photographing
이러한 촬영유닛(200)은 후술되는 승강유닛(300)을 매개로 로봇(110)에 설치되어 소정의 높이로 조절되면서 촬영을 수행할 수 있다.The photographing
구체적으로, 촬영유닛(200)은 실시예에 따르면, PTZ(Pan Tilt Zoom) 카메라로 구성되어 렌즈의 회전, 각도 및 확대가 제어부(500)에 의해 원격으로 제어될 수 있으며, 피사체의 상을 받아들여, 광 신호를 수신하여 이를 전기적 신호로 변환한 후, 변환된 신호를 영상 신호로 생성하여 이미지를 생성할 수 있다.Specifically, according to the embodiment, the photographing
이에 따라, 촬영유닛(200)은 회전을 통해 2열의 배드(1)의 사이에서 회전하면서 촬영을 수행함으로써 로봇(110)의 양쪽에 각각 배치된 배드(1)의 작물을 제각기 촬영하여 이미지를 생성할 수 있다.Accordingly, the photographing
또한, 촬영유닛(200)은 오토포커싱 기능을 탑재하고 있어 피사체에 대한 초점을 자동으로 맞출 수 있다. 이러한 촬영유닛(200)은 실시예에 따르면, EO(Electro-Optical) 센서(전자광학센서) 또는 IR(infrared) 센서(적외선 센서)로 구현될 수 있으며 그에 따라 화각(FOV; field of view) 내의 대상을 촬영할 수 있고 분석의 대상이 되는 촬영이미지를 생성할 수 있다. 또한 화각 내에서 촬영될 장면에 관한 이미지로서 화각 내의 대상을 표현하는 임시이미지도 촬영유닛(200)은 제어부(500)로 전달할 수 있다.In addition, the
상기 승강유닛(300)은 이동유닛(100)을 구성하는 로봇(110)에 설치되어 촬영유닛(200)을 승강 가능하게 지지하는 구성요소이며, 제어부(500)의 제어에 의해 작동하면서 촬영유닛(200)의 높이를 조절하기 위한 구성요소이다.The
즉, 승강유닛(300)은 배드(1)에 식재된 작물의 생장점과 같은 타깃객체에 대응하는 높이로 촬영유닛(200)을 승강시키는 구성요소이다.That is, the elevating
이러한 승강유닛(300)은 도 1에 발췌 도시된 바와 같이 텔레스코픽봉(310) 및 길이조절부재(320)를 포함하여 구성될 수 있다.As shown in FIG. 1, the
상기 텔레스코픽봉(310)은 이동유닛(100)을 구성하는 로봇(110)과 촬영유닛(200)을 연결하면서 길이가 신축하는 구성요소이다.The
구체적으로, 텔레스코픽봉(310)은 복수로 분할된 텔레스코픽 구조의 봉으로 구성되어 하단부가 로봇(110)에 고정되면서 상단부에 촬영유닛(200)이 설치될 수 있으며, 단위봉들의 인출을 통해 길이가 늘어나거나 단위봉들의 인입을 통해 길이가 줄어들면서 촬영유닛(200)을 승강시킬 수 있다.Specifically, the
상기 길이조절부재(320)는 텔레스코픽봉(310)의 길이를 조절함으로써 촬영유닛(200)을 소정의 높이로 조절하기 위한 구성요소이다.The length adjusting member 320 is a component for adjusting the
이러한 길이조절부재(320)는 후술되는 제어부(500)에서 결정되는 촬영유닛(200)의 촬영상태정보를 기반으로 작동하면서 텔레스코픽봉(310)의 길이를 소정의 길이로 조절할 수 있다.The length adjusting member 320 may adjust the length of the
구체적으로, 길이조절부재(320)는 도 1에 발췌 도시된 바와 같이 랙기어(321) 및 피니언기어(322)를 포함하여 구성될 수 있다.Specifically, the length adjusting member 320 may include a
랙기어(321)는 텔레스코픽봉(310)의 일부분에 길이방향을 따라 톱니형태를 이루면서 형성될 수 있다.The
피니언기어(322)는 랙기어(321)를 직선운동시키기 위한 구성요소로, 랙기어(321)와 맞물린 상태로 정회전 또는 역회전하면서 랙기어(321)를 전전후진시키는 구성요소이다.The
이러한 피니언기어(322)는 제어부(500)의 제어에 의해 회전하는 미도시된 구동모터에 연결될 수 있으며, 제어부(500)에 의한 정회전을 통해 랙기어(321)를 전진시키면서 텔레스코픽봉(310)의 길이를 확장시키거나, 역회전을 통해 랙기어(321)를 로봇(110) 방향으로 후진시키면서 텔레스코픽봉(310)의 길이를 축소시킬 수 있다.The
한편, 길이조절부재(320)는 유압펌프 또는 공압펌프로 구성되어 제어부(500)의 제어에 의해 작동하면서 유압이나 공압을 공급함으로써 텔레스코픽봉(310)의 길이를 신축시킬 수 있다.On the other hand, the length adjusting member 320 is composed of a hydraulic pump or a pneumatic pump and operates under the control of the
상기 메모리(400)는 후술하는 제어부(500)에서 결정되는 촬영유닛(200)의 촬영상태정보를 저장하는 구성요소이다.The
또한, 메모리(400)에는 파일, 어플리케이션 및 프로그램 등과 같은 다양한 종류의 데이터가 설치 및 저장될 수 있다.In addition, various types of data such as files, applications, and programs may be installed and stored in the
한편, 전술한 촬영유닛(200)은 제어부(500)의 제어를 통해 작물을 촬영하면서 제1 이미지 및 제2 이미지를 제어부(500)로 제공할 수 있다.Meanwhile, the aforementioned photographing
관련하여 이하에서는 설명의 편의상, 전체 영역 내에서 타깃객체에 대응되는 이미지가 소정의 크기 이상의 면적을 차지하는 이미지를 '제2이미지'라 칭하며, 그 이외의 이미지는 '제1이미지'라 칭한다.Hereinafter, for convenience of description, an image corresponding to a target object occupying an area of a predetermined size or more within the entire area is referred to as a 'second image', and other images are referred to as a 'first image'.
상기 제어부(500)는 제1 이미지에 기초하여 촬영유닛(200)의 촬영상태정보를 결정하고, 이를 기초로 작물의 일부분 중 생장점과 같은 타깃객체를 촬영하도록 이동유닛(100)과 촬영유닛(200) 및 승강유닛(300)을 제어하는 구성요소이며, 또한, 타깃객체를 촬영한 제2 이미지를 기반으로 작물에 대한 진단 정보를 생성하여 제공하는 구성요소이다.The
이러한 제어부(500)는 작물 모니터링 장치(10)의 전체적인 동작을 제어하며, CPU 또는 GPU 등과 같은 프로세서를 포함할 수 있다. 또한, 메모리(400)에 저장된 프로그램을 실행시키거나, 메모리(400)에 저장된 파일을 읽어오거나, 새로운 파일을 메모리(400)에 저장할 수도 있다.The
구체적으로, 제어부(500)는 제1 이미지에서 타깃후보객체를 하나 이상 식별해낼 수 있다.Specifically, the
예를 들어, 제어부(500)는 촬영유닛(200)이 생성한 이미지가 작물 전체를 촬영한 것이라면, 해당 촬영이미지 내에서는 타깃객체인 작물의 생장점이 복수 개 존재할 수 있다. 따라서 제어부(500)는 획득한 이미지 내에서, 타깃객체로 추정되는 타깃후보객체를 하나 이상 식별해낼 수 있다.For example, if the image generated by the photographing
이를 위해 제어부(500)는 YOLO(YOU ONLY LOOK ONCE) 모델 또는 R-CNN(REGION BASED CONVOLUTIONAL NEURAL NETWORK) 모델, SSD(SINGLE SHOT MULTIBOX DETECTOR) 모델 등의 타깃객체 검출에 유리한 객체 식별 모델로 구현된 인공신경망을 학습시키고, 학습된 인공신경망에 기반하여 제1이미지 내에서의 타깃후보객체를 식별해낼 수 있다.To this end, the
예를 들어, 제어부(500)는 작물의 생장점이 타깃객체일 경우, 작물을 촬영한 제1이미지를 학습된 인공신경망에 입력하여 제1이미지 내에서의 생장점을 식별해내고 식별된 위치를 바운딩박스로 처리함으로써 타깃후보객체를 추출해낼 수 있다.For example, when the growing point of a crop is a target object, the
그에 따라 제어부(500)는 제1이미지 내에서 타깃후보객체의 위치좌표 및 타깃후보객체의 개수를 결정할 수 있다.Accordingly, the
예를 들어 제어부(500)는 제1이미지 내에서 타깃객체후보 영역이 바운딩박스로 구분된다면, 바운딩박스의 중심점 또는 바운딩박스의 일 꼭지점을 위치좌표로 추출할 수 있고, 또한 바운딩박스의 개수를 카운팅하여 타깃후보객체의 개수를 결정할 수 있다.For example, if the target object candidate area in the first image is divided into bounding boxes, the
그리고 일 실시예에 따르면, 제어부(500)는 타깃후보객체가 복수개라면, 제2이미지의 획득을 위해 복수 개의 타깃후보객체 중 하나를 선택하고 선택된 타깃후보객체를 타깃객체로 결정할 수 있다.According to an embodiment, if there are a plurality of target candidate objects, the
그리고, 선택된 타깃후보객체에 관한 진단정보가 생성된다면, 제어부(500)는 제1이미지 내에서 식별된 다른 타깃후보객체를 타깃객체로 선정할 수 있으며, 제1이미지 내에서 모든 타깃후보객체에 관한 진단정보가 생성될 때까지 위 과정을 반복할 수 있다.And, if diagnostic information about the selected target candidate object is generated, the
또 다른 실시예에 따르면, 제어부(500)는 타깃후보객체가 한 개라면 상기 한 개의 타깃후보객체를 타깃객체로 결정할 수 있다.According to another embodiment, if there is one target candidate object, the
제어부(500)는 현재의 촬영상태정보, 현재의 거리정보 및 제1이미지 내에서의 타깃객체의 위치좌표에 기초하여 촬영상태정보를 결정할 수 있다.The
이를 위해 제어부(500)는 타깃객체의 위치좌표를 결정할 수 있다.To this end, the
실시예에 따르면 제어부(500)는 제1이미지 내에서 타깃객체의 식별을 위해 타깃후보객체를 에워싸는 바운딩박스의 중심점의 좌표를 연산하고 중심점의 좌표를 타깃객체의 위치좌표로 결정하거나, 또는 바운딩박스의 일 꼭지점의 좌표를 타깃객체의 위치좌표로 결정할 수 있다.According to the embodiment, the
또 다른 실시예에 따르면 제어부(500)는 타깃객체 중에서 소정의 화소값을 갖는 위치의 좌표를 타깃객체의 위치좌표로 결정할 수 있는데 예를 들어, 타깃객체로 판단되는 영역 내에서 가장 밝은 화소값을 갖는 위치를 타깃객체의 위치좌표로 결정할 수 있다.According to another embodiment, the
또한 제어부(500)는 현재의 촬영상태정보를 획득할 수 있다. 이때 현재의 촬영상태정보는 가장 최신의 촬영상태정보를 업데이트하고 있는 메모리(400)로부터 획득할 수 있다.In addition, the
여기서, '촬영상태정보'는 팬(PAN) 각도, 틸트(TILT) 각도 및 줌 배율 중 적어도 하나를 포함할 수 있다. 또한 촬영상태정보는 추가로 포커싱값을 더 포함할 수 있다. 예를 들어 촬영상태정보에 따라 제어부(500)는 촬영유닛(200)을 상하좌우로 이동시키거나, 렌즈의 줌 배율을 조정하거나 포커싱을 조절하여 원거리/근거리의 피사체를 적절하게 촬영할 수 있도록 할 수 있다.Here, 'capturing state information' may include at least one of a pan angle, a tilt angle, and a zoom magnification. Also, the photographing state information may further include a focusing value. For example, the
또한 촬영상태정보는 추가로, 촬영시의 환경에 관한 정보를 포함할 수 있으며, 예를 들어, 조도, 온도, 습도 및 풍속 등의 정보를 포함할 수 있다.Also, the photographing state information may additionally include information about the environment at the time of photographing, and may include, for example, information such as illuminance, temperature, humidity, and wind speed.
제어부(500)는 제1 이미지의 중심좌표가 피사체를 바라보는 촬영장치의 팬 각도 및 틸트 각도이므로 해당 팬 각도 및 틸트 각도를 현재의 촬영상태정보로 획득할 수 있다.Since the center coordinates of the first image are the pan and tilt angles of the photographing device looking at the subject, the
또한 제어부(500)는 현재의 거리정보를 획득할 수 있는데, 실시예에 따르면 거리측정부(130)로부터 획득할 수 있다. 따라서 예를 들어 제1이미지의 중심좌표에 대응되는 피사체까지의 거리를, 거리측정부(130)가 측정하여 획득할 수 있다.In addition, the
이러한 거리측정부(130)는 하나의 실시예로서, TOF(TIME OF FLIGHT) 원리를 기반으로 촬영유닛(200)에서부터 타깃객체까지의 거리를 측정할 수 있다. 예를 들어, 거리측정부(130)는 지향성이 우수한 레이저를, 거리 측정하고자 하는 타깃객체에 대해 발사한 뒤, 레이저가 타깃객체로부터 반사되어 돌아온 시간을 측정하여 거리를 계산할 수 있다.As one embodiment, the
이러한 거리측정부(130)는 예를 들어, 레이저 거리측정기로 구현되거나, 뎁스 카메라로 구현될 수 있다. 다만 거리측정부(130)가 타깃객체까지 거리를 측정하는 방식은 상술된 예에 제한되는 것은 아니다.This
따라서 실시예에 따르면, 제어부(500)는 제1이미지의 중심좌표에서부터 타깃객체의 위치좌표 간의 좌표차이를 연산하고, 현재의 거리정보에 기초하여 위치좌표를 촬영하기 위한 팬 각도 및 틸트 각도를 연산할 수 있다. 그리고 연산된 팬 각도 및 틸트 각도를 현재의 촬영상태정보에 반영함으로써 촬영상태정보를 생성할 수 있다.Therefore, according to the embodiment, the
그에 따라 제어부(500)는 이동유닛(100) 및 승강유닛(300)이 작동하도록 제어할 수 있으며 그에 따라 타깃객체가 촬영유닛(200)의 화각 내에 위치할 수 있다.Accordingly, the
또한, 제어부(500)는 승강유닛(300)을 제어할 경우, 제1 이미지 내에서 배드(1)를 타깃객체로 식별하면서 배드(1)를 기반으로 승강유닛(300)을 제어할 수 있다.In addition, when controlling the
예를 들어, 제어부(500)는 타깃객체로 식별된 배드(1)의 경계선을 기반으로 승강유닛(300)을 제어할 수 있으며, 촬영유닛(200)의 높이를 배드(1)의 경계선 중앙에 위치하도록 승강유닛(300)을 제어할 수 있다.For example, the
추가로 제어부(500)는, 촬영상태정보에 기초하여 이동유닛(100)이 이동한 이후, 촬영유닛(200)이 타깃객체를 보다 정밀하게 촬영하도록 촬영상태정보를 갱신할 수 있다.In addition, the
실시예에 따라 제어부(500)는 타깃객체에 대해 촬영유닛(200)이 촬영할 수 있도록 포커싱값을 결정할 수 있다.Depending on the embodiment, the
예를 들어, 제어부(500)는 타깃객체까지의 거리에 기초하여 초점을 맞추기 위한 포커싱값을 연산할 수 있으며, 이를 위해 거리측정부(130)로 하여금 촬영유닛(200)에서부터 타깃객체까지의 거리를 측정하도록 할 수 있다.For example, the
또한 예를 들어, 제어부(500)는 촬영유닛(200)에 구비된 오토포커싱 기능을 동작시키고 그에 따라 결정된 포커싱값을 메모리(400)에 저장할 수 있다.Also, for example, the
또 다른 실시예에 따라 제어부(500)는 촬영유닛(200)을 통해 보이는 화각 내 이미지에서, 타깃객체에 관한 이미지 영역이 전체 이미지 영역 내에서 소정의 비율 이상을 차지하도록 줌 배율을 정할 수 있다.According to another embodiment, the
이를 위해 예를 들어 제어부(500)는 픽셀 비율을 분석함으로써 타깃객체에 관한 이미지 영역이 전체 이미지 영역 내에서 소정의 비율 이상을 차지하도록 줌 배율을 정할 수 있다. 즉 제어부(500)는 타깃객체에 대응되는 픽셀의 개수가, 이미지의 전체 픽셀 개수 중 소정의 개수 이상 차지하도록 줌 배율을 조정할 수 있다.To this end, for example, the
이를 위해 제어부(500)는 화각 내 피사체 이미지 내에서 타깃객체로 추청되는 영역의 픽셀을 카운팅할 수 있다. 예를 들어, 타깃객체에 대응되는 색상의 픽셀을, 타깃객체로 추정되는 영역의 픽셀로 판단하고 제어부(500)는 타깃객체로 추정되는 영역의 픽셀을 카운팅할 수 있다.To this end, the
또한 예를 들어, 제어부(500)는 타깃객체가 차지하는 면적을 연산하고, 타깃객체의 면적이 이미지의 면적에서 소정의 비율 이상 차지하도록 줌 배율을 조정할 수 있다. 따라서, 타깃객체가 귤일 때 원형의 과실인 귤의 가로 비율을 측정하여, 이미지 내에서 귤이 차지하는 면적을 원의 넓이를 계산하는 방식으로 연산함으로써 귤에 관한 이미지가 전체 이미지에서 차지하는 비율을 계산할 수 있다.Also, for example, the
또는 예를 들어, 제어부(500)는 타깃객체의 경계를 식별하여 타깃객체의 크기를 연산함으로써 타깃객체에 관한 이미지 영역이 전체 이미지 영역 내에서 소정의 비율 이상을 차지하도록 줌 배율을 조정할 수 있다.Alternatively, for example, the
또는 예를 들어, 제어부(500)는 타깃객체의 경계를 식별하여 타깃객체의 경계와 이미지의 경계 간의 거리가 소정의 거리 이내가 되도록 줌 배율을 조정할 수 있다.Alternatively, for example, the
상술된 바에 따라 포커싱값 및 줌 배율이 연산되면 제어부(500)는 촬영상태정보를 갱신할 수 있다. 즉, 제어부(500)는 촬영유닛(200)으로 하여금 연산된 포커싱값 및 줌 배율에 따라 피사체를 촬영하도록 제어할 수 있다.When the focusing value and the zoom magnification are calculated as described above, the
그에 따라 제어부(500)는 타깃객체가 포함된 제2이미지를 획득할 수 있다.Accordingly, the
그리고 제어부(500)는 제2이미지를 분석함으로써 타깃객체의 생육정보 및 병해충정보 중 적어도 하나를 진단정보로서 생성할 수 있다.Further, the
관련하여 진단정보는, 이동유닛(100) 또는 촬영유닛(200)이 위치한 공간에서의 타깃객체의 위치좌표에 관한 정보도 포함할 수 있으며, 예를 들어 진단정보를 생성할 때의 이동유닛(100) 또는 촬영유닛(200)의 gps 정보 또는 이동유닛(100) 또는 촬영유닛(200)가 위치한 구획에 관한 정보 등을 포함할 수 있다. 관련하여 구획정보는, 예를 들어, 작물의 생육시설이나 구체적인 배드(1) 위치 등을 식별하기 위한 정보일 수 있으며, 구체적으로, 하나 이상의 과실(또는 꽃, 또는 잎 또는 줄기)이 존재하는 작물 식별정보 또는 작물이 위치하는 배드(1)의 식별정보일 수 있다.In relation to this, the diagnostic information may also include information about the positional coordinates of the target object in the space where the moving
제어부(500)는 진단정보의 생성을 위해 타깃객체와 배경을 분리하여, 제2이미지 내에서 타깃객체를 식별할 수 있다.The
예를 들어, 제어부(500)는, 타깃객체의 엣지(edge)를 딥러닝 모델을 기반으로 식별함으로써, 엣지 내에 위치한 타깃객체와, 엣지 외부에 위치한 배경을 분리해낼 수 있다.For example, the
제어부(500)는 제2이미지를 분석하여 생육정보를 생성할 수 있다.The
이때 생육정보는 타깃객체가 예를 들어 과실일 때, 수확 가능 시기를 판단하기 위해 어느정도 성장하였는지에 관한 정보로서, 예를 들어, 품종, 크기, 착색도 등의 정보를 포함할 수 있으며, 또한 크기와 착색도에 기반하여 생장시기 중 어느 시기인지에 관한 정보도 포함할 수 있다.At this time, the growth information is information about how much the target object has grown to determine the harvestable time when the target object is, for example, a fruit, and may include, for example, information such as variety, size, and coloration, and also size and coloration. Based on , information on which period of the growth period is also included.
실시예에 따르면 제어부(500)는 타깃객체의 크기를 측정할 수 있다.According to the embodiment, the
제어부(500)는 제2이미지 내에서의 엣지 내의 타깃객체의 가로 및 세로의 길이와, 타깃객체까지의 거리에 기초하여 실제 타깃객체의 가로 및 세로의 길이를 연산할 수 있다. 연산된 가로 및 세로의 길이를 기반으로 타깃객체의 크기를 결정할 수 있다.The
실시예에 따르면, 제어부(500)는 타깃객체의 품종 및 타깃객체의 색상에 따라 착색도를 측정할 수 있다.According to the embodiment, the
예를 들어 제어부(500)는 타깃객체의 품종이 딸기일 때 빨간색 정도를 측정하여 착색도를 측정할 수 있다.For example, the
상술된 바에 따라 측정된 크기 및 착색도를 제어부(500)는 생육정보로서 생성할 수 있다.The
또한, 제어부(500)는, 타깃객체의 품종, 크기 및 착색도에 기초하여 타깃객체의 생장단계를 결정할 수 있다. 따라서 예를 들어, 타깃객체가 충분히 성장하여 수확해야 할 시기라면, 수확시기임을 생육정보에 추가할 수 있다.Also, the
반면 제어부(500)는 제2이미지를 분석하여 타깃객체의 병해충정보를 생성할 수 있다.On the other hand, the
이를 위해 제어부(500)는 품종 별, 해충 피해 별, 병균(또는 바이러스) 별로 타깃객체가 가질 수 있는 모습이 포함된 이미지를 입력하여 병해충 영역을 출력하도록 딥러닝 모델을 학습시킬 수 있다. 이 때의 딥러닝 모델은 CNN(CONVOLUTIONAL NEURAL NETWORK), RNN(RECURRENT NEURAL NETWORK) 등이 될 수 있다. 그리고 학습된 딥러닝 모델에 제2이미지를 입력할 수 있으며, 이때 엣지가 식별된 제2이미지를 입력하여 타깃객체에 대응되는 영역에서 병해충 영역을 검출하여 표시하도록 할 수 있다.To this end, the
또한 제어부(500)는 품종 별, 해충 별 타깃객체가 가질 수 있는 모습이 포함된 이미지를 입력하여 해충을 식별해낼 수 있도록 딥러닝 모델을 학습시킬 수 있다. 이 때의 딥러닝 모델은 CNN(CONVOLUTIONAL NEURAL NETWORK), RNN(RECURRENT NEURAL NETWORK) 등이 될 수 있다. 그리고 학습된 딥러닝 모델에 제2이미지를 입력할 수 있으며, 이때 해충의 위치를 검출하여 표시하도록 하거나, 해충의 개수 또는 해충의 종류를 검출하여 표시하도록 할 수 있다.In addition, the
아울러 제어부(500)는 진단정보를 검증할 수 있다.In addition, the
작물의 경우 해충이 존재하거나 질병이 있는 경우 통상 하나의 개체에서만 발견되지 않고 군집으로 발견되는 경우가 많으므로, 일 타깃객체에 대해 진단정보로서 병해충이 검출되었을 때, 제어부(500)는 다른 타깃객체에 관한 진단정보를 비교함으로써 진단정보를 검증할 수 있다.In the case of crops, when pests exist or have diseases, they are often found in a group rather than a single individual, so when a pest is detected as diagnostic information for one target object, the
예를 들어, 일 타깃객체에 대해 해충이 발견되었음을 나타내는 진단정보가 생성되었다면, 제어부(500)는 다른 타깃객체에 관한 진단정보에서 해충에 관한 정보가 포함되지 않았다면, 생성된 진단정보가 잘못 생성되었다고 판단하고 제2이미지의 분석을 다시 진행할 수 있다.For example, if diagnostic information indicating that a pest has been found for one target object is generated, the
이때 다른 타깃객체는 검증의 대상이 되는 타깃객체와 소정의 범위 내에 위치한 것일 수 있다. 예를 들어 다른 타깃객체는 검증 대상 타깃객체와 같은 이미지 내에서 촬영되었던 타깃객체일 수 있다. 또는 예를 들어 다른 타깃객체는, 진단정보에 포함된 위치정보를 기준으로 소정의 범위 내에 위치한 타깃객체일 수 있다.At this time, another target object may be located within a predetermined range of the target object to be verified. For example, another target object may be a target object captured in the same image as the target object to be verified. Alternatively, for example, another target object may be a target object located within a predetermined range based on location information included in the diagnosis information.
한편, 한편 메모리(400)에는 파일, 어플리케이션 및 프로그램 등과 같은 다양한 종류의 데이터가 설치 및 저장될 수 있다.Meanwhile, various types of data such as files, applications, and programs may be installed and stored in the
이때, 제어부(500)는 메모리(400)에 저장된 데이터에 접근하여 이를 이용하거나, 또는 새로운 데이터를 메모리(400)에 저장할 수도 있다. 또한, 제어부(500)는 메모리(400)에 설치된 프로그램을 실행할 수도 있다. 예를 들어, 메모리(400)는 이동유닛(100), 촬영유닛(200) 및 승강유닛(300)을 제어하여 촬영방법을 수행하기 위한 프로그램이 설치될 수 있으며, 또는 촬영상태정보를 저장할 수도 있다. 메모리(400)는 또한 촬영장치의 팬 각도 또는 틸트 각도를 원점으로 되돌리기 위해 최초 촬영상태정보도 저장할 수 있고, 촬영상태정보가 갱신되면 갱신된 촬영상태정보도 저장할 수 있다.At this time, the
한편, 제어부(500)는 통신부(550)를 통해 다른 장치 또는 네트워크와 유무선 통신을 수행할 수 있다.Meanwhile, the
가령 통신부(550)는 입출력장치(미도시) 또는 전자단말(미도시)과 통신하여 작물의 촬영을 수행하기 위한 각종 정보를 송수신할 수 있다. 이를 위해, 통신부(550)는 다양한 유무선 통신 방법 중 적어도 하나를 지원하는 통신 모듈을 포함할 수 있다. 예를 들어, 통신 모듈은 칩셋(chipset)의 형태로 구현될 수 있다.For example, the
예를 들어, 통신부(550)가 지원하는 무선 통신은, 예를 들어 Wi-Fi(Wireless Fidelity), Wi-Fi Direct, 블루투스(Bluetooth), UWB(Ultra Wide Band) 또는 NFC(Near Field Communication), 2G 내지 5G 통신 기술 또는 그 이상의 통신 기술 등일 수 있다. 또한, 통신부(550)가 지원하는 유선 통신은, 예를 들어 USB, Ethernet 또는 HDMI(High Definition Multimedia Interface) 등일 수 있다.For example, wireless communication supported by the
실시예에 따르면, 통신부(550)는 제어부(500) 에 의해 생성된 진단정보를, 외부의 장치로 송신할 수 있다. 이때 외부의 장치는 예를 들어 입출력장치(미도시)이거나 또는 예를 들어, 과실을 채집하는 채집기, 비닐하우스 내의 스프링쿨러, 에어컨, 난방기, 조명기기, 도어개폐기, 비료투입기, 농약분무기 등이거나 또는 예를 들어, 병해충이 존재하는 과실 을 표시하기 위한 마킹장치 등이 될 수 있다.According to the embodiment, the
또 다른 실시예에 따르면 통신부(550)는 제어부(500)에 의해 생성된 진단정보를 서버로 송신할 수 있다. 서버는 제어부(500) 와 네트워크를 통해 통신이 가능한 컴퓨터로 구현되거나 클라우드 컴퓨팅 서버로 구현될 수 있다. 또한, 서버는 데이터를 저장할 수 있는 저장장치를 포함하거나 제 3의 서버를 통해 데이터를 저장할 수 있다. 또한, 서버는 관리자의 단말과 통신할 수 있다.According to another embodiment, the
또한 일 실시예에 따른 작물 모니터링 장치(10)는 추가적으로 입출력부(미도시)를 더 포함할 수 있다.In addition, the
입출력부(미도시)는 관리자로부터 입력을 수신하기 위한 입력부와 작업의 수행 결과 또는 촬영장치(100)의 상태 등의 정보를 표시하기 위한 출력부를 포함할 수 있다. 예를 들어 입출력부(미도시)는 농장 등을 운영하는 관리자의 입력을 수신하는 조작 패널(operation panel) 및 화면을 표시하는 디스플레이 패널(display panel) 등을 포함할 수 있다.The input/output unit (not shown) may include an input unit for receiving an input from a manager and an output unit for displaying information such as a job performance result or a state of the photographing
구체적으로 입력부는 키보드, 물리 버튼, 터치 스크린 또는 마이크 등과 같이 다양한 형태의 입력을 수신할 수 있는 장치들을 포함할 수 있다. 또한, 출력부는 디스플레이 패널 또는 스피커 등을 포함할 수 있다. 다만, 이에 한정되지 않고 입출력부(미도시)는 다양한 입출력을 지원하는 구성을 포함할 수 있다.Specifically, the input unit may include devices capable of receiving various types of inputs, such as a keyboard, a physical button, a touch screen, or a microphone. Also, the output unit may include a display panel or a speaker. However, it is not limited thereto, and the input/output unit (not shown) may include a configuration supporting various inputs and outputs.
실시예에 따르면, 입력부는 관리자로부터 촬영의 수행을 위한 조작을 입력 받을 수도 있다. 또한, 출력부는 진단정보를 관리자가 확인할 수 있도록 진단정보를 출력하여 제공하거나 진단정보에 대응되는 알람이나 경고음을 출력할 수 있다. According to the embodiment, the input unit may receive a manipulation for shooting from a manager. In addition, the output unit may output and provide diagnostic information so that a manager can check the diagnostic information, or output an alarm or warning sound corresponding to the diagnostic information.
이러한 입출력부(미도시)는 작물 모니터링 장치(10)와 통신부(550)를 통해 통신하도록 별도의 장치인 입출력장치(미도시)로 구현되어 작물 모니터링 장치 (10) 외부에 위치할 수도 있다.This input/output unit (not shown) may be implemented as an input/output device (not shown), which is a separate device, to communicate with the
한편, 전술한 이동레일(120)은 로봇(110)이 배드(1)의 상부를 이동하도록 구성될 경우, 도 4에 도시된 바와 같이 종방향레일(121) 및 횡방향레일(122)을 포함하여 구성될 수 있다.On the other hand, when the
종방향레일(121)은 배드(1)의 상부에 설치되면서 배드(1)의 사이를 따라 연장됨으로써 로봇(110)의 이동경로를 배드(1)의 종방향 즉 길이방향으로 제공할 수 있다.The
횡방향레일(122)은 배드(1)의 상부에 설치되면서 종방향레일(121)과 직교 상태를 이루도록 연장됨으로써 로봇(110)의 이동경로를 배드(1)의 횡방향 즉 배드(1)를 가로지르는 방향으로 제공할 수 있다.The
이에 따라, 촬영유닛(200)은 로봇(110)과 함께 종방향레일(121)을 따라 이동하면서 종방향레일(121)의 양측에 배치된 배드(1)의 작물의 촬영을 수행할 수 있으며, 횡방향레일(122)을 따라 이동하면서 이웃하는 종방향레일(121)로 이동하여 작물의 촬영을 수행할 수 있다.Accordingly, the photographing
여기서, 촬영유닛(200)은 횡방향레일(122)을 따라 이동할 경우 배드(1)를 가로질러야 하기 때문에 이동하는 과정에서 배드(1)와 충돌할 수 있다.Here, the
이때, 전술한 거리측정부(130)는 촬영유닛(200)과 배드(1)와의 거리를 측정하여 제어부(500)로 인가할 수 있으며, 제어부(500)는 거리측정부(130)에서 인가된 데이터를 기반으로 승강유닛(300)을 작동시켜 촬영유닛(200)을 상승시킬 수 있다.At this time, the above-described
이에 따라, 촬영유닛(200)은 횡방향레일(122)을 이동하는 과정에서 배드(1)와 충돌하지 않고 소정의 간격을 이루면서 이동할 수 있다.Accordingly, the
한편, 종방향레일(121)과 횡방향레일(122) 중 적어도 하나는 소정의 곡률을 갖는 원호 형태를 이루면서 연장될 수 있다.On the other hand, at least one of the
즉, 종방향레일(121) 또는 횡방향레일(122)은 일직선으로 연장되지 않고 원호형태로 연장됨으로써 로봇(110)이 이동하는 과정에서 복수의 배드(1)를 다양한 각도로 거칠 수 있도록 할 수 있다.That is, the
한편, 도 5는 일 실시예에 따른 작물 모니터링 장치(10)에 의한 촬영방법을 설명하기 위한 순서도이다. 도 5에 도시된 촬영방법은 도1 내지 도 4를 통해 설명된 작물 모니터링 장치(10)에서 시계열적으로 처리하는 단계들을 포함한다. 따라서 이하에서 생략된 내용이라고 하더라도 도 1 내지 도 4에 도시된 작물 모니터링 장치(10)에 관하여 이상에서 기술한 내용은 도 5에 도시된 실시예에 따른 촬영방법에도 이용될 수 있다.On the other hand, Figure 5 is a flow chart for explaining a photographing method by the
도 5에서 도시된 바와 같이 작물 모니터링 장치(10)는 제1이미지를 획득할 수 있다 (S100).As shown in FIG. 5 , the
이때, 제어부(500)는 이동유닛(100)을 제어하여 촬영유닛(200)을 이동유닛(100)과 함께 배드(1)의 사이 지면 또는 배드(1)의 상부를 따라 이동시킨 후, 촬영유닛(100)을 제어하여 배드(1)에 식재된 작물을 촬영하면서 제1 이미지를 획득할 수 있다.At this time, the
제1이미지를 획득한 제어부(500)는 제1이미지 내에서 타깃후보객체를 식별할 수 있다 (S200).Having acquired the first image, the
이를 위해 제어부(500)는 YOLO모델 또는 R-CNN 모델로 구현된 인공신경망을 학습시키고 학습된 인공신경망에 제1이미지를 입력함으로써 타깃후보객체를 식별해낼 수 있다.To this end, the
또한, 제어부(500)는 상술된 바와 같이 식별된 타깃후보객체 중 하나를 선택하여 타깃객체로 결정할 수 있다 (S300). In addition, the
이때, 제어부(500)는 각 타깃후보객체를 에워싸는 바운딩박스의 중심점을 기준으로, 제1이미지의 최하단 좌측 꼭지점을 기준으로 x축 방향으로 순차적으로 타깃후보객체를 선택할 수 있다. 따라서 제어부(500)는 타깃후보객체를 먼저 순차적으로 선택하여 타깃객체로 결정하고 타깃후보객체에 관한 진단정보를 순차적으로 생성할 수 있다.In this case, the
이와 같이 결정된 타깃객체의 촬영을 위해, 제어부(500)는 촬영유닛(200)의 높이를 타깃객체에 대응하는 높이로 조절할 수 있다(S400)To capture the target object determined in this way, the
이때. 제어부(500)는 승강유닛(300)을 제어하여 촬영유닛(200)을 승강시키면서 타깃객체의 바운딩박스의 중심점에 대응하는 좌표로 촬영유닛(200)을 승강시킴으로써 촬영유닛(2000을 타깃객체에 대응하는 높이로 이동시킬 수 있다.At this time. The
또한, 제어부(500)는 배드(1)의 경계선을 타깃객체로 식별하여 승강유닛(300)을 제어하면서 촬영유닛(200)의 높이를 배드(1)의 경계선 중앙에 위치하도록 이동시킬 수도 있다.In addition, the
또한, 제어부(500)는 촬영유닛(200)의 촬영상태정보를 결정할 수 있다(S500).Also, the
제어부(500)는 촬영유닛(200)의 현재 촬영상태정보, 현재의 거리정보, 및 제1이미지 내에서의 타깃객체의 위치좌표에 기초하여 촬영상태정보를 결정할 수 있다.The
실시예에 따라 제어부(500)는 현재의 촬영상태정보, 현재의 거리정보, 및 제1이미지 내에서의 타깃객체의 위치좌표에 기초하여 팬 각도 및 틸트 각도를 연산함으로써 촬영상태정보를 생성할 수 있다.According to an embodiment, the
한편, 제어부(500)는 줌 배율이 낮아 타깃객체가 작게 촬영되거나, 포커싱값이 맞지 않아 타깃객체가 낮은 해상도로 찍히게 되면 촬영상태정보를 갱신할 수 있다 (S600).Meanwhile, the
실시예에 따르면 제어부(500)는 촬영유닛(200)의 렌즈를 통해 보이는 화각 내 이미지에서, 타깃객체에 관한 이미지 영역이 전체 이미지 영역 내에서 소정의 비율 이상을 차지하도록 줌 배율을 정할 수 있다.According to the embodiment, the
제어부(500)는 촬영상태정보에 기초하여 촬영유닛(200)을 틸팅 또는 포커싱하거나 줌 배율을 조정함으로써 타깃객체를 촬영함으로써 제2이미지를 획득할 수 있다 (S700).The
이때, 제어부(500)는 촬영이미지 또는 포커싱된 이미지 내에서 타깃객체로 At this time, the
식별되는 영역이 전체 이미지 내에서 차지하는 비율이 소정 비율 이상이 아니라면, 촬영유닛(200)의 줌 배율을 조정하여 타깃객체로 식별되는 영역이 전체 이미지 내에서 소정 비율 이상 차지하도록 할 수 있다. If the ratio occupied by the identified area in the entire image is not greater than a predetermined ratio, the zoom magnification of the photographing
이와 같이 타깃객체를 촬영함으로써 제2이미지를 획득하면, 제어부(500)는 제2이미지에 기초하여 진단정보를 생성할 수 있다 (S800).When the second image is obtained by photographing the target object in this way, the
이때, 제어부(500)는 제2이미지 내에서, 타깃객체의 엣지(edge)를 딥러닝 모델을 기반으로 식별함으로써, 엣지 내에 위치한 타깃객체와, 엣지 외부에 위치한 배경을 분리해낼 수 있다.In this case, the
그리고 제어부(500)는 타깃객체의 이미지를 분석함으로써 생육정보 및 병해충정보 중 적어도 하나를 포함하는 진단정보를 생성할 수 있다.Further, the
예를 들어, 제어부(500)는 이미지에서 병해충정보를 생성할 수 있는데, 해충이 파먹은 위치인 병해충 영역을 식별하여 관련 정보를 포함하는 진단정보를 생성할 수 있다. 예를 들어 병해충 영역의 개수, 해충의 개수, 해충이나 병해충 영역을 분석함에 따라 해충에 관한 정보 또는 병균에 관한 정보를 포함하여 진단정보를 생성할 수 있다.For example, the
상술된 단계 S300 내지 단계 S800는, 제1이미지 내에서 식별된 타깃후보객체 중에서 진단정보가 생성되지 않은 타깃후보객체가 없을 때까지 반복될 수 있다 (S900).Steps S300 to S800 described above may be repeated until there is no target candidate object for which diagnostic information is not generated among the target candidate objects identified in the first image (S900).
상술된 바에 따른 촬영방법으로 제1이미지에 관한 진단정보를 생성하면, 작물 모니터링 장치(10)는 또 다른 피사체를 촬영하여 제1이미지를 획득할 수 있다.When diagnostic information on the first image is generated by the above-described photographing method, the
이때, 획득된 제1이미지가 이전에 분석되었던 제1이미지와 중첩되는 영역이 존재한다고 판단되면, 제어부(500)는 촬영상태정보를 갱신하여 다른 팬 각도 또는 틸트 각도에서 촬영하여 제1이미지를 획득할 수 있다. 또는 제1이미지가 획득된 촬영유닛(200)의 위치정보와 팬 및 틸트 각도에 기초하여, 획득된 제1이미지가 이전에 분석된 제1이미지와 동일한 위치에서 동일한 대상을 촬영한 것이라고 판단할 수 있고 그에 따라 제어부(500)는 촬영상태정보를 갱신하여 다른 팬 각도 또는 틸트 각도에서 촬영하여 제1이미지를 획득할 수 있다.At this time, if it is determined that there is an area where the obtained first image overlaps with the previously analyzed first image, the
상기와 같이 설명된 촬영방법은 컴퓨터에 의해 실행 가능한 명령어 및 데이터를 저장하는, 컴퓨터로 판독 가능한 매체의 형태로도 구현될 수 있다. 이때, 명령어 및 데이터는 프로그램 코드의 형태로 저장될 수 있으며, 프로세서에 의해 실행되었을 때, 소정의 프로그램 모듈을 생성하여 소정의 동작을 수행할 수 있다. 또한, 컴퓨터로 판독 가능한 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터로 판독 가능한 매체는 컴퓨터 기록 매체일 수 있는데, 컴퓨터 기록 매체는 컴퓨터 판독 가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함할 수 있다. 예를 들어, 컴퓨터 기록 매체는 HDD 및 SSD 등과 같은 마그네틱 저장 매체, CD, DVD 및 블루레이 디스크 등과 같은 광학적 기록 매체, 또는 네트워크를 통해 접근 가능한 서버에 포함되는 메모리일 수 있다. The photographing method described above may be implemented in the form of a computer-readable medium storing instructions and data executable by a computer. In this case, instructions and data may be stored in the form of program codes, and when executed by a processor, a predetermined program module may be generated to perform a predetermined operation. Also, computer-readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media. Also, a computer-readable medium may be a computer recording medium, which is a volatile and non-volatile memory implemented in any method or technology for storage of information such as computer-readable instructions, data structures, program modules, or other data. It can include both volatile, removable and non-removable media. For example, the computer recording medium may be a magnetic storage medium such as HDD and SSD, an optical recording medium such as CD, DVD, and Blu-ray disc, or a memory included in a server accessible through a network.
상기와 같이 설명된 촬영방법은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 컴퓨터 프로그램(또는 컴퓨터 프로그램 제품)으로 구현될 수도 있다. 컴퓨터 프로그램은 프로세서에 의해 처리되는 프로그래밍 가능한 기계 명령어를 포함하고, 고레벨 프로그래밍 언어(High-level Programming Language), 객체 지향 프로그래밍 언어(Object-oriented Programming Language), 어셈블리 언어 또는 기계 언어 등으로 구현될 수 있다. 또한 컴퓨터 프로그램은 유형의 컴퓨터 판독가능 기록매체(예를 들어, 메모리, 하드디스크, 자기/광학 매체 또는 SSD(Solid-State Drive) 등)에 기록될 수 있다. The photographing method described above may be implemented as a computer program (or computer program product) including instructions executable by a computer. A computer program includes programmable machine instructions processed by a processor and may be implemented in a high-level programming language, object-oriented programming language, assembly language, or machine language. . Also, the computer program may be recorded on a tangible computer-readable recording medium (eg, a memory, a hard disk, a magnetic/optical medium, or a solid-state drive (SSD)).
상기와 같이 설명된 촬영방법은 상술한 바와 같은 컴퓨터 프로그램이 컴퓨팅 장치에 의해 실행됨으로써 구현될 수 있다. 컴퓨팅 장치는 프로세서와, 메모리와, 저장 장치와, 메모리 및 고속 확장포트에 접속하고 있는 고속 인터페이스와, 저속 버스와 저장 장치에 접속하고 있는 저속 인터페이스 중 적어도 일부를 포함할 수 있다. 이러한 성분들 각각은 다양한 버스를 이용하여 서로 접속되어 있으며, 공통 머더보드에 탑재되거나 다른 적절한 방식으로 장착될 수 있다.The photographing method described above may be implemented by executing the above-described computer program by a computing device. A computing device may include at least some of a processor, a memory, a storage device, a high-speed interface connected to the memory and a high-speed expansion port, and a low-speed interface connected to a low-speed bus and a storage device. Each of these components are connected to each other using various buses and may be mounted on a common motherboard or mounted in any other suitable manner.
여기서 프로세서는 컴퓨팅 장치 내에서 명령어를 처리할 수 있는데, 이런 명령어로는, 예컨대 고속 인터페이스에 접속된 디스플레이처럼 외부 입력, 출력 장치상에 GUI(Graphic User Interface)를 제공하기 위한 그래픽 정보를 표시하기 위해 메모리나 저장 장치에 저장된 명령어를 들 수 있다. 다른 실시예로서, 다수의 프로세서 및(또는) 다수의 버스가 적절히 다수의 메모리 및 메모리 형태와 함께 이용될 수 있다. 또한 프로세서는 독립적인 다수의 아날로그 및(또는) 디지털 프로세서를 포함하는 칩들이 이루는 칩셋으로 구현될 수 있다. Here, the processor may process commands within the computing device, for example, to display graphic information for providing a GUI (Graphic User Interface) on an external input/output device, such as a display connected to a high-speed interface. Examples include instructions stored in memory or storage devices. As another example, multiple processors and/or multiple buses may be used along with multiple memories and memory types as appropriate. Also, the processor may be implemented as a chipset comprising chips including a plurality of independent analog and/or digital processors.
또한 메모리는 컴퓨팅 장치 내에서 정보를 저장한다. 일례로, 메모리는 휘발성 메모리 유닛 또는 그들의 집합으로 구성될 수 있다. 다른 예로, 메모리는 비휘발성 메모리 유닛 또는 그들의 집합으로 구성될 수 있다. 또한 메모리는 예컨대, 자기 혹은 광 디스크와 같이 다른 형태의 컴퓨터 판독 가능한 매체일 수도 있다. Memory also stores information within the computing device. In one example, the memory may consist of a volatile memory unit or a collection thereof. As another example, the memory may be composed of a non-volatile memory unit or a collection thereof. Memory may also be another form of computer readable medium, such as, for example, a magnetic or optical disk.
그리고 저장장치는 컴퓨팅 장치에게 대용량의 저장공간을 제공할 수 있다. 저장 장치는 컴퓨터 판독 가능한 매체이거나 이런 매체를 포함하는 구성일 수 있으며, 예를 들어 SAN(Storage Area Network) 내의 장치들이나 다른 구성도 포함할 수 있고, 플로피 디스크 장치, 하드 디스크 장치, 광 디스크 장치, 혹은 테이프 장치, 플래시 메모리, 그와 유사한 다른 반도체 메모리 장치 혹은 장치 어레이일 수 있다.Also, the storage device may provide a large amount of storage space to the computing device. A storage device may be a computer-readable medium or a component that includes such a medium, and may include, for example, devices in a storage area network (SAN) or other components, such as a floppy disk device, a hard disk device, an optical disk device, or a tape device, flash memory, or other semiconductor memory device or device array of the like.
이상의 실시예들에서 사용되는 '~부'라는 용어는 소프트웨어 또는 FPGA(field programmable gate array) 또는 ASIC 와 같은 하드웨어 구성요소를 의미하며, '~부'는 어떤 역할들을 수행한다. 그렇지만 '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램특허 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다.The term '~unit' used in the above embodiments means software or a hardware component such as a field programmable gate array (FPGA) or ASIC, and '~unit' performs certain roles. However, '~ part' is not limited to software or hardware. '~bu' may be configured to be in an addressable storage medium and may be configured to reproduce one or more processors. Therefore, as an example, '~unit' refers to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, and procedures. , subroutines, segments of program patent code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays, and variables.
구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로부터 분리될 수 있다.Functions provided within components and '~units' may be combined into smaller numbers of components and '~units' or separated from additional components and '~units'.
뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU 들을 재생시키도록 구현될 수도 있다. 상술된 실시예들은 예시를 위한 것이며, 상술된 실시예들이 속하는 기술분야의 통상의 지식을 가진 자는 상술된 실시예들이 갖는 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 상술된 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.In addition, components and '~units' may be implemented to play one or more CPUs in a device or a secure multimedia card. The above-described embodiments are for illustrative purposes, and those skilled in the art to which the above-described embodiments belong can easily transform into other specific forms without changing the technical spirit or essential features of the above-described embodiments. You will understand. Therefore, it should be understood that the above-described embodiments are illustrative in all respects and not restrictive. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as distributed may be implemented in a combined form.
본 명세서를 통해 보호 받고자 하는 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태를 포함하는 것으로 해석되어야 한다.The scope to be protected through this specification is indicated by the following claims rather than the detailed description above, and should be construed to include all changes or modifications derived from the meaning and scope of the claims and equivalent concepts thereof. .
10 : 작물 모니터링 장치
100 : 이동유닛
110 : 로봇
120 : 이동레일
121 : 종방향레일
122 : 횡방향레일
130 : 거리측정부
200 : 촬영유닛
300 : 승강유닛
310 : 텔레스코픽봉
320 : 길이조절부재
321 : 랙기어
322 : 피니언기어
400 : 메모리
500 : 제어부
550 : 통신부10: crop monitoring device
100: mobile unit
110: robot
120: moving rail
121: longitudinal rail
122: transverse rail
130: distance measuring unit
200: shooting unit
300: lifting unit
310: telescopic rod
320: length adjustment member
321: rack gear
322: pinion gear
400: memory
500: control unit
550: Ministry of Communication
Claims (12)
상기 배드 사이의 지면과 상기 배드의 상부 중 적어도 하나에 이동 가능하게 설치되어 상기 배드를 따라 이동하는 이동유닛;
상기 이동유닛에 설치되어 작물을 촬영하면서 제1 이미지 및 제2 이미지를 제공하는 촬영유닛;
상기 이동유닛에 설치되어 상기 촬영유닛을 승강 가능하게 지지하면서 상기 촬영유닛의 높이를 조절하는 적어도 하나의 승강유닛;
상기 촬영유닛의 촬영상태정보를 저장하는 메모리; 및
상기 제1 이미지에 기초하여 상기 촬영유닛의 촬영상태정보를 결정하고, 상기 촬영상태정보에 기초하여 작물의 일부분 중 타깃객체를 촬영하도록 상기 이동유닛, 상기 촬영유닛 및 상기 승강유닛을 제어하며, 상기 타깃객체를 촬영한 상기 제2 이미지를 기반으로 진단정보를 생성하는 제어부를 포함하는 작물 모니터링 장치.
In the crop monitoring device for monitoring the growth state of crops while moving between beds installed at a predetermined height while forming a plurality of rows to provide a growth space for crops,
a moving unit movably installed on at least one of the upper part of the bed and the ground between the beds to move along the bed;
a photographing unit installed in the moving unit to provide a first image and a second image while photographing crops;
At least one elevating unit installed in the moving unit to adjust the height of the recording unit while supporting the recording unit so as to be able to move up and down;
a memory for storing photographing state information of the photographing unit; and
determining photographing state information of the photographing unit based on the first image, and controlling the moving unit, the photographing unit, and the elevating unit to photograph a target object among parts of a crop based on the photographing state information; Crop monitoring device comprising a control unit for generating diagnostic information based on the second image of the target object.
상기 이동유닛은,
상기 촬영유닛 및 상기 승강유닛의 설치공간을 제공하면서 상기 배드 사이의 지면 및 상기 배드의 상부 중 하나에 배치되고, 상기 제어부의 제어에 의해 이동하면서 상기 촬영유닛 및 상기 승강유닛을 이동시키는 로봇을 포함하는 작물 모니터링 장치.
According to claim 1,
The mobile unit,
A robot disposed on one of the upper part of the bed and the ground between the beds while providing an installation space for the shooting unit and the lifting unit and moving the shooting unit and the lifting unit while moving under the control of the control unit. crop monitoring device.
상기 이동유닛은,
상기 배드 사이의 지면 및 상기 배드의 상부 중 하나에 설치되어 상기 로봇의 이동경로를 제공하는 이동레일을 더 포함하는 작물 모니터링 장치.
According to claim 2,
The mobile unit,
Crop monitoring device further comprising a moving rail installed on one of the upper part of the bed and the ground between the beds to provide a moving path of the robot.
상기 이동레일은,
상기 배드의 상부에 설치되면서 상기 배드의 사이를 따라 제각기 연장되는 종방향레일; 및
상기 종방향레일과 직교 상태를 이루면서 상기 배드의 상부에 설치되어 상기 로봇이 상기 배드를 가로지르는 방향으로 이동하는 것을 허용하는 횡방향레일을 포함하는 작물 모니터링 장치.
According to claim 3,
The moving rail,
Longitudinal rails respectively extending along the gap between the beds while being installed on the top of the bed; and
Crop monitoring device comprising a transverse rail installed on top of the bed while forming a state orthogonal to the longitudinal rail to allow the robot to move in a direction crossing the bed.
상기 종방향레일 및 상기 횡방향레일 중 적어도 하나는,
소정의 곡률을 갖는 원호 형태를 이루면서 연장되는, 작물 모니터링 장치.
According to claim 4,
At least one of the longitudinal rail and the transverse rail,
Extending while forming an arc shape having a predetermined curvature, crop monitoring device.
상기 이동유닛은,
상기 로봇에 설치된 상태로 상기 제어부에 의해 작동하며, 상기 로봇이 횡방향레일로 이동할 경우 상기 촬영유닛과 상기 배드의 거리를 감지하여 상기 제어부에 제공하면서 상기 촬영유닛과 상기 배드의 간격을 유지시키는 거리측정부를 더 포함하는 작물 모니터링 장치.
According to claim 4,
The mobile unit,
It is operated by the control unit in a state installed on the robot, and when the robot moves to the transverse rail, detects the distance between the recording unit and the bed and provides it to the control unit while maintaining the distance between the recording unit and the bed. Crop monitoring device further comprising a measuring unit.
상기 승강유닛은,
소정의 길이를 가지면서 길이가 신축 가능하도록 텔레스코픽 구조의 봉으로 이루어져 상기 이동유닛과 상기 촬영유닛을 연결하는 텔레스코픽봉; 및
상기 제어부의 제어에 의해 작동하면서 상기 텔레스코픽봉의 길이를 상기 촬영상태정보에 대응하는 길이로 조절하는 길이조절부재를 포함하는 작물 모니터링 장치.
According to claim 1,
The lifting unit,
A telescopic rod having a predetermined length and having a telescopic structure so as to be stretchable and connecting the moving unit and the recording unit; and
Crop monitoring device comprising a length adjusting member for adjusting the length of the telescopic rod to a length corresponding to the photographing state information while operating under the control of the control unit.
상기 길이조절부재는,
상기 텔레스코픽봉의 일부분에 길이방향을 따라 형성되는 톱니형태의 랙기어; 및
상기 랙기어에 맞물린 상태로 상기 제어부에 의해 정회전 또는 역회전하면서 상기 랙기어를 직선운동시키는 피니언기어를 포함하는 작물 모니터링 장치.
According to claim 7,
The length adjusting member,
A toothed rack gear formed along a longitudinal direction of a portion of the telescopic rod; and
A crop monitoring device comprising a pinion gear for linearly moving the rack gear while being engaged with the rack gear and rotating forward or reverse by the control unit.
상기 제어부는,
상기 제1 이미지 내에 상기 배드를 상기 타깃객체로 식별하고, 상기 배드의 경계선을 기반으로 상기 승강유닛을 제어하면서 상기 촬영유닛의 높이를 조절하는, 작물 모니터링 장치.
According to claim 1,
The control unit,
Identifying the bed in the first image as the target object, and controlling the height of the photographing unit while controlling the lifting unit based on the boundary of the bed, crop monitoring device.
상기 제어부는,
상기 제1 이미지에 기초하여 상기 타깃객체를 식별하고, 상기 제1 이미지에서의 상기 타깃객체의 위치에 기초하여 상기 촬영유닛의 촬영상태정보를 결정하는, 작물 모니터링 장치.
According to claim 1,
The control unit,
Crop monitoring device for identifying the target object based on the first image, and determining the photographing state information of the photographing unit based on the position of the target object in the first image.
상기 제어부는,
상기 제2 이미지의 전체 영역 내에서 상기 타깃객체에 대응하는 이미지가 소정의 크기 이상의 면적을 차지하도록 상기 촬영상태정보를 갱신하는, 작물 모니터링 장치.
According to claim 1,
The control unit,
and updating the photographing state information so that an image corresponding to the target object occupies an area of a predetermined size or more within an entire area of the second image.
상기 제어부는,
상기 타깃객체에 관한 생육정보 및 병해충정보 중 적어도 하나에 관한 진단정보를 생성하는, 작물 모니터링 장치.According to claim 1,
The control unit,
A crop monitoring device for generating diagnostic information on at least one of growth information and pest information on the target object.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210121651A KR102649593B1 (en) | 2021-09-13 | 2021-09-13 | Crop monitering apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210121651A KR102649593B1 (en) | 2021-09-13 | 2021-09-13 | Crop monitering apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20230038941A true KR20230038941A (en) | 2023-03-21 |
KR102649593B1 KR102649593B1 (en) | 2024-03-20 |
Family
ID=85801095
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210121651A KR102649593B1 (en) | 2021-09-13 | 2021-09-13 | Crop monitering apparatus |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102649593B1 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190041647A (en) * | 2017-10-13 | 2019-04-23 | 비와일즈 주식회사 | Crops monitoring apparatus, crops monitoring method and crops monitoring system |
KR20210079536A (en) * | 2019-12-20 | 2021-06-30 | 주식회사 포스코 | Facilities diagnosis robot and active avoidance method thereof |
-
2021
- 2021-09-13 KR KR1020210121651A patent/KR102649593B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190041647A (en) * | 2017-10-13 | 2019-04-23 | 비와일즈 주식회사 | Crops monitoring apparatus, crops monitoring method and crops monitoring system |
KR20210079536A (en) * | 2019-12-20 | 2021-06-30 | 주식회사 포스코 | Facilities diagnosis robot and active avoidance method thereof |
Also Published As
Publication number | Publication date |
---|---|
KR102649593B1 (en) | 2024-03-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11771077B2 (en) | Identifying and avoiding obstructions using depth information in a single image | |
Montoya-Cavero et al. | Vision systems for harvesting robots: Produce detection and localization | |
US20230026679A1 (en) | Mobile sensing system for crop monitoring | |
KR102291827B1 (en) | System and method for automatic crop growth measurement in smart farm | |
WO2023050783A1 (en) | Weeding robot and method and apparatus for planning weeding path thereof, and medium | |
KR102261087B1 (en) | Video-based monitoring apparatus and operation method | |
KR102479284B1 (en) | Vegetation index acquisition unit and apparatus for monitoring plant comprising the same | |
JP2017184673A (en) | Plant cultivation-supporting apparatus, plant cultivation-supporting system, method for supporting plant cultivation, program, and storage medium | |
US20220240494A1 (en) | Aerial sensor and manipulation platform for farming and method of using same | |
US20220207852A1 (en) | Generating a ground plane for obstruction detection | |
KR102380989B1 (en) | Smart farm control device providing growth recipe information for crops grown in smart farm and method of operating the same | |
KR20230061863A (en) | Apparatus for predicting fruit development stage using ensemble model of convolutional neural network and multi layer perceptron and method thereof | |
KR102375362B1 (en) | Method and apparatus for inspecting barn environment based on ai | |
KR102649593B1 (en) | Crop monitering apparatus | |
Shinoda et al. | RoseTracker: A system for automated rose growth monitoring | |
RU2423042C2 (en) | Electronic-optical method to control technology of agricultural produce making | |
TW202123152A (en) | Fruits and vegetables monitoring system and method thereof | |
US11991946B2 (en) | Adaptively adjusting parameters of equipment operating in unpredictable terrain | |
KR20230157141A (en) | Object monitering apparatus with ground moving type | |
KR102664578B1 (en) | Apparatus and method for photographing | |
Kurtser et al. | RGB-D datasets for robotic perception in site-specific agricultural operations—A survey | |
US20220172056A1 (en) | Prediction system, prediction method, and prediction program | |
Shamshiri et al. | An overview of visual servoing for robotic manipulators in digital agriculture | |
KR102500781B1 (en) | Growth measuring device equipped with AI-based camera module for measuring leaf growth of crops | |
Esser et al. | Field Robot for High-throughput and High-resolution 3D Plant Phenotyping |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
X091 | Application refused [patent] | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) |