KR20230038941A - Crop monitering apparatus - Google Patents

Crop monitering apparatus Download PDF

Info

Publication number
KR20230038941A
KR20230038941A KR1020210121651A KR20210121651A KR20230038941A KR 20230038941 A KR20230038941 A KR 20230038941A KR 1020210121651 A KR1020210121651 A KR 1020210121651A KR 20210121651 A KR20210121651 A KR 20210121651A KR 20230038941 A KR20230038941 A KR 20230038941A
Authority
KR
South Korea
Prior art keywords
unit
photographing
image
target object
bed
Prior art date
Application number
KR1020210121651A
Other languages
Korean (ko)
Other versions
KR102649593B1 (en
Inventor
황승미
김연중
감명곤
Original Assignee
라온피플 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 라온피플 주식회사 filed Critical 라온피플 주식회사
Priority to KR1020210121651A priority Critical patent/KR102649593B1/en
Publication of KR20230038941A publication Critical patent/KR20230038941A/en
Application granted granted Critical
Publication of KR102649593B1 publication Critical patent/KR102649593B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • H04N7/185Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control
    • AHUMAN NECESSITIES
    • A01AGRICULTURE; FORESTRY; ANIMAL HUSBANDRY; HUNTING; TRAPPING; FISHING
    • A01GHORTICULTURE; CULTIVATION OF VEGETABLES, FLOWERS, RICE, FRUIT, VINES, HOPS OR SEAWEED; FORESTRY; WATERING
    • A01G9/00Cultivation in receptacles, forcing-frames or greenhouses; Edging for beds, lawn or the like
    • A01G9/24Devices or systems for heating, ventilating, regulating temperature, illuminating, or watering, in greenhouses, forcing-frames, or the like
    • A01G9/26Electric devices
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F16ENGINEERING ELEMENTS AND UNITS; GENERAL MEASURES FOR PRODUCING AND MAINTAINING EFFECTIVE FUNCTIONING OF MACHINES OR INSTALLATIONS; THERMAL INSULATION IN GENERAL
    • F16MFRAMES, CASINGS OR BEDS OF ENGINES, MACHINES OR APPARATUS, NOT SPECIFIC TO ENGINES, MACHINES OR APPARATUS PROVIDED FOR ELSEWHERE; STANDS; SUPPORTS
    • F16M11/00Stands or trestles as supports for apparatus or articles placed thereon ; Stands for scientific apparatus such as gravitational force meters
    • F16M11/02Heads
    • F16M11/04Means for attachment of apparatus; Means allowing adjustment of the apparatus relatively to the stand
    • F16M11/043Allowing translations
    • F16M11/046Allowing translations adapted to upward-downward translation movement
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/56Accessories

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Environmental Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Image Processing (AREA)

Abstract

Provided is a crop monitoring device that monitors the growth status of crops by moving between beds that are installed in multiple rows at a predetermined height and provide growth space for crops. The crop monitoring device comprises: a moving unit movably installed on at least one of the ground between the beds and an upper part of the bed to move along the bed; a photographing unit installed on the moving unit to provide a first image and a second image while photographing crops; at least one lifting unit installed on the moving unit to support the photographing unit so as to be able to lift the photographing unit and adjust the height of the photographing unit; a memory for storing photographing status information of the photographing unit; and a control unit for determining the photographing status information of the photographing unit based on the first image, controlling the moving unit, the photographing unit, and the lifting unit to photograph a target object among parts of crops based on the photographing status information, and generating diagnostic information based on the second image photographing the target object. Accordingly, a crop monitoring device that can accurately diagnose the growth status of crops can be provided.

Description

작물 모니터링 장치{CROP MONITERING APPARATUS}Crop monitoring device {CROP MONITERING APPARATUS}

본 명세서에서 개시되는 실시예들은 작물 모니터링 장치에 관한 것으로, 더욱 상세하게는 작물의 배드 사이를 이동하면서 작물을 촬영하여 작물의 생장상태를 모니터링할 수 있는 작물 모니터링 장치에 관한 것이다.Embodiments disclosed herein relate to a crop monitoring device, and more particularly, to a crop monitoring device capable of monitoring the growth state of a crop by photographing the crop while moving between beds of the crop.

최근 들어, 정보통신기술을 농업의 생산/가공/유통/소비 등에 접목 하여 원격에서 자동으로 작물의 생육환경을 관리하도록 하고 생산효율성을 높일 수 있도록 하고, 식물재배를 농촌 환경은 물론 도심 속에서도 구축할 수 있는 스마트팜(smart farm) 기술이 개발되고 있다.In recent years, information and communication technology has been grafted onto agricultural production/processing/distribution/consumption to remotely and automatically manage crop growth environments and increase production efficiency. Smart farm technology is being developed.

구체적으로, 스마트팜이란, 비닐하우스, 축사 등 기존의 농사 기술에 정보통신기술(Information Communication Technoloy)을 접목하여 원격 및 자동으로 작물 또는 가축의 생육환경을 적절하게 유지, 관리할 수 있는 농장에 관련된 기술을 지칭한다. 스마트팜을 이용함으로써, 작물의 생육 정보와 환경 정보에 대한 데이터를 기반으로 최적의 생육 환경을 조성하여 농산물의 생산성과 품질을 제고할 수 있다.Specifically, smart farm is related to a farm that can remotely and automatically maintain and manage the growth environment of crops or livestock appropriately by grafting information communication technology to existing farming technologies such as vinyl houses and barns. refers to technology By using smart farms, it is possible to improve the productivity and quality of agricultural products by creating an optimal growth environment based on data on crop growth and environmental information.

여기서, 작물의 생육 상태를 정확하게 진단하기 위해서는 작물의 생장점을 관찰하는 것이 중요하다.Here, it is important to observe the growth point of the crop in order to accurately diagnose the growth state of the crop.

그런데, 작물의 생장공간을 이루는 배지의 높이가 불균일하여 촬영 이미지마다 서로 차이가 있으며, 작물이 생장함에 따라 생장점의 위치가 달라지므로 작물을 촬영하기 위한 카메라도 생장점의 높이에 맞게 일일이 설치되어야 하는 번거로움이 있다.However, since the height of the medium constituting the growing space of crops is not uniform, each photographed image is different from each other, and the position of the growing point changes as the crop grows, so the camera for photographing the crops has to be installed individually according to the height of the growing point. There is a romance.

스마트팜의 구현을 위한 관련된 선행기술로서 한국공개특허공보 제10-2020-0140953호에 개시된 자율주행식 무인방제차량의 분사장치가 있으나, 차량으로부터 전송되는 카메라의 영상을 통해 차량을 이동시키면서 작물에 약액을 분사하는 구성만이 개시되어 있을 뿐이어서 작물의 생장점의 높이에 맞게 촬영할 수 없는 문제점이 있다.As a related prior art for the implementation of smart farms, there is an autonomous driving unmanned pest control vehicle spraying device disclosed in Korean Patent Laid-open Publication No. 10-2020-0140953. There is a problem in that only the configuration for spraying the chemical solution is disclosed, so that it cannot be photographed according to the height of the growing point of the crop.

따라서, 상술한 문제점을 해결하기 위한 기술이 필요하게 되었다.Therefore, a technique for solving the above problems has been required.

한편, 전술한 배경기술은 발명자가 본 발명의 도출을 위해 보유하고 있었거나, 본 발명의 도출 과정에서 습득한 기술 정보로서, 반드시 본 발명의 출원 전에 일반 공중에게 공개된 공지기술이라 할 수는 없다.On the other hand, the above-mentioned background art is technical information that the inventor possessed for derivation of the present invention or acquired in the process of derivation of the present invention, and cannot necessarily be said to be known art disclosed to the general public prior to filing the present invention. .

본 명세서에서 개시되는 실시예들은, 작물의 생장점에 대응하는 높이에서 작물을 촬영함으로써 작물의 생장상태를 정확하게 진단할 수 있는 작물 모니터링 장치를 제시하는데 목적이 있다.Embodiments disclosed herein are intended to provide a crop monitoring device capable of accurately diagnosing the growth state of crops by photographing crops at a height corresponding to the growing point of the crop.

구체적으로, 본 명세서에서 개시되는 실시예들은, 촬영유닛을 지지하는 승강유닛의 승강을 통해 촬영유닛을 작물의 생장점에 대응하는 높이로 승강시키면서 작물의 촬영을 수행할 수 있는 작물 모니터링 장치를 제시하는데 목적이 있다.Specifically, the embodiments disclosed herein present a crop monitoring device capable of photographing crops while elevating the photographing unit to a height corresponding to the growing point of the crop through the elevation of the lifting unit supporting the photographing unit. There is a purpose.

또한, 본 명세서에서 개시되는 실시예들은, 작물이 생장하는 배드 사이의 지면 또는 배드의 상부를 이동하면서 작물의 생장점을 촬영할 수 있는 작물 모니터링 장치를 제시하는데 목적이 있다.In addition, the embodiments disclosed in this specification are aimed at presenting a crop monitoring device capable of photographing the growing point of a crop while moving the ground between beds or the top of the bed in which the crop grows.

또한, 본 명세서에서 개시되는 실시예들은, 배드의 상부를 이동할 경우에는 배드의 길이방향은 물론, 배드를 가로지르는 방향으로 이동하면서 작물의 생장점을 촬영할 수 있는 작물 모니터링 장치를 제시하는데 목적이 있다.In addition, the embodiments disclosed herein are aimed at presenting a crop monitoring device capable of photographing the growing point of a crop while moving in a longitudinal direction of the bed as well as a direction transverse to the bed when moving the top of the bed.

상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 작물 모니터링 장치의 일 실시예에 따르면, 복수열을 이루면서 소정의 높이로 설치되어 작물의 생장공간을 제공하는 배드의 사이를 이동하면서 작물의 생장상태를 모니터링하는 작물 모니터링 장치에 있어서, 상기 배드 사이의 지면과 상기 배드의 상부 중 적어도 하나에 이동 가능하게 설치되어 상기 배드를 따라 이동하는 이동유닛; 상기 이동유닛에 설치되어 작물을 촬영하면서 제1 이미지 및 제2 이미지를 제공하는 촬영유닛; 상기 이동유닛에 설치되어 상기 촬영유닛을 승강 가능하게 지지하면서 상기 촬영유닛의 높이를 조절하는 적어도 하나의 승강유닛; 상기 촬영유닛의 촬영상태정보를 저장하는 메모리; 및 상기 제1 이미지에 기초하여 상기 촬영유닛의 촬영상태정보를 결정하고, 상기 촬영상태정보에 기초하여 작물의 일부분 중 타깃객체를 촬영하도록 상기 이동유닛, 상기 촬영유닛 및 상기 승강유닛을 제어하며, 상기 타깃객체를 촬영한 상기 제2 이미지를 기반으로 진단정보를 생성하는 제어부를 포함할 수 있다.As a technical means for achieving the above-described technical problem, according to an embodiment of the crop monitoring device, while moving between beds installed at a predetermined height while forming a plurality of rows to provide a growth space for crops, the growth state of crops is monitored. A crop monitoring device for monitoring, comprising: a moving unit movably installed on at least one of a ground between the beds and an upper portion of the beds and moving along the beds; a photographing unit installed in the moving unit to provide a first image and a second image while photographing crops; At least one elevating unit installed in the moving unit to adjust the height of the recording unit while supporting the recording unit so as to be able to move up and down; a memory for storing photographing state information of the photographing unit; and determining photographing state information of the photographing unit based on the first image, and controlling the moving unit, the photographing unit, and the elevating unit to photograph a target object among parts of a crop based on the photographing state information; A control unit generating diagnostic information based on the second image of the target object may be included.

전술한 과제 해결 수단 중 어느 하나에 의하면, 작물의 생장점에 대응하는 높이에서 작물을 촬영함으로써 작물의 생장상태를 정확하게 진단할 수 있는 작물 모니터링 장치를 제시할 수 있다.According to any one of the above-mentioned problem solving means, it is possible to present a crop monitoring device capable of accurately diagnosing the growth state of a crop by photographing the crop at a height corresponding to the growth point of the crop.

전술한 과제 해결 수단 중 어느 하나에 의하면, 촬영유닛을 지지하는 승강유닛의 승강을 통해 촬영유닛을 작물의 생장점에 대응하는 높이로 승강시키면서 작물의 촬영을 수행할 수 있는 작물 모니터링 장치를 제시할 수 있다.According to any one of the above-described problem solving means, it is possible to present a crop monitoring device capable of photographing crops while elevating the photographing unit to a height corresponding to the growing point of the crop through the elevation of the lifting unit supporting the photographing unit. there is.

전술한 과제 해결 수단 중 어느 하나에 의하면, 작물이 생장하는 배드 사이의 지면 또는 배드의 상부를 이동하면서 작물의 생장점을 촬영할 수 있는 작물 모니터링 장치를 제시할 수 있다.According to any one of the above-described problem solving means, it is possible to present a crop monitoring device capable of photographing the growing point of a crop while moving the upper part of the bed or the ground between the beds in which the crop grows.

전술한 과제 해결 수단 중 어느 하나에 의하면, 배드의 상부를 이동할 경우에는 배드의 길이방향은 물론, 배드를 가로지르는 방향으로 이동하면서 작물의 생장점을 촬영할 수 있는 작물 모니터링 장치를 제시할 수 있다.According to any one of the above-described problem solving means, when moving the top of the bed, it is possible to present a crop monitoring device capable of photographing the growing point of the crop while moving in the longitudinal direction of the bed as well as in the direction crossing the bed.

개시되는 실시예들에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 개시되는 실시예들이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.Effects obtainable from the disclosed embodiments are not limited to those mentioned above, and other effects not mentioned are clear to those skilled in the art from the description below to which the disclosed embodiments belong. will be understandable.

도 1은 일 실시예에 따른 작물 모니터링 장치가 지상에 설치된 상태를 나타내는 구성도이다.
도 2는 일 실시예에 따른 작물 모니터링 장치가 배드의 상부에 설치된 상태를 나타내는 구성도이다.
도 3은 일 실시예에 따른 작물 모니터링 장치의 구성을 나타내는 블록도이다.
도 4는 일 실시예에 따른 작물 모니터링 장치의 이동레일이 배드의 상부에 설치된 상태를 나타내는 구성도이다.
도 5는 일 실시예에 따른 작물 모니터링 장치에 의한 작물 모니터링 방법을 나타내는 순서도이다.
1 is a configuration diagram showing a state in which a crop monitoring device according to an embodiment is installed on the ground.
Figure 2 is a configuration diagram showing a state in which the crop monitoring device according to an embodiment is installed on top of the bed.
Figure 3 is a block diagram showing the configuration of a crop monitoring device according to an embodiment.
Figure 4 is a configuration diagram showing a state in which the movable rail of the crop monitoring device according to an embodiment is installed on top of the bed.
5 is a flowchart illustrating a crop monitoring method by a crop monitoring device according to an embodiment.

아래에서는 첨부한 도면을 참조하여 다양한 실시예들을 상세히 설명한다. 아래에서 설명되는 실시예들은 여러 가지 상이한 형태로 변형되어 실시될 수도 있다. 실시예들의 특징을 보다 명확히 설명하기 위하여, 이하의 실시예들이 속하는 기술분야에서 통상의 지식을 가진 자에게 널리 알려져 있는 사항들에 관해서 자세한 설명은 생략하였다. 그리고, 도면에서 실시예들의 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, various embodiments will be described in detail with reference to the accompanying drawings. Embodiments described below may be modified and implemented in various different forms. In order to more clearly describe the characteristics of the embodiments, detailed descriptions of matters widely known to those skilled in the art to which the following embodiments belong are omitted. And, in the drawings, parts irrelevant to the description of the embodiments are omitted, and similar reference numerals are attached to similar parts throughout the specification.

명세서 전체에서, 어떤 구성이 다른 구성과 "연결"되어 있다고 할 때, 이는 '직접적으로 연결'되어 있는 경우뿐 아니라, '그 중간에 다른 구성을 사이에 두고 연결'되어 있는 경우도 포함한다. 또한, 어떤 구성이 어떤 구성을 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한, 그 외 다른 구성을 제외하는 것이 아니라 다른 구성들을 더 포함할 수도 있음을 의미한다.Throughout the specification, when a component is said to be “connected” to another component, this includes not only the case of being “directly connected” but also the case of being “connected with another component intervening therebetween”. In addition, when a certain component "includes" a certain component, this means that other components may be further included without excluding other components unless otherwise specified.

이하 첨부된 도면을 참고하여 실시예들을 상세히 설명하기로 한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings.

다만, 이를 설명하기에 앞서 아래에서 사용되는 용어들의 의미를 먼저 정의한다.However, prior to explaining this, the meanings of the terms used below are first defined.

'작물'이란 농장에서 재배되는 식물뿐만 아니라 산림식물이나 온실의 식물을 지칭하며, 예를 들어 식용작물, 공예작물, 사료작물, 비료작물, 원예작물 등이 될 수 있다.'Crops' refers not only to plants grown on farms, but also to forest plants and greenhouse plants, and may be, for example, food crops, craft crops, fodder crops, fertilizer crops, and horticultural crops.

'타깃객체'는 생육 진단 또는 병해충 검출의 대상을 의미하는 것으로서, 농장에서 작물의 과실, 열매, 꽃, 잎 등일 수 있다.The 'target object' refers to an object for growth diagnosis or pest detection, and may be fruits, fruits, flowers, leaves, etc. of crops on a farm.

도 1은 일 실시예에 따른 작물 모니터링 장치가 지상에 설치된 상태를 나타내는 구성도이고, 도 2는 일 실시예에 따른 작물 모니터링 장치가 배드의 상부에 설치된 상태를 나타내는 구성도이며, 도 3은 일 실시예에 따른 작물 모니터링 장치의 구성을 나타내는 블록도이다. 또한, 도 4는 일 실시예에 따른 작물 모니터링 장치의 이동레일이 배드의 상부에 설치된 상태를 나타내는 구성도이고, 도 5는 일 실시예에 따른 작물 모니터링 장치에 의한 작물 모니터링 방법을 나타내는 순서도이다.1 is a configuration diagram showing a state in which a crop monitoring device according to an embodiment is installed on the ground, Figure 2 is a configuration diagram showing a state in which the crop monitoring device according to an embodiment is installed on an upper portion of a bed, and FIG. It is a block diagram showing the configuration of the crop monitoring device according to the embodiment. In addition, Figure 4 is a configuration diagram showing a state in which the moving rail of the crop monitoring device according to an embodiment is installed on top of the bed, Figure 5 is a flow chart showing a crop monitoring method by the crop monitoring device according to an embodiment.

일 실시예에 따른 작물 모니터링 장치(10)는 도 1에 도시된 바와 같이 작물의 생장공간을 제공하는 배드(1)의 사이를 이동하면서 작물의 촬영을 통해 작물의 생장상태를 관찰하기 위한 장치이다.As shown in FIG. 1, the crop monitoring device 10 according to an embodiment is a device for observing the growth state of crops by photographing them while moving between beds 1 providing a growth space for crops. .

여기서, 배드(1)는 작물의 생장을 위한 영양분이 마련되어 미도시된 작물이 식재되면서 생장하는 구성으로 소정의 높이로 설치될 수 있으며, 복수열을 이루면서 길이방향으로 연속될 수 있다.Here, the bed 1 may be installed at a predetermined height in a configuration in which nutrients are provided for the growth of crops and crops not shown are planted and grown, and may be continuous in the longitudinal direction while forming a plurality of rows.

구체적으로, 일 실시예에 따른 작물 모니터링 장치(10)는 도 1 내지 도 3에 도시된 바와 같이 이동유닛(100), 촬영유닛(200), 승강유닛(300), 메모리(400) 및 제어부(500)를 포함하여 구성될 수 있다.Specifically, the crop monitoring device 10 according to an embodiment includes a moving unit 100, a photographing unit 200, a lifting unit 300, a memory 400 and a control unit as shown in FIGS. 1 to 3 ( 500) may be configured.

상기 이동유닛(100)은 후술되는 구성요소들의 설치공간을 제공하는 구성요소이며, 도 1에 도시된 바와 같이 배드(1) 사이의 지면을 이동하거나 도 2에 도시된 바와 같이 배드(1)의 상부를 이동하면서 배드(1)의 길이 방향을 따라 이동하는 구성요소이다.The moving unit 100 is a component that provides an installation space for components described later, and moves the ground between the beds 1 as shown in FIG. 1 or moves the bed 1 as shown in FIG. It is a component that moves along the longitudinal direction of the bed 1 while moving the top.

이러한 이동유닛(100)은 도 1 및 도 2에 도시된 바와 같이 로봇(110) 및 이동레일(120)을 포함하여 구성될 수 있다.As shown in FIGS. 1 and 2 , the moving unit 100 may include a robot 110 and a moving rail 120 .

상기 로봇(110)은 자율주행이나 원격제어에 의한 주행을 통해 배드(1) 사이의 지면이나 배드(1)의 상부를 주행하면서 후술되는 촬영유닛(200) 및 승강유닛(300)을 배드(1)의 길이 방향을 따라 이동시킬 수 있다.The robot 110 moves the photographing unit 200 and the lifting unit 300 to be described later while traveling on the ground between the beds 1 or the upper part of the bed 1 through autonomous driving or remote control. ) can be moved along the length direction of

이러한 로봇(110)은 후술되는 제어부(400)의 제어에 의해 작동하면서 주행할 수 있다.The robot 110 may drive while operating under the control of a control unit 400 to be described later.

여기서, 로봇(110)은 제어부(500)에 의해 작동하는 복수의 바퀴의 회전을 통해 이동하거나 무한궤도의 회전을 통해 주행할 수 있으나 이에 한정하지 않으며, 원격제어에 의해 주행할 수 있는 모든 구성이 적용될 수 있다.Here, the robot 110 may move through rotation of a plurality of wheels operated by the control unit 500 or travel through rotation of an endless track, but is not limited thereto, and all configurations capable of traveling by remote control are can be applied

상기 이동레일(120)은 전술한 로봇(110)의 이동경로를 제공하기 위한 구성요소이다.The movement rail 120 is a component for providing a movement path of the robot 110 described above.

이러한 이동레일(120)은 배드(1)의 사이 지면의 길이방향을 따라 설치되거나 배드(1)의 상부에 설치될 수 있다.These movable rails 120 may be installed along the longitudinal direction of the ground between the beds 1 or installed on top of the beds 1.

여기서, 이동레일(120)은 로봇(110)이 배드(1) 사이의 지면을 따라 이동하는 구성을 가질 경우에는 생략될 수도 있다.Here, the moving rail 120 may be omitted when the robot 110 has a configuration in which the robot 110 moves along the ground between the beds 1.

한편, 이동레일(120)은 로봇(110)이 배드(1)의 상부를 이동하도록 구성될 경우에는, 도 2에 도시된 바와 같이 배드(1)의 사이에 길이 방향을 따라 설치될 수 있다.Meanwhile, when the robot 110 is configured to move the top of the bed 1, the moving rail 120 may be installed between the beds 1 along the longitudinal direction, as shown in FIG.

이에 따라, 로봇(110)은 배드(1) 상부에 설치된 이동레일(120)에 매달린 상태로 설치되어 이동레일(120)의 길이방향을 따라 이동할 수 있다.Accordingly, the robot 110 is installed in a suspended state on the movable rail 120 installed above the bed 1 and can move along the longitudinal direction of the movable rail 120 .

상기 촬영유닛(200)은 로봇(110)에 설치된 상태로 로봇(110)과 함께 이동하면서 배드(1)의 작물을 촬영하는 구성요소이다.The photographing unit 200 is a component for photographing crops of the bed 1 while moving with the robot 110 in a state installed on the robot 110 .

이러한 촬영유닛(200)은 후술되는 승강유닛(300)을 매개로 로봇(110)에 설치되어 소정의 높이로 조절되면서 촬영을 수행할 수 있다.The photographing unit 200 may be installed in the robot 110 via the elevating unit 300 to be described later, and may perform photographing while being adjusted to a predetermined height.

구체적으로, 촬영유닛(200)은 실시예에 따르면, PTZ(Pan Tilt Zoom) 카메라로 구성되어 렌즈의 회전, 각도 및 확대가 제어부(500)에 의해 원격으로 제어될 수 있으며, 피사체의 상을 받아들여, 광 신호를 수신하여 이를 전기적 신호로 변환한 후, 변환된 신호를 영상 신호로 생성하여 이미지를 생성할 수 있다.Specifically, according to the embodiment, the photographing unit 200 is composed of a PTZ (Pan Tilt Zoom) camera so that the rotation, angle, and magnification of the lens can be remotely controlled by the controller 500, and the image of the subject is received. After receiving an optical signal, converting it into an electrical signal, and generating an image signal from the converted signal, an image may be generated.

이에 따라, 촬영유닛(200)은 회전을 통해 2열의 배드(1)의 사이에서 회전하면서 촬영을 수행함으로써 로봇(110)의 양쪽에 각각 배치된 배드(1)의 작물을 제각기 촬영하여 이미지를 생성할 수 있다.Accordingly, the photographing unit 200 generates images by photographing the crops of the beds 1 disposed on both sides of the robot 110 respectively by performing shooting while rotating between the two rows of beds 1 through rotation. can do.

또한, 촬영유닛(200)은 오토포커싱 기능을 탑재하고 있어 피사체에 대한 초점을 자동으로 맞출 수 있다. 이러한 촬영유닛(200)은 실시예에 따르면, EO(Electro-Optical) 센서(전자광학센서) 또는 IR(infrared) 센서(적외선 센서)로 구현될 수 있으며 그에 따라 화각(FOV; field of view) 내의 대상을 촬영할 수 있고 분석의 대상이 되는 촬영이미지를 생성할 수 있다. 또한 화각 내에서 촬영될 장면에 관한 이미지로서 화각 내의 대상을 표현하는 임시이미지도 촬영유닛(200)은 제어부(500)로 전달할 수 있다.In addition, the recording unit 200 is equipped with an auto-focusing function can automatically focus on the subject. According to the embodiment, the photographing unit 200 may be implemented as an EO (Electro-Optical) sensor (electro-optical sensor) or an IR (infrared) sensor (infrared ray sensor), and accordingly within the field of view (FOV). A subject can be photographed and a photographed image to be analyzed can be created. In addition, as an image of a scene to be photographed within the angle of view, the photographing unit 200 may transmit a temporary image representing an object within the angle of view to the controller 500 .

상기 승강유닛(300)은 이동유닛(100)을 구성하는 로봇(110)에 설치되어 촬영유닛(200)을 승강 가능하게 지지하는 구성요소이며, 제어부(500)의 제어에 의해 작동하면서 촬영유닛(200)의 높이를 조절하기 위한 구성요소이다.The lifting unit 300 is installed on the robot 110 constituting the moving unit 100 and is a component supporting the shooting unit 200 so as to be able to move up and down, while operating under the control of the controller 500, the shooting unit ( 200) is a component for adjusting the height.

즉, 승강유닛(300)은 배드(1)에 식재된 작물의 생장점과 같은 타깃객체에 대응하는 높이로 촬영유닛(200)을 승강시키는 구성요소이다.That is, the elevating unit 300 is a component for elevating the photographing unit 200 to a height corresponding to a target object, such as a growth point of crops planted on the bed 1.

이러한 승강유닛(300)은 도 1에 발췌 도시된 바와 같이 텔레스코픽봉(310) 및 길이조절부재(320)를 포함하여 구성될 수 있다.As shown in FIG. 1, the lifting unit 300 may include a telescopic rod 310 and a length adjusting member 320.

상기 텔레스코픽봉(310)은 이동유닛(100)을 구성하는 로봇(110)과 촬영유닛(200)을 연결하면서 길이가 신축하는 구성요소이다.The telescopic rod 310 is a component whose length expands and contracts while connecting the robot 110 constituting the moving unit 100 and the photographing unit 200.

구체적으로, 텔레스코픽봉(310)은 복수로 분할된 텔레스코픽 구조의 봉으로 구성되어 하단부가 로봇(110)에 고정되면서 상단부에 촬영유닛(200)이 설치될 수 있으며, 단위봉들의 인출을 통해 길이가 늘어나거나 단위봉들의 인입을 통해 길이가 줄어들면서 촬영유닛(200)을 승강시킬 수 있다.Specifically, the telescopic rod 310 is composed of a rod of a telescopic structure divided into a plurality of rods, the lower end is fixed to the robot 110, the recording unit 200 can be installed on the upper end, and the length is increased through the withdrawal of the unit rods. It is possible to elevate the photographing unit 200 while the length is reduced through the introduction of the increased or unit rods.

상기 길이조절부재(320)는 텔레스코픽봉(310)의 길이를 조절함으로써 촬영유닛(200)을 소정의 높이로 조절하기 위한 구성요소이다.The length adjusting member 320 is a component for adjusting the recording unit 200 to a predetermined height by adjusting the length of the telescopic rod 310 .

이러한 길이조절부재(320)는 후술되는 제어부(500)에서 결정되는 촬영유닛(200)의 촬영상태정보를 기반으로 작동하면서 텔레스코픽봉(310)의 길이를 소정의 길이로 조절할 수 있다.The length adjusting member 320 may adjust the length of the telescopic rod 310 to a predetermined length while operating based on the photographing state information of the photographing unit 200 determined by the controller 500 to be described later.

구체적으로, 길이조절부재(320)는 도 1에 발췌 도시된 바와 같이 랙기어(321) 및 피니언기어(322)를 포함하여 구성될 수 있다.Specifically, the length adjusting member 320 may include a rack gear 321 and a pinion gear 322 as shown in FIG.

랙기어(321)는 텔레스코픽봉(310)의 일부분에 길이방향을 따라 톱니형태를 이루면서 형성될 수 있다.The rack gear 321 may be formed on a portion of the telescopic rod 310 in a sawtooth shape along the longitudinal direction.

피니언기어(322)는 랙기어(321)를 직선운동시키기 위한 구성요소로, 랙기어(321)와 맞물린 상태로 정회전 또는 역회전하면서 랙기어(321)를 전전후진시키는 구성요소이다.The pinion gear 322 is a component for linear motion of the rack gear 321, and is a component for moving the rack gear 321 forward and backward while forward or reverse rotation while being engaged with the rack gear 321.

이러한 피니언기어(322)는 제어부(500)의 제어에 의해 회전하는 미도시된 구동모터에 연결될 수 있으며, 제어부(500)에 의한 정회전을 통해 랙기어(321)를 전진시키면서 텔레스코픽봉(310)의 길이를 확장시키거나, 역회전을 통해 랙기어(321)를 로봇(110) 방향으로 후진시키면서 텔레스코픽봉(310)의 길이를 축소시킬 수 있다.The pinion gear 322 may be connected to a drive motor (not shown) that rotates under the control of the control unit 500, and the telescopic rod 310 moves forward while the rack gear 321 moves forward through forward rotation by the control unit 500. The length of the telescopic rod 310 may be reduced while extending the length of the rack or moving the rack gear 321 backward in the direction of the robot 110 through reverse rotation.

한편, 길이조절부재(320)는 유압펌프 또는 공압펌프로 구성되어 제어부(500)의 제어에 의해 작동하면서 유압이나 공압을 공급함으로써 텔레스코픽봉(310)의 길이를 신축시킬 수 있다.On the other hand, the length adjusting member 320 is composed of a hydraulic pump or a pneumatic pump and operates under the control of the control unit 500 to supply hydraulic pressure or pneumatic pressure so that the length of the telescopic rod 310 can be expanded or contracted.

상기 메모리(400)는 후술하는 제어부(500)에서 결정되는 촬영유닛(200)의 촬영상태정보를 저장하는 구성요소이다.The memory 400 is a component that stores photographing state information of the photographing unit 200 determined by the controller 500 to be described later.

또한, 메모리(400)에는 파일, 어플리케이션 및 프로그램 등과 같은 다양한 종류의 데이터가 설치 및 저장될 수 있다.In addition, various types of data such as files, applications, and programs may be installed and stored in the memory 400 .

한편, 전술한 촬영유닛(200)은 제어부(500)의 제어를 통해 작물을 촬영하면서 제1 이미지 및 제2 이미지를 제어부(500)로 제공할 수 있다.Meanwhile, the aforementioned photographing unit 200 may provide a first image and a second image to the controller 500 while photographing crops under the control of the controller 500 .

관련하여 이하에서는 설명의 편의상, 전체 영역 내에서 타깃객체에 대응되는 이미지가 소정의 크기 이상의 면적을 차지하는 이미지를 '제2이미지'라 칭하며, 그 이외의 이미지는 '제1이미지'라 칭한다.Hereinafter, for convenience of description, an image corresponding to a target object occupying an area of a predetermined size or more within the entire area is referred to as a 'second image', and other images are referred to as a 'first image'.

상기 제어부(500)는 제1 이미지에 기초하여 촬영유닛(200)의 촬영상태정보를 결정하고, 이를 기초로 작물의 일부분 중 생장점과 같은 타깃객체를 촬영하도록 이동유닛(100)과 촬영유닛(200) 및 승강유닛(300)을 제어하는 구성요소이며, 또한, 타깃객체를 촬영한 제2 이미지를 기반으로 작물에 대한 진단 정보를 생성하여 제공하는 구성요소이다.The control unit 500 determines the photographing state information of the photographing unit 200 based on the first image and, based on this, moves the moving unit 100 and the photographing unit 200 to photograph a target object such as a growing point among parts of a crop. ) and a component that controls the lifting unit 300, and also a component that generates and provides diagnostic information on crops based on the second image of the target object.

이러한 제어부(500)는 작물 모니터링 장치(10)의 전체적인 동작을 제어하며, CPU 또는 GPU 등과 같은 프로세서를 포함할 수 있다. 또한, 메모리(400)에 저장된 프로그램을 실행시키거나, 메모리(400)에 저장된 파일을 읽어오거나, 새로운 파일을 메모리(400)에 저장할 수도 있다.The control unit 500 controls the overall operation of the crop monitoring device 10 and may include a processor such as a CPU or GPU. Also, a program stored in the memory 400 may be executed, a file stored in the memory 400 may be read, or a new file may be stored in the memory 400 .

구체적으로, 제어부(500)는 제1 이미지에서 타깃후보객체를 하나 이상 식별해낼 수 있다.Specifically, the controller 500 may identify one or more target candidate objects in the first image.

예를 들어, 제어부(500)는 촬영유닛(200)이 생성한 이미지가 작물 전체를 촬영한 것이라면, 해당 촬영이미지 내에서는 타깃객체인 작물의 생장점이 복수 개 존재할 수 있다. 따라서 제어부(500)는 획득한 이미지 내에서, 타깃객체로 추정되는 타깃후보객체를 하나 이상 식별해낼 수 있다.For example, if the image generated by the photographing unit 200 is a photograph of the entire crop, the control unit 500 may have a plurality of growing points of the crop, which is a target object, in the photographed image. Therefore, the controller 500 can identify one or more target candidate objects estimated as target objects in the acquired image.

이를 위해 제어부(500)는 YOLO(YOU ONLY LOOK ONCE) 모델 또는 R-CNN(REGION BASED CONVOLUTIONAL NEURAL NETWORK) 모델, SSD(SINGLE SHOT MULTIBOX DETECTOR) 모델 등의 타깃객체 검출에 유리한 객체 식별 모델로 구현된 인공신경망을 학습시키고, 학습된 인공신경망에 기반하여 제1이미지 내에서의 타깃후보객체를 식별해낼 수 있다.To this end, the control unit 500 uses artificial intelligence implemented with an object identification model advantageous for target object detection, such as a YOU ONLY LOOK ONCE (YOLO) model, a REGION BASED CONVOLUTIONAL NETWORK (R-CNN) model, or a SINGLE SHOT MULTIBOX DETECTOR (SSD) model. A neural network may be trained, and a target candidate object in the first image may be identified based on the learned artificial neural network.

예를 들어, 제어부(500)는 작물의 생장점이 타깃객체일 경우, 작물을 촬영한 제1이미지를 학습된 인공신경망에 입력하여 제1이미지 내에서의 생장점을 식별해내고 식별된 위치를 바운딩박스로 처리함으로써 타깃후보객체를 추출해낼 수 있다.For example, when the growing point of a crop is a target object, the control unit 500 inputs a first image obtained by photographing the crop to the learned artificial neural network to identify the growing point in the first image and places the identified location in a bounding box. By processing with , the target candidate object can be extracted.

그에 따라 제어부(500)는 제1이미지 내에서 타깃후보객체의 위치좌표 및 타깃후보객체의 개수를 결정할 수 있다.Accordingly, the controller 500 may determine the location coordinates of target candidate objects and the number of target candidate objects in the first image.

예를 들어 제어부(500)는 제1이미지 내에서 타깃객체후보 영역이 바운딩박스로 구분된다면, 바운딩박스의 중심점 또는 바운딩박스의 일 꼭지점을 위치좌표로 추출할 수 있고, 또한 바운딩박스의 개수를 카운팅하여 타깃후보객체의 개수를 결정할 수 있다.For example, if the target object candidate area in the first image is divided into bounding boxes, the control unit 500 can extract the center point of the bounding box or one vertex of the bounding box as location coordinates, and also counts the number of bounding boxes. Thus, the number of target candidate objects can be determined.

그리고 일 실시예에 따르면, 제어부(500)는 타깃후보객체가 복수개라면, 제2이미지의 획득을 위해 복수 개의 타깃후보객체 중 하나를 선택하고 선택된 타깃후보객체를 타깃객체로 결정할 수 있다.According to an embodiment, if there are a plurality of target candidate objects, the controller 500 may select one of the plurality of target candidate objects and determine the selected target candidate object as the target object in order to acquire the second image.

그리고, 선택된 타깃후보객체에 관한 진단정보가 생성된다면, 제어부(500)는 제1이미지 내에서 식별된 다른 타깃후보객체를 타깃객체로 선정할 수 있으며, 제1이미지 내에서 모든 타깃후보객체에 관한 진단정보가 생성될 때까지 위 과정을 반복할 수 있다.And, if diagnostic information about the selected target candidate object is generated, the controller 500 may select another target candidate object identified in the first image as the target object, and the controller 500 may select all target candidate objects in the first image. The above process may be repeated until diagnostic information is generated.

또 다른 실시예에 따르면, 제어부(500)는 타깃후보객체가 한 개라면 상기 한 개의 타깃후보객체를 타깃객체로 결정할 수 있다.According to another embodiment, if there is one target candidate object, the control unit 500 may determine the one target candidate object as the target object.

제어부(500)는 현재의 촬영상태정보, 현재의 거리정보 및 제1이미지 내에서의 타깃객체의 위치좌표에 기초하여 촬영상태정보를 결정할 수 있다.The controller 500 may determine the photographing state information based on the current photographing state information, the current distance information, and the positional coordinates of the target object in the first image.

이를 위해 제어부(500)는 타깃객체의 위치좌표를 결정할 수 있다.To this end, the control unit 500 may determine the location coordinates of the target object.

실시예에 따르면 제어부(500)는 제1이미지 내에서 타깃객체의 식별을 위해 타깃후보객체를 에워싸는 바운딩박스의 중심점의 좌표를 연산하고 중심점의 좌표를 타깃객체의 위치좌표로 결정하거나, 또는 바운딩박스의 일 꼭지점의 좌표를 타깃객체의 위치좌표로 결정할 수 있다.According to the embodiment, the control unit 500 calculates the coordinates of the center point of the bounding box surrounding the target candidate object in order to identify the target object in the first image, and determines the coordinates of the center point as the location coordinates of the target object, or The coordinates of one vertex of can be determined as the location coordinates of the target object.

또 다른 실시예에 따르면 제어부(500)는 타깃객체 중에서 소정의 화소값을 갖는 위치의 좌표를 타깃객체의 위치좌표로 결정할 수 있는데 예를 들어, 타깃객체로 판단되는 영역 내에서 가장 밝은 화소값을 갖는 위치를 타깃객체의 위치좌표로 결정할 수 있다.According to another embodiment, the control unit 500 may determine the coordinates of a position having a predetermined pixel value among target objects as the position coordinates of the target object. For example, the brightest pixel value in an area determined as the target object The location of the target object can be determined by the location coordinates of the target object.

또한 제어부(500)는 현재의 촬영상태정보를 획득할 수 있다. 이때 현재의 촬영상태정보는 가장 최신의 촬영상태정보를 업데이트하고 있는 메모리(400)로부터 획득할 수 있다.In addition, the controller 500 may obtain current photographing state information. At this time, the current photographing state information may be acquired from the memory 400 updating the most recent photographing state information.

여기서, '촬영상태정보'는 팬(PAN) 각도, 틸트(TILT) 각도 및 줌 배율 중 적어도 하나를 포함할 수 있다. 또한 촬영상태정보는 추가로 포커싱값을 더 포함할 수 있다. 예를 들어 촬영상태정보에 따라 제어부(500)는 촬영유닛(200)을 상하좌우로 이동시키거나, 렌즈의 줌 배율을 조정하거나 포커싱을 조절하여 원거리/근거리의 피사체를 적절하게 촬영할 수 있도록 할 수 있다.Here, 'capturing state information' may include at least one of a pan angle, a tilt angle, and a zoom magnification. Also, the photographing state information may further include a focusing value. For example, the control unit 500 may move the photographing unit 200 up, down, left, or right according to the photographing state information, adjust the zoom magnification of the lens, or adjust the focusing so that a far/near subject may be appropriately photographed. there is.

또한 촬영상태정보는 추가로, 촬영시의 환경에 관한 정보를 포함할 수 있으며, 예를 들어, 조도, 온도, 습도 및 풍속 등의 정보를 포함할 수 있다.Also, the photographing state information may additionally include information about the environment at the time of photographing, and may include, for example, information such as illuminance, temperature, humidity, and wind speed.

제어부(500)는 제1 이미지의 중심좌표가 피사체를 바라보는 촬영장치의 팬 각도 및 틸트 각도이므로 해당 팬 각도 및 틸트 각도를 현재의 촬영상태정보로 획득할 수 있다.Since the center coordinates of the first image are the pan and tilt angles of the photographing device looking at the subject, the controller 500 may obtain the corresponding pan and tilt angles as current photographing state information.

또한 제어부(500)는 현재의 거리정보를 획득할 수 있는데, 실시예에 따르면 거리측정부(130)로부터 획득할 수 있다. 따라서 예를 들어 제1이미지의 중심좌표에 대응되는 피사체까지의 거리를, 거리측정부(130)가 측정하여 획득할 수 있다.In addition, the control unit 500 may obtain current distance information, which may be obtained from the distance measurement unit 130 according to an embodiment. Therefore, for example, the distance to the subject corresponding to the center coordinates of the first image may be obtained by measuring the distance measuring unit 130 .

이러한 거리측정부(130)는 하나의 실시예로서, TOF(TIME OF FLIGHT) 원리를 기반으로 촬영유닛(200)에서부터 타깃객체까지의 거리를 측정할 수 있다. 예를 들어, 거리측정부(130)는 지향성이 우수한 레이저를, 거리 측정하고자 하는 타깃객체에 대해 발사한 뒤, 레이저가 타깃객체로부터 반사되어 돌아온 시간을 측정하여 거리를 계산할 수 있다.As one embodiment, the distance measuring unit 130 may measure the distance from the photographing unit 200 to the target object based on the principle of time of flight (TOF). For example, the distance measurement unit 130 may calculate the distance by emitting a laser having excellent directivity to a target object to be measured and then measuring the time the laser is reflected from the target object and returns.

이러한 거리측정부(130)는 예를 들어, 레이저 거리측정기로 구현되거나, 뎁스 카메라로 구현될 수 있다. 다만 거리측정부(130)가 타깃객체까지 거리를 측정하는 방식은 상술된 예에 제한되는 것은 아니다.This distance measurement unit 130 may be implemented as, for example, a laser distance finder or a depth camera. However, the method of measuring the distance to the target object by the distance measurement unit 130 is not limited to the above-described example.

따라서 실시예에 따르면, 제어부(500)는 제1이미지의 중심좌표에서부터 타깃객체의 위치좌표 간의 좌표차이를 연산하고, 현재의 거리정보에 기초하여 위치좌표를 촬영하기 위한 팬 각도 및 틸트 각도를 연산할 수 있다. 그리고 연산된 팬 각도 및 틸트 각도를 현재의 촬영상태정보에 반영함으로써 촬영상태정보를 생성할 수 있다.Therefore, according to the embodiment, the control unit 500 calculates the coordinate difference between the center coordinates of the first image and the location coordinates of the target object, and calculates the pan angle and tilt angle for capturing the location coordinates based on the current distance information can do. Also, photographing state information may be generated by reflecting the calculated pan angle and tilt angle to the current photographing state information.

그에 따라 제어부(500)는 이동유닛(100) 및 승강유닛(300)이 작동하도록 제어할 수 있으며 그에 따라 타깃객체가 촬영유닛(200)의 화각 내에 위치할 수 있다.Accordingly, the control unit 500 can control the moving unit 100 and the lifting unit 300 to operate, and accordingly, the target object can be positioned within the angle of view of the photographing unit 200 .

또한, 제어부(500)는 승강유닛(300)을 제어할 경우, 제1 이미지 내에서 배드(1)를 타깃객체로 식별하면서 배드(1)를 기반으로 승강유닛(300)을 제어할 수 있다.In addition, when controlling the lifting unit 300, the control unit 500 may control the lifting unit 300 based on the bed 1 while identifying the bed 1 as a target object in the first image.

예를 들어, 제어부(500)는 타깃객체로 식별된 배드(1)의 경계선을 기반으로 승강유닛(300)을 제어할 수 있으며, 촬영유닛(200)의 높이를 배드(1)의 경계선 중앙에 위치하도록 승강유닛(300)을 제어할 수 있다.For example, the controller 500 may control the lifting unit 300 based on the boundary of the bed 1 identified as the target object, and set the height of the recording unit 200 to the center of the boundary of the bed 1. It is possible to control the lifting unit 300 to position.

추가로 제어부(500)는, 촬영상태정보에 기초하여 이동유닛(100)이 이동한 이후, 촬영유닛(200)이 타깃객체를 보다 정밀하게 촬영하도록 촬영상태정보를 갱신할 수 있다.In addition, the control unit 500 may update the photographing state information so that the photographing unit 200 more precisely photographs the target object after the moving unit 100 moves based on the photographing state information.

실시예에 따라 제어부(500)는 타깃객체에 대해 촬영유닛(200)이 촬영할 수 있도록 포커싱값을 결정할 수 있다.Depending on the embodiment, the control unit 500 may determine a focusing value so that the photographing unit 200 can photograph the target object.

예를 들어, 제어부(500)는 타깃객체까지의 거리에 기초하여 초점을 맞추기 위한 포커싱값을 연산할 수 있으며, 이를 위해 거리측정부(130)로 하여금 촬영유닛(200)에서부터 타깃객체까지의 거리를 측정하도록 할 수 있다.For example, the controller 500 may calculate a focusing value for focusing based on the distance to the target object, and for this, the distance measurement unit 130 may operate the distance from the photographing unit 200 to the target object can be measured.

또한 예를 들어, 제어부(500)는 촬영유닛(200)에 구비된 오토포커싱 기능을 동작시키고 그에 따라 결정된 포커싱값을 메모리(400)에 저장할 수 있다.Also, for example, the controller 500 may operate an auto-focusing function provided in the photographing unit 200 and store the focusing value determined accordingly in the memory 400 .

또 다른 실시예에 따라 제어부(500)는 촬영유닛(200)을 통해 보이는 화각 내 이미지에서, 타깃객체에 관한 이미지 영역이 전체 이미지 영역 내에서 소정의 비율 이상을 차지하도록 줌 배율을 정할 수 있다.According to another embodiment, the control unit 500 may set a zoom magnification so that an image area related to a target object occupies a predetermined ratio or more within the entire image area in an image within an angle of view seen through the photographing unit 200 .

이를 위해 예를 들어 제어부(500)는 픽셀 비율을 분석함으로써 타깃객체에 관한 이미지 영역이 전체 이미지 영역 내에서 소정의 비율 이상을 차지하도록 줌 배율을 정할 수 있다. 즉 제어부(500)는 타깃객체에 대응되는 픽셀의 개수가, 이미지의 전체 픽셀 개수 중 소정의 개수 이상 차지하도록 줌 배율을 조정할 수 있다.To this end, for example, the controller 500 may determine a zoom magnification such that an image area related to the target object occupies a predetermined ratio or more within the entire image area by analyzing a pixel ratio. That is, the control unit 500 may adjust the zoom magnification so that the number of pixels corresponding to the target object occupies a predetermined number or more among the total number of pixels of the image.

이를 위해 제어부(500)는 화각 내 피사체 이미지 내에서 타깃객체로 추청되는 영역의 픽셀을 카운팅할 수 있다. 예를 들어, 타깃객체에 대응되는 색상의 픽셀을, 타깃객체로 추정되는 영역의 픽셀로 판단하고 제어부(500)는 타깃객체로 추정되는 영역의 픽셀을 카운팅할 수 있다.To this end, the controller 500 may count pixels of an area inferred as a target object within the subject image within the field of view. For example, pixels having a color corresponding to the target object may be determined as pixels in an area estimated to be the target object, and the controller 500 may count pixels in the area estimated to be the target object.

또한 예를 들어, 제어부(500)는 타깃객체가 차지하는 면적을 연산하고, 타깃객체의 면적이 이미지의 면적에서 소정의 비율 이상 차지하도록 줌 배율을 조정할 수 있다. 따라서, 타깃객체가 귤일 때 원형의 과실인 귤의 가로 비율을 측정하여, 이미지 내에서 귤이 차지하는 면적을 원의 넓이를 계산하는 방식으로 연산함으로써 귤에 관한 이미지가 전체 이미지에서 차지하는 비율을 계산할 수 있다.Also, for example, the controller 500 may calculate the area occupied by the target object and adjust the zoom magnification so that the area of the target object occupies a predetermined ratio or more in the area of the image. Therefore, when the target object is a tangerine, the ratio of the tangerine image to the entire image can be calculated by measuring the horizontal ratio of the tangerine, which is a circular fruit, and calculating the area occupied by the tangerine in the image by calculating the area of the circle. there is.

또는 예를 들어, 제어부(500)는 타깃객체의 경계를 식별하여 타깃객체의 크기를 연산함으로써 타깃객체에 관한 이미지 영역이 전체 이미지 영역 내에서 소정의 비율 이상을 차지하도록 줌 배율을 조정할 수 있다.Alternatively, for example, the controller 500 may adjust the zoom magnification so that the image area of the target object occupies a predetermined ratio or more within the entire image area by identifying the boundary of the target object and calculating the size of the target object.

또는 예를 들어, 제어부(500)는 타깃객체의 경계를 식별하여 타깃객체의 경계와 이미지의 경계 간의 거리가 소정의 거리 이내가 되도록 줌 배율을 조정할 수 있다.Alternatively, for example, the controller 500 may identify the boundary of the target object and adjust the zoom magnification so that the distance between the boundary of the target object and the boundary of the image is within a predetermined distance.

상술된 바에 따라 포커싱값 및 줌 배율이 연산되면 제어부(500)는 촬영상태정보를 갱신할 수 있다. 즉, 제어부(500)는 촬영유닛(200)으로 하여금 연산된 포커싱값 및 줌 배율에 따라 피사체를 촬영하도록 제어할 수 있다.When the focusing value and the zoom magnification are calculated as described above, the controller 500 may update the photographing state information. That is, the controller 500 may control the photographing unit 200 to photograph a subject according to the calculated focusing value and zoom magnification.

그에 따라 제어부(500)는 타깃객체가 포함된 제2이미지를 획득할 수 있다.Accordingly, the controller 500 may acquire the second image including the target object.

그리고 제어부(500)는 제2이미지를 분석함으로써 타깃객체의 생육정보 및 병해충정보 중 적어도 하나를 진단정보로서 생성할 수 있다.Further, the controller 500 may generate at least one of growth information and pest information of the target object as diagnosis information by analyzing the second image.

관련하여 진단정보는, 이동유닛(100) 또는 촬영유닛(200)이 위치한 공간에서의 타깃객체의 위치좌표에 관한 정보도 포함할 수 있으며, 예를 들어 진단정보를 생성할 때의 이동유닛(100) 또는 촬영유닛(200)의 gps 정보 또는 이동유닛(100) 또는 촬영유닛(200)가 위치한 구획에 관한 정보 등을 포함할 수 있다. 관련하여 구획정보는, 예를 들어, 작물의 생육시설이나 구체적인 배드(1) 위치 등을 식별하기 위한 정보일 수 있으며, 구체적으로, 하나 이상의 과실(또는 꽃, 또는 잎 또는 줄기)이 존재하는 작물 식별정보 또는 작물이 위치하는 배드(1)의 식별정보일 수 있다.In relation to this, the diagnostic information may also include information about the positional coordinates of the target object in the space where the moving unit 100 or the photographing unit 200 is located, and for example, when generating the diagnostic information, the moving unit 100 ) Or the GPS information of the recording unit 200 or the mobile unit 100 or the recording unit 200 may include information about the section where it is located. In relation to this, the section information may be, for example, information for identifying the growth facility of the crop or the location of the specific bed 1, and specifically, a crop in which one or more fruits (or flowers, leaves, or stems) are present. It may be identification information or identification information of the bed 1 in which crops are located.

제어부(500)는 진단정보의 생성을 위해 타깃객체와 배경을 분리하여, 제2이미지 내에서 타깃객체를 식별할 수 있다.The controller 500 may identify the target object in the second image by separating the target object and the background in order to generate diagnosis information.

예를 들어, 제어부(500)는, 타깃객체의 엣지(edge)를 딥러닝 모델을 기반으로 식별함으로써, 엣지 내에 위치한 타깃객체와, 엣지 외부에 위치한 배경을 분리해낼 수 있다.For example, the controller 500 may separate the target object located within the edge and the background located outside the edge by identifying the edge of the target object based on the deep learning model.

제어부(500)는 제2이미지를 분석하여 생육정보를 생성할 수 있다.The controller 500 may generate growth information by analyzing the second image.

이때 생육정보는 타깃객체가 예를 들어 과실일 때, 수확 가능 시기를 판단하기 위해 어느정도 성장하였는지에 관한 정보로서, 예를 들어, 품종, 크기, 착색도 등의 정보를 포함할 수 있으며, 또한 크기와 착색도에 기반하여 생장시기 중 어느 시기인지에 관한 정보도 포함할 수 있다.At this time, the growth information is information about how much the target object has grown to determine the harvestable time when the target object is, for example, a fruit, and may include, for example, information such as variety, size, and coloration, and also size and coloration. Based on , information on which period of the growth period is also included.

실시예에 따르면 제어부(500)는 타깃객체의 크기를 측정할 수 있다.According to the embodiment, the controller 500 may measure the size of the target object.

제어부(500)는 제2이미지 내에서의 엣지 내의 타깃객체의 가로 및 세로의 길이와, 타깃객체까지의 거리에 기초하여 실제 타깃객체의 가로 및 세로의 길이를 연산할 수 있다. 연산된 가로 및 세로의 길이를 기반으로 타깃객체의 크기를 결정할 수 있다.The controller 500 may calculate the horizontal and vertical lengths of the actual target object based on the horizontal and vertical lengths of the target object within the edge of the second image and the distance to the target object. The size of the target object can be determined based on the calculated horizontal and vertical lengths.

실시예에 따르면, 제어부(500)는 타깃객체의 품종 및 타깃객체의 색상에 따라 착색도를 측정할 수 있다.According to the embodiment, the controller 500 may measure the degree of coloring according to the type and color of the target object.

예를 들어 제어부(500)는 타깃객체의 품종이 딸기일 때 빨간색 정도를 측정하여 착색도를 측정할 수 있다.For example, the controller 500 may measure the coloration degree by measuring the degree of red color when the variety of the target object is strawberry.

상술된 바에 따라 측정된 크기 및 착색도를 제어부(500)는 생육정보로서 생성할 수 있다.The controller 500 may generate the size and coloration measured as described above as growth information.

또한, 제어부(500)는, 타깃객체의 품종, 크기 및 착색도에 기초하여 타깃객체의 생장단계를 결정할 수 있다. 따라서 예를 들어, 타깃객체가 충분히 성장하여 수확해야 할 시기라면, 수확시기임을 생육정보에 추가할 수 있다.Also, the controller 500 may determine the growth stage of the target object based on the variety, size, and coloration of the target object. Therefore, for example, if the target object is sufficiently grown and is to be harvested, the harvest time may be added to the growth information.

반면 제어부(500)는 제2이미지를 분석하여 타깃객체의 병해충정보를 생성할 수 있다.On the other hand, the control unit 500 may analyze the second image to generate pest information of the target object.

이를 위해 제어부(500)는 품종 별, 해충 피해 별, 병균(또는 바이러스) 별로 타깃객체가 가질 수 있는 모습이 포함된 이미지를 입력하여 병해충 영역을 출력하도록 딥러닝 모델을 학습시킬 수 있다. 이 때의 딥러닝 모델은 CNN(CONVOLUTIONAL NEURAL NETWORK), RNN(RECURRENT NEURAL NETWORK) 등이 될 수 있다. 그리고 학습된 딥러닝 모델에 제2이미지를 입력할 수 있으며, 이때 엣지가 식별된 제2이미지를 입력하여 타깃객체에 대응되는 영역에서 병해충 영역을 검출하여 표시하도록 할 수 있다.To this end, the controller 500 may train a deep learning model to output pest areas by inputting an image including a possible appearance of a target object for each species, pest damage, and germ (or virus). The deep learning model at this time may be a CONVOLUTIONAL NEURAL NETWORK (CNN) or a RECURRENT NEURAL NETWORK (RNN). In addition, a second image may be input to the learned deep learning model, and at this time, a pest area may be detected and displayed in an area corresponding to the target object by inputting the second image in which the edge is identified.

또한 제어부(500)는 품종 별, 해충 별 타깃객체가 가질 수 있는 모습이 포함된 이미지를 입력하여 해충을 식별해낼 수 있도록 딥러닝 모델을 학습시킬 수 있다. 이 때의 딥러닝 모델은 CNN(CONVOLUTIONAL NEURAL NETWORK), RNN(RECURRENT NEURAL NETWORK) 등이 될 수 있다. 그리고 학습된 딥러닝 모델에 제2이미지를 입력할 수 있으며, 이때 해충의 위치를 검출하여 표시하도록 하거나, 해충의 개수 또는 해충의 종류를 검출하여 표시하도록 할 수 있다.In addition, the controller 500 may input an image including a shape that a target object for each breed and each pest may have, and train a deep learning model to identify pests. The deep learning model at this time may be a CONVOLUTIONAL NEURAL NETWORK (CNN) or a RECURRENT NEURAL NETWORK (RNN). In addition, the second image may be input to the learned deep learning model, and at this time, the location of pests may be detected and displayed, or the number or type of pests may be detected and displayed.

아울러 제어부(500)는 진단정보를 검증할 수 있다.In addition, the control unit 500 may verify diagnostic information.

작물의 경우 해충이 존재하거나 질병이 있는 경우 통상 하나의 개체에서만 발견되지 않고 군집으로 발견되는 경우가 많으므로, 일 타깃객체에 대해 진단정보로서 병해충이 검출되었을 때, 제어부(500)는 다른 타깃객체에 관한 진단정보를 비교함으로써 진단정보를 검증할 수 있다.In the case of crops, when pests exist or have diseases, they are often found in a group rather than a single individual, so when a pest is detected as diagnostic information for one target object, the control unit 500 detects another target object The diagnostic information can be verified by comparing the diagnostic information about the .

예를 들어, 일 타깃객체에 대해 해충이 발견되었음을 나타내는 진단정보가 생성되었다면, 제어부(500)는 다른 타깃객체에 관한 진단정보에서 해충에 관한 정보가 포함되지 않았다면, 생성된 진단정보가 잘못 생성되었다고 판단하고 제2이미지의 분석을 다시 진행할 수 있다.For example, if diagnostic information indicating that a pest has been found for one target object is generated, the control unit 500 determines that the generated diagnostic information is incorrectly generated if no pest information is included in the diagnostic information for another target object. After determining, the analysis of the second image may be performed again.

이때 다른 타깃객체는 검증의 대상이 되는 타깃객체와 소정의 범위 내에 위치한 것일 수 있다. 예를 들어 다른 타깃객체는 검증 대상 타깃객체와 같은 이미지 내에서 촬영되었던 타깃객체일 수 있다. 또는 예를 들어 다른 타깃객체는, 진단정보에 포함된 위치정보를 기준으로 소정의 범위 내에 위치한 타깃객체일 수 있다.At this time, another target object may be located within a predetermined range of the target object to be verified. For example, another target object may be a target object captured in the same image as the target object to be verified. Alternatively, for example, another target object may be a target object located within a predetermined range based on location information included in the diagnosis information.

한편, 한편 메모리(400)에는 파일, 어플리케이션 및 프로그램 등과 같은 다양한 종류의 데이터가 설치 및 저장될 수 있다.Meanwhile, various types of data such as files, applications, and programs may be installed and stored in the memory 400 .

이때, 제어부(500)는 메모리(400)에 저장된 데이터에 접근하여 이를 이용하거나, 또는 새로운 데이터를 메모리(400)에 저장할 수도 있다. 또한, 제어부(500)는 메모리(400)에 설치된 프로그램을 실행할 수도 있다. 예를 들어, 메모리(400)는 이동유닛(100), 촬영유닛(200) 및 승강유닛(300)을 제어하여 촬영방법을 수행하기 위한 프로그램이 설치될 수 있으며, 또는 촬영상태정보를 저장할 수도 있다. 메모리(400)는 또한 촬영장치의 팬 각도 또는 틸트 각도를 원점으로 되돌리기 위해 최초 촬영상태정보도 저장할 수 있고, 촬영상태정보가 갱신되면 갱신된 촬영상태정보도 저장할 수 있다.At this time, the controller 500 may access and use the data stored in the memory 400 or may store new data in the memory 400 . Also, the controller 500 may execute a program installed in the memory 400 . For example, the memory 400 may be installed with a program for performing a photographing method by controlling the moving unit 100, the photographing unit 200, and the elevating unit 300, or may store photographing state information. . The memory 400 may also store initial photographing state information in order to return the pan angle or tilt angle of the photographing device to the origin, and may also store updated photographing state information when the photographing state information is updated.

한편, 제어부(500)는 통신부(550)를 통해 다른 장치 또는 네트워크와 유무선 통신을 수행할 수 있다.Meanwhile, the controller 500 may perform wired/wireless communication with other devices or networks through the communication unit 550 .

가령 통신부(550)는 입출력장치(미도시) 또는 전자단말(미도시)과 통신하여 작물의 촬영을 수행하기 위한 각종 정보를 송수신할 수 있다. 이를 위해, 통신부(550)는 다양한 유무선 통신 방법 중 적어도 하나를 지원하는 통신 모듈을 포함할 수 있다. 예를 들어, 통신 모듈은 칩셋(chipset)의 형태로 구현될 수 있다.For example, the communication unit 550 may communicate with an input/output device (not shown) or an electronic terminal (not shown) to transmit/receive various types of information for photographing crops. To this end, the communication unit 550 may include a communication module supporting at least one of various wired/wireless communication methods. For example, the communication module may be implemented in the form of a chipset.

예를 들어, 통신부(550)가 지원하는 무선 통신은, 예를 들어 Wi-Fi(Wireless Fidelity), Wi-Fi Direct, 블루투스(Bluetooth), UWB(Ultra Wide Band) 또는 NFC(Near Field Communication), 2G 내지 5G 통신 기술 또는 그 이상의 통신 기술 등일 수 있다. 또한, 통신부(550)가 지원하는 유선 통신은, 예를 들어 USB, Ethernet 또는 HDMI(High Definition Multimedia Interface) 등일 수 있다.For example, wireless communication supported by the communication unit 550 includes, for example, Wi-Fi (Wireless Fidelity), Wi-Fi Direct, Bluetooth, UWB (Ultra Wide Band) or NFC (Near Field Communication), It may be 2G to 5G communication technology or more communication technology. In addition, wired communication supported by the communication unit 550 may be, for example, USB, Ethernet, or HDMI (High Definition Multimedia Interface).

실시예에 따르면, 통신부(550)는 제어부(500) 에 의해 생성된 진단정보를, 외부의 장치로 송신할 수 있다. 이때 외부의 장치는 예를 들어 입출력장치(미도시)이거나 또는 예를 들어, 과실을 채집하는 채집기, 비닐하우스 내의 스프링쿨러, 에어컨, 난방기, 조명기기, 도어개폐기, 비료투입기, 농약분무기 등이거나 또는 예를 들어, 병해충이 존재하는 과실 을 표시하기 위한 마킹장치 등이 될 수 있다.According to the embodiment, the communication unit 550 may transmit diagnostic information generated by the control unit 500 to an external device. At this time, the external device is, for example, an input/output device (not shown), or, for example, a fruit collector, a sprinkler in a greenhouse, an air conditioner, a heater, a lighting device, a door opener, a fertilizer dispenser, a pesticide sprayer, etc. Or, for example, it may be a marking device for displaying fruits with pests.

또 다른 실시예에 따르면 통신부(550)는 제어부(500)에 의해 생성된 진단정보를 서버로 송신할 수 있다. 서버는 제어부(500) 와 네트워크를 통해 통신이 가능한 컴퓨터로 구현되거나 클라우드 컴퓨팅 서버로 구현될 수 있다. 또한, 서버는 데이터를 저장할 수 있는 저장장치를 포함하거나 제 3의 서버를 통해 데이터를 저장할 수 있다. 또한, 서버는 관리자의 단말과 통신할 수 있다.According to another embodiment, the communication unit 550 may transmit diagnosis information generated by the control unit 500 to the server. The server may be implemented as a computer capable of communicating with the controller 500 through a network or implemented as a cloud computing server. In addition, the server may include a storage device capable of storing data or may store data through a third server. Also, the server may communicate with the administrator's terminal.

또한 일 실시예에 따른 작물 모니터링 장치(10)는 추가적으로 입출력부(미도시)를 더 포함할 수 있다.In addition, the crop monitoring device 10 according to an embodiment may additionally include an input/output unit (not shown).

입출력부(미도시)는 관리자로부터 입력을 수신하기 위한 입력부와 작업의 수행 결과 또는 촬영장치(100)의 상태 등의 정보를 표시하기 위한 출력부를 포함할 수 있다. 예를 들어 입출력부(미도시)는 농장 등을 운영하는 관리자의 입력을 수신하는 조작 패널(operation panel) 및 화면을 표시하는 디스플레이 패널(display panel) 등을 포함할 수 있다.The input/output unit (not shown) may include an input unit for receiving an input from a manager and an output unit for displaying information such as a job performance result or a state of the photographing device 100 . For example, the input/output unit (not shown) may include an operation panel that receives an input from a manager who operates a farm, and a display panel that displays a screen.

구체적으로 입력부는 키보드, 물리 버튼, 터치 스크린 또는 마이크 등과 같이 다양한 형태의 입력을 수신할 수 있는 장치들을 포함할 수 있다. 또한, 출력부는 디스플레이 패널 또는 스피커 등을 포함할 수 있다. 다만, 이에 한정되지 않고 입출력부(미도시)는 다양한 입출력을 지원하는 구성을 포함할 수 있다.Specifically, the input unit may include devices capable of receiving various types of inputs, such as a keyboard, a physical button, a touch screen, or a microphone. Also, the output unit may include a display panel or a speaker. However, it is not limited thereto, and the input/output unit (not shown) may include a configuration supporting various inputs and outputs.

실시예에 따르면, 입력부는 관리자로부터 촬영의 수행을 위한 조작을 입력 받을 수도 있다. 또한, 출력부는 진단정보를 관리자가 확인할 수 있도록 진단정보를 출력하여 제공하거나 진단정보에 대응되는 알람이나 경고음을 출력할 수 있다. According to the embodiment, the input unit may receive a manipulation for shooting from a manager. In addition, the output unit may output and provide diagnostic information so that a manager can check the diagnostic information, or output an alarm or warning sound corresponding to the diagnostic information.

이러한 입출력부(미도시)는 작물 모니터링 장치(10)와 통신부(550)를 통해 통신하도록 별도의 장치인 입출력장치(미도시)로 구현되어 작물 모니터링 장치 (10) 외부에 위치할 수도 있다.This input/output unit (not shown) may be implemented as an input/output device (not shown), which is a separate device, to communicate with the crop monitoring device 10 through the communication unit 550 and may be located outside the crop monitoring device 10.

한편, 전술한 이동레일(120)은 로봇(110)이 배드(1)의 상부를 이동하도록 구성될 경우, 도 4에 도시된 바와 같이 종방향레일(121) 및 횡방향레일(122)을 포함하여 구성될 수 있다.On the other hand, when the robot 110 is configured to move the top of the bed 1, the above-described moving rail 120 includes a longitudinal rail 121 and a transverse rail 122 as shown in FIG. can be configured.

종방향레일(121)은 배드(1)의 상부에 설치되면서 배드(1)의 사이를 따라 연장됨으로써 로봇(110)의 이동경로를 배드(1)의 종방향 즉 길이방향으로 제공할 수 있다.The longitudinal rail 121 is installed on the upper part of the bed 1 and extends between the beds 1 to provide a movement path of the robot 110 in the longitudinal direction of the bed 1, that is, in the longitudinal direction.

횡방향레일(122)은 배드(1)의 상부에 설치되면서 종방향레일(121)과 직교 상태를 이루도록 연장됨으로써 로봇(110)의 이동경로를 배드(1)의 횡방향 즉 배드(1)를 가로지르는 방향으로 제공할 수 있다.The transverse rail 122 is installed on the top of the bed 1 and extends perpendicularly to the longitudinal rail 121, so that the moving path of the robot 110 is changed in the transverse direction of the bed 1, that is, the bed 1 It can be provided in a transversal direction.

이에 따라, 촬영유닛(200)은 로봇(110)과 함께 종방향레일(121)을 따라 이동하면서 종방향레일(121)의 양측에 배치된 배드(1)의 작물의 촬영을 수행할 수 있으며, 횡방향레일(122)을 따라 이동하면서 이웃하는 종방향레일(121)로 이동하여 작물의 촬영을 수행할 수 있다.Accordingly, the photographing unit 200 may perform photographing of the crops of the bed 1 disposed on both sides of the longitudinal rail 121 while moving along the longitudinal rail 121 together with the robot 110, While moving along the transverse rail 122, it is possible to move to the adjacent longitudinal rail 121 to perform photographing of crops.

여기서, 촬영유닛(200)은 횡방향레일(122)을 따라 이동할 경우 배드(1)를 가로질러야 하기 때문에 이동하는 과정에서 배드(1)와 충돌할 수 있다.Here, the recording unit 200 may collide with the bed 1 in the process of moving because it must cross the bed 1 when moving along the transverse rail 122 .

이때, 전술한 거리측정부(130)는 촬영유닛(200)과 배드(1)와의 거리를 측정하여 제어부(500)로 인가할 수 있으며, 제어부(500)는 거리측정부(130)에서 인가된 데이터를 기반으로 승강유닛(300)을 작동시켜 촬영유닛(200)을 상승시킬 수 있다.At this time, the above-described distance measuring unit 130 may measure the distance between the recording unit 200 and the bed 1 and apply the distance to the control unit 500, and the control unit 500 may measure the distance from the distance measuring unit 130 Based on the data, the lifting unit 300 may be operated to raise the photographing unit 200 .

이에 따라, 촬영유닛(200)은 횡방향레일(122)을 이동하는 과정에서 배드(1)와 충돌하지 않고 소정의 간격을 이루면서 이동할 수 있다.Accordingly, the recording unit 200 can be moved while achieving a predetermined interval without colliding with the bed (1) in the process of moving the transverse rail (122).

한편, 종방향레일(121)과 횡방향레일(122) 중 적어도 하나는 소정의 곡률을 갖는 원호 형태를 이루면서 연장될 수 있다.On the other hand, at least one of the longitudinal rail 121 and the transverse rail 122 may be extended while forming an arc shape having a predetermined curvature.

즉, 종방향레일(121) 또는 횡방향레일(122)은 일직선으로 연장되지 않고 원호형태로 연장됨으로써 로봇(110)이 이동하는 과정에서 복수의 배드(1)를 다양한 각도로 거칠 수 있도록 할 수 있다.That is, the longitudinal rail 121 or the transverse rail 122 does not extend in a straight line but in an arc shape so that the robot 110 can go through the plurality of beds 1 at various angles in the process of moving. there is.

한편, 도 5는 일 실시예에 따른 작물 모니터링 장치(10)에 의한 촬영방법을 설명하기 위한 순서도이다. 도 5에 도시된 촬영방법은 도1 내지 도 4를 통해 설명된 작물 모니터링 장치(10)에서 시계열적으로 처리하는 단계들을 포함한다. 따라서 이하에서 생략된 내용이라고 하더라도 도 1 내지 도 4에 도시된 작물 모니터링 장치(10)에 관하여 이상에서 기술한 내용은 도 5에 도시된 실시예에 따른 촬영방법에도 이용될 수 있다.On the other hand, Figure 5 is a flow chart for explaining a photographing method by the crop monitoring device 10 according to an embodiment. The photographing method shown in FIG. 5 includes steps of time-sequential processing in the crop monitoring device 10 described with reference to FIGS. 1 to 4 . Therefore, even if the content is omitted below, the information described above with respect to the crop monitoring device 10 shown in FIGS. 1 to 4 can also be used in the photographing method according to the embodiment shown in FIG. 5 .

도 5에서 도시된 바와 같이 작물 모니터링 장치(10)는 제1이미지를 획득할 수 있다 (S100).As shown in FIG. 5 , the crop monitoring device 10 may obtain a first image (S100).

이때, 제어부(500)는 이동유닛(100)을 제어하여 촬영유닛(200)을 이동유닛(100)과 함께 배드(1)의 사이 지면 또는 배드(1)의 상부를 따라 이동시킨 후, 촬영유닛(100)을 제어하여 배드(1)에 식재된 작물을 촬영하면서 제1 이미지를 획득할 수 있다.At this time, the control unit 500 controls the moving unit 100 to move the recording unit 200 along the ground between the bed 1 or the top of the bed 1 together with the moving unit 100, and then the recording unit A first image may be acquired while photographing the crops planted on the bed 1 by controlling 100 .

제1이미지를 획득한 제어부(500)는 제1이미지 내에서 타깃후보객체를 식별할 수 있다 (S200).Having acquired the first image, the control unit 500 can identify a target candidate object in the first image (S200).

이를 위해 제어부(500)는 YOLO모델 또는 R-CNN 모델로 구현된 인공신경망을 학습시키고 학습된 인공신경망에 제1이미지를 입력함으로써 타깃후보객체를 식별해낼 수 있다.To this end, the controller 500 may identify a target candidate object by learning an artificial neural network implemented as a YOLO model or an R-CNN model and inputting a first image to the learned artificial neural network.

또한, 제어부(500)는 상술된 바와 같이 식별된 타깃후보객체 중 하나를 선택하여 타깃객체로 결정할 수 있다 (S300). In addition, the control unit 500 may select one of the target candidate objects identified as described above and determine it as the target object (S300).

이때, 제어부(500)는 각 타깃후보객체를 에워싸는 바운딩박스의 중심점을 기준으로, 제1이미지의 최하단 좌측 꼭지점을 기준으로 x축 방향으로 순차적으로 타깃후보객체를 선택할 수 있다. 따라서 제어부(500)는 타깃후보객체를 먼저 순차적으로 선택하여 타깃객체로 결정하고 타깃후보객체에 관한 진단정보를 순차적으로 생성할 수 있다.In this case, the control unit 500 may sequentially select target candidate objects in the x-axis direction based on the lowermost left vertex of the first image based on the center point of the bounding box surrounding each target candidate object. Accordingly, the control unit 500 may first sequentially select target candidate objects, determine them as target objects, and sequentially generate diagnostic information about the target candidate objects.

이와 같이 결정된 타깃객체의 촬영을 위해, 제어부(500)는 촬영유닛(200)의 높이를 타깃객체에 대응하는 높이로 조절할 수 있다(S400)To capture the target object determined in this way, the control unit 500 may adjust the height of the recording unit 200 to a height corresponding to the target object (S400).

이때. 제어부(500)는 승강유닛(300)을 제어하여 촬영유닛(200)을 승강시키면서 타깃객체의 바운딩박스의 중심점에 대응하는 좌표로 촬영유닛(200)을 승강시킴으로써 촬영유닛(2000을 타깃객체에 대응하는 높이로 이동시킬 수 있다.At this time. The control unit 500 controls the elevation unit 300 to elevate the photographing unit 200 while elevating the photographing unit 200 to the coordinates corresponding to the center point of the bounding box of the target object so that the photographing unit 2000 corresponds to the target object. can be moved to any height.

또한, 제어부(500)는 배드(1)의 경계선을 타깃객체로 식별하여 승강유닛(300)을 제어하면서 촬영유닛(200)의 높이를 배드(1)의 경계선 중앙에 위치하도록 이동시킬 수도 있다.In addition, the control unit 500 may move the height of the photographing unit 200 to be positioned at the center of the boundary of the bed 1 while controlling the lifting unit 300 by identifying the boundary of the bed 1 as a target object.

또한, 제어부(500)는 촬영유닛(200)의 촬영상태정보를 결정할 수 있다(S500).Also, the control unit 500 may determine photographing state information of the photographing unit 200 (S500).

제어부(500)는 촬영유닛(200)의 현재 촬영상태정보, 현재의 거리정보, 및 제1이미지 내에서의 타깃객체의 위치좌표에 기초하여 촬영상태정보를 결정할 수 있다.The control unit 500 may determine the photographing state information based on the current photographing state information of the photographing unit 200, the current distance information, and the positional coordinates of the target object in the first image.

실시예에 따라 제어부(500)는 현재의 촬영상태정보, 현재의 거리정보, 및 제1이미지 내에서의 타깃객체의 위치좌표에 기초하여 팬 각도 및 틸트 각도를 연산함으로써 촬영상태정보를 생성할 수 있다.According to an embodiment, the controller 500 may generate photographing state information by calculating a pan angle and a tilt angle based on current photographing state information, current distance information, and positional coordinates of a target object in the first image. there is.

한편, 제어부(500)는 줌 배율이 낮아 타깃객체가 작게 촬영되거나, 포커싱값이 맞지 않아 타깃객체가 낮은 해상도로 찍히게 되면 촬영상태정보를 갱신할 수 있다 (S600).Meanwhile, the controller 500 may update the photographing state information when the target object is photographed in a small size due to a low zoom factor or when the target object is photographed in a low resolution due to inconsistent focusing values (S600).

실시예에 따르면 제어부(500)는 촬영유닛(200)의 렌즈를 통해 보이는 화각 내 이미지에서, 타깃객체에 관한 이미지 영역이 전체 이미지 영역 내에서 소정의 비율 이상을 차지하도록 줌 배율을 정할 수 있다.According to the embodiment, the control unit 500 may set a zoom factor so that an image area related to a target object occupies a predetermined ratio or more within the entire image area in an image within an angle of view seen through the lens of the photographing unit 200 .

제어부(500)는 촬영상태정보에 기초하여 촬영유닛(200)을 틸팅 또는 포커싱하거나 줌 배율을 조정함으로써 타깃객체를 촬영함으로써 제2이미지를 획득할 수 있다 (S700).The controller 500 may obtain a second image by tilting or focusing the photographing unit 200 based on the photographing state information or by photographing a target object by adjusting a zoom magnification (S700).

이때, 제어부(500)는 촬영이미지 또는 포커싱된 이미지 내에서 타깃객체로 At this time, the control unit 500 selects a target object within a photographed image or a focused image.

식별되는 영역이 전체 이미지 내에서 차지하는 비율이 소정 비율 이상이 아니라면, 촬영유닛(200)의 줌 배율을 조정하여 타깃객체로 식별되는 영역이 전체 이미지 내에서 소정 비율 이상 차지하도록 할 수 있다. If the ratio occupied by the identified area in the entire image is not greater than a predetermined ratio, the zoom magnification of the photographing unit 200 may be adjusted so that the area identified as the target object occupies a predetermined ratio or more in the entire image.

이와 같이 타깃객체를 촬영함으로써 제2이미지를 획득하면, 제어부(500)는 제2이미지에 기초하여 진단정보를 생성할 수 있다 (S800).When the second image is obtained by photographing the target object in this way, the controller 500 may generate diagnostic information based on the second image (S800).

이때, 제어부(500)는 제2이미지 내에서, 타깃객체의 엣지(edge)를 딥러닝 모델을 기반으로 식별함으로써, 엣지 내에 위치한 타깃객체와, 엣지 외부에 위치한 배경을 분리해낼 수 있다.In this case, the controller 500 may separate the target object located within the edge and the background located outside the edge by identifying the edge of the target object in the second image based on the deep learning model.

그리고 제어부(500)는 타깃객체의 이미지를 분석함으로써 생육정보 및 병해충정보 중 적어도 하나를 포함하는 진단정보를 생성할 수 있다.Further, the control unit 500 may generate diagnostic information including at least one of growth information and pest information by analyzing the image of the target object.

예를 들어, 제어부(500)는 이미지에서 병해충정보를 생성할 수 있는데, 해충이 파먹은 위치인 병해충 영역을 식별하여 관련 정보를 포함하는 진단정보를 생성할 수 있다. 예를 들어 병해충 영역의 개수, 해충의 개수, 해충이나 병해충 영역을 분석함에 따라 해충에 관한 정보 또는 병균에 관한 정보를 포함하여 진단정보를 생성할 수 있다.For example, the control unit 500 may generate pest information from an image, and may generate diagnostic information including related information by identifying a pest area, which is a location where pests burrow. For example, by analyzing the number of pest areas, the number of pests, and pest or pest areas, diagnosis information including information on pests or information on pathogens can be generated.

상술된 단계 S300 내지 단계 S800는, 제1이미지 내에서 식별된 타깃후보객체 중에서 진단정보가 생성되지 않은 타깃후보객체가 없을 때까지 반복될 수 있다 (S900).Steps S300 to S800 described above may be repeated until there is no target candidate object for which diagnostic information is not generated among the target candidate objects identified in the first image (S900).

상술된 바에 따른 촬영방법으로 제1이미지에 관한 진단정보를 생성하면, 작물 모니터링 장치(10)는 또 다른 피사체를 촬영하여 제1이미지를 획득할 수 있다.When diagnostic information on the first image is generated by the above-described photographing method, the crop monitoring device 10 may obtain the first image by photographing another subject.

이때, 획득된 제1이미지가 이전에 분석되었던 제1이미지와 중첩되는 영역이 존재한다고 판단되면, 제어부(500)는 촬영상태정보를 갱신하여 다른 팬 각도 또는 틸트 각도에서 촬영하여 제1이미지를 획득할 수 있다. 또는 제1이미지가 획득된 촬영유닛(200)의 위치정보와 팬 및 틸트 각도에 기초하여, 획득된 제1이미지가 이전에 분석된 제1이미지와 동일한 위치에서 동일한 대상을 촬영한 것이라고 판단할 수 있고 그에 따라 제어부(500)는 촬영상태정보를 갱신하여 다른 팬 각도 또는 틸트 각도에서 촬영하여 제1이미지를 획득할 수 있다.At this time, if it is determined that there is an area where the obtained first image overlaps with the previously analyzed first image, the controller 500 updates the photographing state information to obtain the first image by photographing at a different pan angle or tilt angle. can do. Alternatively, based on the location information and the pan and tilt angles of the photographing unit 200 from which the first image was obtained, it may be determined that the obtained first image is a photograph of the same subject at the same position as the previously analyzed first image. Accordingly, the controller 500 may acquire the first image by updating the photographing state information and photographing at a different pan angle or tilt angle.

상기와 같이 설명된 촬영방법은 컴퓨터에 의해 실행 가능한 명령어 및 데이터를 저장하는, 컴퓨터로 판독 가능한 매체의 형태로도 구현될 수 있다. 이때, 명령어 및 데이터는 프로그램 코드의 형태로 저장될 수 있으며, 프로세서에 의해 실행되었을 때, 소정의 프로그램 모듈을 생성하여 소정의 동작을 수행할 수 있다. 또한, 컴퓨터로 판독 가능한 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터로 판독 가능한 매체는 컴퓨터 기록 매체일 수 있는데, 컴퓨터 기록 매체는 컴퓨터 판독 가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함할 수 있다. 예를 들어, 컴퓨터 기록 매체는 HDD 및 SSD 등과 같은 마그네틱 저장 매체, CD, DVD 및 블루레이 디스크 등과 같은 광학적 기록 매체, 또는 네트워크를 통해 접근 가능한 서버에 포함되는 메모리일 수 있다. The photographing method described above may be implemented in the form of a computer-readable medium storing instructions and data executable by a computer. In this case, instructions and data may be stored in the form of program codes, and when executed by a processor, a predetermined program module may be generated to perform a predetermined operation. Also, computer-readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media. Also, a computer-readable medium may be a computer recording medium, which is a volatile and non-volatile memory implemented in any method or technology for storage of information such as computer-readable instructions, data structures, program modules, or other data. It can include both volatile, removable and non-removable media. For example, the computer recording medium may be a magnetic storage medium such as HDD and SSD, an optical recording medium such as CD, DVD, and Blu-ray disc, or a memory included in a server accessible through a network.

상기와 같이 설명된 촬영방법은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 컴퓨터 프로그램(또는 컴퓨터 프로그램 제품)으로 구현될 수도 있다. 컴퓨터 프로그램은 프로세서에 의해 처리되는 프로그래밍 가능한 기계 명령어를 포함하고, 고레벨 프로그래밍 언어(High-level Programming Language), 객체 지향 프로그래밍 언어(Object-oriented Programming Language), 어셈블리 언어 또는 기계 언어 등으로 구현될 수 있다. 또한 컴퓨터 프로그램은 유형의 컴퓨터 판독가능 기록매체(예를 들어, 메모리, 하드디스크, 자기/광학 매체 또는 SSD(Solid-State Drive) 등)에 기록될 수 있다. The photographing method described above may be implemented as a computer program (or computer program product) including instructions executable by a computer. A computer program includes programmable machine instructions processed by a processor and may be implemented in a high-level programming language, object-oriented programming language, assembly language, or machine language. . Also, the computer program may be recorded on a tangible computer-readable recording medium (eg, a memory, a hard disk, a magnetic/optical medium, or a solid-state drive (SSD)).

상기와 같이 설명된 촬영방법은 상술한 바와 같은 컴퓨터 프로그램이 컴퓨팅 장치에 의해 실행됨으로써 구현될 수 있다. 컴퓨팅 장치는 프로세서와, 메모리와, 저장 장치와, 메모리 및 고속 확장포트에 접속하고 있는 고속 인터페이스와, 저속 버스와 저장 장치에 접속하고 있는 저속 인터페이스 중 적어도 일부를 포함할 수 있다. 이러한 성분들 각각은 다양한 버스를 이용하여 서로 접속되어 있으며, 공통 머더보드에 탑재되거나 다른 적절한 방식으로 장착될 수 있다.The photographing method described above may be implemented by executing the above-described computer program by a computing device. A computing device may include at least some of a processor, a memory, a storage device, a high-speed interface connected to the memory and a high-speed expansion port, and a low-speed interface connected to a low-speed bus and a storage device. Each of these components are connected to each other using various buses and may be mounted on a common motherboard or mounted in any other suitable manner.

여기서 프로세서는 컴퓨팅 장치 내에서 명령어를 처리할 수 있는데, 이런 명령어로는, 예컨대 고속 인터페이스에 접속된 디스플레이처럼 외부 입력, 출력 장치상에 GUI(Graphic User Interface)를 제공하기 위한 그래픽 정보를 표시하기 위해 메모리나 저장 장치에 저장된 명령어를 들 수 있다. 다른 실시예로서, 다수의 프로세서 및(또는) 다수의 버스가 적절히 다수의 메모리 및 메모리 형태와 함께 이용될 수 있다. 또한 프로세서는 독립적인 다수의 아날로그 및(또는) 디지털 프로세서를 포함하는 칩들이 이루는 칩셋으로 구현될 수 있다. Here, the processor may process commands within the computing device, for example, to display graphic information for providing a GUI (Graphic User Interface) on an external input/output device, such as a display connected to a high-speed interface. Examples include instructions stored in memory or storage devices. As another example, multiple processors and/or multiple buses may be used along with multiple memories and memory types as appropriate. Also, the processor may be implemented as a chipset comprising chips including a plurality of independent analog and/or digital processors.

또한 메모리는 컴퓨팅 장치 내에서 정보를 저장한다. 일례로, 메모리는 휘발성 메모리 유닛 또는 그들의 집합으로 구성될 수 있다. 다른 예로, 메모리는 비휘발성 메모리 유닛 또는 그들의 집합으로 구성될 수 있다. 또한 메모리는 예컨대, 자기 혹은 광 디스크와 같이 다른 형태의 컴퓨터 판독 가능한 매체일 수도 있다. Memory also stores information within the computing device. In one example, the memory may consist of a volatile memory unit or a collection thereof. As another example, the memory may be composed of a non-volatile memory unit or a collection thereof. Memory may also be another form of computer readable medium, such as, for example, a magnetic or optical disk.

그리고 저장장치는 컴퓨팅 장치에게 대용량의 저장공간을 제공할 수 있다. 저장 장치는 컴퓨터 판독 가능한 매체이거나 이런 매체를 포함하는 구성일 수 있으며, 예를 들어 SAN(Storage Area Network) 내의 장치들이나 다른 구성도 포함할 수 있고, 플로피 디스크 장치, 하드 디스크 장치, 광 디스크 장치, 혹은 테이프 장치, 플래시 메모리, 그와 유사한 다른 반도체 메모리 장치 혹은 장치 어레이일 수 있다.Also, the storage device may provide a large amount of storage space to the computing device. A storage device may be a computer-readable medium or a component that includes such a medium, and may include, for example, devices in a storage area network (SAN) or other components, such as a floppy disk device, a hard disk device, an optical disk device, or a tape device, flash memory, or other semiconductor memory device or device array of the like.

이상의 실시예들에서 사용되는 '~부'라는 용어는 소프트웨어 또는 FPGA(field programmable gate array) 또는 ASIC 와 같은 하드웨어 구성요소를 의미하며, '~부'는 어떤 역할들을 수행한다. 그렇지만 '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램특허 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다.The term '~unit' used in the above embodiments means software or a hardware component such as a field programmable gate array (FPGA) or ASIC, and '~unit' performs certain roles. However, '~ part' is not limited to software or hardware. '~bu' may be configured to be in an addressable storage medium and may be configured to reproduce one or more processors. Therefore, as an example, '~unit' refers to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, and procedures. , subroutines, segments of program patent code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays, and variables.

구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로부터 분리될 수 있다.Functions provided within components and '~units' may be combined into smaller numbers of components and '~units' or separated from additional components and '~units'.

뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU 들을 재생시키도록 구현될 수도 있다. 상술된 실시예들은 예시를 위한 것이며, 상술된 실시예들이 속하는 기술분야의 통상의 지식을 가진 자는 상술된 실시예들이 갖는 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 상술된 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.In addition, components and '~units' may be implemented to play one or more CPUs in a device or a secure multimedia card. The above-described embodiments are for illustrative purposes, and those skilled in the art to which the above-described embodiments belong can easily transform into other specific forms without changing the technical spirit or essential features of the above-described embodiments. You will understand. Therefore, it should be understood that the above-described embodiments are illustrative in all respects and not restrictive. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as distributed may be implemented in a combined form.

본 명세서를 통해 보호 받고자 하는 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태를 포함하는 것으로 해석되어야 한다.The scope to be protected through this specification is indicated by the following claims rather than the detailed description above, and should be construed to include all changes or modifications derived from the meaning and scope of the claims and equivalent concepts thereof. .

10 : 작물 모니터링 장치
100 : 이동유닛
110 : 로봇
120 : 이동레일
121 : 종방향레일
122 : 횡방향레일
130 : 거리측정부
200 : 촬영유닛
300 : 승강유닛
310 : 텔레스코픽봉
320 : 길이조절부재
321 : 랙기어
322 : 피니언기어
400 : 메모리
500 : 제어부
550 : 통신부
10: crop monitoring device
100: mobile unit
110: robot
120: moving rail
121: longitudinal rail
122: transverse rail
130: distance measuring unit
200: shooting unit
300: lifting unit
310: telescopic rod
320: length adjustment member
321: rack gear
322: pinion gear
400: memory
500: control unit
550: Ministry of Communication

Claims (12)

복수열을 이루면서 소정의 높이로 설치되어 작물의 생장공간을 제공하는 배드의 사이를 이동하면서 작물의 생장상태를 모니터링하는 작물 모니터링 장치에 있어서,
상기 배드 사이의 지면과 상기 배드의 상부 중 적어도 하나에 이동 가능하게 설치되어 상기 배드를 따라 이동하는 이동유닛;
상기 이동유닛에 설치되어 작물을 촬영하면서 제1 이미지 및 제2 이미지를 제공하는 촬영유닛;
상기 이동유닛에 설치되어 상기 촬영유닛을 승강 가능하게 지지하면서 상기 촬영유닛의 높이를 조절하는 적어도 하나의 승강유닛;
상기 촬영유닛의 촬영상태정보를 저장하는 메모리; 및
상기 제1 이미지에 기초하여 상기 촬영유닛의 촬영상태정보를 결정하고, 상기 촬영상태정보에 기초하여 작물의 일부분 중 타깃객체를 촬영하도록 상기 이동유닛, 상기 촬영유닛 및 상기 승강유닛을 제어하며, 상기 타깃객체를 촬영한 상기 제2 이미지를 기반으로 진단정보를 생성하는 제어부를 포함하는 작물 모니터링 장치.
In the crop monitoring device for monitoring the growth state of crops while moving between beds installed at a predetermined height while forming a plurality of rows to provide a growth space for crops,
a moving unit movably installed on at least one of the upper part of the bed and the ground between the beds to move along the bed;
a photographing unit installed in the moving unit to provide a first image and a second image while photographing crops;
At least one elevating unit installed in the moving unit to adjust the height of the recording unit while supporting the recording unit so as to be able to move up and down;
a memory for storing photographing state information of the photographing unit; and
determining photographing state information of the photographing unit based on the first image, and controlling the moving unit, the photographing unit, and the elevating unit to photograph a target object among parts of a crop based on the photographing state information; Crop monitoring device comprising a control unit for generating diagnostic information based on the second image of the target object.
제 1 항에 있어서,
상기 이동유닛은,
상기 촬영유닛 및 상기 승강유닛의 설치공간을 제공하면서 상기 배드 사이의 지면 및 상기 배드의 상부 중 하나에 배치되고, 상기 제어부의 제어에 의해 이동하면서 상기 촬영유닛 및 상기 승강유닛을 이동시키는 로봇을 포함하는 작물 모니터링 장치.
According to claim 1,
The mobile unit,
A robot disposed on one of the upper part of the bed and the ground between the beds while providing an installation space for the shooting unit and the lifting unit and moving the shooting unit and the lifting unit while moving under the control of the control unit. crop monitoring device.
제 2 항에 있어서,
상기 이동유닛은,
상기 배드 사이의 지면 및 상기 배드의 상부 중 하나에 설치되어 상기 로봇의 이동경로를 제공하는 이동레일을 더 포함하는 작물 모니터링 장치.
According to claim 2,
The mobile unit,
Crop monitoring device further comprising a moving rail installed on one of the upper part of the bed and the ground between the beds to provide a moving path of the robot.
제 3 항에 있어서,
상기 이동레일은,
상기 배드의 상부에 설치되면서 상기 배드의 사이를 따라 제각기 연장되는 종방향레일; 및
상기 종방향레일과 직교 상태를 이루면서 상기 배드의 상부에 설치되어 상기 로봇이 상기 배드를 가로지르는 방향으로 이동하는 것을 허용하는 횡방향레일을 포함하는 작물 모니터링 장치.
According to claim 3,
The moving rail,
Longitudinal rails respectively extending along the gap between the beds while being installed on the top of the bed; and
Crop monitoring device comprising a transverse rail installed on top of the bed while forming a state orthogonal to the longitudinal rail to allow the robot to move in a direction crossing the bed.
제 4 항에 있어서,
상기 종방향레일 및 상기 횡방향레일 중 적어도 하나는,
소정의 곡률을 갖는 원호 형태를 이루면서 연장되는, 작물 모니터링 장치.
According to claim 4,
At least one of the longitudinal rail and the transverse rail,
Extending while forming an arc shape having a predetermined curvature, crop monitoring device.
제 4 항에 있어서,
상기 이동유닛은,
상기 로봇에 설치된 상태로 상기 제어부에 의해 작동하며, 상기 로봇이 횡방향레일로 이동할 경우 상기 촬영유닛과 상기 배드의 거리를 감지하여 상기 제어부에 제공하면서 상기 촬영유닛과 상기 배드의 간격을 유지시키는 거리측정부를 더 포함하는 작물 모니터링 장치.
According to claim 4,
The mobile unit,
It is operated by the control unit in a state installed on the robot, and when the robot moves to the transverse rail, detects the distance between the recording unit and the bed and provides it to the control unit while maintaining the distance between the recording unit and the bed. Crop monitoring device further comprising a measuring unit.
제 1 항에 있어서,
상기 승강유닛은,
소정의 길이를 가지면서 길이가 신축 가능하도록 텔레스코픽 구조의 봉으로 이루어져 상기 이동유닛과 상기 촬영유닛을 연결하는 텔레스코픽봉; 및
상기 제어부의 제어에 의해 작동하면서 상기 텔레스코픽봉의 길이를 상기 촬영상태정보에 대응하는 길이로 조절하는 길이조절부재를 포함하는 작물 모니터링 장치.
According to claim 1,
The lifting unit,
A telescopic rod having a predetermined length and having a telescopic structure so as to be stretchable and connecting the moving unit and the recording unit; and
Crop monitoring device comprising a length adjusting member for adjusting the length of the telescopic rod to a length corresponding to the photographing state information while operating under the control of the control unit.
제 7 항에 있어서,
상기 길이조절부재는,
상기 텔레스코픽봉의 일부분에 길이방향을 따라 형성되는 톱니형태의 랙기어; 및
상기 랙기어에 맞물린 상태로 상기 제어부에 의해 정회전 또는 역회전하면서 상기 랙기어를 직선운동시키는 피니언기어를 포함하는 작물 모니터링 장치.
According to claim 7,
The length adjusting member,
A toothed rack gear formed along a longitudinal direction of a portion of the telescopic rod; and
A crop monitoring device comprising a pinion gear for linearly moving the rack gear while being engaged with the rack gear and rotating forward or reverse by the control unit.
제 1 항에 있어서,
상기 제어부는,
상기 제1 이미지 내에 상기 배드를 상기 타깃객체로 식별하고, 상기 배드의 경계선을 기반으로 상기 승강유닛을 제어하면서 상기 촬영유닛의 높이를 조절하는, 작물 모니터링 장치.
According to claim 1,
The control unit,
Identifying the bed in the first image as the target object, and controlling the height of the photographing unit while controlling the lifting unit based on the boundary of the bed, crop monitoring device.
제 1 항에 있어서,
상기 제어부는,
상기 제1 이미지에 기초하여 상기 타깃객체를 식별하고, 상기 제1 이미지에서의 상기 타깃객체의 위치에 기초하여 상기 촬영유닛의 촬영상태정보를 결정하는, 작물 모니터링 장치.
According to claim 1,
The control unit,
Crop monitoring device for identifying the target object based on the first image, and determining the photographing state information of the photographing unit based on the position of the target object in the first image.
제 1 항에 있어서,
상기 제어부는,
상기 제2 이미지의 전체 영역 내에서 상기 타깃객체에 대응하는 이미지가 소정의 크기 이상의 면적을 차지하도록 상기 촬영상태정보를 갱신하는, 작물 모니터링 장치.
According to claim 1,
The control unit,
and updating the photographing state information so that an image corresponding to the target object occupies an area of a predetermined size or more within an entire area of the second image.
제 1 항에 있어서,
상기 제어부는,
상기 타깃객체에 관한 생육정보 및 병해충정보 중 적어도 하나에 관한 진단정보를 생성하는, 작물 모니터링 장치.
According to claim 1,
The control unit,
A crop monitoring device for generating diagnostic information on at least one of growth information and pest information on the target object.
KR1020210121651A 2021-09-13 2021-09-13 Crop monitering apparatus KR102649593B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210121651A KR102649593B1 (en) 2021-09-13 2021-09-13 Crop monitering apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210121651A KR102649593B1 (en) 2021-09-13 2021-09-13 Crop monitering apparatus

Publications (2)

Publication Number Publication Date
KR20230038941A true KR20230038941A (en) 2023-03-21
KR102649593B1 KR102649593B1 (en) 2024-03-20

Family

ID=85801095

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210121651A KR102649593B1 (en) 2021-09-13 2021-09-13 Crop monitering apparatus

Country Status (1)

Country Link
KR (1) KR102649593B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190041647A (en) * 2017-10-13 2019-04-23 비와일즈 주식회사 Crops monitoring apparatus, crops monitoring method and crops monitoring system
KR20210079536A (en) * 2019-12-20 2021-06-30 주식회사 포스코 Facilities diagnosis robot and active avoidance method thereof

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190041647A (en) * 2017-10-13 2019-04-23 비와일즈 주식회사 Crops monitoring apparatus, crops monitoring method and crops monitoring system
KR20210079536A (en) * 2019-12-20 2021-06-30 주식회사 포스코 Facilities diagnosis robot and active avoidance method thereof

Also Published As

Publication number Publication date
KR102649593B1 (en) 2024-03-20

Similar Documents

Publication Publication Date Title
US11771077B2 (en) Identifying and avoiding obstructions using depth information in a single image
Montoya-Cavero et al. Vision systems for harvesting robots: Produce detection and localization
US20230026679A1 (en) Mobile sensing system for crop monitoring
KR102291827B1 (en) System and method for automatic crop growth measurement in smart farm
WO2023050783A1 (en) Weeding robot and method and apparatus for planning weeding path thereof, and medium
KR102261087B1 (en) Video-based monitoring apparatus and operation method
KR102479284B1 (en) Vegetation index acquisition unit and apparatus for monitoring plant comprising the same
JP2017184673A (en) Plant cultivation-supporting apparatus, plant cultivation-supporting system, method for supporting plant cultivation, program, and storage medium
US20220240494A1 (en) Aerial sensor and manipulation platform for farming and method of using same
US20220207852A1 (en) Generating a ground plane for obstruction detection
KR102380989B1 (en) Smart farm control device providing growth recipe information for crops grown in smart farm and method of operating the same
KR20230061863A (en) Apparatus for predicting fruit development stage using ensemble model of convolutional neural network and multi layer perceptron and method thereof
KR102375362B1 (en) Method and apparatus for inspecting barn environment based on ai
KR102649593B1 (en) Crop monitering apparatus
Shinoda et al. RoseTracker: A system for automated rose growth monitoring
RU2423042C2 (en) Electronic-optical method to control technology of agricultural produce making
TW202123152A (en) Fruits and vegetables monitoring system and method thereof
US11991946B2 (en) Adaptively adjusting parameters of equipment operating in unpredictable terrain
KR20230157141A (en) Object monitering apparatus with ground moving type
KR102664578B1 (en) Apparatus and method for photographing
Kurtser et al. RGB-D datasets for robotic perception in site-specific agricultural operations—A survey
US20220172056A1 (en) Prediction system, prediction method, and prediction program
Shamshiri et al. An overview of visual servoing for robotic manipulators in digital agriculture
KR102500781B1 (en) Growth measuring device equipped with AI-based camera module for measuring leaf growth of crops
Esser et al. Field Robot for High-throughput and High-resolution 3D Plant Phenotyping

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)