KR20220109990A - Apparatus and method for photographing - Google Patents

Apparatus and method for photographing Download PDF

Info

Publication number
KR20220109990A
KR20220109990A KR1020210013668A KR20210013668A KR20220109990A KR 20220109990 A KR20220109990 A KR 20220109990A KR 1020210013668 A KR1020210013668 A KR 1020210013668A KR 20210013668 A KR20210013668 A KR 20210013668A KR 20220109990 A KR20220109990 A KR 20220109990A
Authority
KR
South Korea
Prior art keywords
photographing
image
target object
state information
information
Prior art date
Application number
KR1020210013668A
Other languages
Korean (ko)
Other versions
KR102664578B1 (en
Inventor
김연중
Original Assignee
라온피플 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 라온피플 주식회사 filed Critical 라온피플 주식회사
Priority to KR1020210013668A priority Critical patent/KR102664578B1/en
Publication of KR20220109990A publication Critical patent/KR20220109990A/en
Application granted granted Critical
Publication of KR102664578B1 publication Critical patent/KR102664578B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0006Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means to keep optical surfaces clean, e.g. by preventing or removing dirt, stains, contamination, condensation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/557Depth or shape recovery from multiple images from light fields, e.g. from plenoptic cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/907Television signal recording using static stores, e.g. storage tubes or semiconductor memories
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30188Vegetation; Agriculture

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Medical Informatics (AREA)
  • Quality & Reliability (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Studio Devices (AREA)

Abstract

A photographing device and a photographing method are presented, and according to an embodiment, the photographing device includes: a memory for storing photographing state information of the photographing device; and a control unit for determining the photographing state information of the photographing device based on a first image, controlling the photographing device to photograph a target object based on the photographing state information, and generating diagnosis information based on a second image obtained by photographing the target object.

Description

촬영장치 및 촬영방법{APPARATUS AND METHOD FOR PHOTOGRAPHING}Filming device and method

본 명세서에서 개시되는 실시예들은, 촬영장치 및 촬영방법에 관한 것으로, 보다 상세하게는 스마트팜 구현을 위해 촬영을 수행하는 장치 및 방법에 관한 것이다.The embodiments disclosed herein relate to a photographing apparatus and a photographing method, and more particularly, to an apparatus and a method for performing photographing for the implementation of a smart farm.

최근 들어 스마트팜(smart farm) 구현을 위한 관심이 높아지고 있다.Recently, interest in implementing a smart farm is increasing.

스마트팜이란, 농작물, 가축 및 수산물 등의 생육 환경을 적정하게 유지하기 위해 자동으로 관리할 수 있도록 함으로써 생산의 효율성뿐만 아니라 편리성도 높이는 농업 시스템이다.Smart farm is an agricultural system that not only increases efficiency but also convenience of production by enabling automatic management to properly maintain the growth environment of crops, livestock and aquatic products.

예를 들어, 농작물 재배를 위한 스마트팜 구현을 위해, 농작물의 생육 진단이나 농작물의 병해충을 자동으로 검출해야 하는데, 현실적으로 생육 진단이나 병해충 검출이 어려우며 특히 소형 농가에서는 자동 검출을 위한 시스템 구축이 어렵다는 문제점이 있다.For example, in order to implement a smart farm for growing crops, it is necessary to diagnose the growth of crops or automatically detect pests and pests. There is this.

또한 예를 들어, 가축 또는 수산물 사육을 위한 스마트팜 구현을 위해 가축(또는 수산물)의 생육 진단이나 질병을 자동으로 검출해야 하는데 현실적으로 생육 진단이나 질병 검출이 어려우며 특히 소형 양식장이나 축산가에서는 자동 검출을 위한 시스템 구축이 어렵다는 문제점이 있다.In addition, for example, in order to implement a smart farm for raising livestock or aquatic products, it is necessary to automatically detect the growth diagnosis or disease of livestock (or aquatic products), but in reality, it is difficult to diagnose growth or detect diseases. There is a problem in that it is difficult to build the system.

관련하여 선행기술 문헌인 대한민국 등록특허 제10-1681891호에는 비닐하우스 내부의 토양, 대기, 수질 환경을 측정하여 이를 서버에서 종합 관리할 수 있는 농장 운영 스마트 시스템에 대해 개시되어 있으나, 작물의 재배환경을 분석하는데 그칠 뿐이어서 농작물 그 자체의 생육을 진단하거나 병해충을 진단하고 있지 못하는 한계점이 있다.In relation to this, a prior art document, Republic of Korea Patent Registration No. 10-1681891, discloses a smart farm operation system that can measure the soil, air, and water environment inside the plastic house and manage it in a server, but the cultivation environment of crops There is a limitation in not diagnosing the growth of crops itself or diagnosing diseases and pests because it only analyzes the crops.

따라서 상술된 문제점을 해결하기 위한 기술이 필요하게 되었다.Therefore, there is a need for a technique for solving the above-mentioned problems.

한편, 전술한 배경기술은 발명자가 본 발명의 도출을 위해 보유하고 있었거나, 본 발명의 도출 과정에서 습득한 기술 정보로서, 반드시 본 발명의 출원 전에 일반 공중에게 공개된 공지기술이라 할 수는 없다.On the other hand, the above-mentioned background art is technical information that the inventor possessed for the derivation of the present invention or acquired in the process of derivation of the present invention, and it cannot be said that it is necessarily a known technique disclosed to the general public before the filing of the present invention. .

본 명세서에서 개시되는 실시예들은, 촬영장치 및 촬영방법을 제시하는 것을 목적으로 한다.Embodiments disclosed in this specification are for the purpose of providing a photographing apparatus and a photographing method.

또한, 본 명세서에서 개시되는 실시예들은, 농작물의 생육을 진단하거나 병해충을 검출하기 위한 촬영장치 및 촬영방법을 제시하는 것을 목적으로 한다. In addition, embodiments disclosed in the present specification, it is an object of the present invention to present a photographing apparatus and method for diagnosing the growth of crops or detecting pests.

또한, 본 명세서에서 개시되는 실시예들은, 농작물의 생육 또는 병해충의 검출을 정확하게 수행가능한 촬영장치 및 촬영방법을 제시하는 것을 목적으로 한다.In addition, the embodiments disclosed in the present specification aim to provide a photographing apparatus and method capable of accurately performing the growth of crops or detection of pests and pests.

또한, 본 명세서에서 개시되는 실시예들은, 농작물의 생육 진단 또는 병해충의 검출을 최소한의 비용과 리소스로 수행가능한 촬영장치 및 촬영방법을 제시하는 것을 목적으로 한다.In addition, the embodiments disclosed herein aim to provide a photographing apparatus and method capable of performing growth diagnosis of crops or detection of pests with minimal cost and resources.

또한, 본 명세서에서 개시되는 실시예들은, 축산물 및 수산물에 관한 진단정보 생성을, 최소한의 비용과 리소스로 수행가능한 촬영장치 및 촬영방법을 제시하는 것을 목적으로 한다.In addition, embodiments disclosed in the present specification, it is an object of the present invention to provide a photographing apparatus and method capable of generating diagnostic information on livestock and marine products with minimal cost and resources.

상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 명세서에 기재된 일 실시예에 따르면, 촬영장치에 있어서, 상기 촬영장치의 촬영상태정보를 저장하는 메모리, 및 제1이미지에 기초하여 상기 촬영장치의 촬영상태정보를 결정하고, 상기 촬영상태정보에 기초하여 타깃객체를 촬영하도록 상기 촬영장치를 제어하며, 상기 타깃객체를 촬영한 제2이미지에 기초하여 진단정보를 생성하는 제어부를 포함할 수 있다.As a technical means for achieving the above-described technical problem, according to an embodiment described in the present specification, in the photographing apparatus, a memory for storing photographing state information of the photographing apparatus, and a first image of the photographing apparatus are and a controller configured to determine photographing state information, control the photographing apparatus to photograph a target object based on the photographing state information, and generate diagnostic information based on a second image obtained by photographing the target object.

또한, 상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 명세서에 기재된 일 실시예에 따르면, 촬영장치가 촬영하는 방법으로서, 제1이미지를 획득하는 단계, 제1이미지에 기초하여 상기 촬영장치의 촬영상태정보를 결정하는 단계, 상기 촬영상태정보에 기초하여 타깃객체를 촬영하도록 상기 촬영장치를 제어하는 단계, 및 상기 타깃객체를 촬영한 제2이미지에 기초하여 진단정보를 생성하는 단계를 포함할 수 있다.In addition, as a technical means for achieving the above-described technical problem, according to an embodiment described in the present specification, a method of photographing by a photographing apparatus, comprising: obtaining a first image; determining photographing state information, controlling the photographing apparatus to photograph a target object based on the photographing state information, and generating diagnostic information based on a second image photographing the target object can

전술한 과제 해결 수단 중 하나에 의하면, 촬영장치 및 촬영방법을 제시하는 것을 목적으로 한다.According to one of the above-described problem solving means, an object of the present invention is to provide a photographing apparatus and a photographing method.

전술한 과제 해결 수단 중 하나에 의하면, 농작물의 생육을 진단하거나 병해충을 검출하기 위한 촬영장치 및 촬영방법을 제시할 수 있다. 그에 따라 진단된 생육 정보와 병해충 정보에 따라 관수/관비/방제/급이 등을 자동 제어할 수 있다.According to one of the above-described problem solving means, it is possible to present a photographing apparatus and an imaging method for diagnosing the growth of crops or detecting pests and diseases. Accordingly, it is possible to automatically control irrigation/regulation/control/feeding according to the diagnosed growth information and pest information.

전술한 과제 해결 수단 중 하나에 의하면, 농작물의 생육 또는 병해충의 검출을 정확하게 수행가능한 촬영장치 및 촬영방법을 제시할 수 있다.According to one of the above-described problem solving means, it is possible to provide a photographing apparatus and an imaging method capable of accurately performing the growth of crops or detection of pests.

전술한 과제 해결 수단 중 하나에 의하면, 농작물의 생육 진단 또는 병해충의 검출을 최소한의 비용과 리소스로 수행가능한 촬영장치 및 촬영방법을 제시할 수 있다. 그에 따라 고해상도의 카메라를 구비하지 않아도 정확하게 농작물의 생육을 진단하거나 병해충을 검출할 수 있다.According to one of the above-described problem solving means, it is possible to provide an imaging apparatus and an imaging method capable of performing the growth diagnosis of crops or the detection of pests with minimal cost and resources. Accordingly, it is possible to accurately diagnose the growth of crops or detect pests and diseases without having a high-resolution camera.

전술한 과제 해결 수단 중 하나에 의하면, 축산물 및 수산물에 관한 진단정보 생성을, 최소한의 비용과 리소스로 수행가능한 촬영장치 및 촬영방법을 제시할 수 있다.According to one of the above-described problem solving means, it is possible to present a photographing apparatus and a photographing method capable of generating diagnostic information on livestock and aquatic products with minimal cost and resources.

개시되는 실시예들에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 개시되는 실시예들이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.Effects obtainable in the disclosed embodiments are not limited to the above-mentioned effects, and other effects not mentioned are clear to those of ordinary skill in the art to which the embodiments disclosed from the description below belong. will be able to be understood

도 1은 본 명세서에 개시된 일실시예에 따른 촬영장치의 구성을 나타내는 구성도이다.
도 2는 본 명세서에 개시된 일실시예에 따른 촬영장치의 구성을 나타내는 블록도이다.
도 3 내지 도 4는 본 명세서에 개시된 일실시예에 따른 촬영장치가 설치된 촬영시스템을 나타내는 예시도이다.
도 5는 일 실시예에 따른 촬영방법을 설명하기 위한 순서도이다.
도 6 내지 도 9는 본 명세서에 개시된 일실시예에 따른 촬영방법을 설명하기 위한 예시도이다.
1 is a configuration diagram showing the configuration of a photographing apparatus according to an embodiment disclosed in the present specification.
2 is a block diagram illustrating a configuration of a photographing apparatus according to an exemplary embodiment disclosed in the present specification.
3 to 4 are exemplary views illustrating a photographing system in which a photographing apparatus according to an embodiment disclosed in the present specification is installed.
5 is a flowchart illustrating a photographing method according to an exemplary embodiment.
6 to 9 are exemplary views for explaining a photographing method according to an embodiment disclosed in the present specification.

아래에서는 첨부한 도면을 참조하여 다양한 실시예들을 상세히 설명한다. 아래에서 설명되는 실시예들은 여러 가지 상이한 형태로 변형되어 실시될 수도 있다. 실시예들의 특징을 보다 명확히 설명하기 위하여, 이하의 실시예들이 속하는 기술분야에서 통상의 지식을 가진 자에게 널리 알려져 있는 사항들에 관해서 자세한 설명은 생략하였다. 그리고, 도면에서 실시예들의 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, various embodiments will be described in detail with reference to the accompanying drawings. The embodiments described below may be modified and implemented in various different forms. In order to more clearly describe the characteristics of the embodiments, detailed descriptions of matters widely known to those of ordinary skill in the art to which the following embodiments belong are omitted. And, in the drawings, parts not related to the description of the embodiments are omitted, and similar reference numerals are attached to similar parts throughout the specification.

명세서 전체에서, 어떤 구성이 다른 구성과 "연결"되어 있다고 할 때, 이는 '직접적으로 연결'되어 있는 경우뿐 아니라, '그 중간에 다른 구성을 사이에 두고 연결'되어 있는 경우도 포함한다. 또한, 어떤 구성이 어떤 구성을 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한, 그 외 다른 구성을 제외하는 것이 아니라 다른 구성들을 더 포함할 수도 있음을 의미한다.Throughout the specification, when a component is said to be "connected" with another component, it includes not only a case of 'directly connected' but also a case of 'connected with another component interposed therebetween'. In addition, when a component "includes" a component, it means that other components may be further included, rather than excluding other components, unless otherwise stated.

이하 첨부된 도면을 참고하여 실시예들을 상세히 설명하기로 한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings.

다만 이를 설명하기에 앞서, 아래에서 사용되는 용어들의 의미를 먼저 정의한다.However, before explaining this, the meaning of the terms used below is first defined.

'타깃객체'는, 생육 진단 또는 병해충 검출이 되는 대상을 의미하는 것으로서, 농장에서의 과실, 열매, 꽃, 잎 등이 될 수 있으며, 축사에서의 가축이나 동물 등의 축산물, 양식장에서의 수산물 등일 수 있다.'Target object' means a target for growth diagnosis or pest detection, and may be fruits, berries, flowers, leaves, etc. on farms can

'작물'이란 농장에서 재배되는 식물뿐 아니라, 산림식물이나 온실의 식물을 지칭하며 예를 들어 식용작물, 공예작물, 사료작물, 비료작물, 원예작물 등이 될 수 있다.The term 'crop' refers not only to plants grown on farms, but also to forest plants or plants in greenhouses, and may include, for example, food crops, craft crops, fodder crops, fertilizer crops, and horticultural crops.

외에 설명이 필요한 용어는 아래에서 각각 따로 설명한다.In addition, terms that require explanation will be separately explained below.

도 1은 본 명세서에 개시된 일실시예에 따른 촬영장치의 구성을 나타내는 구성도이며, 도 2는 본 명세서에 개시된 일실시예에 따른 촬영장치의 구성을 나타내는 블록도이다.1 is a block diagram showing the configuration of a photographing apparatus according to an embodiment disclosed in the present specification, and FIG. 2 is a block diagram illustrating the configuration of a photographing apparatus according to an embodiment disclosed in the present specification.

촬영장치(100)는 타깃객체를 촬영하여 타깃객체에 관한 진단정보를 제공한다.The photographing apparatus 100 provides diagnostic information about the target object by photographing the target object.

촬영장치(100)는 렌즈부(210), 거리측정부(220), 제어부(230), 회전구동부(240), 유지부(250), 메모리(260) 및 통신부(270)를 포함할 수 있다.The photographing apparatus 100 may include a lens unit 210 , a distance measurement unit 220 , a control unit 230 , a rotation driving unit 240 , a holding unit 250 , a memory 260 , and a communication unit 270 . .

렌즈부(210)는, 피사체의 상을 받아들여, 광 신호를 수신하여 이를 전기적 신호로 변환한 후, 변환된 신호를 영상 신호로 생성하여 이미지를 생성할 수 있다. The lens unit 210 may receive an image of a subject, receive an optical signal, convert it into an electrical signal, and then generate an image by generating the converted signal as an image signal.

렌즈부(100)는 줌(ZOOM) 기능을 탑재하고 있어 원거리/근거리의 촬영을 가능케할 수 있다. The lens unit 100 is equipped with a zoom (ZOOM) function to enable long-distance/short-distance shooting.

또한 렌즈부(100)는 오토포커싱 기능을 탑재하고 있어 피사체에 대한 초점을 자동으로 맞출 수 있다.In addition, since the lens unit 100 is equipped with an auto-focusing function, it is possible to automatically focus on a subject.

이러한 렌즈부(210)는 실시예에 따르면, EO(Electro-Optical) 센서(전자광학센서) 또는 IR(infrared) 센서(적외선 센서)로 구현될 수 있으며 그에 따라 화각(FOV; field of view) 내의 대상을 촬영할 수 있고 분석의 대상이 되는 촬영이미지를 생성할 수 있다. 또한 화각 내에서 촬영될 장면에 관한 이미지로서 화각 내의 대상을 표현하는 임시이미지도 렌즈부(210)는 제어부(230)로 전달할 수 있다.According to an embodiment, the lens unit 210 may be implemented as an EO (Electro-Optical) sensor (electro-optical sensor) or an IR (infrared) sensor (infrared sensor), and accordingly, within a field of view (FOV). A target can be photographed and a photographed image to be analyzed can be created. Also, the lens unit 210 may transmit a temporary image representing an object within the angle of view to the controller 230 as an image related to a scene to be photographed within the angle of view.

관련하여 이하에서는, 촬영이미지 또는 임시이미지 모두 '이미지'라 칭한다. In relation to this, hereinafter, both the photographed image and the temporary image are referred to as 'images'.

한편 거리측정부(220)는, 타깃객체와 촬영장치 간의 거리를 측정할 수 있다.Meanwhile, the distance measuring unit 220 may measure a distance between the target object and the photographing device.

실시예에 따르면, 거리측정부(220)는 TOF(TIME OF FLIGHT) 원리를 기반으로 촬영장치에서부터 타깃객체까지의 거리를 측정할 수 있다. 예를 들어, 거리측정부(220)는 지향성이 우수한 레이저를, 거리 측정하고자 하는 타깃객체에 대해 발사한 뒤, 레이저가 타깃객체로부터 반사되어 돌아온 시간을 측정하여 거리를 계산할 수 있다.According to an embodiment, the distance measuring unit 220 may measure the distance from the photographing device to the target object based on the TOF (TIME OF FLIGHT) principle. For example, the distance measuring unit 220 may calculate the distance by emitting a laser having excellent directivity to the target object to be measured distance, and measuring the time when the laser is reflected from the target object and returned.

이러한 거리측정부(220)는 예를 들어, 레이저 거리측정기로 구현되거나, 뎁스 카메라로 구현될 수 있다.The distance measurement unit 220 may be implemented as, for example, a laser rangefinder or a depth camera.

다만 거리측정부(220)가 타깃객체까지 거리를 측정하는 방식은 상술된 예에 제한되는 것은 아니다.However, the method by which the distance measuring unit 220 measures the distance to the target object is not limited to the above-described example.

반면 제어부(230)는 촬영장치(100)의 전체적인 동작을 제어하며, CPU 또는 GPU 등과 같은 프로세서를 포함할 수 있다. 제어부(230)는 본 명세서에 개시된 촬영방법에 따른 동작을 수행하도록 촬영장치(100)에 포함된 다른 구성들을 제어할 수 있다. 예를 들어, 제어부(230)는 후술할 메모리(260)에 저장된 프로그램을 실행시키거나, 메모리(260)에 저장된 파일을 읽어오거나, 새로운 파일을 메모리(260)에 저장할 수도 있다.On the other hand, the controller 230 controls the overall operation of the photographing apparatus 100 and may include a processor such as a CPU or GPU. The controller 230 may control other components included in the photographing apparatus 100 to perform an operation according to the photographing method disclosed herein. For example, the controller 230 may execute a program stored in the memory 260 to be described later, read a file stored in the memory 260 , or store a new file in the memory 260 .

실시예에 따르면 제어부(230)는 렌즈부(210)로부터 이미지를 획득할 수 있다.According to an embodiment, the controller 230 may acquire an image from the lens unit 210 .

관련하여 이하에서는 설명의 편의상, 전체 영역 내에서 타깃객체에 대응되는 이미지가 소정의 크기 이상의 면적을 차지하는 이미지를 '제2이미지'라 칭하며, 그 이외의 이미지는 '제1이미지'라 칭한다. In relation to this, for convenience of explanation, an image in which an image corresponding to a target object occupies an area of a predetermined size or more within the entire area is referred to as a 'second image', and other images are referred to as a 'first image'.

제어부(230)는 제1이미지에서 타깃후보객체를 하나 이상 식별해낼 수 있다.The controller 230 may identify one or more target candidate objects from the first image.

예를 들어 렌즈부(210)가 생성한 이미지가 사과나무 전체를 촬영한 것이라면, 해당 촬영이미지 내에서는 타깃객체인 사과가 복수 개 존재할 수 있다. 따라서 제어부(230)는 획득한 이미지 내에서, 타깃객체로 추정되는 타깃후보객체를 하나 이상 식별해낼 수 있다.For example, if the image generated by the lens unit 210 is a photograph of the entire apple tree, a plurality of apples, which are target objects, may exist in the photographed image. Accordingly, the controller 230 may identify one or more target candidate objects estimated to be target objects in the acquired image.

이를 위해 제어부(230)는 YOLO(YOU ONLY LOOK ONCE) 모델 또는 R-CNN(REGION BASED CONVOLUTIONAL NEURAL NETWORK) 모델, SSD(SINGLE SHOT MULTIBOX DETECTOR) 모델 등의 타깃객체 검출에 유리한 객체 식별 모델로 구현된 인공신경망을 학습시키고, 학습된 인공신경망에 기반하여 제1이미지 내에서의 타깃후보객체를 식별해낼 수 있다.To this end, the control unit 230 is an artificial object identification model implemented as an object identification model advantageous for detecting a target object, such as a YOU ONLY LOOK ONCE (YOLO) model, a REGION BASED CONVOLUTIONAL NEURAL NETWORK (R-CNN) model, or a SINGLE SHOT MULTIBOX DETECTOR (SSD) model. A neural network may be trained, and a target candidate object in the first image may be identified based on the learned artificial neural network.

예를 들어, 과수원 사과나무에서의 사과가 타깃객체라면, 제어부(230)는 사과나무를 촬영한 제1이미지를 학습된 인공신경망에 입력하여 제1이미지 내에서의 사과를 식별해내고 식별된 위치를 바운딩박스로 처리함으로써 타깃후보객체를 추출해낼 수 있다. For example, if an apple in an apple tree in an orchard is a target object, the controller 230 inputs the first image of the apple tree to the trained artificial neural network to identify the apple in the first image and identify the identified position. By treating as a bounding box, the target candidate object can be extracted.

또는 예를 들어, 돈방에서 돼지가 타깃객체라면, 제어부(230)는 돈방을 촬영한 제1이미지를 학습된 인공신경망에 입력하여 제1이미지 내에서의 돼지를 식별해내고 식별된 위치를 바운딩박스로 처리함으로써 타깃후보객체를 추출해낼 수 있다.Or, for example, if the pig is the target object in the pig room, the control unit 230 inputs the first image photographed in the pig room into the learned artificial neural network to identify the pig in the first image, and set the identified position in the bounding box. By processing with , the target candidate object can be extracted.

그에 따라 제어부(230)는 제1이미지 내에서 타깃후보객체의 위치좌표 및 타깃후보객체의 개수를 결정할 수 있다.Accordingly, the controller 230 may determine the position coordinates of the target candidate object and the number of target candidate objects in the first image.

예를 들어 제1이미지 내에서 타깃객체후보 영역이 바운딩박스로 구분된다면, 제어부(230)는 바운딩박스의 중심점 또는 바운딩박스의 일 꼭지점을 위치좌표로 추출할 수 있고, 또한 바운딩박스의 개수를 카운팅하여 타깃후보객체의 개수를 결정할 수 있다.For example, if the target object candidate region in the first image is divided into a bounding box, the control unit 230 may extract a center point of the bounding box or a vertex of the bounding box as a position coordinate, and also counting the number of bounding boxes Thus, the number of target candidate objects can be determined.

그리고 일 실시예에 따르면, 제어부(230)는 타깃후보객체가 복수개라면, 제2이미지의 획득을 위해 복수 개의 타깃후보객체 중 하나를 선택하고 선택된 타깃후보객체를 타깃객체로 결정할 수 있다. According to an embodiment, if there are a plurality of target candidate objects, the controller 230 may select one of the plurality of target candidate objects to obtain the second image and determine the selected target candidate object as the target object.

그리고, 선택된 타깃후보객체에 관한 진단정보가 생성된다면, 제어부(230)는 제1이미지 내에서 식별된 다른 타깃후보객체를 타깃객체로 선정할 수 있으며, 제1이미지 내에서 모든 타깃후보객체에 관한 진단정보가 생성될 때까지 위 과정을 반복할 수 있다. And, if diagnostic information on the selected target candidate object is generated, the controller 230 may select another target candidate object identified in the first image as the target object, The above process may be repeated until diagnostic information is generated.

또 다른 실시예에 따르면, 제어부(230)는 타깃후보객체가 한 개라면 상기 타깃후보객체를 타깃객체로 결정할 수 있다.According to another embodiment, if there is only one target candidate object, the controller 230 may determine the target candidate object as the target object.

제어부(230)는 현재의 촬영상태정보, 현재의 거리정보, 및 제1이미지 내에서의 타깃객체의 위치좌표에 기초하여 촬영상태정보를 결정할 수 있다.The controller 230 may determine the photographing state information based on the current photographing state information, the current distance information, and the location coordinates of the target object in the first image.

이를 위해 제어부(230)는 타깃객체의 위치좌표를 결정할 수 있다.To this end, the controller 230 may determine the location coordinates of the target object.

실시예에 따르면 제어부(230)는 제1이미지 내에서 타깃객체의 식별을 위해 타깃후보객체를 에워싸는 바운딩박스의 중심점의 좌표를 연산하고 중심점의 좌표를 타깃객체의 위치좌표로 결정하거나, 또는 바운딩박스의 일 꼭지점의 좌표를 타깃객체의 위치좌표로 결정할 수 있다. According to the embodiment, the control unit 230 calculates the coordinates of the center point of the bounding box surrounding the target candidate object for identification of the target object in the first image and determines the coordinates of the center point as the location coordinates of the target object, or the bounding box It is possible to determine the coordinates of one vertex of the target object as the position coordinates of the target object.

또 다른 실시예에 따르면 제어부(230)는 타깃객체 중에서 소정의 화소값을 갖는 위치의 좌표를 타깃객체의 위치좌표로 결정할 수 있는데 예를 들어, 타깃객체로 판단되는 영역 내에서 가장 밝은 화소값을 갖는 위치를 타깃객체의 위치좌표로 결정할 수 있다. According to another embodiment, the controller 230 may determine the coordinates of a position having a predetermined pixel value among the target objects as the position coordinates of the target object. The position it has can be determined as the position coordinates of the target object.

또한 제어부(230)는 현재의 촬영상태정보를 획득할 수 있다. 이때 현재의 촬영상태정보는 가장 최신의 촬영상태정보를 업데이트하고 있는 메모리(260)로부터 획득할 수 있다.Also, the control unit 230 may obtain current photographing state information. In this case, the current photographing state information may be acquired from the memory 260 that is updating the latest photographing state information.

이때 '촬영상태정보'란, 팬(PAN) 각도, 틸트(TILT) 각도 및 줌 배율 중 적어도 하나를 포함한다. 또한 촬영상태정보는 추가로 포커싱값을 더 포함할 수 있다. 예를 들어 촬영상태정보에 따라 제어부(230)는, 촬영장치(100)를 상하좌우로 이동시키거나 렌즈부(210) 줌 배율을 조정하거나 포커싱을 조절하여 렌즈부(210)로 하여금 원거리/근거리의 피사체를 적절하게 촬영할 수 있도록 할 수 있다.In this case, the 'photographing state information' includes at least one of a pan angle, a tilt angle, and a zoom magnification. In addition, the photographing state information may further include a focusing value. For example, according to the photographing state information, the control unit 230 moves the photographing apparatus 100 up, down, left and right, adjusts the zoom magnification of the lens unit 210, or adjusts the focusing to cause the lens unit 210 to make the long-distance/short-distance It is possible to properly photograph the subject of

또한 촬영상태정보는 추가로, 촬영시의 환경에 관한 정보를 포함할 수 있으며, 예를 들어, 조도, 온도, 습도 및 풍속 등의 정보를 포함할 수 있다.In addition, the photographing state information may further include information about the environment at the time of photographing, for example, information such as illuminance, temperature, humidity, and wind speed.

제1이미지의 중심좌표가 피사체를 바라보는 촬영장치의 팬 각도 및 틸트 각도이므로 제어부(230)는 해당 팬 각도 및 틸트 각도를 현재의 촬영상태정보로 획득할 수 있다.Since the central coordinates of the first image are the pan angle and the tilt angle of the photographing apparatus looking at the subject, the controller 230 may obtain the corresponding pan angle and the tilt angle as current photographing state information.

또한 제어부(230)는 현재의 거리정보를 획득할 수 있는데, 실시예에 따르면 거리측정부(220)로부터 획득할 수 있다. 따라서 예를 들어 제1이미지의 중심좌표에 대응되는 피사체까지의 거리를, 거리측정부(220)가 측정하여 획득할 수 있다.Also, the control unit 230 may obtain current distance information, and according to an embodiment, may obtain it from the distance measurement unit 220 . Therefore, for example, the distance to the subject corresponding to the center coordinate of the first image may be obtained by measuring the distance measuring unit 220 .

따라서 실시예에 따르면, 제어부(230)는 제1이미지의 중심좌표에서부터 타깃객체의 위치좌표 간의 좌표차이를 연산하고, 현재의 거리정보에 기초하여 위치좌표를 촬영하기 위한 팬 각도 및 틸트 각도를 연산할 수 있다. 그리고 연산된 팬 각도 및 틸트 각도를 현재의 촬영상태정보에 반영함으로써 촬영상태정보를 생성할 수 있다.Therefore, according to the embodiment, the control unit 230 calculates the coordinate difference between the position coordinates of the target object from the central coordinates of the first image, and calculates the pan angle and the tilt angle for photographing the position coordinates based on the current distance information. can do. In addition, by reflecting the calculated pan angle and tilt angle in the current photographing state information, it is possible to generate photographing state information.

그에 따라 제어부(230)는 회전구동부(240)로 하여금 촬영장치(100)가 움직이도록 제어할 수 있으며 그에 따라 타깃객체가 화각 내에 위치할 수 있다.Accordingly, the controller 230 may control the rotation driving unit 240 to move the photographing apparatus 100, and accordingly, the target object may be located within the angle of view.

추가로 제어부(230)는, 촬영상태정보에 기초하여 촬영장치(100)가 이동한 이후, 렌즈부(210)가 타깃객체를 보다 정밀하게 촬영하도록 촬영상태정보를 갱신할 수 있다.In addition, the controller 230 may update the photographing state information so that the lens unit 210 captures the target object more precisely after the photographing apparatus 100 moves based on the photographing state information.

실시예에 따라 타깃객체에 대해 렌즈부(210)가 촬영할 수 있도록 포커싱값을 결정할 수 있다.According to an embodiment, a focusing value may be determined so that the lens unit 210 may photograph the target object.

예를 들어, 제어부(230)는 타깃객체까지의 거리에 기초하여 초점을 맞추기 위한 포커싱값을 연산할 수 있으며, 이를 위해 거리측정부(220)로 하여금 촬영장치에서부터 타깃객체까지의 거리를 측정하도록 할 수 있다. For example, the controller 230 may calculate a focusing value for focusing based on the distance to the target object, and for this purpose, the controller 230 may cause the distance measuring unit 220 to measure the distance from the photographing device to the target object. can do.

또한 예를 들어, 제어부(230)는 렌즈부(210)에 구비된 오토포커싱 기능을 동작시키고 그에 따라 결정된 포커싱값을 메모리(260)에 저장할 수 있다.Also, for example, the control unit 230 may operate an auto-focusing function provided in the lens unit 210 and store the determined focusing value in the memory 260 .

또 다른 실시예에 따라 제어부(230)는 렌즈부(210)를 통해 보이는 화각 내 이미지에서, 타깃객체에 관한 이미지 영역이 전체 이미지 영역 내에서 소정의 비율 이상을 차지하도록 줌 배율을 정할 수 있다. According to another exemplary embodiment, in the image within the angle of view viewed through the lens unit 210 , the controller 230 may determine the zoom magnification so that the image area of the target object occupies a predetermined ratio or more within the entire image area.

이를 위해 예를 들어 제어부(230)는 픽셀 비율을 분석함으로써 타깃객체에 관한 이미지 영역이 전체 이미지 영역 내에서 소정의 비율 이상을 차지하도록 줌 배율을 정할 수 있다. 즉 제어부(230)는 타깃객체에 대응되는 픽셀의 개수가, 이미지의 전체 픽셀 개수 중 소정의 개수 이상 차지하도록 줌 배율을 조정할 수 있다. To this end, for example, the controller 230 may determine the zoom magnification so that the image area of the target object occupies a predetermined ratio or more within the entire image area by analyzing the pixel ratio. That is, the controller 230 may adjust the zoom magnification so that the number of pixels corresponding to the target object occupies a predetermined number or more among the total number of pixels of the image.

이를 위해 제어부(230)는 화각 내 피사체 이미지 내에서 타깃객체로 추청되는 영역의 픽셀을 카운팅할 수 있다. 예를 들어, 타깃객체에 대응되는 색상의 픽셀을, 타깃객체로 추정되는 영역의 픽셀로 판단하고 제어부(230)는 타깃객체로 추정되는 영역의 픽셀을 카운팅할 수 있다.To this end, the controller 230 may count pixels in an area estimated to be a target object in the subject image within the angle of view. For example, a pixel of a color corresponding to the target object may be determined as a pixel of an area estimated to be the target object, and the controller 230 may count pixels of the area estimated to be the target object.

또한 예를 들어, 제어부(230)는 타깃객체가 차지하는 면적을 연산하고, 타깃객체의 면적이 이미지의 면적에서 소정의 비율 이상 차지하도록 줌 배율을 조정할 수 있다. 따라서, 타깃객체가 귤일 때 원형의 과실인 귤의 가로 비율을 측정하여, 이미지 내에서 귤이 차지하는 면적을 원의 넓이를 계산하는 방식으로 연산함으로써 귤에 관한 이미지가 전체 이미지에서 차지하는 비율을 계산할 수 있다.Also, for example, the controller 230 may calculate the area occupied by the target object and adjust the zoom magnification so that the area of the target object occupies a predetermined ratio or more in the area of the image. Therefore, when the target object is a mandarin orange, it is possible to calculate the ratio of the orange image to the total image by measuring the horizontal ratio of the orange, the fruit of the circle, and calculating the area occupied by the orange in the image by calculating the area of the circle. have.

또는 예를 들어, 제어부(230)는 타깃객체의 경계를 식별하여 타깃객체의 크기를 연산함으로써 타깃객체에 관한 이미지 영역이 전체 이미지 영역 내에서 소정의 비율 이상을 차지하도록 줌 배율을 조정할 수 있다. Alternatively, for example, the controller 230 may adjust the zoom magnification so that the image area of the target object occupies a predetermined ratio or more within the entire image area by identifying the boundary of the target object and calculating the size of the target object.

또는 예를 들어, 제어부(230)는 타깃객체의 경계를 식별하여 타깃객체의 경계와 이미지의 경계 간의 거리가 소정의 거리 이내가 되도록 줌 배율을 조정할 수 있다.Alternatively, for example, the controller 230 may identify the boundary of the target object and adjust the zoom magnification so that the distance between the boundary of the target object and the boundary of the image is within a predetermined distance.

상술된 바에 따라 포커싱값 및 줌 배율이 연산되면 제어부(230)는 촬영상태정보를 갱신할 수 있다. 즉, 제어부(230)는 렌즈부(210)로 하여금 연산된 포커싱값 및 줌 배율에 따라 피사체를 촬영하도록 제어할 수 있다. When the focusing value and the zoom magnification are calculated as described above, the controller 230 may update the photographing state information. That is, the controller 230 may control the lens unit 210 to photograph the subject according to the calculated focusing value and zoom magnification.

그에 따라 제어부(230)는 타깃객체가 포함된 제2이미지를 획득할 수 있다.Accordingly, the controller 230 may acquire the second image including the target object.

그리고 제어부(230)는 제2이미지를 분석함으로써 타깃객체의 생육정보 및 병해충정보 중 적어도 하나를 진단정보로서 생성할 수 있다.The controller 230 may generate at least one of growth information and pest information of the target object as diagnostic information by analyzing the second image.

관련하여 진단정보는, 촬영장치(100)가 위치한 공간에서의 타깃객체의 위치좌표에 관한 정보도 포함할 수 있으며, 예를 들어 진단정보를 생성할 때의 촬영장치(100)의 gps 정보 또는 촬영장치(100)가 위치한 구획에 관한 정보 등을 포함할 수 있다. 관련하여 구획정보는, 예를 들어, 돈방, 돈사, 우사, 계사, 수조 등을 식별하기 위한 정보일 수 있으며, 또는 단수 이상의 생육측정 작물을 식별하기 위한 정보일 수 있다. 예를 들어 구획정보로서, 하나 이상의 돼지가 타깃객체로서 존재하고 있는 돈방 식별정보일 수 있으며, 또는 예를 들어, 하나 이상의 과실(또는 꽃, 또는 잎 또는 줄기)이 존재하는 작물 식별정보 또는 작물이 위치하는 구획의 식별정보일 수 있다.In relation to this, the diagnostic information may also include information on the position coordinates of the target object in the space in which the imaging device 100 is located, for example, gps information or imaging of the imaging device 100 when generating diagnostic information. It may include information about the compartment in which the device 100 is located, and the like. In this regard, the section information may be, for example, information for identifying a pig farm, a pig house, a barn, a cage, a tank, and the like, or may be information for identifying a single or more growth measurement crop. For example, as section information, it may be pig farm identification information in which one or more pigs are present as target objects, or, for example, crop identification information or crops in which one or more fruits (or flowers, or leaves or stems) exist. It may be identification information of the compartment in which it is located.

진단정보의 생성을 위해, 제어부(230)는 타깃객체와 배경을 분리하여, 제2이미지 내에서 타깃객체를 식별할 수 있다. To generate the diagnostic information, the controller 230 may identify the target object in the second image by separating the target object and the background.

예를 들어, 제어부(230)는, 타깃객체의 엣지(edge)를 딥러닝 모델을 기반으로 식별함으로써, 엣지 내에 위치한 타깃객체와, 엣지 외부에 위치한 배경을 분리해낼 수 있다.For example, the controller 230 may separate the target object located within the edge and the background located outside the edge by identifying the edge of the target object based on the deep learning model.

제어부(230)는 제2이미지를 분석하여 생육정보를 생성할 수 있다.The controller 230 may analyze the second image to generate growth information.

이때 생육정보는 타깃객체가 예를 들어 과실일 때, 수확 가능 시기를 판단하기 위해 어느정도 성장하였는지에 관한 정보로서, 예를 들어, 품종, 크기, 착색도 등의 정보를 포함할 수 있으며, 또한 크기와 착색도에 기반하여 생장시기 중 어느 시기인지에 관한 정보도 포함할 수 있다.In this case, the growth information is information about how much the target object has grown to determine the harvestable time when it is a fruit, for example, and may include, for example, information such as variety, size, and coloration, and also size and coloration. It may also include information on which time of the growth period is based on the.

실시예에 따르면 제어부(230)는 타깃객체의 크기를 측정할 수 있다.According to an embodiment, the controller 230 may measure the size of the target object.

제어부(230)는 제2이미지 내에서의 엣지 내의 타깃객체의 가로 및 세로의 길이와, 타깃객체까지의 거리에 기초하여 실제 타깃객체의 가로 및 세로의 길이를 연산할 수 있다. 연산된 가로 및 세로의 길이를 기반으로 타깃객체의 크기를 결정할 수 있다.The controller 230 may calculate the actual horizontal and vertical lengths of the target object based on the horizontal and vertical lengths of the target object within the edge in the second image and the distance to the target object. The size of the target object can be determined based on the calculated horizontal and vertical lengths.

실시예에 따르면, 제어부(230)는 타깃객체의 품종 및 타깃객체의 색상에 따라 착색도를 측정할 수 있다.According to an embodiment, the controller 230 may measure the coloration degree according to the type of the target object and the color of the target object.

예를 들어 제어부(230)는 타깃객체의 품종이 딸기일 때 빨간색 정도를 측정하여 착색도를 측정할 수 있다. For example, when the variety of the target object is strawberry, the controller 230 may measure the degree of coloration by measuring the degree of red.

상술된 바에 따라 측정된 크기 및 착색도를 제어부(230)는 생육정보로서 생성할 수 있다.The controller 230 may generate the size and coloration measured as described above as growth information.

또한, 제어부(230)는, 타깃객체의 품종, 크기 및 착색도에 기초하여 타깃객체의 생장단계를 결정할 수 있다. 따라서 예를 들어, 타깃객체가 충분히 성장하여 수확해야 할 시기라면, 수확시기임을 생육정보에 추가할 수 있다.Also, the controller 230 may determine the growth stage of the target object based on the type, size, and coloration of the target object. Therefore, for example, if the target object is sufficiently grown and it is time to harvest, the harvest time may be added to the growth information.

반면 제어부(230)는 제2이미지를 분석하여 타깃객체의 병해충정보를 생성할 수 있다.On the other hand, the controller 230 may analyze the second image to generate pest information of the target object.

이를 위해 제어부(230)는 품종 별, 해충 피해 별, 병균(또는 바이러스) 별로 타깃객체가 가질 수 있는 모습이 포함된 이미지를 입력하여 병해충 영역을 출력하도록 딥러닝 모델을 학습시킬 수 있다. 이 때의 딥러닝 모델은 CNN(CONVOLUTIONAL NEURAL NETWORK), RNN(RECURRENT NEURAL NETWORK) 등이 될 수 있다. 그리고 학습된 딥러닝 모델에 제2이미지를 입력할 수 있으며, 이때 엣지가 식별된 제2이미지를 입력하여 타깃객체에 대응되는 영역에서 병해충 영역을 검출하여 표시하도록 할 수 있다. To this end, the controller 230 may train the deep learning model to output the pest area by inputting an image including the appearance of the target object for each breed, pest damage, and germ (or virus). The deep learning model at this time may be a CONVOLUTIONAL NEURAL NETWORK (CNN), a RECURRENT NEURAL NETWORK (RNN), or the like. In addition, a second image may be input to the learned deep learning model, and at this time, a second image with an identified edge may be input to detect and display the pest area in the area corresponding to the target object.

또한 제어부(230)는 품종 별, 해충 별 타깃객체가 가질 수 있는 모습이 포함된 이미지를 입력하여 해충을 식별해낼 수 있도록 딥러닝 모델을 학습시킬 수 있다. 이 때의 딥러닝 모델은 CNN(CONVOLUTIONAL NEURAL NETWORK), RNN(RECURRENT NEURAL NETWORK) 등이 될 수 있다. 그리고 학습된 딥러닝 모델에 제2이미지를 입력할 수 있으며, 이때 해충의 위치를 검출하여 표시하도록 하거나, 해충의 개수 또는 해충의 종류를 검출하여 표시하도록 할 수 있다. In addition, the controller 230 may train the deep learning model to identify the pest by inputting an image including the appearance of the target object for each breed and each pest. The deep learning model at this time may be a CONVOLUTIONAL NEURAL NETWORK (CNN), a RECURRENT NEURAL NETWORK (RNN), or the like. And the second image may be input to the learned deep learning model, and at this time, the position of the pest may be detected and displayed, or the number or type of the pest may be detected and displayed.

추가로 제어부(230)는 타깃객체가 동물이라면, 발열정보가 포함되도록 진단정보를 생성할 수 있다.Additionally, if the target object is an animal, the controller 230 may generate diagnostic information to include fever information.

이를 위해 제어부(230)는 제2이미지를 획득하였을 때 후술될 체온감지부(미도시)로부터 획득된 제2이미지에 대응되는 체온정보를 진단정보로서 생성하거나, 또는, 제2이미지에 포함되는 타깃객체인 동물이 정상체온이 아니라면 질병을 갖고 있는 상태임을 나타내는 정보를 진단정보로서 생성할 수 있다.To this end, when the second image is obtained, the controller 230 generates body temperature information corresponding to a second image obtained from a body temperature sensor (not shown) to be described later as diagnostic information, or a target included in the second image. If an animal, which is an object, is not at normal body temperature, information indicating that it has a disease state may be generated as diagnostic information.

아울러 제어부(230)는 진단정보를 검증할 수 있다.In addition, the control unit 230 may verify the diagnosis information.

작물의 경우 해충이 존재하거나 질병이 있는 경우 통상 하나의 개체에서만 발견되지 않고 군집으로 발견되는 경우가 많으므로, 일 타깃객체에 대해 진단정보로서 병해충이 검출되었을 때, 제어부(230)는 다른 타깃객체에 관한 진단정보를 비교함으로써 진단정보를 검증할 수 있다.In the case of crops, when pests exist or have diseases, they are usually found not only in one individual but in a cluster, so when a pest is detected as diagnostic information for one target object, the controller 230 controls the other target object. The diagnostic information can be verified by comparing the diagnostic information about

예를 들어, 일 타깃객체에 대해 해충이 발견되었음을 나타내는 진단정보가 생성되었다면, 제어부(230)는 다른 타깃객체에 관한 진단정보에서 해충에 관한 정보가 포함되지 않았다면, 생성된 진단정보가 잘못 생성되었다고 판단하고 제2이미지의 분석을 다시 진행할 수 있다.For example, if diagnostic information indicating that a pest has been found for one target object is generated, the control unit 230 determines that the generated diagnostic information is erroneously generated if information on pests is not included in the diagnostic information on another target object. It may be determined and the analysis of the second image may be performed again.

이때 다른 타깃객체는 검증의 대상이 되는 타깃객체와 소정의 범위 내에 위치한 것일 수 있다. 예를 들어 다른 타깃객체는 검증 대상 타깃객체와 같은 이미지 내에서 촬영되었던 타깃객체일 수 있다. 또는 예를 들어 다른 타깃객체는, 진단정보에 포함된 위치정보를 기준으로 소정의 범위 내에 위치한 타깃객체일 수 있다.In this case, the other target object may be located within a predetermined range from the target object to be verified. For example, the other target object may be a target object that was captured in the same image as the target object to be verified. Alternatively, for example, the other target object may be a target object located within a predetermined range based on location information included in the diagnosis information.

한편 제어부(230)는, 획득한 이미지를 분석하여 이물질이 있거나 렌즈에 습기가 존재한다고 판단하면, 유지부(250)로 하여금 이물질을 제거하도록 하거나 습기를 제거하도록 할 수 있다.Meanwhile, if the controller 230 analyzes the acquired image and determines that there is a foreign substance or moisture exists in the lens, the controller 230 may cause the holding unit 250 to remove the foreign substance or moisture.

이때, 제어부(230)는 획득된 제1이미지 및 제2이미지 중 적어도 하나에 기초하여 렌즈부(210) 표면 상에 이물질이 있다고 판단할 수 있는데, 예를 들어, 소정의 시간 간격으로 동일한 타깃객체를 촬영함으로써 획득된 이미지 두 개를 시간 순으로 비교하여 이전 시간의 이미지와 대비하여 이후 시간 이미지에 변화가 있다면 이물질이 존재한다고 판단할 수 있다.In this case, the controller 230 may determine that there is a foreign material on the surface of the lens unit 210 based on at least one of the acquired first image and the second image. For example, the same target object at a predetermined time interval. By comparing two images acquired by photographing in chronological order, if there is a change in the later time image compared to the previous time image, it can be determined that there is a foreign substance.

반면 회전구동부(240)는, 촬영장치(100)를 좌우로 회전시키거나 상하로 회전시킬 수 있다.On the other hand, the rotation driving unit 240 may rotate the photographing apparatus 100 left and right or vertically.

또한 회전구동부(240)는 최초 촬영상태정보에 따라 촬영장치(100) 동작의 시작 또는 촬영장치(100) 동작의 종료 시 원점으로 돌아가도록 할 수 있다.Also, the rotation driving unit 240 may return to the origin when the operation of the photographing apparatus 100 starts or the operation of the photographing apparatus 100 ends according to the initial photographing state information.

이러한 회전구동부(240)는 모터로 구현될 수 있으며, 제어부(230)의 제어에 따라 촬영장치(100) 전체를 팬 각도 및 틸트 각도에 따라 이동시킬 수 있다.The rotation driving unit 240 may be implemented as a motor, and may move the entire photographing apparatus 100 according to a pan angle and a tilt angle under the control of the controller 230 .

또한 회전구동부(240)는 예를 들어, 촬영장치(100)의 최하단 또는 최상단에 위치함으로써 촬영장치(100) 전체를 회전시킬 수 있다.In addition, the rotation driving unit 240 may rotate the entire photographing apparatus 100 by being positioned at the lowermost or uppermost end of the photographing apparatus 100 , for example.

한편 유지부(250)는, 촬영장치(100)의 렌즈부(210)가 피사체를 촬영할 수 있도록 촬영장치(100)의 환경을 유지시킬 수 있다. Meanwhile, the holding unit 250 may maintain the environment of the photographing apparatus 100 so that the lens unit 210 of the photographing apparatus 100 may photograph a subject.

실시예에 따르면 유지부(250)는 렌즈부(210) 상에 존재하는 이물질을 제거할 수 있다.According to an embodiment, the holding unit 250 may remove foreign substances existing on the lens unit 210 .

렌즈부(210)가 피사체를 촬영하기 위해서는 렌즈부(210)의 표면에 이물질이 존재하지 않아야 하는데, 촬영장치(100)가 축사나 과수원 등 외부에 노출되는 경우가 많아 흙이나 물방울 등의 이물질이 존재할 수 있다. In order for the lens unit 210 to photograph a subject, foreign substances should not exist on the surface of the lens unit 210, and since the photographing device 100 is often exposed to the outside such as a barn or an orchard, foreign substances such as soil or water droplets may exist.

예를 들어, 유지부(250)는 와이퍼(251)로 구현되어 좌우로 움직이면서, 렌즈부(210)를 구성하는 유리 표면에 위치한 빗방울이나 이슬을 닦아낼 수 있다. 이러한 유지부(250)는 렌즈부(210)의 하단에 위치하여 렌즈부(210)의 표면에 붙은 이물질을 제거할 수 있다.For example, the holding unit 250 may be implemented as a wiper 251 and move left and right to wipe off raindrops or dew located on the glass surface constituting the lens unit 210 . The holding unit 250 may be positioned at the lower end of the lens unit 210 to remove foreign substances adhering to the surface of the lens unit 210 .

또 다른 실시예에 따르면 유지부(250)는 렌즈부(210)의 습기도 제거할 수 있다. According to another embodiment, the holding unit 250 may also remove moisture from the lens unit 210 .

예를 들어 유지부(250)는 열선으로 구현되어 렌즈부(210) 표면의 습기를 제거할 수 있다. 이러한 유지부(250)는 렌즈부(210)에 포함되어 렌즈부(210)의 습기를 제거할 수 있다.For example, the holding unit 250 may be implemented as a hot wire to remove moisture from the surface of the lens unit 210 . The holding unit 250 may be included in the lens unit 210 to remove moisture from the lens unit 210 .

한편 메모리(260)에는 파일, 어플리케이션 및 프로그램 등과 같은 다양한 종류의 데이터가 설치 및 저장될 수 있다. 제어부(230)는 메모리(260)에 저장된 데이터에 접근하여 이를 이용하거나, 또는 새로운 데이터를 메모리(260)에 저장할 수도 있다. 또한, 제어부(230)는 메모리(260)에 설치된 프로그램을 실행할 수도 있다. 예를 들어, 메모리(260)는 촬영방법을 수행하기 위한 프로그램이 설치될 수 있으며, 또는 촬영상태정보를 저장할 수도 있다. 메모리(260)는 또한 촬영장치의 팬 각도 또는 틸트 각도를 원점으로 되돌리기 위해 최초 촬영상태정보도 저장할 수 있고, 촬영상태정보가 갱신되면 갱신된 촬영상태정보도 저장할 수 있다.Meanwhile, various types of data such as files, applications, and programs may be installed and stored in the memory 260 . The controller 230 may access and use data stored in the memory 260 , or may store new data in the memory 260 . Also, the controller 230 may execute a program installed in the memory 260 . For example, the memory 260 may be installed with a program for performing a photographing method, or may store photographing state information. The memory 260 may also store initial photographing state information to return the pan angle or tilt angle of the photographing apparatus to the origin, and may also store the updated photographing state information when the photographing state information is updated.

한편 통신부(270)는 다른 장치 또는 네트워크와 유무선 통신을 수행할 수 있다. 가령 통신부(270)는 입출력장치(미도시) 또는 전자단말(미도시)과 통신하여 촬영방법을 수행하기 위한 각종 정보를 송수신할 수 있다. Meanwhile, the communication unit 270 may perform wired/wireless communication with other devices or networks. For example, the communication unit 270 may communicate with an input/output device (not shown) or an electronic terminal (not shown) to transmit/receive various types of information for performing a photographing method.

이를 위해, 통신부(270)는 다양한 유무선 통신 방법 중 적어도 하나를 지원하는 통신 모듈을 포함할 수 있다. 예를 들어, 통신 모듈은 칩셋(chipset)의 형태로 구현될 수 있다.To this end, the communication unit 270 may include a communication module supporting at least one of various wired and wireless communication methods. For example, the communication module may be implemented in the form of a chipset.

예를 들어, 통신부(270)가 지원하는 무선 통신은, 예를 들어 Wi-Fi(Wireless Fidelity), Wi-Fi Direct, 블루투스(Bluetooth), UWB(Ultra Wide Band) 또는 NFC(Near Field Communication), 2G 내지 5G 통신 기술 또는 그 이상의 통신 기술 등일 수 있다. 또한, 통신부(110)가 지원하는 유선 통신은, 예를 들어 USB, Ethernet 또는 HDMI(High Definition Multimedia Interface) 등일 수 있다.For example, the wireless communication supported by the communication unit 270 is, for example, Wi-Fi (Wireless Fidelity), Wi-Fi Direct, Bluetooth (Bluetooth), UWB (Ultra Wide Band) or NFC (Near Field Communication), It may be 2G to 5G communication technology or higher communication technology. In addition, the wired communication supported by the communication unit 110 may be, for example, USB, Ethernet, or High Definition Multimedia Interface (HDMI).

실시예에 따르면, 촬영장치(100)에 의해 생성된 진단정보를, 통신부(270)는 외부의 장치로 송신할 수 있다. 이때 외부의 장치는 예를 들어 후술되는 입출력장치(미도시)이거나, 또는 예를 들어, 과실을 채집하는 채집기, 사료를 제공하는 사료급이기, 또는 비닐하우스나 축사장 내의 스프링쿨러, 에어컨, 난방기, 조명기기, 도어개폐기, 비료투입기, 농약분무기 등이거나 또는 예를 들어, 병해충이 존재하는 과실 또는 동물을 표시하기 위한 마킹장치 등이 될 수 있다.According to an embodiment, the communication unit 270 may transmit the diagnostic information generated by the photographing apparatus 100 to an external device. In this case, the external device is, for example, an input/output device (not shown) to be described later, or, for example, a fruit collector, a feed feeder that provides feed, or a sprinkler, air conditioner, It may be a heater, a lighting device, a door opener, a fertilizer injector, a pesticide sprayer, or the like, or, for example, a marking device for displaying fruits or animals in which pests or pests exist.

또 다른 실시예에 따르면 촬영장치(100)에 의해 생성된 진단정보를, 통신부(270)는 서버로 송신할 수 있다. 서버는 촬영장치(100)와 네트워크를 통해 통신이 가능한 컴퓨터로 구현되거나 클라우드 컴퓨팅 서버로 구현될 수 있다. 또한, 서버는 데이터를 저장할 수 있는 저장장치를 포함하거나 제 3의 서버를 통해 데이터를 저장할 수 있다. 또한, 서버는 관리자의 단말과 통신할 수 있다.According to another embodiment, the communication unit 270 may transmit the diagnostic information generated by the photographing apparatus 100 to the server. The server may be implemented as a computer capable of communicating with the imaging device 100 through a network or may be implemented as a cloud computing server. In addition, the server may include a storage device capable of storing data or may store data through a third server. In addition, the server may communicate with the terminal of the manager.

한편 촬영장치(100)는 추가적으로 체온감지부(미도시)를 더 포함할 수 있다.Meanwhile, the photographing apparatus 100 may further include a body temperature sensing unit (not shown).

촬영장치(100)가 축사 또는 양식장에 위치하면, 타깃객체인 동물의 체온을 측정하기 위해, 체온감지부(미도시)를 더 포함할 수 있다.When the photographing apparatus 100 is located in a livestock barn or a farm, it may further include a body temperature sensing unit (not shown) to measure the body temperature of an animal, which is a target object.

이와 같은 체온감지부(미도시)는 예를 들어, 열화상 카메라, 또는 적외선온도센서 등으로 구현될 수 있으며, 렌즈부(210)의 축과 동일한 축을 갖도록 촬영장치(100)에 위치할 수 있다.Such a body temperature sensing unit (not shown) may be implemented as, for example, a thermal imaging camera or an infrared temperature sensor, and may be located in the photographing apparatus 100 so as to have the same axis as the axis of the lens unit 210 . .

또한 촬영장치(100)는 추가적으로 입출력부(미도시)를 더 포함할 수 있다.In addition, the photographing apparatus 100 may further include an input/output unit (not shown).

입출력부(미도시)는 관리자로부터 입력을 수신하기 위한 입력부와 작업의 수행 결과 또는 촬영장치(100)의 상태 등의 정보를 표시하기 위한 출력부를 포함할 수 있다. 예를 들어 입출력부(미도시)는, 농장, 축사 또는 양식장 등을 운영하는 관리자의 입력을 수신하는 조작 패널(operation panel) 및 화면을 표시하는 디스플레이 패널(display panel) 등을 포함할 수 있다.The input/output unit (not shown) may include an input unit for receiving an input from a manager and an output unit for displaying information such as a result of a job or the state of the photographing apparatus 100 . For example, the input/output unit (not shown) may include an operation panel that receives an input from a manager who operates a farm, a livestock bar, or a farm, and a display panel that displays a screen.

구체적으로 입력부는 키보드, 물리 버튼, 터치 스크린 또는 마이크 등과 같이 다양한 형태의 입력을 수신할 수 있는 장치들을 포함할 수 있다. 또한, 출력부는 디스플레이 패널 또는 스피커 등을 포함할 수 있다. 다만, 이에 한정되지 않고 입출력부(미도시)는 다양한 입출력을 지원하는 구성을 포함할 수 있다.Specifically, the input unit may include devices capable of receiving various types of inputs, such as a keyboard, a physical button, a touch screen, or a microphone. In addition, the output unit may include a display panel or a speaker. However, the present invention is not limited thereto, and the input/output unit (not shown) may include a configuration supporting various input/output.

실시예에 따르면, 입력부는 관리자로부터 촬영의 수행을 위한 조작을 입력 받을 수도 있다. 또한, 출력부는 진단정보를 관리자가 확인할 수 있도록 진단정보를 출력하여 제공하거나 진단정보에 대응되는 알람이나 경고음을 출력할 수 있다. According to an embodiment, the input unit may receive a manipulation for performing photographing from a manager. In addition, the output unit may output and provide diagnostic information so that an administrator can check the diagnostic information, or output an alarm or a warning sound corresponding to the diagnostic information.

이러한 입출력부(미도시)는, 촬영장치(100)와 통신부(170)를 통해 통신하도록 별도의 장치인 입출력장치(미도시)로 구현되어 촬영장치(100) 외부에 위치할 수도 있다.The input/output unit (not shown) may be implemented as an input/output device (not shown), which is a separate device, to communicate with the photographing apparatus 100 through the communication unit 170 , and may be located outside the photographing apparatus 100 .

상술된 바에 따른 촬영장치(100)는 촬영대상인 피사체가 존재하는 장소에 고정으로 설치되거나 이동할 수 있는 이동장치에 설치될 수 있다.The photographing apparatus 100 according to the above description may be fixedly installed in a place where an object to be photographed exists or may be installed in a movable apparatus.

관련하여 도 3 내지 도 4는 본 명세서에 개시된 일실시예에 따른 촬영장치(100)가 설치된 촬영시스템을 나타내는 예시도이다.3 to 4 are exemplary views showing a photographing system in which the photographing apparatus 100 according to an embodiment disclosed in the present specification is installed.

도 3에서 도시된 바와 같이 촬영장치(100)는 이동가능한 촬영시스템(300)에 설치될 수 있다.As shown in FIG. 3 , the photographing apparatus 100 may be installed in a movable photographing system 300 .

촬영시스템(300)은, 환경센서(310), 본체(320), 기둥(330), 암(340) 및 구동장치(350)로 구성될 수 있다. 그리고 촬영시스템(300)는 추가적으로 마킹장치(미도시)를 포함할 수 있다. The imaging system 300 may include an environmental sensor 310 , a body 320 , a pillar 330 , an arm 340 , and a driving device 350 . And the imaging system 300 may additionally include a marking device (not shown).

환경센서(310)는 촬영이 이루어지는 환경을 감지하기 위한 센서로서, 예를 들어, 온도센서, 습도센서, 이산화탄소 측정 센서 등을 포함할 수 있으며, 예를 들어 축사 내에 촬영 시스템(300)이 위치하면 축사의 환경을 측정할 수 있다. The environmental sensor 310 is a sensor for detecting an environment in which photographing is performed, and may include, for example, a temperature sensor, a humidity sensor, a carbon dioxide measurement sensor, and the like. It is possible to measure the environment of the livestock.

본체(320)는 다면체 형상으로 형성될 수 있으며, 촬영시스템(300)의 구동 또는 제어에 필요한 장치가 실장될 수 있다. 예를 들어, 본체(320)는 바퀴 또는 무한궤도 중 어느 하나의 형태로 구현되어 촬영시스템(300)을 이동시키는 구동장치(350)와, 구동장치(350)에 구동력을 제공하는 전기모터를 포함할 수 있다. 또한, 예를 들어 본체(300)는 전기모터에 전원을 제공하기 위한 배터리(미도시)와 촬영시스템(300)을 제어하기 위한 컴퓨팅 장치 등이 실장될 수 있다. The body 320 may be formed in a polyhedral shape, and a device necessary for driving or controlling the imaging system 300 may be mounted thereon. For example, the main body 320 is implemented in the form of any one of wheels or caterpillars and includes a driving device 350 for moving the imaging system 300 and an electric motor providing driving force to the driving device 350 . can do. Also, for example, the main body 300 may be equipped with a battery (not shown) for providing power to the electric motor and a computing device for controlling the imaging system 300 .

그리고 본체(320)에는 후술할 기둥(330), 암(340) 그리고 구동장치(350)가 본체(320)의 외부에 결합될 수 있다.In addition, a pillar 330 , an arm 340 , and a driving device 350 , which will be described later, may be coupled to the body 320 to the outside of the body 320 .

예를 들어, 본체(320)는 직육면체의 형상을 가질 수 있고, 상단면에 기둥(330)과 암(340)이 구비될 수 있고, 하단면에 구동장치(350)가 구비될 수 있다. For example, the body 320 may have a rectangular parallelepiped shape, the pillar 330 and the arm 340 may be provided on the upper surface, and the driving device 350 may be provided on the lower surface.

기둥(330)은 일정한 길이를 갖는 막대형상으로 형성되고, 일단이 본체(320)의 상단면의 일 영역에 결합될 수 있으며, 예를 들어, 기둥(330)은 지면과 수직방향으로 배치되면서 기둥(330)의 일단이 본체(320)의 상단면에 결합되되, 길이방향을 축으로 좌우 180도 내지 270도 회전 가능하도록 결합될 수 있다. The pillar 330 is formed in a rod shape having a certain length, and one end may be coupled to an area of the upper surface of the body 320 , for example, the pillar 330 is a pillar while being disposed in a vertical direction with the ground. One end of the 330 is coupled to the upper surface of the main body 320, and may be coupled to be rotatable by 180 degrees to 270 degrees left and right in the longitudinal direction as an axis.

또한, 기둥(330)은 길이가 가변될 수 있어 기둥(330)의 타단에 결합되는 후술할 암(340)의 높이를 변경할 수 있다. 예를 들어, 기둥(330)은 텔레스코픽 레일 형태로 구현될 수 있으며, 길이를 변경함으로써 지면으로부터 기둥(330)의 타단에 결합된 암(340)까지의 높이를 변경할 수 있다. In addition, the column 330 may have a variable length, so that the height of the arm 340 coupled to the other end of the column 330 may be changed. For example, the pillar 330 may be implemented in the form of a telescopic rail, and by changing the length, the height from the ground to the arm 340 coupled to the other end of the pillar 330 may be changed.

암(340)은 일정한 길이를 갖는 막대형상으로 형성되어 지면과 평행되게 배치되어 암(340)의 일단이 기둥(330)에 결합될 수 있고, 암(340)의 타단에는 촬영장치(100)가 결합될 수 있다. 예를 들어, 암(340)은 텔레스코픽 레일 형태로 구현되어 길이가 가변될 수 있으며, 이에 따라 암(340)의 타단에 구비된 촬영장치(100)와 기둥(330)간의 이격 거리가 늘어나거나 줄어들 수 있다.The arm 340 is formed in a rod shape having a certain length and is disposed parallel to the ground so that one end of the arm 340 can be coupled to the post 330 , and the imaging device 100 is installed at the other end of the arm 340 . can be combined. For example, the arm 340 is implemented in the form of a telescopic rail so that the length can be changed, and accordingly, the separation distance between the photographing device 100 provided at the other end of the arm 340 and the pillar 330 is increased or decreased. can

또한 마킹장치(미도시)는 촬영장치(100)가 결합된 암(340)의 일 위치에 구비되어 과실 또는 가축에 외형적 특징을 추가할 수 있도록 물리적 외력을 가할 수 있는 장치로 예를 들어, 페인트탄을 발사하는 발사장치이거나 또는 물감 또는 페인트가 혼합된 액체를 분무할 수 있는 분무장치일 수 있다.In addition, the marking device (not shown) is provided at one position of the arm 340 to which the photographing device 100 is coupled, and is a device capable of applying a physical external force to add external features to fruit or livestock, for example, It may be a launch device that fires paint bullets or a spray device capable of spraying a liquid mixed with paint or paint.

한편 도 4에서 도시된 바와 같이 촬영장치(100)는 이동가능한 촬영시스템(400)에 설치될 수 있다.Meanwhile, as shown in FIG. 4 , the photographing apparatus 100 may be installed in a movable photographing system 400 .

촬영시스템(400)은 드론으로 구현될 수 있으며, 드론은 원격으로 제어되거나 자율 비행이 가능한 무인항공기로 비행방식에 따라 날개가 기체에 수평으로 붙어 있는 고정익, 회전축에 프로펠러가 설치되어 양력을 발생시키는 회전익, 회전날개를 기울일 수 있는 틸트로터 등을 포함할 수 있다. 이러한 촬영시스템(400)은 도 3의 촬영시스템(300)에 설치된 마킹장치(미도시)도 포함할 수 있다.The imaging system 400 may be implemented as a drone, and the drone is an unmanned aerial vehicle that can be controlled remotely or can fly autonomously, and according to the flight method, a propeller is installed on a fixed wing and a rotating shaft with wings attached to the aircraft horizontally to generate lift. It may include a rotor blade, a tilt rotor capable of tilting the rotor blade, and the like. The imaging system 400 may also include a marking device (not shown) installed in the imaging system 300 of FIG. 3 .

촬영장치(100)는 촬영시스템(400)의 비행 시 가시거리가 확보되도록 촬영시스템(400)의 하단에 설치될 수 있다. The photographing apparatus 100 may be installed at the lower end of the photographing system 400 so as to secure a visible distance when the photographing system 400 is flying.

실시예에 따르면, 농장에서 촬영장치(100)가 피사체를 촬영하게 되면, 작물이 잘 보이도록 촬영장치(100)가 땅에 고정된 상태로 설치될 수 있으며, 또는 상술된 촬영시스템(300, 400)에 설치될 수 있다.According to an embodiment, when the photographing device 100 takes a picture of a subject on a farm, the photographing device 100 may be installed in a fixed state on the ground so that crops can be seen well, or the above-described imaging systems 300 and 400 ) can be installed.

또 다른 실시예에 따르면, 축사에서 촬영장치(100)가 피사체를 촬영하게 되면, 천정이나 벽면에 고정된 상태로 설치되거나, 천정이나 벽면 또는 바닥에 설치된 레일 상에서 이동 가능하게 설치될 수 있으며, 또는 상술된 촬영시스템(300, 400)에 설치될 수 있다.According to another embodiment, when the photographing device 100 takes a picture of a subject in a barn, it may be installed in a fixed state on the ceiling or wall, or may be installed movably on a rail installed on the ceiling, wall, or floor, or It may be installed in the above-described imaging systems 300 and 400 .

한편, 도 5는 일 실시예에 따른 촬영방법을 설명하기 위한 순서도이다. 도 5에 도시된 촬영방법은 도1 내지 도 4를 통해 설명된 촬영장치(100)에서 시계열적으로 처리하는 단계들을 포함한다. 따라서 이하에서 생략된 내용이라고 하더라도 도 1 내지 도 4에 도시된 촬영장치(100)에 관하여 이상에서 기술한 내용은 도 5에 도시된 실시예에 따른 촬영방법에도 이용될 수 있다.Meanwhile, FIG. 5 is a flowchart illustrating a photographing method according to an exemplary embodiment. The photographing method illustrated in FIG. 5 includes the steps of time-series processing in the photographing apparatus 100 described with reference to FIGS. 1 to 4 . Therefore, even if omitted below, the content described above with respect to the photographing apparatus 100 illustrated in FIGS. 1 to 4 may also be used in the photographing method according to the embodiment illustrated in FIG. 5 .

관련하여 도 6 내지 도 9는 본 명세서에 개시된 촬영방법을 설명하기 위한 예시도이다.6 to 9 are exemplary views for explaining the photographing method disclosed in the present specification.

도 5에서 도시된 바와 같이 촬영장치(100)는, 제1이미지를 획득할 수 있다 (S510).As shown in FIG. 5 , the photographing apparatus 100 may acquire a first image ( S510 ).

관련하여 도 6은 촬영장치(100)가 위치하는 귤농장을 도시한 것이며, 도 7은 도 6의 귤농장에서 피사체를 촬영한 이미지를 도시한 것이다. In relation to this, FIG. 6 shows a tangerine farm in which the photographing device 100 is located, and FIG. 7 shows an image of a subject in the tangerine farm of FIG. 6 .

도 6의 귤농장에 위치한 촬영장치(100)는 화각(600) 내에 위치한 피사체를 촬영할 수 있다. 그에 따라 도 7에 도시된 바와 같은 제1이미지(700)를 획득할 수 있다.The photographing apparatus 100 located in the tangerine farm of FIG. 6 may photograph a subject located within the angle of view 600 . Accordingly, the first image 700 as shown in FIG. 7 may be acquired.

제1이미지를 획득한 촬영장치(100)는, 제1이미지 내에서 타깃후보객체를 식별할 수 있다 (S520).The photographing apparatus 100 that has obtained the first image may identify the target candidate object in the first image (S520).

도 7에서 도시된 바와 같이, 촬영장치(100)는 귤로 추정되는 타깃후보객체(710, 720, 730, 740, 750)를 식별해낼 수 있으며, 이를 위해 YOLO모델 또는 R-CNN 모델로 구현된 인공신경망을 학습시키고 학습된 인공신경망에 제1이미지를 입력함으로써 타깃후보객체를 식별해낼 수 있다.As shown in FIG. 7 , the photographing apparatus 100 may identify target candidate objects 710 , 720 , 730 , 740 , and 750 estimated to be oranges, and for this purpose, artificial intelligence implemented as a YOLO model or an R-CNN model. A target candidate object can be identified by training the neural network and inputting the first image to the learned artificial neural network.

상술된 바와 같이 식별된 타깃후보객체 중 하나를 선택하여 타깃객체로 결정할 수 있다 (S530). As described above, one of the identified target candidate objects may be selected to determine the target object ( S530 ).

예를 들어 촬영장치(100)는 각 타깃후보객체를 에워싸는 바운딩박스의 중심점을 기준으로, 제1이미지의 최하단 좌측 꼭지점을 기준으로 x축 방향으로 순차적으로 타깃후보객체를 선택할 수 있으며, 그에 따라 타깃후보객체(710, 720, 730, 740, 750) 순으로 순차적으로 선택할 수 있다. 따라서 촬영장치(100)는 타깃후보객체(710, 720, 730, 740, 750) 중 타깃후보객체(710)를 먼저 선택하여 타깃객체로 결정하고 타깃후보객체(710)에 관한 진단정보를 생성하고 난 이후 다음의 타깃객체(720) 순으로, 각 타깃객체마다 진단정보를 생성할 수 있다.For example, the photographing apparatus 100 may sequentially select target candidate objects in the x-axis direction based on the center point of the bounding box surrounding each target candidate object and the lowermost left vertex of the first image. Candidate objects 710, 720, 730, 740, and 750 may be sequentially selected in order. Therefore, the photographing apparatus 100 first selects the target candidate object 710 from among the target candidate objects 710, 720, 730, 740, and 750, determines it as a target object, and generates diagnostic information about the target candidate object 710, and After that, diagnosis information may be generated for each target object in the order of the following target objects 720 .

이와 같이 결정된 타깃객체의 촬영을 위해, 촬영장치(100)는 촬영상태정보를 결정할 수 있다(S540).In order to photograph the determined target object, the photographing apparatus 100 may determine photographing state information ( S540 ).

촬영장치(100)는 현재의 촬영상태정보, 현재의 거리정보, 및 제1이미지 내에서의 타깃객체의 위치좌표에 기초하여 촬영상태정보를 결정할 수 있다.The photographing apparatus 100 may determine the photographing state information based on the current photographing state information, the current distance information, and the location coordinates of the target object in the first image.

실시예에 따라 현재의 촬영상태정보, 현재의 거리정보, 및 제1이미지 내에서의 타깃객체의 위치좌표에 기초하여 팬 각도 및 틸트 각도를 연산함으로써 촬영장치(100)는 촬영상태정보를 생성할 수 있다.According to an embodiment, the photographing apparatus 100 may generate photographing state information by calculating a pan angle and a tilt angle based on the current photographing state information, the current distance information, and the position coordinates of the target object in the first image. can

한편, 줌 배율이 낮아 타깃객체가 작게 촬영되거나, 포커싱값이 맞지 않아 타깃객체가 낮은 해상도로 찍히게 되면 촬영상태정보를 갱신할 수 있다 (S550).On the other hand, when the target object is photographed in a small size due to a low zoom magnification, or when the target object is photographed at a low resolution because the focusing value does not match, the photographing state information may be updated (S550).

실시예에 따르면 렌즈를 통해 보이는 화각 내 이미지에서, 타깃객체에 관한 이미지 영역이 전체 이미지 영역 내에서 소정의 비율 이상을 차지하도록 줌 배율을 정할 수 있다. According to an exemplary embodiment, in an image within an angle of view viewed through a lens, a zoom magnification may be determined such that an image area of the target object occupies a predetermined ratio or more within the entire image area.

촬영상태정보에 기초하여 촬영장치(100)는 이동하거나 포커싱하거나 줌 배율을 조정함으로써 타깃객체를 촬영함으로써 제2이미지를 획득할 수 있다 (S560).Based on the photographing state information, the photographing apparatus 100 may acquire a second image by photographing the target object by moving, focusing, or adjusting a zoom magnification (S560).

관련하여 도 8 및 도 9는 촬영장치(100)가 제2이미지를 획득하는 과정을 설명하기 위한 예시도이다.8 and 9 are exemplary views for explaining a process in which the photographing apparatus 100 acquires a second image.

도 8에서 도시된 바와 같이 촬영장치(100)는 촬영이미지 또는 포커싱된 이미지 내에서 귤로 식별되는 영역(810)이 전체 이미지(800) 내에서 차지하는 비율이 소정 비율 이상이 아니라면, 도 9에서 도시된 바와 같이 촬영장치(100)는 줌 배율을 조정하여 귤로 식별되는 영역(910)이 전체 이미지(900) 내에서 소정 비율 이상 차지하도록 할 수 있다. As shown in FIG. 8 , the photographing apparatus 100 performs the image capturing method shown in FIG. 9 if the area 810 identified as a mandarin orange in the photographed image or the focused image does not occupy a predetermined ratio or more in the entire image 800 . As described above, the photographing apparatus 100 may adjust the zoom magnification so that the area 910 identified as an orange occupies a predetermined ratio or more in the entire image 900 .

이와 같이 촬영상태정보를 갱신함으로써, 도 9에 도시된 바에 따른 제2이미지를 촬영장치(100)는 획득할 수 있다.By updating the photographing state information in this way, the photographing apparatus 100 may acquire the second image as shown in FIG. 9 .

이와 같이 타깃객체를 촬영함으로써 제2이미지를 획득하면, 촬영장치(100)는 제2이미지에 기초하여 진단정보를 생성할 수 있다 (S570).When the second image is obtained by photographing the target object as described above, the photographing apparatus 100 may generate diagnostic information based on the second image (S570).

촬영장치(100)는 제2이미지 내에서, 타깃객체의 엣지(edge)를 딥러닝 모델을 기반으로 식별함으로써, 엣지 내에 위치한 타깃객체와, 엣지 외부에 위치한 배경을 분리해낼 수 있다.The photographing apparatus 100 may separate the target object located within the edge and the background located outside the edge by identifying the edge of the target object in the second image based on the deep learning model.

그리고 촬영장치(100)는 타깃객체의 이미지를 분석함으로써 생육정보 및 병해충정보 중 적어도 하나를 포함하는 진단정보를 생성할 수 있다.In addition, the imaging apparatus 100 may generate diagnostic information including at least one of growth information and pest information by analyzing the image of the target object.

도 9에 도시된 바와 같은 귤의 이미지에서, 촬영장치(100)는 귤(910)의 크기와 귤의 착색도를 측정함으로써 진단정보를 생성할 수 있다. In the image of a tangerine as shown in FIG. 9 , the photographing apparatus 100 may generate diagnostic information by measuring the size of the tangerine 910 and the coloration of the tangerine.

또는 촬영장치(100)는 귤(910)의 병해충정보를 생성할 수 있는데, 도 9에 도시된 바와 같이, 해충이 파먹은 위치인 병해충 영역(920)을 식별하여 관련 정보를 포함하는 진단정보를 생성할 수 있다. 예를 들어 병해충 영역(920)의 개수, 해충이 귤에 있다면 해충의 개수, 해충이나 병해충 영역을 분석함에 따라 해충에 관한 정보 또는 병균에 관한 정보를 포함하여 진단정보를 생성할 수 있다.Alternatively, the imaging device 100 may generate pest information of the tangerine 910 , as shown in FIG. 9 , by identifying the pest area 920 , which is a location where the pest has been devoured, diagnostic information including related information is provided. can create For example, by analyzing the number of pest areas 920 , the number of pests if the pest is in a tangerine, and information on pests or pests, diagnostic information including information about pests or germs may be generated.

상술된 단계 S530 내지 단계 S570는, 제1이미지 내에서 식별된 타깃후보객체 중에서 진단정보가 생성되지 않은 타깃후보객체가 없을 때까지 반복될 수 있다 (S580).Steps S530 to S570 described above may be repeated until there is no target candidate object for which diagnostic information has not been generated among the target candidate objects identified in the first image (S580).

상술된 바에 따른 촬영방법으로 제1이미지에 관한 진단정보를 생성하면, 촬영장치(100)는 또 다른 피사체를 촬영하여 제1이미지를 획득할 수 있다.When diagnostic information about the first image is generated by the photographing method as described above, the photographing apparatus 100 may photograph another subject to obtain the first image.

이때, 획득된 제1이미지가 이전에 분석되었던 제1이미지와 중첩되는 영역이 존재한다고 판단되면, 촬영장치(100)는 촬영상태정보를 갱신하여 다른 팬 각도 또는 틸트 각도에서 촬영하여 제1이미지를 획득할 수 있다. 또는 제1이미지가 획득된 촬영장치(100)의 위치정보와 팬 및 틸트 각도에 기초하여, 획득된 제1이미지가 이전에 분석된 제1이미지와 동일한 위치에서 동일한 대상을 촬영한 것이라고 판단할 수 있고 그에 따라 촬영장치(100)는 촬영상태정보를 갱신하여 다른 팬 각도 또는 틸트 각도에서 촬영하여 제1이미지를 획득할 수 있다.At this time, if it is determined that there is an area in which the acquired first image overlaps with the previously analyzed first image, the photographing apparatus 100 updates the photographing state information and captures the first image by photographing it at a different pan angle or tilt angle. can be obtained Alternatively, based on the position information of the photographing apparatus 100 from which the first image was obtained, and the pan and tilt angles, it may be determined that the obtained first image was photographed at the same location as the previously analyzed first image and the same object Accordingly, the photographing apparatus 100 may acquire the first image by updating the photographing state information and photographing it at a different pan angle or tilt angle.

상기와 같이 설명된 촬영방법은 컴퓨터에 의해 실행 가능한 명령어 및 데이터를 저장하는, 컴퓨터로 판독 가능한 매체의 형태로도 구현될 수 있다. 이때, 명령어 및 데이터는 프로그램 코드의 형태로 저장될 수 있으며, 프로세서에 의해 실행되었을 때, 소정의 프로그램 모듈을 생성하여 소정의 동작을 수행할 수 있다. 또한, 컴퓨터로 판독 가능한 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터로 판독 가능한 매체는 컴퓨터 기록 매체일 수 있는데, 컴퓨터 기록 매체는 컴퓨터 판독 가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함할 수 있다. 예를 들어, 컴퓨터 기록 매체는 HDD 및 SSD 등과 같은 마그네틱 저장 매체, CD, DVD 및 블루레이 디스크 등과 같은 광학적 기록 매체, 또는 네트워크를 통해 접근 가능한 서버에 포함되는 메모리일 수 있다. The photographing method described above may also be implemented in the form of a computer-readable medium for storing instructions and data executable by a computer. In this case, the instructions and data may be stored in the form of program codes, and when executed by the processor, a predetermined program module may be generated to perform a predetermined operation. In addition, computer-readable media can be any available media that can be accessed by a computer, and includes both volatile and nonvolatile media, removable and non-removable media. In addition, the computer-readable medium may be a computer recording medium, which is a volatile and non-volatile and non-volatile embodied in any method or technology for storage of information such as computer-readable instructions, data structures, program modules, or other data. It may include both volatile, removable and non-removable media. For example, the computer recording medium may be a magnetic storage medium such as HDD and SSD, an optical recording medium such as CD, DVD, and Blu-ray disc, or a memory included in a server accessible through a network.

상기와 같이 설명된 촬영방법은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 컴퓨터 프로그램(또는 컴퓨터 프로그램 제품)으로 구현될 수도 있다. 컴퓨터 프로그램은 프로세서에 의해 처리되는 프로그래밍 가능한 기계 명령어를 포함하고, 고레벨 프로그래밍 언어(High-level Programming Language), 객체 지향 프로그래밍 언어(Object-oriented Programming Language), 어셈블리 언어 또는 기계 언어 등으로 구현될 수 있다. 또한 컴퓨터 프로그램은 유형의 컴퓨터 판독가능 기록매체(예를 들어, 메모리, 하드디스크, 자기/광학 매체 또는 SSD(Solid-State Drive) 등)에 기록될 수 있다. The photographing method described above may be implemented as a computer program (or computer program product) including instructions executable by a computer. The computer program includes programmable machine instructions processed by a processor, and may be implemented in a high-level programming language, an object-oriented programming language, an assembly language, or a machine language. . In addition, the computer program may be recorded in a tangible computer-readable recording medium (eg, a memory, a hard disk, a magnetic/optical medium, or a solid-state drive (SSD), etc.).

상기와 같이 설명된 촬영방법은 상술한 바와 같은 컴퓨터 프로그램이 컴퓨팅 장치에 의해 실행됨으로써 구현될 수 있다. 컴퓨팅 장치는 프로세서와, 메모리와, 저장 장치와, 메모리 및 고속 확장포트에 접속하고 있는 고속 인터페이스와, 저속 버스와 저장 장치에 접속하고 있는 저속 인터페이스 중 적어도 일부를 포함할 수 있다. 이러한 성분들 각각은 다양한 버스를 이용하여 서로 접속되어 있으며, 공통 머더보드에 탑재되거나 다른 적절한 방식으로 장착될 수 있다.The photographing method described above may be implemented by executing the computer program as described above by a computing device. The computing device may include at least a portion of a processor, a memory, a storage device, a high-speed interface connected to the memory and the high-speed expansion port, and a low-speed interface connected to the low-speed bus and the storage device. Each of these components is connected to each other using various buses, and may be mounted on a common motherboard or mounted in any other suitable manner.

여기서 프로세서는 컴퓨팅 장치 내에서 명령어를 처리할 수 있는데, 이런 명령어로는, 예컨대 고속 인터페이스에 접속된 디스플레이처럼 외부 입력, 출력 장치상에 GUI(Graphic User Interface)를 제공하기 위한 그래픽 정보를 표시하기 위해 메모리나 저장 장치에 저장된 명령어를 들 수 있다. 다른 실시예로서, 다수의 프로세서 및(또는) 다수의 버스가 적절히 다수의 메모리 및 메모리 형태와 함께 이용될 수 있다. 또한 프로세서는 독립적인 다수의 아날로그 및(또는) 디지털 프로세서를 포함하는 칩들이 이루는 칩셋으로 구현될 수 있다. Here, the processor may process a command within the computing device, such as for displaying graphic information for providing a Graphical User Interface (GUI) on an external input or output device, such as a display connected to a high-speed interface, for example. For example, instructions stored in memory or a storage device. In other embodiments, multiple processors and/or multiple buses may be used with multiple memories and types of memory as appropriate. In addition, the processor may be implemented as a chipset formed by chips including a plurality of independent analog and/or digital processors.

또한 메모리는 컴퓨팅 장치 내에서 정보를 저장한다. 일례로, 메모리는 휘발성 메모리 유닛 또는 그들의 집합으로 구성될 수 있다. 다른 예로, 메모리는 비휘발성 메모리 유닛 또는 그들의 집합으로 구성될 수 있다. 또한 메모리는 예컨대, 자기 혹은 광 디스크와 같이 다른 형태의 컴퓨터 판독 가능한 매체일 수도 있다. Memory also stores information within the computing device. As an example, the memory may be configured as a volatile memory unit or a set thereof. As another example, the memory may be configured as a non-volatile memory unit or a set thereof. The memory may also be another form of computer readable medium such as, for example, a magnetic or optical disk.

그리고 저장장치는 컴퓨팅 장치에게 대용량의 저장공간을 제공할 수 있다. 저장 장치는 컴퓨터 판독 가능한 매체이거나 이런 매체를 포함하는 구성일 수 있으며, 예를 들어 SAN(Storage Area Network) 내의 장치들이나 다른 구성도 포함할 수 있고, 플로피 디스크 장치, 하드 디스크 장치, 광 디스크 장치, 혹은 테이프 장치, 플래시 메모리, 그와 유사한 다른 반도체 메모리 장치 혹은 장치 어레이일 수 있다.In addition, the storage device may provide a large-capacity storage space to the computing device. A storage device may be a computer-readable medium or a component comprising such a medium, and may include, for example, devices or other components within a storage area network (SAN), a floppy disk device, a hard disk device, an optical disk device, or a tape device, a flash memory, or other semiconductor memory device or device array similar thereto.

이상의 실시예들에서 사용되는 '~부'라는 용어는 소프트웨어 또는 FPGA(field programmable gate array) 또는 ASIC 와 같은 하드웨어 구성요소를 의미하며, '~부'는 어떤 역할들을 수행한다. 그렇지만 '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램특허 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다.The term '~ unit' used in the above embodiments means software or hardware components such as field programmable gate array (FPGA) or ASIC, and '~ unit' performs certain roles. However, '-part' is not limited to software or hardware. '~unit' may be configured to reside on an addressable storage medium or may be configured to refresh one or more processors. Thus, as an example, '~' denotes components such as software components, object-oriented software components, class components, and task components, and processes, functions, properties, and procedures. , subroutines, segments of program patent code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays, and variables.

구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로부터 분리될 수 있다.Functions provided in components and '~ units' may be combined into a smaller number of components and '~ units' or separated from additional components and '~ units'.

뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU 들을 재생시키도록 구현될 수도 있다. 상술된 실시예들은 예시를 위한 것이며, 상술된 실시예들이 속하는 기술분야의 통상의 지식을 가진 자는 상술된 실시예들이 갖는 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 상술된 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.In addition, components and '~ units' may be implemented to play one or more CPUs in a device or secure multimedia card. The above-described embodiments are for illustration, and those of ordinary skill in the art to which the above-described embodiments pertain can easily transform into other specific forms without changing the technical idea or essential features of the above-described embodiments. You will understand. Therefore, it should be understood that the above-described embodiments are illustrative in all respects and not restrictive. For example, each component described as a single type may be implemented in a distributed manner, and likewise components described as distributed may also be implemented in a combined form.

본 명세서를 통해 보호받고자 하는 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태를 포함하는 것으로 해석되어야 한다.The scope to be protected through this specification is indicated by the claims described below rather than the above detailed description, and should be construed to include all changes or modifications derived from the meaning and scope of the claims and their equivalents. .

100: 촬영장치
210: 렌즈부 220: 거리측정부
230: 제어부 240: 회전구동부
250: 유지부 260: 메모리
270: 통신부
100: shooting device
210: lens unit 220: distance measurement unit
230: control unit 240: rotation drive unit
250: holding unit 260: memory
270: communication department

Claims (14)

촬영장치에 있어서,
상기 촬영장치의 촬영상태정보를 저장하는 메모리; 및
제1이미지에 기초하여 상기 촬영장치의 촬영상태정보를 결정하고, 상기 촬영상태정보에 기초하여 타깃객체를 촬영하도록 상기 촬영장치를 제어하며, 상기 타깃객체를 촬영한 제2이미지에 기초하여 진단정보를 생성하는 제어부를 포함하는 촬영장치.
In the photographing device,
a memory for storing photographing state information of the photographing apparatus; and
Determines photographing state information of the photographing apparatus based on a first image, controls the photographing apparatus to photograph a target object based on the photographing state information, and provides diagnostic information based on a second image photographing the target object A photographing device comprising a control unit for generating
제1항에 있어서,
상기 제어부는
상기 제1이미지에 기초하여 타깃객체를 식별하고, 상기 제1이미지에서의 상기 타깃객체의 위치에 기초하여 상기 촬영장치의 촬영상태정보를 결정하는, 촬영장치.
According to claim 1,
the control unit
and identifying a target object based on the first image, and determining photographing state information of the photographing apparatus based on a location of the target object in the first image.
제1항에 있어서,
상기 타깃객체와 상기 촬영장치 간의 거리를 연산하는 거리측정부를 더 포함하고,
상기 제어부는,
상기 거리에 기초하여 상기 촬영상태정보를 갱신하는, 촬영장치.
According to claim 1,
Further comprising a distance measuring unit for calculating the distance between the target object and the photographing device,
The control unit is
and updating the photographing state information based on the distance.
제1항에 있어서,
상기 제어부는,
상기 제2이미지의 전체 영역 내에서 타깃객체에 대응되는 이미지가 소정의 크기 이상의 면적을 차지하도록 상기 촬영상태정보를 갱신하는, 촬영장치.
According to claim 1,
The control unit is
and updating the photographing state information so that an image corresponding to a target object occupies an area of a predetermined size or more within the entire area of the second image.
제1항에 있어서,
상기 제어부는,
상기 타깃객체에 관한 생육정보 및 병해충정보 중 적어도 하나에 관한 진단정보를 생성하는, 촬영장치.
According to claim 1,
The control unit is
An imaging device for generating diagnostic information on at least one of growth information and pest information on the target object.
제1항에 있어서,
렌즈부 상에서의 이물질을 제거하기 위한 와이퍼를 더 포함하고,
상기 제어부는,
상기 제1이미지 및 상기 제2이미지 중 적어도 하나에 기초하여 상기 와이퍼로 하여금 동작하도록 제어하는, 촬영장치.
According to claim 1,
Further comprising a wiper for removing foreign substances on the lens unit,
The control unit is
and controlling the wiper to operate based on at least one of the first image and the second image.
제1항에 있어서,
상기 제1이미지는 작물을 촬영한 이미지인, 촬영장치.
According to claim 1,
The first image is a photographing image of a crop, a photographing device.
제1항에 있어서,
상기 제어부는,
상기 진단정보를, 상기 타깃객체를 기준으로 소정 범위 내에 위치한 타 타깃객체에 관한 진단정보와 대비함으로써 상기 진단정보를 검증하는, 촬영장치.
According to claim 1,
The control unit is
and verifying the diagnostic information by comparing the diagnostic information with diagnostic information about another target object located within a predetermined range with respect to the target object.
촬영장치가 촬영하는 방법으로서,
제1이미지를 획득하는 단계;
제1이미지에 기초하여 상기 촬영장치의 촬영상태정보를 결정하는 단계;
상기 촬영상태정보에 기초하여 타깃객체를 촬영하도록 상기 촬영장치를 제어하는 단계; 및
상기 타깃객체를 촬영한 제2이미지에 기초하여 진단정보를 생성하는 단계를 포함하는, 촬영방법.
As a method of photographing by a photographing device,
acquiring a first image;
determining photographing state information of the photographing apparatus based on a first image;
controlling the photographing apparatus to photograph a target object based on the photographing state information; and
and generating diagnostic information based on a second image of the target object.
제9항에 있어서,
상기 촬영상태정보를 결정하는 단계는,
상기 제1이미지에 기초하여 타깃객체를 식별하고, 상기 제1이미지에서의 상기 타깃객체의 위치에 기초하여 상기 촬영장치의 촬영상태정보를 결정하는 단계를 포함하는, 촬영방법.
10. The method of claim 9,
The step of determining the photographing state information includes:
and identifying a target object based on the first image, and determining photographing state information of the photographing apparatus based on a location of the target object in the first image.
제9항에 있어서,
상기 촬영상태정보를 결정하는 단계는,
상기 타깃객체와 상기 촬영장치 간의 거리를 연산하고 상기 거리에 기초하여 상기 촬영상태정보를 갱신하는 단계를 더 포함하는, 촬영방법.
10. The method of claim 9,
The step of determining the photographing state information includes:
The method further comprising calculating a distance between the target object and the photographing device and updating the photographing state information based on the distance.
제9항에 있어서,
상기 촬영상태정보를 결정하는 단계는,
상기 제2이미지의 전체 영역 내에서 타깃객체에 대응되는 이미지가 소정의 크기 이상의 면적을 차지하도록 상기 촬영상태정보를 갱신하는 단계를 더 포함하는, 촬영방법.
10. The method of claim 9,
The step of determining the photographing state information,
and updating the photographing state information so that an image corresponding to a target object occupies an area of a predetermined size or more within the entire area of the second image.
제9항에 있어서,
상기 촬영상태정보를 결정하는 단계는,
상기 타깃객체와 상기 촬영장치 간의 거리를 연산하고 상기 거리에 기초하여 초점을 맞추기 위한 포커싱값을 연산함으로써 상기 촬영상태정보를 갱신하는 단계를 더 포함하는, 촬영방법.
10. The method of claim 9,
The step of determining the photographing state information includes:
and updating the photographing state information by calculating a distance between the target object and the photographing device and calculating a focusing value for focusing based on the distance.
제9항에 있어서,
상기 진단정보를 생성하는 단계는,
상기 타깃객체에 관한 생육정보 및 병해충정보 중 적어도 하나에 관한 진단정보를 생성하는, 촬영방법.
10. The method of claim 9,
The step of generating the diagnostic information includes:
A photographing method of generating diagnostic information on at least one of growth information and pest information on the target object.
KR1020210013668A 2021-01-29 2021-01-29 Apparatus and method for photographing KR102664578B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210013668A KR102664578B1 (en) 2021-01-29 2021-01-29 Apparatus and method for photographing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210013668A KR102664578B1 (en) 2021-01-29 2021-01-29 Apparatus and method for photographing

Publications (2)

Publication Number Publication Date
KR20220109990A true KR20220109990A (en) 2022-08-05
KR102664578B1 KR102664578B1 (en) 2024-05-09

Family

ID=82826215

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210013668A KR102664578B1 (en) 2021-01-29 2021-01-29 Apparatus and method for photographing

Country Status (1)

Country Link
KR (1) KR102664578B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101772429B1 (en) * 2016-11-29 2017-08-29 렉스젠(주) Apparatus for acquiring characteristic information of object and method thereof
KR20170114065A (en) * 2016-04-01 2017-10-13 한국전자통신연구원 System and method for servicing controlment for crop image and growth information
KR20200044216A (en) * 2018-10-11 2020-04-29 순천대학교 산학협력단 System and method for predicting the occurrence of pests using Big Data

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170114065A (en) * 2016-04-01 2017-10-13 한국전자통신연구원 System and method for servicing controlment for crop image and growth information
KR101772429B1 (en) * 2016-11-29 2017-08-29 렉스젠(주) Apparatus for acquiring characteristic information of object and method thereof
KR20200044216A (en) * 2018-10-11 2020-04-29 순천대학교 산학협력단 System and method for predicting the occurrence of pests using Big Data

Also Published As

Publication number Publication date
KR102664578B1 (en) 2024-05-09

Similar Documents

Publication Publication Date Title
US11367207B2 (en) Identifying and treating plants using depth information in a single image
US10920748B2 (en) Imaging array for bird or bat detection and identification
Diago et al. On‐the‐go assessment of vineyard canopy porosity, bunch and leaf exposure by image analysis
Bargoti et al. A pipeline for trunk detection in trellis structured apple orchards
CN106259288B (en) Bird repelling method, server and information acquisition device
KR102291827B1 (en) System and method for automatic crop growth measurement in smart farm
WO2023050783A1 (en) Weeding robot and method and apparatus for planning weeding path thereof, and medium
EP4088249A1 (en) Mobile sensing system for crop monitoring
KR102375362B1 (en) Method and apparatus for inspecting barn environment based on ai
US20220101554A1 (en) Extracting Feature Values from Point Clouds to Generate Plant Treatments
Rahman et al. Possibility of applying unmanned aerial vehicle and thermal imaging in several canopy cover class for wildlife monitoring–preliminary results
Sun et al. A visual tracking system for honey bee (hymenoptera: Apidae) 3D flight trajectory reconstruction and analysis
KR20200084164A (en) Farm environment management appratus
KR102664578B1 (en) Apparatus and method for photographing
Reddy et al. dscout: Unmanned ground vehicle for automatic disease detection and pesticide atomizer
KR102649593B1 (en) Crop monitering apparatus
KR20230157141A (en) Object monitering apparatus with ground moving type
Bonaria Grapevine yield estimation using image analysis for the variety Arinto
Avramović et al. Automatic monitoring of honeybees’ activity outside of the hive from UHD video
Yuan Development of a UAV-Based Multi-Dimensional Mapping Framework for Precise Frost Management in Apple Orchards
Campos et al. A terrestrial laser scanning measurement station to monitor long-term structural dynamics in a boreal forest
Xiang High-throughput robotic plant phenotyping using 3D machine vision and deep neural networks
Niederprüm et al. Towards Detecting Brown Marmorated Stink Bug Using Stationary Cameras
KR20230076219A (en) Method and system for analyzing growth status of crops using low altitude drone
Nikhil et al. Agrifucus for Precision Farming

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)