KR20170082839A - Method of object position calculation using camera equipped with unmanned multirotor and apparatus for the same - Google Patents

Method of object position calculation using camera equipped with unmanned multirotor and apparatus for the same Download PDF

Info

Publication number
KR20170082839A
KR20170082839A KR1020160002086A KR20160002086A KR20170082839A KR 20170082839 A KR20170082839 A KR 20170082839A KR 1020160002086 A KR1020160002086 A KR 1020160002086A KR 20160002086 A KR20160002086 A KR 20160002086A KR 20170082839 A KR20170082839 A KR 20170082839A
Authority
KR
South Korea
Prior art keywords
camera
value
calculating
mode
measurement value
Prior art date
Application number
KR1020160002086A
Other languages
Korean (ko)
Inventor
박형열
Original Assignee
한화테크윈 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한화테크윈 주식회사 filed Critical 한화테크윈 주식회사
Priority to KR1020160002086A priority Critical patent/KR20170082839A/en
Priority to PCT/KR2017/000044 priority patent/WO2017119695A1/en
Publication of KR20170082839A publication Critical patent/KR20170082839A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N5/232
    • B64C2201/024

Abstract

본 발명의 일 실시예는, 플랫폼에 구비된 카메라를 통해 촬영된 화면 내에서 객체를 설정하는 단계; 상기 플랫폼이 제1 위치인 상태에서 상기 객체의 중심이 상기 화면의 중앙에 위치하도록 상기 카메라를 제어하고, 제1 측정 값을 획득하는 단계; 상기 제1 위치에서 상기 제1 위치와 상이한 제2 위치로 상기 플랫폼을 이동시키는 단계; 상기 플랫폼이 상기 제2 위치인 상태에서 상기 객체의 중심이 상기 화면의 중앙에 위치하도록 상기 카메라를 제어하고, 제2 측정 값을 획득하는 단계; 및 상기 제1 측정 값 및 상기 제2 측정 값을 이용하여 상기 객체의 위치를 산출하는 단계;를 포함하는, 무인 멀티콥터에 구비된 카메라를 이용한 객체 위치 산출 방법를 개시한다.According to an embodiment of the present invention, there is provided a method of setting an object, the method comprising: setting an object in a screen photographed through a camera provided on a platform; Controlling the camera such that the center of the object is located at the center of the screen in a state where the platform is in a first position, and acquiring a first measurement value; Moving the platform from the first position to a second position that is different from the first position; Controlling the camera such that the center of the object is located at the center of the screen with the platform in the second position, and obtaining a second measurement value; And calculating the position of the object using the first measurement value and the second measurement value. The object position calculation method using the camera provided in the unmanned multi-copter will now be described.

Description

무인 멀티콥터에 구비된 카메라를 이용한 객체 위치 산출 방법 및 이를 위한 장치{METHOD OF OBJECT POSITION CALCULATION USING CAMERA EQUIPPED WITH UNMANNED MULTIROTOR AND APPARATUS FOR THE SAME}[0001] The present invention relates to an object position calculating method using a camera provided in an unmanned multi-copter, and an apparatus therefor. [0002]

본 발명의 실시예들은 무인 멀티콥터에 구비된 카메라를 이용한 객체 위치 산출 방법 및 이를 위한 장치에 관한 것으로, 고지대에 위치한 객체의 위치를 산출하기 위한 무인 멀티콥터에 구비된 카메라를 이용한 객체 위치 산출 방법 및 이를 위한 장치에 관한 것이다.Embodiments of the present invention relate to a method of calculating an object position using a camera provided in an unmanned multi-copter and an apparatus therefor, and more particularly, to a method of calculating an object position using a camera provided in an unmanned multi- And an apparatus therefor.

무인항공기에 장착되는 카메라로 항공에서 목표물을 감시할 때, 목표물의 위치를 정확히 파악하는 것은 중요한 기능이다.It is important to know the position of the target accurately when monitoring the target with the camera mounted on the UAV.

일반적으로 무인항공기에 장착된 카메라는 바라보는 대상의 지피에스(Global Positioning System;GPS) 위치를 파악할 수는 없으며, 고가의 짐벌에는 레이저 거리 측정 센서(Laser Range Finder)를 이용하여 무인항공기와 목표물간의 거리와 무인항공기의 GPS 값을 이용하여 목표물의 대략적인 위치를 파악하지만 정확한 위도 및 경도 값을 알 수는 없다. 또한 레이저 거리 측정 센서의 도입은 시스템을 복잡하게 하고 멀티콥터의 비행시간에 결정적인 역할을 하는 페이로드(Payload)가 증가하게 되며, 비용적인 측면에서도 불리한 조건이 된다.Generally, a camera mounted on an unmanned airplane can not grasp the position of a global positioning system (GPS) of a target to be looked at, and a laser range finder (Laser Range Finder) is used for an expensive gimbal, The distance and the GPS values of the UAV are used to determine the approximate location of the target but not the exact latitude and longitude values. Also, the introduction of the laser distance measurement sensor complicates the system, increases the payload which plays a decisive role in the flight time of the multi-copter, and is also a disadvantage in terms of cost.

레이저 거리 측정 센서 없이, 무인항공기에 장착되는 카메라만을 이용하여 목표물의 위치를 측정하는 경우, 목표물이 고지대에 존재한다면 고도 차에 의한 오차로 인해 정확도가 떨어지게 된다.In the case of measuring the position of a target using only a camera mounted on a UAV without a laser distance measurement sensor, if the target exists in a high altitude, the accuracy is lowered due to an error due to the altitude difference.

한국공개특허 제10-2014-0076484호Korean Patent Publication No. 10-2014-0076484

본 발명의 실시예들은 복수의 위치에서 카메라를 이용한 측정을 통해, 객체가 고지대에 존재하는 경우에도 객체의 위치를 산출 가능한 무인 멀티콥터에 구비된 카메라를 이용한 객체 위치 산출 방법 및 이를 위한 장치를 제공한다.Embodiments of the present invention provide a method for calculating an object position using a camera provided in an unmanned multi-copter capable of calculating the position of an object even when the object exists in a high altitude through measurement using a camera at a plurality of positions, and an apparatus therefor do.

본 발명의 일 실시예는, 플랫폼에 구비된 카메라를 통해 촬영된 화면 내에서 객체를 설정하는 단계; 상기 플랫폼이 제1 위치인 상태에서 상기 객체의 중심이 상기 화면의 중앙에 위치하도록 상기 카메라를 제어하고, 제1 측정 값을 획득하는 단계; 상기 제1 위치에서 상기 제1 위치와 상이한 제2 위치로 상기 플랫폼을 이동시키는 단계; 상기 플랫폼이 상기 제2 위치인 상태에서 상기 객체의 중심이 상기 화면의 중앙에 위치하도록 상기 카메라를 제어하고, 제2 측정 값을 획득하는 단계; 및 상기 제1 측정 값 및 상기 제2 측정 값을 이용하여 상기 객체의 위치를 산출하는 단계;를 포함하는, 무인 멀티콥터에 구비된 카메라를 이용한 객체 위치 산출 방법를 개시한다.According to an embodiment of the present invention, there is provided a method of setting an object, the method comprising: setting an object in a screen photographed through a camera provided on a platform; Controlling the camera such that the center of the object is located at the center of the screen in a state where the platform is in a first position, and acquiring a first measurement value; Moving the platform from the first position to a second position that is different from the first position; Controlling the camera such that the center of the object is located at the center of the screen with the platform in the second position, and obtaining a second measurement value; And calculating the position of the object using the first measurement value and the second measurement value. The object position calculation method using the camera provided in the unmanned multi-copter will now be described.

상기 제1 측정 값은 제1 위치의 3차원 좌표 값, 상기 카메라의 틸팅(tilting) 각도, 상기 카메라의 패닝(panning) 각도 중 적어도 하나를 포함할 수 있다.The first measurement value may include at least one of a three-dimensional coordinate value of the first position, a tilting angle of the camera, and a panning angle of the camera.

상기 제1 위치의 3차원 좌표 값은 상기 제1 위치의 경도 값, 위도 값 및 고도 값으로 이루어질 수 있다.The three-dimensional coordinate value of the first position may be a hardness value, a latitude value, and an altitude value of the first position.

상기 제1 측정 값을 획득하는 단계는 상기 플랫폼에 구비된 짐벌(gimbal)을 이용하여 상기 카메라의 좌우 기울기를 수평 상태로 유지하는 상태에서 상기 제1 측정 값을 획득할 수 있다.The acquiring of the first measurement value may use the gimbal provided on the platform to acquire the first measurement value while maintaining the horizontal tilt of the camera.

상기 객체의 위치를 산출하는 단계는 상기 제1 측정 값 및 상기 제2 측정 값을 이용하여 수직 틸팅 모드, 수평 틸팅 모드 및 수평 패닝 모드 중 적어도 하나의 위치 산출 모드를 결정하고, 상기 위치 산출 모드에 상응하는 산출 식을 이용하여 상기 객체의 위치를 산출할 수 있다.Wherein the step of calculating the position of the object determines at least one of the vertical tilting mode, the horizontal tilting mode, and the horizontal panning mode using the first measured value and the second measured value, The position of the object can be calculated using a corresponding calculation formula.

상기 객체의 위치를 산출하는 단계는 복수의 상기 위치 산출 모드들이 결정된 경우, 상기 위치 산출 모드들 각각에 상응하는 산출 식을 이용하여 산출된 값들의 평균 값을 상기 객체의 위치로 결정할 수 있다.The step of calculating the position of the object may determine an average value of the values calculated using the calculation formula corresponding to each of the position calculation modes as the position of the object when a plurality of the position calculation modes are determined.

상기 객체의 위치를 산출하는 단계는 상기 제1 측정 값 및 상기 제2 측정 값에 포함된 고도 값이 서로 다르면서, 상기 제1 측정 값 및 상기 제2 측정 값에 포함된 카메라의 틸팅 각도가 서로 다른 경우, 상기 위치 산출 모드를 상기 수직 틸팅 모드로 결정할 수 있다.Wherein the step of calculating the position of the object is performed such that the altitude values included in the first measured value and the second measured value are different from each other and the tilting angles of the camera included in the first measured value and the second measured value are different from each other In other cases, the position calculating mode may be determined as the vertical tilting mode.

상기 객체의 위치를 산출하는 단계는 상기 제1 측정 값 및 상기 제2 측정 값에 포함된 경도 값 또는 위도 값이 서로 다르면서, 상기 제1 측정 값 및 상기 제2 측정 값에 포함된 카메라의 틸팅 각도가 서로 다른 경우, 상기 위치 산출 모드를 상기 수평 틸팅 모드로 결정할 수 있다.Wherein the step of calculating the position of the object includes a step of calculating a position of the object by comparing the first measured value and the second measured value with the hardness value or the latitude value included in the first measured value and the second measured value, When the angles are different, the position calculating mode can be determined as the horizontal tilting mode.

상기 객체의 위치를 산출하는 단계는 상기 제1 측정 값 및 상기 제2 측정 값에 포함된 카메라의 패닝 각도가 서로 다른 경우, 상기 위치 산출 모드를 상기 수평 패닝 모드로 결정할 수 있다.The calculating of the position of the object may determine the position calculating mode as the horizontal panning mode when the panning angles of the cameras included in the first measured value and the second measured value are different from each other.

상기 카메라를 이용한 객체 위치 산출 방법은 상기 객체의 위치, 상기 객체의 상기 화면 내 크기 및 상기 카메라의 줌 배율 값을 이용하여 상기 객체의 크기를 산출하는 단계;를 더 포함할 수 있다.The method of calculating an object position using the camera may further include calculating the size of the object using the position of the object, the size of the object in the screen, and the zoom factor of the camera.

본 발명의 다른 일 실시예는, 플랫폼에 구비된 카메라를 통해 촬영된 화면 내에서 객체를 설정하는 객체 설정부; 제1 위치에서 상기 제1 위치와 상이한 제2 위치로 상기 플랫폼을 이동시키고, 상기 플랫폼이 상기 제1 위치인 상태에서 제1 측정 값을 획득하고, 상기 플랫폼이 상기 제2 위치인 상태에서 제2 측정 값을 획득하는 플랫폼 제어부; 상기 제1 측정 값 및 상기 제2 측정 값을 각각 획득하기 전에, 상기 객체의 중심이 상기 화면의 중앙에 위치하도록 상기 카메라를 제어하는 카메라 제어부; 및 상기 제1 측정 값 및 상기 제2 측정 값을 이용하여 상기 객체의 위치를 산출하는 객체 위치 산출부;를 포함하는, 무인 멀티콥터에 구비된 카메라를 이용한 객체 위치 산출 장치를 개시한다.According to another embodiment of the present invention, there is provided an image processing apparatus including an object setting unit for setting an object in a screen photographed through a camera provided in a platform; Moving the platform from a first position to a second position that is different from the first position, obtaining a first measurement value while the platform is in the first position, and when the platform is in the second position, A platform control unit for acquiring a measurement value; A camera controller for controlling the camera such that the center of the object is located at the center of the screen before acquiring the first measurement value and the second measurement value, respectively; And an object position calculation unit for calculating the position of the object using the first measurement value and the second measurement value. The apparatus for calculating an object position using a camera provided in an unmanned multi-copter.

전술한 것 외의 다른 측면, 특징, 이점이 이하의 도면, 특허청구범위 및 발명의 상세한 설명으로부터 명확해질 것이다.Other aspects, features, and advantages will become apparent from the following drawings, claims, and detailed description of the invention.

본 발명의 실시예들에 따른 무인 멀티콥터에 구비된 카메라를 이용한 객체 위치 산출 방법 및 이를 위한 장치에 의해, 복수의 위치에서 카메라를 이용한 측정을 통해, 객체가 고지대에 존재하는 경우에도 객체의 위치를 산출할 수 있다.According to the object position calculating method using the camera provided in the unmanned multi-copter and the apparatus therefor according to the embodiments of the present invention, even when the object exists in the high altitude through the measurement using the camera at a plurality of positions, Can be calculated.

도 1은 본 발명의 일 실시예에 따른 무인 멀티콥터에 구비된 카메라를 이용한 객체 위치 산출 장치의 구성을 나타낸 블록도이다.
도 2는 본 발명의 일 실시예에 따른 무인 멀티콥터에 구비된 카메라를 이용한 객체 위치 산출 방법을 나타낸 동작 흐름도이다.
도 3은 본 발명의 다른 일 실시예에 따른 무인 멀티콥터에 구비된 카메라를 이용한 객체 위치 산출 방법을 나타낸 동작 흐름도이다.
도 4는 본 발명의 일 실시예에 따른 무인 멀티콥터를 나타낸 도면이다.
도 5는 본 발명의 일 실시예에 따른 객체의 위치를 산출하는 방법을 나타낸 도면이다.
도 6은 본 발명의 다른 일 실시예에 따른 객체의 위치를 산출하는 방법을 나타낸 도면이다.
도 7은 본 발명의 또 다른 일 실시예에 따른 객체의 위치를 산출하는 방법을 나타낸 도면이다.
FIG. 1 is a block diagram illustrating an apparatus for calculating an object position using a camera provided in an unmanned multi-copter according to an exemplary embodiment of the present invention. Referring to FIG.
2 is a flowchart illustrating an object position calculation method using a camera provided in an unmanned multi-copter according to an embodiment of the present invention.
FIG. 3 is a flowchart illustrating an object position calculation method using a camera provided in an unmanned multi-copter according to another embodiment of the present invention.
4 is a view illustrating an unmanned multi-copter according to an embodiment of the present invention.
5 is a diagram illustrating a method of calculating the position of an object according to an embodiment of the present invention.
6 is a diagram illustrating a method of calculating an object position according to another embodiment of the present invention.
7 is a diagram illustrating a method of calculating the position of an object according to another embodiment of the present invention.

본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. BRIEF DESCRIPTION OF THE DRAWINGS The present invention is capable of various modifications and various embodiments, and specific embodiments are illustrated in the drawings and described in detail in the detailed description. It is to be understood, however, that the invention is not to be limited to the specific embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

이하의 실시예에서, 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. In the following embodiments, the terms first, second, etc. may be used to describe various elements, but the elements should not be limited by terms. Terms are used only for the purpose of distinguishing one component from another.

이하의 실시예에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 이하의 실시예에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the following examples are used only to illustrate specific embodiments and are not intended to limit the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. In the following description, the terms "comprises" or "having ", and the like, specify that the presence of stated features, integers, steps, operations, elements, But do not preclude the presence or addition of other features, numbers, steps, operations, components, parts, or combinations thereof.

본 발명의 실시예들은 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들은 특정 기능들을 실행하는 다양한 개수의 하드웨어 또는/및 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 본 발명의 실시예들은 하나 이상의 마이크로프로세서들의 제어 또는 다른 제어 장치들에 의해서 다양한 기능들을 실행할 수 있는, 메모리, 프로세싱, 로직(logic), 룩업 테이블(look-up table) 등과 같은 직접 회로 구성들을 채용할 수 있다. 본 발명의 실시예의 구성 요소들이 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있는 것과 유사하게, 본 발명의 실시예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 발명의 실시예들은 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. 매커니즘, 요소, 수단, 구성과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다. 상기 용어는 프로세서 등과 연계하여 소프트웨어의 일련의 처리들(routines)의 의미를 포함할 수 있다.Embodiments of the present invention may be represented by functional block configurations and various processing steps. These functional blocks may be implemented in a wide variety of hardware and / or software configurations that perform particular functions. For example, embodiments of the invention may be embodied directly in hardware, such as memory, processing, logic, look-up tables, etc., that can perform various functions by control of one or more microprocessors or by other control devices Circuit configurations can be employed. Similar to the components of an embodiment of the present invention may be implemented with software programming or software components, embodiments of the present invention include various algorithms implemented with a combination of data structures, processes, routines, or other programming constructs , C, C ++, Java, assembler, and the like. Functional aspects may be implemented with algorithms running on one or more processors. Embodiments of the present invention may also employ conventional techniques for electronic configuration, signal processing, and / or data processing. Terms such as mechanisms, elements, means, and configurations are widely used and are not limited to mechanical and physical configurations. The term may include the meaning of a series of routines of software in conjunction with a processor or the like.

또한, 본 명세서 및 도면에 있어서, 실질적으로 동일한 구성을 갖는 구성 요소에 대해서는, 동일한 부호를 사용함으로써 중복 설명을 생략한다.
In the present specification and drawings, the same reference numerals are used for constituent elements having substantially the same configuration, and redundant description is omitted.

도 1은 본 발명의 일 실시예에 따른 무인 멀티콥터에 구비된 카메라를 이용한 객체 위치 산출 장치의 구성을 나타낸 블록도이다.FIG. 1 is a block diagram illustrating an apparatus for calculating an object position using a camera provided in an unmanned multi-copter according to an exemplary embodiment of the present invention. Referring to FIG.

도 1을 참조하면, 본 발명의 일 실시예에 따른 무인 멀티콥터에 구비된 카메라를 이용한 객체 위치 산출 장치는 객체 설정부(110), 카메라 제어부(120), 플랫폼 제어부(130), 객체 위치 산출부(140) 및 객체 크기 산출부(150)를 포함한다.1, an apparatus for calculating an object position using a camera provided in an unmanned multi-copter according to an exemplary embodiment of the present invention includes an object setting unit 110, a camera control unit 120, a platform control unit 130, (140) and an object size calculation unit (150).

객체 설정부(110)는 플랫폼에 구비된 카메라를 통해 촬영된 화면 내에서 객체를 설정한다.The object setting unit 110 sets an object in a screen photographed through a camera provided in the platform.

여기서, 플랫폼은 본 발명의 일 실시예에 따른 무인 멀티콥터를 의미한다.Herein, the platform means an unmanned multi-copter according to an embodiment of the present invention.

무인 멀티콥터는 사람이 탑승하지 않는 비행체로서, 2 이상의 로터(roter)를 구비한 것일 수 있다.The unmanned multi-copter may be a non-human-type aircraft, having two or more roters.

무인 멀티콥터는 로터가 3개로 이루어진 트라이콥터, 로터가 4개로 이루어진 쿼드콥터, X콥터 혹은 Y4콥터, 로터가 6개로 이루어진 헥사콥터 혹은 Y6콥터 등일 수 있으며, 로터의 수와 형상은 이에 한정되는 것은 아니다.The unmanned multi-copter can be a tri-copter with three rotors, a quad copter with four rotors, an X copter or a Y4 copter, a six-rotor hexacopter or a Y6 copter, and the number and shape of the rotor are limited no.

이하 본 발명의 실시예들에서는 무인 멀티콥터를 편의상 4개의 로터를 가진 쿼드콥터의 예를 들어 설명하도록 한다.In the embodiments of the present invention, an unmanned multi-copter will be described as an example of a quad-copter having four rotors for convenience.

객체 설정부(110)는 카메라를 통해 촬영된 이미지에 객체를 식별하기 위한 다양한 알고리즘을 적용하여 객체를 식별해낼 수 있다. 본 발명의 실시예들에 사용되는 알고리즘은 객체를 식별하기 위한 알고리즘이면 족하며, 특정 알고리즘에 한정되는 것은 아니다.The object setting unit 110 may identify the object by applying various algorithms to identify the object to the image photographed through the camera. The algorithm used in the embodiments of the present invention may be an algorithm for identifying an object, and is not limited to a specific algorithm.

객체 설정부(110)는 카메라를 통해 촬영된 이미지에서 식별된 객체들 중 적어도 하나를 목표물로서 설정할 수 있다.The object setting unit 110 may set at least one of the identified objects in the image photographed through the camera as a target.

카메라 제어부(120)는 플랫폼에 구비된 카메라를 제어한다.The camera control unit 120 controls a camera provided in the platform.

카메라 제어부(120)는 객체의 중심이 화면의 중앙에 위치하도록 카메라를 제어할 수 있다.The camera control unit 120 can control the camera such that the center of the object is positioned at the center of the screen.

카메라 제어부(120)는 객체 설정부(110)에서 설정된 객체가 넓이를 갖는 경우, 해당 객체의 중심점을 산출하고, 해당 중심점이 화면의 중앙에 위치하도록 카메라를 제어할 수 있다.When the object set in the object setting unit 110 has a width, the camera control unit 120 may calculate the center point of the object and control the camera such that the center point is located at the center of the screen.

카메라 제어부(120)는 다양한 알고리즘을 적용하여 객체의 중심점을 산출할 수 있으며, 본 발명의 실시예들에 사용되는 알고리즘은 객체의 중심점을 산출하기 위한 알고리즘이면 족하며, 특정 알고리즘에 한정되는 것은 아니다.The camera control unit 120 may calculate the center point of the object by applying various algorithms. The algorithm used in the embodiments of the present invention may be an algorithm for calculating the center point of the object, and is not limited to a specific algorithm .

여기서, 카메라는 틸팅(tilting) 및 패닝(panning)이 가능한 카메라로서, 상하좌우 방향으로 제어될 수 있다.Here, the camera is a camera capable of tilting and panning, and can be controlled in the up, down, left, and right directions.

예컨대, 카메라는 틸팅 동작에 의해 상하 방향으로 제어되며, 패닝 동작에 의해 좌우 방향으로 제어될 수 있다.For example, the camera is controlled in the vertical direction by the tilting operation, and can be controlled in the lateral direction by the panning operation.

이에 따라, 카메라 제어부(120)는 객체의 중심이 화면의 중앙에 위치하도록, 카메라에 틸팅 또는 패닝 동작을 수행할 수 있다.Accordingly, the camera control unit 120 can perform a tilting or panning operation on the camera so that the center of the object is positioned at the center of the screen.

예컨대, 카메라 제어부(120)는 객체의 중심이 화면의 중앙보다 좌측에 위치한 경우, 카메라를 우측으로 움직이게 하기 위해 패닝 동작을 수행하고, 객체의 중심이 화면의 중앙보다 아래에 위치한 경우, 카메라를 위쪽으로 움직이게 하기 위해 틸팅 동작을 수행할 수 있다.For example, when the center of the object is located on the left side of the center of the screen, the camera controller 120 performs a panning operation to move the camera to the right. If the center of the object is located below the center of the screen, The tilting operation can be performed.

카메라 제어부(120)는 객체의 중심을 화면의 중앙에 위치시킨 후에, 플랫폼이 이동함에 따라 객체의 중심이 화면의 중앙을 벗어나는 경우, 다시 객체의 중심이 화면의 중앙에 위치하도록 카메라를 재차 제어할 수 있다.After the center of the object is located at the center of the screen, when the center of the object is out of the center of the screen as the platform moves, the camera controller 120 controls the camera again so that the center of the object is positioned at the center of the screen .

선택적 실시예에서, 카메라 제어부(120)는 플랫폼에 구비된 짐벌(gimbal)을 이용하여 카메라의 좌우 기울기를 수평 상태로 유지할 수 있다.In an alternative embodiment, the camera controller 120 may maintain the horizontal tilt of the camera using a gimbal provided on the platform.

플랫폼 제어부(130)는 플랫폼을 특정 위치에서 다른 위치로 이동시킬 수 있다.The platform control unit 130 may move the platform from a specific position to another position.

플랫폼의 고도만이 바뀌도록 플랫폼을 수직 이동시키는 경우를 상하 방향 이동, 플랫폼의 고도를 유지한 채 객체를 향한 방향으로 수평 이동시키는 경우를 앞뒤 방향 이동, 플랫폼의 고도를 유지한 채 객체를 향한 방향과 수직한 방향으로 수평 이동시키는 경우를 좌우 방향 이동이라고 할 때, 플랫폼 제어부(130)는 상하, 앞뒤, 좌우 6방향으로 플랫폼을 이동시킬 수 있다.When the platform is vertically moved so that only the altitude of the platform is changed, the up and down movement is performed. When the platform is maintained at the altitude, the horizontally moving direction is moved forward and backward. The platform control unit 130 can move the platform in six directions: up, down, left and right, and right and left directions.

또한, 플랫폼 제어부(130)는 플랫폼에 구비된 센서들을 이용하여 각 위치에서 다양한 측정 값들을 획득할 수 있다.In addition, the platform control unit 130 can acquire various measurement values at each position using the sensors provided in the platform.

예컨대, 측정 값들은 플랫폼의 3차원 좌표 값, 카메라의 틸팅 각도 및 카메라의 패닝 각도 등을 포함할 수 있다.For example, the measured values may include three-dimensional coordinate values of the platform, a tilting angle of the camera, and a panning angle of the camera.

여기서, 플랫폼의 3차원 좌표 값은, x좌표 값, y좌표 값 및 z좌표 값으로 이뤄질 수 있으며, x좌표 값은 경도, y좌표 값은 위도, z좌표 값은 고도에 각각 대응되는 값일 수 있다.Here, the three-dimensional coordinate value of the platform may be an x coordinate value, a y coordinate value, and a z coordinate value. The x coordinate value may be a longitude, the y coordinate value may be a latitude, and the z coordinate value may correspond to an altitude .

플랫폼 제어부(130)는 플랫폼을 특정 위치에서 다른 위치로 이동시키는 경우, 이동 전의 위치에서 제1 측정 값을 획득하고, 이동 후의 위치에서 제2 측정 값을 획득할 수 있다.When the platform is moved from a specific position to another position, the platform control unit 130 may acquire the first measurement value at the position before the movement and acquire the second measurement value at the position after the movement.

이 경우, 플랫폼 제어부(130)가 제1 측정 값을 획득하기 전이나, 제2 측정 값을 획득하기 전에, 카메라 제어부(120)에 의해 객체의 중심이 화면의 중앙에 위치하도록 카메라가 먼저 제어될 수 있다.In this case, before the platform control unit 130 acquires the first measurement value or before acquiring the second measurement value, the camera is controlled such that the center of the object is located at the center of the screen by the camera control unit 120 .

또한, 플랫폼 제어부(130)가 제1 측정 값을 획득하거나, 제2 측정 값을 획득하는 동안에, 카메라 제어부(120)에 의해 카메라의 좌우 기울기가 수평 상태로 유지되도록 카메라가 제어될 수 있다.In addition, the camera may be controlled such that the left and right tilts of the camera are maintained in a horizontal state by the camera control unit 120 while the platform control unit 130 acquires the first measured value or acquires the second measured value.

객체 위치 산출부(140)는 플랫폼 제어부(130)에서 측정된 측정 값들을 이용하여 객체의 위치를 산출한다.The object position calculation unit 140 calculates the position of the object using the measured values measured by the platform control unit 130.

선택적 실시예에서, 객체 위치 산출부(140)는 측정 값들을 이용하여 수직 틸팅 모드, 수평 틸팅 모드 및 수평 패닝 모드 중 적어도 하나의 위치 산출 모드를 결정하고, 위치 산출 모드에 상응하는 산출 식을 이용하여 객체의 위치를 산출할 수 있다.In an alternative embodiment, the object position calculation unit 140 may determine at least one of the vertical tilting mode, the horizontal tilting mode, and the horizontal panning mode using the measurement values, and use an equation corresponding to the position calculation mode The position of the object can be calculated.

예컨대, 객체 위치 산출부(140)는 측정 값들에 포함된 고도 값이 서로 다르면서, 측정 값들에 포함된 카메라의 틸팅 각도가 서로 다른 경우, 위치 산출 모드를 수직 틸팅 모드로 결정할 수 있다.For example, the object position calculation unit 140 may determine the position calculation mode to be the vertical tilting mode when the altitude values included in the measured values are different from each other and the tilting angles of the cameras included in the measured values are different from each other.

여기서, 객체 위치 산출부(140)는 수직 틸팅 모드의 경우, 하기 수학식 1에 의해 객체의 위치를 산출할 수 있다.Here, in the case of the vertical tilting mode, the object position calculating unit 140 may calculate the position of the object according to Equation (1).

[수학식 1][Equation 1]

Figure pat00001
Figure pat00001

여기서, h1은 제1 위치에서의 고도 값, θ1은 제1 위치에서의 카메라의 틸팅 각도, h2는 제2 위치에서의 고도 값, θ2는 제2 위치에서의 카메라의 틸팅 각도, h는 객체의 고도 값, x는 객체의 경도 값, x'은 플랫폼의 경도 값, y는 객체의 위도 값, y'는 플랫폼의 위도 값 및 α는 카메라의 패닝 각도를 의미할 수 있다.H2 is the tilting angle of the camera at the second position, h is the height of the object at the first position, h2 is the angle of the camera at the second position, X 'is the longitude value of the platform, y is the latitude value of the object, y' is the latitude value of the platform, and a is the panning angle of the camera.

또한, 객체 위치 산출부(140)는 측정 값들에 포함된 경도 값 또는 위도 값이 서로 다르면서, 측정 값들에 포함된 카메라의 틸팅 각도가 서로 다른 경우, 위치 산출 모드를 수평 틸팅 모드로 결정할 수 있다.In addition, the object position calculation unit 140 may determine the position calculation mode as the horizontal tilting mode when the tilting angles of the cameras included in the measured values are different from each other as longitude values or latitude values included in the measured values are different from each other .

여기서 객체 위치 산출부(140)는 수평 틸팅 모드의 경우, 하기 수학식 2에 의해 객체의 위치를 산출할 수 있다.In the case of the horizontal tilting mode, the object position calculating unit 140 may calculate the position of the object according to Equation (2).

[수학식 2]&Quot; (2) "

Figure pat00002
Figure pat00002

여기서, h1은 제1 위치에서의 고도 값, θ1은 제1 위치에서의 카메라의 틸팅 각도, h2는 제2 위치에서의 고도 값, θ2는 제2 위치에서의 카메라의 틸팅 각도, h는 객체의 고도 값, x는 객체의 경도 값, x'은 플랫폼의 경도 값, y는 객체의 위도 값, y'는 플랫폼의 위도 값 및 α는 카메라의 패닝 각도를 의미할 수 있다.H2 is the tilting angle of the camera at the second position, h is the height of the object at the first position, h2 is the angle of the camera at the second position, X 'is the longitude value of the platform, y is the latitude value of the object, y' is the latitude value of the platform, and a is the panning angle of the camera.

또한, 객체 위치 산출부(140)는 측정 값들에 포함된 카메라의 패닝 각도가 서로 다른 경우, 위치 산출 모드를 수평 패닝 모드로 결정할 수 있다.In addition, the object position calculation unit 140 may determine the position calculation mode as the horizontal panning mode when the panning angles of the cameras included in the measured values are different from each other.

여기서 객체 위치 산출부(140)는 수평 패닝 모드의 경우, 하기 수학식 3에 의해 객체의 위치를 산출할 수 있다.Here, in the case of the horizontal panning mode, the object position calculating unit 140 may calculate the position of the object according to the following equation (3).

[수학식 3]&Quot; (3) "

Figure pat00003
Figure pat00003

여기서, h2는 제2 위치에서의 고도 값, θ2는 제2 위치에서의 카메라의 틸팅 각도, x2'는 제2 위치에서의 플랫폼의 경도 값, x1'는 제1 위치에서의 플랫폼의 경도 값, y2'는 제2 위치에서의 플랫폼의 위도 값, y1'는 제1 위치에서의 플랫폼의 위도 값, h는 객체의 고도 값, x는 객체의 경도 값, y는 객체의 위도 값 및 α는 카메라의 상대 패닝 각도를 의미할 수 있다.X2 'is the hardness value of the platform at the second position, x1' is the hardness value of the platform at the first position, h2 is the height value at the second position, [theta] 2 is the tilting angle of the camera at the second position, y2 'is the latitude value of the platform at the second location, y1' is the latitude value of the platform at the first location, h is the altitude value of the object, x is the longitude value of the object, y is the latitude value of the object, May be referred to as a relative panning angle.

선택적 실시예에서, 객체 위치 산출부(140)는 복수의 위치 산출 모드들이 결정된 경우, 위치 산출 모드들 각각에 상응하는 산출 식을 이용하여 산출된 값들의 평균 값을 객체의 위치로 결정할 수 있다.In an alternative embodiment, when a plurality of position calculation modes are determined, the object position calculation unit 140 may determine an average value of the values calculated using the calculation formula corresponding to each of the position calculation modes as the position of the object.

객체 위치 산출부(140)는 플랫폼을 2회이상 이동시켜 획득한 3 이상의 측정 값들 중 어느 두 측정 값을 이용하여 객체의 위치를 측정할 수 있다.The object position calculating unit 140 may measure the position of the object using any two of the three or more measured values acquired by moving the platform two more times.

객체 크기 산출부(150)는 객체 위치 산출부(140)에서 산출된 객체의 위치를 이용하여 객체의 크기를 산출한다.The object size calculating unit 150 calculates the size of the object using the position of the object calculated by the object position calculating unit 140.

객체 크기 산출부(150)는 객체의 위치 및 플랫폼의 위치를 이용하여 객체와 플랫폼 사이의 거리를 산출할 수 있다.The object size calculating unit 150 may calculate the distance between the object and the platform using the position of the object and the position of the platform.

객체 크기 산출부(150)는 카메라의 줌 배율 값을 이용하여 카메라의 화각을 산출할 수 있다.The object size calculating unit 150 may calculate the angle of view of the camera using the zoom magnification value of the camera.

객체 크기 산출부(150)는 객체와 플랫폼 사이의 거리, 카메라의 화각 및 객체의 화면 내 크기를 이용하여 객체의 크기를 산출할 수 있다.
The object size calculating unit 150 may calculate the size of the object using the distance between the object and the platform, the angle of view of the camera, and the size of the object on the screen.

도 2는 본 발명의 일 실시예에 따른 무인 멀티콥터에 구비된 카메라를 이용한 객체 위치 산출 방법을 나타낸 동작 흐름도이다.2 is a flowchart illustrating an object position calculation method using a camera provided in an unmanned multi-copter according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 일 실시예에 따른 무인 멀티콥터에 구비된 카메라를 이용한 객체 위치 산출 방법은 객체 설정부(도 1의 110 참조)가, 플랫폼에 구비된 카메라를 통해 촬영된 화면 내에서 객체를 설정한다(S210).Referring to FIG. 2, a method for calculating an object position using a camera provided in an unmanned multi-copter according to an embodiment of the present invention includes a step of setting an object setting unit (see 110 in FIG. 1) (S210). ≪ / RTI >

단계(S210)에서, 객체 설정부(도 1의 110 참조)는 카메라를 통해 촬영된 이미지에 객체를 식별하기 위한 다양한 알고리즘을 적용하여 객체를 식별해낼 수 있다. 본 발명의 실시예들에 사용되는 알고리즘은 객체를 식별하기 위한 알고리즘이면 족하며, 특정 알고리즘에 한정되는 것은 아니다.In step S210, the object setting unit (see 110 in FIG. 1) may identify the object by applying various algorithms to identify the object to the image photographed through the camera. The algorithm used in the embodiments of the present invention may be an algorithm for identifying an object, and is not limited to a specific algorithm.

단계(S210)에서, 객체 설정부(도 1의 110 참조)는 카메라를 통해 촬영된 이미지에서 식별된 객체들 중 적어도 하나를 목표물로서 설정할 수 있다.In step S210, the object setting unit (see 110 in FIG. 1) may set at least one of the identified objects in the image photographed by the camera as a target.

다음으로, 본 발명의 일 실시예에 따른 무인 멀티콥터에 구비된 카메라를 이용한 객체 위치 산출 방법은 카메라 제어부(도 1의 120 참조)가, 플랫폼이 제1 위치인 상태에서 객체의 중심이 화면의 중앙에 위치하도록 카메라를 제어하고, 플랫폼 제어부(도 1의 130 참조)가, 제1 측정 값을 획득한다(S220).Next, a method for calculating an object position using a camera provided in an unmanned multi-copter according to an embodiment of the present invention is characterized in that the camera controller (see 120 in FIG. 1) The camera is controlled so as to be located at the center, and the platform control unit 130 (see FIG. 1) acquires the first measured value (S220).

단계(S220)에서, 카메라 제어부(도 1의 120 참조)는 단계(S210)에서 설정된 객체가 넓이를 갖는 경우, 해당 객체의 중심점을 산출하고, 해당 중심점이 화면의 중앙에 위치하도록 카메라를 제어할 수 있다.In step S220, if the object set in step S210 has a width, the camera control unit 120 (see FIG. 1) calculates the center point of the object and controls the camera so that the center point is located at the center of the screen .

단계(S220)에서, 카메라 제어부(도 1의 120 참조)는 다양한 알고리즘을 적용하여 객체의 중심점을 산출할 수 있으며, 본 발명의 실시예들에 사용되는 알고리즘은 객체의 중심점을 산출하기 위한 알고리즘이면 족하며, 특정 알고리즘에 한정되는 것은 아니다.In step S220, the camera controller (see 120 in FIG. 1) may calculate the center point of the object by applying various algorithms, and if the algorithm used in the embodiments of the present invention is an algorithm for calculating the center point of the object And is not limited to a specific algorithm.

선택적 실시예로서, 단계(S220)에서, 카메라 제어부(도 1의 120 참조)는 플랫폼에 구비된 짐벌(gimbal)을 이용하여 카메라의 좌우 기울기를 수평 상태로 유지하고, 카메라의 좌우 기울기가 수평 상태로 유지된 상태에서 플랫폼 제어부(도 1의 130 참조)가 제1 측정 값을 획득할 수 있다.As an alternative embodiment, in step S220, the camera controller (see 120 in FIG. 1) maintains the horizontal tilt of the camera using a gimbal provided on the platform, and the horizontal tilt of the camera is horizontal The platform control unit (see 130 in FIG. 1) can acquire the first measured value.

다음으로, 본 발명의 일 실시예에 따른 무인 멀티콥터에 구비된 카메라를 이용한 객체 위치 산출 방법은 플랫폼 제어부(도 1의 130 참조)가, 제1 위치에서 제1 위치와 상이한 제2 위치로 플랫폼을 이동시킨다(S230).Next, a method for calculating an object position using a camera provided in an unmanned multi-copter according to an embodiment of the present invention is characterized in that the platform control unit (see 130 in FIG. 1) (S230).

다음으로, 본 발명의 일 실시예에 따른 무인 멀티콥터에 구비된 카메라를 이용한 객체 위치 산출 방법은 카메라 제어부(도 1의 120 참조)가, 플랫폼이 제2 위치인 상태에서 객체의 중심이 화면의 중앙에 위치하도록 카메라를 제어하고, 플랫폼 제어부(도 1의 130 참조)가, 제2 측정 값을 획득한다(S240).Next, in a method of calculating an object position using a camera provided in an unmanned multi-copter according to an embodiment of the present invention, when a camera control unit (see 120 in FIG. 1) The camera is controlled so as to be located at the center, and the platform control unit (see 130 in FIG. 1) acquires the second measured value (S240).

단계(S240)에서, 카메라 제어부(도 1의 120 참조)는 플랫폼에 구비된 짐벌(gimbal)을 이용하여 카메라의 좌우 기울기를 수평 상태로 유지하고, 카메라의 좌우 기울기가 수평 상태로 유지된 상태에서 플랫폼 제어부(도 1의 130 참조)가 제2 측정 값을 획득할 수 있다.In step S240, the camera controller (see 120 in FIG. 1) maintains the horizontal tilt of the camera using a gimbal provided on the platform, and in a state where the horizontal tilt of the camera is maintained The platform control section (see 130 in FIG. 1) can acquire the second measured value.

다음으로, 본 발명의 일 실시예에 따른 무인 멀티콥터에 구비된 카메라를 이용한 객체 위치 산출 방법은 객체 위치 산출부(도 1의 140 참조)가, 제1 측정 값 및 제2 측정 값을 이용하여 객체의 위치를 산출한다(S250).Next, an object position calculating method using a camera provided in an unmanned multi-copter according to an embodiment of the present invention is characterized in that an object position calculating unit (refer to 140 in FIG. 1) calculates the object position using a first measured value and a second measured value The position of the object is calculated (S250).

단계(S250)에서, 객체 위치 산출부(도 1의 140 참조)는 제1 측정 값 및 제2 측정 값을 이용하여 수직 틸팅 모드, 수평 틸팅 모드 및 수평 패닝 모드 중 적어도 하나의 위치 산출 모드를 결정하고, 위치 산출 모드에 상응하는 산출 식을 이용하여 객체의 위치를 산출할 수 있다.In step S250, the object position calculating unit 140 (see FIG. 1) determines a position calculating mode of at least one of a vertical tilting mode, a horizontal tilting mode, and a horizontal panning mode using the first measured value and the second measured value And the position of the object can be calculated using an equation corresponding to the position calculation mode.

단계(S250)에서, 객체 위치 산출부(도 1의 140 참조)는 측정 값들에 포함된 고도 값이 서로 다르면서, 측정 값들에 포함된 카메라의 틸팅 각도가 서로 다른 경우, 위치 산출 모드를 수직 틸팅 모드로 결정할 수 있다.In step S250, when the altitude values included in the measured values are different from each other and the tilting angles of the cameras included in the measured values are different from each other, the object position calculating unit (see 140 in FIG. 1) Mode.

단계(S250)에서, 객체 위치 산출부(도 1의 140 참조)는 위치 산출 모드가 수직 틸팅 모드인 경우, 상기 수학식 1에 의해 객체의 위치를 산출할 수 있다.In step S250, if the position calculation mode is the vertical tilting mode, the object position calculation unit 140 may calculate the position of the object according to Equation (1).

단계(S250)에서, 객체 위치 산출부(도 1의 140 참조)는 측정 값들에 포함된 경도 값 또는 위도 값이 서로 다르면서, 측정 값들에 포함된 카메라의 틸팅 각도가 서로 다른 경우, 위치 산출 모드를 수평 틸팅 모드로 결정할 수 있다.In step S250, when the tilting angles of the cameras included in the measured values are different from each other, the object position calculating unit 140 (see FIG. 1) The horizontal tilting mode can be determined.

단계(S250)에서, 객체 위치 산출부(도 1의 140 참조)는 위치 산출 모드가 수평 틸팅 모드인 경우, 상기 수학식 2에 의해 객체의 위치를 산출할 수 있다.In step S250, if the position calculation mode is the horizontal tilting mode, the object position calculation unit (refer to 140 in FIG. 1) can calculate the position of the object according to Equation (2).

단계(S250)에서, 객체 위치 산출부(도 1의 140 참조)는 측정 값들에 포함된 카메라의 패닝 각도가 서로 다른 경우, 위치 산출 모드를 수평 패닝 모드로 결정할 수 있다.In step S250, the object position calculating unit 140 may determine the position calculating mode to be the horizontal panning mode when the panning angles of the cameras included in the measured values are different from each other.

단계(S250)에서, 객체 위치 산출부(도 1의 140 참조)는 위치 산출 모드가 수평 패닝 모드인 경우, 상기 수학식 3에 의해 객체의 위치를 산출할 수 있다.
In step S250, if the position calculation mode is the horizontal panning mode, the object position calculator (refer to 140 in FIG. 1) can calculate the position of the object according to Equation (3).

도 3은 본 발명의 다른 일 실시예에 따른 무인 멀티콥터에 구비된 카메라를 이용한 객체 위치 산출 방법을 나타낸 동작 흐름도이다.FIG. 3 is a flowchart illustrating an object position calculation method using a camera provided in an unmanned multi-copter according to another embodiment of the present invention.

도 3을 참조하면, 본 발명의 일 실시예에 따른 무인 멀티콥터에 구비된 카메라를 이용한 객체 위치 산출 방법은 객체의 위치를 산출하는 단계(도 2의 S250 참조) 후에, 객체 크기 산출부(도 1의 150 참조)가, 객체의 위치 및 카메라 줌 배율 값을 이용하여 객체의 크기를 산출한다(S310).3, an object position calculating method using a camera included in an unmanned multi-copter according to an exemplary embodiment of the present invention includes calculating an object position (refer to step S250 in FIG. 2) 1) 150 calculates the size of the object using the position of the object and the camera zoom magnification value (S310).

단계(S310)에서, 객체 크기 산출부(도 1의 150 참조)는 객체의 위치 및 플랫폼의 위치를 이용하여 객체와 플랫폼 사이의 거리를 산출할 수 있다.In step S310, the object size calculator (see 150 in FIG. 1) may calculate the distance between the object and the platform using the position of the object and the position of the platform.

단계(S310)에서, 객체 크기 산출부(도 1의 150 참조)는 카메라의 줌 배율 값을 이용하여 카메라의 화각을 산출할 수 있다.In step S310, the object size calculator (see 150 in FIG. 1) may calculate the angle of view of the camera using the zoom magnification value of the camera.

단계(S310)에서, 객체 크기 산출부(도 1의 150 참조)는 객체와 플랫폼 사이의 거리, 카메라의 화각 및 객체의 화면 내 크기를 이용하여 객체의 크기를 산출할 수 있다.
In step S310, the object size calculator (see 150 in FIG. 1) may calculate the size of the object using the distance between the object and the platform, the angle of view of the camera, and the size of the object on the screen.

도 4는 본 발명의 일 실시예에 따른 무인 멀티콥터(400)를 나타낸 도면이다.4 is a diagram illustrating an unmanned multi-copter 400 according to an embodiment of the present invention.

도 4를 참조하면, 본 발명의 일 실시예에 따른 무인 멀티콥터(400)는 4개의 로터와 카메라(410)를 포함한다.Referring to FIG. 4, the unmanned multi-copter 400 according to an exemplary embodiment of the present invention includes four rotors and a camera 410.

도 4에 도시된 본 발명의 일 실시예에 따른 무인 멀티콥터(400)는 4개의 로터를 구비한 쿼드콥터의 일 예이나, 무인 멀티콥터(400)를 이루는 로터의 수와 형상은 이에 한정되는 것은 아니다.The unmanned multicoperator 400 according to an embodiment of the present invention shown in FIG. 4 is an example of a quad-copter having four rotors, but the numbers and shapes of the rotors constituting the unmanned multicoperator 400 are limited thereto It is not.

무인 멀티콥터(400)는 플랫폼 제어부(도 1의 130 참조)에 의해 상하, 앞뒤, 좌우 6방향으로 이동할 수 있다.The unmanned multi-copter 400 can be moved up, down, left and right, and right and left directions by the platform control unit 130 (see FIG. 1).

카메라(410)는 카메라 제어부(도 1의 120 참조)에 의해 상하 방향의 틸팅 및 좌우 방향의 패닝이 가능할 수 있다.
The camera 410 can be vertically tilted and panned in the left and right direction by the camera controller (see 120 in FIG. 1).

도 5는 본 발명의 일 실시예에 따른 객체의 위치를 산출하는 방법을 나타낸 도면이다.5 is a diagram illustrating a method of calculating the position of an object according to an embodiment of the present invention.

도 5를 참조하면, 본 발명의 일 실시예에 따른 객체의 위치를 산출하는 방법은 객체 위치 산출부(도 1의 140 참조)가, 위치 산출 모드를 수직 틸팅 모드로 결정하고, 수직 틸팅 모드에 상응하는 산출 식을 이용하여 객체(500)의 위치를 산출한다.Referring to FIG. 5, in the method of calculating the position of an object according to an embodiment of the present invention, the object position calculating unit (see 140 in FIG. 1) determines the position calculating mode to be the vertical tilting mode, And the position of the object 500 is calculated using the corresponding calculation formula.

객체 위치 산출부(도 1의 140 참조)는 측정 값들에 포함된 고도 값이 서로 다르면서, 측정 값들에 포함된 카메라의 틸팅 각도가 서로 다른 경우에 해당 하므로, 위치 산출 모드를 수직 틸팅 모드로 결정할 수 있다.Since the altitude values included in the measured values are different from each other and the tilting angles of the cameras included in the measured values are different from each other, the object position calculating unit 140 determines the position calculating mode as the vertical tilting mode .

예컨대, 도 5의 경우, 플랫폼(400)의 제1 위치(411)에서의 고도 값(h1)과 제2 위치(412)에서의 고도 값(h2)이 서로 다르고, 제1 위치(411)에서의 카메라의 틸팅 각도(θ1)가 제2 위치(412)에서의 카메라의 틸팅 각도(θ2)와 서로 다르므로, 객체 위치 산출부(도 1의 140 참조)는 위치 산출 모드를 수직 틸팅 모드로 결정할 수 있다.5, the altitude value h1 at the first position 411 and the altitude value h2 at the second position 412 of the platform 400 are different from each other, and at the first position 411 1) of the camera at the second position 412 is different from the tilting angle 2 of the camera at the second position 412, the object position calculating section 140 (see FIG. 1) determines the position calculating mode to be the vertical tilting mode .

객체 위치 산출부(도 1의 140 참조)는 위치 산출 모드가 수직 틸팅 모드인 경우, 상기 수학식 1에 의해 객체(500)의 위치를 산출할 수 있다.
The object position calculating unit 140 may calculate the position of the object 500 according to Equation (1) when the position calculating mode is the vertical tilting mode.

도 6은 본 발명의 다른 일 실시예에 따른 객체의 위치를 산출하는 방법을 나타낸 도면이다.6 is a diagram illustrating a method of calculating an object position according to another embodiment of the present invention.

도 6을 참조하면, 본 발명의 다른 일 실시예에 따른 객체의 위치를 산출하는 방법은 객체 위치 산출부(도 1의 140 참조)가, 위치 산출 모드를 수직 패닝 모드로 결정하고, 수직 패닝 모드에 상응하는 산출 식을 이용하여 객체(500)의 위치를 산출한다.Referring to FIG. 6, in the method of calculating the position of an object according to another embodiment of the present invention, the object position calculating unit (see 140 in FIG. 1) determines the position calculating mode as the vertical panning mode, The position of the object 500 is calculated using the calculation formula corresponding to the object 500. [

객체 위치 산출부(도 1의 140 참조)는 측정 값들에 포함된 경도 값 또는 위도 값이 서로 다르면서, 측정 값들에 포함된 카메라의 틸팅 각도가 서로 다른 경우, 위치 산출 모드를 수평 틸팅 모드로 결정할 수 있다.If the tilting angles of the cameras included in the measured values are different from each other, the object position calculating unit (see 140 in FIG. 1) determines the position calculating mode as the horizontal tilting mode .

예컨대, 도 6의 경우, 플랫폼(401)의 제1 위치(411)에서의 경도 값(x')과 플랫폼(402)의 제2 위치(412)에서의 경도 값(미도시)이 서로 다르고, 제1 위치(411)에서의 카메라의 틸팅 각도(θ1)가 제2 위치(412)에서의 카메라의 틸팅 각도(θ2)와 서로 다르므로, 객체 위치 산출부(도 1의 140 참조)는 위치 산출 모드를 수평 틸팅 모드로 결정할 수 있다.6, the hardness value x 'at the first position 411 of the platform 401 and the hardness value (not shown) at the second position 412 of the platform 402 are different from each other, Since the tilting angle 1 of the camera at the first position 411 is different from the tilting angle 2 of the camera at the second position 412, the object position calculating section 140 (see FIG. 1) The mode can be determined as the horizontal tilting mode.

또한, 도 6의 경우, 플랫폼(401)의 제1 위치(411)에서의 위도 값(y')과 플랫폼(402)의 제2 위치(412)에서의 위도 값(미도시)이 서로 다르고, 제1 위치(411)에서의 카메라의 틸팅 각도(θ1)가 제2 위치(412)에서의 카메라의 틸팅 각도(θ2)와 서로 다르므로, 객체 위치 산출부(도 1의 140 참조)는 위치 산출 모드를 수평 틸팅 모드로 결정할 수 있다.6, the latitude value y 'at the first location 411 of the platform 401 is different from the latitude value (not shown) at the second location 412 of the platform 402, Since the tilting angle 1 of the camera at the first position 411 is different from the tilting angle 2 of the camera at the second position 412, the object position calculating section 140 (see FIG. 1) The mode can be determined as the horizontal tilting mode.

객체 위치 산출부(도 1의 140 참조)는 위치 산출 모드가 수평 틸팅 모드인 경우, 상기 수학식 2에 의해 객체(500)의 위치를 산출할 수 있다.
When the position calculation mode is the horizontal tilting mode, the object position calculation unit 140 can calculate the position of the object 500 according to Equation (2).

도 7은 본 발명의 또 다른 일 실시예에 따른 객체의 위치를 산출하는 방법을 나타낸 도면이다.7 is a diagram illustrating a method of calculating the position of an object according to another embodiment of the present invention.

도 7을 참조하면, 본 발명의 또 다른 일 실시예에 따른 객체의 위치를 산출하는 방법은 객체 위치 산출부(도 1의 140 참조)가, 위치 산출 모드를 수평 패닝 모드로 결정하고, 수평 패닝 모드에 상응하는 산출 식을 이용하여 객체(500)의 위치를 산출한다.Referring to FIG. 7, in the method of calculating the position of an object according to another embodiment of the present invention, the object position calculating unit 140 (see FIG. 1) determines the position calculating mode as the horizontal panning mode, The position of the object 500 is calculated using an equation corresponding to the mode.

객체 위치 산출부(도 1의 140 참조)는 측정 값들에 포함된 카메라의 절대 패닝 각도가 서로 다른 경우, 위치 산출 모드를 수평 패닝 모드로 결정할 수 있다.The object position calculation unit (see 140 in FIG. 1) can determine the position calculation mode as the horizontal panning mode when the absolute panning angles of the cameras included in the measured values are different.

카메라의 절대 패닝 각도는 기준 방향으로부터의 카메라의 방향을 의미할 수 있다.The absolute panning angle of the camera may refer to the direction of the camera from the reference direction.

예컨대, 도 7의 경우, 플랫폼의 방향이 180도 방향이라고 할 때, 제1 위치(401)에서의 카메라의 절대 패닝 각도는 90+α도일 수 있다.For example, in the case of FIG. 7, the absolute panning angle of the camera at the first position 401 may be 90 +? Degrees, assuming that the direction of the platform is 180 degrees.

이 경우, 플랫폼의 제1 위치(401)에서의 절대 패닝 각도(90+α)와 제2 위치(412)에서의 절대 패닝 각도(270-α)가 서로 다르므로, 객체 위치 산출부(도 1의 140 참조)는 위치 산출 모드를 수평 패닝 모드로 결정할 수 있다.In this case, since the absolute panning angle (90 + alpha) at the first position 401 of the platform is different from the absolute panning angle 270- alpha at the second position 412, the object position calculation unit 140) can determine the position calculation mode as the horizontal panning mode.

객체 위치 산출부(도 1의 140 참조)는 위치 산출 모드가 수평 패닝 모드인 경우, 상기 수학식 3에 의해 객체(500)의 위치를 산출할 수 있다.The object position calculator (refer to 140 in FIG. 1) can calculate the position of the object 500 according to Equation (3) when the position calculating mode is the horizontal panning mode.

상기 수학식 3에서의 α는 카메라의 상대 패닝 각도일 수 있다.In Equation (3),? May be a relative panning angle of the camera.

카메라의 상대 패닝 각도는 플랫폼의 다른 위치를 기준 방향으로 한 카메라의 방향을 의미할 수 있다.The relative panning angle of the camera may refer to the direction of the camera with the other position of the platform as the reference direction.

예컨대, 플랫폼의 제1 위치(401)에서의 카메라의 상대 패닝 각도는 플랫폼의 다른 위치인 제2 위치(402)를 기준 방향으로 할 때의 카메라의 방향인 α도이고, 제2 위치(402)에서의 카메라의 상대 패닝 각도는 플랫폼의 다른 위치인 제1 위치(401)를 기준 방향으로 할 때의 카메라의 방향인 -α도일 수 있다.
For example, the relative panning angle of the camera at the first position 401 of the platform is alpha, which is the direction of the camera when the second position 402, which is another position of the platform, is the reference direction, The relative panning angle of the camera at the first position 401, which is another position of the platform, may be -α degrees, which is the direction of the camera in the reference direction.

이상 설명된 본 발명에 따른 실시예는 컴퓨터 상에서 다양한 구성요소를 통하여 실행될 수 있는 컴퓨터 프로그램의 형태로 구현될 수 있으며, 이와 같은 컴퓨터 프로그램은 컴퓨터로 판독 가능한 매체에 기록될 수 있다. 이때, 매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등과 같은, 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치를 포함할 수 있다. 나아가, 매체는 네트워크 상에서 전송 가능한 형태로 구현되는 무형의 매체를 포함할 수 있으며, 예를 들어 소프트웨어 또는 애플리케이션 형태로 구현되어 네트워크를 통해 전송 및 유통이 가능한 형태의 매체일 수도 있다. The embodiments of the present invention described above can be embodied in the form of a computer program that can be executed on various components on a computer, and the computer program can be recorded on a computer-readable medium. At this time, the medium may be a magnetic medium such as a hard disk, a floppy disk and a magnetic tape, an optical recording medium such as CD-ROM and DVD, a magneto-optical medium such as a floptical disk, , A RAM, a flash memory, and the like, which are specifically configured to store and execute program instructions. Further, the medium may include an intangible medium that is implemented in a form that can be transmitted over a network, and may be, for example, a medium in the form of software or an application, which can be transmitted and distributed through a network.

한편, 상기 컴퓨터 프로그램은 본 발명을 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 프로그램의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함될 수 있다.Meanwhile, the computer program may be specifically designed and configured for the present invention or may be known and used by those skilled in the computer software field. Examples of computer programs may include machine language code such as those produced by a compiler, as well as high-level language code that may be executed by a computer using an interpreter or the like.

본 발명에서 설명하는 특정 실행들은 일 실시 예들로서, 어떠한 방법으로도 본 발명의 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다. 또한, “필수적인”, “중요하게” 등과 같이 구체적인 언급이 없다면 본 발명의 적용을 위하여 반드시 필요한 구성 요소가 아닐 수 있다.The specific acts described in the present invention are, by way of example, not intended to limit the scope of the invention in any way. For brevity of description, descriptions of conventional electronic configurations, control systems, software, and other functional aspects of such systems may be omitted. Also, the connections or connecting members of the lines between the components shown in the figures are illustrative of functional connections and / or physical or circuit connections, which may be replaced or additionally provided by a variety of functional connections, physical Connection, or circuit connections. Also, unless explicitly mentioned, such as " essential ", " importantly ", etc., it may not be a necessary component for application of the present invention.

따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 또는 이로부터 등가적으로 변경된 모든 범위는 본 발명의 사상의 범주에 속한다고 할 것이다.Accordingly, the spirit of the present invention should not be construed as being limited to the above-described embodiments, and all ranges that are equivalent to or equivalent to the claims of the present invention as well as the claims .

100: 무인 멀티콥터에 구비된 카메라를 이용한 객체 위치 산출 장치
110: 객체 설정부 120: 카메라 제어부
130: 플랫폼 제어부 140: 객체 위치 산출부
150: 객체 크기 산출부 400: 무인 멀티콥터
410: 카메라 500: 객체
100: Object position calculating device using a camera provided in an unmanned multi-copter
110: Object setting unit 120: Camera control unit
130: platform control unit 140: object position calculation unit
150: object size calculating unit 400: unmanned multi-copter
410: camera 500: object

Claims (20)

플랫폼에 구비된 카메라를 통해 촬영된 화면 내에서 객체를 설정하는 단계;
상기 플랫폼이 제1 위치인 상태에서 상기 객체의 중심이 상기 화면의 중앙에 위치하도록 상기 카메라를 제어하고, 제1 측정 값을 획득하는 단계;
상기 제1 위치에서 상기 제1 위치와 상이한 제2 위치로 상기 플랫폼을 이동시키는 단계;
상기 플랫폼이 상기 제2 위치인 상태에서 상기 객체의 중심이 상기 화면의 중앙에 위치하도록 상기 카메라를 제어하고, 제2 측정 값을 획득하는 단계; 및
상기 제1 측정 값 및 상기 제2 측정 값을 이용하여 상기 객체의 위치를 산출하는 단계;를 포함하는, 무인 멀티콥터에 구비된 카메라를 이용한 객체 위치 산출 방법.
Setting an object in a screen photographed through a camera provided on a platform;
Controlling the camera such that the center of the object is located at the center of the screen in a state where the platform is in a first position, and acquiring a first measurement value;
Moving the platform from the first position to a second position that is different from the first position;
Controlling the camera such that the center of the object is located at the center of the screen with the platform in the second position, and obtaining a second measurement value; And
And calculating the position of the object by using the first measurement value and the second measurement value.
제1 항에 있어서,
상기 제1 측정 값은
제1 위치의 3차원 좌표 값, 상기 카메라의 틸팅(tilting) 각도, 상기 카메라의 패닝(panning) 각도 중 적어도 하나를 포함하는 것을 특징으로 하는, 무인 멀티콥터에 구비된 카메라를 이용한 객체 위치 산출 방법.
The method according to claim 1,
The first measurement value
A tilting angle of the camera, and a panning angle of the camera, wherein the three-dimensional coordinate value of the first position, the tilting angle of the camera, and the panning angle of the camera. .
제2 항에 있어서,
상기 제1 위치의 3차원 좌표 값은
상기 제1 위치의 경도 값, 위도 값 및 고도 값으로 이루어지는 것을 특징으로 하는, 무인 멀티콥터에 구비된 카메라를 이용한 객체 위치 산출 방법.
3. The method of claim 2,
The three-dimensional coordinate value of the first position is
A latitude value, and an altitude value of the first position, the latitude value and the altitude value of the first position.
제3 항에 있어서,
상기 제1 측정 값을 획득하는 단계는
상기 플랫폼에 구비된 짐벌(gimbal)을 이용하여 상기 카메라의 좌우 기울기를 수평 상태로 유지하는 상태에서 상기 제1 측정 값을 획득하는 것을 특징으로 하는, 무인 멀티콥터에 구비된 카메라를 이용한 객체 위치 산출 방법.
The method of claim 3,
The step of obtaining the first measured value
Wherein the first measurement value is acquired in a state in which the left and right tilts of the camera are maintained in a horizontal state by using a gimbal provided on the platform. Way.
제3 항에 있어서,
상기 객체의 위치를 산출하는 단계는
상기 제1 측정 값 및 상기 제2 측정 값을 이용하여 수직 틸팅 모드, 수평 틸팅 모드 및 수평 패닝 모드 중 적어도 하나의 위치 산출 모드를 결정하고, 상기 위치 산출 모드에 상응하는 산출 식을 이용하여 상기 객체의 위치를 산출하는 것을 특징으로 하는, 무인 멀티콥터에 구비된 카메라를 이용한 객체 위치 산출 방법.
The method of claim 3,
The step of calculating the position of the object
Determining a position calculation mode of at least one of a vertical tilting mode, a horizontal tilting mode, and a horizontal panning mode using the first measurement value and the second measurement value, Wherein the position of the object is calculated using the camera provided in the unmanned multi-copter.
제5 항에 있어서,
상기 객체의 위치를 산출하는 단계는
복수의 상기 위치 산출 모드들이 결정된 경우, 상기 위치 산출 모드들 각각에 상응하는 산출 식을 이용하여 산출된 값들의 평균 값을 상기 객체의 위치로 결정하는 것을 특징으로 하는, 무인 멀티콥터에 구비된 카메라를 이용한 객체 위치 산출 방법.
6. The method of claim 5,
The step of calculating the position of the object
Wherein when the plurality of position calculation modes are determined, an average value of the values calculated using the calculation formula corresponding to each of the position calculation modes is determined as the position of the object. A method for calculating object position using.
제5 항에 있어서,
상기 객체의 위치를 산출하는 단계는
상기 제1 측정 값 및 상기 제2 측정 값에 포함된 고도 값이 서로 다르면서, 상기 제1 측정 값 및 상기 제2 측정 값에 포함된 카메라의 틸팅 각도가 서로 다른 경우, 상기 위치 산출 모드를 상기 수직 틸팅 모드로 결정하는 것을 특징으로 하는, 무인 멀티콥터에 구비된 카메라를 이용한 객체 위치 산출 방법.
6. The method of claim 5,
The step of calculating the position of the object
When the first measurement value and the altitude value included in the second measurement value are different from each other and the tilting angles of the camera included in the first measurement value and the second measurement value are different, Wherein the vertical tilting mode is determined to be a vertical tilting mode.
제5 항에 있어서,
상기 객체의 위치를 산출하는 단계는
상기 제1 측정 값 및 상기 제2 측정 값에 포함된 경도 값 또는 위도 값이 서로 다르면서, 상기 제1 측정 값 및 상기 제2 측정 값에 포함된 카메라의 틸팅 각도가 서로 다른 경우, 상기 위치 산출 모드를 상기 수평 틸팅 모드로 결정하는 것을 특징으로 하는, 무인 멀티콥터에 구비된 카메라를 이용한 객체 위치 산출 방법.
6. The method of claim 5,
The step of calculating the position of the object
When the tilting angles of the cameras included in the first measured value and the second measured value are different from each other when the first measured value and the second measured value have different hardness values or latitude values, Wherein the mode is determined as the horizontal tilting mode. A method for calculating an object position using a camera provided in an unmanned multi-copter.
제5 항에 있어서,
상기 객체의 위치를 산출하는 단계는
상기 제1 측정 값 및 상기 제2 측정 값에 포함된 카메라의 패닝 각도가 서로 다른 경우, 상기 위치 산출 모드를 상기 수평 패닝 모드로 결정하는 것을 특징으로 하는, 무인 멀티콥터에 구비된 카메라를 이용한 객체 위치 산출 방법.
6. The method of claim 5,
The step of calculating the position of the object
Wherein when the panning angle of the camera included in the first measured value and the second measured value are different from each other, the determining unit determines the position calculating mode as the horizontal panning mode. Location calculation method.
제3 항에 있어서,
상기 카메라를 이용한 객체 위치 산출 방법은
상기 객체의 위치, 상기 객체의 상기 화면 내 크기 및 상기 카메라의 줌 배율 값을 이용하여 상기 객체의 크기를 산출하는 단계;를 더 포함하는 것을 특징으로 하는, 무인 멀티콥터에 구비된 카메라를 이용한 객체 위치 산출 방법.
The method of claim 3,
The object position calculating method using the camera
And calculating a size of the object using the position of the object, the size of the object in the screen, and the zoom magnification value of the camera. Location calculation method.
플랫폼에 구비된 카메라를 통해 촬영된 화면 내에서 객체를 설정하는 객체 설정부;
제1 위치에서 상기 제1 위치와 상이한 제2 위치로 상기 플랫폼을 이동시키고, 상기 플랫폼이 상기 제1 위치인 상태에서 제1 측정 값을 획득하고, 상기 플랫폼이 상기 제2 위치인 상태에서 제2 측정 값을 획득하는 플랫폼 제어부;
상기 제1 측정 값 및 상기 제2 측정 값을 각각 획득하기 전에, 상기 객체의 중심이 상기 화면의 중앙에 위치하도록 상기 카메라를 제어하는 카메라 제어부; 및
상기 제1 측정 값 및 상기 제2 측정 값을 이용하여 상기 객체의 위치를 산출하는 객체 위치 산출부;를 포함하는, 무인 멀티콥터에 구비된 카메라를 이용한 객체 위치 산출 장치.
An object setting unit for setting an object in a screen photographed through a camera provided on the platform;
Moving the platform from a first position to a second position that is different from the first position, obtaining a first measurement value while the platform is in the first position, and when the platform is in the second position, A platform control unit for acquiring a measurement value;
A camera controller for controlling the camera such that the center of the object is located at the center of the screen before acquiring the first measurement value and the second measurement value, respectively; And
And an object position calculation unit for calculating the position of the object using the first measurement value and the second measurement value.
제11 항에 있어서,
상기 제1 측정 값은
제1 위치의 3차원 좌표 값, 상기 카메라의 틸팅(tilting) 각도, 상기 카메라의 패닝(panning) 각도 중 적어도 하나를 포함하는 것을 특징으로 하는, 무인 멀티콥터에 구비된 카메라를 이용한 객체 위치 산출 장치.
12. The method of claim 11,
The first measurement value
A tilting angle of the camera, and a panning angle of the camera, wherein the object position calculating device includes at least one of a three-dimensional coordinate value of the first position, a tilting angle of the camera, and a panning angle of the camera. .
제12 항에 있어서,
상기 제1 위치의 3차원 좌표 값은
상기 제1 위치의 경도 값, 위도 값 및 고도 값으로 이루어지는 것을 특징으로 하는, 무인 멀티콥터에 구비된 카메라를 이용한 객체 위치 산출 장치.
13. The method of claim 12,
The three-dimensional coordinate value of the first position is
The latitude value and the altitude value of the first position, the latitude value and the altitude value of the first position.
제13 항에 있어서,
상기 카메라 제어부는
상기 제1 측정 값을 획득하는 동안, 상기 플랫폼에 구비된 짐벌(gimbal)을 이용하여 상기 카메라의 좌우 기울기를 수평 상태로 유지하는 것을 특징으로 하는, 무인 멀티콥터에 구비된 카메라를 이용한 객체 위치 산출 장치.
14. The method of claim 13,
The camera control unit
Wherein the controller is configured to maintain the horizontal tilt of the camera using a gimbal provided on the platform during the acquisition of the first measured value, Device.
제13 항에 있어서,
상기 객체 위치 산출부는
상기 제1 측정 값 및 상기 제2 측정 값을 이용하여 수직 틸팅 모드, 수평 틸팅 모드 및 수평 패닝 모드 중 적어도 하나의 위치 산출 모드를 결정하고, 상기 위치 산출 모드에 상응하는 산출 식을 이용하여 상기 객체의 위치를 산출하는 것을 특징으로 하는, 무인 멀티콥터에 구비된 카메라를 이용한 객체 위치 산출 장치.
14. The method of claim 13,
The object position calculation unit
Determining a position calculation mode of at least one of a vertical tilting mode, a horizontal tilting mode, and a horizontal panning mode using the first measurement value and the second measurement value, Wherein the position of the object is calculated by using the camera.
제15 항에 있어서,
상기 객체 위치 산출부는
복수의 상기 위치 산출 모드들이 결정된 경우, 상기 위치 산출 모드들 각각에 상응하는 산출 식을 이용하여 산출된 값들의 평균 값을 상기 객체의 위치로 결정하는 것을 특징으로 하는, 무인 멀티콥터에 구비된 카메라를 이용한 객체 위치 산출 장치.
16. The method of claim 15,
The object position calculation unit
Wherein when the plurality of position calculation modes are determined, an average value of the values calculated using the calculation formula corresponding to each of the position calculation modes is determined as the position of the object. For calculating the position of the object.
제15 항에 있어서,
상기 객체 위치 산출부는
상기 제1 측정 값 및 상기 제2 측정 값에 포함된 고도 값이 서로 다르면서, 상기 제1 측정 값 및 상기 제2 측정 값에 포함된 카메라의 틸팅 각도가 서로 다른 경우, 상기 위치 산출 모드를 상기 수직 틸팅 모드로 결정하는 것을 특징으로 하는, 무인 멀티콥터에 구비된 카메라를 이용한 객체 위치 산출 장치.
16. The method of claim 15,
The object position calculation unit
When the first measurement value and the altitude value included in the second measurement value are different from each other and the tilting angles of the camera included in the first measurement value and the second measurement value are different, Wherein the vertical tilting mode is determined to be the vertical tilting mode.
제15 항에 있어서,
상기 객체 위치 산출부는
상기 제1 측정 값 및 상기 제2 측정 값에 포함된 경도 값 또는 위도 값이 서로 다르면서, 상기 제1 측정 값 및 상기 제2 측정 값에 포함된 카메라의 틸팅 각도가 서로 다른 경우, 상기 위치 산출 모드를 상기 수평 틸팅 모드로 결정하는 것을 특징으로 하는, 무인 멀티콥터에 구비된 카메라를 이용한 객체 위치 산출 장치.
16. The method of claim 15,
The object position calculation unit
When the tilting angles of the cameras included in the first measured value and the second measured value are different from each other when the first measured value and the second measured value have different hardness values or latitude values, Mode is set to the horizontal tilting mode, wherein the horizontal tilting mode is set to the horizontal tilting mode.
제15 항에 있어서,
상기 객체 위치 산출부는
상기 제1 측정 값 및 상기 제2 측정 값에 포함된 카메라의 패닝 각도가 서로 다른 경우, 상기 위치 산출 모드를 상기 수평 패닝 모드로 결정하는 것을 특징으로 하는, 무인 멀티콥터에 구비된 카메라를 이용한 객체 위치 산출 장치.
16. The method of claim 15,
The object position calculation unit
Wherein when the panning angle of the camera included in the first measured value and the second measured value are different from each other, the determining unit determines the position calculating mode as the horizontal panning mode. Position calculating device.
제13 항에 있어서,
상기 카메라를 이용한 객체 위치 산출 장치는
상기 객체의 위치, 상기 객체의 상기 화면 내 크기 및 상기 카메라의 줌 배율 값을 이용하여 상기 객체의 크기를 산출하는 객체 크기 산출부;를 더 포함하는 것을 특징으로 하는, 무인 멀티콥터에 구비된 카메라를 이용한 객체 위치 산출 장치.
14. The method of claim 13,
The object position calculating apparatus using the camera
And an object size calculating unit for calculating the size of the object using the position of the object, the size of the object in the screen, and the zoom magnification value of the camera. For calculating the position of the object.
KR1020160002086A 2016-01-07 2016-01-07 Method of object position calculation using camera equipped with unmanned multirotor and apparatus for the same KR20170082839A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020160002086A KR20170082839A (en) 2016-01-07 2016-01-07 Method of object position calculation using camera equipped with unmanned multirotor and apparatus for the same
PCT/KR2017/000044 WO2017119695A1 (en) 2016-01-07 2017-01-03 Object position calculation method using camera provided in unmanned multicopter, and apparatus therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160002086A KR20170082839A (en) 2016-01-07 2016-01-07 Method of object position calculation using camera equipped with unmanned multirotor and apparatus for the same

Publications (1)

Publication Number Publication Date
KR20170082839A true KR20170082839A (en) 2017-07-17

Family

ID=59273808

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160002086A KR20170082839A (en) 2016-01-07 2016-01-07 Method of object position calculation using camera equipped with unmanned multirotor and apparatus for the same

Country Status (2)

Country Link
KR (1) KR20170082839A (en)
WO (1) WO2017119695A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102175325B1 (en) * 2019-07-15 2020-11-06 한국공항공사 Methods and devices for tracking radio obstsacles of navigation safety facilities using drone system

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4080302B2 (en) * 2002-11-07 2008-04-23 三菱電機株式会社 Position interpretation device
KR101524154B1 (en) * 2013-10-16 2015-05-29 삼성중공업 주식회사 Location measurement apparatus of a ship using numerous cameras
KR101579970B1 (en) * 2014-02-14 2015-12-23 주식회사 카카오 Method and apparatus for calculating location of points captured in image
KR101590889B1 (en) * 2014-03-04 2016-02-02 국방과학연구소 Target position estimation equipment using imaging sensors for analyzing an accuracy of target tracking method
KR102165450B1 (en) * 2014-05-22 2020-10-14 엘지전자 주식회사 The Apparatus and Method for Portable Device controlling Unmanned Aerial Vehicle

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102175325B1 (en) * 2019-07-15 2020-11-06 한국공항공사 Methods and devices for tracking radio obstsacles of navigation safety facilities using drone system

Also Published As

Publication number Publication date
WO2017119695A1 (en) 2017-07-13

Similar Documents

Publication Publication Date Title
CN110276786B (en) Method and device for determining position information of tracking target, tracking device and system
US20160063704A1 (en) Image processing device, image processing method, and program therefor
JP6658001B2 (en) Position estimation device, program, position estimation method
US20140375773A1 (en) Use of Overlap Areas to Optimize Bundle Adjustment
JP2018013337A (en) Device and method for guiding and positioning flying object
JP6529372B2 (en) Three-dimensional measurement device, three-dimensional measurement method, and program
WO2014113159A1 (en) Orientation determination based on vanishing point computation
KR20210084622A (en) Time synchronization processing methods, electronic devices and storage media
KR20180131033A (en) Calibration apparatus and method of camera and rader
TW201711011A (en) Positioning and directing data analysis system and method thereof
KR101764222B1 (en) System and method for high precise positioning
JP6001914B2 (en) Target position specifying device, target position specifying system, and target position specifying method
US20210229810A1 (en) Information processing device, flight control method, and flight control system
JP7008736B2 (en) Image capture method and image capture device
KR20170082839A (en) Method of object position calculation using camera equipped with unmanned multirotor and apparatus for the same
EP3943979A1 (en) Indoor device localization
KR101821992B1 (en) Method and apparatus for computing 3d position of target using unmanned aerial vehicles
US11620846B2 (en) Data processing method for multi-sensor fusion, positioning apparatus and virtual reality device
WO2018134866A1 (en) Camera calibration device
JP2023072353A (en) Mobile body travel route determination device, mobile body travel route determination method, and mobile body travel route determination program
US11002541B2 (en) Target positioning with electronic distance measuring and bundle adjustment
WO2021217312A1 (en) Target positioning method, movable platform and storage medium
JP6974290B2 (en) Position estimation device, position estimation method, program, and recording medium
US20230081228A1 (en) Orienting a moving electromagnetic tracking reference frame via external localizing data on an electromagnetic sensor using imu data
US20220357175A1 (en) Method and system for positioning a vehicle using an image-capturing device