KR102204435B1 - Apparatus for providing an augmented reality using unmanned aerial vehicle, method thereof and computer recordable medium storing program to perform the method - Google Patents

Apparatus for providing an augmented reality using unmanned aerial vehicle, method thereof and computer recordable medium storing program to perform the method Download PDF

Info

Publication number
KR102204435B1
KR102204435B1 KR1020190008393A KR20190008393A KR102204435B1 KR 102204435 B1 KR102204435 B1 KR 102204435B1 KR 1020190008393 A KR1020190008393 A KR 1020190008393A KR 20190008393 A KR20190008393 A KR 20190008393A KR 102204435 B1 KR102204435 B1 KR 102204435B1
Authority
KR
South Korea
Prior art keywords
aerial vehicle
unmanned aerial
unit
augmented reality
information
Prior art date
Application number
KR1020190008393A
Other languages
Korean (ko)
Other versions
KR20200091292A (en
Inventor
양현식
이준호
고홍식
이정욱
양윤영
박상연
이세윤
Original Assignee
주식회사 하이쓰리디
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 하이쓰리디 filed Critical 주식회사 하이쓰리디
Priority to KR1020190008393A priority Critical patent/KR102204435B1/en
Publication of KR20200091292A publication Critical patent/KR20200091292A/en
Application granted granted Critical
Publication of KR102204435B1 publication Critical patent/KR102204435B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction

Abstract

본 발명은 무인항공기를 이용한 증강현실을 제공하기 위한 장치, 이를 위한 방법 및 이 방법이 기록된 기록매체에 관한 것이다. 본 발명의 실시예에 따른 무인항공기를 이용한 증강현실을 제공하기 위한 장치는 화면을 표시하기 위한 표시부와, 데이터서버 및 무인항공기와 통신을 위한 통신부와, 상기 통신부를 통해 상기 무인항공기로 기준 지점 및 상기 기준 지점을 기준으로 설정된 비행 궤도를 포함하는 제어 명령을 전송하고, 상기 통신부를 통해 상기 무인항공기로부터 상기 무인항공기가 상기 기준 지점을 기준으로 설정된 비행 궤도를 비행하며 촬영한 영상을 포함하는 공간 정보를 수신하고, 공간 정보를 이용하여 3차원 좌표계를 설정하고, 설정된 3차원 좌표계로부터 기준 평면을 도출한 후, 도출된 기준 평면 상에 가상 모델을 합성하여 상기 표시부를 통해 표시하도록 제어하는 제어부를 포함한다. The present invention relates to an apparatus for providing augmented reality using an unmanned aerial vehicle, a method therefor, and a recording medium on which the method is recorded. An apparatus for providing augmented reality using an unmanned aerial vehicle according to an embodiment of the present invention includes a display section for displaying a screen, a communication section for communicating with a data server and an unmanned aerial vehicle, and a reference point to the unmanned aerial vehicle through the communication section. Spatial information including an image captured while transmitting a control command including a flight trajectory set based on the reference point, and the unmanned aerial vehicle flying through the flight trajectory set based on the reference point from the unmanned aerial vehicle through the communication unit And a control unit for controlling to display through the display unit by synthesizing a virtual model on the derived reference plane after receiving, setting a 3D coordinate system using spatial information, deriving a reference plane from the set 3D coordinate system do.

Description

무인항공기를 이용한 증강현실을 제공하기 위한 장치, 이를 위한 방법 및 이 방법이 기록된 기록매체{Apparatus for providing an augmented reality using unmanned aerial vehicle, method thereof and computer recordable medium storing program to perform the method} Apparatus for providing an augmented reality using unmanned aerial vehicle, method thereof and computer recordable medium storing program to perform the method}

본 발명은 증강 현실에 관한 것으로, 보다 상세하게는, 무인항공기(UAV: Unmanned Aerial Vehicle)를 이용하여 증강현실을 제공하기 위한 장치, 이를 위한 방법 및 이 방법이 기록된 기록매체에 관한 것이다. The present invention relates to augmented reality, and more particularly, to an apparatus for providing augmented reality using an unmanned aerial vehicle (UAV), a method therefor, and a recording medium on which the method is recorded.

증강 현실은 현실 세계에 컴퓨터 기술로 만든 가상물체 및 정보를 융합, 보완해 주는 기술을 말한다. 현실 세계에 실시간으로 부가정보를 갖는 가상 세계를 더해 하나의 영상으로 보여준다. 1990년 보잉사의 항공기 전선 조립과정을 설명하는 데 처음 사용된 이후 미국과 일본을 중심으로 이에 대한 기술 연구개발이 진행되었다. 2000년대 중반 이후 스마트폰이 등장하고 활성화됨에 따라 이 기술을 적용하면서 주목받기 시작했다. Augmented reality refers to a technology that combines and complements virtual objects and information made with computer technology in the real world. The virtual world with additional information in real time is added to the real world and displayed as a single image. Since it was first used to explain the assembly process of Boeing's aircraft cables in 1990, technical research and development has been carried out around the United States and Japan. As smartphones appeared and became active after the mid-2000s, they began to gain attention as they applied this technology.

가상현실(VR: virtual reality) 기술이 컴퓨터그래픽이 만든 가상환경에 사용자를 몰입하도록 함으로써 실제 환경을 볼 수 없는 데 비해, 증강현실 기술은 실제 환경에 가상의 객체를 혼합하여 사용자가 실제 환경에서 보다 실감나는 부가정보를 제공받을 수 있다. 예를 들면 길을 가다 스마트폰 카메라로 주변을 비추면 근처에 있는 상점의 위치 및 전화번호, 지도 등의 정보가 입체영상으로 표시되고, 하늘을 비추면 날씨정보가 나타나는 등 다양한 분야에 적용되고 있다. While VR (virtual reality) technology allows users to immerse users in a virtual environment created by computer graphics, so that they cannot see the real environment, augmented reality technology mixes virtual objects in the real environment so that users can see it in the real environment. You can receive realistic additional information. For example, it is applied in a variety of fields, such as when going on the road, when you look at the surroundings with a smartphone camera, information such as the location, phone number, and map of nearby stores is displayed in a 3D image, and when you shine the sky, weather information appears. .

한편, 가상현실과 증강현실을 혼합한 기술은 혼합현실(MR: mixed reality)이라고 한다. MR은 현실 배경에 현실과 가상의 정보를 혼합시켜 제공하는데, 대용량 데이터를 처리할 수 있는 기술이 필요해 아직 상용화되지는 않았다. VR과 AR, MR은 모두 실제로 존재하지 않는 현실을 구현해 사람이 이를 인지할 수 있도록 하는 기술이라는 점에서 공통점이 있다. 다만 AR은 실제 현실에 가상의 정보를 더해 보여주는 방식이고, VR은 모두 허구의 상황이 제시된다는 점에서 차이가 있다. Meanwhile, a technology that combines virtual reality and augmented reality is called mixed reality (MR). MR provides a mixture of real and virtual information in a real background, but it has not been commercialized yet because it requires a technology that can process large amounts of data. VR, AR, and MR all have something in common in that they are technologies that enable people to perceive reality by realizing a reality that does not exist. However, there is a difference in that AR is a method of adding virtual information to real reality, and in VR, all fictional situations are presented.

한국공개특허 제2018-0109229호 2018년 10월 08일 공개 (명칭: 전자 장치에서 증강현실 기능 제공 방법 및 장치)Korean Patent Publication No. 2018-0109229 published on October 08, 2018 (Name: method and apparatus for providing augmented reality function in electronic device)

본 발명의 목적은 무인항공기를 이용하여 증강현실을 제공할 수 있는 장치, 이를 위한 방법 및 이 방법을 수행하기 위한 프로그램이 기록된 컴퓨터 판독 가능한 기록매체를 제공함에 있다. An object of the present invention is to provide an apparatus capable of providing augmented reality using an unmanned aerial vehicle, a method therefor, and a computer-readable recording medium in which a program for performing the method is recorded.

상술한 바와 같은 목적을 달성하기 위한 본 발명의 바람직한 실시예에 따른 무인항공기를 이용한 증강현실을 제공하기 위한 장치는 화면을 표시하기 위한 표시부와, 데이터서버 및 무인항공기와 통신을 위한 통신부와, 상기 통신부를 통해 상기 무인항공기로 기준 지점 및 상기 기준 지점을 기준으로 설정된 비행 궤도를 포함하는 제어 명령을 전송하고, 상기 통신부를 통해 상기 무인항공기로부터 상기 무인항공기가 상기 기준 지점을 기준으로 설정된 비행 궤도를 비행하며 촬영한 영상을 포함하는 공간 정보를 수신하고, 공간 정보를 이용하여 3차원 좌표계를 설정하고, 설정된 3차원 좌표계로부터 기준 평면을 도출한 후, 도출된 기준 평면 상에 가상 모델을 합성하여 상기 표시부를 통해 표시하도록 제어하는 제어부를 포함한다. An apparatus for providing augmented reality using an unmanned aerial vehicle according to a preferred embodiment of the present invention for achieving the above object includes a display unit for displaying a screen, a data server and a communication unit for communication with the unmanned aerial vehicle, and the A control command including a reference point and a flight trajectory set based on the reference point is transmitted to the unmanned aerial vehicle through a communication unit, and the unmanned aerial vehicle transmits a flight trajectory set based on the reference point from the unmanned aerial vehicle through the communication unit. Receive spatial information including images taken while flying, set a 3D coordinate system using the spatial information, derive a reference plane from the set 3D coordinate system, and synthesize a virtual model on the derived reference plane, It includes a control unit that controls to be displayed through the display unit.

상기 공간 정보는 상기 무인항공기의 카메라부가 촬영한 영상 및 상기 카메라부의 소정의 기준점으로부터 촬영된 영상의 각 픽셀에 대응하는 실제 객체까지의 거리를 포함하는 영상 정보와, 상기 영상을 촬영한 시점에 대응하며, 상기 시점에 상기 무인항공기의 센서부를 통해 획득한 무인항공기의 위치 정보와, 상기 무인항공기의 자세 정보 및 상기 카메라부의 자세 정보를 포함하는 센서 정보를 포함한다. The spatial information corresponds to image information including an image captured by the camera unit of the unmanned aerial vehicle and a distance from a predetermined reference point of the camera unit to an actual object corresponding to each pixel of the image captured, and a time point at which the image is captured. And sensor information including position information of the unmanned aerial vehicle acquired through the sensor unit of the unmanned aerial vehicle at the time point, attitude information of the unmanned aerial vehicle, and attitude information of the camera unit.

상기 제어부는 상기 공간 정보로부터 상기 무인항공기의 자세 정보 및 상기 카메라부의 자세 정보 중 적어도 하나가 상이한 복수의 영상을 검출하고, 상기 검출된 복수의 영상 각각에서 복수의 특징점을 특정하고, 상기 복수의 특징점으로부터 특징점 간의 상대 거리와 각도인 특징점 벡터를 구하여 복수의 평면을 특정하고, 특정된 복수의 평면을 기초로 상기 3차원 좌표계를 생성하는 것을 특징으로 한다. The control unit detects a plurality of images in which at least one of the attitude information of the unmanned aerial vehicle and the attitude information of the camera unit are different from the spatial information, and specifies a plurality of feature points in each of the detected plurality of images, and the plurality of feature points A plurality of planes are determined by obtaining a feature point vector, which is a relative distance and angle between the feature points, and the three-dimensional coordinate system is generated based on the specified plurality of planes.

상기 제어부는 상기 영상의 전체 픽셀 배열의 픽셀값의 변화율의 평균 보다 픽셀값의 변화가 작은 복수의 픽셀을 복수의 특징점으로 특정하는 것을 특징으로 한다. The control unit is characterized in that the control unit specifies, as a plurality of feature points, a plurality of pixels whose change in pixel values is smaller than an average of change rates of pixel values in the entire pixel array of the image.

상술한 바와 같은 목적을 달성하기 위한 본 발명의 바람직한 실시예에 따른 무인항공기를 이용한 증강현실을 제공하기 위한 방법은 무인항공기로 기준 지점 및 상기 기준 지점을 기준으로 설정된 비행 궤도를 포함하는 제어 명령을 전송하는 단계와, 상기 무인항공기로부터 상기 무인항공기가 상기 기준 지점을 기준으로 설정된 비행 궤도를 비행하며 촬영한 영상을 포함하는 공간 정보를 수신하는 단계와, 상기 공간 정보를 이용하여 3차원 좌표계를 설정하고, 설정된 3차원 좌표계로부터 기준 평면을 도출하는 단계와, 상기 도출된 기준 평면 상에 가상 모델을 합성하여 표시하는 단계를 포함한다. A method for providing augmented reality using an unmanned aerial vehicle according to a preferred embodiment of the present invention for achieving the above object is a control command including a reference point and a flight trajectory set based on the reference point with an unmanned aerial vehicle. Transmitting and receiving spatial information from the unmanned aerial vehicle, including an image captured by the unmanned aerial vehicle flying in a flight trajectory set based on the reference point, and setting a 3D coordinate system using the spatial information And deriving a reference plane from the set 3D coordinate system, and synthesizing and displaying a virtual model on the derived reference plane.

상기 공간 정보는 상기 무인항공기의 카메라부가 촬영한 영상 및 상기 카메라부의 소정의 기준점으로부터 촬영된 영상의 각 픽셀에 대응하는 실제 객체까지의 거리를 포함하는 영상 정보와, 상기 영상을 촬영한 시점에 대응하며, 상기 시점에 상기 무인항공기의 센서부를 통해 획득한 무인항공기의 위치 정보와, 상기 무인항공기의 자세 정보 및 상기 카메라부의 자세 정보를 포함하는 센서 정보를 포함한다. The spatial information corresponds to image information including an image captured by the camera unit of the unmanned aerial vehicle and a distance from a predetermined reference point of the camera unit to an actual object corresponding to each pixel of the image captured, and a time point at which the image is captured. And sensor information including position information of the unmanned aerial vehicle acquired through the sensor unit of the unmanned aerial vehicle at the time point, attitude information of the unmanned aerial vehicle, and attitude information of the camera unit.

상기 공간 정보를 이용하여 3차원 좌표계를 설정하고, 설정된 3차원 좌표계로부터 기준 평면을 도출하는 단계는 상기 공간 정보로부터 상기 무인항공기의 자세 정보 및 상기 카메라부의 자세 정보 중 적어도 하나가 상이한 복수의 영상을 검출하는 단계와, 상기 검출된 복수의 영상 각각에서 복수의 특징점을 특정하는 단계와, 상기 복수의 특징점으로부터 특징점 간의 상대 거리와 각도인 특징점 벡터를 구하여 복수의 평면을 특정하는 단계와, 상기 특정된 복수의 평면을 기초로 상기 3차원 좌표계를 생성하는 단계를 포함한다. The step of setting a 3D coordinate system using the spatial information and deriving a reference plane from the set 3D coordinate system includes a plurality of images in which at least one of the attitude information of the unmanned aerial vehicle and the attitude information of the camera unit are different from the spatial information. Detecting, specifying a plurality of feature points in each of the detected plurality of images, specifying a plurality of planes by obtaining a feature point vector, which is a relative distance and angle between feature points from the plurality of feature points, and the specified And generating the three-dimensional coordinate system based on a plurality of planes.

상기 검출된 복수의 영상 각각에서 복수의 특징점을 특정하는 단계는 상기 영상의 전체 픽셀 배열의 픽셀값의 변화율의 평균 보다 픽셀값의 변화가 작은 복수의 픽셀을 복수의 특징점으로 특정하는 것을 특징으로 한다. The step of specifying a plurality of feature points in each of the plurality of detected images is characterized in that a plurality of pixels having a change in pixel value smaller than an average of a rate of change of pixel values of the entire pixel array of the image are specified as a plurality of feature points. .

상술한 바와 같은 목적을 달성하기 위한 본 발명의 다른 견지에 따르면, 전술한 본 발명의 실시예에 따른 증강 현실을 제공하기 위한 방법을 수행하기 위한 프로그램이 기록된 컴퓨터 판독 가능한 기록매체를 제공할 수 있다. According to another aspect of the present invention for achieving the above object, a computer-readable recording medium in which a program for performing the method for providing augmented reality according to the above-described embodiment of the present invention is recorded can be provided. have.

본 발명에 따르면, 사용자로부터 멀리 떨어져있거나 높은 고도에 대해서도 사용자는 가상 모델이 합성된 영상을 손쉽게 구현할 수 있으며, 개선된 증강현실 구현 방법을 통해 사용 장비의 수가 감소하며, 시스템 리소스 또한 더욱 효율적으로 사용할 수 있다. According to the present invention, a user can easily implement an image synthesized with a virtual model even at a high altitude or far away from the user, and the number of equipment used is reduced through the improved augmented reality implementation method, and system resources are also used more efficiently. I can.

도 1은 본 발명의 실시예에 따른 무인항공기를 이용한 증강현실을 제공하기 위한 시스템을 설명하기 위한 도면이다.
도 2는 본 발명의 실시예에 따른 증강현실을 제공하기 위한 사용자장치의 구성에 대해서 설명하기 위한 블록도이다.
도 3은 본 발명의 실시예에 따른 데이터서버의 구성을 설명하기 위한 블록도이다.
도 4는 본 발명의 실시예에 따른 무인항공기의 구성을 설명하기 위한 블록도이다.
도 5는 본 발명의 실시예에 따른 무인항공기를 이용한 증강현실을 제공하기 위한 방법에 대해서 설명하기 위한 흐름도이다.
도 6은 본 발명의 실시예에 따른 3차원 좌표계를 생성하는 방법을 설명하기 위한 흐름도이다.
도 7 내지 도 9는 본 발명의 실시예에 따른 3차원 좌표계를 생성하는 방법을 설명하기 위한 도면이다.
1 is a view for explaining a system for providing augmented reality using an unmanned aerial vehicle according to an embodiment of the present invention.
2 is a block diagram illustrating a configuration of a user device for providing augmented reality according to an embodiment of the present invention.
3 is a block diagram illustrating a configuration of a data server according to an embodiment of the present invention.
4 is a block diagram illustrating a configuration of an unmanned aerial vehicle according to an embodiment of the present invention.
5 is a flowchart illustrating a method for providing augmented reality using an unmanned aerial vehicle according to an embodiment of the present invention.
6 is a flowchart illustrating a method of generating a 3D coordinate system according to an embodiment of the present invention.
7 to 9 are diagrams for explaining a method of generating a 3D coordinate system according to an embodiment of the present invention.

본 발명의 상세한 설명에 앞서, 이하에서 설명되는 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념으로 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다. 따라서 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 실시예에 불과할 뿐, 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형 예들이 있을 수 있음을 이해하여야 한다. Prior to the detailed description of the present invention, terms or words used in the present specification and claims described below should not be construed as being limited to their usual or dictionary meanings, and the inventors shall use their own invention in the best way. For explanation, based on the principle that it can be appropriately defined as a concept of terms, it should be interpreted as a meaning and concept consistent with the technical idea of the present invention. Therefore, the embodiments described in the present specification and the configurations shown in the drawings are only the most preferred embodiments of the present invention, and do not represent all the technical spirit of the present invention, and various equivalents that can replace them at the time of application It should be understood that there may be water and variations.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예들을 상세히 설명한다. 이때, 첨부된 도면에서 동일한 구성 요소는 가능한 동일한 부호로 나타내고 있음을 유의해야 한다. 또한, 본 발명의 요지를 흐리게 할 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략할 것이다. 마찬가지의 이유로 첨부 도면에 있어서 일부 구성요소는 과장되거나 생략되거나 또는 개략적으로 도시되었으며, 각 구성요소의 크기는 실제 크기를 전적으로 반영하는 것이 아니다. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. In this case, it should be noted that the same components in the accompanying drawings are indicated by the same reference numerals as possible. In addition, detailed descriptions of known functions and configurations that may obscure the subject matter of the present invention will be omitted. For the same reason, some components in the accompanying drawings are exaggerated, omitted, or schematically illustrated, and the size of each component does not entirely reflect the actual size.

먼저, 본 발명의 실시예에 따른 무인항공기를 이용한 증강현실을 제공하기 위한 시스템에 대해서 설명하기로 한다. 도 1은 본 발명의 실시예에 따른 무인항공기를 이용한 증강현실을 제공하기 위한 시스템을 설명하기 위한 도면이다. 도 1을 참조하면, 증강현실을 제공하기 위한 시스템(이하, '증강현실시스템'으로 축약함)은 사용자장치(100), 데이터서버(200) 및 무인항공기(300)를 포함한다. First, a system for providing augmented reality using an unmanned aerial vehicle according to an embodiment of the present invention will be described. 1 is a view for explaining a system for providing augmented reality using an unmanned aerial vehicle according to an embodiment of the present invention. Referring to FIG. 1, a system for providing augmented reality (hereinafter, abbreviated as “augmented reality system”) includes a user device 100, a data server 200, and an unmanned aerial vehicle 300.

사용자장치(100), 데이터서버(200) 및 무인항공기(300)는 상호 간에 네트워크를 데이터를 송수신할 수 있다. 예를 들면, 네트워크는 WLAN(Wireless LAN), 와이파이(Wi-Fi), 와이브로(Wibro), 와이맥스(Wimax), HSDPA(High Speed Downlink Packet Access) 등의 무선 통신망을 포함할 수 있으며, 시스템 구현 방식에 따라 이더넷(Ethernet), xDSL(ADSL, VDSL), HFC(Hybrid Fiber Coaxial Cable), FTTC(Fiber to The Curb), FTTH(Fiber To The Home) 등의 유선 통신망을 포함할 수도 있다. The user device 100, the data server 200, and the unmanned aerial vehicle 300 may transmit and receive data through a network. For example, the network may include wireless communication networks such as WLAN (Wireless LAN), Wi-Fi, Wibro, Wimax, and High Speed Downlink Packet Access (HSDPA), and the system implementation method It may include wired communication networks such as Ethernet, xDSL (ADSL, VDSL), HFC (Hybrid Fiber Coaxial Cable), FTTC (Fiber to the Curb), FTTH (Fiber To The Home).

아울러, 본 발명의 네트워크는 예컨대, 다수의 접속망(미도시) 및 이들을 연결하는 코어망(미도시)으로 이루어진 이동통신망을 포함할 수 있다. 여기서, 접속망은 사용자장치(100) 혹은 무인항공기(300)와 직접 접속하여 무선 통신을 수행하는 망으로서, 예를 들어, BS(Base Station), BTS(Base Transceiver Station), NodeB, eNodeB 등과 같은 다수의 기지국과, BSC(Base Station Controller), RNC(Radio Network Controller)와 같은 기지국 제어기로 구현될 수 있다. 또한, 전술한 바와 같이, 기지국에 일체로 구현되어 있던 디지털 신호 처리부와 무선 신호 처리부를 각각 디지털 유니트(Digital Unit, 이하 DU라 함과 무선 유니트(Radio Unit, 이하 RU라 함)로 구분하여, 다수의 영역에 각각 다수의 RU(미도시)를 설치하고, 다수의 RU를 집중화된 DU와 연결하여 구성할 수도 있다. 또한, 접속망과 함께 모바일 망을 구성하는 코어망(미도시)은 접속망과 외부 망, 예컨대, 인터넷망과 같은 다른 통신망을 연결하는 역할을 수행한다. In addition, the network of the present invention may include, for example, a mobile communication network comprising a plurality of access networks (not shown) and a core network (not shown) connecting them. Here, the access network is a network that directly connects to the user device 100 or the unmanned aerial vehicle 300 to perform wireless communication, and, for example, a number of such as BS (Base Station), BTS (Base Transceiver Station), NodeB, eNodeB, etc. It may be implemented with a base station controller of a base station and a base station controller such as a base station controller (BSC) and a radio network controller (RNC). In addition, as described above, the digital signal processing unit and the wireless signal processing unit, which were integrally implemented in the base station, are divided into digital units (hereinafter referred to as DU and hereinafter referred to as RUs). A number of RUs (not shown) can be installed in each area of the network, and a number of RUs can be connected to the centralized DUs, and the core network (not shown) constituting the mobile network together with the access network is It plays a role of connecting other communication networks such as a network, for example, an Internet network.

이러한 코어망은 앞서 설명한 바와 같이, 접속망 간의 이동성 제어 및 스위칭 등의 이동통신 서비스를 위한 주요 기능을 수행하는 네트워크 시스템으로서, 서킷 교환(circuit switching) 또는 패킷 교환(packet switching)을 수행하며, 모바일 망 내에서의 패킷 흐름을 관리 및 제어한다. 또한, 코어망은 주파수간 이동성을 관리하고, 접속망 및 코어망 내의 트래픽 및 다른 네트워크, 예컨대 인터넷망과의 연동을 위한 역할을 수행할 수도 있다. 이러한 코어망은 SGW(Serving GateWay), PGW(PDN GateWay), MSC(Mobile Switching Center), HLR(Home Location Register), MME(Mobile Mobility Entity)와 HSS(Home Subscriber Server) 등을 더 포함하여 구성될 수도 있다. As described above, this core network is a network system that performs main functions for mobile communication services such as mobility control and switching between access networks, and performs circuit switching or packet switching, and mobile networks It manages and controls the flow of packets within. In addition, the core network may manage mobility between frequencies, and may play a role of interworking with an access network, traffic in the core network, and other networks, such as an Internet network. These core networks will further include SGW (Serving GateWay), PGW (PDN GateWay), MSC (Mobile Switching Center), HLR (Home Location Register), MME (Mobile Mobility Entity) and HSS (Home Subscriber Server). May be.

또한, 본 발명에 따른 네트워크는 인터넷망을 포함할 수 있다. 인터넷망은 TCP/IP 프로토콜에 따라서 정보가 교환되는 통상의 공개된 통신망, 즉 공용망을 의미한다. 이러한 네트워크를 통해서 사용자장치(100), 데이터서버(200) 및 무인항공기(300)가 상호 연동하여 본 발명에 따른 증강현실시스템을 구성한다. Further, the network according to the present invention may include an Internet network. The Internet network refers to a common open communication network, that is, a public network, in which information is exchanged according to the TCP/IP protocol. Through this network, the user device 100, the data server 200, and the unmanned aerial vehicle 300 interwork with each other to configure the augmented reality system according to the present invention.

사용자장치(100)는 이동통신단말기를 대표적인 예로서 설명하지만 단말기는 이동통신단말기에 한정된 것이 아니고, 모든 정보통신기기, 멀티미디어 단말기, 유선 단말기, 고정형 단말기 및 IP(Internet Protocol) 단말기 등의 다양한 단말기에 적용될 수 있다. 일례로, 단말기는 휴대폰, PMP(Portable MultimediaPlayer), MID(Mobile Internet Device), 스마트폰(Smart Phone), 태블릿 PC, 패블릿 PC 및 정보통신 기기 등과 같은 다양한 이동통신 사양을 갖는 모바일(Mobile) 단말기일 때 유리하게 활용될 수 있다. 다른 예로, 사용자장치(100)는 무인항공기(300) 전용의 컨트롤러가 될 수 있다. 또 다른 예로, 사용자장치(100)는 노트북, PC, 워크스테이션 등이 될 수 있다. The user device 100 describes a mobile communication terminal as a representative example, but the terminal is not limited to a mobile communication terminal, and is used in various terminals such as all information communication devices, multimedia terminals, wired terminals, fixed terminals, and IP (Internet Protocol) terminals. Can be applied. For example, the terminal is a mobile terminal having various mobile communication specifications such as a mobile phone, a portable multimedia player (PMP), a mobile internet device (MID), a smart phone, a tablet PC, a phablet PC, and an information communication device. It can be used advantageously when As another example, the user device 100 may be a controller dedicated to the unmanned aerial vehicle 300. As another example, the user device 100 may be a notebook computer, a personal computer, or a workstation.

데이터서버(200)는 네트워크상에 존재하는 하나의 엔티티(Entity)로, 웹 서버(web server), 데이터베이스 서버(database server) 및 애플리케이션 서버(application server)의 역할을 수행한다. The data server 200 is an entity existing on a network, and serves as a web server, a database server, and an application server.

무인항공기(Unmanned Aerial Vehicle, UAV: 300)는 조종사(human pilot)가 탑승하지 않은 항공기를 말하며, 소위, 드론(drone)으로 칭해진다. 무인항공기(300)는 원격 조종(Remote piloted)에 의해 비행하거나, 사전 프로그램된 경로에 따라 자동 또는 반자동(Semi-auto-piloted) 형식으로 자율 비행할 수 있다. Unmanned Aerial Vehicle (UAV: 300) refers to an aircraft that does not have a human pilot on board, and is referred to as a so-called drone. The unmanned aerial vehicle 300 may fly by remote piloted or autonomously fly in an automatic or semi-auto-piloted form according to a pre-programmed route.

본 발명의 실시예에서 무인항공기(300)는 특정 장소의 공간 정보를 수집한다. 공간 정보는 무인항공기(300)가 특정 공간에 대해 수집한 영상을 포함하는 다양한 정보를 의미한다. In an embodiment of the present invention, the unmanned aerial vehicle 300 collects spatial information of a specific place. The spatial information refers to various pieces of information including images collected by the unmanned aerial vehicle 300 for a specific space.

데이터서버(200)는 무인항공기(300)에 의해 얻어진 공간 정보에 합성할 수 있는 가상 모델을 저장한다. 여기서, 가상모델은 증강현실로 구현할 형상을, 체적을 가진 3차원의 시각적 디자인으로 표현하는 형상 데이터를 의미한다. 이러한 가상 모델은 3D 모델 및 전산목업 등을 포함한다. The data server 200 stores a virtual model that can be synthesized with the spatial information obtained by the unmanned aerial vehicle 300. Here, the virtual model refers to shape data that expresses a shape to be implemented in augmented reality as a three-dimensional visual design having a volume. These virtual models include 3D models and computerized mock-ups.

사용자장치(100)는 무인항공기(300)의 비행과 관련된 명령을 생성하여 무인항공기(300)를 조작할 수 있다. 또한, 사용자장치(100)는 무인항공기(300)가 촬영한 영상을 포함하는 공간 정보를 수신할 수 있다. 그리고 사용자장치(300)는 데이터서버(200)로부터 가상모델을 수신하고, 공간 정보에 가상 모델을 합성하여 증강 현실 영상을 구성할 수 있다. The user device 100 may manipulate the unmanned aerial vehicle 300 by generating a command related to the flight of the unmanned aerial vehicle 300. In addition, the user device 100 may receive spatial information including an image captured by the unmanned aerial vehicle 300. In addition, the user device 300 may receive a virtual model from the data server 200 and synthesize the virtual model with spatial information to construct an augmented reality image.

다음으로, 본 발명의 실시예에 따른 증강현실을 제공하기 위한 사용자장치의 구성에 대해서 설명하기로 한다. 도 2는 본 발명의 실시예에 따른 증강현실을 제공하기 위한 사용자장치의 구성에 대해서 설명하기 위한 블록도이다. 도 2를 참조하면, 사용자장치(100)는 통신부(110), 입력부(120), 표시부(130), 저장부(140) 및 제어부(150)를 포함한다. Next, a configuration of a user device for providing augmented reality according to an embodiment of the present invention will be described. 2 is a block diagram illustrating a configuration of a user device for providing augmented reality according to an embodiment of the present invention. Referring to FIG. 2, the user device 100 includes a communication unit 110, an input unit 120, a display unit 130, a storage unit 140, and a control unit 150.

통신부(110)는 네트워크를 통해 데이터서버(200) 및 무인항공기(300)와 통신하기 위한 것이다. 통신부(110)는 송신되는 신호의 주파수를 상승 변환 및 증폭하는 RF(Radio Frequency) 송신기(Tx) 및 수신되는 신호를 저 잡음 증폭하고 주파수를 하강 변환하는 RF 수신기(Rx)를 포함할 수 있다. 그리고 통신부(110)는 송신되는 신호를 변조하고, 수신되는 신호를 복조하는 모뎀(Modem)을 포함할 수 있다. 예컨대, 통신부(110)는 무인항공기(300)가 촬영한 영상을 수신할 수 있다. The communication unit 110 is for communicating with the data server 200 and the unmanned aerial vehicle 300 through a network. The communication unit 110 may include a radio frequency (RF) transmitter Tx for up-converting and amplifying a frequency of a transmitted signal, and an RF receiver Rx for low-noise amplifying and down-converting a received signal. Further, the communication unit 110 may include a modem that modulates a transmitted signal and demodulates a received signal. For example, the communication unit 110 may receive an image captured by the unmanned aerial vehicle 300.

입력부(120)는 사용자장치(100)를 제어하기 위한 사용자의 키 조작을 입력받고 입력 신호를 생성하여 제어부(150)에 전달한다. 입력부(120)는 사용자장치(100)를 제어하기 위한 각 종 키들을 포함할 수 있다. 입력부(120)는 표시부(130)가 터치스크린으로 이루어진 경우, 각 종 키들의 기능이 표시부(130)에서 이루어질 수 있으며, 터치스크린만으로 모든 기능을 수행할 수 있는 경우, 입력부(120)는 생략될 수도 있다. The input unit 120 receives a user's key manipulation for controlling the user device 100, generates an input signal, and transmits the input signal to the controller 150. The input unit 120 may include various keys for controlling the user device 100. When the display unit 130 is formed of a touch screen, the input unit 120 may perform functions of various keys on the display unit 130, and when all functions can be performed only with the touch screen, the input unit 120 will be omitted. May be.

표시부(130)는 사용자장치(100)의 메뉴, 입력된 데이터, 기능 설정 정보 및 기타 다양한 정보를 사용자에게 시각적으로 제공한다. 표시부(130)는 사용자장치(100)의 부팅 화면, 대기 화면, 메뉴 화면, 등의 화면을 출력하는 기능을 수행한다. 특히, 표시부(130)는 본 발명의 실시예에 따라 카메라부(120)가 촬영한 현실 공간, 평면 사용자가 선택한 가상의 객체 등을 화면으로 출력하는 기능을 수행한다. 이러한 표시부(130)는 액정표시장치(LCD, Liquid Crystal Display), 유기 발광 다이오드(OLED, Organic Light Emitting Diodes), 능동형 유기 발광 다이오드(AMOLED, Active Matrix Organic Light Emitting Diodes) 등으로 형성될 수 있다. 한편, 표시부(130)는 터치스크린으로 구현될 수 있다. 이러한 경우, 표시부(130)는 터치센서를 포함한다. 터치센서는 사용자의 터치 입력을 감지한다. 터치센서는 정전용량 방식(capacitive overlay), 압력식, 저항막 방식(resistive overlay), 적외선 감지 방식(infrared beam) 등의 터치 감지 센서로 구성되거나, 압력 감지 센서(pressure sensor)로 구성될 수도 있다. 상기 센서들 이외에도 물체의 접촉 또는 압력을 감지할 수 있는 모든 종류의 센서 기기가 본 발명의 터치센서로 이용될 수 있다. 터치센서는 사용자의 터치 입력을 감지하고, 감지 신호를 발생시켜 제어부(150)로 전송한다. 특히, 표시부(130)가 터치스크린으로 이루어진 경우, 입력부(120) 기능의 일부 또는 전부는 표시부(130)를 통해 이루어질 수 있다. The display unit 130 visually provides a menu, input data, function setting information, and various other information of the user device 100 to the user. The display unit 130 performs a function of outputting a screen such as a boot screen, a standby screen, a menu screen, and the like of the user device 100. In particular, the display unit 130 performs a function of outputting a real space photographed by the camera unit 120, a virtual object selected by a flat user, and the like on a screen according to an embodiment of the present invention. The display unit 130 may be formed of a liquid crystal display (LCD), organic light emitting diodes (OLED), active matrix organic light emitting diodes (AMOLEDs), or the like. Meanwhile, the display unit 130 may be implemented as a touch screen. In this case, the display unit 130 includes a touch sensor. The touch sensor detects a user's touch input. The touch sensor may be composed of a touch sensing sensor such as a capacitive overlay, a pressure type, a resistive overlay, or an infrared beam, or may be composed of a pressure sensor. . In addition to the above sensors, all kinds of sensor devices capable of sensing contact or pressure of an object may be used as the touch sensor of the present invention. The touch sensor detects a user's touch input, generates a detection signal, and transmits it to the controller 150. In particular, when the display unit 130 is formed of a touch screen, some or all of the functions of the input unit 120 may be performed through the display unit 130.

저장부(140)는 사용자장치(100)의 동작에 필요한 프로그램 및 데이터를 저장한다. 특히, 저장부(140)는 사용자장치(100)의 사용에 따라 발생하는 사용자 데이터를 저장할 수 있다. 예컨대, 저장부(140)는 무인항공기(300)로부터 수신되는 영상을 저장할 수 있다. 저장부(140)에 저장되는 각 종 데이터는 사용자의 조작에 따라, 삭제, 변경, 추가될 수 있다. The storage unit 140 stores programs and data necessary for the operation of the user device 100. In particular, the storage unit 140 may store user data generated according to the use of the user device 100. For example, the storage unit 140 may store an image received from the unmanned aerial vehicle 300. Each type of data stored in the storage unit 140 may be deleted, changed, or added according to a user's manipulation.

제어부(150)는 사용자장치(100)의 전반적인 동작 및 사용자장치(100)의 내부 블록(110 내지 140)들 간 신호 흐름을 제어하고, 데이터를 처리하는 데이터 처리 기능을 수행할 수 있다. 이러한 제어부(150)는 중앙처리장치(CPU: Central Processing Unit), 그래픽처리장치(GPU: Graphic Processing Unit), 디지털신호처리기(DSP: Digital Signal Processor) 등이 될 수 있다. 이러한 제어부(150)의 동작은 아래에서 더 상세하게 설명될 것이다. The controller 150 may control the overall operation of the user device 100 and a signal flow between the internal blocks 110 to 140 of the user device 100, and perform a data processing function of processing data. The control unit 150 may be a central processing unit (CPU), a graphic processing unit (GPU), a digital signal processor (DSP), or the like. The operation of the control unit 150 will be described in more detail below.

다음으로, 본 발명의 실시예에 따른 데이터서버(200)에 대해서 보다 상세하게 설명하기로 한다. 도 3은 본 발명의 실시예에 따른 데이터서버의 구성을 설명하기 위한 블록도이다. 도 3을 참조하면, 데이터서버(200)는 통신모듈(210), 저장모듈(220) 및 제어모듈(230)을 포함한다. Next, the data server 200 according to an embodiment of the present invention will be described in more detail. 3 is a block diagram illustrating the configuration of a data server according to an embodiment of the present invention. Referring to FIG. 3, the data server 200 includes a communication module 210, a storage module 220 and a control module 230.

통신모듈(210)은 네트워크를 통해 사용자장치(100) 및 무인항공기(300)와 통신하기 위한 것이다. 통신모듈(210)은 송신되는 신호를 변조하고, 수신되는 신호를 복조하는 모뎀(Modem)을 포함할 수 있다. The communication module 210 is for communicating with the user device 100 and the unmanned aerial vehicle 300 through a network. The communication module 210 may include a modem that modulates a transmitted signal and demodulates a received signal.

저장모듈(220)은 데이터서버(200)의 동작에 필요한 프로그램 및 데이터를 저장하는 역할을 수행한다. 특히, 저장모듈(220)은 데이터서버(200)의 사용에 따라 발생하는 사용자 데이터가 저장되는 영역이다. 저장모듈(220)은 가상 모델을 저장한다. 가상모델은 증강현실로 구현할 형상을, 체적을 가진 3차원의 시각적 디자인으로 표현하는 형상 데이터를 의미한다. 이러한 가상 모델은 3D 모델 및 전산목업 등을 포함한다. 저장모듈(220)에 저장되는 각 종 데이터는 사용자의 조작에 따라, 삭제, 변경, 추가될 수 있다. The storage module 220 serves to store programs and data required for the operation of the data server 200. In particular, the storage module 220 is an area in which user data generated according to the use of the data server 200 is stored. The storage module 220 stores a virtual model. The virtual model refers to shape data that expresses a shape to be implemented in augmented reality in a three-dimensional visual design with a volume. These virtual models include 3D models and computerized mock-ups. Each type of data stored in the storage module 220 may be deleted, changed, or added according to a user's manipulation.

제어모듈(230)은 데이터서버(200)의 전반적인 동작 및 데이터서버(200)의 내부 블록들 간 신호 흐름을 제어하고, 데이터를 처리하는 데이터 처리 기능을 수행할 수 있다. 이러한 제어모듈(230)은 중앙처리장치(CPU: Central Processing Unit), 디지털신호처리기(DSP: Digital Signal Processor) 등이 될 수 있다. 제어모듈(230)의 동작에 대해서는 아래에서 더 상세하게 설명될 것이다. The control module 230 controls the overall operation of the data server 200 and a signal flow between internal blocks of the data server 200, and may perform a data processing function of processing data. The control module 230 may be a central processing unit (CPU), a digital signal processor (DSP), or the like. The operation of the control module 230 will be described in more detail below.

다음으로, 본 발명의 실시예에 따른 무인항공기(300)에 대해서 설명하기로 한다. 도 4는 본 발명의 실시예에 따른 무인항공기의 구성을 설명하기 위한 블록도이다. 도 4를 참조하면, 본 발명의 실시예에 따른 무인항공기(300)는 항공통신부(310), 비행부(320), 센서부(330), 카메라부(340), 항공저장부(350) 및 항공제어부(360)를 포함한다. Next, a description will be given of the unmanned aerial vehicle 300 according to an embodiment of the present invention. 4 is a block diagram illustrating a configuration of an unmanned aerial vehicle according to an embodiment of the present invention. 4, the unmanned aerial vehicle 300 according to an embodiment of the present invention includes an aviation communication unit 310, a flight unit 320, a sensor unit 330, a camera unit 340, an aviation storage unit 350, and It includes an aviation control unit 360.

항공통신부(310)는 사용자장치(100) 및 데이터서버(200)와 통신을 위한 것이다. 항공통신부(310)는 송신하기 위한 신호의 주파수를 상승 변환 및 증폭하는 RF(Radio Frequency) 송신기(Tx) 및 수신되는 신호를 저 잡음 증폭하고 주파수를 하강 변환하는 RF 수신기(Rx)를 포함할 수 있다. 그리고 항공통신부(310)는 송신되는 신호를 변조하고, 수신되는 신호를 복조하는 모뎀(Modem)을 포함할 수 있다. The aviation communication unit 310 is for communication with the user device 100 and the data server 200. The aviation communication unit 310 may include a radio frequency (RF) transmitter (Tx) for up-converting and amplifying a frequency of a signal to be transmitted, and an RF receiver (Rx) for low-noise amplification and down-converting a received signal. have. In addition, the aviation communication unit 310 may include a modem that modulates the transmitted signal and demodulates the received signal.

비행부(320)는 양력을 발생시켜 무인항공기(300)가 비행할 수 있도록 하기 위한 것이다. 이러한 비행부(320)는 날개, 프로펠러, 모터 등을 포함한다. 비행부(320)는 항공제어부(360)의 제어에 따른 방향 및 속도로 무인항공기(300)를 비행하도록 한다. 특히, 비행부(320)는 항공제어부(360)의 제어에 따라 비행 할 수 있도록 날개의 방향, 프로펠러의 회전 속도 등을 조절할 수 있다. The flight unit 320 is for generating lift so that the unmanned aerial vehicle 300 can fly. The flight unit 320 includes a wing, a propeller, a motor, and the like. The flight unit 320 allows the unmanned aerial vehicle 300 to fly in a direction and speed according to the control of the aviation control unit 360. In particular, the flight unit 320 may adjust the direction of the wing and the rotational speed of the propeller so as to fly according to the control of the aviation control unit 360.

센서부(330)는 무인항공기(300)의 현재 위치(위도, 경도, 고도) 및 자세(yaw, roll, pitch) 등을 측정하기 위한 것이다. 이러한 센서부(330)는 GPS 위성으로부터 GPS 신호를 수신하기 위한 GPS 신호 수신기와, 무인항공기(300)의 자세를 측정하기 위한 자이로센서, 가속도센서 등의 복수의 센서를 포함한다. 센서부(330)는 GPS 신호 및 센서들이 측정한 센서값을 이용하여 현재 위치 및 자세를 측정하고, 측정된 현재 위치 및 자세를 항공제어부(360)에 제공한다. The sensor unit 330 is for measuring the current position (latitude, longitude, altitude) and posture (yaw, roll, pitch) of the unmanned aerial vehicle 300. The sensor unit 330 includes a GPS signal receiver for receiving a GPS signal from a GPS satellite, and a plurality of sensors such as a gyro sensor and an acceleration sensor for measuring the attitude of the unmanned aerial vehicle 300. The sensor unit 330 measures the current position and posture using the GPS signal and sensor values measured by the sensors, and provides the measured current position and posture to the aerial control unit 360.

카메라부(340)는 영상을 촬영하기 위한 것이다. 이러한 카메라부(340)는 렌즈, 이미지센서 및 컨버터를 포함한다. 그 밖에, 소정의 필터 등이 카메라부(340)의 구성으로 더 포함될 수 있으며, 기구적으로, 렌즈, 이미지 센서 및 컨버터는 액추에이터(actuator)를 포함하는 하우징 내에 장착되고, 이러한 액추에이터를 구동시키는 드라이버 등이 카메라부(340)에 포함될 수 있다. 렌즈는 카메라부(340)에 입사되는 가시광선이 이미지 센서 상에 초점이 맺히도록 한다. 이미지 센서는 반도체소자의 제조기술을 이용하여 집적회로화된 광전변환소자이다. 이미지 센서는 예컨대, CCD(charge-coupled device) 이미지 센서 혹은 CMOS(complementary metal-oxide semiconductor) 이미지 센서가 될 수 있다. 이러한 이미지 센서는 가시광선을 감지하여 영상을 구성하는 아날로그 신호인 아날로그 영상 신호를 출력한다. 그러면, 컨버터는 아날로그 영상 신호를 영상을 구성하는 디지털 신호인 디지털 영상 신호로 변환하여 제어모듈(280)로 전달한다. The camera unit 340 is for photographing an image. The camera unit 340 includes a lens, an image sensor, and a converter. In addition, a predetermined filter or the like may be further included as a configuration of the camera unit 340, and mechanically, a lens, an image sensor, and a converter are mounted in a housing including an actuator, and a driver for driving such an actuator And the like may be included in the camera unit 340. The lens causes visible light incident on the camera unit 340 to be focused on the image sensor. The image sensor is an integrated circuit photoelectric conversion device using a semiconductor device manufacturing technology. The image sensor may be, for example, a charge-coupled device (CCD) image sensor or a complementary metal-oxide semiconductor (CMOS) image sensor. Such an image sensor detects visible light and outputs an analog image signal, which is an analog signal constituting an image. Then, the converter converts the analog image signal into a digital image signal, which is a digital signal constituting the image, and transmits it to the control module 280.

또한, 카메라부(340)는 깊이 센서 혹은 3D 센서를 포함할 수 있다. 3D 센서는 비접촉 방식으로 영상의 각 픽셀에 대한 3차원 좌표를 획득하기 위한 센서이다. 카메라부(340)는 이미지 센서를 통해 이미지를 생성함과 동시에 3D 센서를 통해 촬영된 이미지의 각 픽셀에 대응하는 위치 정보(3차원 좌표)를 검출할 수 있다. 한다. 이에 따라, 3D 센서를 통해 각 이미지의 픽셀의 카메라부(340)의 기준점, 예컨대, 초점 혹은 주점으로부터 객체까지의 거리를 식별할 수 있다. 깊이 센서 혹은 3D 센서는 레이저, 적외선, 가시광 등을 이용하는 다양한 방식의 센서를 이용할 수 있다. 이러한 3D 센서는 TOP(Time of Flight), 위상변위(Phase-shift) 및 Online Waveform Analysis 중 어느 하나를 이용하는 레이저 방식 3차원 스캐너, 광 삼각법을 이용하는 레이저 방식 3차원 스캐너, 백색광 혹은 변조광을 이용하는 광학방식 3차원 스캐너, Handheld Real Time 방식의 PHOTO, 광학방식 3차원 스캐너, Pattern Projection 혹은 Line Scanning을 이용하는 광학방식, 레이저 방식 전신 스캐너, 사진 측량(Photogrammetry)을 이용하는 사진방식 스캐너, 키네틱(Kinect Fusion)을 이용하는 실시간(Real Time) 스캐너 등을 예시할 수 있다. In addition, the camera unit 340 may include a depth sensor or a 3D sensor. The 3D sensor is a sensor for obtaining 3D coordinates for each pixel of an image in a non-contact method. The camera unit 340 may generate an image through an image sensor and simultaneously detect location information (3D coordinates) corresponding to each pixel of an image captured through the 3D sensor. do. Accordingly, through the 3D sensor, the distance from the reference point of the camera unit 340 of the pixel of each image, for example, the focus or main point to the object can be identified. The depth sensor or 3D sensor can use various types of sensors using laser, infrared, visible light, and the like. These 3D sensors are laser type 3D scanners using any one of TOP (Time of Flight), phase-shift and Online Waveform Analysis, laser type 3D scanners using optical trigonometry, and optics using white light or modulated light. Method 3D scanner, Handheld Real Time PHOTO, optical 3D scanner, optical method using Pattern Projection or Line Scanning, laser system full body scanner, photo scanner using photogrammetry, Kinect Fusion A real time scanner to be used may be exemplified.

항공저장부(350)는 무인항공기(300)의 동작에 필요한 각 종 데이터, 애플리케이션, 무인항공기(300)의 동작에 따라 발생된 각 종 데이터를 저장하기 위한 것이다. 이러한 항공저장부(350)는 메모리 등이 될 수 있다. 특히, 저장모듈(270)은 선택적으로, 무인항공기(300의 부팅(booting) 및 운영(operation)을 위한 운영체제(OS, Operating System), 본 발명의 실시예에 따른 좌표계를 생성하기 위한 애플리케이션을 저장할 수 있다. 항공저장부(350)에 저장되는 각 종 데이터는 사용자의 조작에 따라, 삭제, 변경, 추가될 수 있다. The aviation storage unit 350 is for storing various types of data required for the operation of the unmanned aerial vehicle 300, applications, and various types of data generated according to the operation of the unmanned aerial vehicle 300. The aviation storage unit 350 may be a memory or the like. In particular, the storage module 270 selectively stores an operating system (OS) for booting and operation of the unmanned aerial vehicle 300, and an application for generating a coordinate system according to an embodiment of the present invention. Each type of data stored in the aviation storage unit 350 may be deleted, changed, or added according to a user's manipulation.

항공제어부(360)는 무인항공기(300)의 전반적인 동작 및 무인항공기(300)의 내부 블록들 간 신호 흐름을 제어하고, 데이터를 처리하는 데이터 처리 기능을 수행할 수 있다. 이러한 항공제어부(360)는 중앙 처리 장치(Central Processing Unit : CPU), 애플리케이션 프로세서(Application Processor), GPU(Graphic Processing Unit) 등이 될 수 있다. 이러한 항공제어부(360)의 동작은 아래에서 보다 상세하게 설명될 것이다. The flight control unit 360 may control the overall operation of the unmanned aerial vehicle 300 and signal flow between internal blocks of the unmanned aerial vehicle 300 and perform a data processing function of processing data. The aerial control unit 360 may be a central processing unit (CPU), an application processor, a graphic processing unit (GPU), or the like. The operation of the flight control unit 360 will be described in more detail below.

다음으로, 본 발명의 실시예에 따른 무인항공기를 이용한 증강현실을 제공하기 위한 방법에 대해서 설명하기로 한다. 도 5는 본 발명의 실시예에 따른 무인항공기를 이용한 증강현실을 제공하기 위한 방법에 대해서 설명하기 위한 흐름도이다. Next, a method for providing augmented reality using an unmanned aerial vehicle according to an embodiment of the present invention will be described. 5 is a flowchart illustrating a method for providing augmented reality using an unmanned aerial vehicle according to an embodiment of the present invention.

도 5를 참조하면, 사용자장치(100) 제어부(150)는 입력부(120) 혹은 표시부(130)를 통해 사용자의 조작을 입력 받고, S110 단계에서 무인항공기(300)에 대한 제어 명령을 통신부(110)를 통해 무인항공기(300)로 전송한다. 여기서, 제어 명령은 기준 지점(RP) 및 기준 지점(RP)을 기준으로 설정된 비행 궤도(FO)를 포함할 수 있다. Referring to FIG. 5, the user device 100 and the control unit 150 receive a user's manipulation through the input unit 120 or the display unit 130, and transmit a control command for the unmanned aerial vehicle 300 in step S110 to the communication unit 110. ) Through the unmanned aerial vehicle 300. Here, the control command may include a reference point (RP) and a flight trajectory (FO) set based on the reference point (RP).

무인항공기(300)의 항공제어부(360)는 항공통신부(310)를 통해 이를 수신할 수 있다. 그러면, 항공제어부(360)는 수신된 제어 명령에 따라, S120 단계에서 비행부(320)를 제어하여 무인항공기(300)가 해당하는 기준 지점(RP)에 해당하는 상공으로 이동한 후, 기준 지점(RP)을 기준으로 제어 명령에 따라 설정된 비행 궤도(FO)로 기준 지점(RP) 상공을 비행한다. 이와 같이, 무인항공기(300)의 항공제어부(360)가 비행부(320)를 제어하여 무인항공기(300)가 기준 지점(RP)을 기준으로 설정된 비행 궤도(FO)로 기준 지점(RP) 상공을 비행할 때, 항공제어부(360)는 무인항공기(300)의 자세에 무관하게 카메라부(340)가 기준 지점(RP)을 지향하도록 제어한다. The flight control unit 360 of the unmanned aerial vehicle 300 may receive it through the aviation communication unit 310. Then, the aviation control unit 360 controls the flight unit 320 in step S120 according to the received control command to move the unmanned aerial vehicle 300 above the corresponding reference point RP, and then the reference point Fly above the reference point (RP) in the flight trajectory (FO) set according to the control command based on (RP). In this way, the aviation control unit 360 of the unmanned aerial vehicle 300 controls the flight unit 320 so that the unmanned aerial vehicle 300 is flying above the reference point (RP) to the flight orbit (FO) set based on the reference point (RP). When flying, the aerial control unit 360 controls the camera unit 340 to face the reference point RP regardless of the posture of the unmanned aerial vehicle 300.

그런 다음, 항공제어부(360)는 S130 단계에서 센서부(330) 및 카메라부(340)를 통해 공간 정보를 수집한다. 여기서, 공간 정보는 영상 정보 및 센서 정보를 포함한다. 또한, 영상 정보는 항공제어부(360)가 카메라부(340)를 통해 촬영한 영상 및 카메라부(340)의 소정의 기준점(예컨대, 초점 혹은 주점)으로부터 촬영된 영상의 각 픽셀에 대응하는 실제 객체까지의 거리를 포함한다. 또한, 센서 정보는 각 영상을 촬영한 시점에 대응하며, 해당 시점에 센서부(330)를 통해 획득한 무인항공기(300)의 위치 정보(예컨대, GPS 좌표) 및 무인항공기(300) 및 무인항공기(300)의 카메라부(340)의 자세 정보(yaw, roll, pitch)를 포함한다. 여기서, 카메라부(340)의 자세 정보는 촬영 각도가 될 수 있다. Then, the flight control unit 360 collects spatial information through the sensor unit 330 and the camera unit 340 in step S130. Here, the spatial information includes image information and sensor information. In addition, the image information is an image captured by the aerial control unit 360 through the camera unit 340 and an actual object corresponding to each pixel of the image captured from a predetermined reference point (eg, focus or main point) of the camera unit 340. Includes the distance to. In addition, the sensor information corresponds to the time point at which each image is captured, and the location information (eg, GPS coordinates) of the unmanned aerial vehicle 300 obtained through the sensor unit 330 at that time point, and the unmanned aerial vehicle 300 and the unmanned aerial vehicle It includes posture information (yaw, roll, pitch) of the camera unit 340 of 300. Here, the posture information of the camera unit 340 may be a photographing angle.

다음으로, 항공제어부(360)는 S140 단계에서 항공통신부(310)를 통해 공간 정보를 사용자장치(100)로 전송한다. Next, the flight control unit 360 transmits the spatial information to the user device 100 through the flight communication unit 310 in step S140.

그러면, 사용자장치(100)의 제어부(150)는 S150 단계에서 통신부(110)를 통해 수신된 공간 정보를 이용하여 3차원 좌표계를 설정하고, 3차원 좌표계를 기준으로 기준 평면을 도출한다. 여기서, 3차원 좌표계는 촬영, 인식, 측정 등의 수단으로 확보한 공간 정보 및 센서 정보를 기초로 연산한 임의의 입체 좌표를 의미한다. 또한, 기준 평면은 3차원 좌표계에서의 x-y 평면(x-y plane)이며, 촬영된 영상에서 가장 낮은 위치의 기저 평면을 뜻한다. Then, the control unit 150 of the user device 100 sets a 3D coordinate system using the spatial information received through the communication unit 110 in step S150, and derives a reference plane based on the 3D coordinate system. Here, the three-dimensional coordinate system means an arbitrary three-dimensional coordinate calculated based on spatial information and sensor information secured by means of photographing, recognition, and measurement. In addition, the reference plane is an x-y plane in the 3D coordinate system, and refers to the base plane at the lowest position in the captured image.

이어서, 제어부(150)는 S160 단계에서 통신부(110)를 통해 데이터서버(200)에 접속하여, 실제 환경에 합성할 가상 모델을 로드한다. 보다 구체적으로 설명하면, 제어부(150)는 통신부(110)를 통해 데이터서버(200)에 접속하면, 데이터서버(200)의 제어모듈(230)은 저장모듈(220)에 저장된 가상 모델의 리스트를 추출하고, 통신모듈(210)을 통해 가상 모델의 리스트를 섬네일(thumb-nail) 형식으로 사용자장치(200)에 제공할 수 있다. 제어부(150)는 표시부(140)를 통해 가상 모델의 리스트를 표시할 수 있다. 이에 따라, 가상 모델의 리스트를 열람한 사용자가 어느 하나의 가상 모델을 선택하면, 제어부(150)는 통신부(110)를 통해 해당 가상 모델을 요청한다. 그러면, 데이터서버(200)의 제어모듈(230)은 통신모듈(210)을 통해 해당 가상 모델을 사용자장치(100)에 제공한다. Subsequently, the controller 150 accesses the data server 200 through the communication unit 110 in step S160 and loads a virtual model to be synthesized in the real environment. More specifically, when the control unit 150 connects to the data server 200 through the communication unit 110, the control module 230 of the data server 200 retrieves a list of virtual models stored in the storage module 220. After extraction, the list of virtual models may be provided to the user device 200 in the form of a thumbnail through the communication module 210. The control unit 150 may display a list of virtual models through the display unit 140. Accordingly, when a user who browses the list of virtual models selects any one virtual model, the controller 150 requests the corresponding virtual model through the communication unit 110. Then, the control module 230 of the data server 200 provides the corresponding virtual model to the user device 100 through the communication module 210.

다음으로, 제어부(150)는 S170 단계에서 무인항공기(300)가 촬영한 영상에 앞서(S150) 도출된 기준 평면을 기초로 가상 모델을 합성하고, 표시부(140)를 통해 표시할 수 있다. Next, the controller 150 may synthesize a virtual model based on the reference plane derived (S150) prior to the image captured by the unmanned aerial vehicle 300 in step S170 and display it through the display unit 140.

전술한 바와 같이, 본 발명에 따르면, 공간 정보를 이용하여 3차원 좌표계를 생성하고, 3차원 좌표계를 기준으로 기준 평면을 도출하며, 도출된 기준 평면 상에 가상 모델을 합성한다. 그러면, 공간 정보를 이용하여 3차원 좌표계를 생성하는 방법에 대해서 보다 상세하게 설명하기로 한다. 도 6은 본 발명의 실시예에 따른 3차원 좌표계를 생성하는 방법을 설명하기 위한 흐름도이다. 도 7 내지 도 9는 본 발명의 실시예에 따른 3차원 좌표계를 생성하는 방법을 설명하기 위한 도면이다. As described above, according to the present invention, a 3D coordinate system is generated using spatial information, a reference plane is derived based on the 3D coordinate system, and a virtual model is synthesized on the derived reference plane. Then, a method of generating a 3D coordinate system using spatial information will be described in more detail. 6 is a flowchart illustrating a method of generating a 3D coordinate system according to an embodiment of the present invention. 7 to 9 are diagrams for explaining a method of generating a 3D coordinate system according to an embodiment of the present invention.

무인항공기(300)는 사용자로부터 사용자가 증강현실로 구현하고자 하는 촬영 지점까지 비행한다. 또한 카메라의 촬영 방향은 무인항공기(300)의 비행 방향이 아닌 촬영 지점을 향하게 된다. 따라서 무인항공기(300)는 촬영 지점의 주변 상공을 비행하게 된다. 도 7에 도시된 바와 같이, 무인항공기(300)는 현실 공간에 실재하는 나무를 중심으로 원을 그리는 비행 궤도(FO)로 비행하거나, 다른 비행 궤도에 따라 비행할 수 있다. 또한, 무인항공기(300)는 현실 공간에 실재하는 사물이 아닌 증강현실로 구현한 가상모델을 기준으로 하여 주변 상공을 비행할 수도 있다. 무인항공기(300)가 소정의 비행 궤도(FO)에 따라 비행하는 동안 무인항공기(300)의 자세와 별개로, 무인항공기(300)의 카메라부(340)는 항상 기준 지점을 지향한다. The unmanned aerial vehicle 300 flies from the user to the shooting point that the user wants to implement in augmented reality. In addition, the photographing direction of the camera is directed toward the photographing point, not the flight direction of the unmanned aerial vehicle 300. Therefore, the unmanned aerial vehicle 300 will fly over the surrounding area of the photographing point. As shown in FIG. 7, the unmanned aerial vehicle 300 may fly in a flight orbit (FO) drawing a circle around a tree existing in real space, or may fly according to another flight orbit. In addition, the unmanned aerial vehicle 300 may fly over the surrounding air based on a virtual model implemented in augmented reality rather than an object that exists in a real space. Apart from the posture of the unmanned aerial vehicle 300 while the unmanned aerial vehicle 300 is flying according to a predetermined flight path (FO), the camera unit 340 of the unmanned aerial vehicle 300 always points toward the reference point.

본 발명에 따르면, 상술한 방법과 같이 가상 모델을 합성하기 위해서는 3차원 좌표계를 생성해야 하고, 이를 위해서는 현실 공간의 평면을 검출해야 한다. 하지만, 현실 공간의 모든 영역을 추정할 수는 없으나, 사람이 만든 인공적인 구조물은 대부분 평면으로 이루어져 있으며, 구조물이 아니더라도 토목 공사 결과를 통해 평탄한 환경으로 공간을 재조성한다. 따라서 본 발명은 이러한 환경적 요인을 활용하여 평면과 3차원 좌표계를 생성한다. 이를 위하여, 제어부(150)는 무인항공기(300)가 수집한 공간 정보 중 촬영한 영상에서 그 픽셀값의 변화가 소정 범위 이내에서 변화하는 픽셀을 평면이라고 가정하고 실제 환경의 평면을 추출한다. 그리고 제어부(150)는 추출된 평면과 평행한 가상 평면을 포함하여 3차원 좌표계를 생성한다. According to the present invention, in order to synthesize a virtual model as described above, a 3D coordinate system must be created, and for this, a plane of real space must be detected. However, it is not possible to estimate all areas of the real space, but artificial structures made by man are mostly flat, and even if they are not structures, the space is reconstructed into a flat environment through the results of civil works. Therefore, the present invention creates a plane and a three-dimensional coordinate system by utilizing these environmental factors. To this end, the controller 150 assumes that a pixel whose pixel value changes within a predetermined range in the captured image among the spatial information collected by the unmanned aerial vehicle 300 is a plane, and extracts a plane of the actual environment. In addition, the control unit 150 generates a three-dimensional coordinate system including a virtual plane parallel to the extracted plane.

도 6을 참조하면, 제어부(150)는 S210 단계에서 공간 정보로부터 적어도 실제 공간의 기준 지점(RP)을 포함하는 동일한 영역에 대해 무인항공기(300)의 자세 정보 및 카메라부(340)의 자세 정보 중 적어도 하나가 상이한 복수의 영상을 검출한다. Referring to FIG. 6, the control unit 150 includes attitude information of the unmanned aerial vehicle 300 and attitude information of the camera unit 340 for the same area including at least a reference point RP of an actual space from the spatial information in step S210. At least one of them detects a plurality of different images.

예컨대, 도 7을 참조하면, 전술한 바와 같이, 무인항공기(300)는 사용자장치(100)로부터 수신된 제어 명령에 따라 기준 지점(RP)을 기준으로 설정된 비행 궤도(FO)에 따라 기준 지점(RP) 상공을 비행한다. 이와 같이, 무인항공기(300)가 기준 지점(RP)을 기준으로 설정된 비행 궤도(FO)로 기준 지점(RP) 상공을 비행할 때, 카메라부(340)는 무인항공기(300)의 자세에 무관하게 기준 지점(RP)을 지향한다. 이러한 상태에서 촬영한 영상은 도 8의 (다), (라) 및 (마)와 같이, 기준 지점(RP)을 포함하는 동일한 실물 객체에 대해 촬영 각도가 상이하기 때문에 촬영한 영상 또한 상이하다. 즉, 도 8의 영상 (다), (라) 및 (마)는 기준 지점(RP)을 포함하는 동일한 영역에 대해 무인항공기(300)의 자세 정보 및 카메라부(340)의 자세 정보 중 적어도 하나가 상이하다. 따라서 제어부(150)는 무인항공기(300)로부터 수신된 공간 정보로부터 도 8의 영상 (다), (라) 및 (마)와 같이, 기준 지점(RP)을 포함하는 동일한 영역에 대해 무인항공기(300)의 자세 정보 및 카메라부(340)의 자세 정보 중 적어도 하나가 상이한 복수의 영상을 검출할 수 있다. For example, referring to FIG. 7, as described above, the unmanned aerial vehicle 300 has a reference point (FO) set based on a reference point RP according to a control command received from the user device 100. RP) fly over the air. In this way, when the unmanned aerial vehicle 300 flies above the reference point (RP) in the flight trajectory (FO) set based on the reference point (RP), the camera unit 340 is irrelevant to the posture of the unmanned aerial vehicle (300). It aims at the reference point (RP). The image captured in this state is also different because the shooting angle is different for the same real object including the reference point RP, as shown in (C), (D) and (E) of FIG. 8. That is, images (c), (d) and (e) of FIG. 8 are at least one of the attitude information of the unmanned aerial vehicle 300 and the attitude information of the camera unit 340 for the same area including the reference point RP. Is different. Therefore, the controller 150 uses the spatial information received from the unmanned aerial vehicle 300 for the same area including the reference point RP as shown in images (c), (d) and (e) of FIG. 8. At least one of the posture information of 300) and the posture information of the camera unit 340 may detect a plurality of images different from each other.

다음으로, 제어부(150)는 S220 단계에서 검출된 복수의 영상 각각에서 실제 공간에서 동일한 평면에 해당하는 복수의 특징점을 특정한다. 이러한 S220 단계에서 대해 보다 상세히 설명하면, 제어부(150)는 먼저, 영상의 픽셀값에 따라 특징점을 판별하기 위한 기준인 기준값을 설정한다. 이러한 기준값은 전체 픽셀 배열의 픽셀값의 변화율의 평균이 될 수 있다. 영상의 픽셀값 중 인접한 두 픽셀 사의의 픽셀값의 변화가 전체 픽셀 배열의 픽셀값의 변화율의 평균 보다 큰 지점이 있다. 제어부(150)는 전체 픽셀 배열의 픽셀값의 변화율의 평균 보다 인접한 두 픽셀 사의의 픽셀값의 변화가 큰 지점, 즉, 픽셀값이 급격하게 변화하는 픽셀을 분리된 별개의 평면 사이의 경계 지점으로 판별할 수 있다. 또한, 영상의 픽셀값 중 인접한 두 픽셀 사이의 변화가 전체 픽셀 배열의 픽셀값의 변화율의 평균 보다 작은 지점이 있다. 제어부(150)는 전체 픽셀 배열의 픽셀값의 변화율의 평균 보다 픽셀값의 변화가 작은 지점, 즉, 픽셀값이 완만하게 변화하는 픽셀들을 동일한 평면으로 판별할 수 있다. 이에 따라, 제어부(150)는 평면을 검출하기 위하여, 전체 픽셀 배열의 픽셀값의 변화율의 평균 보다 픽셀값이 변화가 작은 복수의 픽셀을 복수의 특징점으로 특정한다. 예컨대, 도 8의 (다), (라) 및 (마)의 B, C, B', C', B", C" 등이 특징점이 될 수 있다. Next, the controller 150 specifies a plurality of feature points corresponding to the same plane in an actual space from each of the plurality of images detected in step S220. In a more detailed description of the step S220, the controller 150 first sets a reference value, which is a criterion for determining a feature point according to a pixel value of an image. This reference value may be an average of the rate of change of the pixel values of the entire pixel array. Among the pixel values of an image, there is a point where the change in pixel values between two adjacent pixels is greater than the average of the rate of change of the pixel values in the entire pixel array. The control unit 150 selects a point where the pixel value change between two adjacent pixels is greater than the average of the rate of change of the pixel value of the entire pixel array, that is, the pixel whose pixel value rapidly changes to a boundary point between separate and separate planes. Can be identified. In addition, among the pixel values of the image, there is a point where the change between two adjacent pixels is smaller than the average of the rate of change of the pixel values of the entire pixel array. The control unit 150 may determine points in which the pixel value change is smaller than the average of the change rate of the pixel values of the entire pixel array, that is, pixels whose pixel value gradually changes, as the same plane. Accordingly, in order to detect a plane, the control unit 150 specifies a plurality of pixels whose pixel values are smaller than the average of the rate of change of the pixel values of the entire pixel array as a plurality of feature points. For example, B, C, B', C', B", C" of Figs. 8(c), (d) and (e) may be characteristic points.

한편, 제어부(150)는 지리적 요인 및 환경적 요인 중 적어도 하나에 따라 특징점을 판별하기 위한 기준인 기준값을 보정할 수 있다. 즉, 예컨대, 회색 빌딩 숲이나 푸른 임야 등과 같이 유사한 색이 대부분인 영역에서는 픽셀값 변화율의 평균을 기준값으로 사용하는 것이 아니라, 그 기준값을 보정하여 사용할 수 있다. 또한, 제어부(150)는 영상 정보 중 카메라부(340)의 소정의 기준점(예컨대, 초점 혹은 주점)으로부터 촬영된 영상의 각 픽셀에 대응하는 실제 객체까지의 거리를 이용하여 동일한 평면에 해당하는 복수의 특징점을 추출할 수 있다. Meanwhile, the controller 150 may correct a reference value, which is a criterion for determining a feature point, according to at least one of a geographic factor and an environmental factor. In other words, in areas where similar colors are mostly present, such as a gray building forest or a blue forest, the average of the pixel value change rate may not be used as a reference value, but the reference value may be corrected. In addition, the control unit 150 uses the distance from a predetermined reference point (eg, focus or main point) of the camera unit 340 to an actual object corresponding to each pixel of the image information, corresponding to the same plane. The feature points of can be extracted.

다음으로, 제어부(150)는 S230 단계에서 복수의 특징점으로부터 특징점 간의 상대 거리와 각도인 특징점 벡터를 구하여 복수의 평면을 특정하며, 특정된 복수의 평면을 기초로 3차원 좌표계를 생성한다. Next, in step S230, the controller 150 determines a plurality of planes by obtaining a feature point vector, which is a relative distance and angle between the feature points from the plurality of feature points, and generates a 3D coordinate system based on the specified plurality of planes.

즉, 촬영 각도가 변화함에 따라, 실제 공간에서의 거리와 각도는 변화하지 않지만, 촬영된 결과의 2차원적 배열 상으로는 특징점 간의 상대 거리와 각도인 특징점 벡터가 변화한다. 평면 상에 존재하는 두 개 이상의 특징점 벡터의 변화율을 통해 평면을 구성할 수 있다. 이는 평면의 결정조건 가운데 하나인 두 직선이 서로 만나거나 평행해야 하는 점을 이용하는 것이다. That is, as the photographing angle changes, the distance and angle in the actual space do not change, but the feature point vector, which is the relative distance and angle between the feature points, changes on the two-dimensional arrangement of the photographed results. A plane can be configured through the rate of change of two or more feature point vectors existing on the plane. This is to use the point where two straight lines, one of the crystal conditions of the plane, must meet or be parallel to each other.

이와 같이, 생성한 3차원 좌표계는 실 사용자에게 보여지는 정보가 아니라, 사용자가 가상모델을 설치할 수 있도록 기준 평면을 설정하고, 거리에 비례하여 가상모델의 크기를 조절한다거나, 가상모델의 배치각도를 조절할 때 판단하기 위해 가상으로 설정되는 것이다. 이와 같이, 설정된 3차원 좌표계(CO)가 도 9에 도시되었다. 이에 따라, 사용자장치(100)의 제어부(150)는 도 9에 도시된 바와 같은 3차원 좌표계(CO)로부터 기준 평면(PL)을 도출할 수 있으며, 이러한 기준 평면 상에 가상 모델을 합성할 수 있다. In this way, the generated 3D coordinate system is not information displayed to real users, but rather sets the reference plane so that the user can install the virtual model, adjusts the size of the virtual model in proportion to the distance, or adjusts the arrangement angle of the virtual model. It is set virtually to judge when adjusting. As described above, the set three-dimensional coordinate system CO is shown in FIG. 9. Accordingly, the control unit 150 of the user device 100 can derive the reference plane PL from the three-dimensional coordinate system CO as shown in FIG. 9, and synthesize a virtual model on this reference plane. have.

한편, 전술한 데이터서버(200)의 구성 및 기능 중 일부 혹은 전부는 사용자장치(100) 및 무인항공기(300) 중 적어도 하나에 분산하여 구현될 수 있다. 일례로, 데이터서버(200)의 저장모듈(220)에 저장된 가상 모델은 사용자장치(100)의 저장부(140)에 저장되거나, 무인항공기(300)의 항공저장부(350)에 저장될 수 있다. Meanwhile, some or all of the configurations and functions of the data server 200 described above may be implemented by being distributed to at least one of the user device 100 and the unmanned aerial vehicle 300. For example, the virtual model stored in the storage module 220 of the data server 200 may be stored in the storage unit 140 of the user device 100 or in the aviation storage unit 350 of the unmanned aerial vehicle 300. have.

한편, 앞서 설명된 본 발명의 실시예에 따른 방법은 다양한 컴퓨터수단을 통하여 판독 가능한 프로그램 형태로 구현되어 컴퓨터로 판독 가능한 기록매체에 기록될 수 있다. 여기서, 기록매체는 프로그램 명령, 데이터 파일, 데이터구조 등을 단독으로 또는 조합하여 포함할 수 있다. 기록매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 예컨대 기록매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광 기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치를 포함한다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어를 포함할 수 있다. 이러한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다. Meanwhile, the method according to the embodiment of the present invention described above may be implemented in the form of a program that can be read through various computer means and recorded on a computer-readable recording medium. Here, the recording medium may include a program command, a data file, a data structure, or the like alone or in combination. The program instructions recorded on the recording medium may be specially designed and configured for the present invention, or may be known and usable to those skilled in computer software. For example, the recording medium includes magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic-optical media such as floptical disks ( magneto-optical media), and hardware devices specially configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions may include not only a machine language such as that produced by a compiler but also a high-level language that can be executed by a computer using an interpreter or the like. These hardware devices may be configured to operate as one or more software modules to perform the operation of the present invention, and vice versa.

이상 본 발명을 몇 가지 바람직한 실시예를 사용하여 설명하였으나, 이들 실시예는 예시적인 것이며 한정적인 것이 아니다. 이와 같이, 본 발명이 속하는 기술분야에서 통상의 지식을 지닌 자라면 본 발명의 사상과 첨부된 특허청구범위에 제시된 권리범위에서 벗어나지 않으면서 균등론에 따라 다양한 변화와 수정을 가할 수 있음을 이해할 것이다. The present invention has been described above using several preferred embodiments, but these embodiments are illustrative and not limiting. As such, those of ordinary skill in the art to which the present invention pertains will understand that various changes and modifications can be made according to the equivalence theory without departing from the spirit of the present invention and the scope of the rights presented in the appended claims.

100: 사용자장치 110: 통신부
120: 입력부 130: 표시부
140: 저장부 150: 제어부
200: 데이터서버 210: 통신모듈
220: 저장모듈 230: 제어모듈
300: 무인항공기 310: 항공통신부
320: 비행부 330: 센서부
340: 카메라부 350: 항공저장부
360: 항공제어부
100: user device 110: communication unit
120: input unit 130: display unit
140: storage unit 150: control unit
200: data server 210: communication module
220: storage module 230: control module
300: unmanned aerial vehicle 310: Ministry of Aviation and Communication
320: flight unit 330: sensor unit
340: camera unit 350: aviation storage unit
360: flight control unit

Claims (6)

무인항공기를 이용한 증강현실을 제공하기 위한 장치에 있어서,
화면을 표시하기 위한 표시부;
카메라부를 포함하는 무인항공기와의 통신 및 데이터서버와의 통신을 위한 통신부; 및
상기 통신부를 통해 상기 무인항공기로 기준 지점 및 상기 기준 지점을 기준으로 설정된 비행 궤도를 포함하는 제어 명령을 전송하고,
상기 통신부를 통해 상기 무인항공기로부터 상기 무인항공기가 상기 기준 지점을 기준으로 설정된 비행 궤도를 비행하며 촬영한 영상을 포함하는 공간 정보를 수신하고,
공간 정보를 이용하여 3차원 좌표계를 설정하고,
설정된 3차원 좌표계로부터 기준 평면을 도출한 후,
도출된 기준 평면 상에 가상 모델을 합성하여
상기 표시부를 통해 표시하도록 제어하는 제어부;를 포함하며,
상기 제어부는
상기 공간 정보로부터 상기 무인항공기의 자세 정보 및 상기 카메라부의 자세 정보 중 적어도 하나가 상이한 복수의 영상을 검출하고,
상기 검출된 복수의 영상 각각에서 복수의 특징점을 특정하고,
상기 복수의 특징점으로부터 특징점 간의 상대 거리와 각도인 특징점 벡터를 구하여 복수의 평면을 특정하고,
특정된 복수의 평면을 기초로 상기 3차원 좌표계를 생성하는 것을 특징으로 하는
증강현실을 제공하기 위한 장치.
In an apparatus for providing augmented reality using an unmanned aerial vehicle,
A display unit for displaying a screen;
A communication unit for communication with an unmanned aerial vehicle including a camera unit and communication with a data server; And
Transmitting a control command including a reference point and a flight trajectory set based on the reference point to the unmanned aerial vehicle through the communication unit,
Through the communication unit, the unmanned aerial vehicle receives spatial information including an image photographed while the unmanned aerial vehicle flies in a flight trajectory set based on the reference point,
Set up a three-dimensional coordinate system using spatial information,
After deriving the reference plane from the set 3D coordinate system,
By synthesizing a virtual model on the derived reference plane
Includes; a control unit for controlling to be displayed through the display unit,
The control unit
Detecting a plurality of images in which at least one of the attitude information of the unmanned aerial vehicle and the attitude information of the camera unit are different from the spatial information,
Specifying a plurality of feature points in each of the plurality of detected images,
A plurality of planes are specified by obtaining a feature point vector that is a relative distance and angle between feature points from the plurality of feature points,
Characterized in that generating the three-dimensional coordinate system based on a plurality of specified planes
A device for providing augmented reality.
제1항에 있어서,
상기 공간 정보는
상기 무인항공기의 카메라부가 촬영한 영상 및 상기 카메라부의 소정의 기준점으로부터 촬영된 영상의 각 픽셀에 대응하는 실제 객체까지의 거리를 포함하는 영상 정보; 및
상기 영상을 촬영한 시점에 대응하며, 상기 시점에 상기 무인항공기의 센서부를 통해 획득한 무인항공기의 위치 정보와, 상기 무인항공기의 자세 정보 및 상기 카메라부의 자세 정보를 포함하는 센서 정보;를 포함하는 것을 특징으로 하는
증강현실을 제공하기 위한 장치.
The method of claim 1,
The above spatial information is
Image information including an image captured by the camera unit of the unmanned aerial vehicle and a distance from a predetermined reference point of the camera unit to an actual object corresponding to each pixel of the image captured by the camera unit; And
Comprising: sensor information corresponding to a point in time at which the image is captured and including position information of the unmanned aerial vehicle obtained through the sensor unit of the unmanned aerial vehicle at the point in time, attitude information of the unmanned aerial vehicle, and attitude information of the camera unit; Characterized by
A device for providing augmented reality.
삭제delete 제1항에 있어서,
상기 제어부는
상기 영상의 전체 픽셀 배열의 픽셀값의 변화율의 평균 보다 픽셀값이 변화가 작은 복수의 픽셀을 복수의 특징점으로 특정하는 것을 특징으로 하는
증강현실을 제공하기 위한 장치.
The method of claim 1,
The control unit
Characterized in that a plurality of pixels having a smaller change in pixel value than an average of a rate of change of pixel values of the entire pixel array of the image are specified as a plurality of feature points
A device for providing augmented reality.
무인항공기를 이용한 증강현실을 제공하기 위한 방법에 있어서,
카메라부를 포함하는 무인항공기로 기준 지점 및 상기 기준 지점을 기준으로 설정된 비행 궤도를 포함하는 제어 명령을 전송하는 단계;
상기 무인항공기로부터 상기 무인항공기가 상기 기준 지점을 기준으로 설정된 비행 궤도를 비행하며 촬영한 영상을 포함하는 공간 정보를 수신하는 단계;
상기 공간 정보를 이용하여 3차원 좌표계를 설정하고, 설정된 3차원 좌표계로부터 기준 평면을 도출하는 단계; 및
상기 도출된 기준 평면 상에 가상 모델을 합성하여 표시하는 단계;를 포함하며,
상기 기준 평면을 도출하는 단계는
상기 공간 정보로부터 상기 무인항공기의 자세 정보 및 상기 카메라부의 자세 정보 중 적어도 하나가 상이한 복수의 영상을 검출하는 단계;
상기 검출된 복수의 영상 각각에서 복수의 특징점을 특정하는 단계;
상기 복수의 특징점으로부터 특징점 간의 상대 거리와 각도인 특징점 벡터를 구하여 복수의 평면을 특정하는 단계;
상기 특정된 복수의 평면을 기초로 상기 3차원 좌표계를 생성하는 단계;를 포함하는 것을 특징으로 하는
증강현실을 제공하기 위한 방법.
In a method for providing augmented reality using an unmanned aerial vehicle,
Transmitting a control command including a reference point and a flight trajectory set based on the reference point to an unmanned aerial vehicle including a camera unit;
Receiving spatial information including an image captured by the unmanned aerial vehicle while flying in a flight trajectory set based on the reference point from the unmanned aerial vehicle;
Setting a 3D coordinate system using the spatial information and deriving a reference plane from the set 3D coordinate system; And
Comprising and displaying a virtual model on the derived reference plane; Including,
The step of deriving the reference plane is
Detecting a plurality of images in which at least one of the attitude information of the unmanned aerial vehicle and the attitude information of the camera unit are different from the spatial information;
Specifying a plurality of feature points in each of the plurality of detected images;
Specifying a plurality of planes by obtaining a feature point vector, which is a relative distance and angle between feature points from the plurality of feature points;
And generating the three-dimensional coordinate system based on the specified plurality of planes.
A method for providing augmented reality.
제5항에 따른 증강 현실을 제공하기 위한 방법을 수행하기 위한 프로그램이 기록된 컴퓨터 판독 가능한 기록매체. A computer-readable recording medium on which a program for performing the method for providing augmented reality according to claim 5 is recorded.
KR1020190008393A 2019-01-22 2019-01-22 Apparatus for providing an augmented reality using unmanned aerial vehicle, method thereof and computer recordable medium storing program to perform the method KR102204435B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190008393A KR102204435B1 (en) 2019-01-22 2019-01-22 Apparatus for providing an augmented reality using unmanned aerial vehicle, method thereof and computer recordable medium storing program to perform the method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190008393A KR102204435B1 (en) 2019-01-22 2019-01-22 Apparatus for providing an augmented reality using unmanned aerial vehicle, method thereof and computer recordable medium storing program to perform the method

Publications (2)

Publication Number Publication Date
KR20200091292A KR20200091292A (en) 2020-07-30
KR102204435B1 true KR102204435B1 (en) 2021-01-18

Family

ID=71839126

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190008393A KR102204435B1 (en) 2019-01-22 2019-01-22 Apparatus for providing an augmented reality using unmanned aerial vehicle, method thereof and computer recordable medium storing program to perform the method

Country Status (1)

Country Link
KR (1) KR102204435B1 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170138225A (en) * 2016-06-07 2017-12-15 조건희 The real time national imagery intelligence system or method based on the drone which hovering or surveillance flight around the drone docking station
KR101955368B1 (en) * 2016-06-08 2019-03-08 (주)코아텍 System for providing virtual drone stadium using augmented reality and method thereof
KR102330829B1 (en) 2017-03-27 2021-11-24 삼성전자주식회사 Method and apparatus for providing augmented reality function in electornic device

Also Published As

Publication number Publication date
KR20200091292A (en) 2020-07-30

Similar Documents

Publication Publication Date Title
US11797009B2 (en) Unmanned aerial image capture platform
US11263761B2 (en) Systems and methods for visual target tracking
CN111448476B (en) Technique for sharing mapping data between unmanned aerial vehicle and ground vehicle
US11127202B2 (en) Search and rescue unmanned aerial system
CN108351649B (en) Method and apparatus for controlling a movable object
JP6496323B2 (en) System and method for detecting and tracking movable objects
US11644839B2 (en) Systems and methods for generating a real-time map using a movable object
CN107168352B (en) Target tracking system and method
Kim et al. Feasibility of employing a smartphone as the payload in a photogrammetric UAV system
CN113196197A (en) Movable object performing real-time map building using payload components
JP6765512B2 (en) Flight path generation method, information processing device, flight path generation system, program and recording medium
US10228691B1 (en) Augmented radar camera view for remotely operated aerial vehicles
KR20210104684A (en) Surveying and mapping systems, surveying and mapping methods, devices and instruments
US20180275659A1 (en) Route generation apparatus, route control system and route generation method
US20200012756A1 (en) Vision simulation system for simulating operations of a movable platform
US11320817B2 (en) Target-based image exposure adjustment
WO2019230604A1 (en) Inspection system
JP2018205264A (en) Image processor, method for processing image, and image processing program
KR102204435B1 (en) Apparatus for providing an augmented reality using unmanned aerial vehicle, method thereof and computer recordable medium storing program to perform the method
WO2022188151A1 (en) Image photographing method, control apparatus, movable platform, and computer storage medium
KR20210106422A (en) Job control system, job control method, device and instrument
WO2022056683A1 (en) Field of view determination method, field of view determination device, field of view determination system, and medium
WO2020225979A1 (en) Information processing device, information processing method, program, and information processing system
CN110192161B (en) Method and system for operating a movable platform using ray casting mapping
JP2015042201A (en) Terminal device, method for outputting sky-map information, and program

Legal Events

Date Code Title Description
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant