KR102204435B1 - Apparatus for providing an augmented reality using unmanned aerial vehicle, method thereof and computer recordable medium storing program to perform the method - Google Patents
Apparatus for providing an augmented reality using unmanned aerial vehicle, method thereof and computer recordable medium storing program to perform the method Download PDFInfo
- Publication number
- KR102204435B1 KR102204435B1 KR1020190008393A KR20190008393A KR102204435B1 KR 102204435 B1 KR102204435 B1 KR 102204435B1 KR 1020190008393 A KR1020190008393 A KR 1020190008393A KR 20190008393 A KR20190008393 A KR 20190008393A KR 102204435 B1 KR102204435 B1 KR 102204435B1
- Authority
- KR
- South Korea
- Prior art keywords
- aerial vehicle
- unmanned aerial
- unit
- augmented reality
- information
- Prior art date
Links
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 38
- 238000000034 method Methods 0.000 title claims abstract description 33
- 238000004891 communication Methods 0.000 claims abstract description 44
- 230000002194 synthesizing effect Effects 0.000 claims abstract description 3
- 239000013598 vector Substances 0.000 claims description 7
- 230000006870 function Effects 0.000 description 13
- 238000012545 processing Methods 0.000 description 13
- 238000005516 engineering process Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- RZVHIXYEVGDQDX-UHFFFAOYSA-N 9,10-anthraquinone Chemical group C1=CC=C2C(=O)C3=CC=CC=C3C(=O)C2=C1 RZVHIXYEVGDQDX-UHFFFAOYSA-N 0.000 description 6
- 238000010295 mobile communication Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 4
- 239000000835 fiber Substances 0.000 description 3
- 229920001621 AMOLED Polymers 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 101150012579 ADSL gene Proteins 0.000 description 1
- 102100020775 Adenylosuccinate lyase Human genes 0.000 description 1
- 108700040193 Adenylosuccinate lyases Proteins 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000013078 crystal Substances 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 230000010363 phase shift Effects 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64C—AEROPLANES; HELICOPTERS
- B64C39/00—Aircraft not otherwise provided for
- B64C39/02—Aircraft not otherwise provided for characterised by special use
- B64C39/024—Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/10—Simultaneous control of position or course in three dimensions
- G05D1/101—Simultaneous control of position or course in three dimensions specially adapted for aircraft
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
Abstract
본 발명은 무인항공기를 이용한 증강현실을 제공하기 위한 장치, 이를 위한 방법 및 이 방법이 기록된 기록매체에 관한 것이다. 본 발명의 실시예에 따른 무인항공기를 이용한 증강현실을 제공하기 위한 장치는 화면을 표시하기 위한 표시부와, 데이터서버 및 무인항공기와 통신을 위한 통신부와, 상기 통신부를 통해 상기 무인항공기로 기준 지점 및 상기 기준 지점을 기준으로 설정된 비행 궤도를 포함하는 제어 명령을 전송하고, 상기 통신부를 통해 상기 무인항공기로부터 상기 무인항공기가 상기 기준 지점을 기준으로 설정된 비행 궤도를 비행하며 촬영한 영상을 포함하는 공간 정보를 수신하고, 공간 정보를 이용하여 3차원 좌표계를 설정하고, 설정된 3차원 좌표계로부터 기준 평면을 도출한 후, 도출된 기준 평면 상에 가상 모델을 합성하여 상기 표시부를 통해 표시하도록 제어하는 제어부를 포함한다. The present invention relates to an apparatus for providing augmented reality using an unmanned aerial vehicle, a method therefor, and a recording medium on which the method is recorded. An apparatus for providing augmented reality using an unmanned aerial vehicle according to an embodiment of the present invention includes a display section for displaying a screen, a communication section for communicating with a data server and an unmanned aerial vehicle, and a reference point to the unmanned aerial vehicle through the communication section. Spatial information including an image captured while transmitting a control command including a flight trajectory set based on the reference point, and the unmanned aerial vehicle flying through the flight trajectory set based on the reference point from the unmanned aerial vehicle through the communication unit And a control unit for controlling to display through the display unit by synthesizing a virtual model on the derived reference plane after receiving, setting a 3D coordinate system using spatial information, deriving a reference plane from the set 3D coordinate system do.
Description
본 발명은 증강 현실에 관한 것으로, 보다 상세하게는, 무인항공기(UAV: Unmanned Aerial Vehicle)를 이용하여 증강현실을 제공하기 위한 장치, 이를 위한 방법 및 이 방법이 기록된 기록매체에 관한 것이다. The present invention relates to augmented reality, and more particularly, to an apparatus for providing augmented reality using an unmanned aerial vehicle (UAV), a method therefor, and a recording medium on which the method is recorded.
증강 현실은 현실 세계에 컴퓨터 기술로 만든 가상물체 및 정보를 융합, 보완해 주는 기술을 말한다. 현실 세계에 실시간으로 부가정보를 갖는 가상 세계를 더해 하나의 영상으로 보여준다. 1990년 보잉사의 항공기 전선 조립과정을 설명하는 데 처음 사용된 이후 미국과 일본을 중심으로 이에 대한 기술 연구개발이 진행되었다. 2000년대 중반 이후 스마트폰이 등장하고 활성화됨에 따라 이 기술을 적용하면서 주목받기 시작했다. Augmented reality refers to a technology that combines and complements virtual objects and information made with computer technology in the real world. The virtual world with additional information in real time is added to the real world and displayed as a single image. Since it was first used to explain the assembly process of Boeing's aircraft cables in 1990, technical research and development has been carried out around the United States and Japan. As smartphones appeared and became active after the mid-2000s, they began to gain attention as they applied this technology.
가상현실(VR: virtual reality) 기술이 컴퓨터그래픽이 만든 가상환경에 사용자를 몰입하도록 함으로써 실제 환경을 볼 수 없는 데 비해, 증강현실 기술은 실제 환경에 가상의 객체를 혼합하여 사용자가 실제 환경에서 보다 실감나는 부가정보를 제공받을 수 있다. 예를 들면 길을 가다 스마트폰 카메라로 주변을 비추면 근처에 있는 상점의 위치 및 전화번호, 지도 등의 정보가 입체영상으로 표시되고, 하늘을 비추면 날씨정보가 나타나는 등 다양한 분야에 적용되고 있다. While VR (virtual reality) technology allows users to immerse users in a virtual environment created by computer graphics, so that they cannot see the real environment, augmented reality technology mixes virtual objects in the real environment so that users can see it in the real environment. You can receive realistic additional information. For example, it is applied in a variety of fields, such as when going on the road, when you look at the surroundings with a smartphone camera, information such as the location, phone number, and map of nearby stores is displayed in a 3D image, and when you shine the sky, weather information appears. .
한편, 가상현실과 증강현실을 혼합한 기술은 혼합현실(MR: mixed reality)이라고 한다. MR은 현실 배경에 현실과 가상의 정보를 혼합시켜 제공하는데, 대용량 데이터를 처리할 수 있는 기술이 필요해 아직 상용화되지는 않았다. VR과 AR, MR은 모두 실제로 존재하지 않는 현실을 구현해 사람이 이를 인지할 수 있도록 하는 기술이라는 점에서 공통점이 있다. 다만 AR은 실제 현실에 가상의 정보를 더해 보여주는 방식이고, VR은 모두 허구의 상황이 제시된다는 점에서 차이가 있다. Meanwhile, a technology that combines virtual reality and augmented reality is called mixed reality (MR). MR provides a mixture of real and virtual information in a real background, but it has not been commercialized yet because it requires a technology that can process large amounts of data. VR, AR, and MR all have something in common in that they are technologies that enable people to perceive reality by realizing a reality that does not exist. However, there is a difference in that AR is a method of adding virtual information to real reality, and in VR, all fictional situations are presented.
본 발명의 목적은 무인항공기를 이용하여 증강현실을 제공할 수 있는 장치, 이를 위한 방법 및 이 방법을 수행하기 위한 프로그램이 기록된 컴퓨터 판독 가능한 기록매체를 제공함에 있다. An object of the present invention is to provide an apparatus capable of providing augmented reality using an unmanned aerial vehicle, a method therefor, and a computer-readable recording medium in which a program for performing the method is recorded.
상술한 바와 같은 목적을 달성하기 위한 본 발명의 바람직한 실시예에 따른 무인항공기를 이용한 증강현실을 제공하기 위한 장치는 화면을 표시하기 위한 표시부와, 데이터서버 및 무인항공기와 통신을 위한 통신부와, 상기 통신부를 통해 상기 무인항공기로 기준 지점 및 상기 기준 지점을 기준으로 설정된 비행 궤도를 포함하는 제어 명령을 전송하고, 상기 통신부를 통해 상기 무인항공기로부터 상기 무인항공기가 상기 기준 지점을 기준으로 설정된 비행 궤도를 비행하며 촬영한 영상을 포함하는 공간 정보를 수신하고, 공간 정보를 이용하여 3차원 좌표계를 설정하고, 설정된 3차원 좌표계로부터 기준 평면을 도출한 후, 도출된 기준 평면 상에 가상 모델을 합성하여 상기 표시부를 통해 표시하도록 제어하는 제어부를 포함한다. An apparatus for providing augmented reality using an unmanned aerial vehicle according to a preferred embodiment of the present invention for achieving the above object includes a display unit for displaying a screen, a data server and a communication unit for communication with the unmanned aerial vehicle, and the A control command including a reference point and a flight trajectory set based on the reference point is transmitted to the unmanned aerial vehicle through a communication unit, and the unmanned aerial vehicle transmits a flight trajectory set based on the reference point from the unmanned aerial vehicle through the communication unit. Receive spatial information including images taken while flying, set a 3D coordinate system using the spatial information, derive a reference plane from the set 3D coordinate system, and synthesize a virtual model on the derived reference plane, It includes a control unit that controls to be displayed through the display unit.
상기 공간 정보는 상기 무인항공기의 카메라부가 촬영한 영상 및 상기 카메라부의 소정의 기준점으로부터 촬영된 영상의 각 픽셀에 대응하는 실제 객체까지의 거리를 포함하는 영상 정보와, 상기 영상을 촬영한 시점에 대응하며, 상기 시점에 상기 무인항공기의 센서부를 통해 획득한 무인항공기의 위치 정보와, 상기 무인항공기의 자세 정보 및 상기 카메라부의 자세 정보를 포함하는 센서 정보를 포함한다. The spatial information corresponds to image information including an image captured by the camera unit of the unmanned aerial vehicle and a distance from a predetermined reference point of the camera unit to an actual object corresponding to each pixel of the image captured, and a time point at which the image is captured. And sensor information including position information of the unmanned aerial vehicle acquired through the sensor unit of the unmanned aerial vehicle at the time point, attitude information of the unmanned aerial vehicle, and attitude information of the camera unit.
상기 제어부는 상기 공간 정보로부터 상기 무인항공기의 자세 정보 및 상기 카메라부의 자세 정보 중 적어도 하나가 상이한 복수의 영상을 검출하고, 상기 검출된 복수의 영상 각각에서 복수의 특징점을 특정하고, 상기 복수의 특징점으로부터 특징점 간의 상대 거리와 각도인 특징점 벡터를 구하여 복수의 평면을 특정하고, 특정된 복수의 평면을 기초로 상기 3차원 좌표계를 생성하는 것을 특징으로 한다. The control unit detects a plurality of images in which at least one of the attitude information of the unmanned aerial vehicle and the attitude information of the camera unit are different from the spatial information, and specifies a plurality of feature points in each of the detected plurality of images, and the plurality of feature points A plurality of planes are determined by obtaining a feature point vector, which is a relative distance and angle between the feature points, and the three-dimensional coordinate system is generated based on the specified plurality of planes.
상기 제어부는 상기 영상의 전체 픽셀 배열의 픽셀값의 변화율의 평균 보다 픽셀값의 변화가 작은 복수의 픽셀을 복수의 특징점으로 특정하는 것을 특징으로 한다. The control unit is characterized in that the control unit specifies, as a plurality of feature points, a plurality of pixels whose change in pixel values is smaller than an average of change rates of pixel values in the entire pixel array of the image.
상술한 바와 같은 목적을 달성하기 위한 본 발명의 바람직한 실시예에 따른 무인항공기를 이용한 증강현실을 제공하기 위한 방법은 무인항공기로 기준 지점 및 상기 기준 지점을 기준으로 설정된 비행 궤도를 포함하는 제어 명령을 전송하는 단계와, 상기 무인항공기로부터 상기 무인항공기가 상기 기준 지점을 기준으로 설정된 비행 궤도를 비행하며 촬영한 영상을 포함하는 공간 정보를 수신하는 단계와, 상기 공간 정보를 이용하여 3차원 좌표계를 설정하고, 설정된 3차원 좌표계로부터 기준 평면을 도출하는 단계와, 상기 도출된 기준 평면 상에 가상 모델을 합성하여 표시하는 단계를 포함한다. A method for providing augmented reality using an unmanned aerial vehicle according to a preferred embodiment of the present invention for achieving the above object is a control command including a reference point and a flight trajectory set based on the reference point with an unmanned aerial vehicle. Transmitting and receiving spatial information from the unmanned aerial vehicle, including an image captured by the unmanned aerial vehicle flying in a flight trajectory set based on the reference point, and setting a 3D coordinate system using the spatial information And deriving a reference plane from the set 3D coordinate system, and synthesizing and displaying a virtual model on the derived reference plane.
상기 공간 정보는 상기 무인항공기의 카메라부가 촬영한 영상 및 상기 카메라부의 소정의 기준점으로부터 촬영된 영상의 각 픽셀에 대응하는 실제 객체까지의 거리를 포함하는 영상 정보와, 상기 영상을 촬영한 시점에 대응하며, 상기 시점에 상기 무인항공기의 센서부를 통해 획득한 무인항공기의 위치 정보와, 상기 무인항공기의 자세 정보 및 상기 카메라부의 자세 정보를 포함하는 센서 정보를 포함한다. The spatial information corresponds to image information including an image captured by the camera unit of the unmanned aerial vehicle and a distance from a predetermined reference point of the camera unit to an actual object corresponding to each pixel of the image captured, and a time point at which the image is captured. And sensor information including position information of the unmanned aerial vehicle acquired through the sensor unit of the unmanned aerial vehicle at the time point, attitude information of the unmanned aerial vehicle, and attitude information of the camera unit.
상기 공간 정보를 이용하여 3차원 좌표계를 설정하고, 설정된 3차원 좌표계로부터 기준 평면을 도출하는 단계는 상기 공간 정보로부터 상기 무인항공기의 자세 정보 및 상기 카메라부의 자세 정보 중 적어도 하나가 상이한 복수의 영상을 검출하는 단계와, 상기 검출된 복수의 영상 각각에서 복수의 특징점을 특정하는 단계와, 상기 복수의 특징점으로부터 특징점 간의 상대 거리와 각도인 특징점 벡터를 구하여 복수의 평면을 특정하는 단계와, 상기 특정된 복수의 평면을 기초로 상기 3차원 좌표계를 생성하는 단계를 포함한다. The step of setting a 3D coordinate system using the spatial information and deriving a reference plane from the set 3D coordinate system includes a plurality of images in which at least one of the attitude information of the unmanned aerial vehicle and the attitude information of the camera unit are different from the spatial information. Detecting, specifying a plurality of feature points in each of the detected plurality of images, specifying a plurality of planes by obtaining a feature point vector, which is a relative distance and angle between feature points from the plurality of feature points, and the specified And generating the three-dimensional coordinate system based on a plurality of planes.
상기 검출된 복수의 영상 각각에서 복수의 특징점을 특정하는 단계는 상기 영상의 전체 픽셀 배열의 픽셀값의 변화율의 평균 보다 픽셀값의 변화가 작은 복수의 픽셀을 복수의 특징점으로 특정하는 것을 특징으로 한다. The step of specifying a plurality of feature points in each of the plurality of detected images is characterized in that a plurality of pixels having a change in pixel value smaller than an average of a rate of change of pixel values of the entire pixel array of the image are specified as a plurality of feature points. .
상술한 바와 같은 목적을 달성하기 위한 본 발명의 다른 견지에 따르면, 전술한 본 발명의 실시예에 따른 증강 현실을 제공하기 위한 방법을 수행하기 위한 프로그램이 기록된 컴퓨터 판독 가능한 기록매체를 제공할 수 있다. According to another aspect of the present invention for achieving the above object, a computer-readable recording medium in which a program for performing the method for providing augmented reality according to the above-described embodiment of the present invention is recorded can be provided. have.
본 발명에 따르면, 사용자로부터 멀리 떨어져있거나 높은 고도에 대해서도 사용자는 가상 모델이 합성된 영상을 손쉽게 구현할 수 있으며, 개선된 증강현실 구현 방법을 통해 사용 장비의 수가 감소하며, 시스템 리소스 또한 더욱 효율적으로 사용할 수 있다. According to the present invention, a user can easily implement an image synthesized with a virtual model even at a high altitude or far away from the user, and the number of equipment used is reduced through the improved augmented reality implementation method, and system resources are also used more efficiently. I can.
도 1은 본 발명의 실시예에 따른 무인항공기를 이용한 증강현실을 제공하기 위한 시스템을 설명하기 위한 도면이다.
도 2는 본 발명의 실시예에 따른 증강현실을 제공하기 위한 사용자장치의 구성에 대해서 설명하기 위한 블록도이다.
도 3은 본 발명의 실시예에 따른 데이터서버의 구성을 설명하기 위한 블록도이다.
도 4는 본 발명의 실시예에 따른 무인항공기의 구성을 설명하기 위한 블록도이다.
도 5는 본 발명의 실시예에 따른 무인항공기를 이용한 증강현실을 제공하기 위한 방법에 대해서 설명하기 위한 흐름도이다.
도 6은 본 발명의 실시예에 따른 3차원 좌표계를 생성하는 방법을 설명하기 위한 흐름도이다.
도 7 내지 도 9는 본 발명의 실시예에 따른 3차원 좌표계를 생성하는 방법을 설명하기 위한 도면이다. 1 is a view for explaining a system for providing augmented reality using an unmanned aerial vehicle according to an embodiment of the present invention.
2 is a block diagram illustrating a configuration of a user device for providing augmented reality according to an embodiment of the present invention.
3 is a block diagram illustrating a configuration of a data server according to an embodiment of the present invention.
4 is a block diagram illustrating a configuration of an unmanned aerial vehicle according to an embodiment of the present invention.
5 is a flowchart illustrating a method for providing augmented reality using an unmanned aerial vehicle according to an embodiment of the present invention.
6 is a flowchart illustrating a method of generating a 3D coordinate system according to an embodiment of the present invention.
7 to 9 are diagrams for explaining a method of generating a 3D coordinate system according to an embodiment of the present invention.
본 발명의 상세한 설명에 앞서, 이하에서 설명되는 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념으로 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다. 따라서 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 실시예에 불과할 뿐, 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형 예들이 있을 수 있음을 이해하여야 한다. Prior to the detailed description of the present invention, terms or words used in the present specification and claims described below should not be construed as being limited to their usual or dictionary meanings, and the inventors shall use their own invention in the best way. For explanation, based on the principle that it can be appropriately defined as a concept of terms, it should be interpreted as a meaning and concept consistent with the technical idea of the present invention. Therefore, the embodiments described in the present specification and the configurations shown in the drawings are only the most preferred embodiments of the present invention, and do not represent all the technical spirit of the present invention, and various equivalents that can replace them at the time of application It should be understood that there may be water and variations.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예들을 상세히 설명한다. 이때, 첨부된 도면에서 동일한 구성 요소는 가능한 동일한 부호로 나타내고 있음을 유의해야 한다. 또한, 본 발명의 요지를 흐리게 할 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략할 것이다. 마찬가지의 이유로 첨부 도면에 있어서 일부 구성요소는 과장되거나 생략되거나 또는 개략적으로 도시되었으며, 각 구성요소의 크기는 실제 크기를 전적으로 반영하는 것이 아니다. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. In this case, it should be noted that the same components in the accompanying drawings are indicated by the same reference numerals as possible. In addition, detailed descriptions of known functions and configurations that may obscure the subject matter of the present invention will be omitted. For the same reason, some components in the accompanying drawings are exaggerated, omitted, or schematically illustrated, and the size of each component does not entirely reflect the actual size.
먼저, 본 발명의 실시예에 따른 무인항공기를 이용한 증강현실을 제공하기 위한 시스템에 대해서 설명하기로 한다. 도 1은 본 발명의 실시예에 따른 무인항공기를 이용한 증강현실을 제공하기 위한 시스템을 설명하기 위한 도면이다. 도 1을 참조하면, 증강현실을 제공하기 위한 시스템(이하, '증강현실시스템'으로 축약함)은 사용자장치(100), 데이터서버(200) 및 무인항공기(300)를 포함한다. First, a system for providing augmented reality using an unmanned aerial vehicle according to an embodiment of the present invention will be described. 1 is a view for explaining a system for providing augmented reality using an unmanned aerial vehicle according to an embodiment of the present invention. Referring to FIG. 1, a system for providing augmented reality (hereinafter, abbreviated as “augmented reality system”) includes a
사용자장치(100), 데이터서버(200) 및 무인항공기(300)는 상호 간에 네트워크를 데이터를 송수신할 수 있다. 예를 들면, 네트워크는 WLAN(Wireless LAN), 와이파이(Wi-Fi), 와이브로(Wibro), 와이맥스(Wimax), HSDPA(High Speed Downlink Packet Access) 등의 무선 통신망을 포함할 수 있으며, 시스템 구현 방식에 따라 이더넷(Ethernet), xDSL(ADSL, VDSL), HFC(Hybrid Fiber Coaxial Cable), FTTC(Fiber to The Curb), FTTH(Fiber To The Home) 등의 유선 통신망을 포함할 수도 있다. The
아울러, 본 발명의 네트워크는 예컨대, 다수의 접속망(미도시) 및 이들을 연결하는 코어망(미도시)으로 이루어진 이동통신망을 포함할 수 있다. 여기서, 접속망은 사용자장치(100) 혹은 무인항공기(300)와 직접 접속하여 무선 통신을 수행하는 망으로서, 예를 들어, BS(Base Station), BTS(Base Transceiver Station), NodeB, eNodeB 등과 같은 다수의 기지국과, BSC(Base Station Controller), RNC(Radio Network Controller)와 같은 기지국 제어기로 구현될 수 있다. 또한, 전술한 바와 같이, 기지국에 일체로 구현되어 있던 디지털 신호 처리부와 무선 신호 처리부를 각각 디지털 유니트(Digital Unit, 이하 DU라 함과 무선 유니트(Radio Unit, 이하 RU라 함)로 구분하여, 다수의 영역에 각각 다수의 RU(미도시)를 설치하고, 다수의 RU를 집중화된 DU와 연결하여 구성할 수도 있다. 또한, 접속망과 함께 모바일 망을 구성하는 코어망(미도시)은 접속망과 외부 망, 예컨대, 인터넷망과 같은 다른 통신망을 연결하는 역할을 수행한다. In addition, the network of the present invention may include, for example, a mobile communication network comprising a plurality of access networks (not shown) and a core network (not shown) connecting them. Here, the access network is a network that directly connects to the
이러한 코어망은 앞서 설명한 바와 같이, 접속망 간의 이동성 제어 및 스위칭 등의 이동통신 서비스를 위한 주요 기능을 수행하는 네트워크 시스템으로서, 서킷 교환(circuit switching) 또는 패킷 교환(packet switching)을 수행하며, 모바일 망 내에서의 패킷 흐름을 관리 및 제어한다. 또한, 코어망은 주파수간 이동성을 관리하고, 접속망 및 코어망 내의 트래픽 및 다른 네트워크, 예컨대 인터넷망과의 연동을 위한 역할을 수행할 수도 있다. 이러한 코어망은 SGW(Serving GateWay), PGW(PDN GateWay), MSC(Mobile Switching Center), HLR(Home Location Register), MME(Mobile Mobility Entity)와 HSS(Home Subscriber Server) 등을 더 포함하여 구성될 수도 있다. As described above, this core network is a network system that performs main functions for mobile communication services such as mobility control and switching between access networks, and performs circuit switching or packet switching, and mobile networks It manages and controls the flow of packets within. In addition, the core network may manage mobility between frequencies, and may play a role of interworking with an access network, traffic in the core network, and other networks, such as an Internet network. These core networks will further include SGW (Serving GateWay), PGW (PDN GateWay), MSC (Mobile Switching Center), HLR (Home Location Register), MME (Mobile Mobility Entity) and HSS (Home Subscriber Server). May be.
또한, 본 발명에 따른 네트워크는 인터넷망을 포함할 수 있다. 인터넷망은 TCP/IP 프로토콜에 따라서 정보가 교환되는 통상의 공개된 통신망, 즉 공용망을 의미한다. 이러한 네트워크를 통해서 사용자장치(100), 데이터서버(200) 및 무인항공기(300)가 상호 연동하여 본 발명에 따른 증강현실시스템을 구성한다. Further, the network according to the present invention may include an Internet network. The Internet network refers to a common open communication network, that is, a public network, in which information is exchanged according to the TCP/IP protocol. Through this network, the
사용자장치(100)는 이동통신단말기를 대표적인 예로서 설명하지만 단말기는 이동통신단말기에 한정된 것이 아니고, 모든 정보통신기기, 멀티미디어 단말기, 유선 단말기, 고정형 단말기 및 IP(Internet Protocol) 단말기 등의 다양한 단말기에 적용될 수 있다. 일례로, 단말기는 휴대폰, PMP(Portable MultimediaPlayer), MID(Mobile Internet Device), 스마트폰(Smart Phone), 태블릿 PC, 패블릿 PC 및 정보통신 기기 등과 같은 다양한 이동통신 사양을 갖는 모바일(Mobile) 단말기일 때 유리하게 활용될 수 있다. 다른 예로, 사용자장치(100)는 무인항공기(300) 전용의 컨트롤러가 될 수 있다. 또 다른 예로, 사용자장치(100)는 노트북, PC, 워크스테이션 등이 될 수 있다. The
데이터서버(200)는 네트워크상에 존재하는 하나의 엔티티(Entity)로, 웹 서버(web server), 데이터베이스 서버(database server) 및 애플리케이션 서버(application server)의 역할을 수행한다. The
무인항공기(Unmanned Aerial Vehicle, UAV: 300)는 조종사(human pilot)가 탑승하지 않은 항공기를 말하며, 소위, 드론(drone)으로 칭해진다. 무인항공기(300)는 원격 조종(Remote piloted)에 의해 비행하거나, 사전 프로그램된 경로에 따라 자동 또는 반자동(Semi-auto-piloted) 형식으로 자율 비행할 수 있다. Unmanned Aerial Vehicle (UAV: 300) refers to an aircraft that does not have a human pilot on board, and is referred to as a so-called drone. The unmanned
본 발명의 실시예에서 무인항공기(300)는 특정 장소의 공간 정보를 수집한다. 공간 정보는 무인항공기(300)가 특정 공간에 대해 수집한 영상을 포함하는 다양한 정보를 의미한다. In an embodiment of the present invention, the unmanned
데이터서버(200)는 무인항공기(300)에 의해 얻어진 공간 정보에 합성할 수 있는 가상 모델을 저장한다. 여기서, 가상모델은 증강현실로 구현할 형상을, 체적을 가진 3차원의 시각적 디자인으로 표현하는 형상 데이터를 의미한다. 이러한 가상 모델은 3D 모델 및 전산목업 등을 포함한다. The
사용자장치(100)는 무인항공기(300)의 비행과 관련된 명령을 생성하여 무인항공기(300)를 조작할 수 있다. 또한, 사용자장치(100)는 무인항공기(300)가 촬영한 영상을 포함하는 공간 정보를 수신할 수 있다. 그리고 사용자장치(300)는 데이터서버(200)로부터 가상모델을 수신하고, 공간 정보에 가상 모델을 합성하여 증강 현실 영상을 구성할 수 있다. The
다음으로, 본 발명의 실시예에 따른 증강현실을 제공하기 위한 사용자장치의 구성에 대해서 설명하기로 한다. 도 2는 본 발명의 실시예에 따른 증강현실을 제공하기 위한 사용자장치의 구성에 대해서 설명하기 위한 블록도이다. 도 2를 참조하면, 사용자장치(100)는 통신부(110), 입력부(120), 표시부(130), 저장부(140) 및 제어부(150)를 포함한다. Next, a configuration of a user device for providing augmented reality according to an embodiment of the present invention will be described. 2 is a block diagram illustrating a configuration of a user device for providing augmented reality according to an embodiment of the present invention. Referring to FIG. 2, the
통신부(110)는 네트워크를 통해 데이터서버(200) 및 무인항공기(300)와 통신하기 위한 것이다. 통신부(110)는 송신되는 신호의 주파수를 상승 변환 및 증폭하는 RF(Radio Frequency) 송신기(Tx) 및 수신되는 신호를 저 잡음 증폭하고 주파수를 하강 변환하는 RF 수신기(Rx)를 포함할 수 있다. 그리고 통신부(110)는 송신되는 신호를 변조하고, 수신되는 신호를 복조하는 모뎀(Modem)을 포함할 수 있다. 예컨대, 통신부(110)는 무인항공기(300)가 촬영한 영상을 수신할 수 있다. The
입력부(120)는 사용자장치(100)를 제어하기 위한 사용자의 키 조작을 입력받고 입력 신호를 생성하여 제어부(150)에 전달한다. 입력부(120)는 사용자장치(100)를 제어하기 위한 각 종 키들을 포함할 수 있다. 입력부(120)는 표시부(130)가 터치스크린으로 이루어진 경우, 각 종 키들의 기능이 표시부(130)에서 이루어질 수 있으며, 터치스크린만으로 모든 기능을 수행할 수 있는 경우, 입력부(120)는 생략될 수도 있다. The
표시부(130)는 사용자장치(100)의 메뉴, 입력된 데이터, 기능 설정 정보 및 기타 다양한 정보를 사용자에게 시각적으로 제공한다. 표시부(130)는 사용자장치(100)의 부팅 화면, 대기 화면, 메뉴 화면, 등의 화면을 출력하는 기능을 수행한다. 특히, 표시부(130)는 본 발명의 실시예에 따라 카메라부(120)가 촬영한 현실 공간, 평면 사용자가 선택한 가상의 객체 등을 화면으로 출력하는 기능을 수행한다. 이러한 표시부(130)는 액정표시장치(LCD, Liquid Crystal Display), 유기 발광 다이오드(OLED, Organic Light Emitting Diodes), 능동형 유기 발광 다이오드(AMOLED, Active Matrix Organic Light Emitting Diodes) 등으로 형성될 수 있다. 한편, 표시부(130)는 터치스크린으로 구현될 수 있다. 이러한 경우, 표시부(130)는 터치센서를 포함한다. 터치센서는 사용자의 터치 입력을 감지한다. 터치센서는 정전용량 방식(capacitive overlay), 압력식, 저항막 방식(resistive overlay), 적외선 감지 방식(infrared beam) 등의 터치 감지 센서로 구성되거나, 압력 감지 센서(pressure sensor)로 구성될 수도 있다. 상기 센서들 이외에도 물체의 접촉 또는 압력을 감지할 수 있는 모든 종류의 센서 기기가 본 발명의 터치센서로 이용될 수 있다. 터치센서는 사용자의 터치 입력을 감지하고, 감지 신호를 발생시켜 제어부(150)로 전송한다. 특히, 표시부(130)가 터치스크린으로 이루어진 경우, 입력부(120) 기능의 일부 또는 전부는 표시부(130)를 통해 이루어질 수 있다. The
저장부(140)는 사용자장치(100)의 동작에 필요한 프로그램 및 데이터를 저장한다. 특히, 저장부(140)는 사용자장치(100)의 사용에 따라 발생하는 사용자 데이터를 저장할 수 있다. 예컨대, 저장부(140)는 무인항공기(300)로부터 수신되는 영상을 저장할 수 있다. 저장부(140)에 저장되는 각 종 데이터는 사용자의 조작에 따라, 삭제, 변경, 추가될 수 있다. The
제어부(150)는 사용자장치(100)의 전반적인 동작 및 사용자장치(100)의 내부 블록(110 내지 140)들 간 신호 흐름을 제어하고, 데이터를 처리하는 데이터 처리 기능을 수행할 수 있다. 이러한 제어부(150)는 중앙처리장치(CPU: Central Processing Unit), 그래픽처리장치(GPU: Graphic Processing Unit), 디지털신호처리기(DSP: Digital Signal Processor) 등이 될 수 있다. 이러한 제어부(150)의 동작은 아래에서 더 상세하게 설명될 것이다. The
다음으로, 본 발명의 실시예에 따른 데이터서버(200)에 대해서 보다 상세하게 설명하기로 한다. 도 3은 본 발명의 실시예에 따른 데이터서버의 구성을 설명하기 위한 블록도이다. 도 3을 참조하면, 데이터서버(200)는 통신모듈(210), 저장모듈(220) 및 제어모듈(230)을 포함한다. Next, the
통신모듈(210)은 네트워크를 통해 사용자장치(100) 및 무인항공기(300)와 통신하기 위한 것이다. 통신모듈(210)은 송신되는 신호를 변조하고, 수신되는 신호를 복조하는 모뎀(Modem)을 포함할 수 있다. The
저장모듈(220)은 데이터서버(200)의 동작에 필요한 프로그램 및 데이터를 저장하는 역할을 수행한다. 특히, 저장모듈(220)은 데이터서버(200)의 사용에 따라 발생하는 사용자 데이터가 저장되는 영역이다. 저장모듈(220)은 가상 모델을 저장한다. 가상모델은 증강현실로 구현할 형상을, 체적을 가진 3차원의 시각적 디자인으로 표현하는 형상 데이터를 의미한다. 이러한 가상 모델은 3D 모델 및 전산목업 등을 포함한다. 저장모듈(220)에 저장되는 각 종 데이터는 사용자의 조작에 따라, 삭제, 변경, 추가될 수 있다. The
제어모듈(230)은 데이터서버(200)의 전반적인 동작 및 데이터서버(200)의 내부 블록들 간 신호 흐름을 제어하고, 데이터를 처리하는 데이터 처리 기능을 수행할 수 있다. 이러한 제어모듈(230)은 중앙처리장치(CPU: Central Processing Unit), 디지털신호처리기(DSP: Digital Signal Processor) 등이 될 수 있다. 제어모듈(230)의 동작에 대해서는 아래에서 더 상세하게 설명될 것이다. The
다음으로, 본 발명의 실시예에 따른 무인항공기(300)에 대해서 설명하기로 한다. 도 4는 본 발명의 실시예에 따른 무인항공기의 구성을 설명하기 위한 블록도이다. 도 4를 참조하면, 본 발명의 실시예에 따른 무인항공기(300)는 항공통신부(310), 비행부(320), 센서부(330), 카메라부(340), 항공저장부(350) 및 항공제어부(360)를 포함한다. Next, a description will be given of the unmanned
항공통신부(310)는 사용자장치(100) 및 데이터서버(200)와 통신을 위한 것이다. 항공통신부(310)는 송신하기 위한 신호의 주파수를 상승 변환 및 증폭하는 RF(Radio Frequency) 송신기(Tx) 및 수신되는 신호를 저 잡음 증폭하고 주파수를 하강 변환하는 RF 수신기(Rx)를 포함할 수 있다. 그리고 항공통신부(310)는 송신되는 신호를 변조하고, 수신되는 신호를 복조하는 모뎀(Modem)을 포함할 수 있다. The
비행부(320)는 양력을 발생시켜 무인항공기(300)가 비행할 수 있도록 하기 위한 것이다. 이러한 비행부(320)는 날개, 프로펠러, 모터 등을 포함한다. 비행부(320)는 항공제어부(360)의 제어에 따른 방향 및 속도로 무인항공기(300)를 비행하도록 한다. 특히, 비행부(320)는 항공제어부(360)의 제어에 따라 비행 할 수 있도록 날개의 방향, 프로펠러의 회전 속도 등을 조절할 수 있다. The
센서부(330)는 무인항공기(300)의 현재 위치(위도, 경도, 고도) 및 자세(yaw, roll, pitch) 등을 측정하기 위한 것이다. 이러한 센서부(330)는 GPS 위성으로부터 GPS 신호를 수신하기 위한 GPS 신호 수신기와, 무인항공기(300)의 자세를 측정하기 위한 자이로센서, 가속도센서 등의 복수의 센서를 포함한다. 센서부(330)는 GPS 신호 및 센서들이 측정한 센서값을 이용하여 현재 위치 및 자세를 측정하고, 측정된 현재 위치 및 자세를 항공제어부(360)에 제공한다. The
카메라부(340)는 영상을 촬영하기 위한 것이다. 이러한 카메라부(340)는 렌즈, 이미지센서 및 컨버터를 포함한다. 그 밖에, 소정의 필터 등이 카메라부(340)의 구성으로 더 포함될 수 있으며, 기구적으로, 렌즈, 이미지 센서 및 컨버터는 액추에이터(actuator)를 포함하는 하우징 내에 장착되고, 이러한 액추에이터를 구동시키는 드라이버 등이 카메라부(340)에 포함될 수 있다. 렌즈는 카메라부(340)에 입사되는 가시광선이 이미지 센서 상에 초점이 맺히도록 한다. 이미지 센서는 반도체소자의 제조기술을 이용하여 집적회로화된 광전변환소자이다. 이미지 센서는 예컨대, CCD(charge-coupled device) 이미지 센서 혹은 CMOS(complementary metal-oxide semiconductor) 이미지 센서가 될 수 있다. 이러한 이미지 센서는 가시광선을 감지하여 영상을 구성하는 아날로그 신호인 아날로그 영상 신호를 출력한다. 그러면, 컨버터는 아날로그 영상 신호를 영상을 구성하는 디지털 신호인 디지털 영상 신호로 변환하여 제어모듈(280)로 전달한다. The
또한, 카메라부(340)는 깊이 센서 혹은 3D 센서를 포함할 수 있다. 3D 센서는 비접촉 방식으로 영상의 각 픽셀에 대한 3차원 좌표를 획득하기 위한 센서이다. 카메라부(340)는 이미지 센서를 통해 이미지를 생성함과 동시에 3D 센서를 통해 촬영된 이미지의 각 픽셀에 대응하는 위치 정보(3차원 좌표)를 검출할 수 있다. 한다. 이에 따라, 3D 센서를 통해 각 이미지의 픽셀의 카메라부(340)의 기준점, 예컨대, 초점 혹은 주점으로부터 객체까지의 거리를 식별할 수 있다. 깊이 센서 혹은 3D 센서는 레이저, 적외선, 가시광 등을 이용하는 다양한 방식의 센서를 이용할 수 있다. 이러한 3D 센서는 TOP(Time of Flight), 위상변위(Phase-shift) 및 Online Waveform Analysis 중 어느 하나를 이용하는 레이저 방식 3차원 스캐너, 광 삼각법을 이용하는 레이저 방식 3차원 스캐너, 백색광 혹은 변조광을 이용하는 광학방식 3차원 스캐너, Handheld Real Time 방식의 PHOTO, 광학방식 3차원 스캐너, Pattern Projection 혹은 Line Scanning을 이용하는 광학방식, 레이저 방식 전신 스캐너, 사진 측량(Photogrammetry)을 이용하는 사진방식 스캐너, 키네틱(Kinect Fusion)을 이용하는 실시간(Real Time) 스캐너 등을 예시할 수 있다. In addition, the
항공저장부(350)는 무인항공기(300)의 동작에 필요한 각 종 데이터, 애플리케이션, 무인항공기(300)의 동작에 따라 발생된 각 종 데이터를 저장하기 위한 것이다. 이러한 항공저장부(350)는 메모리 등이 될 수 있다. 특히, 저장모듈(270)은 선택적으로, 무인항공기(300의 부팅(booting) 및 운영(operation)을 위한 운영체제(OS, Operating System), 본 발명의 실시예에 따른 좌표계를 생성하기 위한 애플리케이션을 저장할 수 있다. 항공저장부(350)에 저장되는 각 종 데이터는 사용자의 조작에 따라, 삭제, 변경, 추가될 수 있다. The
항공제어부(360)는 무인항공기(300)의 전반적인 동작 및 무인항공기(300)의 내부 블록들 간 신호 흐름을 제어하고, 데이터를 처리하는 데이터 처리 기능을 수행할 수 있다. 이러한 항공제어부(360)는 중앙 처리 장치(Central Processing Unit : CPU), 애플리케이션 프로세서(Application Processor), GPU(Graphic Processing Unit) 등이 될 수 있다. 이러한 항공제어부(360)의 동작은 아래에서 보다 상세하게 설명될 것이다. The
다음으로, 본 발명의 실시예에 따른 무인항공기를 이용한 증강현실을 제공하기 위한 방법에 대해서 설명하기로 한다. 도 5는 본 발명의 실시예에 따른 무인항공기를 이용한 증강현실을 제공하기 위한 방법에 대해서 설명하기 위한 흐름도이다. Next, a method for providing augmented reality using an unmanned aerial vehicle according to an embodiment of the present invention will be described. 5 is a flowchart illustrating a method for providing augmented reality using an unmanned aerial vehicle according to an embodiment of the present invention.
도 5를 참조하면, 사용자장치(100) 제어부(150)는 입력부(120) 혹은 표시부(130)를 통해 사용자의 조작을 입력 받고, S110 단계에서 무인항공기(300)에 대한 제어 명령을 통신부(110)를 통해 무인항공기(300)로 전송한다. 여기서, 제어 명령은 기준 지점(RP) 및 기준 지점(RP)을 기준으로 설정된 비행 궤도(FO)를 포함할 수 있다. Referring to FIG. 5, the
무인항공기(300)의 항공제어부(360)는 항공통신부(310)를 통해 이를 수신할 수 있다. 그러면, 항공제어부(360)는 수신된 제어 명령에 따라, S120 단계에서 비행부(320)를 제어하여 무인항공기(300)가 해당하는 기준 지점(RP)에 해당하는 상공으로 이동한 후, 기준 지점(RP)을 기준으로 제어 명령에 따라 설정된 비행 궤도(FO)로 기준 지점(RP) 상공을 비행한다. 이와 같이, 무인항공기(300)의 항공제어부(360)가 비행부(320)를 제어하여 무인항공기(300)가 기준 지점(RP)을 기준으로 설정된 비행 궤도(FO)로 기준 지점(RP) 상공을 비행할 때, 항공제어부(360)는 무인항공기(300)의 자세에 무관하게 카메라부(340)가 기준 지점(RP)을 지향하도록 제어한다. The
그런 다음, 항공제어부(360)는 S130 단계에서 센서부(330) 및 카메라부(340)를 통해 공간 정보를 수집한다. 여기서, 공간 정보는 영상 정보 및 센서 정보를 포함한다. 또한, 영상 정보는 항공제어부(360)가 카메라부(340)를 통해 촬영한 영상 및 카메라부(340)의 소정의 기준점(예컨대, 초점 혹은 주점)으로부터 촬영된 영상의 각 픽셀에 대응하는 실제 객체까지의 거리를 포함한다. 또한, 센서 정보는 각 영상을 촬영한 시점에 대응하며, 해당 시점에 센서부(330)를 통해 획득한 무인항공기(300)의 위치 정보(예컨대, GPS 좌표) 및 무인항공기(300) 및 무인항공기(300)의 카메라부(340)의 자세 정보(yaw, roll, pitch)를 포함한다. 여기서, 카메라부(340)의 자세 정보는 촬영 각도가 될 수 있다. Then, the
다음으로, 항공제어부(360)는 S140 단계에서 항공통신부(310)를 통해 공간 정보를 사용자장치(100)로 전송한다. Next, the
그러면, 사용자장치(100)의 제어부(150)는 S150 단계에서 통신부(110)를 통해 수신된 공간 정보를 이용하여 3차원 좌표계를 설정하고, 3차원 좌표계를 기준으로 기준 평면을 도출한다. 여기서, 3차원 좌표계는 촬영, 인식, 측정 등의 수단으로 확보한 공간 정보 및 센서 정보를 기초로 연산한 임의의 입체 좌표를 의미한다. 또한, 기준 평면은 3차원 좌표계에서의 x-y 평면(x-y plane)이며, 촬영된 영상에서 가장 낮은 위치의 기저 평면을 뜻한다. Then, the
이어서, 제어부(150)는 S160 단계에서 통신부(110)를 통해 데이터서버(200)에 접속하여, 실제 환경에 합성할 가상 모델을 로드한다. 보다 구체적으로 설명하면, 제어부(150)는 통신부(110)를 통해 데이터서버(200)에 접속하면, 데이터서버(200)의 제어모듈(230)은 저장모듈(220)에 저장된 가상 모델의 리스트를 추출하고, 통신모듈(210)을 통해 가상 모델의 리스트를 섬네일(thumb-nail) 형식으로 사용자장치(200)에 제공할 수 있다. 제어부(150)는 표시부(140)를 통해 가상 모델의 리스트를 표시할 수 있다. 이에 따라, 가상 모델의 리스트를 열람한 사용자가 어느 하나의 가상 모델을 선택하면, 제어부(150)는 통신부(110)를 통해 해당 가상 모델을 요청한다. 그러면, 데이터서버(200)의 제어모듈(230)은 통신모듈(210)을 통해 해당 가상 모델을 사용자장치(100)에 제공한다. Subsequently, the
다음으로, 제어부(150)는 S170 단계에서 무인항공기(300)가 촬영한 영상에 앞서(S150) 도출된 기준 평면을 기초로 가상 모델을 합성하고, 표시부(140)를 통해 표시할 수 있다. Next, the
전술한 바와 같이, 본 발명에 따르면, 공간 정보를 이용하여 3차원 좌표계를 생성하고, 3차원 좌표계를 기준으로 기준 평면을 도출하며, 도출된 기준 평면 상에 가상 모델을 합성한다. 그러면, 공간 정보를 이용하여 3차원 좌표계를 생성하는 방법에 대해서 보다 상세하게 설명하기로 한다. 도 6은 본 발명의 실시예에 따른 3차원 좌표계를 생성하는 방법을 설명하기 위한 흐름도이다. 도 7 내지 도 9는 본 발명의 실시예에 따른 3차원 좌표계를 생성하는 방법을 설명하기 위한 도면이다. As described above, according to the present invention, a 3D coordinate system is generated using spatial information, a reference plane is derived based on the 3D coordinate system, and a virtual model is synthesized on the derived reference plane. Then, a method of generating a 3D coordinate system using spatial information will be described in more detail. 6 is a flowchart illustrating a method of generating a 3D coordinate system according to an embodiment of the present invention. 7 to 9 are diagrams for explaining a method of generating a 3D coordinate system according to an embodiment of the present invention.
무인항공기(300)는 사용자로부터 사용자가 증강현실로 구현하고자 하는 촬영 지점까지 비행한다. 또한 카메라의 촬영 방향은 무인항공기(300)의 비행 방향이 아닌 촬영 지점을 향하게 된다. 따라서 무인항공기(300)는 촬영 지점의 주변 상공을 비행하게 된다. 도 7에 도시된 바와 같이, 무인항공기(300)는 현실 공간에 실재하는 나무를 중심으로 원을 그리는 비행 궤도(FO)로 비행하거나, 다른 비행 궤도에 따라 비행할 수 있다. 또한, 무인항공기(300)는 현실 공간에 실재하는 사물이 아닌 증강현실로 구현한 가상모델을 기준으로 하여 주변 상공을 비행할 수도 있다. 무인항공기(300)가 소정의 비행 궤도(FO)에 따라 비행하는 동안 무인항공기(300)의 자세와 별개로, 무인항공기(300)의 카메라부(340)는 항상 기준 지점을 지향한다. The unmanned
본 발명에 따르면, 상술한 방법과 같이 가상 모델을 합성하기 위해서는 3차원 좌표계를 생성해야 하고, 이를 위해서는 현실 공간의 평면을 검출해야 한다. 하지만, 현실 공간의 모든 영역을 추정할 수는 없으나, 사람이 만든 인공적인 구조물은 대부분 평면으로 이루어져 있으며, 구조물이 아니더라도 토목 공사 결과를 통해 평탄한 환경으로 공간을 재조성한다. 따라서 본 발명은 이러한 환경적 요인을 활용하여 평면과 3차원 좌표계를 생성한다. 이를 위하여, 제어부(150)는 무인항공기(300)가 수집한 공간 정보 중 촬영한 영상에서 그 픽셀값의 변화가 소정 범위 이내에서 변화하는 픽셀을 평면이라고 가정하고 실제 환경의 평면을 추출한다. 그리고 제어부(150)는 추출된 평면과 평행한 가상 평면을 포함하여 3차원 좌표계를 생성한다. According to the present invention, in order to synthesize a virtual model as described above, a 3D coordinate system must be created, and for this, a plane of real space must be detected. However, it is not possible to estimate all areas of the real space, but artificial structures made by man are mostly flat, and even if they are not structures, the space is reconstructed into a flat environment through the results of civil works. Therefore, the present invention creates a plane and a three-dimensional coordinate system by utilizing these environmental factors. To this end, the
도 6을 참조하면, 제어부(150)는 S210 단계에서 공간 정보로부터 적어도 실제 공간의 기준 지점(RP)을 포함하는 동일한 영역에 대해 무인항공기(300)의 자세 정보 및 카메라부(340)의 자세 정보 중 적어도 하나가 상이한 복수의 영상을 검출한다. Referring to FIG. 6, the
예컨대, 도 7을 참조하면, 전술한 바와 같이, 무인항공기(300)는 사용자장치(100)로부터 수신된 제어 명령에 따라 기준 지점(RP)을 기준으로 설정된 비행 궤도(FO)에 따라 기준 지점(RP) 상공을 비행한다. 이와 같이, 무인항공기(300)가 기준 지점(RP)을 기준으로 설정된 비행 궤도(FO)로 기준 지점(RP) 상공을 비행할 때, 카메라부(340)는 무인항공기(300)의 자세에 무관하게 기준 지점(RP)을 지향한다. 이러한 상태에서 촬영한 영상은 도 8의 (다), (라) 및 (마)와 같이, 기준 지점(RP)을 포함하는 동일한 실물 객체에 대해 촬영 각도가 상이하기 때문에 촬영한 영상 또한 상이하다. 즉, 도 8의 영상 (다), (라) 및 (마)는 기준 지점(RP)을 포함하는 동일한 영역에 대해 무인항공기(300)의 자세 정보 및 카메라부(340)의 자세 정보 중 적어도 하나가 상이하다. 따라서 제어부(150)는 무인항공기(300)로부터 수신된 공간 정보로부터 도 8의 영상 (다), (라) 및 (마)와 같이, 기준 지점(RP)을 포함하는 동일한 영역에 대해 무인항공기(300)의 자세 정보 및 카메라부(340)의 자세 정보 중 적어도 하나가 상이한 복수의 영상을 검출할 수 있다. For example, referring to FIG. 7, as described above, the unmanned
다음으로, 제어부(150)는 S220 단계에서 검출된 복수의 영상 각각에서 실제 공간에서 동일한 평면에 해당하는 복수의 특징점을 특정한다. 이러한 S220 단계에서 대해 보다 상세히 설명하면, 제어부(150)는 먼저, 영상의 픽셀값에 따라 특징점을 판별하기 위한 기준인 기준값을 설정한다. 이러한 기준값은 전체 픽셀 배열의 픽셀값의 변화율의 평균이 될 수 있다. 영상의 픽셀값 중 인접한 두 픽셀 사의의 픽셀값의 변화가 전체 픽셀 배열의 픽셀값의 변화율의 평균 보다 큰 지점이 있다. 제어부(150)는 전체 픽셀 배열의 픽셀값의 변화율의 평균 보다 인접한 두 픽셀 사의의 픽셀값의 변화가 큰 지점, 즉, 픽셀값이 급격하게 변화하는 픽셀을 분리된 별개의 평면 사이의 경계 지점으로 판별할 수 있다. 또한, 영상의 픽셀값 중 인접한 두 픽셀 사이의 변화가 전체 픽셀 배열의 픽셀값의 변화율의 평균 보다 작은 지점이 있다. 제어부(150)는 전체 픽셀 배열의 픽셀값의 변화율의 평균 보다 픽셀값의 변화가 작은 지점, 즉, 픽셀값이 완만하게 변화하는 픽셀들을 동일한 평면으로 판별할 수 있다. 이에 따라, 제어부(150)는 평면을 검출하기 위하여, 전체 픽셀 배열의 픽셀값의 변화율의 평균 보다 픽셀값이 변화가 작은 복수의 픽셀을 복수의 특징점으로 특정한다. 예컨대, 도 8의 (다), (라) 및 (마)의 B, C, B', C', B", C" 등이 특징점이 될 수 있다. Next, the
한편, 제어부(150)는 지리적 요인 및 환경적 요인 중 적어도 하나에 따라 특징점을 판별하기 위한 기준인 기준값을 보정할 수 있다. 즉, 예컨대, 회색 빌딩 숲이나 푸른 임야 등과 같이 유사한 색이 대부분인 영역에서는 픽셀값 변화율의 평균을 기준값으로 사용하는 것이 아니라, 그 기준값을 보정하여 사용할 수 있다. 또한, 제어부(150)는 영상 정보 중 카메라부(340)의 소정의 기준점(예컨대, 초점 혹은 주점)으로부터 촬영된 영상의 각 픽셀에 대응하는 실제 객체까지의 거리를 이용하여 동일한 평면에 해당하는 복수의 특징점을 추출할 수 있다. Meanwhile, the
다음으로, 제어부(150)는 S230 단계에서 복수의 특징점으로부터 특징점 간의 상대 거리와 각도인 특징점 벡터를 구하여 복수의 평면을 특정하며, 특정된 복수의 평면을 기초로 3차원 좌표계를 생성한다. Next, in step S230, the
즉, 촬영 각도가 변화함에 따라, 실제 공간에서의 거리와 각도는 변화하지 않지만, 촬영된 결과의 2차원적 배열 상으로는 특징점 간의 상대 거리와 각도인 특징점 벡터가 변화한다. 평면 상에 존재하는 두 개 이상의 특징점 벡터의 변화율을 통해 평면을 구성할 수 있다. 이는 평면의 결정조건 가운데 하나인 두 직선이 서로 만나거나 평행해야 하는 점을 이용하는 것이다. That is, as the photographing angle changes, the distance and angle in the actual space do not change, but the feature point vector, which is the relative distance and angle between the feature points, changes on the two-dimensional arrangement of the photographed results. A plane can be configured through the rate of change of two or more feature point vectors existing on the plane. This is to use the point where two straight lines, one of the crystal conditions of the plane, must meet or be parallel to each other.
이와 같이, 생성한 3차원 좌표계는 실 사용자에게 보여지는 정보가 아니라, 사용자가 가상모델을 설치할 수 있도록 기준 평면을 설정하고, 거리에 비례하여 가상모델의 크기를 조절한다거나, 가상모델의 배치각도를 조절할 때 판단하기 위해 가상으로 설정되는 것이다. 이와 같이, 설정된 3차원 좌표계(CO)가 도 9에 도시되었다. 이에 따라, 사용자장치(100)의 제어부(150)는 도 9에 도시된 바와 같은 3차원 좌표계(CO)로부터 기준 평면(PL)을 도출할 수 있으며, 이러한 기준 평면 상에 가상 모델을 합성할 수 있다. In this way, the generated 3D coordinate system is not information displayed to real users, but rather sets the reference plane so that the user can install the virtual model, adjusts the size of the virtual model in proportion to the distance, or adjusts the arrangement angle of the virtual model. It is set virtually to judge when adjusting. As described above, the set three-dimensional coordinate system CO is shown in FIG. 9. Accordingly, the
한편, 전술한 데이터서버(200)의 구성 및 기능 중 일부 혹은 전부는 사용자장치(100) 및 무인항공기(300) 중 적어도 하나에 분산하여 구현될 수 있다. 일례로, 데이터서버(200)의 저장모듈(220)에 저장된 가상 모델은 사용자장치(100)의 저장부(140)에 저장되거나, 무인항공기(300)의 항공저장부(350)에 저장될 수 있다. Meanwhile, some or all of the configurations and functions of the
한편, 앞서 설명된 본 발명의 실시예에 따른 방법은 다양한 컴퓨터수단을 통하여 판독 가능한 프로그램 형태로 구현되어 컴퓨터로 판독 가능한 기록매체에 기록될 수 있다. 여기서, 기록매체는 프로그램 명령, 데이터 파일, 데이터구조 등을 단독으로 또는 조합하여 포함할 수 있다. 기록매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 예컨대 기록매체는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광 기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치를 포함한다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어를 포함할 수 있다. 이러한 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다. Meanwhile, the method according to the embodiment of the present invention described above may be implemented in the form of a program that can be read through various computer means and recorded on a computer-readable recording medium. Here, the recording medium may include a program command, a data file, a data structure, or the like alone or in combination. The program instructions recorded on the recording medium may be specially designed and configured for the present invention, or may be known and usable to those skilled in computer software. For example, the recording medium includes magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic-optical media such as floptical disks ( magneto-optical media), and hardware devices specially configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions may include not only a machine language such as that produced by a compiler but also a high-level language that can be executed by a computer using an interpreter or the like. These hardware devices may be configured to operate as one or more software modules to perform the operation of the present invention, and vice versa.
이상 본 발명을 몇 가지 바람직한 실시예를 사용하여 설명하였으나, 이들 실시예는 예시적인 것이며 한정적인 것이 아니다. 이와 같이, 본 발명이 속하는 기술분야에서 통상의 지식을 지닌 자라면 본 발명의 사상과 첨부된 특허청구범위에 제시된 권리범위에서 벗어나지 않으면서 균등론에 따라 다양한 변화와 수정을 가할 수 있음을 이해할 것이다. The present invention has been described above using several preferred embodiments, but these embodiments are illustrative and not limiting. As such, those of ordinary skill in the art to which the present invention pertains will understand that various changes and modifications can be made according to the equivalence theory without departing from the spirit of the present invention and the scope of the rights presented in the appended claims.
100: 사용자장치 110: 통신부
120: 입력부 130: 표시부
140: 저장부 150: 제어부
200: 데이터서버 210: 통신모듈
220: 저장모듈 230: 제어모듈
300: 무인항공기 310: 항공통신부
320: 비행부 330: 센서부
340: 카메라부 350: 항공저장부
360: 항공제어부 100: user device 110: communication unit
120: input unit 130: display unit
140: storage unit 150: control unit
200: data server 210: communication module
220: storage module 230: control module
300: unmanned aerial vehicle 310: Ministry of Aviation and Communication
320: flight unit 330: sensor unit
340: camera unit 350: aviation storage unit
360: flight control unit
Claims (6)
화면을 표시하기 위한 표시부;
카메라부를 포함하는 무인항공기와의 통신 및 데이터서버와의 통신을 위한 통신부; 및
상기 통신부를 통해 상기 무인항공기로 기준 지점 및 상기 기준 지점을 기준으로 설정된 비행 궤도를 포함하는 제어 명령을 전송하고,
상기 통신부를 통해 상기 무인항공기로부터 상기 무인항공기가 상기 기준 지점을 기준으로 설정된 비행 궤도를 비행하며 촬영한 영상을 포함하는 공간 정보를 수신하고,
공간 정보를 이용하여 3차원 좌표계를 설정하고,
설정된 3차원 좌표계로부터 기준 평면을 도출한 후,
도출된 기준 평면 상에 가상 모델을 합성하여
상기 표시부를 통해 표시하도록 제어하는 제어부;를 포함하며,
상기 제어부는
상기 공간 정보로부터 상기 무인항공기의 자세 정보 및 상기 카메라부의 자세 정보 중 적어도 하나가 상이한 복수의 영상을 검출하고,
상기 검출된 복수의 영상 각각에서 복수의 특징점을 특정하고,
상기 복수의 특징점으로부터 특징점 간의 상대 거리와 각도인 특징점 벡터를 구하여 복수의 평면을 특정하고,
특정된 복수의 평면을 기초로 상기 3차원 좌표계를 생성하는 것을 특징으로 하는
증강현실을 제공하기 위한 장치. In an apparatus for providing augmented reality using an unmanned aerial vehicle,
A display unit for displaying a screen;
A communication unit for communication with an unmanned aerial vehicle including a camera unit and communication with a data server; And
Transmitting a control command including a reference point and a flight trajectory set based on the reference point to the unmanned aerial vehicle through the communication unit,
Through the communication unit, the unmanned aerial vehicle receives spatial information including an image photographed while the unmanned aerial vehicle flies in a flight trajectory set based on the reference point,
Set up a three-dimensional coordinate system using spatial information,
After deriving the reference plane from the set 3D coordinate system,
By synthesizing a virtual model on the derived reference plane
Includes; a control unit for controlling to be displayed through the display unit,
The control unit
Detecting a plurality of images in which at least one of the attitude information of the unmanned aerial vehicle and the attitude information of the camera unit are different from the spatial information,
Specifying a plurality of feature points in each of the plurality of detected images,
A plurality of planes are specified by obtaining a feature point vector that is a relative distance and angle between feature points from the plurality of feature points,
Characterized in that generating the three-dimensional coordinate system based on a plurality of specified planes
A device for providing augmented reality.
상기 공간 정보는
상기 무인항공기의 카메라부가 촬영한 영상 및 상기 카메라부의 소정의 기준점으로부터 촬영된 영상의 각 픽셀에 대응하는 실제 객체까지의 거리를 포함하는 영상 정보; 및
상기 영상을 촬영한 시점에 대응하며, 상기 시점에 상기 무인항공기의 센서부를 통해 획득한 무인항공기의 위치 정보와, 상기 무인항공기의 자세 정보 및 상기 카메라부의 자세 정보를 포함하는 센서 정보;를 포함하는 것을 특징으로 하는
증강현실을 제공하기 위한 장치. The method of claim 1,
The above spatial information is
Image information including an image captured by the camera unit of the unmanned aerial vehicle and a distance from a predetermined reference point of the camera unit to an actual object corresponding to each pixel of the image captured by the camera unit; And
Comprising: sensor information corresponding to a point in time at which the image is captured and including position information of the unmanned aerial vehicle obtained through the sensor unit of the unmanned aerial vehicle at the point in time, attitude information of the unmanned aerial vehicle, and attitude information of the camera unit; Characterized by
A device for providing augmented reality.
상기 제어부는
상기 영상의 전체 픽셀 배열의 픽셀값의 변화율의 평균 보다 픽셀값이 변화가 작은 복수의 픽셀을 복수의 특징점으로 특정하는 것을 특징으로 하는
증강현실을 제공하기 위한 장치. The method of claim 1,
The control unit
Characterized in that a plurality of pixels having a smaller change in pixel value than an average of a rate of change of pixel values of the entire pixel array of the image are specified as a plurality of feature points
A device for providing augmented reality.
카메라부를 포함하는 무인항공기로 기준 지점 및 상기 기준 지점을 기준으로 설정된 비행 궤도를 포함하는 제어 명령을 전송하는 단계;
상기 무인항공기로부터 상기 무인항공기가 상기 기준 지점을 기준으로 설정된 비행 궤도를 비행하며 촬영한 영상을 포함하는 공간 정보를 수신하는 단계;
상기 공간 정보를 이용하여 3차원 좌표계를 설정하고, 설정된 3차원 좌표계로부터 기준 평면을 도출하는 단계; 및
상기 도출된 기준 평면 상에 가상 모델을 합성하여 표시하는 단계;를 포함하며,
상기 기준 평면을 도출하는 단계는
상기 공간 정보로부터 상기 무인항공기의 자세 정보 및 상기 카메라부의 자세 정보 중 적어도 하나가 상이한 복수의 영상을 검출하는 단계;
상기 검출된 복수의 영상 각각에서 복수의 특징점을 특정하는 단계;
상기 복수의 특징점으로부터 특징점 간의 상대 거리와 각도인 특징점 벡터를 구하여 복수의 평면을 특정하는 단계;
상기 특정된 복수의 평면을 기초로 상기 3차원 좌표계를 생성하는 단계;를 포함하는 것을 특징으로 하는
증강현실을 제공하기 위한 방법. In a method for providing augmented reality using an unmanned aerial vehicle,
Transmitting a control command including a reference point and a flight trajectory set based on the reference point to an unmanned aerial vehicle including a camera unit;
Receiving spatial information including an image captured by the unmanned aerial vehicle while flying in a flight trajectory set based on the reference point from the unmanned aerial vehicle;
Setting a 3D coordinate system using the spatial information and deriving a reference plane from the set 3D coordinate system; And
Comprising and displaying a virtual model on the derived reference plane; Including,
The step of deriving the reference plane is
Detecting a plurality of images in which at least one of the attitude information of the unmanned aerial vehicle and the attitude information of the camera unit are different from the spatial information;
Specifying a plurality of feature points in each of the plurality of detected images;
Specifying a plurality of planes by obtaining a feature point vector, which is a relative distance and angle between feature points from the plurality of feature points;
And generating the three-dimensional coordinate system based on the specified plurality of planes.
A method for providing augmented reality.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190008393A KR102204435B1 (en) | 2019-01-22 | 2019-01-22 | Apparatus for providing an augmented reality using unmanned aerial vehicle, method thereof and computer recordable medium storing program to perform the method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190008393A KR102204435B1 (en) | 2019-01-22 | 2019-01-22 | Apparatus for providing an augmented reality using unmanned aerial vehicle, method thereof and computer recordable medium storing program to perform the method |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200091292A KR20200091292A (en) | 2020-07-30 |
KR102204435B1 true KR102204435B1 (en) | 2021-01-18 |
Family
ID=71839126
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190008393A KR102204435B1 (en) | 2019-01-22 | 2019-01-22 | Apparatus for providing an augmented reality using unmanned aerial vehicle, method thereof and computer recordable medium storing program to perform the method |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102204435B1 (en) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20170138225A (en) * | 2016-06-07 | 2017-12-15 | 조건희 | The real time national imagery intelligence system or method based on the drone which hovering or surveillance flight around the drone docking station |
KR101955368B1 (en) * | 2016-06-08 | 2019-03-08 | (주)코아텍 | System for providing virtual drone stadium using augmented reality and method thereof |
KR102330829B1 (en) | 2017-03-27 | 2021-11-24 | 삼성전자주식회사 | Method and apparatus for providing augmented reality function in electornic device |
-
2019
- 2019-01-22 KR KR1020190008393A patent/KR102204435B1/en active IP Right Grant
Also Published As
Publication number | Publication date |
---|---|
KR20200091292A (en) | 2020-07-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11797009B2 (en) | Unmanned aerial image capture platform | |
US11263761B2 (en) | Systems and methods for visual target tracking | |
CN111448476B (en) | Technique for sharing mapping data between unmanned aerial vehicle and ground vehicle | |
US11127202B2 (en) | Search and rescue unmanned aerial system | |
CN108351649B (en) | Method and apparatus for controlling a movable object | |
JP6496323B2 (en) | System and method for detecting and tracking movable objects | |
US11644839B2 (en) | Systems and methods for generating a real-time map using a movable object | |
CN107168352B (en) | Target tracking system and method | |
Kim et al. | Feasibility of employing a smartphone as the payload in a photogrammetric UAV system | |
CN113196197A (en) | Movable object performing real-time map building using payload components | |
JP6765512B2 (en) | Flight path generation method, information processing device, flight path generation system, program and recording medium | |
US10228691B1 (en) | Augmented radar camera view for remotely operated aerial vehicles | |
KR20210104684A (en) | Surveying and mapping systems, surveying and mapping methods, devices and instruments | |
US20180275659A1 (en) | Route generation apparatus, route control system and route generation method | |
US20200012756A1 (en) | Vision simulation system for simulating operations of a movable platform | |
US11320817B2 (en) | Target-based image exposure adjustment | |
WO2019230604A1 (en) | Inspection system | |
JP2018205264A (en) | Image processor, method for processing image, and image processing program | |
KR102204435B1 (en) | Apparatus for providing an augmented reality using unmanned aerial vehicle, method thereof and computer recordable medium storing program to perform the method | |
WO2022188151A1 (en) | Image photographing method, control apparatus, movable platform, and computer storage medium | |
KR20210106422A (en) | Job control system, job control method, device and instrument | |
WO2022056683A1 (en) | Field of view determination method, field of view determination device, field of view determination system, and medium | |
WO2020225979A1 (en) | Information processing device, information processing method, program, and information processing system | |
CN110192161B (en) | Method and system for operating a movable platform using ray casting mapping | |
JP2015042201A (en) | Terminal device, method for outputting sky-map information, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E90F | Notification of reason for final refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |