KR101840820B1 - Method for generating 3-dementional augmented reality flight video - Google Patents
Method for generating 3-dementional augmented reality flight video Download PDFInfo
- Publication number
- KR101840820B1 KR101840820B1 KR1020160125055A KR20160125055A KR101840820B1 KR 101840820 B1 KR101840820 B1 KR 101840820B1 KR 1020160125055 A KR1020160125055 A KR 1020160125055A KR 20160125055 A KR20160125055 A KR 20160125055A KR 101840820 B1 KR101840820 B1 KR 101840820B1
- Authority
- KR
- South Korea
- Prior art keywords
- information
- flight
- image
- route
- aerial vehicle
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B15/00—Special procedures for taking photographs; Apparatus therefor
- G03B15/006—Apparatus mounted on flying objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
Abstract
Description
본 발명은 무인 비행체의 3차원 증강 현실 비행 영상을 생성하는 방법, 제어 단말 및 서버에 관한 것이다.The present invention relates to a method for generating a 3D ARF image of a UAV, a control terminal and a server.
드론(Drone)은 무선전파의 유도에 의해서 비행 및 조종이 가능한 무인 비행체이다. 처음에는 군사용으로 주로 이용되었으나, 현재는 스포츠 중계부터 재해 현장 촬영, 탐사 보도, 배달 서비스 등의 다양한 산업분야에서 활용되고 있으며, 상업용 드론 시장이 매우 빠른 속도로 커지고 있다.Drone is a unmanned aerial vehicle that can fly and steer by induction of radio wave. At first, it was mainly used for military use, but nowadays it is used in various industrial fields such as sports relay, disaster scene shooting, exploration report, delivery service, and commercial drone market is growing very rapidly.
2015년 백악관 앞마당에 드론이 불시착하고, 국내 촬영팀이 조종하던 드론이 두오모 성당에 충돌하는 등의 사고가 발생하며 드론을 비행함으로 인한 안전에 대한 이슈가 크게 부각되었다.In 2015, the drones landed in the front yard of the White House, the drones controlled by the national shooting team collided with the Duomo Cathedral, and the safety issues arising from flying the drones came to light.
드론은 가시거리 내에서는 육안을 통해 제어가 가능하나 육안으로 확인할 수 있는 거리가 매우 짧고(평균 500m), 드론과 조종사의 시야 불일치 및 조종사의 비행 착각으로 인하여 사고 위험성이 큰 문제점이 있다.The drones are visually controllable within the visible range, but the visible distance is very short (500m on average) and there is a high risk of accidents due to the mismatch of sight between the drone and the pilot and the illusion of the pilot.
이러한 문제점을 해결하기 위하여 드론 관점의 1인칭 시점을 보여주는 FPV(First Person View) 시스템이 도입되었다. 종래의 PV 시스템은 드론의 전면부에 부착된 카메라에서 촬영되는 영상을 송출하고, 수신기가 부착된 디스플레이 화면을 통해 도 7과 같은 드론 시점의 영상을 제공받을 수 있다.To solve these problems, FPV (First Person View) system, which shows the first person viewpoint of the drone viewpoint, has been introduced. The conventional PV system transmits an image photographed by a camera attached to a front part of a drone and receives an image of a drones view as shown in FIG. 7 through a display screen with a receiver.
종래의 FPV는 실제 드론에 탑승하여 비행하는 듯한 몰입감과 현장감을 줄 수 있어 드론 레이싱이나 게임 등 엔터테인먼트 영역에서 드론의 성장을 이끌고 있으며, 산업용 드론의 원거리 임무를 수행하기 위한 필수 시스템으로 주목받고 있다. Conventional FPV has been attracting attention as an essential system to perform the duties of industrial drones in the field of entertainment, such as drone racing and games, because it is able to give immersive and realistic feeling as if flying on actual drone.
하지만, 종래의 FPV 시스템은 전면부 카메라에서 송출되는 영상만을 그대로 보여주거나 영상위에 단순한 수치정보를 보여주는 방식으로 제공되고 있어, 비행에 있어 꼭 필용한 정보(고도, 위치, 속도 등)를 확인하는 것이 매우 어렵다. 따라서, 드론의 비행 중 조종사의 정보 인지 능력 부족으로 야기되는 비행체의 추락이나 충돌사고의 가능성이 여전히 높다는 문제점이 있다.However, the conventional FPV system is provided in such a manner that only the image transmitted from the front-side camera is displayed as it is or a simple numerical information is displayed on the image, so that it is necessary to confirm the information (altitude, position, speed, etc.) It is very difficult. Therefore, there is a problem that the probability of a collision or collision of a flight caused by a lack of information or ability of the pilot during the flight of the drones is still high.
또한, 종래의 FPV 시스템은 단순히 전면부 카메라에서 송출되는 영상만을 그대로 보여주고 있을 뿐, 자율 주행을 위한 경로를 탐색하는 기능은 제공하고 있지 않다.In addition, the conventional FPV system merely shows images transmitted from the front-end camera as it is, but does not provide a function of searching for a path for autonomous travel.
잠시, 도 4를 참조하여 종래의 유인 항공기의 비행 영상(HUD; Head Up Display)에 대해 설명하기로 한다. A brief description will now be made of a conventional HUD (Head Up Display) of a manned aircraft with reference to FIG.
종래의 유인 항공기의 비행 영상에는 항공기 자세(예컨대, Pitch, Roll 및 Yaw), 비행 방향(Heading) 및 상승 속도와 같은 조종사가 가장 집중을 많이 해야 하는 정보들(Primary Flight Information)이 주로 화면 정 가운데에 위치하였다.The conventional flight information of the manned aircraft includes information such as the aircraft attitude (for example, pitch, roll and yaw), flight direction (heading) Respectively.
또한, 항공 경로, 웨이포인트(Waypoint) 등 항공기의 자세 및 제어와 무관한 정보들(Navigation information)은 HUD에 표현되지 않아 주로 제2의 디스플레이에 이원화 하여 조종사에게 정보 제공하였다.In addition, the aircraft 's attitude and navigation information, such as flight path and waypoint, were not represented in the HUD and were mainly provided to the pilot on the second display.
이와 같이, 유인 항공기의 경우 조종사가 전방의 시야 확보에 유리하므로, 도 4의 비행 영상과 같이 정보의 군집화 및 이원화가 가능하였다.As described above, in the case of the manned aircraft, the pilot is advantageous in securing the view of the forward direction, so clustering and binarization of information are possible like the flight image of FIG.
하지만 무인 비행기의 경우, 원격 조종 환경 하에서 조종이 이루어지기 때문에 조종사의 시야 확보가 어려워 종래의 비행 영상과 같이 정보의 군집화 및 이원화가 어려운 문제점이 있다.However, in the case of the unmanned airplane, it is difficult to secure the view of the pilot because the pilot is operated under the remote control environment, so that it is difficult to cluster and diversify the information as in the conventional flight image.
본 발명은 상술한 문제점을 해결하고자 하는 것으로, 드론의 안전, 편의, 효율적인 비행을 위한 3차원 증강 현실 비행 영상을 제공하는 방법 및 최적 경로 탐색 서버 및 시스템을 제공하고자 한다. 다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.SUMMARY OF THE INVENTION It is an object of the present invention to provide a method and an optimal path search server and system for providing 3D augmented reality flight images for safety, convenience, and efficient flight of a drones. It is to be understood, however, that the technical scope of the present invention is not limited to the above-described technical problems, and other technical problems may exist.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 일 실시예는 무인 비행체의 최적 경로를 탐색하는 최적 경로 탐색 서버에 있어서, 상기 무인 비행체를 제어하는 제어 단말로부터 도착지의 위치 정보 및 무인 비행체의 기체 정보를 수신하는 운항 정보 수신부, 상기 도착지의 위치 정보, 상기 무인 비행체의 기체 정보, 환경 정보에 기초하여 출발지로부터 상기 도착지까지의 최적 경로를 탐색하는 최적 경로 탐색부, 상기 무인 비행체로부터 상기 무인 비행체가 촬영하는 비행 영상 및 비행 정보를 수신하는 비행 정보 수신부, 상기 최적 경로, 상기 기체 정보 및 상기 비행 정보에 기초하여 비행 정보 영상을 생성하는 비행 정보 영상 생성부, 상기 비행 영상 위에 상기 생성된 비행 정보 영상을 오버레이하여 3차원 증강 현실 비행 영상을 생성하는 증강 현실 비행 영상 생성부 및 상기 3차원 증강 현실 비행 영상을 상기 제어 단말로 전송하는 증강 현실 비행 영상 전송부를 포함하고, 상기 기체 정보는 상기 무인 비행체의 임무 정보를 포함하고, 비행 정보 영상은 상기 무인 비행체의 임무 정보에 따라 상이하게 구성되는 것인, 최적 경로 탐색 서버를 제공할 수 있다.According to an aspect of the present invention, there is provided an optimal route search server for searching an optimal route of an unmanned aerial vehicle, comprising: a control terminal controlling the unmanned air vehicle, An optimal route search unit for searching for an optimal route from a departure location to the destination based on the location information of the destination, the gas information of the unmanned air vehicle, and the environment information, A flight information generating unit for generating a flight information image based on the optimum route, the gas information, and the flight information, a flight information generating unit for generating a flight information image on the flight image, The 3D image is overlaid on the 3D image, And an augmented reality flight image transmitter for transmitting the 3D augmented reality flight image to the control terminal, wherein the airframe information includes mission information of the unmanned aerial vehicle, Wherein the navigation server is configured differently according to mission information of the unmanned aerial vehicle.
또한, 본 발명의 다른 실시예는 최적 경로 탐색 서버에서 수행되는 3차원 증강 현실 비행 영상을 생성하는 방법에 있어서, 상기 무인 비행체를 제어하는 제어 단말로부터 도착지의 위치 정보 및 무인 비행체의 기체 정보를 수신하는 단계, 상기 도착지의 위치 정보, 상기 무인 비행체의 기체 정보, 환경 정보에 기초하여 출발지로부터 상기 도착지까지의 최적 경로를 탐색하는 단계, 상기 무인 비행체로부터 상기 무인 비행체가 촬영하는 비행 영상 및 비행 정보를 수신하는 단계, 상기 최적 경로, 상기 기체 정보 및 상기 비행 정보에 기초하여 비행 정보 영상을 생성하는 단계, 상기 비행 영상 위에 상기 생성된 비행 정보 영상을 오버레이하여 3차원 증강 현실 비행 영상을 생성하는 단계 및 상기 3차원 증강 현실 비행 영상을 상기 제어 단말로 전송하는 단계를 포함하고, 상기 기체 정보는 상기 무인 비행체의 임무 정보를 포함하고, 비행 정보 영상은 상기 무인 비행체의 임무 정보에 따라 상이하게 구성되는 것인, 3차원 증강 현실 비행 영상 생성 방법을 제공할 수 있다.According to another aspect of the present invention, there is provided a method for generating a 3D ARF image performed by an optimal route search server, the method comprising the steps of: receiving position information of a destination and information of an unmanned aerial vehicle from a control terminal controlling the unmanned aerial vehicle Searching for an optimal route from the departure point to the destination based on the position information of the destination, the gas information of the unmanned air vehicle, and the environment information, searching for an optimal route from the unmanned air vehicle, Generating a flight information image based on the optimal route, the airframe information, and the flight information, generating a 3D ARF image by overlaying the generated flight information image on the flight image, And transmitting the 3D augmented reality flight image to the control terminal Wherein the gas information includes mission information of the unmanned aerial vehicle and the flight information image is configured differently according to mission information of the unmanned aerial vehicle .
전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 드론의 안전, 편의, 효율적인 비행을 위한 3차원 증강 현실 비행 영상을 제공하는 방법, 최적 경로 탐색 서버 및 시스템을 제공할 수 있다.According to any one of the above-described objects of the present invention, it is possible to provide a method, an optimal path search server, and a system for providing a 3D augmented reality flight image for safety, convenience, and efficient flight of a drones.
도 1은 본 발명의 일 실시예에 따른 무인 비행체 제어 시스템의 구성도이다.
도 2는 본 발명의 일 실시예에 따른 최적 경로 탐색 서버의 구성도이다.
도 3은 본 발명의 일 실시예에 따른 증강 현실 비행 영상을 도시한 도면이다.
도 4는 종래의 유인 비행체의 조종을 위한 비행 영상을 도시한 도면이다.
도 5는 본 발명의 일 실시예에 따른 3차원 증강 현실 비행 영상을 생성하는 방법을 나타낸 흐름도이다.1 is a configuration diagram of an unmanned aerial vehicle control system according to an embodiment of the present invention.
2 is a configuration diagram of an optimal path search server according to an embodiment of the present invention.
3 is a diagram illustrating an augmented reality flight image according to an embodiment of the present invention.
4 is a view showing a flight image for a conventional manned vehicle.
5 is a flowchart illustrating a method of generating a 3D ARF according to an exemplary embodiment of the present invention.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, which will be readily apparent to those skilled in the art. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In order to clearly illustrate the present invention, parts not related to the description are omitted, and similar parts are denoted by like reference characters throughout the specification.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미하며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. Throughout the specification, when a part is referred to as being "connected" to another part, it includes not only "directly connected" but also "electrically connected" with another part in between . Also, when an element is referred to as "including" an element, it is to be understood that the element may include other elements as well as other elements, And does not preclude the presence or addition of one or more other features, integers, steps, operations, components, parts, or combinations thereof.
본 명세서에 있어서 '부(部)'란, 하드웨어에 의해 실현되는 유닛(unit), 소프트웨어에 의해 실현되는 유닛, 양방을 이용하여 실현되는 유닛을 포함한다. 또한, 1 개의 유닛이 2 개 이상의 하드웨어를 이용하여 실현되어도 되고, 2 개 이상의 유닛이 1 개의 하드웨어에 의해 실현되어도 된다.In this specification, the term " part " includes a unit realized by hardware, a unit realized by software, and a unit realized by using both. Further, one unit may be implemented using two or more hardware, or two or more units may be implemented by one hardware.
본 명세서에 있어서 단말 또는 디바이스가 수행하는 것으로 기술된 동작이나 기능 중 일부는 해당 단말 또는 디바이스와 연결된 서버에서 대신 수행될 수도 있다. 이와 마찬가지로, 서버가 수행하는 것으로 기술된 동작이나 기능 중 일부도 해당 서버와 연결된 단말 또는 디바이스에서 수행될 수도 있다.In this specification, some of the operations or functions described as being performed by the terminal or the device may be performed in the server connected to the terminal or the device instead. Similarly, some of the operations or functions described as being performed by the server may also be performed on a terminal or device connected to the server.
이하 첨부된 도면을 참고하여 본 발명의 일 실시예를 상세히 설명하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 일 실시예에 따른 무인 비행체 제어 시스템의 구성도이다. 도 1을 참조하면, 무인 비행체 제어 시스템은 최적 경로 탐색 서버(100) 및 제어 단말(110)을 포함할 수 있다. 또한 무인 비행체 제어 시스템은 무인 비행체(120)를 더 포함할 수도 있다.1 is a configuration diagram of an unmanned aerial vehicle control system according to an embodiment of the present invention. Referring to FIG. 1, an unmanned aerial vehicle control system may include an optimal
최적 경로 탐색 서버(100), 제어 단말(110) 및 무인 비행체(120)는 네트워크를 통해 통신할 수 있다. 네트워크는 단말들 및 서버들과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 이러한 네트워크(120)의 일 예에는 인터넷(Internet), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network), 3G, LTE(Long Term Evolution), WiFi(Wireless Fidelity), WiMAX(World Interoperability for Microwave Access), WiGig(Wireless Gigabit) 등이 포함되나 이에 한정되지는 않는다.The optimal
무인 비행체(120)는 조종사 없이 원격으로 조종 가능한 비행이 가능한 무인 항공기(UAV, unmanned aerial vehicle)로서, 영상 촬영을 위한 촬영 모듈을 구비하고 있다. 또한, 무인 비행체(120)는 요(Yaw), 피치(Pitch), 롤(Roll)로 정의되는 회전운동상태를 측정하기 위한 3축 자이로센서(Gyroscopes), 3축 가속도센서(Accelerometers), 3축 지자기센서(Magnetometers)가 구비하고 있다. 또한, 무인 비행체(120)는 병진운동상태를 측정하기 위한 GPS 모듈과 기압 센서(Barometric Pressure Sensor)가 구비하고 있다.The unmanned
무인 비행체(120)는 최적 경로 탐색 서버(100) 또는 제어 단말(110)로부터 최적 경로를 포함하는 운항 정보를 수신할 수 있다. 무인 비행체(120)는 최적 경로에 기초하여 비행할 수 있다. 무인 비행체(120)는 무인 비행체(120)의 카메라를 통해 촬영된 비행 영상 및 비행 정보를 최적 경로 탐색 서버(100)로 전송할 수 있다.The UAV 120 may receive flight information including an optimal route from the optimal
제어 단말(110)의 일예는 휴대성과 이동성이 보장되는 무선 통신 장치로서, PCS(Personal Communication System), GSM(Global System for Mobile communications), PDC(Personal Digital Cellular), PHS(Personal Handyphone System), PDA(Personal Digital Assistant), IMT(International Mobile Telecommunication)-2000, CDMA(Code Division Multiple Access)-2000, W-CDMA(W-Code Division Multiple Access), Wibro(Wireless Broadband Internet) 단말, 스마트폰(smartphone), 스마트패드(smartpad), 태블릿 PC, VR(Virtual Reality) 기기, HMD(Head Mounted Display) 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치가 포함될 수 있다.One example of the
제어 단말(110)은 드론을 제어할 수 있다. 예를 들어, 제어 단말(110)은 도착지의 위치 정보 및 무인 비행체의 기체 정보를 최적 경로 탐색 서버(100)로 전송하여, 도착지의 위치 정보, 무인 비행체의 기체 정보 및 환경 정보에 기초하여 출발지로부터 도착지까지의 최적 경로를 요청할 수 있다. 이와 달리, 제어 단말(110)이 직접 드론의 경로를 탐색 및 결정할 수도 있다.The
제어 단말(110)은 최적 경로 탐색 서버(100)로부터 3차원 증강 현실 비행 영상을 수신하여 출력할 수 있다. 제어 단말(110)은 3차원 증강 현실 비행 영상을 통해 무인 비행체(120)를 제어할 수 있다.The
최적 경로 탐색 서버(100)는 드론의 비행 경로를 탐색 및 결정할 수 있다. 예를 들면, 제어 단말(110)로부터 도착지의 위치 정보 및 무인 비행체(120)의 기체 정보를 수신하여, 도착지의 위치 정보, 무인 비행체(120)의 기체 정보 및 환경 정보에 기초하여 출발지로부터 도착지까지의 최적 경로를 탐색할 수 있다.The optimal
최적 경로 탐색 서버(100)는 최적 경로를 포함하는 운항 정보를 제어 단말(110) 또는 무인 비행체(120)로 전송하여 무인 비행체(120)가 최적 경로를 통해 비행하도록 할 수 있다.The optimal
최적 경로 탐색 서버(100)는 무인 비행체(120)의 비행 중에 무인 비행체(120)로부터 무인 비행체(120)가 촬영하는 비행 영상 및 비행 정보를 수신할 수 있다.The optimal
최적 경로 탐색 서버(100)는 최적 경로, 기체 정보 및 비행 정보에 기초하여 비행 정보 영상을 생성할 수 있다.The optimal
최적 경로 탐색 서버(100)는 3차원 증강 현실 비행 영상을 제어 단말(110)로 전송할 수 있다.The optimal
이하에서는 최적 경로 탐색 서버(100)의 각 구성에 대하여 상세하게 설명하기로 한다. 도 2는 본 발명의 일 실시예에 따른 최적 경로 탐색 서버의 구성도이다. 도 2를 참조하면, 최적 경로 탐색 서버(100)는 환경 정보 수신부(200), 운항 정보 수신부(210), 최적 경로 탐색부(220), 운항 정보 전송부(230), 비행 정보 수신부(240), 비행 정보 영상 생성부(250), 증강 현실 비행 영상 생성부(260) 및 증강 현실 비행 영상 전송부(270)를 포함할 수 있다. 비행 정보 영상 생성부(250)는 헤드업디스플레이 생성부(252) 및 가이던스 항로 생성부(254)를 포함할 수 있다.Hereinafter, each configuration of the optimal
환경 정보 수신부(200)는 다양한 외부 서버로부터 환경 정보를 수신하고 저장한다. 여기서, 환경 정보는 풍향, 풍속, 시야, 운고 및 자기장 세기를 포함할 수 있다. 예를 들면, 환경 정보 수신부(200)는 기상 서버로부터 풍향, 풍속, 시야, 운고 및 자기장 세기 등의 기상 데이터를 실시간으로 수신할 수 있다.The environment
또한, 환경 정보는 지역 고도 정보(예컨대, 수치 표고 모델(DEM, digital elevation model)) 지오 펜스(Geo fense) 정보를 포함할 수 있다. 여기서, 지오 펜스 정보는 비행 금지 구역, 비행 제한 구역, 군 작전 구역, 비행 구역에 대한 정보를 포함할 수 있다. 또한, 환경 정보는 지상 시설물 정보를 포함할 수 있다. 여기서, 지상 시설물 정보는 송전탑, 건물 등의 높이에 대한 정보를 포함할 수 있다. 예를 들면, 환경 정보 수신부(200)는 공공 데이터 예컨대, 수치 지도, 등고선 데이터, 건축물 대장 등을 수집하여 환경 정보를 저장할 수 있다.In addition, the environmental information may include local altitude information (e.g., digital elevation model (DEM)) geofence information. Here, the geofence information may include information on a non-flying zone, a restricted flight zone, a military operation zone, and a flight zone. In addition, the environmental information may include ground facility information. Here, the ground facility information may include information on the height of the transmission tower, the building, and the like. For example, the environmental
운항 정보 수신부(210)는 제어 단말(110)로부터 출발지의 위치(위/경도 데이터), 도착지의 위치 정보(위/경도 데이터) 및 무인 비행체(120)의 기체 정보를 수신할 수 있다. 여기서, 무인 비행체(120)의 기체 정보는 무인 비행체(120)의 최대 비행 고도, 비행 가능 시간, 배터리 용량, 비행체 무게 및 임무 정보를 포함할 수 있다. 여기서, 임무 정보는 예를 들면, 군사, 물류, 탐사, 긴급 이송 등을 포함할 수 있다.The flight
최적 경로 탐색부(220)는 도착지의 위치 정보, 무인 비행체(120)의 기체 정보 및 환경 정보에 기초하여 출발지로부터 도착지까지의 최적 경로를 탐색할 수 있다. 여기서, 환경 정보에 포함되는 지형 고도 정보, 지오 펜스 정보, 기상 정보 및 지상 시설물의 높이 정보 각각은 기설정된 우선 순위 또는 서로 상이한 가중치를 가지고 있을 수 있다.The optimal
최적 경로 탐색부(220)는 예를 들어, 다익스트라 알고리즘(Dijkstra algorithm)을 이용하되, 환경 정보 각각의 우선 순위 또는 서로 상이한 가중치를 고려하여 최적 경로를 탐색할 수 있다.For example, the optimal
본 발명의 일 실시예에 따르면, 최적 경로 탐색부(220)는 지형 고도 정보, 지상 시설물의 높이 및 지오 펜스 정보에 기초하여 출발지로부터 도착지까지의 1차 최적 경로를 탐색한다. 예를 들면, 최적 경로 탐색부(220)는 지오 펜스 정보에 기초하여 비행 금지/제한 구역을 제외하고, 지형 고도 정보 및 지상 시설물의 높이를 고려하여 1차 최적 경로를 탐색할 수 있다(1 단계-지형 고도 정보, 지상 시설물의 높이 및 지오 펜스 정보를 고려).According to one embodiment of the present invention, the optimal
본 발명의 다른 실시예에 따르면, 최적 경로 탐색부(220)는 무인 비행체(120)의 기체 정보를 먼저 고려하여 1차 최적 경로를 탐색할 수 있다. 일반적으로, 고도가 높은(예컨대, 100m 이상) 상공보다 고도가 낮은(예컨대, 50m 이하) 상공에 송전탑, 건물, 산 등의 장애물이 많다. 따라서, 고도가 높을수록 최적 경로를 탐색하는데 유리하고, 무인 비행체(120)가 장애물에 충돌하는 위험을 줄일 수 있다. 이에 따라, 최적 경로 탐색부(220)는 무인 비행체(120)의 최대 비행 고도에서 최적 경로를 탐색할 수 있다. 이 때, 고고도 비행시에 배터리 소모가 더욱 심하기 때문에 최적 경로 탐색부(220)는 배터리 용량도 추가적으로 고려할 수도 있다.According to another embodiment of the present invention, the optimal
이 후, 최적 경로 탐색부(220)는 기상 정보에 기초하여 탐색된 1차 최적 경로를 통해 비행이 가능한지 여부를 판단한다. 예를 들면, 최적 경로 탐색부(220)는 풍속이 기설정된 값 이상이거나, 운고에 따라 시야 확보가 불가능한 경우에 1차 최적 경로를 통해 비행이 불가능하다고 판단할 수 있다. 또한, 최적 경로 탐색부(220)는 자기장 세기가 기설정된 값 이상인 경우 최적 경로 탐색 서버(100) 및 제어 단말(110)과의 통신이 두절될 가능성이 높아 1차 최적 경로를 통해 비행이 불가능하다고 판단할 수 있다(2 단계-기상 정보를 고려).Thereafter, the optimal
이 후, 최적 경로 탐색부(220)는 무인 비행체(120)의 기체 정보에 기초하여 탐색된 1차 최적 경로를 통한 비행이 가능한지 여부를 판단한다. 예를 들면, 최적 경로 탐색부(220)는 무인 비행체(120)의 배터리 용량 및 비행 가능 시간에 기초하여 탐색된 1차 최적 경로를 통해 도착지까지 비행이 가능한지 판단할 수 있다. 또한, 2 단계에서 기상이 좋지 못한 경우로서, 풍속이 강한 경우를 가정한다. 일반적으로, 무인 비행체(120)의 무게가 무거운 경우 또는 무인 비행체(120)의 비행 능력이 좋은 경우에는 비행 안정성이 뛰어나다. 따라서, 최적 경로 탐색부(220)는 풍속이 강한 경우에 무인 비행체(120)의 무게 및 비행 능력에 기초하여 탐색된 1차 최적 경로를 통해 도착지까지 비행이 가능한지 판단할 수 있다(3 단계-기체 정보를 고려).Thereafter, the optimal
본 발명의 다른 실시예에 따르면, 최적 경로 탐색부(220)는 무인 비행체(120)의 임무 정보에 기초하여 최적 경로를 탐색할 수도 있다. 임무 정보는 예를 들면, 군사, 물류, 탐사, 긴급 이송 등을 포함할 수 있다.According to another embodiment of the present invention, the optimal
예를 들어, 무인 비행체(120)가 제 1 임무(예컨대, 긴급 이송 임무)를 수행 중인 경우, 최적 경로 탐색부(220)는 신속성을 위해 최단 경로를 최적 경로로 결정할 수 있다. 다른 예를 들어, 무인 비행체(120)가 제 2 임무(예컨대, 군사, 탐사)를 수행 중인 경우, 최적 경로 탐색부(220)는 안정성을 위해 안전한 경로를 최적 경로로 결정할 수 있다.For example, when the unmanned
3 단계에서 탐색된 1차 최적 경로를 통해 도착지까지 비행이 불가능하다고 판단된 경우, 최적 경로 탐색부(220)는 2차 최적 경로를 탐색하여 1 단계 내지 3 단계의 과정을 거칠 수 있다.If it is determined that it is impossible to reach the destination through the primary optimum route retrieved in
이와 같이, 다양한 환경 정보와 무인 비행체(120)의 기체 정보를 고려하여 최적 경로를 탐색함으로써 에너지 효율을 극대화하여 무인 비행체(120)의 비행 거리 및 비행 시간을 연장시킬 수 있다.In this manner, the optimum path is searched in consideration of various environmental information and the gas information of the
운항 정보 전송부(230)는 최적 경로를 포함하는 운항 정보를 제어 단말(110) 또는 무인 비행체(120)로 전송할 수 있다. 여기서, 운항 정보는 비행체 예상 배터리 소모율, 비행체 예상 비행 시간, 경로 거리, 경로 상 노드 개수(Wn)를 포함할 수 있다.The flight
비행 정보 수신부(240)는 무인 비행체(120)의 비행 중에 무인 비행체(120)로부터 무인 비행체(120)가 촬영하는 비행 영상 및 비행 정보를 수신할 수 있다. 비행 정보는 예를 들면, 무인 항공기의 피치(Pitch), 롤(Roll), 비행 속도, 위/경도, 잔여 배터리 및 비행 고도 중 적어도 하나를 포함할 수 있다. 비행 정보는 예를 들면, 제 1 그룹의 비행 정보(예컨대, 필수 비행 정보로서, 비행 속도, 현재 위/경도, 현재 고도) 및 제 2 그룹의 비행 정보(예컨대, 선택적인 비행 정보로서, 롤, 피치, 출발지 및 도착지 루트, 통신 감도, 목적지까지의 남은 비행 거리, 현재 지점까지의 비행 거리, 잔여 배터리, 무인 비행체(120)를 트래킹하는 GPS 위성 개수, 무인 비행체(120)의 현재 지자계 방향)를 포함할 수 있다.The
비행 정보 영상 생성부(250)는 최적 경로, 기체 정보 및 비행 정보에 기초하여 비행 정보 영상을 생성할 수 있다. The flight information
증강 현실 비행 영상 생성부(260)는 비행 영상 위에 생성된 비행 정보 영상을 오버레이하여 3차원 증강 현실 비행 영상을 생성할 수 있다.The augmented reality flight
유인 항공기의 경우 조종사가 전방의 시야 확보에 유리하므로, 도 4의 비행 영상과 같이 정보의 군집화 및 이원화가 가능하였다. 하지만 무인 비행기의 경우, 원격 조종 환경 하에서 조종이 이루어지기 때문에 조종사의 시야 확보가 어려워 종래의 비행 영상과 같이 정보의 군집화 및 이원화가 어려운 문제점이 있다. In the case of the manned aircraft, the pilots are advantageous in securing the field of view ahead, so that clustering and binarization of information are possible as in the flight image of FIG. However, in the case of the unmanned airplane, it is difficult to secure the view of the pilot because the pilot is operated under the remote control environment, so that it is difficult to cluster and diversify the information as in the conventional flight image.
따라서, 무인 비행체(120)의 비행 영상은 종래의 유인 항공기의 비행 영상과는 상이하게 배치할 필요가 있다. Therefore, the flight image of the unmanned
이와 관련하여, 도 3을 함께 참조하면, 비행 정보 영상은 무인 비행체(120)의 현재 속도(402), 롤(404), 피치(406), 출발지 및 도착지 루트(408), 통신 감도(410), 목적지까지의 남은 비행 거리(412), 현재 지점까지의 비행 거리(414), 현재 위/경도(416), 잔여 배터리(418), 무인 비행체(120)를 트래킹하는 GPS 위성 개수(420), 무인 비행체(120)의 현재 지자계 방향(422), 현재 속도(424), 비행 고도(426) 중 적어도 하나를 나타내는 헤드업디스플레이(HUD; Head Up Display)를 포함할 수 있다. 또한, 비행 정보 영상은 최적 경로를 나타내는 가이던스 항로(428)를 포함할 수 있다.3, the flight information image includes the
여기서, 헤드업디스플레이는 비행 정보 영상의 측면에 배치되고, 가이던스 항로(428)는 비행 정보 영상의 중앙에 배치될 수 있다. Here, the head-up display is disposed on the side of the flight information image, and the
종래의 유인 항공기의 비행 영상의 경우, 주요 비행 정보(Primary Flight Information)를 화면 정 가운데에 위치시키고, 네비게이션 정보(Navigation information)는 제2의 디스플레이에 이원화하는데 반해, 본 발명에 따르면 무인 비행체(120)의 조종사의 시야 확보가 어려운 원격 조종 환경을 고려하여 헤드업디스플레이는 비행 정보 영상의 측면에 배치하고, 가이던스 항로(428)를 비행 정보 영상의 중앙에 배치함으로써, 조종사의 시야 확보를 최대화 할 수 있다.According to the present invention, in the case of the flight image of the conventional manned aircraft, the main flight information is positioned in the center of the screen, and the navigation information is binarized in the second display, The head-up display is disposed on the side of the flight information image and the
또한, 비행 정보를 증강현실 표현 기술을 이용하여 조종 화면 내 일원화 시켜 조종사의 시야 집중도를 높일 수 있으며, 그에 따라 조종 집중도를 향상시킬 수 있다. 또한, 도식화 된 비행 정보 뿐만 아니라 직관적인 숫자로도 표현하여 조종사의 정보 인지능력을 향상시킬 수 있다.In addition, the flight information can be unified in the control screen using the augmented reality expression technology, thereby increasing the focus concentration of the pilot, thereby improving the steering concentration. In addition, it is possible to improve pilot's information perception ability by expressing not only schematic flight information but also intuitive numbers.
비행 정보 영상은 무인 비행체(120)의 임무 정보에 따라 상이하게 구성될 수 있다.The flight information image may be configured differently according to the mission information of the unmanned
헤드업디스플레이 생성부(252)는 무인 비행체(120)의 임무 정보에 따라 비행 정보 영상에 출력할 비행 정보의 종류 및 비행 정보의 배치를 결정하고, 결정된 비행 정보의 종류 및 상기 비행 정보의 배치에 기초하여 헤드업디스플레이를 생성할 수 있다.The head-up
헤드업디스플레이 생성부(252)는 제 2 그룹의 비행 정보 중 임무 정보에 적합한 적어도 하나의 비행 정보를 선택하고, 제 1 그룹의 비행 정보와 제 2 그룹의 비행 정보 중 선택된 비행 정보의 배치를 결정할 수 있다.The head-up
예를 들어, 무인 비행체(120)가 제 1 임무(예컨대, 긴급 이송 임무)를 수행 중인 경우, 헤드업디스플레이 생성부(252)는 2 그룹의 비행 정보 중 제 1 임무를 수행하는데 중요한 비행 정보로서, 비행 속도, 목적지까지의 남은 비행 거리 및 현재 지점까지의 비행 거리를 선택하고, 제 1 그룹의 모든 비행 정보와 선택된 비행 속도, 목적지까지의 남은 비행 거리 및 현재 지점까지의 비행 거리의 배치를 결정하고, 결정된 배치에 기초하여 헤드업디스플레이를 생성할 수 있다. 제 1 임무의 경우, 비행 속도, 목적지까지의 남은 비행 거리 및 현재 지점까지의 비행 거리가 잘 보이도록 좌우에 배치되고, 다른 비행 정보에 비해 크게 출력될 수 있다.For example, when the unmanned
예를 들어, 무인 비행체(120)가 제 2 임무(예컨대, 군사, 탐사)를 수행 중인 경우, 헤드업디스플레이 생성부(252)는 2 그룹의 비행 정보 중 제 1 임무를 수행하는데 중요한 비행 정보로서, 롤, 피치, 통신 감도, 무인 비행체(120)를 트래킹하는 GPS 위성 개수를 선택하고, 제 1 그룹의 모든 비행 정보와 선택된 롤, 피치, 통신 감도, 무인 비행체(120)를 트래킹하는 GPS 위성 개수의 배치를 결정하고, 결정된 배치에 기초하여 헤드업디스플레이를 생성할 수 있다. 제 2 임무의 경우, 롤, 피치, 통신 감도, 무인 비행체(120)를 트래킹하는 GPS 위성 개수가 잘 보이도록 좌우에 배치되고, 다른 비행 정보에 비해 크게 출력될 수 있다.For example, when the unmanned
또한, 헤드업디스플레이 생성부(252)는 무인 비행체(120)의 비행 중에 헤드업디스플레이를 업데이트할 수 있다. 예를 들어, 헤드업디스플레이 생성부(252)는 기설정된 조건하에 제 2 그룹의 비행 정보 중 일부를 숨기거나 활성화시킬 수 있다. In addition, the head-up
예를 들어, 무인 비행체(120)가 비행을 시작할 때의 헤드업디스플레이에는 잔여 배터리(418)를 출력하고 있지 않다가 무인 비행체(120)의 잔여 배터리가 기설정된 값 이하로 떨어진 경우 잔여 배터리(418)를 활성화할 수 있다. 다른 예를 들어, 무인 비행체(120)가 비행을 시작할 때의 헤드업디스플레이에는 통신 감도(410)를 출력하고 있지 않다고 무인 비행체(120)와 최적 경로 탐색 서버(100) 또는 제어 단말(110)의 통신 감도가 기설정된 값 이하로 떨어진 경우 통신 감도(410)를 출력할 수 있다.For example, when the
가이던스 항로 생성부(254)는 최적 경로를 나타내는 가이던스 항로(428)를 생성할 수 있다. 예를 들어, 가이던스 항로 생성부(254)는 최적 경로에 대한 좌표값이 존재하는지 여부를 판단하고, 최적 경로에 대한 좌표값이 존재하는 경우 최적 경로에 대한 좌표값에 기초하여 가이던스 항로(428)를 생성할 수 있다.The guidance
다시 도 2를 참조하면, 증강 현실 비행 영상 전송부(270)는 3차원 증강 현실 비행 영상을 제어 단말(110)로 전송할 수 있다.Referring again to FIG. 2, the augmented reality flight
도 5는 본 발명의 일 실시예에 따른 3차원 증강 현실 비행 영상 생성 방법을 나타낸 흐름도이다. 도 5에 도시된 일 실시예에 따른 3차원 증강 현실 비행 영상 생성 방법은 도 1에 도시된 시스템에서 시계열적으로 처리되는 단계들을 포함한다. 따라서, 이하 생략된 내용이라고 하더라도 도 5에 도시된 일 실시예에 따라 수행되는 3차원 증강 현실 비행 영상 생성 방법에도 적용된다.FIG. 5 is a flowchart illustrating a method for generating a 3D ARF according to an exemplary embodiment of the present invention. Referring to FIG. The method for generating a 3D ARF image according to an embodiment shown in FIG. 5 includes steps that are processed in a time-series manner in the system shown in FIG. Therefore, even if the contents are omitted in the following description, the present invention is also applied to a method for generating a three-dimensional augmented reality flight image, which is performed according to the embodiment shown in FIG.
단계 S500에서 최적 경로 탐색 서버(100)는 무인 비행체(120)를 제어하는 제어 단말(110)로부터 도착지의 위치 정보 및 무인 비행체(120)의 기체 정보를 수신할 수 있다.The optimal
단계 S510에서 최적 경로 탐색 서버(100)는 도착지의 위치 정보, 무인 비행체(120)의 기체 정보, 환경 정보에 기초하여 출발지로부터 도착지까지의 최적 경로를 탐색할 수 있다.In step S510, the optimal
단계 S520에서 최적 경로 탐색 서버(100)는 무인 비행체(120)로부터 무인 비행체(120)가 촬영하는 비행 영상 및 비행 정보를 수신할 수 있다.In step S520, the optimal
단계 S530에서 최적 경로 탐색 서버(100)는 최적 경로, 기체 정보 및 비행 정보에 기초하여 비행 정보 영상을 생성할 수 있다.In step S530, the optimal
단계 S540에서 최적 경로 탐색 서버(100)는 비행 영상 위에 생성된 비행 정보 영상을 오버레이하여 3차원 증강 현실 비행 영상을 생성할 수 있다.In operation S540, the optimal
단계 S550에서 최적 경로 탐색 서버(100)는 3차원 증강 현실 비행 영상을 제어 단말(110)로 전송할 수 있다.In step S550, the optimal
도 5를 통해 설명된 3차원 증강 현실 비행 영상 생성 방법은 매체에 저장된 컴퓨터 프로그램의 형태로 구현되거나, 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체를 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다.The 3D ARF image generation method described with reference to FIG. 5 may be implemented in the form of a computer program stored in a medium or in the form of a recording medium including instructions executable by a computer such as a program module executed by a computer Can be implemented. Computer readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media. The computer-readable medium may also include computer storage media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다. It will be understood by those skilled in the art that the foregoing description of the present invention is for illustrative purposes only and that those of ordinary skill in the art can readily understand that various changes and modifications may be made without departing from the spirit or essential characteristics of the present invention. will be. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive. For example, each component described as a single entity may be distributed and implemented, and components described as being distributed may also be implemented in a combined form.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is defined by the appended claims rather than the detailed description and all changes or modifications derived from the meaning and scope of the claims and their equivalents are to be construed as being included within the scope of the present invention do.
100: 최적 경로 탐색 서버
110: 제어 단말
120: 무인 비행체100: optimal path search server
110: control terminal
120: unmanned vehicle
Claims (13)
상기 무인 비행체를 제어하는 제어 단말로부터 도착지의 위치 정보 및 무인 비행체의 기체 정보를 수신하는 운항 정보 수신부;
상기 도착지의 위치 정보, 상기 무인 비행체의 기체 정보, 환경 정보에 기초하여 출발지로부터 상기 도착지까지의 경로를 탐색하는 경로 탐색부;
상기 무인 비행체로부터 상기 무인 비행체가 촬영하는 비행 영상 및 비행 정보를 수신하는 비행 정보 수신부;
상기 경로, 상기 기체 정보 및 상기 비행 정보에 기초하여 비행 정보 영상을 생성하는 비행 정보 영상 생성부;
상기 비행 영상 위에 상기 생성된 비행 정보 영상을 오버레이하여 3차원 증강 현실 비행 영상을 생성하는 증강 현실 비행 영상 생성부; 및
상기 3차원 증강 현실 비행 영상을 상기 제어 단말로 전송하는 증강 현실 비행 영상 전송부
를 포함하고,
상기 기체 정보는 상기 무인 비행체의 임무 정보를 포함하고,
비행 정보 영상은 상기 무인 비행체의 임무 정보에 따라 상이하게 구성되고,
상기 비행 정보 영상 생성부는 상기 무인 비행체의 임무 유형에 따라 상기 비행 정보 영상에 출력할 비행 정보의 종류 및 상기 비행 정보의 배치를 결정하고, 상기 결정된 비행 정보의 종류 및 상기 비행 정보의 배치에 기초하여 헤드업디스플레이(HUD; Head Up Display)를 생성하는 헤드업디스플레이 생성부
를 포함하는 것인, 경로 탐색 서버.
1. A route search server for searching a route of an unmanned aerial vehicle,
A flight information receiver for receiving the position information of the destination and the gas information of the unmanned aerial vehicle from the control terminal for controlling the unmanned air vehicle;
A route search unit for searching for a route from the departure point to the destination point based on the location information of the destination, the gas information of the unmanned air vehicle, and the environment information;
A flight information receiver for receiving flight images and flight information taken by the unmanned aerial vehicle from the unmanned air vehicle;
A flight information image generating unit for generating a flight information image based on the route, the gas information, and the flight information;
An augmented reality flight image generation unit for generating a 3D augmented reality flight image by overlaying the generated flight information image on the flight image; And
An ARF image transmission unit for transmitting the 3D ARF flight image to the control terminal,
Lt; / RTI >
Wherein the gas information includes mission information of the unmanned aerial vehicle,
The flight information image is configured differently according to the mission information of the unmanned aerial vehicle,
Wherein the flight information image generating unit determines the type of the flight information to be output to the flight information image and the arrangement of the flight information according to the mission type of the unmanned air vehicle, and based on the determined type of the flight information and the arrangement of the flight information A head-up display generating unit (10) for generating a head-up display (HUD)
And a route search server.
상기 비행 정보는 상기 무인 항공기의 피치(Pitch), 롤(Roll), 비행 속도, 위/경도, 잔여 배터리 및 비행 고도 중 적어도 하나를 포함하는 것인, 경로 탐색 서버.
The method according to claim 1,
Wherein the flight information includes at least one of pitch, roll, flight speed, top / longitude, remaining battery, and flight altitude of the unmanned aerial vehicle.
상기 헤드업디스플레이는 상기 무인 항공기의 피치(Pitch), 롤(Roll), 비행 속도, 위/경도, 잔여 배터리 및 비행 고도 중 적어도 하나를 포함하고,
상기 비행 정보 영상은 상기 헤드업디스플레이 및 상기 경로를 나타내는 가이던스 항로를 포함하고,
상기 헤드업디스플레이는 상기 비행 정보 영상의 측면에 배치되고, 상기 가이던스 항로는 상기 비행 정보 영상의 중앙에 배치되는 것인, 경로 탐색 서버.
3. The method of claim 2,
Wherein the head-up display comprises at least one of pitch, roll, flight speed, top / longitude, residual battery and flight altitude of the unmanned aerial vehicle,
Wherein the flight information image includes the head-up display and a guidance route indicating the route,
Wherein the head-up display is disposed on a side of the flight information image, and the guidance route is disposed in the center of the flight information image.
상기 비행 정보 영상 생성부는 상기 경로에 대한 좌표값이 존재하는지 여부를 판단하고, 상기 경로에 대한 좌표값이 존재하는 경우 상기 경로에 대한 좌표값에 기초하여 상기 가이던스 항로를 생성하는 가이던스 항로 생성부
를 더 포함하는 것인, 경로 탐색 서버.
The method of claim 3,
Wherein the flight information image generation unit determines whether or not a coordinate value for the path exists and generates a guidance route generation unit for generating the guidance route based on a coordinate value for the route when a coordinate value for the route exists,
The route search server further comprising:
상기 환경 정보는 지형 고도 정보 및 지오 펜스(Geo fense) 정보, 기상 정보 및 지상 시설물의 높이 정보를 포함하는 것인, 경로 탐색 서버.
The method according to claim 1,
Wherein the environment information includes terrain height information and geo fence information, weather information, and height information of ground facilities.
상기 기체 정보는 상기 무인 비행체의 최대 비행 고도 정보, 비행 가능 시간 정보, 배터리 정보, 무게 정보, 비행 능력 정보 중 적어도 하나를 더 포함하는 것인, 경로 탐색 서버.
The method according to claim 1,
Wherein the gas information further includes at least one of maximum flight altitude information, flightable time information, battery information, weight information, and flight capability information of the unmanned aerial vehicle.
상기 지형 고도 정보, 상기 지오 펜스 정보, 상기 기상 정보, 상기 지상 시설물의 높이 정보 및 상기 기체 정보 각각은 기설정된 우선 순위를 가지고 있고,
상기 경로 탐색부는 다익스트라 알고리즘(Dijkstra algorithm)을 이용하되, 상기 지형 고도 정보, 상기 지오 펜스 정보, 상기 기상 정보 및 상기 지상 시설물의 높이 정보 각각의 우선 순위를 고려하여 상기 경로를 탐색하는 것인, 경로 탐색 서버.
The method according to claim 6,
The geographical altitude information, the geophone information, the weather information, the height information of the ground facility, and the gas information each have a predetermined priority,
Wherein the route search unit searches the route by considering a priority of each of the terrain height information, the geofence information, the weather information, and the height information of the terrestrial facilities using a Dijkstra algorithm. Path search server.
무인 비행체를 제어하는 제어 단말로부터 도착지의 위치 정보 및 무인 비행체의 기체 정보를 수신하는 단계;
상기 도착지의 위치 정보, 상기 무인 비행체의 기체 정보, 환경 정보에 기초하여 출발지로부터 상기 도착지까지의 경로를 탐색하는 단계;
상기 무인 비행체로부터 상기 무인 비행체가 촬영하는 비행 영상 및 비행 정보를 수신하는 단계;
상기 경로, 상기 기체 정보 및 상기 비행 정보에 기초하여 비행 정보 영상을 생성하는 단계;
상기 비행 영상 위에 상기 생성된 비행 정보 영상을 오버레이하여 3차원 증강 현실 비행 영상을 생성하는 단계; 및
상기 3차원 증강 현실 비행 영상을 상기 제어 단말로 전송하는 단계
를 포함하고,
상기 기체 정보는 상기 무인 비행체의 임무 정보를 포함하고,
비행 정보 영상은 상기 무인 비행체의 임무 정보에 따라 상이하게 구성되고,
상기 비행 정보 영상을 생성하는 단계는
상기 무인 비행체의 임무 유형에 따라 상기 비행 정보 영상에 출력할 비행 정보의 종류 및 상기 비행 정보의 배치를 결정하는 단계; 및
상기 결정된 비행 정보의 종류 및 상기 비행 정보의 배치에 기초하여 헤드업디스플레이(HUD; Head Up Display)를 생성하는 단계
를 포함하는 것인, 3차원 증강 현실 비행 영상 생성 방법.
A method for generating a three-dimensional augmented reality flight image performed by a route search server,
Receiving location information of the destination and the gas information of the unmanned aerial vehicle from a control terminal for controlling the unmanned aerial vehicle;
Searching for a route from the departure point to the arrival point based on the position information of the destination, the gas information of the unmanned air vehicle, and the environment information;
Receiving flight images and flight information from the unmanned aerial vehicle taken by the unmanned aerial vehicle;
Generating a flight information image based on the route, the gas information, and the flight information;
Generating a 3D augmented reality flight image by overlaying the generated flight information image on the flight image; And
And transmitting the 3D enhanced reality flight image to the control terminal
Lt; / RTI >
Wherein the gas information includes mission information of the unmanned aerial vehicle,
The flight information image is configured differently according to the mission information of the unmanned aerial vehicle,
The step of generating the flight information image
Determining a type of flight information to be output to the flight information image and an arrangement of the flight information according to the mission type of the unmanned aerial vehicle; And
Generating a Head Up Display (HUD) based on the type of the determined flight information and the arrangement of the flight information
And generating a three-dimensional augmented reality flight image.
상기 비행 정보는 상기 무인 항공기의 피치(Pitch), 롤(Roll), 비행 속도, 위/경도, 잔여 배터리 및 비행 고도 중 적어도 하나를 포함하는 것인, 3차원 증강 현실 비행 영상 생성 방법.
10. The method of claim 9,
Wherein the flight information comprises at least one of a pitch, roll, flight speed, stiffness / latitude, remaining battery, and flight altitude of the unmanned aerial vehicle.
상기 헤드업디스플레이는 상기 무인 항공기의 피치(Pitch), 롤(Roll), 비행 속도, 위/경도, 잔여 배터리 및 비행 고도 중 적어도 하나를 포함하고,
상기 비행 정보 영상은 상기 헤드업디스플레이 및 상기 경로를 나타내는 가이던스 항로를 포함하고,
상기 헤드업디스플레이는 상기 비행 정보 영상의 측면에 배치되고, 상기 가이던스 항로는 상기 비행 정보 영상의 중앙에 배치되는 것인, 3차원 증강 현실 비행 영상 생성 방법.
11. The method of claim 10,
Wherein the head-up display comprises at least one of pitch, roll, flight speed, top / longitude, residual battery and flight altitude of the unmanned aerial vehicle,
Wherein the flight information image includes the head-up display and a guidance route indicating the route,
Wherein the head-up display is disposed on a side of the flight information image, and the guidance route is disposed in the center of the flight information image.
상기 비행 정보 영상을 생성하는 단계는
상기 경로에 대한 좌표값이 존재하는지 여부를 판단하는 단계; 및
상기 경로에 대한 좌표값이 존재하는 경우 상기 경로에 대한 좌표값에 기초하여 상기 가이던스 항로를 생성하는 단계
를 포함하는 것인, 3차원 증강 현실 비행 영상 생성 방법.12. The method of claim 11,
The step of generating the flight information image
Determining whether a coordinate value for the path exists; And
Generating a guidance route based on a coordinate value for the route when a coordinate value for the route exists;
And generating a three-dimensional augmented reality flight image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160125055A KR101840820B1 (en) | 2016-09-28 | 2016-09-28 | Method for generating 3-dementional augmented reality flight video |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020160125055A KR101840820B1 (en) | 2016-09-28 | 2016-09-28 | Method for generating 3-dementional augmented reality flight video |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101840820B1 true KR101840820B1 (en) | 2018-03-22 |
Family
ID=61901144
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160125055A KR101840820B1 (en) | 2016-09-28 | 2016-09-28 | Method for generating 3-dementional augmented reality flight video |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101840820B1 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102011470B1 (en) * | 2019-04-26 | 2019-08-16 | 한화시스템(주) | 3D route display system |
KR102011471B1 (en) * | 2019-04-26 | 2019-08-16 | 한화시스템(주) | 3D route display method using system |
KR20210012414A (en) * | 2019-07-25 | 2021-02-03 | 배재대학교 산학협력단 | System and method for controlling cluster flight of unmanned aerial vehicle |
KR20210094730A (en) * | 2020-01-22 | 2021-07-30 | 에스케이 주식회사 | Augmented reality information providing method and system using image deep learning for matching aerial image data and Geographic Information System data |
KR20220080528A (en) * | 2020-12-07 | 2022-06-14 | 주식회사 더블베어스 | Virtual reality drone simulator |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101408077B1 (en) * | 2014-01-29 | 2014-06-18 | 국방과학연구소 | An apparatus and method for controlling unmanned aerial vehicle using virtual image |
US20140316616A1 (en) | 2013-03-11 | 2014-10-23 | Airphrame, Inc. | Unmanned aerial vehicle and methods for controlling same |
KR101483059B1 (en) | 2014-04-08 | 2015-01-15 | 엘아이지넥스원 주식회사 | System for controlling unmanned aerial vehicle |
KR101557092B1 (en) | 2015-05-12 | 2015-11-19 | 대한민국(방위사업청장) | UAV simulation system for wargame |
KR101662032B1 (en) | 2015-04-28 | 2016-10-10 | 주식회사 유브이코어 | UAV Aerial Display System for Synchronized with Operators Gaze Direction |
-
2016
- 2016-09-28 KR KR1020160125055A patent/KR101840820B1/en active IP Right Grant
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140316616A1 (en) | 2013-03-11 | 2014-10-23 | Airphrame, Inc. | Unmanned aerial vehicle and methods for controlling same |
KR101408077B1 (en) * | 2014-01-29 | 2014-06-18 | 국방과학연구소 | An apparatus and method for controlling unmanned aerial vehicle using virtual image |
KR101483059B1 (en) | 2014-04-08 | 2015-01-15 | 엘아이지넥스원 주식회사 | System for controlling unmanned aerial vehicle |
KR101662032B1 (en) | 2015-04-28 | 2016-10-10 | 주식회사 유브이코어 | UAV Aerial Display System for Synchronized with Operators Gaze Direction |
KR101557092B1 (en) | 2015-05-12 | 2015-11-19 | 대한민국(방위사업청장) | UAV simulation system for wargame |
Non-Patent Citations (1)
Title |
---|
김기태 외 1인."3차원 환경 기반 무인 항공기 생존성 극대화를 위한 이동 경로 계획".산업공학.2011.12.31.제24권 제4호,(제304면 내지 제313면)* |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102011470B1 (en) * | 2019-04-26 | 2019-08-16 | 한화시스템(주) | 3D route display system |
KR102011471B1 (en) * | 2019-04-26 | 2019-08-16 | 한화시스템(주) | 3D route display method using system |
KR20210012414A (en) * | 2019-07-25 | 2021-02-03 | 배재대학교 산학협력단 | System and method for controlling cluster flight of unmanned aerial vehicle |
KR102263307B1 (en) * | 2019-07-25 | 2021-06-09 | 배재대학교 산학협력단 | System and method for controlling cluster flight of unmanned aerial vehicle |
KR20210094730A (en) * | 2020-01-22 | 2021-07-30 | 에스케이 주식회사 | Augmented reality information providing method and system using image deep learning for matching aerial image data and Geographic Information System data |
KR102289550B1 (en) | 2020-01-22 | 2021-08-12 | 에스케이 주식회사 | Augmented reality information providing method and system using image deep learning for matching aerial image data and Geographic Information System data |
KR20220080528A (en) * | 2020-12-07 | 2022-06-14 | 주식회사 더블베어스 | Virtual reality drone simulator |
KR102502022B1 (en) | 2020-12-07 | 2023-02-21 | 주식회사 더블베어스 | Virtual reality drone simulator |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101917860B1 (en) | Method for optimal path search of drone, optimal path searching server and system | |
KR101840820B1 (en) | Method for generating 3-dementional augmented reality flight video | |
US20210304626A1 (en) | Selection of networks for communicating with unmanned aerial vehicles | |
JP6866203B2 (en) | Drone navigation device, drone navigation method, drone navigation program, search data formation device and search data formation program | |
US10394858B2 (en) | Utilization of third party networks and third party unmanned aerial vehicle platforms | |
ES2941804T3 (en) | Relay drone method | |
EP3400494B1 (en) | Flight path determination | |
US20190317530A1 (en) | Systems and methods of unmanned aerial vehicle flight restriction for stationary and moving objects | |
CN107615822B (en) | Method, apparatus and system for providing communication coverage to an unmanned aerial vehicle | |
CN110268356B (en) | Leading unmanned aerial vehicle's system | |
JP5767731B1 (en) | Aerial video distribution system and aerial video distribution method | |
CN110226143B (en) | Method for leading unmanned aerial vehicle | |
EP3619584B1 (en) | Underwater leading drone system | |
JP2018165931A (en) | Control device for drone, control method for drone and control program for drone | |
KR20170080354A (en) | The virtual skyway and air traffic control system for the drone's safe flight or the drone navigation system or service | |
JP2014137375A (en) | Methods for determining flight path | |
JP6846253B2 (en) | Emergency response instruction device for drones, emergency response instruction method for drones, and emergency response instruction program for drones | |
KR102485554B1 (en) | Apparatus and method for constructing a 3d space map for route search for unmanned aerial vehicle | |
KR102118347B1 (en) | System for implementing autonomic fly and Monitoring Danger Area through Thermal Image Data Shooted by Drone | |
US11953919B2 (en) | Device, method, and medium for vehicle position and communication rate | |
KR102292364B1 (en) | System for preventing collision between drones through intersection 3d virtual node setting | |
US20230290257A1 (en) | Vehicle controller | |
CN113870421A (en) | Intelligent track positioning method, device and equipment for racing unmanned aerial vehicle | |
JP7130409B2 (en) | Control device | |
Park et al. | 3 Dimensional Augmented Reality Flight for Drones |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
GRNT | Written decision to grant |