KR20190062793A - Unmanned aerial vehicle control system - Google Patents

Unmanned aerial vehicle control system Download PDF

Info

Publication number
KR20190062793A
KR20190062793A KR1020170161343A KR20170161343A KR20190062793A KR 20190062793 A KR20190062793 A KR 20190062793A KR 1020170161343 A KR1020170161343 A KR 1020170161343A KR 20170161343 A KR20170161343 A KR 20170161343A KR 20190062793 A KR20190062793 A KR 20190062793A
Authority
KR
South Korea
Prior art keywords
pattern
aerial vehicle
unmanned aerial
camera
image
Prior art date
Application number
KR1020170161343A
Other languages
Korean (ko)
Other versions
KR102030085B1 (en
Inventor
김자유
유동현
김희선
김지홍
Original Assignee
김자유
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김자유 filed Critical 김자유
Priority to KR1020170161343A priority Critical patent/KR102030085B1/en
Publication of KR20190062793A publication Critical patent/KR20190062793A/en
Application granted granted Critical
Publication of KR102030085B1 publication Critical patent/KR102030085B1/en

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0011Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement
    • G05D1/0044Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement by providing the operator with a computer generated representation of the environment of the vehicle, e.g. virtual reality, maps
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/13Flying platforms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U30/00Means for producing lift; Empennages; Arrangements thereof
    • B64U30/20Rotors; Rotor supports
    • G06K9/4604
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • B64C2201/027
    • B64C2201/108
    • B64C2201/127
    • B64C2201/146
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/20Remote controls

Abstract

The present invention relates to an unmanned aerial vehicle control system for conveniently and intuitively piloting movement of an unmanned aerial vehicle, which may be remotely piloted. According to the present invention, the unmanned aerial vehicle control system comprises: an unmanned aerial vehicle having a first camera recognizing pattern and moved along movement of pattern; and a piloting unit piloting movement of the unmanned aerial vehicle by having the pattern, photographing the unmanned aerial vehicle by having a second camera, and outputting an augmented reality image including an image of the unmanned aerial vehicle on a screen.

Description

무인 비행체 제어 시스템{Unmanned aerial vehicle control system}[0001] The present invention relates to an unmanned aerial vehicle control system,

본 발명은 무인 비행체 제어 시스템에 관한 것으로, 더욱 상세하게는 원격으로 조종 가능한 무인 비행체의 움직임을 간편하고 직관적으로 조종하기 위한 무인 비행체 제어 시스템에 관한 것이다.The present invention relates to an unmanned aerial vehicle control system, and more particularly, to an unmanned aerial vehicle control system for easily and intuitively controlling the movement of a remotely controlled unmanned aerial vehicle.

드론 또는 무인 비행기 (UAV; unmaned aerial vehicle)는 사람이 승선하지 않고, 무선으로 조작하여 비행하는 비행체를 말한다. 멀티콥터 드론은 최초로 군사용으로 개발되었으나, 운반 및 보관의 편리성으로 방송등에서 촬영으로 많이 사용되며 최근 드론(무인 비행체)가 상용화되고 있다. 드론은 기체가 가벼워 휴대가 간편하고, 신속하며, 경제성이 뛰어나 항공촬영, 저고도 정찰수색 등의 용도로 활용되고 있다.A dragon or unmanned aerial vehicle (UAV) is a flying object that is operated by a person without embarking on the aircraft. The multi-copter drone was developed for military use for the first time, but it is widely used for shooting on broadcasting due to its convenience of transportation and storage. Drone (unmanned aerial vehicle) is being commercialized recently. The drones are light, easy to carry, fast and economical, and are used for aerial photography and low-altitude reconnaissance search.

또한, 드론은 카메라로 사람이 접근하기 힘든 위치에서 촬영을 하거나, 드론에 물건을 싣고 다른 곳으로 이동하여 물건을 운반하는 용도 등의 다양한 분야에서 활용되고 있다. 또한, 드론을 재난 재해 모니터링, 물류 운반에서도 사용하기 위해 많은 연구가 진행되고 있다.In addition, drones are used in a variety of fields such as shooting at locations where people can not easily approach the camera, carrying objects to a drone, and moving objects to another location. In addition, much research is underway to use drones in disaster monitoring and logistics.

드론은 사람이 승선하지 않는 무인 비행체 이므로, 보통 지상에 있는 사용자의 조작 신호를 무선으로 받아 운용된다. 현재까지 대부분의 드론은 사람의 조작이 필요한 수동운전에 의해 조작된다.Since the drones are unmanned aerial vehicles on which people are not boarded, they usually operate the user's operation signals on the ground wirelessly. Until now, most drones are operated by manual operation, which requires human operation.

하지만 종래의 드론을 조작하는 조종 장치는 사용자가 두 손으로 파지 (Grab) 한 상태에서 조종하는 것이 일반적이었다. 또한, 드론의 조종은 그 조작의 난이성 때문에 드론을 사용함에 있어서 높은 진입장벽이 되고 있다. 이러한 이유로 판매되는 드론의 종류도 입문용, 중급용, 고급용으로 나뉘어 판매되고 있다. 또한, 드론 유저들은 드론의 능숙한 조종을 위해 드론 조종에 많은 시간을 투자하고 있다.However, it is general that the conventional control device for operating the drone is controlled by the user with the two hands grabbing. In addition, the control of the drones is becoming a high entry barrier in the use of drones due to the difficulty of its operation. For this reason, the types of drones sold are divided into introductory, intermediate, and advanced. In addition, the drones are investing a lot of time in the drones to master the drones.

그런데, 드론이 아이들의 장난감, 레저 스포츠 등으로까지 그 활용분야가 확대됨에 따라, 드론 조작의 교육을 받지 않은 사람들도 보다 간편하게 조작할 수 있으며, 직관적으로 조작할 수 있는 조종 장치에 대한 필요성이 대두되고 있다.However, as the use of drones extends to children's toys and leisure sports, people who have not been trained in drone operation can operate more easily, and there is a need for an intuitive operation control device .

한국공개특허 제2009-0088045호(2009.08.19)Korean Patent Publication No. 2009-0088045 (2009.08.19)

따라서 본 발명의 목적은 무인 비행체를 조종함에 있어서, 조작의 교육을 받지 않은 조종자도 간편하고 직관적으로 조작할 수 있는 무인 비행체 제어 시스템을 제공하는 데 있다.Accordingly, it is an object of the present invention to provide an unmanned aerial vehicle control system capable of easily and intuitively operating a maneuver that is not trained in the operation of maneuvering the unmanned aerial vehicle.

또한 본 발명의 다른 목적은 무인 비행체를 통해 다양한 컨텐츠를 제공할 수 있는 무인 비행체 제어 시스템을 제공하는 데 있다.Another object of the present invention is to provide an unmanned aerial vehicle control system capable of providing various contents through a unmanned aerial vehicle.

본 발명에 따른 무인 비행체 제어 시스템은 패턴을 인식하는 제1 카메라를 구비하여, 상기 패턴의 움직임에 따라 이동하는 무인 비행체, 상기 패턴을 구비하여 상기 무인 비행체의 움직임을 조종하고, 제2 카메라를 구비하여 상기 무인 비행체를 촬영하며, 상기 무인 비행체의 이미지를 포함하는 증강 현실 이미지를 화면 상에 출력하는 조종부를 포함하는 것을 특징으로 한다.The unmanned aerial vehicle control system according to the present invention includes a first camera for recognizing a pattern and moving according to a movement of the pattern, a second camera for controlling movement of the unmanned air vehicle with the pattern, And a controller for photographing the unmanned aerial vehicle and outputting an augmented reality image including an image of the unmanned aerial vehicle on a screen.

본 발명에 따른 무인 비행체 제어 시스템에 있어서, 상기 조종부는, 상기 패턴이 형성된 패턴부, 상기 패턴부와 결합되고, 상기 제2 카메라를 구비하여 상기 무인 비행체를 촬영하며, 상기 무인 비행체의 이미지를 포함하는 증강 현실 이미지를 화면 상에 출력하는 단말기를 포함하는 것을 특징으로 한다.In the unmanned aerial vehicle control system according to the present invention, the control unit may include an image of the unmanned aerial vehicle including the pattern part formed with the pattern, the pattern part and the second camera, And a terminal for outputting an augmented reality image on the screen.

본 발명에 따른 무인 비행체 제어 시스템에 있어서, 상기 패턴은 바코드, QR코드, RFID 또는 색상 패턴을 포함하고, 상기 패턴부는 상기 패턴이 형성된 카드 형태로 형성되는 것을 특징으로 한다.In the unmanned aerial vehicle control system according to the present invention, the pattern may include a bar code, a QR code, an RFID, or a color pattern, and the pattern unit may be formed in the form of a card on which the pattern is formed.

본 발명에 따른 무인 비행체 제어 시스템에 있어서, 상기 무인 비행체는 상기 패턴이 상기 제1 카메라를 통해 인식되면 동기화를 수행하고, 상기 패턴의 움직임에 따라 이동하는 것을 특징으로 한다.In the unmanned aerial vehicle control system according to the present invention, the unmanned aerial vehicle performs synchronization when the pattern is recognized through the first camera, and moves according to the movement of the pattern.

본 발명에 따른 무인 비행체 제어 시스템에 있어서, 상기 단말기는 상기 증강 현실 이미지를 제어하기 위한 신호를 입력받는 입력부, 상기 증강 현실 이미지를 출력하는 표시부, 상기 제2 카메라를 통해 촬영된 이미지에서 상기 무인 비행체의 이미지를 추출하고, 추출된 상기 무인 비행체 이미지에 가상 이미지를 정합하여 상기 증강 현실 이미지를 생성하고, 상기 입력부의 입력에 따라 상기 증강 현실 이미지를 제어하며, 상기 표시부를 통해 표시되도록 하는 제어부를 포함하는 것을 특징으로 한다.In the unmanned aerial vehicle control system according to the present invention, the terminal may include an input unit for receiving a signal for controlling the augmented reality image, a display unit for outputting the augmented reality image, And a control unit for controlling the augmented reality image according to the input of the input unit and displaying the augmented reality image through the display unit .

본 발명에 따른 무인 비행체 제어 시스템에 있어서, 상기 가상 이미지는 캐릭터를 포함하며 상기 입력부를 통해 제어되는 것을 특징으로 한다.In the unmanned aerial vehicle control system according to the present invention, the virtual image includes a character and is controlled through the input unit.

본 발명에 따른 무인 비행체 제어 시스템에 있어서, 상기 무인 비행체는, 복수의 프로펠러를 포함하며, 상기 제1 카메라를 통해 상기 패턴을 인식하고, 패턴의 움직임에 따라 이동하는 비행 몸체부, 상기 비행 몸체부가 상부에 안착되며, 상기 복수의 프로펠러가 회전하기 위한 공간을 형성하는 복수의 제1 공간부와, 상기 복수의 공간부로부터 하부면을 관통하여 형성되는 복수의 제1 배기구가 형성되는 하부 프레임, 상기 비행 몸체부가 안착된 상기 하부 프레임의 상부에 결합되어 상기 비행 몸체부를 수용하기 위한 제2 공간부가 형성되고, 상기 제2 공간부로부터 상부면을 관통하여 형성되는 제2 배기구가 형성된 상부 프레임을 포함하고, 상기 제2 카메라부는 상기 하부 프레임 및 상기 상부 프레임 중 하나에 설치되며, 상기 비행 몸체부와 전기적으로 연결되는 것을 특징으로 한다.In the unmanned aerial vehicle control system according to the present invention, the unmanned air vehicle body may include a flying body portion including a plurality of propellers, recognizing the pattern through the first camera and moving according to the movement of the pattern, A lower frame which is seated on the upper part and has a plurality of first space parts forming a space for rotation of the plurality of propellers and a plurality of first air outlets formed through the lower surface from the plurality of space parts, And an upper frame having a second exhaust port coupled to an upper portion of the lower frame on which the flying body is seated and formed with a second space portion for receiving the flying body portion and formed through the upper surface of the second space portion, And the second camera unit is installed in one of the lower frame and the upper frame, Respectively.

본 발명에 따른 무인 비행체 제어 시스템은 무인 비행체가 조종부에 구비되는 패턴을 인식하는 제1 카메라를 구비하여, 패턴의 움직임에 따라 조종되도록 함으로써, 조작의 교육을 받지 않은 조종자도 간편하고 직관적으로 무인 비행체를 조작할 수 있다.The unmanned aerial vehicle control system according to the present invention includes a first camera for recognizing a pattern provided on a control unit of the unmanned aerial vehicle, and the first camera is controlled according to the movement of the pattern. Thus, the unmanned operator can be easily and intuitively The aircraft can be operated.

또한 본 발명에 따른 무인 비행체 제어 시스템은 조종부가 무인 비행체를 촬영하여, 무인 비행체의 이미지를 포함하는 증강 현실 이미지를 화면 상에 출력하도록 함으로써, 무인 비행체를 통해 다양한 컨텐츠를 제공할 수 있다.Also, in the unmanned aerial vehicle control system according to the present invention, the control unit captures an unmanned aerial vehicle and outputs an augmented reality image including an image of the unmanned aerial vehicle on the screen, thereby providing various contents through the unmanned aerial vehicle.

도 1은 본 발명의 실시예에 따른 무인 비행체 제어 시스템의 구성을 나타낸 블록도이다.
도 2는 본 발명의 실시예에 따른 무인 비행체를 나타낸 사시도이다.
도 3은 본 발명의 실시예에 따른 무인 비행체를 나타낸 분해 사시도이다.
도 4는 본 발명의 실시예에 따른 조종부를 나타낸 도면이다.
도 5는 본 발명의 실시예에 따른 패턴부를 나타낸 예시도이다.
도 6은 본 발명의 실시예에 따른 단말기의 구성을 나타낸 블록도이다.
도 7은 본 발명의 실시예에 따른 무인 비행체 제어 시스템에 따라 제공되는 컨텐츠를 나타내기 위한 예시도이다.
1 is a block diagram illustrating a configuration of an unmanned aerial vehicle control system according to an embodiment of the present invention.
2 is a perspective view illustrating an unmanned aerial vehicle according to an embodiment of the present invention.
3 is an exploded perspective view illustrating an unmanned aerial vehicle according to an embodiment of the present invention.
4 is a view illustrating a control unit according to an embodiment of the present invention.
5 is an exemplary view showing a pattern unit according to an embodiment of the present invention.
6 is a block diagram illustrating a configuration of a terminal according to an embodiment of the present invention.
FIG. 7 is an exemplary diagram illustrating contents provided according to an unmanned aerial vehicle control system according to an embodiment of the present invention. Referring to FIG.

하기의 설명에서는 본 발명의 실시예를 이해하는데 필요한 부분만이 설명되며, 그 이외 부분의 설명은 본 발명의 요지를 흩트리지 않도록 생략될 것이라는 것을 유의하여야 한다.In the following description, only parts necessary for understanding the embodiments of the present invention will be described, and the description of other parts will be omitted so as not to obscure the gist of the present invention.

이하에서 설명되는 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념으로 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다. 따라서 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 바람직한 실시예에 불과할 뿐이고, 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다.The terms and words used in the present specification and claims should not be construed as limited to ordinary or dictionary meanings and the inventor is not limited to the meaning of the terms in order to describe his invention in the best way. It should be interpreted as meaning and concept consistent with the technical idea of the present invention. Therefore, the embodiments described in the present specification and the configurations shown in the drawings are merely preferred embodiments of the present invention, and are not intended to represent all of the technical ideas of the present invention, so that various equivalents And variations are possible.

이하, 첨부된 도면을 참조하여 본 발명의 실시예를 보다 상세하게 설명하고자 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 실시예에 따른 무인 비행체 제어 시스템의 구성을 나타낸 블록도이고, 도 2는 본 발명의 실시예에 따른 무인 비행체를 나타낸 사시도이고, 도 3은 본 발명의 실시예에 따른 무인 비행체를 나타낸 분해 사시도이고, 도 4는 본 발명의 실시예에 따른 조종부를 나타낸 도면이고, 도 5는 본 발명의 실시예에 따른 패턴부를 나타낸 예시도이고, 도 6은 본 발명의 실시예에 따른 단말기의 구성을 나타낸 블록도이고, 도 7은 본 발명의 실시예에 따른 무인 비행체 제어 시스템에 따라 제공되는 컨텐츠를 나타내기 위한 예시도이다.2 is a perspective view illustrating an unmanned aerial vehicle according to an embodiment of the present invention. FIG. 3 is a view illustrating an unmanned aerial vehicle control system according to an embodiment of the present invention. Referring to FIG. 1, FIG. 4 is a view illustrating a control unit according to an embodiment of the present invention. FIG. 5 is an exemplary view illustrating a pattern unit according to an exemplary embodiment of the present invention. FIG. FIG. 7 is an exemplary diagram illustrating contents provided according to an unmanned aerial vehicle control system according to an embodiment of the present invention. Referring to FIG.

도 1 내지 도 7을 참조하면, 본 발명의 실시예에 따른 무인 비행체 제어 시스템(100)은 무인 비행체(10) 및 조종부(20)를 포함한다.Referring to FIGS. 1 to 7, an unmanned aerial vehicle control system 100 according to an embodiment of the present invention includes an unmanned aerial vehicle 10 and a steering unit 20.

무인 비행체(10)는 사람이 탑승하지 않고 원격으로 조종자에 의해 조종되는 다양한 비행체가 적용될 수 있다. 무인 비행체(10)는 조종부(20)의 패턴부(21)에 형성된 패턴을 인식하여, 조종부(20)의 패턴의 움직임에 따라 조종될 수 있다.The unmanned aerial vehicle 10 can be applied to various types of vehicles that are operated by a remote operator without being carried by a person. The unmanned aerial vehicle 10 recognizes a pattern formed on the pattern unit 21 of the control unit 20 and can be controlled according to the movement of the pattern of the control unit 20. [

이러한 무인 비행체(10)는 비행 몸체부(11), 하부 프레임(12), 상부 프레임(13)을 포함할 수 있으며, 패턴을 인식하기 위한 제1 카메라(15)를 포함한다.The unmanned aerial vehicle 10 may include a flying body portion 11, a lower frame 12, and an upper frame 13, and includes a first camera 15 for recognizing a pattern.

먼저 비행 몸체부(11)는 복수의 프로펠러를 포함하며, 제1 카메라(15)를 통해 패턴을 인식하고 패턴의 움직임에 따라 이동할 수 있다. 즉 조종자가 제1 카메라(15)에 패턴부(21)를 근접시키게 되면, 제1 카메라(15)가 패턴부(21)에 형성된 패턴을 인식하고 동기화를 수행한다. 여기서 제1 카메라(15)는 후술할 하부 프레임(12) 또는 상부 프레임(13)에 설치될 수 있으며, 비행 몸체부(11)와 전기적으로 연결되어 촬영된 영상 정보를 비행 몸체부(11)에 구비된 컨트롤러(미도시)로 전달할 수 있다. 동기화를 수행한 후 비행 몸체부(11)는 조종자를 통한 패턴부(21)의 움직임에 따라 이동할 수 있다.First, the flying body part 11 includes a plurality of propellers, and can recognize the pattern through the first camera 15 and move according to the movement of the pattern. That is, when the operator brings the pattern unit 21 close to the first camera 15, the first camera 15 recognizes the pattern formed on the pattern unit 21 and performs synchronization. The first camera 15 may be installed on the lower frame 12 or the upper frame 13 to be described later and may be electrically connected to the flying body 11 to transmit photographed image information to the flying body 11 To a controller (not shown) provided. After performing the synchronization, the flying body part 11 can move according to the movement of the pattern part 21 through the operator.

예컨데 조종자가 비행 몸체부(11)에 패턴을 인식시켜 동기화를 수행하고, 비행 몸체부(11)를 공중에 던지게 되면, 비행 몸체부(11)는 공중에서 호버링(hovering) 상태로 유지된다.For example, when a driver recognizes a pattern on the flying body part 11 to perform synchronization, and when the flying body part 11 is thrown into the air, the flying body part 11 is maintained in a hovering state in the air.

그리고 조종자가 패턴을 제1 카메라(15)를 지향한 상태로, 상하 좌우로 이동시키게 되면, 비행 몸체부(11)는 조종자에 의한 패턴의 움직에 따라 상하 좌우로 이동할 수 있다. 여기서 비행 몸체부(11)는 패턴이 지향하는 방향에 따라 상하 좌우로 움직이도록 설정될 수 있지만, 이에 한정된 것은 아니고, 비행 몸체부(11)는 패턴의 형상 변화를 통해 패턴의 움직임을 파악할 수 있다. 예컨데 비행 몸체부(11)는 패턴의 크기 변화를 통해 전진 또는 후진 움직임을 파악하거나, 형성 변화를 통해 패턴의 기울기를 파악하여 좌우 움직임을 파악하도록 구성될 수 있다.When the operator moves the pattern to the first camera 15 in the up, down, left, and right directions, the flying body 11 can move up, down, left and right according to the movement of the pattern by the controller. Here, the flight body 11 may be configured to move up and down and left and right according to the direction in which the pattern is oriented, but the present invention is not limited thereto. The flight body 11 can grasp the movement of the pattern through a change in the shape of the pattern . For example, the flying body 11 may be configured to grasp the forward or backward movement through a change in the size of the pattern, or grasp the slope of the pattern through the formation change to grasp the lateral movement.

한편 하부 프레임(12) 및 상부 프레임(13)은 비행 몸체부(11)를 보호하며, 조종자가 비행 몸체부(11)의 프로펠러에 의해 다치는 것을 방지하기 위한 구성이다. 또한 하부 프레임(12) 및 상부 프레임(13)은 후술할 조종부(20)에 의한 증강 현실 이미지를 화면 상에 구현하기 위하여, 단순한 형상으로 형성될 수 있다. 예컨데 하부 프레임(12) 및 상부 프레임(13)은 구 형상, 직육면체 형상 등 다양한 형태로 구현될 수 있으며, 하기의 설명에서는 구 형상으로 구현된 예를 설명하도록 한다.Meanwhile, the lower frame 12 and the upper frame 13 protect the flying body 11 and prevent the driver from being hurt by the propeller of the flying body 11. The lower frame 12 and the upper frame 13 may be formed in a simple shape in order to realize an augmented reality image by the control unit 20 to be described later on the screen. For example, the lower frame 12 and the upper frame 13 may be formed in various shapes such as a sphere shape and a rectangular parallelepiped shape. In the following description, an example in which the sphere shape is implemented will be described.

하부 프레임(12)은 비행 몸체부(11)가 상부에 안착되며, 복수의 프로펠러가 회전하기 위한 공간을 형성하는 복수의 제1 공간부(12a)가 형성될 수 있다. 여기서 복수의 제1 공간부(12a)의 복수의 프로펠러의 개수와 동일하게 형성될 수 있으며, 복수의 프로펠러가 회전 가능한 크기로 형성될 수 있다. 즉 비행 몸체부(11)의 중심부가 하부 프레임(12)에 안착되며, 각 프로펠러는 각 제1 공간부(12a)에 수용되어 회전할 수 있다.The lower frame 12 may be formed with a plurality of first space portions 12a on which the flying body portion 11 is seated on the top and a space for rotating the plurality of propellers is formed. Here, the number of the plurality of propellers may be the same as the number of the plurality of propellers of the plurality of first space portions 12a, and the plurality of propellers may be formed to be rotatable. That is, the center portion of the flying body portion 11 is seated on the lower frame 12, and each propeller is accommodated in the respective first space portions 12a and can rotate.

또한 하부 프레임(12)은 복수의 제1 공간부(12a)로부터 하부면을 관통하여 형성되는 복수의 제1 배기구(12b)가 형성된다. 즉 하부 프레임(12)은 비행 몸체부(11)가 내부에 구비된 상태로 비행할 수 있도록 프로펠러에 의해 발생되는 공기를 외부로 배출할 수 있도록 제1 배기구(12b)가 형성될 수 있다.In addition, the lower frame 12 is formed with a plurality of first exhaust ports 12b formed through a plurality of first space portions 12a through a lower surface thereof. That is, the lower frame 12 may be formed with a first exhaust port 12b to allow air generated by the propeller to be discharged to the outside so that the flying body 11 can fly in a state of being provided inside.

상부 프레임(13)은 비행 몸체부(11)가 안착된 하부 프레임(12)의 상부에 결합되어 비행 몸체부(11)를 수용하기 위한 제2 공간부(미도시)가 형성될 수 있다. 또한 제2 공간부로부터 상부면을 관통하여 형성되는 제2 배기구(13a)가 형성된다.The upper frame 13 may be coupled to an upper portion of the lower frame 12 on which the flying body 11 is seated to form a second space portion (not shown) for receiving the flying body portion 11. And a second exhaust port 13a formed through the upper surface from the second space is formed.

즉 하부 프레임(12) 및 상부 프레임(13)은 내부에 비행 몸체부(11)를 수용한 상태로 결합되며, 구 형상을 형성할 수 있다.That is, the lower frame 12 and the upper frame 13 are coupled to each other while accommodating the flying body 11 therein, and can form a spherical shape.

그리고 비행 몸체부(11)의 복수의 프로펠러가 동작하게 되면, 제2 배기구(13a)를 통해 외부 공기가 흡입될 수 있으며, 제1 배기구(12a)를 통해 내부 공기가 외부로 배출되어 비행 몸체부(11)는 비행을 수행할 수 있다.When a plurality of propellers of the flying body portion 11 are operated, external air can be sucked through the second exhaust port 13a, and the internal air is discharged to the outside through the first exhaust port 12a, (11) can perform the flight.

또한 무인 비행체(10)는 미사용시 상단 프레임(13)의 제2 배기구(13a)를 덮어 보호하는 덮개(14)를 더 포함하여 구성될 수 있다.The unmanned air vehicle body 10 may further include a lid 14 covering and protecting the second exhaust port 13a of the upper frame 13 when not in use.

조종부(20)는 패턴을 구비하여 무인 비행체(10)의 움직임을 조종하고, 무인 비행체(10)를 촬영하여 무인 비행체(10)의 이미지를 포함하는 증강 현실 이미지를 화면 상에 출력할 수 있다.The control unit 20 can control the movement of the unmanned air vehicle 10 by providing a pattern and can photograph the unmanned air vehicle 10 and output an augmented reality image including an image of the unmanned air vehicle 10 on the screen .

이러한 조종부(20)는 패턴부(21) 및 단말기(22)를 포함하여 구성될 수 있다.This control unit 20 may be configured to include the pattern unit 21 and the terminal 22. [

먼저 패턴부(21)는 패턴(21a)이 형성된 카드 형태로 구성될 수 있으며, 단말기(22)에 부착되도록 구성된다. 여기서 패턴(21a)은 도 5의 (a)에 도시된 바와 같이 QR코드로 형성되거나, (b)에 도시된 바와 같이 바코드 형태, 색상 패턴 등으로 형성될 수 있다. 하지만 이에 한정된 것은 아니고, 패턴부(21)는 RFID 등과 같은 근거리 무선 통신을 통해 구성될 수도 있다.First, the pattern unit 21 may be configured in the form of a card on which the pattern 21a is formed, and is configured to be attached to the terminal 22. [ Here, the pattern 21a may be formed of a QR code as shown in FIG. 5 (a), or may be formed of a barcode shape, a color pattern, or the like, as shown in FIG. However, the present invention is not limited to this, and the pattern unit 21 may be configured through short-range wireless communication such as RFID.

이러한 패턴부(21)는 조종자에 의해 제1 카메라(15)를 지향한 상태로 무인 비행체(10)를 조종할 수 있다. 예컨데 패턴부(21)는 카드 형태로 단말기(22)의 후면에 부착될 수 있어 후술할 제2 카메라(22a)가 무인 비행체(10)를 촬영하면서, 패턴(21a)이 무인 비행체(10)를 지향하도록 구성될 수 있다.The pattern unit 21 can steer the unmanned air vehicle 10 while the first camera 15 is directed by the driver. For example, the pattern unit 21 can be attached to the rear surface of the terminal 22 in the form of a card, so that the second camera 22a, which will be described later, photographs the unmanned air body 10, As shown in FIG.

단말기(22)는 패턴부(21)가 결합되고, 제2 카메라(22a)를 구비하여 무인 비행체(10)를 촬영하며, 무인 비행체(10)의 이미지를 포함하는 증강 현실 이미지를 화면 상에 출력할 수 있다.The terminal 22 photographs the unmanned air vehicle 10 with the pattern unit 21 and the second camera 22a and outputs an augmented reality image including the image of the unmanned air vehicle 10 on the screen can do.

예컨데 단말기(22)는 어플리케이션을 실행하고, 실행 화면 상에 제공되는 각종 기능을 수행할 수 있는 이동통신단말기를 대표적인 예로서 설명하지만, 이에 한정된 것은 아니고, 모든 정보통신기기, 멀티미디어 단말기, 유선 단말기, 고정형 단말기 및 IP(Internet Protocol) 단말기 등의 다양한 단말기에 적용될 수 있다. 예컨데 단말기(22)는 휴대폰, PMP(Portable Multimedia Player), MID(Mobile Internet Device), 스마트폰(Smart Phone), 데스크톱(Desktop), 태블릿컴퓨터(Tablet PC), 노트북(Note book), 넷북(Net book) 및 정보통신 기기 등과 같은 다양한 이동통신 사양을 갖는 모바일(Mobile) 단말기일 때 유리하게 활용될 수 있다.For example, although the mobile communication terminal capable of executing an application and performing various functions provided on an execution screen is described as a representative example, the terminal 22 is not limited to this, and may be any information communication device, a multimedia terminal, A fixed type terminal and an IP (Internet Protocol) terminal. For example, the terminal 22 may be a mobile phone, a portable multimedia player (PMP), a mobile internet device (MID), a smart phone, a desktop, a tablet PC, a notebook, book) and information communication devices, and the like can be advantageously used when the mobile terminal has various mobile communication specifications.

이러한 단말기(22)는 제2 카메라(22a), 입력부(22b), 표시부(22c), 통신부(22d), 저장부(22e) 및 단말 제어부(22f)를 포함할 수 있다.The terminal 22 may include a second camera 22a, an input unit 22b, a display unit 22c, a communication unit 22d, a storage unit 22e, and a terminal control unit 22f.

이러한 제2 카메라(22a)는 무인 비행체(10)를 촬영한다. CCD(Charge Coupled Device) 카메라 또는 CMOS(Complementary Metal Oxide Semiconductor) 카메라일 수 있으며, 이에 한정되는 것은 아니다.The second camera 22a photographs the unmanned air vehicle 10. A CCD (Charge Coupled Device) camera, or a CMOS (Complementary Metal Oxide Semiconductor) camera, but is not limited thereto.

입력부(22b)는 숫자 및 문자 정보 등의 다양한 정보를 입력 받고, 각종 기능을 설정 및 단말기(22)의 기능 제어와 관련하여 입력되는 신호를 단말 제어부(22f)로 전달한다. 이러한 입력부(22b)는 표시부(22c)를 통해 출력되는 증강 현실 이미지를 제어하기 위한 신호를 입력받을 수 있다. 또한 입력부(22b)는 사용자의 터치 또는 조작에 따른 입력 신호를 발생하는 키패드와 터치패드 중 적어도 하나를 포함하여 구성될 수 있다. 이때 입력부(22b)는 표시부(22c)와 함께 하나의 터치패널(또는 터치스크린(touch screen))의 형태로 구성되어 입력과 표시 기능을 동시에 수행할 수 있다. 또한, 입력부(22b)는 키보드, 키패드, 마우스, 조이스틱 등과 같은 입력 장치 외에도 향후 개발될 수 있는 모든 형태의 입력 수단이 사용될 수 있다.The input unit 22b receives various information such as numbers and character information and transmits various signals to the terminal control unit 22f in connection with setting various functions and controlling the functions of the terminal 22. [ The input unit 22b may receive a signal for controlling the augmented reality image output through the display unit 22c. The input unit 22b may include at least one of a keypad and a touchpad that generates an input signal according to a user's touch or operation. At this time, the input unit 22b may be configured in the form of one touch panel (or touch screen) together with the display unit 22c to simultaneously perform input and display functions. The input unit 22b may be any type of input device that can be developed in addition to an input device such as a keyboard, a keypad, a mouse, a joystick, and the like.

표시부(22c)는 단말기(22)의 기능 수행 중에 발생하는 일련의 동작 상태 및 동작 결과 등에 대한 정보를 표시한다. 또한 표시부(22c)는 액정표시장치(LCD, Liquid Crystal Display), 초박막 액정표시장치(TFT-LCD, Thin Film Transistor LCD), 발광다이오드(LED, Light Emitting Diode), 유기 발광다이오드(OLED, Organic LED), 능동형 유기발광다이오드(AMOLED, Active Matrix OLED), 레티나 디스플레이(Retina Display), 플렉시블 디스플레이(Flexible display) 및 3차원(3 Dimension) 디스플레이 등으로 구성될 수 있다. 특히 표시부(22c)는 단말 제어부(22f)의 제어 하에 증강 현실 이미지를 출력할 수 있다.The display unit 22c displays information on a series of operation states, operation results, and the like that occur during the performance of the function of the terminal 22. [ The display unit 22c may be a liquid crystal display (LCD), a thin film transistor LCD (TFT-LCD), a light emitting diode (LED), an organic light emitting diode (OLED) An active matrix OLED (OLED), a retina display, a flexible display, and a three-dimensional display. In particular, the display unit 22c can output the augmented reality image under the control of the terminal control unit 22f.

통신부(22d)는 통신망을 통해 다른 사용자가 소지하고 있는 단말기와 데이터를 송수신하기 위한 기능을 수행한다.The communication unit 22d performs a function for transmitting and receiving data with a terminal owned by another user through a communication network.

저장부(22e)는 데이터를 저장하기 위한 장치로, 사용자의 요청에 상응하여 각 기능을 활성화하는 경우, 단말 제어부(22f)의 제어 하에 해당 응용 프로그램들을 실행하여 각 기능을 제공하게 된다. 이러한 저장부(22e)는 증강 현실 이미지를 구현하기 위한 프로그램, 증강 현실 이미지를 제어하기 위한 프로그램 등을 포함할 수 있으며, 무인 비행체 이미지에 정합하기 위한 가상 이미지를 저장할 수 있다.The storage unit 22e is an apparatus for storing data. When each function is activated in response to a user's request, the storage unit 22e executes the corresponding application programs under the control of the terminal control unit 22f to provide respective functions. The storage unit 22e may include a program for implementing an augmented reality image, a program for controlling an augmented reality image, and the like, and may store a virtual image for matching with an unmanned aerial vehicle image.

단말 제어부(22f)는 제2 카메라(22a)를 통해 촬영된 이미지에서 무인 비행체(10)의 이미지(10a)를 추출하고, 추출된 무인 비행체 이미지(10a)에 가상 이미지(1)를 정합하여 증강 현실 이미지를 생성하고, 입력부(22b)의 입력에 따라 증강 현실 이미지를 제어할 수 있다. 여기서 가상 이미지(1)는 캐릭터를 포함할 수 있다.The terminal control unit 22f extracts the image 10a of the unmanned air vehicle 10 from the image photographed through the second camera 22a and matches the virtual image 1 to the extracted unmanned air vehicle image 10a, It is possible to generate a real image and to control the augmented reality image according to the input of the input unit 22b. Here, the virtual image 1 may include a character.

또한 단말 제어부(22f)는 도 7에 도시된 바와 같이, 통신부(22d)를 통해 본 발명의 실시예에 따른 무인 비행체 로봇 제어 시스템(100)이 구현된 다른 단말기(122)와 연결되어, 컨텐츠를 제공할 수 있다.7, the terminal control unit 22f is connected to another terminal 122 implemented with the unmanned aerial vehicle robot control system 100 according to the embodiment of the present invention through the communication unit 22d, .

예컨데 단말기(22)와 다른 단말기(122)는 각각 무인 비행체(10, 110)를 촬영하여 무인 비행체 이미지(10a, 110a)가 포함된 증강 현실 이미지를 출력할 수 있다.For example, the terminal 22 and the other terminal 122 can photograph the unmanned aerial vehicle 10 and 110 and output the augmented reality image including the unmanned aerial vehicle images 10a and 110a, respectively.

여기서 단말기(22)와 다른 단말기(22)는 지향하는 방향을 통해 각각의 무인 비행체(10, 110)의 이동 방향을 제어함과 동시에 화면 상의 증강 현실 이미지의 이동 또한 제어하게 된다.Herein, the terminal 22 and the other terminal 22 control the moving direction of each of the unmanned aerial vehicles 10 and 110 through the direction in which they are oriented, and also control the movement of the augmented reality image on the screen.

이때 단말기(22)와 다른 단말기(22)는 각각의 입력부를 통해 증강 현실 이미지에 포함된 가상 이미지(1, 2)를 제어할 수 있다. 예컨데 가상 이미지를 제어하여 서로 구현된 증강 현실 이미지 간에 가상 전투를 진행하도록 할 수 있다. 하지만 이에 한정된 것은 아니고 레이싱을 진행하는 등 다양한 컨텐츠가 적용될 수 있다.At this time, the terminal 22 and the other terminal 22 can control the virtual images 1 and 2 included in the augmented reality image through the respective input units. For example, a virtual image may be controlled to allow a virtual battle to proceed between the augmented reality images that are implemented with each other. However, it is not limited to this, but various contents including racing may be applied.

이와 같이, 본 발명의 실시예에 따른 무인 비행체 제어 시스템(100)은 무인 비행체(10)가 조종부(20)에 구비되는 패턴을 인식하는 제1 카메라(15)를 구비하여, 패턴의 움직임에 따라 조종되도록 함으로써, 조작의 교육을 받지 않은 조종자도 간편하고 직관적으로 무인 비행체(10)를 조작할 수 있다.As described above, the unmanned aerial vehicle control system 100 according to the embodiment of the present invention includes the first camera 15 that recognizes a pattern provided in the control unit 20, It is possible to operate the unmanned air vehicle 10 in a simple and intuitive manner even if the operator is not trained in the operation.

또한 본 발명의 실시예에 따른 무인 비행체 제어 시스템(100)은 조종부(20)가 무인 비행체(10)를 촬영하여, 무인 비행체(10)의 이미지를 포함하는 증강 현실 이미지를 화면 상에 출력하도록 함으로써, 무인 비행체(10)를 통해 다양한 컨텐츠를 제공할 수 있다.The control unit 100 according to the embodiment of the present invention is configured such that the control unit 20 captures the unmanned object 10 and outputs an augmented reality image including the image of the unmanned air vehicle 10 on the screen So that various contents can be provided through the unmanned aerial vehicle 10.

한편, 본 도면에 개시된 실시예는 이해를 돕기 위해 특정 예를 제시한 것에 지나지 않으며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시예 이외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형예들이 실시 가능하다는 것은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게는 자명한 것이다.It should be noted that the embodiments disclosed in the drawings are merely examples of specific examples for the purpose of understanding, and are not intended to limit the scope of the present invention. It will be apparent to those skilled in the art that other modifications based on the technical idea of the present invention are possible in addition to the embodiments disclosed herein.

10 : 무인 비행체 11 : 비행 몸체부
12 : 하부 프레임 12a : 제1 공간부
12b : 제1 배기부 13 : 상부 프레임
13a : 제2 배기부 14 : 덮개
15 : 제1 카메라 20 : 조종부
21 : 패턴부 21a: 패턴
22 : 단말기 22a : 제2 카메라
22b : 입력부 22c: 표시부
22d : 통신부 22e : 저장부
22f : 단말 제어부 100 : 무인 비행체 제어 시스템
10: unmanned aerial vehicle 11:
12: lower frame 12a: first space portion
12b: first exhaust part 13: upper frame
13a: second exhaust part 14: cover
15: first camera 20:
21: pattern part 21a: pattern
22: terminal 22a: second camera
22b: input section 22c: display section
22d: communication unit 22e:
22f: terminal control unit 100: unmanned aerial vehicle control system

Claims (7)

패턴을 인식하는 제1 카메라를 구비하여, 상기 패턴의 움직임에 따라 이동하는 무인 비행체;
상기 패턴을 구비하여 상기 무인 비행체의 이동을 조종하고, 제2 카메라를 구비하여 상기 무인 비행체를 촬영하며, 상기 무인 비행체의 이미지를 포함하는 증강 현실 이미지를 화면 상에 출력하는 조종부;
를 포함하는 것을 특징으로 하는 무인 비행체 제어 시스템.
An unmanned aerial vehicle comprising a first camera for recognizing a pattern and moving according to movement of the pattern;
A control unit for controlling movement of the unmanned aerial vehicle with the pattern, photographing the unmanned aerial vehicle with a second camera, and outputting an augmented reality image including an image of the unmanned aerial vehicle on a screen;
And a control unit for controlling the unmanned object.
제1항에 있어서,
상기 조종부는,
상기 패턴이 형성된 패턴부;
상기 패턴부와 결합되고, 상기 제2 카메라를 구비하여 상기 무인 비행체를 촬영하며, 상기 무인 비행체의 이미지를 포함하는 증강 현실 이미지를 화면 상에 출력하는 단말기;
를 포함하는 것을 특징으로 하는 무인 비행체 제어 시스템.
The method according to claim 1,
Wherein,
A pattern portion on which the pattern is formed;
A terminal coupled to the pattern unit and configured to photograph the unmanned aerial vehicle with the second camera and to output an augmented reality image including an image of the unmanned aerial vehicle on a screen;
And a control unit for controlling the unmanned object.
제2항에 있어서,
상기 패턴은 바코드, QR코드, RFID 또는 색상 패턴을 포함하고,
상기 패턴부는 상기 패턴이 형성된 카드 형태로 형성되는 것을 특징으로 하는 무인 비행체 제어 시스템.
3. The method of claim 2,
The pattern includes a bar code, a QR code, an RFID, or a color pattern,
Wherein the pattern unit is formed in the form of a card on which the pattern is formed.
제3항에 있어서,
상기 무인 비행체는 상기 패턴이 상기 제1 카메라를 통해 인식되면 동기화를 수행하고, 상기 패턴의 움직임에 따라 이동하는 것을 특징으로 하는 무인 비행체 제어 시스템.
The method of claim 3,
Wherein the unmanned aerial vehicle performs synchronization when the pattern is recognized through the first camera, and moves according to the movement of the pattern.
제4항에 있어서,
상기 단말기는,
상기 증강 현실 이미지를 제어하기 위한 신호를 입력받는 입력부;
상기 증강 현실 이미지를 출력하는 표시부;
상기 제2 카메라를 통해 촬영된 이미지에서 상기 무인 비행체의 이미지를 추출하고, 추출된 상기 무인 비행체 이미지에 가상 이미지를 정합하여 상기 증강 현실 이미지를 생성하고, 상기 입력부의 입력에 따라 상기 증강 현실 이미지를 제어하며, 상기 표시부를 통해 표시되도록 하는 단말 제어부;
를 포함하는 것을 특징으로 하는 무인 비행체 제어 시스템.
5. The method of claim 4,
The terminal comprises:
An input unit for receiving a signal for controlling the augmented reality image;
A display unit for outputting the augmented reality image;
The method comprising the steps of: extracting an image of the unmanned aerial vehicle from an image photographed by the second camera, generating an augmented reality image by matching a virtual image with the extracted unmanned aerial vehicle image, A terminal control unit for controlling the display unit to display the information through the display unit;
And a control unit for controlling the unmanned object.
제5항에 있어서,
상기 가상 이미지는 캐릭터를 포함하며 상기 입력부를 통해 제어되는 것을 특징으로 하는 무인 비행체 제어 시스템.
6. The method of claim 5,
Wherein the virtual image includes a character and is controlled through the input unit.
제1항에 있어서,
상기 무인 비행체는,
복수의 프로펠러를 포함하며, 상기 제1 카메라를 통해 상기 패턴을 인식하고, 패턴의 움직임에 따라 이동하는 비행 몸체부;
상기 비행 몸체부가 상부에 안착되며, 상기 복수의 프로펠러가 회전하기 위한 공간을 형성하는 복수의 제1 공간부와, 상기 복수의 제1 공간부로부터 하부면을 관통하여 형성되는 복수의 제1 배기구가 형성되는 하부 프레임;
상기 비행 몸체부가 안착된 상기 하부 프레임의 상부에 결합되어 상기 비행 몸체부를 수용하기 위한 제2 공간부가 형성되고, 상기 제2 공간부로부터 상부면을 관통하여 형성되는 제2 배기구가 형성된 상부 프레임; 을 포함하고,
상기 제1 카메라부는 상기 하부 프레임 및 상기 상부 프레임 중 하나에 설치되며, 상기 비행 몸체부와 전기적으로 연결되는 것을 특징으로 하는 무인 비행체 제어 시스템.
The method according to claim 1,
In the unmanned aerial vehicle,
A flying body part including a plurality of propellers, the flying body part recognizing the pattern through the first camera and moving according to the movement of the pattern;
And a plurality of first exhaust ports formed through the lower surface of the plurality of first space portions, the plurality of first exhaust ports being formed by passing through the lower surface of the plurality of first space portions, A lower frame formed;
An upper frame having a second exhaust port coupled to an upper portion of the lower frame on which the flying body is seated and formed with a second space portion for receiving the flying body portion and a second exhaust port formed through the upper surface from the second space portion; / RTI >
Wherein the first camera unit is installed in one of the lower frame and the upper frame, and is electrically connected to the flying body.
KR1020170161343A 2017-11-29 2017-11-29 Unmanned aerial vehicle control system KR102030085B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170161343A KR102030085B1 (en) 2017-11-29 2017-11-29 Unmanned aerial vehicle control system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170161343A KR102030085B1 (en) 2017-11-29 2017-11-29 Unmanned aerial vehicle control system

Publications (2)

Publication Number Publication Date
KR20190062793A true KR20190062793A (en) 2019-06-07
KR102030085B1 KR102030085B1 (en) 2019-10-08

Family

ID=66850241

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170161343A KR102030085B1 (en) 2017-11-29 2017-11-29 Unmanned aerial vehicle control system

Country Status (1)

Country Link
KR (1) KR102030085B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090088045A (en) 2008-02-14 2009-08-19 경상대학교산학협력단 Remote control airplane system with combat function
KR20130067796A (en) * 2011-12-14 2013-06-25 건국대학교 산학협력단 Unmanned vehicle remote control apparatus and method using virtual world
KR20160147713A (en) * 2014-04-25 2016-12-23 소니 주식회사 Information processing device, information processing method, program, and imaging system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090088045A (en) 2008-02-14 2009-08-19 경상대학교산학협력단 Remote control airplane system with combat function
KR20130067796A (en) * 2011-12-14 2013-06-25 건국대학교 산학협력단 Unmanned vehicle remote control apparatus and method using virtual world
KR20160147713A (en) * 2014-04-25 2016-12-23 소니 주식회사 Information processing device, information processing method, program, and imaging system

Also Published As

Publication number Publication date
KR102030085B1 (en) 2019-10-08

Similar Documents

Publication Publication Date Title
CN107168352B (en) Target tracking system and method
US11932392B2 (en) Systems and methods for adjusting UAV trajectory
US10357709B2 (en) Unmanned aerial vehicle movement via environmental airflow
US20180098052A1 (en) Translation of physical object viewed by unmanned aerial vehicle into virtual world object
CN111372851B (en) Unmanned aerial vehicle control system, unmanned aerial vehicle control method, and readable storage medium
JP6560481B1 (en) Unmanned aircraft control system, unmanned aircraft control method, and program
KR20160016830A (en) Multi-purposed self-propelled device
CN109478363A (en) Method and apparatus related with convertible remote controler
KR20170090888A (en) Apparatus for unmanned aerial vehicle controlling using head mounted display
JP2021175175A (en) Method, program, and apparatus for operating movable object based on human body indication
CN107831791A (en) A kind of control method of unmanned plane, device, controlling equipment and storage medium
US10751605B2 (en) Toys that respond to projections
US20210181769A1 (en) Movable platform control method, movable platform, terminal device, and system
Asiimwe et al. Automation of the Maritime UAV command, control, navigation operations, simulated in real-time using Kinect sensor: A feasibility study
KR102030085B1 (en) Unmanned aerial vehicle control system
Brooks Welcome to the personal drone revolution
Piponidis et al. Towards a Fully Autonomous UAV Controller for Moving Platform Detection and Landing
KR20180073849A (en) Remote control device
Graber et al. RoboCupRescue 2012-Robot League Team
SHARMA Deployment of drone demonstators-Automatic take-off and landing of a drone on a mobile robot.
Abirami et al. Interfacing a Flying Robot with OpenCV
Nie et al. Teleoperation Control for Mobile Robot via Leap Motion Device
Freistetter Design and Implementation of Autonomous and Collaborative Drone Behaviour in a Smartphone App/submitted by Alexander Freistetter
JP2021036452A (en) System and method for adjusting uav locus
Carpenter et al. An Extended Study of the Applications of Using Gesture Control to Pilot UAVs

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant