KR20200130985A - Apparatus and method for controlling drone - Google Patents

Apparatus and method for controlling drone Download PDF

Info

Publication number
KR20200130985A
KR20200130985A KR1020190055629A KR20190055629A KR20200130985A KR 20200130985 A KR20200130985 A KR 20200130985A KR 1020190055629 A KR1020190055629 A KR 1020190055629A KR 20190055629 A KR20190055629 A KR 20190055629A KR 20200130985 A KR20200130985 A KR 20200130985A
Authority
KR
South Korea
Prior art keywords
drone
touch screen
flight
control signal
screen unit
Prior art date
Application number
KR1020190055629A
Other languages
Korean (ko)
Inventor
박준연
박지현
변지숙
송의석
이건우
정창용
제보은
Original Assignee
주식회사 어플라이
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 어플라이 filed Critical 주식회사 어플라이
Priority to KR1020190055629A priority Critical patent/KR20200130985A/en
Publication of KR20200130985A publication Critical patent/KR20200130985A/en

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0038Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/08Arrangements of cameras
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • B64C2201/127
    • B64C2201/146
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/20Remote controls

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • User Interface Of Digital Computer (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

Disclosed are a device and method for controlling a drone. The device for controlling a drone according to one embodiment of the present invention comprises: a communication unit transmitting and receiving a signal to and from a drone equipped with a camera; and a touch screen unit outputting an image and receiving a user input. The control unit may receive image data from the drone through the communication unit, output the image based on the image data by controlling the touch screen unit, receive a touch gesture input of a user through the touch screen unit, generate at least one of a flight control signal and a camera control signal based on the touch gesture input of the user, and transmit at least one of the flight control signal and the camera control signal generated through the communication unit to the drone. Therefore, the user can easily control the drone.

Description

드론 제어 장치 및 방법{Apparatus and method for controlling drone}Drone control apparatus and method {Apparatus and method for controlling drone}

드론을 제어하기 위한 기술로서 특히, 소정 경로를 따라 자율 비행 중인 드론을 제어하기 위한 장치 및 방법에 관한 것이다.As a technology for controlling a drone, in particular, it relates to an apparatus and method for controlling a drone in autonomous flight along a predetermined path.

드론은 항법 및 제어, 사용 목적에 따라 다양한 센서들이 탑재되고 있다. 예를 들어, 드론은 항법을 위해 GPS, 지자기 센서, 관성항법장치 등을 탑재하고 있으며, Radar, LiDAR 및 카메라를 활용하여 근거리의 장애물 회피, 감시정찰 및 특정 대상에 대한 모니터링 등을 수행한다. Drones are equipped with various sensors depending on the purpose of navigation, control and use. For example, drones are equipped with GPS, geomagnetic sensors, and inertial navigation devices for navigation, and use radar, LiDAR, and cameras to avoid obstacles at close range, surveillance and reconnaissance, and monitoring of specific targets.

또한, 드론을 이용해 특정 대상을 모니터링하기 위하여 직접적인 조종 없이 드론이 자율적으로 주행할 수 있는 기술이 개발되고 있다.In addition, in order to monitor a specific target using a drone, a technology that allows a drone to autonomously run without direct control is being developed.

드론을 제어하기 위한 장치 및 방법을 제공하는데 목적이 있다.An object is to provide an apparatus and method for controlling a drone.

일 양상에 따르면, 드론 제어 장치는 카메라가 탑재된 드론과 신호를 송수신하는 통신부; 영상을 출력하고 사용자 입력을 수신하는 터치스크린부; 및 제어부를 포함하며, 제어부는 통신부를 통하여 드론으로부터 영상 데이터를 수신하며, 터치스크린부를 제어하여 영상 데이터를 기초로 영상을 출력하며, 터치스크린부를 통하여 사용자의 터치 제스처 입력을 수신하며, 사용자의 터치 제스처 입력에 기초하여 비행 제어 신호 및 카메라 제어 신호 중 적어도 하나를 생성하며, 통신부를 통하여 생성된 비행 제어 신호 및 카메라 제어 신호 중 적어도 하나를 드론으로 전송할 수 있다. According to an aspect, a drone control device includes: a communication unit for transmitting and receiving signals to and from a drone equipped with a camera; A touch screen unit that outputs an image and receives a user input; And a control unit, wherein the control unit receives image data from the drone through the communication unit, outputs an image based on the image data by controlling the touch screen unit, receives a user's touch gesture input through the touch screen unit, and At least one of a flight control signal and a camera control signal may be generated based on a gesture input, and at least one of a flight control signal and a camera control signal generated through a communication unit may be transmitted to the drone.

제어부는 터치스크린부를 통하여 사용자로부터 특정 방향으로 스와이프(swipe)하는 터치 제스처 입력을 수신하는 경우, 해당 특정 방향에 대응하는 방향으로 드론에 탑재된 카메라의 방향을 변경하는 카메라 제어 신호를 생성할 수 있다. When receiving a touch gesture input for swiping in a specific direction from the user through the touch screen unit, the controller can generate a camera control signal that changes the direction of the camera mounted on the drone in a direction corresponding to the specific direction. have.

제어부는 입력된 스와이프의 길이에 기초하여 카메라의 방향을 변경하는 각도를 결정할 수 있다. The controller may determine an angle to change the direction of the camera based on the inputted swipe length.

제어부는 터치스크린부를 통하여 사용자로부터 특정 방향으로 스와이프하는 터치 제스처 입력을 수신하는 경우, 해당 특정 방향에 대응하는 방향으로 드론의 비행 방향을 변경하는 비행 제어 신호를 생성할 수 있다. When receiving a touch gesture input for swiping in a specific direction from a user through the touch screen unit, the controller may generate a flight control signal for changing the flight direction of the drone in a direction corresponding to the specific direction.

제어부는 터치스크린부를 통하여 사용자로부터 터치스크린부의 특정 지점을 탭(tap)하는 터치 제스처 입력을 수신하는 경우, 드론의 비행을 정지시키는 또는 재개시키는 비행 제어 신호를 생성할 수 있다. When receiving a touch gesture input of tapping a specific point of the touch screen unit from the user through the touch screen unit, the control unit may generate a flight control signal for stopping or restarting the flight of the drone.

제어부는 드론의 비행이 정지된 상태에서 터치스크린부를 통하여 사용자로부터 소정의 방향으로 스와이프하는 터치 제스처 입력을 수신하는 경우, 해당 방향에 대응하는 방향으로 드론에 탑재된 카메라의 방향을 변경하는 카메라 제어 신호를 생성할 수 있다.The controller controls the camera to change the direction of the camera mounted on the drone in a direction corresponding to the direction when receiving a touch gesture input by swiping in a predetermined direction from the user through the touch screen unit while the flight of the drone is stopped. Can generate signals.

제어부는 터치스크린부를 통하여 사용자로부터 소정의 방향으로 스와이프하는 터치 제스처 입력을 수신하는 경우, 미리 설정된 비행 경로를 벗어나지 않는 방향에 한하여 해당 방향에 대응하는 방향으로 드론의 비행 방향을 변경하는 비행 제어 신호를 생성할 수 있다. When the control unit receives a touch gesture input for swiping in a predetermined direction from the user through the touch screen unit, a flight control signal for changing the flight direction of the drone in a direction corresponding to the corresponding direction only in a direction not deviating from a preset flight path Can be created.

제어부는 터치스크린부를 임의의 영역으로 구분하여 구분된 영역 별로 드론의 비행 방향을 설정하며, 터치스크린부를 통하여 사용자로부터 터치스크린부의 특정 지점을 탭하는 터치 제스처 입력을 수신하는 경우, 특정 지점을 포함하는 영역에 미리 설정된 방향으로 드론의 비행 방향을 변경하는 비행 제어 신호를 생성할 수 있다. The control unit divides the touch screen unit into an arbitrary area and sets the flight direction of the drone for each divided area, and when receiving a touch gesture input of tapping a specific point of the touch screen unit from the user through the touch screen unit, a specific point is included. It is possible to generate a flight control signal that changes the flight direction of the drone in a direction preset in the area.

제어부는 미리 설정된 비행 경로를 벗어나지 않는 방향에 한하여 해당 방향에 대응하는 방향으로 드론의 비행 방향을 변경하는 비행 제어 신호를 생성할 수 있다. The controller may generate a flight control signal for changing the flight direction of the drone in a direction corresponding to the direction only in a direction not deviating from a preset flight path.

제어부는 터치스크린부를 제어하여 상, 하, 좌 및 우를 나타내는 제어 이미지들 중 적어도 하나를 출력하며, 터치스크린부를 통하여 제어 이미지들 중 어느 하나를 탭하는 터치 제스처 입력을 수신하며, 탭 된 제어 이미지에 대응하는 방향으로 드론의 비행 방향을 변경하는 비행 제어 신호를 생성할 수 있다.The control unit controls the touch screen unit to output at least one of control images representing up, down, left, and right, receives a touch gesture input for tapping any one of the control images through the touch screen unit, and the tapped control image It is possible to generate a flight control signal that changes the flight direction of the drone in a direction corresponding to.

제어부는 터치스크린부를 통하여 사용자로부터 핀치 아웃(pinch out)하는 터치 제스처 입력을 수신하는 경우, 카메라가 지향하고 있는 방향으로 드론을 이동시키는 비행 제어 신호를 생성하며, 핀치 인(pinch in)하는 터치 제스처 입력을 수신하는 경우, 카메라가 지향하고 있는 방향의 반대 방향으로 드론을 이동시키는 비행 제어 신호를 생성할 수 있다. When the controller receives a pinch-out touch gesture input from the user through the touch screen unit, it generates a flight control signal that moves the drone in the direction the camera is pointing, and a touch gesture that pinches in When receiving an input, it is possible to generate a flight control signal that moves the drone in a direction opposite to the direction the camera is pointing.

제어부는 핀치 아웃(pinch out)하는 터치 제스처 입력을 수신하는 경우, 미리 설정된 범위 내에서 드론을 이동시키는 비행 제어 신호를 생성하며, 핀치 인(pinch in)하는 터치 제스처 입력을 수신하는 경우, 핀치 아웃(pinch out)된 범위 내에서 드론을 이동시키는 비행 제어 신호를 생성할 수 있다. When receiving a pinch-out touch gesture input, the control unit generates a flight control signal that moves the drone within a preset range, and when receiving a pinch-in touch gesture input, pinch-out It is possible to generate a flight control signal that moves the drone within the (pinched out) range.

제어부는 터치스크린부를 통하여 사용자로부터 핀치 아웃(pinch out)하는 터치 제스처 입력을 수신하는 경우, 카메라를 줌 인 시키는 카메라 제어 신호를 생성하며, 핀치 인(pinch in)하는 터치 제스처 입력을 수신하는 경우, 카메라를 줌 아웃 시키는 카메라 제어 신호를 생성할 수 있다. The controller generates a camera control signal for zooming in the camera when receiving a pinch-out touch gesture input from a user through the touch screen unit, and when receiving a pinch-in touch gesture input, It is possible to generate a camera control signal that zooms out the camera.

제어부는 통신부를 통하여 드론으로부터 위치 데이터를 수신하며, 터치스크린부를 통하여 출력 중인 영상 상의 특정 지점을 탭하는 터치 제스처 입력을 수신하는 경우, 입력 수신 시 위치 데이터를 저장하며, 입력 수신 시 출력 중인 영상을 캡처(capture)한 영상을 저장하며, 저장된 위치 데이터와 캡처한 영상을 매칭시킬 수 있다. The controller receives location data from the drone through the communication unit, and when receiving a touch gesture input of tapping a specific point on the image being output through the touch screen unit, stores the location data when receiving the input, and stores the image being output when receiving the input. The captured image is stored, and the stored location data can be matched with the captured image.

제어부는 터치스크린을 제어하여 캡처한 영상을 출력하며, 터치스크린부를 통하여 출력 중인 캡처한 영상을 탭하는 터치 제스처 입력을 수신 하는 경우, 캡처 된 영상과 매칭된 위치 데이터가 지시하는 위치로 드론을 이동시키는 비행 제어 신호를 생성할 수 있다.The control unit controls the touch screen to output the captured image, and when receiving a touch gesture input of tapping the captured image being output through the touch screen unit, the drone moves to a position indicated by the location data matched with the captured image. It can generate a flight control signal to let you know.

사용자의 영상 조작 입력에 기초하여 드론을 제어하는 신호를 생성함으로써 사용자가 드론을 간단하게 제어 할 수 있는 효과가 있다.There is an effect that the user can control the drone simply by generating a signal for controlling the drone based on the user's image manipulation input.

도 1은 일 실시예에 따른 드론 제어 장치의 구성도이다.
도 2는 일 예에 따른 터치 제스처 입력을 설명하기 위한 예시도이다.
도 3 내지 도 7은 일 예에 따른 터치 제스처 입력에 기초한 카메라 및 드론을 제어하는 방법을 설명하기 위한 예시도이다.
도 8은 일 예에 따른 드론의 제어 방법을 설명하기 위한 예시도이다.
1 is a block diagram of a drone control apparatus according to an exemplary embodiment.
2 is an exemplary diagram for describing a touch gesture input according to an example.
3 to 7 are exemplary diagrams illustrating a method of controlling a camera and a drone based on a touch gesture input, according to an example.
8 is an exemplary diagram for describing a method of controlling a drone according to an example.

이하, 첨부된 도면을 참조하여 본 발명의 일 실시예를 상세하게 설명한다. 본 발명을 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 또한, 후술되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로, 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.Hereinafter, an embodiment of the present invention will be described in detail with reference to the accompanying drawings. In describing the present invention, if it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the subject matter of the present invention, a detailed description thereof will be omitted. In addition, terms to be described later are terms defined in consideration of functions in the present invention, which may vary according to the intention or custom of users or operators. Therefore, the definition should be made based on the contents throughout this specification.

이하, 드론 제어 장치 및 방법의 실시예들을 도면들을 참고하여 자세히 설명한다.Hereinafter, embodiments of a drone control apparatus and method will be described in detail with reference to the drawings.

도 1은 일 실시예에 따른 드론 제어 장치의 구성도이다.1 is a block diagram of a drone control apparatus according to an exemplary embodiment.

도 1을 참조하면, 드론 제어 장치(100)는 드론과 신호를 송수신하는 통신부(110), 영상을 출력하고 사용자 입력을 수신하는 터치스크린부(120) 및 제어부(130)를 포함할 수 있다. Referring to FIG. 1, the drone control apparatus 100 may include a communication unit 110 that transmits and receives signals to and from the drone, a touch screen unit 120 and a control unit 130 that outputs an image and receives a user input.

일 예에 따르면, 드론은 카메라를 탑재할 수 있다. 또한, 드론은 드론의 위치, 고도, 속도, 방향 또는 물체와의 거리 등을 측정할 수 있는 하나 이상의 센서를 포함할 수 있다. 일 예에 따르면, 드론은 주변 물체와의 거리를 측정할 수 있으며, 측정된 정보를 드론 제어 장치에 전송할 수 있다. 또한, 드론은 측정된 정보에 기초하여 특정 물체와 소정의 거리 보다 가까워지는 경우 이동을 정지할 수 있다. According to one example, a drone may be equipped with a camera. In addition, the drone may include one or more sensors capable of measuring the location, altitude, speed, direction, or distance to an object of the drone. According to an example, the drone may measure a distance to a nearby object and transmit the measured information to the drone control device. In addition, the drone may stop moving when it is closer than a predetermined distance to a specific object based on the measured information.

일 예에 따르면, 드론은 드론 제어 장치로부터 수신한 제어 신호에 기초하여 비행을 수행할 수 있다. 다른 예로, 드론은 드론 제어 장치로부터 비행 경로 정보를 수신할 수 있으며, 수신한 비행 경로 정보에 기초하여 자율 비행을 수행할 수 있다.According to an example, the drone may fly based on a control signal received from the drone control device. As another example, the drone may receive flight path information from the drone control device, and may perform autonomous flight based on the received flight path information.

일 예에 따르면, 통신부(110)는 드론과 직접 통신을 수행하거나, 소정의 통신 네트워크를 통하여 통신을 수행할 수 있다. According to an example, the communication unit 110 may perform direct communication with a drone or may perform communication through a predetermined communication network.

일 예에 따르면, 제어부(1300는 통신부(110)를 통하여 드론으로부터 영상 데이터를 수신할 수 있다. 예를 들어, 영상 데이터는 사진, 동영상, 적외선 영상 중 적어도 하나일 수 있다. 영상 데이터는 드론이 촬영하여 전송한 실시간 영상일 수 있다. 여기서, 실시간은 영상 데이터 생성, 가공, 전송 및 버퍼링 등의 지연 요소가 포함된 시간을 의미할 수 있다.According to an example, the controller 1300 may receive image data from a drone through the communication unit 110. For example, the image data may be at least one of a photo, a video, and an infrared image. It may be a real-time image captured and transmitted, where the real-time may mean a time including delay elements such as image data generation, processing, transmission, and buffering.

일 예에 따르면, 제어부(130)는 터치스크린부(120)를 제어하여 영상 데이터를 기초로 영상을 출력할 수 있다. 예를 들어, 영상은 드론으로부터 실시간으로 수신한 영상 데이터 또는 드론으로부터 수신하여 저장된 영상 데이터에 기초하여 출력될 수 있다.According to an example, the controller 130 may control the touch screen unit 120 to output an image based on image data. For example, the image may be output based on image data received from a drone in real time or image data received and stored from a drone.

일 예에 따르면, 제어부(130)는 터치스크린부(120)를 통하여 사용자의 터치 제스처 입력을 수신할 수 있다. 일 예로 터치 제스처 입력은 스와이프(swipe), 탭(tap), 핀치(pinch) 중 어느 하나일 수 있다. According to an example, the controller 130 may receive a user's touch gesture input through the touch screen unit 120. For example, the touch gesture input may be any one of a swipe, a tap, and a pinch.

도 2(a)는 스와이프 터치 제스처 입력을 나타내고 있다. 도 2(a)를 참조하면, 스와이프는 손가락을 터치스크린부(120)에 터치한 상태를 유지한 채 특정 방향으로 손가락을 움직이는 모든 동작을 포함할 수 있다. 예를 들어, 스와이프는 팬(pan), 드래그(drag), 플릭(flick) 등의 동작을 포함한다.Fig. 2(a) shows a swipe touch gesture input. Referring to FIG. 2A, the swipe may include all operations of moving a finger in a specific direction while maintaining a state in which the finger is touched on the touch screen unit 120. For example, swiping includes actions such as pan, drag, and flick.

도 2(b)는 탭 터치 제스처 입력을 나타내고 있다. 도 2(b)를 참조하면, 탭은 손가락으로 터치스크린부(120)을 두드리는 모든 동작을 포함할 수 있다. 예를 들어, 탭은 더블 탭(두 번 누르기), 프레스(press, 오래 누르기)를 포함할 수 있다. 일 예로, 탭을 하는 손가락의 개수는 하나 이상일 수 있다. 또한, 제어부(130)는 탭을 하는 손가락의 개수 또는 탭을 종류에 따라 다른 제어 신호를 생성할 수 있다. 2(b) shows a tap touch gesture input. Referring to FIG. 2B, the tap may include all operations of tapping the touch screen unit 120 with a finger. For example, a tap may include a double tap (double press) and a press (long press). For example, the number of tapping fingers may be one or more. In addition, the control unit 130 may generate different control signals according to the number or type of tapping fingers.

도 2(c)는 핀치 터치 제스처 입력을 나타내고 있다. 도 2(c)를 참조하면, 핀치는 두 개의 손가락을 터치한 상태에서 서로 다른 방향으로 움직이는 모든 동작으로 포함할 수 있다.Fig. 2(c) shows a pinch touch gesture input. Referring to FIG. 2C, the pinch may include all motions that move in different directions while touching two fingers.

도 2를 참조하여 설명한 터치 제스처 입력은 일 예이며, 이 외 다른 터치 제스처 입력이 사용될 수 있다.The touch gesture input described with reference to FIG. 2 is an example, and other touch gesture inputs may be used.

일 실시예에 따르면, 제어부(130)는 사용자의 터치 제스처 입력에 기초하여 비행 제어 신호 및 카메라 제어 신호 중 적어도 하나를 생성할 수 있다. 또한, 제어부(130)는 통신부(110)를 통하여 생성된 비행 제어 신호 및 카메라 제어 신호 중 적어도 하나를 드론으로 전송할 수 있다.According to an embodiment, the controller 130 may generate at least one of a flight control signal and a camera control signal based on a user's touch gesture input. In addition, the controller 130 may transmit at least one of a flight control signal and a camera control signal generated through the communication unit 110 to the drone.

일 예에 따르면, 제어부(130)는 터치스크린부(120)를 통하여 사용자로부터 특정 방향으로 스와이프(swipe)하는 터치 제스처 입력을 수신하는 경우, 해당 특정 방향에 대응하는 방향으로 드론에 탑재된 카메라의 방향을 변경하는 카메라 제어 신호를 생성할 수 있다.According to an example, when receiving a touch gesture input for swiping in a specific direction from a user through the touch screen unit 120, the controller 130 is a camera mounted on the drone in a direction corresponding to the specific direction. It can generate a camera control signal that changes the direction of.

도 3을 참조하면, 사용자는 터치스크린부(120) 상에 좌측에서 우측으로 스와이프하는 터치 제스처 입력을 입력할 수 있다. 이러한 경우, 제어부(130)는 드론에 탑재된 카메라의 방향을 반시계 방향으로 전환하는 카메라 제어 신호를 생성할 수 있다. 다시 말해, 제어부(130)가 터치스크린부(120)를 통하여 좌 또는 우로 스와이프하는 터치 제스처 입력을 수신하는 경우, 카메라를 시계 방향 또는 반시계 방향으로 전환하는, 즉, 회전 각도를 변경하는 카메라 제어 신호를 생성할 수 있다. 여기서, 터치스크린부(120)를 통해 입력되는 방향과 카메라의 회전 방향의 매칭은 설정에 의해 변경될 수 있다. Referring to FIG. 3, a user may input a touch gesture input by swiping from left to right on the touch screen unit 120. In this case, the controller 130 may generate a camera control signal that changes the direction of a camera mounted on the drone to a counterclockwise direction. In other words, when the controller 130 receives a touch gesture input by swiping left or right through the touch screen unit 120, a camera that switches the camera clockwise or counterclockwise, that is, changes the rotation angle It can generate control signals. Here, matching of the direction input through the touch screen unit 120 and the rotation direction of the camera may be changed by setting.

일 예로 사용자는 터치스크린부(120) 상에 상 또는 하 방향으로 스와이프하는 터치 제스처 입력을 입력할 수 있다. 이러한 경우, 제어부(130)는 드론에 탑재된 카메라의 고각을 변경하는 카메라 제어 신호를 생성할 수 있다. 예를 들어, 터치스크린부(120)를 통하여 위에서 아래 방향으로 스와이프하는 터치 제스처 입력을 수신하는 경우, 제어부(130)는 드론에 탑재된 카메라의 고각을 수직 아래 방향에서 드론의 전방 방향으로 고각을 변경하는 카메라 제어 신호를 생성할 수 있다. 여기서, 터치스크린부(120)를 통해 입력되는 방향과 카메라의 고각 방향의 매칭은 설정에 의해 변경될 수 있다.As an example, the user may input a touch gesture input by swiping upward or downward on the touch screen unit 120. In this case, the controller 130 may generate a camera control signal for changing an elevation angle of a camera mounted on the drone. For example, when receiving a touch gesture input for swiping from top to bottom through the touch screen unit 120, the controller 130 increases the elevation angle of the camera mounted on the drone from the vertical downward direction to the front direction of the drone. It is possible to generate a camera control signal that changes. Here, the matching of the direction input through the touch screen unit 120 and the elevation direction of the camera may be changed by setting.

일 예에 따르면, 제어부(130)는 입력된 스와이프의 길이에 기초하여 카메라의 방향을 변경하는 각도를 결정할 수 있다. 일 예로, 터치스크린부(120)의 일측 끝에서 타측 끝까지 입력하는 스와이프의 길이를 90o 각도로 설정하며, 사용자가 입력하는 스와이프 터치 제스처 입력의 길이에 따라 카메라의 방향을 변경하는 각도를 결정할 수 있다. 예를 들어, 사용자가 좌측에서 우측으로 스와이프하며, 그 길이가 터치스크린부(120) 좌측 끝에서 우측 끝까지 길이의 1/2 인 경우, 제어부(130)는 카메라를 반시계 방향으로 45o 변경하는 카메라 제어 신호를 생성할 수 있다. 여기서, 입력된 스와이프의 길이와 카메라의 방향을 변경하는 각도의 매칭은 설정에 따라 달라질 수 있다.According to an example, the controller 130 may determine an angle for changing the direction of the camera based on the input swipe length. For example, the length of the swipe input from one end of the touch screen unit 120 to the other end is set to 90 o, and the angle at which the camera direction changes according to the length of the swipe touch gesture input input by the user is set. You can decide. For example, when the user swipes from left to right and the length is 1/2 of the length from the left end to the right end of the touch screen unit 120, the controller 130 changes the camera by 45 o in the counterclockwise direction. Can generate a camera control signal. Here, matching of the input swipe length and the angle for changing the camera direction may vary according to settings.

일 실시예에 따르면, 제어부(130)는 터치스크린부(120)를 통하여 사용자로부터 특정 방향으로 스와이프하는 터치 제스처 입력을 수신하는 경우, 해당 특정 방향에 대응하는 방향으로 드론의 비행 방향을 변경하는 비행 제어 신호를 생성할 수 있다. According to an embodiment, when receiving a touch gesture input for swiping in a specific direction from a user through the touch screen unit 120, the controller 130 changes the flight direction of the drone in a direction corresponding to the specific direction. It can generate flight control signals.

도 4를 참조하면, 사용자는 터치스크린부(120) 상에 상측에서 하측으로 스와이프하는 터치 제스처 입력을 입력할 수 있다. 이러한 경우, 제어부(130)는 드론이 전방으로 비행하도록 제어하는 비행 제어 신호를 생성할 수 있다. 다시 말해, 제어부(130)가 터치스크린부(120)를 통하여 상 또는 하로 스와이프하는 터치 제스처 입력을 수신하는 경우, 드론을 전방으로 또는 후방으로 비행하도록 제어하는 비행 제어 신호를 생성할 수 있다. 여기서, 터치스크린부(120)를 통해 입력되는 방향과 드론의 비행 방향의 매칭은 설정에 의해 변경될 수 있다.Referring to FIG. 4, a user may input a touch gesture input by swiping from top to bottom on the touch screen unit 120. In this case, the controller 130 may generate a flight control signal that controls the drone to fly forward. In other words, when the controller 130 receives a touch gesture input for swiping up or down through the touch screen unit 120, a flight control signal for controlling the drone to fly forward or backward may be generated. Here, the matching of the direction input through the touch screen unit 120 and the flight direction of the drone may be changed by setting.

일 예로, 사용자는 터치스크린부(120) 상에 좌측에서 우측으로 스와이프하는 터치 제스처 입력을 입력할 수 있다. 이러한 경우, 제어부(130)는 드론의 비행 방향을 반시계 방향으로 전환하는 비행 제어 신호를 생성할 수 있다. 다시 말해, 제어부(130)가 터치스크린부(120)를 통하여 좌 또는 우로 스와이프하는 터치 제스처 입력을 수신하는 경우, 드론의 비행을 시계 방향 또는 반시계 방향으로 전환하는 비행 제어 신호를 생성할 수 있다. 여기서, 터치스크린부(120)를 통해 입력되는 방향과 드론 회전 방향의 매칭은 설정에 의해 변경될 수 있다.As an example, the user may input a touch gesture input by swiping from left to right on the touch screen unit 120. In this case, the controller 130 may generate a flight control signal for converting the flight direction of the drone into a counterclockwise direction. In other words, when the control unit 130 receives a touch gesture input of swiping left or right through the touch screen unit 120, it is possible to generate a flight control signal for switching the flight of the drone clockwise or counterclockwise. have. Here, matching of a direction input through the touch screen unit 120 and a direction of rotation of the drone may be changed by setting.

일 예에 따르면, 제어부(130)는 입력된 스와이프의 길이에 기초하여 드론의 속도를 결정할 수 있다. 일 예로, 터치스크린부(120)의 일측 끝에서 타측 끝까지 입력하는 스와이프의 길이를 드론의 최대 속도로 설정하며, 사용자가 입력하는 스와이프 터치 제스처 입력의 길이에 따라 드론의 속도를 결정할 수 있다. 예를 들어, 사용자가 상측에서 하측으로 스와이프하며, 그 길이가 터치스크린부(120) 상측 끝에서 하측 끝까지 길이의 1/2 인 경우, 제어부(130)는 드론의 속도를 최고 속도의 1/2로 제어하는 비행 제어 신호를 생성할 수 있다. 여기서, 입력된 스와이프의 길이와 드론 속도의 매칭은 설정에 따라 달라질 수 있다.According to an example, the controller 130 may determine the speed of the drone based on the input swipe length. For example, the length of the swipe input from one end of the touch screen unit 120 to the other end is set as the maximum speed of the drone, and the speed of the drone may be determined according to the length of the swipe touch gesture input input by the user. . For example, when a user swipes from an upper side to a lower side, and the length is 1/2 of the length from the upper end to the lower end of the touch screen unit 120, the controller 130 adjusts the speed of the drone to 1/the maximum speed. It is possible to generate a flight control signal controlled by 2. Here, the matching of the input swipe length and the drone speed may vary according to settings.

다른 예로, 제어부(130)는 입력된 스와이프의 길이를 누적하여 드론의 속도를 결정할 수 있다. 예를 들어, 첫번째 스와이프 터치 제스처 입력의 길이가 1/3인 경우, 제어부(130)는 최고 속도의 1/3에 해당하는 비행 제어 신호를 생성할 수 있다. 이어서, 사용자가 두번째로 1/3 길이의 스와이프 터치 제스처를 입력하는 경우, 제어부(130)는 최고 속도의 2/3에 해당하는 비행 제어 신호를 생성할 수 있다. 일 예로, 제어부(130)는 미리 설정된 최고 단계에서 터치스크린부(120)를 통하여 스와이프 터치 제스처를 입력 받는 경우, 제어부(130)는 입력과 무관하게 최고 속도를 유지할 수 있다.As another example, the controller 130 may determine the speed of the drone by accumulating the length of the input swipe. For example, when the length of the first swipe touch gesture input is 1/3, the controller 130 may generate a flight control signal corresponding to 1/3 of the maximum speed. Subsequently, when the user secondly inputs a 1/3-length swipe touch gesture, the controller 130 may generate a flight control signal corresponding to 2/3 of the maximum speed. For example, when the controller 130 receives a swipe touch gesture through the touch screen unit 120 at a preset highest stage, the controller 130 may maintain the maximum speed regardless of the input.

다른 예에 따르면, 제어부(130)는 입력된 스와이프의 횟수에 따라 드론의 속도를 결정할 수 있다. 예를 들어, 제어부(130)는 드론의 속도를 0단계에서 3단계까지 나눌 수 있다. 이때, 사용자가 터치스크린부(120)를 통하여 스와이프 터치 제스처를 입력하는 경우, 1 단계의 속도로 비행하는 비행 제어 신호를 생성할 수 있다. 나아가, 사용자가 다시 터치스크린부(120)를 통하여 스와이프 터치 제스처를 입력하는 경우, 2 단계의 속도로 비행하는 비행 제어 신호를 생성할 수 있다. 다른 예를 들어, 제어부(130)가 터치스크린부(120)를 통하여 이전 입력과 반대 방향의 스와이프 터치 제스처를 입력하는 경우, 제어부(130)는 속도를 1단계 감소시키는 비행 제어 신호를 생성할 수 있다. 또 다른 예를 들어, 제어부(130)가 터치스크린부(120)를 통하여 이전 입력과 반대 방향의 스와이프 터치 제스처를 입력하는 경우, 제어부(130)는 반대 방향으로 비행하는 비행 제어 신호를 생성할 수 있다. 일 예로, 제어부(130)는 미리 설정된 최고 단계에서 터치스크린부(120)를 통하여 스와이프 터치 제스처를 입력 받는 경우, 제어부(130)는 입력과 무관하게 최고 속도를 유지할 수 있다.According to another example, the controller 130 may determine the speed of the drone according to the input number of swipes. For example, the controller 130 may divide the speed of the drone from step 0 to step 3. In this case, when the user inputs a swipe touch gesture through the touch screen unit 120, a flight control signal flying at a speed of one step may be generated. Furthermore, when the user inputs the swipe touch gesture again through the touch screen unit 120, a flight control signal flying at a speed of two steps may be generated. As another example, when the control unit 130 inputs a swipe touch gesture in the opposite direction to the previous input through the touch screen unit 120, the control unit 130 generates a flight control signal that reduces the speed by one step. I can. As another example, when the control unit 130 inputs a swipe touch gesture in the opposite direction to the previous input through the touch screen unit 120, the control unit 130 generates a flight control signal flying in the opposite direction. I can. For example, when the controller 130 receives a swipe touch gesture through the touch screen unit 120 at a preset highest stage, the controller 130 may maintain the maximum speed regardless of the input.

일 예에 따르면, 제어부(130)는 터치스크린부(120)를 제어하여 드론의 속도를 출력할 수 있다. 이를 위하여, 제어부(130)는 통신부(110)를 통하여 드론으로부터 속도 정보를 수신할 수 있으며, 수신한 속도 정보에 기초하여 터치스크린부(120)에 드론의 속도를 출력할 수 있다. 또는, 제어부(130)는 사용자의 입력에 기초하여 생성한 드론의 속도 제어 정보에 기초하여 터치스크린부(120)에 드론의 속도를 출력할 수 있다.According to an example, the controller 130 may control the touch screen unit 120 to output the speed of the drone. To this end, the control unit 130 may receive speed information from the drone through the communication unit 110, and may output the speed of the drone to the touch screen unit 120 based on the received speed information. Alternatively, the controller 130 may output the speed of the drone to the touch screen unit 120 based on the speed control information of the drone generated based on the user's input.

일 예에 따르면, 제어부(130)는 입력된 스와이프의 길이에 기초하여 드론의 비행 방향을 변경하는 각도를 결정할 수 있다. 일 예로, 터치스크린부(120)의 일측 끝에서 타측 끝까지 입력하는 스와이프의 길이를 90o 각도로 설정하며, 사용자가 입력하는 스와이프 터치 제스처 입력의 길이에 따라 드론의 비행 방향을 변경하는 각도를 결정할 수 있다. 예를 들어, 사용자가 좌측에서 우측으로 스와이프하며, 그 길이가 터치스크린부(120) 좌측 끝에서 우측 끝까지 길이의 1/2 인 경우, 제어부(130)는 드론의 비행 방향을 반시계 방향으로 45o 변경하는 비행 제어 신호를 생성할 수 있다. 여기서, 입력된 스와이프의 길이와 드론의 비행 방향을 변경하는 각도의 매칭은 설정에 따라 달라질 수 있다.According to an example, the controller 130 may determine an angle for changing the flight direction of the drone based on the input swipe length. For example, the length of the swipe input from one end of the touch screen unit 120 to the other end is set to a 90 o angle, and the angle at which the flight direction of the drone is changed according to the length of the swipe touch gesture input input by the user Can be determined. For example, when the user swipes from left to right and the length is 1/2 of the length from the left end to the right end of the touch screen unit 120, the controller 130 changes the flight direction of the drone in a counterclockwise direction. 45 o Can generate a changeable flight control signal. Here, the matching of the input swipe length and the angle for changing the flight direction of the drone may vary according to settings.

일 실시예에 따르면, 제어부(130)는 터치스크린부(120)를 통하여 사용자로부터 터치스크린부(120)의 특정 지점을 탭(tap)하는 터치 제스처 입력을 수신하는 경우, 드론의 비행을 정지시키는 또는 재개시키는 비행 제어 신호를 생성할 수 있다. 여기서, 정지는 드론이 비행중인 상태에서 현재 위치를 유지하는 것, 즉, 고도를 유지한 채 이동 속도가 0인 상태를 의미한다.According to an embodiment, when receiving a touch gesture input of tapping a specific point of the touch screen unit 120 from the user through the touch screen unit 120, the controller 130 stops the flight of the drone. Alternatively, it can generate a flight control signal to resume. Here, stop means that the drone maintains its current position while in flight, that is, a state where the moving speed is 0 while maintaining the altitude.

일 예에 따르면, 제어부(130)가 드론이 비행중인 상태에서 터치스크린부(120)를 통하여 사용자로부터 터치스크린부(120)의 특정 지점을 탭(tap)하는 터치 제스처 입력을 수신하는 경우, 제어부(130)는 드론의 비행을 정지시키는 비행 제어 신호를 생성할 수 있다. 반면, 제어부(130)가 드론이 정지중인 상태에서 터치스크린부(120)를 통하여 사용자로부터 터치스크린부(120)의 특정 지점을 탭(tap)하는 터치 제스처 입력을 수신하는 경우, 제어부(130)는 드론의 비행을 재개시키는 비행 제어 신호를 생성할 수 있다. 이 때, 드론의 비행 방향은 정지 이전 비행 방향일 수 있다. According to an example, when the controller 130 receives a touch gesture input of tapping a specific point of the touch screen 120 from the user through the touch screen 120 while the drone is in flight, the controller 130 may generate a flight control signal to stop the flight of the drone. On the other hand, when the control unit 130 receives a touch gesture input of tapping a specific point of the touch screen unit 120 from the user through the touch screen unit 120 while the drone is stopped, the control unit 130 Can generate a flight control signal that resumes the drone's flight. In this case, the flight direction of the drone may be a flight direction before stopping.

일 실시예에 따르면, 제어부(130)는 드론이 이동 중인지 또는 정지 중인지에 따라 스와이프 터치 제스처 입력을 비행 제어 신호 또는 카메라 제어 신호로 생성할 수 있다. 일 예를 들어, 드론이 이동 중인 경우, 제어부(130)는 스와이프 터치 제스처 입력을 기초로 비행 제어 신호를 생성할 수 있다. 반면, 드론이 정지 중인 경우, 제어부(130)는 스와이프 터치 제스처 입력을 기초로 카메라 제어 신호를 생성할 수 있다. According to an embodiment, the controller 130 may generate a swipe touch gesture input as a flight control signal or a camera control signal according to whether the drone is moving or stopped. For example, when the drone is moving, the controller 130 may generate a flight control signal based on a swipe touch gesture input. On the other hand, when the drone is stopped, the controller 130 may generate a camera control signal based on a swipe touch gesture input.

일 실시예에 따르면, 제어부(130)는 터치스크린부(120)를 통하여 사용자로부터 소정의 방향으로 스와이프하는 터치 제스처 입력을 수신하는 경우, 미리 설정된 비행 경로를 벗어나지 않는 방향에 한하여 해당 방향에 대응하는 방향으로 드론의 비행 방향을 변경하는 비행 제어 신호를 생성할 수 있다. 예를 들어, 드론은 소정의 경로를 따라 비행하도록 설정될 수 있으며, 드론은 경로를 따라 전진 또는 후진만 할 수 있다. 이때, 제어부(130)가 터치스크린부(120)를 통하여 좌측 방향의 스와이프 터치 제스처 입력을 수신하는 경우, 제어부(130)는 사용자의 입력을 무시할 수 있다. 다시 말해, 제어부(130)는 전진 또는 후진 방향에 대응하는 스와이프 터치 제스처 입력만을 유효한 입력으로 수신하여 비행 제어 신호를 생성할 수 있다. 예를 들어, 도 4에서 나타나는 바와 같이, 드론(420)은 비행 경로(430)를 따라 비행하도록 설정될 수 있다. 이때, 터치스크린부(410)에 상측에서 하측으로 스와이프하는 터치 제스처 입력이 수신되는 경우, 제어부(130)는 드론이 경로 진행 방향으로 비행하도록 비행 제어 신호를 생성할 수 있다. According to an embodiment, when receiving a touch gesture input for swiping in a predetermined direction from a user through the touch screen unit 120, the controller 130 corresponds to the corresponding direction only in a direction not deviating from a preset flight path. It can generate a flight control signal that changes the flight direction of the drone in the direction that For example, a drone may be set to fly along a predetermined path, and the drone may only move forward or backward along the path. In this case, when the control unit 130 receives a leftward swipe touch gesture input through the touch screen unit 120, the control unit 130 may ignore the user's input. In other words, the controller 130 may generate a flight control signal by receiving only a swipe touch gesture input corresponding to a forward or backward direction as a valid input. For example, as shown in FIG. 4, the drone 420 may be set to fly along the flight path 430. In this case, when a touch gesture input for swiping from the upper side to the lower side is received on the touch screen unit 410, the controller 130 may generate a flight control signal to allow the drone to fly in a path traveling direction.

일 실시예에 따르면, 제어부(130)는 터치스크린부(120)를 임의의 영역으로 구분하여 구분된 영역 별로 드론의 비행 방향을 설정할 수 있다. According to an embodiment, the controller 130 may divide the touch screen unit 120 into an arbitrary area and set the flight direction of the drone for each divided area.

도 5를 참조하면, 터치스크린부(510)는 4개의 영역으로 나뉠 수 있으며, 각 영역에 대응하는 비행 방향이 설정될 수 있다. 예를 들어, 상측 영역을 전진, 하측 영역을 후진, 좌측 영역을 좌회전, 우측 영역을 우회전으로 구분할 수 있다. Referring to FIG. 5, the touch screen unit 510 may be divided into four regions, and a flight direction corresponding to each region may be set. For example, the upper area may be forward, the lower area may be reversed, the left area may be rotated left, and the right area may be rotated right.

일 예에 따르면, 제어부(130)는 터치스크린부(120)를 통하여 사용자로부터 터치스크린부의 특정 지점을 탭하는 터치 제스처 입력을 수신하는 경우, 특정 지점을 포함하는 영역에 미리 설정된 방향으로 드론의 비행 방향을 변경하는 비행 제어 신호를 생성할 수 있다. 예를 들어, 도 5에서와 같이, 사용자가 터치스크린부(510)의 하측 영역을 탭하는 경우, 제어부는 드론이 경로의 역 방향으로 비행하도록 비행 제어 신호를 생성할 수 있다. According to an example, when receiving a touch gesture input of tapping a specific point of the touch screen unit from the user through the touch screen unit 120, the controller 130 flies in a predetermined direction in an area including the specific point. It can generate flight control signals that change direction. For example, as shown in FIG. 5, when the user taps the lower area of the touch screen unit 510, the controller may generate a flight control signal so that the drone flies in the reverse direction of the path.

일 예로, 제어부(130)는 사용자가 탭하는 터치 제스처 입력의 횟수에 따라 드론의 비행 속도를 결정할 수 있다. 예를 들어, 제어부(130)는 드론의 속도를 0단계에서 3단계까지 나눌 수 있다. 이때, 사용자가 터치스크린부(120)를 통하여 특정 영역에 탭 터치 제스처를 입력하는 경우, 해당 특정 영역에 대응하는 방향으로 1 단계의 속도로 비행하는 비행 제어 신호를 생성할 수 있다. 나아가, 사용자가 다시 터치스크린부(120)를 통하여 탭 터치 제스처를 입력하는 경우, 2 단계의 속도로 비행하는 비행 제어 신호를 생성할 수 있다. 다른 예를 들어, 제어부(130)가 터치스크린부(120)를 통하여 이전 입력과 반대 방향의 탭 터치 제스처를 입력하는 경우, 제어부(130)는 속도를 1단계 감소시키는 비행 제어 신호를 생성할 수 있다. 또 다른 예를 들어, 제어부(130)가 터치스크린부(120)를 통하여 이전 입력과 반대 방향의 탭 터치 제스처를 입력하는 경우, 제어부(130)는 반대 방향으로 비행하는 비행 제어 신호를 생성할 수 있다. 일 예로, 제어부(130)는 미리 설정된 최고 단계에서 터치스크린부(120)를 통하여 탭 터치 제스처를 입력 받는 경우, 제어부(130)는 입력과 무관하게 최고 속도를 유지할 수 있다.For example, the controller 130 may determine the flight speed of the drone according to the number of times the user taps a touch gesture input. For example, the controller 130 may divide the speed of the drone from step 0 to step 3. In this case, when a user inputs a tap touch gesture to a specific area through the touch screen unit 120, a flight control signal that flies at a speed of one step in a direction corresponding to the specific area may be generated. Further, when the user inputs a tap touch gesture again through the touch screen unit 120, a flight control signal flying at a speed of two steps may be generated. For another example, when the control unit 130 inputs a tap touch gesture in the opposite direction to the previous input through the touch screen unit 120, the control unit 130 may generate a flight control signal that decreases the speed by one step. have. For another example, when the controller 130 inputs a tap touch gesture in a direction opposite to the previous input through the touch screen unit 120, the controller 130 may generate a flight control signal flying in the opposite direction. have. As an example, when the controller 130 receives a tap touch gesture through the touch screen unit 120 at a preset highest stage, the controller 130 may maintain the maximum speed regardless of the input.

일 실시예에 따르면, 제어부(130)는 터치스크린부(120)를 통하여 사용자로부터 특정 영역에 탭하는 터치 제스처 입력을 수신하는 경우, 미리 설정된 비행 경로를 벗어나지 않는 방향에 한하여 해당 방향에 대응하는 방향으로 드론의 비행 방향을 변경하는 비행 제어 신호를 생성할 수 있다. 예를 들어, 드론은 소정의 경로를 따라 비행하도록 설정될 수 있으며, 드론은 경로를 따라 전진 또는 후진만 할 수 있다. 이때, 제어부(130)가 터치스크린부(120)를 통하여 좌측 영역에 탭 터치 제스처 입력을 수신하는 경우, 제어부(130)는 사용자의 입력을 무시할 수 있다. 다시 말해, 제어부(130)는 전진 또는 후진 방향에 대응하는 영역의 탭 터치 제스처 입력만을 유효한 입력으로 수신하여 비행 제어 신호를 생성할 수 있다. 예를 들어, 도 5에서 나타나는 바와 같이, 드론(520)은 비행 경로(530)를 따라 비행하도록 설정될 수 있다. 이때, 터치스크린부(510)를 통하여 하측 영역을 탭하는 터치 제스처 입력이 수신되는 경우, 제어부(130)는 드론이 경로 진행 방향의 반대 방향으로 비행하도록 비행 제어 신호를 생성할 수 있다.According to an embodiment, when receiving a touch gesture input of tapping on a specific area from a user through the touch screen unit 120, the controller 130 provides a direction corresponding to the corresponding direction only in a direction not deviating from a preset flight path. It can generate a flight control signal that changes the drone's flight direction. For example, a drone may be set to fly along a predetermined path, and the drone may only move forward or backward along the path. In this case, when the controller 130 receives a tap touch gesture input in the left area through the touch screen unit 120, the controller 130 may ignore the user's input. In other words, the controller 130 may generate a flight control signal by receiving only a tap touch gesture input in an area corresponding to the forward or backward direction as a valid input. For example, as shown in FIG. 5, the drone 520 may be set to fly along the flight path 530. In this case, when a touch gesture input for tapping a lower region is received through the touch screen unit 510, the controller 130 may generate a flight control signal to allow the drone to fly in a direction opposite to the path travel direction.

일 실시예에 따르면, 제어부(130)는 터치스크린부(120)를 제어하여 상, 하, 좌 및 우를 나타내는 제어 이미지들 중 적어도 하나를 출력할 수 있다. 예를 들어, 도 6에서 나타나는 바와 같이, 터치스크린부(610)상에 두 개의 제어 이미지(611, 613)를 출력할 수 있다. According to an embodiment, the controller 130 may control the touch screen unit 120 to output at least one of control images representing up, down, left, and right. For example, as shown in FIG. 6, two control images 611 and 613 may be output on the touch screen unit 610.

일 예에 따르면, 제어부(130)는 터치스크린부(120)를 통하여 제어 이미지들 중 어느 하나를 탭하는 터치 제스처 입력을 수신하며, 탭 된 제어 이미지에 대응하는 방향으로 드론의 비행 방향을 변경하는 비행 제어 신호를 생성할 수 있다. According to an example, the controller 130 receives a touch gesture input for tapping any one of the control images through the touch screen unit 120, and changes the flight direction of the drone in a direction corresponding to the tapped control image. It can generate flight control signals.

예를 들어, 도 6에서와 같이, 사용자가 하측 제어 이미지(613)를 탭하는 경우, 제어부는 해당 제어 이미지에 대응하는 제어 신호를 생성할 수 있다. 예를 들어, 제어부는 드론이 경로 진행 방향의 반대 방향으로 비행하도록 비행 제어 신호를 생성할 수 있다. For example, as shown in FIG. 6, when the user taps the lower control image 613, the controller may generate a control signal corresponding to the control image. For example, the controller may generate a flight control signal to allow the drone to fly in a direction opposite to the direction of the path.

일 예에 따르면, 제어부(130)는 드론의 비행 경로 정보에 기초하여 제어 이미지를 출력할 수 있다. 예를 들어, 드론이 소정의 경로를 따라 전진 또는 후진만 가능한 경우, 제어부(130)는 터치스크린부(120)에 전진 또는 후진과 대응하는 제어 이미지만을 출력할 수 있다. According to an example, the controller 130 may output a control image based on the flight path information of the drone. For example, when the drone can only move forward or backward along a predetermined path, the controller 130 may output only a control image corresponding to the forward or backward movement on the touch screen unit 120.

일 예에 따르면, 제어부(130)는 사용자가 소정의 제어 이미지를 탭하는 터치 제스처 입력의 횟수에 따라 드론의 비행 속도를 결정할 수 있다. 예를 들어, 제어부(130)는 드론의 속도를 0단계에서 3단계까지 나눌 수 있다. 이때, 사용자가 터치스크린부(120)를 통하여 특정 제어 이미지를 탭하는 터치 제스처를 입력하는 경우, 해당 특정 제어 이미지에 대응하는 방향으로 1 단계의 속도로 비행하는 비행 제어 신호를 생성할 수 있다. 나아가, 사용자가 다시 터치스크린부(120)를 통하여 동일한 제어 이미지를 탭하는 터치 제스처를 입력하는 경우, 2 단계의 속도로 비행하는 비행 제어 신호를 생성할 수 있다. 다른 예를 들어, 제어부(130)가 터치스크린부(120)를 통하여 이전 입력과 반대 방향에 대응하는 제어 이미지를 탭하는 터치 제스처를 입력하는 경우, 제어부(130)는 속도를 1단계 감소시키는 비행 제어 신호를 생성할 수 있다. 또 다른 예를 들어, 제어부(130)가 터치스크린부(120)를 통하여 이전 입력과 반대 방향에 대응하는 제어 이미지를 탭하는 터치 제스처를 입력하는 경우, 제어부(130)는 반대 방향으로 비행하는 비행 제어 신호를 생성할 수 있다. 일 예로, 제어부(130)는 미리 설정된 최고 단계에서 터치스크린부(120)를 통하여 동일 방향에 대응하는 제어 이미지를 탭하는 터치 제스처를 입력 받는 경우, 제어부(130)는 입력과 무관하게 최고 속도를 유지할 수 있다.According to an example, the controller 130 may determine the flight speed of the drone according to the number of times the user taps a predetermined control image and inputs a touch gesture. For example, the controller 130 may divide the speed of the drone from step 0 to step 3. In this case, when the user inputs a touch gesture of tapping a specific control image through the touch screen unit 120, a flight control signal flying at a speed of one step in a direction corresponding to the specific control image may be generated. Furthermore, when the user again inputs a touch gesture of tapping the same control image through the touch screen unit 120, a flight control signal flying at a speed of two steps may be generated. For another example, when the control unit 130 inputs a touch gesture of tapping a control image corresponding to a direction opposite to the previous input through the touch screen unit 120, the control unit 130 reduces the speed by one step. It can generate control signals. For another example, when the controller 130 inputs a touch gesture of tapping a control image corresponding to a direction opposite to the previous input through the touch screen unit 120, the controller 130 is a flight flying in the opposite direction. It can generate control signals. For example, when the controller 130 receives a touch gesture of tapping a control image corresponding to the same direction through the touch screen unit 120 at a preset highest stage, the controller 130 increases the maximum speed regardless of the input. Can be maintained.

일 실시예에 따르면, 터치스크린부(120)를 통하여 사용자로부터 핀치 아웃(pinch out)하는 터치 제스처 입력을 수신하는 경우, 제어부(130)는 카메라가 지향하고 있는 방향으로 드론을 이동시키는 비행 제어 신호를 생성할 수 있다. According to an embodiment, when receiving a pinch-out touch gesture input from a user through the touch screen unit 120, the controller 130 is a flight control signal for moving the drone in a direction directed by the camera. Can be created.

일 예로, 도 7에서 나타내는 바와 같이, 사용자는 터치스크린부(710) 상에 출력되는 이미지 상에서 특정 대상(715)에 핀치 아웃하는 터치 제스처를 입력할 수 있다. 이러한 경우, 제어부는 드론(720)이 해당 특정 대상(730)에 근접하도록 비행 제어 신호를 생성할 수 있다. 일 예를 들어, 제어부는 드론으로부터 카메라 지향 각도 정보를 수신할 수 있으며, 수신한 카메라 지향 각도 정보를 기초로 드론의 비행 제어 신호를 생성할 수 있다. As an example, as illustrated in FIG. 7, the user may input a touch gesture of pinching out to a specific target 715 on an image output on the touch screen unit 710. In this case, the controller may generate a flight control signal so that the drone 720 approaches the specific target 730. For example, the controller may receive camera-oriented angle information from the drone, and may generate a flight control signal of the drone based on the received camera-oriented angle information.

다른 예로, 터치스크린부(120)를 통하여 사용자로부터 핀치 인(pinch in)하는 터치 제스처 입력을 수신하는 경우, 제어부(130)는 카메라가 지향하고 있는 방향의 반대 방향으로 드론을 이동시키는 비행 제어 신호를 생성할 수 있다. As another example, when receiving a pinch-in touch gesture input from a user through the touch screen unit 120, the controller 130 is a flight control signal for moving the drone in the opposite direction to the direction the camera is pointing. Can be created.

일 예로, 도 7에서 나타내는 바와 같이, 사용자는 터치스크린부(710) 상에 출력되는 이미지 상에서 특정 대상(715)에 핀치 인하는 터치 제스처를 입력할 수 있다. 이러한 경우, 제어부는 드론(720)이 해당 특정 대상(730)에서 멀어지록 비행 제어 신호를 생성할 수 있다. 일 예를 들어, 제어부는 드론으로부터 카메라 지향 각도 정보를 수신할 수 있으며, 수신한 카메라 지향 각도 정보를 기초로 드론의 비행 제어 신호를 생성할 수 있다.As an example, as illustrated in FIG. 7, the user may input a touch gesture of pinching in to a specific object 715 on an image output on the touch screen unit 710. In this case, the controller may generate a flight control signal so that the drone 720 moves away from the specific target 730. For example, the controller may receive camera-oriented angle information from the drone, and may generate a flight control signal of the drone based on the received camera-oriented angle information.

일 실시예에 따르면, 제어부(130)는 핀치 아웃(pinch out)하는 터치 제스처 입력을 수신하는 경우, 미리 설정된 범위 내에서 드론을 이동시키는 비행 제어 신호를 생성할 수 있다. 일 예로, 제어부(130)는 핀치 아웃하는 터치 제스처 입력을 수신하는 경우, 미리 설정된 경로 상에서 소정 거리 이내로만 이동하도록 비행 제어 신호를 생성할 수 있다. 예를 들어, 제어부(130)는 미리 설정된 경로에서 수직 거리로 3m 이내로만 이동하도록 비행 제어 신호를 생성할 수 있다. 다른 예로, 제어부(130)는 핀치 아웃하는 터치 제스처 입력을 수신하는 경우, 특정 대상으로부터 소정 거리 까지만 접근하도록 비행 제어 신호를 생성할 수 있다. 이를 위하여, 제어부(130)는 통신부(110)를 통하여 드론으로부터 특정 대상과의 거리를 측정한 센서 정보를 수신할 수 있다. 예를 들어, 도 7에서와 같이, 사용자로부터 핀치 아웃하는 터치 제스처 입력을 수신하는 경우, 제어부는 드론(720)으로부터 특정 대상(730)과 드론(720)의 거리 정보를 수신할 수 있으며, 해당 정보에 기초하여 드론(720)이 특정 대상(730)과 1m 이내로 가까워지지 않도록 비행 제어 신호를 생성할 수 있다. 다른 예를 들어, 제어부는 드론으로부터 특정 대상을 포함하는 하나 이상의 다른 물체와의 거리 정보를 수신할 수 있으며, 이 중 가장 가까운 물체와의 거리를 기초로 비행 제어 신호를 생성할 수 있다. According to an embodiment, when receiving a pinch-out touch gesture input, the controller 130 may generate a flight control signal for moving the drone within a preset range. For example, when receiving a pinch-out touch gesture input, the controller 130 may generate a flight control signal to move only within a predetermined distance on a preset path. For example, the controller 130 may generate a flight control signal to move only within 3m by a vertical distance from a preset path. As another example, when receiving a pinch-out touch gesture input, the controller 130 may generate a flight control signal to approach only a predetermined distance from a specific target. To this end, the controller 130 may receive sensor information obtained by measuring a distance from the drone to a specific target through the communication unit 110. For example, as shown in FIG. 7, when receiving a pinch-out touch gesture input from a user, the controller may receive distance information between a specific target 730 and the drone 720 from the drone 720, and the corresponding Based on the information, a flight control signal may be generated so that the drone 720 does not get close to the specific target 730 within 1m. For another example, the controller may receive distance information from the drone with one or more other objects including a specific target, and may generate a flight control signal based on the distance to the nearest object.

일 실시예에 따르면, 제어부(130)가 핀치 인(pinch in)하는 터치 제스처 입력을 수신하는 경우, 제어부(130)는 핀치 아웃(pinch out)된 범위 내에서 드론을 이동시키는 비행 제어 신호를 생성할 수 있다. 예를 들어, 드론이 미리 설정된 경로에서 수직 거리로 3m 이동한 경우, 제어부(130)는 핀치 인하는 터치 제스처 입력에 따라 드론을 이동 최대 3m까지 이동시킬 수 있다. 다시 말해, 제어부(130)는 드론이 미리 설정된 경로를 초과하여 특정 대상과 멀어지지 않도록 비행 제어 신호를 생성할 수 있다. According to an embodiment, when the controller 130 receives a pinch-in touch gesture input, the controller 130 generates a flight control signal for moving the drone within the pinch-out range. can do. For example, when the drone moves 3m by a vertical distance from a preset path, the controller 130 may move the drone up to 3m according to a pinch-in touch gesture input. In other words, the controller 130 may generate a flight control signal so that the drone does not move away from a specific target beyond a preset path.

일 실시예에 따르면, 제어부(130)는 핀치 아웃 또는 핀치 인하는 길이에 기초하여 드론의 이동 거리를 결정할 수 있다. According to an embodiment, the controller 130 may determine a moving distance of the drone based on a length of pinching out or pinching in.

일 실시예에 따르면, 제어부(130)는 터치스크린부(120)를 통하여 사용자로부터 핀치 아웃(pinch out)하는 터치 제스처 입력을 수신하는 경우, 카메라를 줌 인 시키는 카메라 제어 신호를 생성할 수 있다. 다른 예로, 제어부(130)가 핀치 인(pinch in)하는 터치 제스처 입력을 수신하는 경우, 카메라를 줌 아웃 시키는 카메라 제어 신호를 생성할 수 있다. 이때, 제어부(130)는 핀치 아웃 또는 핀치 인하는 길이에 기초하여 줌 인 또는 줌 아웃 배율을 결정할 수 있다. According to an embodiment, when receiving a pinch-out touch gesture input from a user through the touch screen unit 120, the controller 130 may generate a camera control signal for zooming in the camera. As another example, when the controller 130 receives a touch gesture input for pinching in, it may generate a camera control signal for zooming out the camera. In this case, the controller 130 may determine a zoom-in or zoom-out magnification based on the pinch-out or pinch-in length.

일 실시예에 따르면, 제어부(130)는 통신부(110)를 통하여 드론으로부터 위치 데이터를 수신할 수 있다. 이 때, 위치 데이터는 영상 데이터와 동기화될 수 있다. 일 예로, 동기화는 드론에서 수행 후 전송되거나, 제어부(130)가 각각 수신 후 동기화를 수행할 수 있다. 일 예로, 동기화는 영상 데이터를 시간 단위, 프레임 단위, 파일 단위로 구분 후 관련된 위치 데이터가 지시하는 위치 또는 위치 데이터에 기초하여 추정된 위치와 매칭시킴으로써 수행될 수 있다.According to an embodiment, the controller 130 may receive location data from a drone through the communication unit 110. In this case, the location data may be synchronized with the image data. For example, synchronization may be performed by a drone and then transmitted, or the control unit 130 may perform synchronization after each reception. For example, synchronization may be performed by dividing the image data into a time unit, a frame unit, and a file unit, and then matching the position indicated by the related position data or the position estimated based on the position data.

일 예로, 위치 데이터는 영상을 촬영한 드론의 위치 또는 촬영된 영상 상의 특정 지점의 위치에 대한 정보일 수 있다. 위치 데이터는 드론의 위치가 변경될 때, 드론의 위치가 소정 거리 이상 이동할 때, 또는 소정 주기로 전송될 수 있다. 위치 데이터는 GPS 정보일 수 있다. For example, the location data may be information on a location of a drone that has captured an image or a location of a specific point on the captured image. The location data may be transmitted when the location of the drone changes, when the location of the drone moves over a predetermined distance, or at a predetermined period. The location data may be GPS information.

일 실시예에 따르면, 제어부(130)가 터치스크린부(120)를 통하여 출력 중인 영상 상의 특정 지점을 탭하는 터치 제스처 입력을 수신하는 경우, 제어부(130)는 해당 영상에 대응하는 위치 데이터를 저장할 수 있다. 일 예로, 제어부(130)는 출력 중인 영상과 동기화된 위치 데이터를 저장할 수 있다. 다른 예로, 제어부(130)는 터치스크린부(120)를 통하여 탭하는 터치 제스처 입력을 수신하는 시점을 기준으로 최신 위치 데이터를 저장할 수 있다. 또는, 제어부(130)는 터치스크린부(120)를 통하여 탭하는 터치 제스처 입력을 수신하는 시점 이후 업데이트되는 위치 데이터를 저장할 수 있다.According to an embodiment, when the control unit 130 receives a touch gesture input for tapping a specific point on an image being output through the touch screen unit 120, the control unit 130 stores location data corresponding to the image. I can. For example, the controller 130 may store location data synchronized with an image being output. As another example, the controller 130 may store the latest location data based on a time point at which a tapping touch gesture input is received through the touch screen unit 120. Alternatively, the controller 130 may store location data updated after a point in time when a tapping touch gesture input through the touch screen unit 120 is received.

일 실시예에 따르면, 제어부(130)는 특정 지점을 탭하는 터치 제스처 입력을 수신 시 출력 중인 영상을 캡처(capture)한 영상을 저장할 수 있다. 예를 들어, 도 8에서 나타나는 바와 같이, 드론 제어 장치는 드론으로부터 수신한 실시간 영상(810)을 출력할 수 있다. 이때, 제어부는 터치스크린부를 통하여 실시간 영상(810)상의 소정 지점을 탭하는 터치 제스처 입력을 수신할 수 있으며, 입력에 따라 현재 출력중인 영상을 캡처할 수 있다. According to an embodiment, when receiving a touch gesture input for tapping a specific point, the controller 130 may store an image in which an image being output is captured. For example, as shown in FIG. 8, the drone control device may output a real-time image 810 received from the drone. In this case, the controller may receive a touch gesture input for tapping a predetermined point on the real-time image 810 through the touch screen unit, and capture an image currently being output according to the input.

일 예로, 제어부(130)는 캡처 된 영상과 저장된 위치 데이터를 매칭시킬 수 있다. 예를 들어, 출력 중인 영상은 위치 데이터와 동기화 될 수 있으며, 사용자로부터 실시간 영상(810)상의 소정 지점을 탭하는 터치 제스처 입력을 수신하는 경우, 해당 실시간 영상(810)을 캡처하며, 캡처 된 영상과 동기화된 위치 데이터를 매칭시킬 수 있다. 또한, 제어부는 캡처 된 영상과 위치 데이터 매칭시켜 저장할 수 있다. For example, the controller 130 may match the captured image with the stored location data. For example, the image being output may be synchronized with the location data, and when receiving a touch gesture input of tapping a predetermined point on the real-time image 810 from the user, the real-time image 810 is captured, and the captured image It is possible to match the location data synchronized with. In addition, the controller may match and store the captured image and location data.

일 실시예에 따르면, 제어부(130)는 터치스크린부(120)를 제어하여 캡처 된 영상을 출력할 수 있다. 도 8에서와 같이, 드론 제어 장치는 하나 이상의 캡처 된 영상(815)를 출력할 수 있다. 이때, 하나 이상의 캡처 된 영상(815)은 각각 특정 위치 데이터와 매칭되어 있을 수 있다. According to an embodiment, the control unit 130 may control the touch screen unit 120 to output a captured image. As shown in FIG. 8, the drone control device may output one or more captured images 815. At this time, one or more captured images 815 may be matched with specific location data, respectively.

일 실시예에 따르면, 터치스크린부(120)를 통하여 캡처 된 영상을 탭하는 터치 제스처 입력을 수신 하는 경우, 제어부(130)는 캡처 된 영상과 매칭된 위치 데이터가 지시하는 위치로 드론을 이동시키는 비행 제어 신호를 생성할 수 있다. 일 예로, 터치스크린부(120)를 통하여 캡처 된 영상을 탭하는 터치 제스처 입력을 수신 하는 경우, 제어부(130)는 미리 설정된 비행 경로를 따라 위치 데이터가 지시하는 위치로 드론을 이동시키기 위한 비행 제어 신호를 생성할 수 있다. 다른 예로, 제어부(130)는 미리 설정된 경로와 무관하게 위치 데이터가 지시하는 위치로 드론을 이동시키기 위한 비행 제어 신호를 생성할 수 있다. 예를 들어, 터치스크린부(120)를 통하여 캡처 된 영상을 탭하는 터치 제스처 입력을 수신 하는 경우, 제어부(130)는 입력 수신 시점의 위치에서 위치 데이터가 지시하는 위치로 드론이 직선 비행하도록 비행 제어 신호를 생성할 수 있다. According to an embodiment, when receiving a touch gesture input for tapping a captured image through the touch screen unit 120, the controller 130 moves the drone to a position indicated by the position data matched with the captured image. It can generate flight control signals. For example, when receiving a touch gesture input for tapping an image captured through the touch screen unit 120, the controller 130 controls a flight to move the drone to a position indicated by the location data along a preset flight path. Can generate signals. As another example, the controller 130 may generate a flight control signal for moving the drone to a location indicated by the location data regardless of a preset route. For example, when receiving a touch gesture input of tapping an image captured through the touch screen unit 120, the controller 130 flies in a straight line from the position at the time of receiving the input to the position indicated by the position data. It can generate control signals.

다른 예에 따르면, 제어부(130)는 터치스크린부(120)에 저장된 위치 데이터를 지시하는 항목들로 구성된 리스트를 출력할 수 있다. 또한, 터치스크린부(120)를 통하여 사용자로부터 리스트에 포함된 항목들 중 어느 하나의 항목을 선택하는 입력을 수신하는 경우, 제어부(130)는 선택된 항목이 지시하는 위치 데이터가 지시하는 위치로 드론을 이동시키기 위한 비행 제어 신호를 생성할 수 있다. According to another example, the control unit 130 may output a list consisting of items indicating location data stored in the touch screen unit 120. In addition, when receiving an input for selecting any one of the items included in the list from the user through the touch screen unit 120, the controller 130 moves the drone to a location indicated by the location data indicated by the selected item. It is possible to generate a flight control signal for moving.

일 실시예에 따르면, 제어부(130)는 터치스크린부(120)를 제어하여 지도 영상을 출력할 수 있다. 일 예로, 제어부(130)는 터치스크린부(120)를 제어하여 저장된 위치 데이터가 지시하는 위치를 지도 영상 상에 표시할 수 있다. 일 예로, 제어부(130)는 터치스크린부(120)를 통하여 사용자로부터 지도 영상 상의 표시들 중 어느 하나를 선택하는 입력을 수신할 수 있다. 이러한 경우, 제어부(130)는 해당 표시와 매칭된 영상 데이터가 지시하는 위치로 드론을 이동시키기 위한 비행 제어 신호를 생성할 수 있다. According to an embodiment, the controller 130 may control the touch screen unit 120 to output a map image. For example, the controller 130 may control the touch screen unit 120 to display a location indicated by the stored location data on a map image. As an example, the controller 130 may receive an input for selecting one of the displays on a map image from a user through the touch screen unit 120. In this case, the controller 130 may generate a flight control signal for moving the drone to a position indicated by the image data matched with the corresponding display.

본 발명의 일 양상은 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로서 구현될 수 있다. 상기의 프로그램을 구현하는 코드들 및 코드 세그먼트들은 당해 분야의 컴퓨터 프로그래머에 의하여 용이하게 추론될 수 있다. 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함할 수 있다. 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 디스크 등을 포함할 수 있다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드로 작성되고 실행될 수 있다.One aspect of the present invention may be implemented as a computer-readable code in a computer-readable recording medium. Codes and code segments implementing the above program can be easily inferred by a computer programmer in the art. The computer-readable recording medium may include any type of recording device storing data that can be read by a computer system. Examples of computer-readable recording media may include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical disk, and the like. Further, the computer-readable recording medium can be distributed over a computer system connected by a network, and written and executed in computer-readable code in a distributed manner.

이제까지 본 발명에 대하여 그 바람직한 실시 예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 따라서, 본 발명의 범위는 전술한 실시 예에 한정되지 않고 특허 청구범위에 기재된 내용과 동등한 범위 내에 있는 다양한 실시 형태가 포함되도록 해석되어야 할 것이다.So far, the present invention has been looked at around its preferred embodiments. Those of ordinary skill in the art to which the present invention pertains will be able to understand that the present invention can be implemented in a modified form without departing from the essential characteristics of the present invention. Accordingly, the scope of the present invention is not limited to the above-described embodiments, but should be construed to include various embodiments within the scope equivalent to those described in the claims.

100: 드론 제어 장치
110: 통신부
120: 터치스크린부
130: 제어부
100: drone control unit
110: communication department
120: touch screen unit
130: control unit

Claims (15)

카메라가 탑재된 드론과 신호를 송수신하는 통신부; 영상을 출력하고 사용자 입력을 수신하는 터치스크린부; 및 제어부를 포함하며,
상기 제어부는
상기 통신부를 통하여 드론으로부터 영상 데이터를 수신하며,
상기 터치스크린부를 제어하여 상기 영상 데이터를 기초로 영상을 출력하며,
상기 터치스크린부를 통하여 사용자의 터치 제스처 입력을 수신하며,
상기 사용자의 터치 제스처 입력에 기초하여 비행 제어 신호 및 카메라 제어 신호 중 적어도 하나를 생성하며,
상기 통신부를 통하여 상기 생성된 비행 제어 신호 및 카메라 제어 신호 중 적어도 하나를 상기 드론으로 전송하는, 드론 제어 장치.
A communication unit for transmitting and receiving signals to and from a drone equipped with a camera; A touch screen unit that outputs an image and receives a user input; And a control unit,
The control unit
Receives image data from the drone through the communication unit,
Controlling the touch screen unit to output an image based on the image data,
Receiving a user's touch gesture input through the touch screen unit,
Generates at least one of a flight control signal and a camera control signal based on the user's touch gesture input,
A drone control device for transmitting at least one of the generated flight control signal and camera control signal to the drone through the communication unit.
제 1 항에 있어서,
상기 제어부는
상기 터치스크린부를 통하여 사용자로부터 특정 방향으로 스와이프(swipe)하는 터치 제스처 입력을 수신하는 경우, 해당 특정 방향에 대응하는 방향으로 드론에 탑재된 카메라의 방향을 변경하는 카메라 제어 신호를 생성하는, 드론 제어 장치.
The method of claim 1,
The control unit
When receiving a touch gesture input for swiping in a specific direction from the user through the touch screen unit, a drone that generates a camera control signal that changes the direction of a camera mounted on the drone in a direction corresponding to the specific direction controller.
제 2 항에 있어서,
상기 제어부는
입력된 스와이프의 길이에 기초하여 카메라의 방향을 변경하는 각도를 결정하는, 드론 제어 장치.
The method of claim 2,
The control unit
A drone control device that determines an angle to change the direction of the camera based on the input swipe length.
제 1 항에 있어서,
상기 제어부는
상기 터치스크린부를 통하여 사용자로부터 특정 방향으로 스와이프하는 터치 제스처 입력을 수신하는 경우, 해당 특정 방향에 대응하는 방향으로 드론의 비행 방향을 변경하는 비행 제어 신호를 생성하는, 드론 제어 장치.
The method of claim 1,
The control unit
When receiving a touch gesture input for swiping in a specific direction from the user through the touch screen unit, generating a flight control signal for changing the flight direction of the drone in a direction corresponding to the specific direction.
제 4 항에 있어서,
상기 제어부는
상기 터치스크린부를 통하여 사용자로부터 터치스크린부의 특정 지점을 탭(tap)하는 터치 제스처 입력을 수신하는 경우, 드론의 비행을 정지시키는 또는 재개시키는 비행 제어 신호를 생성하는, 드론 제어 장치.
The method of claim 4,
The control unit
When receiving a touch gesture input of tapping a specific point of the touch screen unit from the user through the touch screen unit, generating a flight control signal for stopping or restarting the flight of the drone.
제 4 항에 있어서,
상기 제어부는
상기 드론의 비행이 정지된 상태에서 상기 터치스크린부를 통하여 사용자로부터 소정의 방향으로 스와이프하는 터치 제스처 입력을 수신하는 경우, 해당 방향에 대응하는 방향으로 드론에 탑재된 카메라의 방향을 변경하는 카메라 제어 신호를 생성하는, 드론 제어 장치.
The method of claim 4,
The control unit
When receiving a touch gesture input for swiping in a predetermined direction from a user through the touch screen unit while the flight of the drone is stopped, camera control that changes the direction of the camera mounted on the drone in a direction corresponding to the direction A drone control device that generates a signal.
제 4 항에 있어서,
상기 제어부는
상기 터치스크린부를 통하여 사용자로부터 소정의 방향으로 스와이프하는 터치 제스처 입력을 수신하는 경우, 미리 설정된 비행 경로를 벗어나지 않는 방향에 한하여 해당 방향에 대응하는 방향으로 드론의 비행 방향을 변경하는 비행 제어 신호를 생성하는, 드론 제어 장치.
The method of claim 4,
The control unit
When receiving a touch gesture input for swiping in a predetermined direction from the user through the touch screen unit, a flight control signal for changing the flight direction of the drone in a direction corresponding to the corresponding direction is transmitted only in a direction not deviating from a preset flight path. Generating, drone control device.
제 1 항에 있어서,
상기 제어부는
상기 터치스크린부를 임의의 영역으로 구분하여 구분된 영역 별로 드론의 비행 방향을 설정하며,
상기 터치스크린부를 통하여 사용자로부터 터치스크린부의 특정 지점을 탭하는 터치 제스처 입력을 수신하는 경우, 상기 특정 지점을 포함하는 영역에 미리 설정된 방향으로 드론의 비행 방향을 변경하는 비행 제어 신호를 생성하는, 드론 제어 장치.
The method of claim 1,
The control unit
By dividing the touch screen unit into an arbitrary area, the flight direction of the drone is set for each divided area,
When receiving a touch gesture input for tapping a specific point of the touch screen unit from the user through the touch screen unit, a drone that generates a flight control signal for changing the flight direction of the drone in a preset direction in an area including the specific point controller.
제 8 항에 있어서,
상기 제어부는 미리 설정된 비행 경로를 벗어나지 않는 방향에 한하여 해당 방향에 대응하는 방향으로 드론의 비행 방향을 변경하는 비행 제어 신호를 생성하는, 드론 제어 장치.
The method of claim 8,
The control unit generates a flight control signal for changing the flight direction of the drone in a direction corresponding to the direction only in a direction not deviating from a preset flight path.
제 1 항에 있어서,
상기 제어부는
상기 터치스크린부를 제어하여 상, 하, 좌 및 우를 나타내는 제어 이미지들 중 적어도 하나를 출력하며,
상기 터치스크린부를 통하여 상기 제어 이미지들 중 어느 하나를 탭하는 터치 제스처 입력을 수신하며,
상기 탭 된 제어 이미지에 대응하는 방향으로 드론의 비행 방향을 변경하는 비행 제어 신호를 생성하는, 드론 제어 장치.
The method of claim 1,
The control unit
By controlling the touch screen unit to output at least one of control images representing up, down, left and right,
Receiving a touch gesture input of tapping any one of the control images through the touch screen unit,
A drone control device that generates a flight control signal that changes the flight direction of the drone in a direction corresponding to the tapped control image.
제 1 항에 있어서,
상기 제어부는
상기 터치스크린부를 통하여 사용자로부터 핀치 아웃(pinch out)하는 터치 제스처 입력을 수신하는 경우, 카메라가 지향하고 있는 방향으로 드론을 이동시키는 비행 제어 신호를 생성하며,
핀치 인(pinch in)하는 터치 제스처 입력을 수신하는 경우, 카메라가 지향하고 있는 방향의 반대 방향으로 드론을 이동시키는 비행 제어 신호를 생성하는, 드론 제어 장치.
The method of claim 1,
The control unit
When receiving a pinch-out touch gesture input from a user through the touch screen unit, a flight control signal for moving the drone in a direction directed by the camera is generated, and
When receiving a pinch-in touch gesture input, a drone control device that generates a flight control signal that moves the drone in a direction opposite to the direction in which the camera is directed.
제 11 항에 있어서,
상기 제어부는
핀치 아웃(pinch out)하는 터치 제스처 입력을 수신하는 경우, 미리 설정된 범위 내에서 드론을 이동시키는 비행 제어 신호를 생성하며,
핀치 인(pinch in)하는 터치 제스처 입력을 수신하는 경우, 핀치 아웃(pinch out)된 범위 내에서 드론을 이동시키는 비행 제어 신호를 생성하는, 드론 제어 장치.
The method of claim 11,
The control unit
When receiving a pinch-out touch gesture input, it generates a flight control signal that moves the drone within a preset range,
When receiving a pinch-in touch gesture input, a drone control device that generates a flight control signal for moving the drone within a pinched-out range.
제 1 항에 있어서,
상기 제어부는
상기 터치스크린부를 통하여 사용자로부터 핀치 아웃(pinch out)하는 터치 제스처 입력을 수신하는 경우, 카메라를 줌 인 시키는 카메라 제어 신호를 생성하며,
핀치 인(pinch in)하는 터치 제스처 입력을 수신하는 경우, 카메라를 줌 아웃 시키는 카메라 제어 신호를 생성하는, 드론 제어 장치.
The method of claim 1,
The control unit
When receiving a pinch-out touch gesture input from a user through the touch screen unit, a camera control signal for zooming in the camera is generated,
A drone control device that generates a camera control signal for zooming out a camera when receiving a pinch-in touch gesture input.
제 1 항에 있어서,
상기 제어부는
상기 통신부를 통하여 드론으로부터 위치 데이터를 수신하며,
상기 터치스크린부를 통하여 출력 중인 영상 상의 특정 지점을 탭하는 터치 제스처 입력을 수신하는 경우, 입력 수신 시 위치 데이터를 저장하며, 입력 수신 시 출력 중인 영상을 캡처(capture)한 영상을 저장하며, 상기 저장된 위치 데이터와 상기 캡처한 영상을 매칭시키는, 드론 제어 장치.
The method of claim 1,
The control unit
Receives location data from the drone through the communication unit,
In the case of receiving a touch gesture input of tapping a specific point on the image being output through the touch screen unit, location data is stored upon receiving the input, and an image captured of the image being output is stored upon receiving the input, and the stored A drone control device that matches location data with the captured image.
제 14 항에 있어서,
상기 제어부는
상기 터치스크린을 제어하여 상기 캡처한 영상을 출력하며,
상기 터치스크린부를 통하여 상기 출력 중인 캡처한 영상을 탭하는 터치 제스처 입력을 수신 하는 경우, 상기 캡처한 영상과 매칭된 위치 데이터가 지시하는 위치로 드론을 이동시키는 비행 제어 신호를 생성하는, 드론 제어 장치.
The method of claim 14,
The control unit
Control the touch screen to output the captured image,
When receiving a touch gesture input for tapping the captured image being output through the touch screen unit, the drone control device generates a flight control signal for moving the drone to a position indicated by the position data matched with the captured image .
KR1020190055629A 2019-05-13 2019-05-13 Apparatus and method for controlling drone KR20200130985A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190055629A KR20200130985A (en) 2019-05-13 2019-05-13 Apparatus and method for controlling drone

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190055629A KR20200130985A (en) 2019-05-13 2019-05-13 Apparatus and method for controlling drone

Publications (1)

Publication Number Publication Date
KR20200130985A true KR20200130985A (en) 2020-11-23

Family

ID=73680437

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190055629A KR20200130985A (en) 2019-05-13 2019-05-13 Apparatus and method for controlling drone

Country Status (1)

Country Link
KR (1) KR20200130985A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11991304B2 (en) 2019-01-29 2024-05-21 Samsung Electronics Co., Ltd Method for controlling external electronic apparatus of electronic apparatus, electronic apparatus, and recording medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11991304B2 (en) 2019-01-29 2024-05-21 Samsung Electronics Co., Ltd Method for controlling external electronic apparatus of electronic apparatus, electronic apparatus, and recording medium

Similar Documents

Publication Publication Date Title
US9645720B2 (en) Data sharing
KR102219698B1 (en) Apparatus and method for controlling unmanned aerial vehicle
US8762895B2 (en) Camera zoom indicator in mobile devices
CN105425952A (en) Interactive method and apparatus for control interface of unmanned aerial vehicle
WO2022002053A1 (en) Photography method and apparatus, and electronic device
US20070064104A1 (en) Surveillance camera system, remote-controlled monitoring device, control method, and their control program
WO2018214068A1 (en) Flight control method, device and system, and machine readable storage medium
KR20230002874A (en) Method and device for adjusting control display gain of gesture controlled electronic device
KR102321562B1 (en) Dynamic motion detection method, dynamic motion control method and apparatus
US9906710B2 (en) Camera pan-tilt-zoom (PTZ) control apparatus
CN110618780A (en) Interaction device and interaction method for interacting multiple signal sources
WO2022166620A1 (en) Dynamic display method and apparatus based on operating body, storage medium, and electronic device
US10362277B2 (en) Following apparatus and following system
KR20200130985A (en) Apparatus and method for controlling drone
JP6367759B2 (en) Display image zoom terminal, display image zoom method, and display image zoom program
US10820036B1 (en) System and method for establishing and controlling a direct video output feed from a selected remote device
JP6855616B2 (en) Operating devices, mobile devices, and their control systems
CN110470302B (en) Airline display method, apparatus and system, ground station, and computer-readable storage medium
TWI507962B (en) Image browsing system and zooming method and switching method
WO2023025203A1 (en) Zoom control method and apparatus for gimbal camera, and terminal
CN103475808A (en) Method, system and device for displaying image to operator of image capturing device
WO2022127478A1 (en) Methods and systems for multi-precision discrete control of user interface control element of gesture-controlled device
CN103336535A (en) Cradle head control system in dragging linkage with screen, and control method thereof
KR102181809B1 (en) Apparatus and method for checking facility
KR20170093389A (en) Method for controlling unmanned aerial vehicle

Legal Events

Date Code Title Description
E90F Notification of reason for final refusal
E601 Decision to refuse application