KR20160107788A - Apparatus for tangible control of unmanned aerial vehicle and Method for control thereof - Google Patents

Apparatus for tangible control of unmanned aerial vehicle and Method for control thereof Download PDF

Info

Publication number
KR20160107788A
KR20160107788A KR1020150031074A KR20150031074A KR20160107788A KR 20160107788 A KR20160107788 A KR 20160107788A KR 1020150031074 A KR1020150031074 A KR 1020150031074A KR 20150031074 A KR20150031074 A KR 20150031074A KR 20160107788 A KR20160107788 A KR 20160107788A
Authority
KR
South Korea
Prior art keywords
user
control signal
aerial vehicle
controlling
unmanned
Prior art date
Application number
KR1020150031074A
Other languages
Korean (ko)
Other versions
KR101682797B1 (en
Inventor
성연식
Original Assignee
계명대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 계명대학교 산학협력단 filed Critical 계명대학교 산학협력단
Priority to KR1020150031074A priority Critical patent/KR101682797B1/en
Publication of KR20160107788A publication Critical patent/KR20160107788A/en
Application granted granted Critical
Publication of KR101682797B1 publication Critical patent/KR101682797B1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2200/00Type of vehicle
    • B60Y2200/50Aeroplanes, Helicopters
    • B64C2201/146
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/20Remote controls
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

The present invention relates to an apparatus for tangibly controlling an unmanned aerial vehicle and a control method thereof. According to the present invention, the apparatus for tangibly controlling an unmanned aerial vehicle controls an unmanned aerial vehicle which provides a user wearing a head mount with a photographed image, and comprises: a sensing data collection unit to collect sensed information from a first sensor to sense a movement of the head of the user, a second sensor to sense a height, and a third sensor to sense at least one among a location, a moving distance, a moving speed, and a foot movement of the user; a control unit to use the sensed information to generate a control signal for controlling an operation of the unmanned aerial vehicle linked to the head mount; and a communication unit to transmit the control signal to the unmanned aerial vehicle. According to the present invention, since the user can freely control the unmanned aerial vehicle by a movement of the user based on an image and a video using a camera of the unmanned aerial vehicle, an effect of observing a real situation is provided. An operating method is simple to control the unmanned aerial vehicle without having a special operating ability. Also, the user can control an additional function of a different unmanned aerial vehicle or perform other work using a hand.

Description

체감형 무인항공기 제어 장치 및 그 제어 방법{Apparatus for tangible control of unmanned aerial vehicle and Method for control thereof}Technical Field [0001] The present invention relates to a tactile-type unmanned aerial vehicle control apparatus and a control method thereof,

본 발명은 체감형 무인항공기 제어 장치 및 그 제어 방법에 관한 것으로, 더욱 상세하게는 체감형 사용자 인터페이스를 통해 사용자의 움직임으로 무인항공기를 제어할 수 있는 체감형 무인항공기 제어 장치 및 그 제어 방법에 관한 것이다.More particularly, the present invention relates to a tactile-type unmanned airplane control device capable of controlling an unmanned airplane by a user's movement through a bodily-sensible user interface and a control method thereof will be.

무선 전파로 조정할 수 있는 무인항공기는 초기 군사적 목적으로 정찰에 활용되다가 최근 그 용도가 다양해지며, 고공촬영, 공기질 측정, 농약 살포, 배달 등 다양한 분야에서 활용되고 있다. Unmanned aerial vehicles that can be adjusted by radio waves have been used for reconnaissance purposes for the initial military purposes, and have recently been used in various fields such as high shooting, air quality measurement, pesticide spraying, and delivery.

특히 화재나 재난과 같이 초기 대응의 긴급히 처리함이 중요한 부분에 있어서, 소방 방재 인력이 교통 체증으로 인해 현장에 빠르게 도착하지 못하는 경우 무인항공기를 이용하여 도착 전에 현장을 빠르게 관찰하고 판단할 수 있도록 화면을 제공받을 수 있고, 또는 건물 내부가 연기로 꽉 차있어 시야 확보가 안되는 경우 무인항공기를 활용하여 화재를 진압하고 인명을 구조할 수 있다.Especially, in case that emergency disaster personnel do not arrive quickly due to traffic congestion in the important part of emergency response such as fire or disaster, it is necessary to use the unmanned airplane to quickly observe and judge the scene before arrival Or if the inside of the building is filled with smoke and the visibility can not be secured, the unmanned aircraft can be used to suppress the fire and rescue people.

즉, 무인항공기를 활용한다면 소방방재 인력이 접근하지 못하는 지역에도 진입해서 관찰하는 것이 가능하여 화재나 재난 현장에서 도움을 필요로 하는 사람들을 찾는 데 혁신적으로 도움이 될 것으로 예상된다. In other words, if unmanned aircraft are used, it is possible to enter and observe areas where firefighting manpower is not accessible, and it is anticipated to help innovatively in finding people who need help in a fire or disaster area.

이와 같이 화재나 재난 발생시 효과적으로 활용하기 위해서는 무인항공기를 세밀하게 제어하는 방법이 중요하다.In order to utilize effectively in case of fire or disaster, it is important to control the unmanned airplane in detail.

기존의 무인항공기 제어 기술은 조종기로 직접 무인항공기를 보면서 제어하거나 원격 조종기를 통해 무인항공기가 촬영한 영상을 보면서 제어를 한다. 직접 무인항공기를 보면서 조정을 하는 경우에는 건물 안이나 재난 현장 안에 활용하는 데 한계가 있어 현장에서 사용되는 무인항공기는 대부분 무인항공기가 제공하는 화면을 기초로 사용자가 원격조정을 한다.Conventional unmanned aerial vehicle control technology is controlled by watching the unmanned airplane directly by the controller or by watching the image taken by the unmanned airplane through the remote controller. In the case of making adjustments while observing the unmanned aerial vehicle directly, there is a limit in utilizing it in a building or a disaster scene. Therefore, the unmanned airplane used in the field is remotely controlled by the user based on the screen provided by the unmanned aerial vehicle.

무인항공기를 GPS 기반으로 화재나 재난 현장에 신속하게 보낼 수 있지만, 화재나 재난 현장이 설정된 GPS의 오차 범위내에 있거나 재난 현장 내에서는 사용자가 무인항공기를 직접 조종하는 것이 필요하다.Unmanned aerial vehicles can be sent quickly to a fire or disaster site on a GPS basis, but it is necessary for the user to navigate the unmanned aerial vehicle directly within the GPS range of the fire or disaster site or within the disaster area.

이와 같이 원격으로 무인항공기를 조종하는 기술은 난이도가 높아 전문적인 무인항공기 조종교육이 필요하다. 그렇기 때문에 전문 인력 양성에 대한 비용적인 측면에서나 현장에서 요구되는 무인항공기 조종 능력자와 교육을 통해 양성되는 전문 인력을 투입할 수 있는 시기가 달라 화재나 재난 현장에서 무인항공기를 활용하는 데 어려움이 있다.This technique of remotely controlling the unmanned airplane is very difficult, and it is necessary to train a professional unmanned aircraft. Therefore, it is difficult to utilize unmanned aircraft in the fire or disaster area because of the cost incurred for the training of professional manpower, the manpower required for the unmanned airplane,

본 발명의 배경이 되는 기술은 대한민국 국내등록특허 제 10-0990386호(2010.11.02 공고)에 개시되어 있다.The technology that is the background of the present invention is disclosed in Korean Patent No. 10-0990386 (published on Nov. 2, 2010).

본 발명이 이루고자 하는 기술적 과제는 체감형 사용자 인터페이스를 통해 사용자의 움직임으로 무인항공기를 제어할 수 있는 체감형 무인항공기 제어 장치 및 그 제어 방법을 제공하기 위한 것이다.SUMMARY OF THE INVENTION It is an object of the present invention to provide a tactile-type unmanned airplane control device and a control method thereof, which can control an unmanned airplane by a user's movement through a bodily-sensible user interface.

이러한 기술적인 과제를 이루기 위한 본 발명의 실시예에 따르면, 헤드 마운트를 착용하고 있는 사용자에게 촬영 영상을 제공하는 무인항공기를 제어하기 위한 체감형 무인항공기 제어 장치에 있어서, 상기 사용자의 머리의 움직임을 감지하는 제1 센서, 상기 사용자의 높이를 감지하는 제2 센서 및 상기 사용자의 위치, 이동 거리, 이동 속도 또는 발의 움직임 중에서 적어도 하나를 감지하는 제3 센서로부터 센싱된 정보를 수집하는 센싱 데이터 수집부, 상기 센싱된 정보를 이용하여 상기 헤드 마운트와 연동된 무인항공기의 동작을 제어하기 위한 제어 신호를 생성하는 제어부 및 상기 제어 신호를 상기 무인항공기로 송신하는 통신부를 포함한다.According to another aspect of the present invention, there is provided a controller for a driverless unmanned aerial vehicle (ATC) for controlling an unmanned airplane that provides an image of a user wearing a head mount, A sensing data collecting unit for collecting sensed information from a third sensor that senses at least one of a first sensor for sensing the user's height, a second sensor for sensing the height of the user, and a movement, A controller for generating a control signal for controlling the operation of the unmanned aerial vehicle linked to the head mount using the sensed information, and a communication unit for transmitting the control signal to the unmanned air vehicle.

상기 제3 센서는 바닥에 설치된 모션 플랫폼 또는 공간상에 설치된 비콘에 부착될 수 있다.The third sensor may be attached to a beacon installed on a floor or a motion platform installed on the floor.

상기 제어부는, 상기 사용자의 머리의 높이 변화의 크기에 비례하여 상기 무인항공기의 높이를 상승 또는 하강시키는 제어 신호를 생성할 수 있다.The controller may generate a control signal for raising or lowering the height of the UAV in proportion to a change in the height of the head of the user.

상기 사용자가 상기 헤드 마운트에 설치된 인식 정지 버튼을 누르면, 상기 제어부는, 상기 사용자의 머리의 높이의 변화가 없는 것으로 간주하여 상기 무인항공기의 높이를 일정하게 유지시킬 수 있다. When the user presses the recognition stop button provided on the head mount, the controller can regard the height of the head of the user as being unchanged and maintain the height of the unmanned aerial vehicle constant.

상기 제어부는, 상기 사용자의 얼굴 방향에 대응하여 상기 무인항공기의 진행 방향을 제어하기 위한 제어 신호를 생성할 수 있다.The control unit may generate a control signal for controlling the traveling direction of the UAV according to the face direction of the user.

상기 제어부는, 상기 무인항공기가 호버링인 상태에서 상기 사용자의 얼굴 방향에 대응하여, 상기 무인항공기의 진행 방향을 제어하기 위한 제어 신호를 생성을 제한하고 상기 무인항공기의 카메라 촬영 방향을 제어하기 위한 제어 신호를 생성할 수 있다.Wherein the control unit controls the generation of a control signal for controlling the traveling direction of the unmanned airplane in correspondence with the face direction of the user in the state where the unmanned airplane is hovering and controls the camera shooting direction of the unmanned airplane Signal can be generated.

상기 제어부는, 상기 무인항공기가 호버링 상태에서 상기 사용자로부터 이동 명령에 대응하는 동작이 검출되면, 상기 무인항공기의 카메라 촬영 방향을 상기 무인항공기의 진행방향과 일치시킨 후 상기 무인항공기를 이동시키도록 하는 제어 신호를 생성할 수 있다.Wherein the control unit causes the unmanned airplane to move the unmanned airplane after matching the camera shooting direction of the unmanned airplane with the traveling direction of the unmanned airplane when the operation corresponding to the move command is detected in the hovering state of the unmanned airplane A control signal can be generated.

상기 제어부는, 상기 사용자의 위치, 이동 거리, 또는 발의 보폭 중에서 적어도 하나에 대응하여 상기 무인항공기의 이동 거리를 제어하고 상기 사용자의 이동 속도에 따라 상기 무인항공기의 이동 속도를 제어하기 위한 제어 신호를 생성할 수 있다.The control unit may control the movement distance of the UAV according to at least one of the position, the movement distance, and the foot width of the user, and may include a control signal for controlling the movement speed of the UAV according to the movement speed of the user Can be generated.

본 발명의 다른 실시예에 따르면, 헤드 마운트를 착용하고 있는 사용자에게 촬영 영상을 제공하는 무인항공기를 제어하기 위한 장치를 이용한 무인항공기 제어 방법에 있어서, 상기 사용자의 머리의 움직임을 감지하는 제1 센서, 높이를 감지하는 제2 센서와 상기 사용자의 위치, 이동 거리, 또는 발의 움직임 중에서 적어도 하나를 감지하는 제3 센서로부터 센싱된 정보를 수집하는 단계, 상기 센싱된 정보를 이용하여 상기 헤드 마운트와 연동된 무인항공기의 동작을 제어하기 위한 제어 신호를 생성하는 단계 및 상기 제어 신호를 상기 무인항공기로 송신하는 단계를 포함한다.According to another embodiment of the present invention, there is provided a method of controlling an unmanned airplane using an apparatus for controlling an unmanned aerial vehicle that provides a captured image to a user wearing a head mount, the method comprising: Collecting information sensed from a second sensor for sensing a height and a third sensor for sensing at least one of a position, a movement distance, and foot motion of the user, and interlocking with the head mount using the sensed information, Generating a control signal for controlling the operation of the unmanned aerial vehicle, and transmitting the control signal to the unmanned air vehicle.

이와 같이 본 발명에 따르면, 무인항공기의 카메라를 통한 이미지 및 영상을 기반으로 사용자는 사용자의 움직임을 통해 자유 자재로 무인항공기의 제어할 수 있기 때문에 실제 현장에서 관찰하는 것과 같은 효과가 나타나며, 조종 방법이 간단하여 특별한 조종 능력을 갖추지 않아도 무인항공기를 제어할 수 있다. As described above, according to the present invention, since the user can freely control the UAV through the movement of the user based on the image and the image through the camera of the UAV, This is simple, so you can control an unmanned airplane without special handling capability.

또한, 사용자가 사용자의 머리 또는 다리의 움직임으로 무인항공기를 제어할 수 있기 때문에, 손으로 또 다른 무인항공기의 추가 기능 제어가 가능하거나 다른 작업 수행을 할 수 있다.Further, since the user can control the UAV by the movement of the user's head or leg, it is possible to control the additional function of another UAV by hand or perform other tasks.

도 1은 본 발명의 실시예에 따른 체감형 무인항공기 제어 시스템을 나타낸 도면이다.
도 2는 본 발명의 실시예에 따른 체감형 무인항공기 제어 장치의 구성도이다.
도 3은 본 발명의 실시예에 따른 체감형 무인항공기 제어 장치의 제어 방법에 대한 순서도이다.
FIG. 1 is a view showing a haptic unmanned aerial vehicle control system according to an embodiment of the present invention.
2 is a configuration diagram of a haptic drone control device according to an embodiment of the present invention.
3 is a flowchart of a control method of the haptic unmanned aerial vehicle control apparatus according to the embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, which will be readily apparent to those skilled in the art. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In order to clearly illustrate the present invention, parts not related to the description are omitted, and similar parts are denoted by like reference characters throughout the specification.

명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification, when an element is referred to as "comprising ", it means that it can include other elements as well, without excluding other elements unless specifically stated otherwise.

그러면 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily carry out the present invention.

도 1은 본 발명의 실시예에 따른 체감형 무인항공기 제어 시스템을 나타낸 도면이다. FIG. 1 is a view showing a haptic unmanned aerial vehicle control system according to an embodiment of the present invention.

체감형 무인항공기 제어 시스템은 체감형 무인항공기 제어 장치(100), 무인항공기(200), 헤드 마운트(300) 및 모션 플랫폼(400)을 포함한다.The haptic unmanned aerial vehicle control system includes the haptic unmanned aerial vehicle control device 100, the unmanned airplane 200, the head mount 300, and the motion platform 400.

체감형 무인항공기 제어 장치(100)는 헤드 마운트(300)에 제1 센서로 얼굴 방향을 감지하고 장착된 제2 센서를 통해 사용자의 머리 높이를 감지하고, 설치된 제3 센서를 통해 발의 보폭, 움직임 거리 및 이동 속도 중에서 적어도 하나를 이용하여 무인항공기(200)의 동작을 제어하기 위한 제어 신호를 생성한다. The sensible UAV controller 100 senses the face direction of the head mount 300 with the first sensor and senses the head height of the user through the mounted second sensor, And generates a control signal for controlling the operation of the UAV 200 using at least one of distance,

이때, 체감형 무인항공기 제어 장치(100)는 제어 신호를 생성할 때, 무인항공기(200)로부터 위치 정보 및 비행정보를 수신하여 수신된 정보를 참조한다.At this time, when generating the control signal, the haptic assisted unmanned airplane control device 100 receives the position information and the flight information from the UAV 200 and refers to the received information.

체감형 무인항공기 제어 장치(100)는 무인항공기(200)의 동작을 제어하기 위해 생성한 제어 신호를 무인항공기(200)에 송신한다. The haptic-type unmanned aerial vehicle control device 100 transmits a control signal generated to control the operation of the UAV 200 to the UAV 200.

무인항공기(200)는 조종사가 탑승하지 않고 무선전파 유도에 의해 비행 및 조종이 가능한 비행체를 말하며, 드론(Dron) 또는 Unmanned Aerial Vehicles(UAV)라고 지칭하기도 한다. 국내 항공법에서는 연료를 제외한 자체 중량이 150kg 이하인 것은 '무인비행장치'로, 150kg을 초과하는 것은 '무인항공기'로 규정하였으나 본 발명의 실시예에서의 무인항공기(200)는 이를 구분하지 않고 총칭하여 사용한다.The unmanned airplane 200 is a flight capable of flying and steered by a radio wave induction without a pilot, and may be referred to as a Dron or Unmanned Aerial Vehicles (UAV). In the domestic aviation law, the unmanned airplane 200 has a self weight of 150 kg or less except fuel, and an unmanned airplane exceeding 150 kg is defined as an unmanned airplane. However, the unmanned airplane 200 according to the embodiment of the present invention does not use.

무인항공기(200)는 기본적으로 유인항공기와 동일하며 카메라, GPS, 센서, 통신시스템 등이 사용자에 의해 소방방재에 필요한 기술을 장착할 수 있다. The unmanned airplane 200 is basically the same as a manned aircraft, and a camera, a GPS, a sensor, a communication system, and the like can be equipped with the technology necessary for firefighting and disaster prevention by the user.

또한, 무인항공기(200)는 보통 프로펠러를 장착한 헬기 또는 소형항공기 모형을 가지고 있으나 건물 내 또는 실내에서 움직이는데 적합하게 프로펠러 보호 가드가 있거나 또는 프로펠러와 본체를 감싸는 원형의 케이지를 장착하는 등 특정 모형에 한정하지는 않는다.The unmanned airplane 200 also has a helicopter or small aircraft model with a propeller, but with a propeller guard suitable for moving in or out of the building, or a circular cage enclosing the propeller and the body, It is not limited.

또한 무인항공기(200)는 360o 회전이 가능하며, 하나 이상의 장착된 카메라로 영상을 촬영하여 체감형 무인항공기 제어 장치(100) 또는 헤드 마운트(300)로 송신할 수 있다. Can also be transmitted to UAV 200 360 o rotation is possible and, at least one camera attached to a photographed image tangible drone control device 100 or the head mount (300).

헤드 마운트(300)는 사용자의 머리에 장착하여 입체화면을 표시하고 아울러 머리의 움직임을 실시간으로 감지하여 검출하는 장치이다. The head mount 300 is mounted on a user's head to display a three-dimensional screen, and detects movement of the head in real time.

헤드 마운트(300)의 각각의 오른쪽, 왼쪽 렌즈는 오목하게 굽어진 파노라마 디스플레이 영상을 넓은 시각으로 제공하여 사용자에게 입체화면을 제공하며, 헤드 마운트(300)는 무인항공기(200)로부터 수신한 이미지 및 영상을 입체화면에 표시한다. Each of the right and left lenses of the head mount 300 provides a stereoscopic image to the user by providing a concave and curved panoramic display image at a wide viewing angle and the head mount 300 is provided with an image received from the unmanned airplane 200 The image is displayed on the stereoscopic screen.

헤드 마운트(300)는 입체 화면 표시 및 움직임 감지를 360o 범위에서 활용 가능하여 체감형 무인항공기 제어 장치(100)의 설정에 따라 무인항공기(200)와의 연동이 가능하다.The head mount 300 can utilize the stereoscopic screen display and the motion detection in a range of 360 o, so that the head mount 300 can interlock with the UAV 200 according to the setting of the deceleration type UAV controller 100.

또한, 헤드 마운트(300)는 인식 정지 버튼 또는 다양한 제어 버튼을 포함하며, 인식 정지 버튼을 통하여 사용자 머리 높이를 감지하지 않고 얼굴의 방향만을 감지할 수 있다.Also, the head mount 300 includes a recognition stop button or various control buttons, and can detect only the direction of the face without sensing the height of the user's head through the recognition stop button.

모션 플랫폼(400)은 헤드 마운트(300)와 함께 사용자의 신체 동작이나 움직임을 감지하여 사용자가 현실감 있게 체험할 수 있도록 제공하는 장치로써, 센서가 장착되어 사용자가 모션 플랫폼(400) 상에서 움직이면 그 움직임을 감지하여 그 데이터를 체감형 무인항공기 제어 장치(100)에 보낸다.The motion platform 400, together with the head mount 300, detects a user's body motion or movement and provides the user with a realistic experience. When the user moves on the motion platform 400 with the sensor mounted thereon, And sends the data to the haptic-type unmanned airplane control device 100. [

모션 플랫폼(400)은 360도 전 방향으로 제자리에서 걷거나 달리는 등 다양한 움직임이 구현 가능하다. The motion platform 400 is capable of various movements such as walking or running in a 360-degree forward direction.

또한, 모션 플랫폼(400)에 블루투스를 포함시켜 모바일 기기나 PC와도 직접 무선으로 통신할 수 있다.In addition, the motion platform 400 can also communicate directly with a mobile device or PC by including Bluetooth.

본 발명의 실시예에 따른 체감형 무인항공기 제어 시스템으로 모션 플랫폼(400)을 포함하는 것으로 설명하였지만 이에 한정하는 것은 아니며, 위치, 이동 거리, 발의 보폭 또는 이동 속도를 감지하기 위해 특정 공간에 센서 및 통신장치를 설치하여 사용자의 움직임을 감지할 수 있는 것이라면 이용 가능하다. 예를 들어, 비콘으로 사용자의 위치 측정이 가능하다.Although the present invention has been described as including the motion platform 400 as the haptic unmanned aerial vehicle control system according to the embodiment of the present invention, it is not limited thereto, and the sensor and the sensor may be installed in a specific space to detect the position, the moving distance, It is available if it can detect the movement of the user by installing a communication device. For example, a beacon can measure a user's position.

도 2는 본 발명의 실시예에 따른 체감형 무인항공기 제어 장치의 구성도이다. 2 is a configuration diagram of a haptic drone control device according to an embodiment of the present invention.

본 발명의 실시예에 따른 체감형 무인항공기 제어 장치(100)는 센싱 데이터 수집부(110), 제어부(120), 통신부(130)를 포함하고 센싱 데이터 수집부(110)에 센싱된 정보를 송신하는 센서는 제1 센서(140), 제2 센서(150), 제3 센서(160)를 포함한다.A controller 130 and a communication unit 130 and transmits information sensed by the sensing data collecting unit 110 to the sensing unit 110. The control unit 120 includes a sensing unit 130, The first sensor 140, the second sensor 150, and the third sensor 160. The first sensor 140, the second sensor 150,

센싱 데이터 수집부(110)는 헤드 마운트(300)를 착용하고 있는 사용자의 머리 움직임을 감지하는 제1 센서(140), 높이를 감지하는 제2 센서(150) 및 사용자의 위치, 이동 거리, 발의 보폭 또는 이동 속도를 감지하는 제3 센서(160)로부터 센싱된 정보를 수집한다. The sensing data collection unit 110 includes a first sensor 140 for sensing the head movement of the user wearing the head mount 300, a second sensor 150 for sensing the height, And collects the sensed information from the third sensor 160 that senses the stride or travel speed.

센싱 데이터 수집부(110)는 바닥에 설치된 모션 플랫폼(400) 상에 위치한 제3 센서를 통해 이동 거리, 발의 보폭 및 이동 속도 중에서 적어도 하나를 센싱된 정보를 수집한다.The sensing data collection unit 110 collects at least one of the moving distance, the foot stride, and the moving speed through the third sensor located on the floor mounted motion platform 400.

제어부(120)는 감지된 사용자의 머리의 높이, 얼굴 방향, 발의 보폭, 움직임 거리 및 이동 속도 중에서 적어도 하나를 이용하여 헤드 마운트(300)와 연동된 무인항공기(200)의 동작을 제어하기 위한 제어 신호를 생성한다.The control unit 120 controls the operation of the UAV 200 interlocked with the head mount 300 using at least one of the height, face direction, foot stride, movement distance, Signal.

통신부(130)는 체감형 무인항공기 제어 장치(100)가 생성한 제어 신호를 무인항공기(200)로 송신한다.The communication unit 130 transmits the control signal generated by the haptic unmanned aerial vehicle control device 100 to the unmanned airplane 200.

통신부(130)는 무인항공기(200)의 위치 정보 및 비행 정보를 수신받을 수도 있다. 위치 정보는 고도정보를 포함하고 무인항공기(200)에 장착된 GPS를 통해 알 수 있으며, 비행 정보는 무인항공기(200)의 속도 정보, 항법 정보, 자세 정보, 엔진 피드백 데이터 및 센서 피드백 데이터 중 어느 하나 이상이 포함되는 것이다. The communication unit 130 may receive location information and flight information of the UAV 200. The positional information includes altitude information and can be known by GPS mounted on the UAV 200. The flight information is information on the speed information, navigation information, attitude information, engine feedback data, and sensor feedback data of the UAV 200 One or more are included.

통신부(130)는 무인항공기(200)와 근거리 무선 통신 방식을 사용하고 영상을 와이파이를 이용해 전송할 수도 있고 LTE(4세대 이동통신)망을 통해 원거리 무선 통신 방식으로 제어 신호 및 영상을 송수신할 수 있다. The communication unit 130 may transmit the image using Wi-Fi using the short-range wireless communication method with the UAV 200 or transmit and receive the control signal and the image using the long-distance wireless communication method through the LTE (fourth generation mobile communication) network .

또한, 통신부(130)는 헤드 마운트(300)와 모션 플랫폼(400)과는 IP(Internet Protocol) 기반의 유무선망을 포함하며, IP망과 같이 특정 프로토콜을 이용하여 데이터를 송수신할 수 있는 다양한 망을 통해 통신할 수 있다.The communication unit 130 includes a head mount 300 and a motion platform 400. The head mount 300 and the motion platform 400 include wired and wireless networks based on IP (Internet Protocol), and various networks capable of transmitting and receiving data using a specific protocol, Lt; / RTI >

제1 센서(140)는 움직임 감지 센서로서, 헤드 마운트(300)에 장착되어 사용자의 머리의 움직임을 감지한다.The first sensor 140 is a motion sensing sensor, and is mounted on the head mount 300 to sense movement of the user's head.

제2 센서(150)는 헤드 마운트(300) 또는 정면의 카메라 센서 또는 사용자의 신체 일부에 장착되는 센서로서, 적외선 센서 등으로 이루어질 수 있으며, 사용자의 머리의 높이를 감지한다.The second sensor 150 is a sensor mounted on the head mount 300 or a front camera sensor or a part of the user's body, and may be an infrared sensor or the like, and senses the height of the user's head.

제3 센서(160)는 모션 플랫폼(400) 또는 공간상에 설치된 비콘에 설치되는 움직임 감지 센서로서, 사용자의 위치, 이동거리, 이동 속도 또는 발의 움직임을 감지한다.The third sensor 160 is a motion sensor installed on the motion platform 400 or a beacon installed in the space, and detects the position, the moving distance, the moving speed or the motion of the user.

도 3은 본 발명의 실시예에 따른 체감형 무인항공기 제어 장치의 제어 방법에 대한 순서도이다.3 is a flowchart of a control method of the haptic unmanned aerial vehicle control apparatus according to the embodiment of the present invention.

먼저, 헤드 마운트(300)를 착용하고 있는 사용자는 무인항공기(200)로부터 촬영된 영상을 확인할 수 있으며, 체감형 무인항공기 제어 장치(100)는 사용자의 머리의 움직임을 감지하는 제1 센서(140), 높이를 감지하는 제2 센서(150) 및 사용자의 위치, 이동 거리 또는 이동 속도 중에서 적어도 하나를 감지하는 제3 센서(160)로부터 센싱된 정보를 수집한다(S310).First, the user wearing the head mount 300 can view an image photographed from the UAV 200, and the haptic UAV controller 100 includes a first sensor 140 A second sensor 150 sensing the height, and a third sensor 160 sensing at least one of the position, movement distance, and movement speed of the user (S310).

여기에서 제1 센서(140)는 사용자가 착용하고 있는 헤드 마운트(300)에 장착되어 있는 것으로, 사용자의 머리 움직임의 방향을 감지하고 제2 센서(150)도 헤드 마운트(300)에 장착되어 바닥과 사용자의 머리와의 높이를 감지하고 제3 센서(160)는 사용자의 위치, 이동 거리, 발의 보폭, 이동 속도 중에서 적어도 하나를 감지하며, 제1 센서(140), 제2 센서(150) 및 제3 센서(160)는 감지된 데이터를 체감형 무인항공기 제어 장치(100)에 송신한다.The first sensor 140 is attached to the head mount 300 worn by the user and senses the direction of the head movement of the user and the second sensor 150 is mounted on the head mount 300, The third sensor 160 detects at least one of the position, the moving distance, the foot width, and the moving speed of the user, and the first sensor 140, the second sensor 150, The third sensor 160 transmits the sensed data to the haptic assisted unmanned airplane control device 100.

이때, 사용자의 머리 높이를 감지하는 제2센서(150)는 헤드 마운트(300)에 장착되어 사용자의 움직임을 감지할 수 있지만, 헤드 마운트(300) 상이 아닌 사용자의 허벅지에 부착해서 허벅지의 움직임으로 머리의 높이를 측정하거나 사용자의 정면에서 카메라 기반의 센서로 머리의 높이를 측정할 수 있다.At this time, the second sensor 150 sensing the height of the user's head can be mounted on the head mount 300 to detect movement of the user. However, the second sensor 150 can be attached to the thigh of the user rather than on the head mount 300, You can measure the height of your head or you can measure the height of your head with a camera-based sensor from the front of the user.

또한, 사용자의 발의 움직임을 감지하는 제3 센서(160)는 모션 플랫폼(400)에 장착되어 모션 플랫폼(400) 상에서 사용자의 움직임을 감지할 수 있지만, 모션 플랫폼(400) 상이 아닌 특정 공간에 센서를 부착하여 사용자의 위치, 이동 거리, 발의 보폭 또는 이동 속도 중에서 적어도 하나를 감지할 수도 있다. The third sensor 160 for sensing the movement of the user's foot may be mounted on the motion platform 400 to sense movement of the user on the motion platform 400, To detect at least one of the position, the moving distance, the foot stride, or the moving speed of the user.

다음으로 체감형 무인항공기 제어 장치(100)는 감지된 사용자의 머리의 높이, 얼굴 방향, 발의 보폭, 위치, 움직임 거리 및 이동 속도 중에서 적어도 하나를 이용하여 헤드 마운트와 연동된 무인항공기(200)의 동작을 제어하기 위한 제어 신호를 생성한다(S320).Next, the declination-free unmanned airplane control device (100) controls the unmanned airplane (200) linked to the head mount by using at least one of the height, face direction, foot stride, A control signal for controlling the operation is generated (S320).

체감형 무인항공기 제어 장치(100)는 제1 센서(140)를 통해 바닥 또는 앉은 자세를 기준으로 바르게 서 있는 사용자의 머리 높이를 측정하고, 기준 높이와 사용자의 머리 높이의 차이에 비례하여 무인항공기(200)의 높이를 상승 또는 하강시키는 제어 신호를 생성한다. The sensible-type UAV controller 100 measures the head height of a user standing on a floor or a sitting posture through the first sensor 140, and calculates the height of the user's head height in accordance with the difference between the reference height and the head height of the user. Thereby generating a control signal for raising or lowering the height of the substrate 200.

즉, 체감형 무인항공기 제어 장치(100)는 바닥 또는 앉은 자세와 같이 가장 낮게 설정된 높이를 기준 높이로 설정하고, 기준 높이와 무인항공기(200)가 바닥에 착륙하는 위치를 매칭시키고, 사용자 머리가 가장 높은 위치와 무인항공기(200)가 최고 고도로 상승할 수 있는 높이를 매칭시킨다.That is, the declination control type UAV controller 100 sets the height set at the lowest such as the floor or the sitting position as the reference height, matches the reference height with the position where the UAV 200 landed on the floor, Matching the highest position and the height at which the UAV 200 can rise to the highest altitude.

예를 들어 사용자의 앉은 자세의 머리의 높이가 100cm이고 사용자가 바르게 선 머리의 높이가 170cm이고, 무인항공기(200)가 최고로 높이 상승할 수 있는 높이가 500m라고 가정한다. 제1 센서(140)에서 감지된 사용자 머리의 높이가 100cm일 경우, 체감형 무인항공기 제어 장치(100)는 바닥에 놓여 있는 무인항공기(200)의 높이를 제어하지 않는다. 사용자의 머리 높이가 170cm로 변한다면, 체감형 무인항공기 제어 장치(100)는 무인항공기(200)를 최고의 고도로 상승시키는 제어 신호를 생성한다.For example, suppose that the height of the head of the user in the sitting position is 100 cm, the height of the head of the user is correctly 170 cm, and the height at which the UAV 200 can rise to the maximum height is 500 m. When the height of the user's head sensed by the first sensor 140 is 100 cm, the haptic controller 10 does not control the height of the UAV 200 placed on the floor. If the head height of the user is changed to 170 cm, the deceleration type UAV controller 100 generates a control signal for elevating the UAV 200 to the highest altitude.

만약 사용자의 머리 높이가 100cm 내지 170cm 사이라면, 체감형 무인항공기 제어 장치(100)는 무인항공기(200)의 고도 범위인 0m 내지 500m 사이의 높이와 매칭하여 그에 비례하는 높이로 상승 또는 하강시키는 제어 신호를 생성한다.If the height of the user's head is between 100 cm and 170 cm, the tactile feedback control system 100 matches the height of the unmanned airplane 200 between 0 and 500 m, Signal.

이때, 사용자가 헤드 마운트(300)에 설치된 인식 정지 버튼을 누르면, 체감형 무인항공기 제어 장치(100)는 버튼을 누르는 시점에 감지된 사용자의 머리 높이를 고정하여 버튼을 누른 후 사용자의 머리의 높이가 변화하더라도 변화가 없는 것으로 간주하여 무인항공기(200)의 높이를 유지시킨다.At this time, when the user presses the recognition stop button provided on the head mount 300, the declination control type UAV controller 100 fixes the detected head height of the user at the time of pressing the button, presses the button, The height of the UAV 200 is maintained.

고정된 사용자의 머리 높이를 해제하려고 한다면, 사용자는 헤드 마운트(300)에 설치된 인식 정지 버튼을 한번 더 누르거나 별도로 설치된 인식 버튼을 눌러 해제할 수 있으나 이는 사용자에 의해 용이하게 변경, 설정될 수 있다.If the user desires to release the head height of the fixed user, the user can press the recognition stop button provided on the head mount 300 again or release the separately installed recognition button, but this can be easily changed and set by the user .

또한, 체감형 무인항공기 제어 장치(100)는 제1 센서(140)를 통해 인식된 사용자의 얼굴 방향에 대응하여 무인항공기(200)의 진행 방향을 제어하기 위한 제어 신호를 생성할 수 있다.In addition, the sensible-feeling type UAV controller 100 may generate a control signal for controlling the traveling direction of the UAV 200 corresponding to the face direction of the user recognized through the first sensor 140. [

예를 들어 사용자의 얼굴 방향이 오른쪽을 향하고 있는 경우, 체감형 무인항공기 제어 장치(100)는 무인항공기(200)의 진행 방향을 오른쪽으로 제어하는 신호를 생성할 수 있다. 왼쪽, 상향, 하향도 이와 같은 방법으로 체감형 무인항공기 제어 장치(100)는 무인항공기(200)의 진행 방향에 대한 제어 신호를 생성할 수 있다.For example, when the face of the user faces the right direction, the haptic-assisted unmanned airplane control device 100 can generate a signal for controlling the traveling direction of the UAV 200 to the right. In the same way, the sensible-type UAV controller 100 can generate a control signal for the traveling direction of the UAV 200.

즉, 체감형 무인항공기 제어 장치(100)는 사용자가 움직이는 해당 각도만큼 무인항공기(200)의 진행 방향의 각도를 변화하는 제어 신호를 생성할 수 있다.That is, the tactile-type UAV controller 100 can generate a control signal that changes the angle of the advancing direction of the UAV 200 by a corresponding angle at which the user moves.

한편, 무인 항공기가 제자리에서 호버링하고 있는 경우에 한해서 체감형 무인항공기 제어 장치(100)는 제1 센서(140)를 통해 인식된 사용자의 얼굴 방향에 대응하여 무인항공기(200)의 진행 방향을 제어하기 위한 제어 신호 생성을 제한하고 무인항공기(200)가 포함하고 있는 카메라의 촬영 방향을 제어하기 위한 제어 신호를 생성할 수 있다.In the meantime, only when the unmanned airplane hovering in place, the declination control type UAV controller 100 controls the traveling direction of the UAV 200 in correspondence with the face direction of the user recognized through the first sensor 140 And the control signal for controlling the shooting direction of the camera included in the UAV 200 can be generated.

예를 들어 사용자의 얼굴 방향이 오른쪽을 향하고 있는 경우, 체감형 무인항공기 제어 장치(100)는 무인항공기(200)의 카메라 촬영 방향을 오른쪽으로 제어하는 신호를 생성할 수 있다. 왼쪽, 상향, 하향도 이와 같은 방법으로 체감형 무인항공기 제어 장치(100)는 무인항공기(200)의 카메라 촬영 방향에 대한 제어 신호를 생성할 수 있다.For example, when the user's face direction is directed to the right, the haptic drone control device 100 can generate a signal for controlling the camera shooting direction of the UAV 200 to the right. In the same way, the deceleration type unmanned airplane control device 100 can generate a control signal for the camera shooting direction of the unmanned airplane 200.

즉, 무인항공기가 호버링 상태에 있는 경우에 체감형 무인항공기 제어 장치(100)는 사용자가 움직이는 해당 각도만큼 무인항공기(200)의 카메라 촬영 방향의 각도를 변화하는 제어 신호를 생성할 수 있다. That is, when the unmanned airplane is in the hovering state, the haptic-assisted unmanned airplane control device 100 can generate a control signal for changing the angle of the camera-capturing direction of the unmanned airplane 200 by a corresponding angle at which the user moves.

무인 항공기가 호버링을 끝내고 이동하면 정면을 촬영하기 위해서 다시 정면 방향으로 카메라를 돌려야 한다.When the unmanned aircraft has finished hovering, the camera must be turned in the front direction again to capture the front.

즉, 체감형 무인항공기 제어 장치(100)는 무인항공기(200)의 카메라 촬영 방향의 각도를 원상태로 돌리기 위한 제어 신호를 생성할 수 있다. That is, the haptic-type unmanned aerial vehicle control apparatus 100 can generate a control signal for turning the angle of the camera shooting direction of the UAV 200 to the original state.

여기에서 호버링(hovering) 상태는 무인항공기(200)가 일정한 고도를 유지한 채 움직이지 않는 상태를 의미하며, 사용자가 무인항공기(200)를 조정하는 도중 일정 시간 이상 움직임을 멈춘 경우, 체감형 무인항공기 제어 장치(100)는 무인항공기(200)에게 호버링 상태로 전환하도록 하는 제어 신호를 전달한다. Here, the hovering state refers to a state in which the UAV 200 does not move while maintaining a certain altitude. When the user stops moving for a predetermined time or longer during the adjustment of the UAV 200, The aircraft control apparatus 100 transmits a control signal for switching the state to the hovering state to the unmanned airplane 200.

이와 같은 호버링 상태에서 제2 센서(150) 또는 제3 센서(160)를 통해 사용자의 움직임을 감지하면 체감형 무인항공기 제어 장치(100)는 무인항공기(200)의 호버링 상태를 해제하도록 하는 제어 신호를 생성하여 무인항공기(200)로 전달한다. 그리고, 제어 장치(100)는 카메라 방향을 무인항공기(200)의 진행방향과 일치하도록 조절하고 사용자의 진행 방향에 따라 무인항공기(200)의 진행 방향을 제어하는 제어 신호를 생성한다.When the user senses the movement of the user through the second sensor 150 or the third sensor 160 in such a hovering state, the haptic assisted unmanned airplane control device 100 transmits a control signal for canceling the hovering state of the unmanned airplane 200 And transmits it to the UAV 200. The controller 100 adjusts the camera direction to coincide with the traveling direction of the UAV 200 and generates a control signal to control the traveling direction of the UAV 200 according to the traveling direction of the user.

다음으로 체감형 무인항공기 제어 장치(100)는 사용자의 위치, 이동 거리, 발의 움직임 거리 중에서 적어도 하나에 대응하여 무인항공기(200)의 이동거리를 제어하고 사용자의 이동 속도에 따라 무인항공기(200)의 이동 속도를 제어하기 위한 제어 신호를 생성할 수 있다.Next, the sensible-type UAV controller 100 controls the movement distance of the UAV 200 in accordance with at least one of the position, the movement distance, and the foot motion distance of the user, and controls the movement distance of the UAV 200, It is possible to generate a control signal for controlling the moving speed of the motor.

즉, 사용자가 움직이는 발의 보폭을 너비에 따라 N단계로 나누고 그에 따라 무인항공기(200)의 이동거리를 설정하면, 체감형 무인항공기 제어 장치(100)는 제3 센서(160)를 통해 센싱된 발의 보폭의 단계에 대응하여 무인항공기(200)가 이동하도록 이동 제어 신호를 생성할 수 있다. That is, if the stride of the foot of the user is divided into N steps according to the width and the travel distance of the UAV 200 is set according to the N, the sensible UAV controller 100 can detect the foot sensed through the third sensor 160 The movement control signal can be generated so that the UAV 200 moves in response to the stride step.

또한, 체감형 무인항공기 제어 장치(100)는 사용자의 이동 속도에 대하여, 사용자가 정지했을 때와 가장 빠르게 뛰는 속도를 측정하여 무인항공기(200)의 정지 및 최고 속도와 매칭한다. 그리고, 제3 센서(160)를 통해 사용자의 이동속도를 감지하면, 그에 따른 무인항공기(200) 제어 신호를 생성할 수 있다.In addition, the sensible-type UAV controller 100 measures the speed at which the user is stopped and the fastest speed with respect to the user's moving speed, thereby matching with the stop and maximum speed of the UAV 200. When the movement speed of the user is sensed through the third sensor 160, the control signal of the UAV 200 can be generated.

체감형 무인항공기 제어 장치(100)는 생성된 제어 신호를 무인항공기(200)로 송신한다(S330).The sensible-type UAV controller 100 transmits the generated control signal to the UAV 200 (S330).

이와 같이 제어 신호를 수신한 무인항공기(200)는 제어신호에 대응하여 이동하며, 좌우 회전 방향을 변경시킬 수 있으며, 실시간으로 촬영된 영상을 헤드 마운트(300)로 전달한다. In response to the control signal, the unmanned airplane 200 receives the control signal, changes the left and right direction of rotation, and transmits the captured image to the head mount 300 in real time.

그리고, 체감형 무인항공기 제어 장치(100)는 무인항공기(200)의 위치 정보 및 비행 정보를 실시간으로 수신받으며, 수신된 위치 정보 및 비행 정보를 참고하여 무인항공기(200)가 정상적으로 동작하고 있는지 여부를 판단하도록 할 수 있다. The sensible-type UAV controller 100 receives the position information and the flight information of the UAV 200 in real time, refers to the received position information and the flight information, and determines whether the UAV 200 is operating normally . ≪ / RTI >

또한, 사용자는 헤드 마운트를 통하여 무인항공기(200)가 전송한 촬영 영상을 통하여 무인항공기의 현재 상태 및 정상 동작 여부를 확인할 수 있다. Also, the user can confirm the current state and the normal operation state of the UAV through the head mount, through the image captured by the UAV 200.

이와 같이 본 발명의 실시예에 따르면, 무인항공기의 카메라를 통한 이미지 및 영상을 기반으로 사용자는 사용자의 움직임을 통해 자유 자재로 무인항공기의 제어할 수 있기 때문에 실제 현장에서 관찰하는 것과 같은 효과가 나타나며, 조종 방법이 간단하여 특별한 조종 능력을 갖추지 않아도 무인항공기를 제어할 수 있다.As described above, according to the embodiment of the present invention, since the user can freely control the UAV through the movement of the user based on the image and the image through the camera of the UAV, , The maneuvering method is simple, and it is possible to control the unmanned airplane without special steering ability.

또한, 사용자가 사용자의 머리 또는 다리의 움직임으로 무인항공기를 제어할 수 있기 때문에, 손으로 또 다른 무인항공기의 추가 기능 제어가 가능하거나 다른 작업 수행을 할 수 있다.Further, since the user can control the UAV by the movement of the user's head or leg, it is possible to control the additional function of another UAV by hand or perform other tasks.

본 발명은 도면에 도시된 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 다른 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의하여 정해져야 할 것이다.While the present invention has been described with reference to exemplary embodiments, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, is intended to cover various modifications and equivalent arrangements included within the spirit and scope of the appended claims. Accordingly, the true scope of the present invention should be determined by the technical idea of the appended claims.

100: 체감형 무인항공기 제어 장치 110: 센싱 데이터 수집부
120: 제어부 130: 통신부
140: 제1 센서 150: 제2 센서
160: 제3 센서 200: 무인항공기
300: 헤드 마운트 400: 모션 플랫폼
100: a sensible-type unmanned airplane control device 110: a sensing data collecting unit
120: control unit 130:
140: first sensor 150: second sensor
160: Third sensor 200: Unmanned aerial vehicle
300: Head mount 400: Motion platform

Claims (16)

헤드 마운트를 착용하고 있는 사용자에게 촬영 영상을 제공하는 무인항공기를 제어하기 위한 체감형 무인항공기 제어 장치에 있어서,
상기 사용자의 머리의 움직임을 감지하는 제1 센서, 상기 사용자의 높이를 감지하는 제2 센서 및 상기 사용자의 위치, 이동 거리, 이동 속도 또는 발의 움직임 중에서 적어도 하나를 감지하는 제3 센서로부터 센싱된 정보를 수집하는 센싱 데이터 수집부;
상기 센싱된 정보를 이용하여 상기 헤드 마운트와 연동된 무인항공기의 동작을 제어하기 위한 제어 신호를 생성하는 제어부; 및
상기 제어 신호를 상기 무인항공기로 송신하는 통신부를 포함하는 체감형 무인항공기 제어 장치.
A tactile-type unmanned aerial vehicle control apparatus for controlling an unmanned aerial vehicle that provides a photographed image to a user wearing a head mount,
A second sensor for sensing a height of the user, and a third sensor for sensing at least one of a position, a moving distance, a moving speed, and a foot motion of the user, A sensing data collecting unit collecting the sensing data;
A control unit for generating a control signal for controlling an operation of the unmanned aerial vehicle linked to the head mount using the sensed information; And
And a communication unit for transmitting the control signal to the unmanned air vehicle.
제1항에 있어서,
상기 제3 센서는 바닥에 설치된 모션 플랫폼 또는 공간상에 설치된 비콘에 부착되는 체감형 무인항공기 제어 장치.
The method according to claim 1,
Wherein the third sensor is attached to a beacon installed on a motion platform or a space installed on the floor.
제1항에 있어서,
상기 제어부는,
상기 사용자의 머리의 높이 변화의 크기에 비례하여 상기 무인항공기의 높이를 상승 또는 하강시키는 제어 신호를 생성하는 체감형 무인항공기 제어 장치.
The method according to claim 1,
Wherein,
Wherein the control unit generates a control signal for raising or lowering the height of the UAV in proportion to a change in the height of the head of the user.
제3항에 있어서,
상기 사용자가 상기 헤드 마운트에 설치된 인식 정지 버튼을 누르면,
상기 제어부는,
상기 사용자의 머리의 높이의 변화가 없는 것으로 간주하여 상기 무인항공기의 높이를 일정하게 유지시키는 체감형 무인항공기 제어 장치.
The method of claim 3,
When the user presses the recognition stop button provided on the head mount,
Wherein,
Wherein the height of the unmanned airplane is maintained constant by considering that there is no change in the height of the head of the user.
제1항에 있어서,
상기 제어부는,
상기 사용자의 얼굴 방향에 대응하여 상기 무인항공기의 진행 방향을 제어하기 위한 제어 신호를 생성하는 체감형 무인항공기 제어 장치.
The method according to claim 1,
Wherein,
And generates a control signal for controlling a traveling direction of the UAV according to a face direction of the user.
제5항에 있어서,
상기 제어부는,
상기 무인항공기가 호버링인 상태에서 상기 사용자의 얼굴 방향에 대응하여, 상기 무인항공기의 진행 방향을 제어하기 위한 제어 신호를 생성을 제한하고 상기 무인항공기의 카메라 촬영 방향을 제어하기 위한 제어 신호를 생성하는 체감형 무인항공기 제어 장치.
6. The method of claim 5,
Wherein,
The controller controls generation of a control signal for controlling the traveling direction of the unmanned airplane and generates a control signal for controlling the camera shooting direction of the unmanned airplane in correspondence with the face direction of the user in the state where the unmanned airplane is hovering [Withdrawn] CONTROLLED EQUIPMENT CONTROLLER.
제6항에 있어서,
상기 제어부는,
상기 무인항공기가 호버링 상태에서 상기 사용자로부터 이동 명령에 대응하는 동작이 검출되면, 상기 무인항공기의 카메라 촬영 방향을 상기 무인항공기의 진행방향과 일치시킨 후 상기 무인항공기를 이동시키도록 하는 제어 신호를 생성하는 체감형 무인항공기 제어 장치.
The method according to claim 6,
Wherein,
Generating a control signal for moving the unmanned airplane after moving the camera shooting direction of the unmanned airplane to the moving direction of the unmanned airplane when the unmanned airplane is in the hovering state and an operation corresponding to the move command is detected by the user A control unit for controlling the unmanned airplane.
제1항에 있어서,
상기 제어부는,
상기 사용자의 위치, 이동 거리 및 발의 보폭 중에서 적어도 하나에 대응하여 상기 무인항공기의 이동 거리를 제어하고 상기 사용자의 이동 속도에 따라 상기 무인항공기의 이동 속도를 제어하기 위한 제어 신호를 생성하는 체감형 무인항공기 제어 장치.
The method according to claim 1,
Wherein,
Wherein the control unit controls the moving distance of the UAV according to at least one of the position, the moving distance, and the foot stride of the user, and generates a control signal for controlling the moving speed of the UAV according to the moving speed of the user Aircraft control device.
헤드 마운트를 착용하고 있는 사용자에게 촬영 영상을 제공하는 무인항공기를 제어하기 위한 장치를 이용한 무인항공기 제어 방법에 있어서,
상기 사용자의 머리의 움직임을 감지하는 제1 센서, 높이를 감지하는 제2 센서와 상기 사용자의 위치, 이동 거리, 또는 발의 움직임 중에서 적어도 하나를 감지하는 제3 센서로부터 센싱된 정보를 수집하는 단계;
상기 센싱된 정보를 이용하여 상기 헤드 마운트와 연동된 무인항공기의 동작을 제어하기 위한 제어 신호를 생성하는 단계; 및
상기 제어 신호를 상기 무인항공기로 송신하는 단계를 포함하는 체감형 무인항공기 제어 방법.
A method for controlling an unmanned airplane using an apparatus for controlling an unmanned air vehicle providing a photographed image to a user wearing a head mount,
Collecting information sensed by a first sensor that senses movement of the user's head, a second sensor that senses the height, and a third sensor that senses at least one of the user's position, movement distance, or foot motion;
Generating a control signal for controlling an operation of an unmanned air vehicle interlocked with the head mount using the sensed information; And
And transmitting the control signal to the unmanned airplane.
제9항에 있어서,
상기 제3 센서는 바닥에 설치된 모션 플랫폼 또는 공간상에 설치된 비콘에 부착되는 사용자의 위치 또는 이동 속도를 측정하는 체감형 무인항공기 제어 방법.
10. The method of claim 9,
Wherein the third sensor measures a position or a moving speed of a user attached to a beacon installed on a floor or a motion platform mounted on the floor.
제9항에 있어서,
상기 무인항공기의 제어 신호를 생성하는 단계는,
상기 사용자의 머리의 높이 변화의 크기에 비례하여 상기 무인항공기의 높이를 상승 또는 하강시키는 제어 신호를 생성하는 체감형 무인항공기 제어 방법.
10. The method of claim 9,
The step of generating the control signal of the unmanned aerial vehicle includes:
Wherein the controller generates a control signal for raising or lowering the height of the UAV in proportion to a change in the height of the head of the user.
제11항에 있어서,
상기 사용자가 상기 헤드 마운트에 설치된 인식 정지 버튼을 누르면,
상기 무인항공기의 제어 신호를 생성하는 단계는,
상기 사용자의 머리의 높이의 변화가 없는 것으로 간주하여 상기 무인항공기의 높이를 일정하게 유지시키는 체감형 무인항공기 제어 방법.
12. The method of claim 11,
When the user presses the recognition stop button provided on the head mount,
The step of generating the control signal of the unmanned aerial vehicle includes:
The height of the unmanned airplane is kept constant by considering that there is no change in the height of the head of the user.
제9항에 있어서,
상기 무인항공기의 제어 신호를 생성하는 단계는,
상기 사용자의 얼굴 방향에 대응하여 상기 무인항공기의 진행 방향을 제어하기 위한 제어 신호를 생성하는 체감형 무인항공기 제어 방법.
10. The method of claim 9,
The step of generating the control signal of the unmanned aerial vehicle includes:
And generating a control signal for controlling a traveling direction of the UAV according to a face direction of the user.
제13항에 있어서,
상기 무인항공기의 제어 신호를 생성하는 단계는,
상기 무인항공기가 호버링인 상태에서 상기 사용자의 얼굴 방향에 대응하여, 상기 무인항공기의 진행 방향을 제어하기 위한 제어 신호를 생성을 제한하고 상기 무인항공기의 카메라 촬영 방향을 제어하기 위한 제어 신호를 생성하는 체감형 무인항공기 제어 방법.
14. The method of claim 13,
The step of generating the control signal of the unmanned aerial vehicle includes:
The controller controls generation of a control signal for controlling the traveling direction of the unmanned airplane and generates a control signal for controlling the camera shooting direction of the unmanned airplane in correspondence with the face direction of the user in the state where the unmanned airplane is hovering [Withdrawn] CONTROLLING METHODS OF UTILIZING UAV.
제14항에 있어서,
상기 무인항공기의 제어 신호를 생성하는 단계는,
상기 무인항공기가 호버링 상태에서 상기 사용자로부터 이동 명령에 대응하는 동작이 검출되면, 상기 무인항공기의 카메라 촬영 방향을 상기 무인항공기의 진행 방향과 일치시킨 후 상기 무인항공기를 이동시키도록 하는 제어 신호를 생성하는 체감형 무인항공기 제어 방법.
15. The method of claim 14,
The step of generating the control signal of the unmanned aerial vehicle includes:
Generating a control signal for moving the unmanned airplane after moving the camera shooting direction of the unmanned airplane to the moving direction of the unmanned airplane when the unmanned airplane is in the hovering state and an operation corresponding to the move command is detected by the user A method for controlling a tactile type unmanned airplane.
제9항에 있어서,
상기 무인항공기의 제어 신호를 생성하는 단계는,
상기 사용자의 위치, 이동 거리 또는 발의 보폭 중에서 적어도 하나에 대응하여 상기 무인항공기의 이동 거리를 제어하고 상기 사용자의 이동 속도에 따라 상기 무인항공기의 이동 속도를 제어하기 위한 제어 신호를 생성하는 체감형 무인항공기 제어 방법.
10. The method of claim 9,
The step of generating the control signal of the unmanned aerial vehicle includes:
Wherein the control unit controls the movement distance of the UAV according to at least one of the position, the movement distance, and the footstep of the user, and generates a control signal for controlling the movement speed of the UAV according to the movement speed of the user Aircraft control method.
KR1020150031074A 2015-03-05 2015-03-05 Apparatus for tangible control of unmanned aerial vehicle and Method for control thereof KR101682797B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020150031074A KR101682797B1 (en) 2015-03-05 2015-03-05 Apparatus for tangible control of unmanned aerial vehicle and Method for control thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150031074A KR101682797B1 (en) 2015-03-05 2015-03-05 Apparatus for tangible control of unmanned aerial vehicle and Method for control thereof

Publications (2)

Publication Number Publication Date
KR20160107788A true KR20160107788A (en) 2016-09-19
KR101682797B1 KR101682797B1 (en) 2016-12-05

Family

ID=57103422

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150031074A KR101682797B1 (en) 2015-03-05 2015-03-05 Apparatus for tangible control of unmanned aerial vehicle and Method for control thereof

Country Status (1)

Country Link
KR (1) KR101682797B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180060534A (en) * 2016-11-29 2018-06-07 계명대학교 산학협력단 Apparatus for user direction recognition based on beacon cooperated with experiential type content providing apparatus and method thereof
KR20180103601A (en) * 2017-03-10 2018-09-19 삼성전자주식회사 Method for Controlling an Unmanned Aerial Vehicle and the Unmanned Aerial Vehicle supporting the same
KR101949788B1 (en) * 2018-09-27 2019-02-19 새한항업(주) Image Collecting System Using Aerial Photograph
CN113497910A (en) * 2020-04-01 2021-10-12 南宁富桂精密工业有限公司 Video system and picture generation method thereof
JP2022028894A (en) * 2017-08-29 2022-02-16 株式会社トプコン Optical information processing apparatus, optical information processing method, and program for optical information processing

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100990386B1 (en) * 2008-08-05 2010-11-02 주식회사 대한항공 Flight control system and control method of unmanned Aerial Vehicle
KR20130086192A (en) * 2013-06-18 2013-07-31 이상윤 Unmanned aerial vehicle system operated by smart eyeglass
KR20150047954A (en) * 2013-10-25 2015-05-06 주식회사 바이로봇 Flying battle game system using flying robot, and Flying battle game method using Thereof

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100990386B1 (en) * 2008-08-05 2010-11-02 주식회사 대한항공 Flight control system and control method of unmanned Aerial Vehicle
KR20130086192A (en) * 2013-06-18 2013-07-31 이상윤 Unmanned aerial vehicle system operated by smart eyeglass
KR20150047954A (en) * 2013-10-25 2015-05-06 주식회사 바이로봇 Flying battle game system using flying robot, and Flying battle game method using Thereof

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180060534A (en) * 2016-11-29 2018-06-07 계명대학교 산학협력단 Apparatus for user direction recognition based on beacon cooperated with experiential type content providing apparatus and method thereof
KR20180103601A (en) * 2017-03-10 2018-09-19 삼성전자주식회사 Method for Controlling an Unmanned Aerial Vehicle and the Unmanned Aerial Vehicle supporting the same
JP2022028894A (en) * 2017-08-29 2022-02-16 株式会社トプコン Optical information processing apparatus, optical information processing method, and program for optical information processing
JP7203935B2 (en) 2017-08-29 2023-01-13 株式会社トプコン Optical information processing device, optical information processing method, and optical information processing program
KR101949788B1 (en) * 2018-09-27 2019-02-19 새한항업(주) Image Collecting System Using Aerial Photograph
CN113497910A (en) * 2020-04-01 2021-10-12 南宁富桂精密工业有限公司 Video system and picture generation method thereof

Also Published As

Publication number Publication date
KR101682797B1 (en) 2016-12-05

Similar Documents

Publication Publication Date Title
KR101682797B1 (en) Apparatus for tangible control of unmanned aerial vehicle and Method for control thereof
KR101117207B1 (en) Auto and manual control system for unmanned aerial vehicle via smart phone
US9493232B2 (en) Remote control method and terminal
US9738382B2 (en) Drone immersion-piloting system
JP6932405B2 (en) Remote control system and its control device
US20180143636A1 (en) Autonomous system for shooting moving images from a drone, with target tracking and holding of the target shooting angle
JP4012749B2 (en) Remote control system
JP2016203978A (en) System for piloting a drone in immersed state
US20180095469A1 (en) Autonomous system for shooting moving images from a drone, with target tracking and holding of the target shooting angle
US9961658B2 (en) Local network for the simultaneous exchange of data between a drone and a plurality of user terminals
KR101882452B1 (en) Fire prevention drone system can charge wirelessly
WO2018187916A1 (en) Cradle head servo control method and control device
JP2015037937A (en) Flight vehicle flight control system
WO2017169841A1 (en) Display device and display control method
JP6925670B1 (en) Remote control system and its control device
US11209835B2 (en) Drone maneuvering system, maneuvering signal transmitter set, and drone maneuvering method
KR20170079673A (en) System and method for controlling automatic flight of unmanned drones
KR20180025416A (en) Drone flying control system and method using motion recognition and virtual reality
KR101944952B1 (en) An unmanned aerial vehicle detecting fire
CN108475064B (en) Method, apparatus, and computer-readable storage medium for apparatus control
KR101779255B1 (en) Automatic navigation and communication possible drones operating system
JP6986303B2 (en) Remote control system and its control device
KR20190069777A (en) Virtual Experience System and Control Method Using Unmanned aerial vehicle

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
FPAY Annual fee payment

Payment date: 20191104

Year of fee payment: 4