KR20160107788A - Apparatus for tangible control of unmanned aerial vehicle and Method for control thereof - Google Patents
Apparatus for tangible control of unmanned aerial vehicle and Method for control thereof Download PDFInfo
- Publication number
- KR20160107788A KR20160107788A KR1020150031074A KR20150031074A KR20160107788A KR 20160107788 A KR20160107788 A KR 20160107788A KR 1020150031074 A KR1020150031074 A KR 1020150031074A KR 20150031074 A KR20150031074 A KR 20150031074A KR 20160107788 A KR20160107788 A KR 20160107788A
- Authority
- KR
- South Korea
- Prior art keywords
- user
- control signal
- aerial vehicle
- controlling
- unmanned
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 30
- 238000004891 communication Methods 0.000 claims abstract description 12
- 238000013480 data collection Methods 0.000 abstract description 3
- 238000011017 operating method Methods 0.000 abstract 1
- 238000005516 engineering process Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 230000004886 head movement Effects 0.000 description 2
- 210000002414 leg Anatomy 0.000 description 2
- 230000003466 anti-cipated effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000003028 elevating effect Effects 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000000575 pesticide Substances 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 239000000779 smoke Substances 0.000 description 1
- 238000005507 spraying Methods 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 210000000689 upper leg Anatomy 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64C—AEROPLANES; HELICOPTERS
- B64C39/00—Aircraft not otherwise provided for
- B64C39/02—Aircraft not otherwise provided for characterised by special use
- B64C39/024—Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Y—INDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
- B60Y2200/00—Type of vehicle
- B60Y2200/50—Aeroplanes, Helicopters
-
- B64C2201/146—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2201/00—UAVs characterised by their flight controls
- B64U2201/20—Remote controls
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Aviation & Aerospace Engineering (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
Description
본 발명은 체감형 무인항공기 제어 장치 및 그 제어 방법에 관한 것으로, 더욱 상세하게는 체감형 사용자 인터페이스를 통해 사용자의 움직임으로 무인항공기를 제어할 수 있는 체감형 무인항공기 제어 장치 및 그 제어 방법에 관한 것이다.More particularly, the present invention relates to a tactile-type unmanned airplane control device capable of controlling an unmanned airplane by a user's movement through a bodily-sensible user interface and a control method thereof will be.
무선 전파로 조정할 수 있는 무인항공기는 초기 군사적 목적으로 정찰에 활용되다가 최근 그 용도가 다양해지며, 고공촬영, 공기질 측정, 농약 살포, 배달 등 다양한 분야에서 활용되고 있다. Unmanned aerial vehicles that can be adjusted by radio waves have been used for reconnaissance purposes for the initial military purposes, and have recently been used in various fields such as high shooting, air quality measurement, pesticide spraying, and delivery.
특히 화재나 재난과 같이 초기 대응의 긴급히 처리함이 중요한 부분에 있어서, 소방 방재 인력이 교통 체증으로 인해 현장에 빠르게 도착하지 못하는 경우 무인항공기를 이용하여 도착 전에 현장을 빠르게 관찰하고 판단할 수 있도록 화면을 제공받을 수 있고, 또는 건물 내부가 연기로 꽉 차있어 시야 확보가 안되는 경우 무인항공기를 활용하여 화재를 진압하고 인명을 구조할 수 있다.Especially, in case that emergency disaster personnel do not arrive quickly due to traffic congestion in the important part of emergency response such as fire or disaster, it is necessary to use the unmanned airplane to quickly observe and judge the scene before arrival Or if the inside of the building is filled with smoke and the visibility can not be secured, the unmanned aircraft can be used to suppress the fire and rescue people.
즉, 무인항공기를 활용한다면 소방방재 인력이 접근하지 못하는 지역에도 진입해서 관찰하는 것이 가능하여 화재나 재난 현장에서 도움을 필요로 하는 사람들을 찾는 데 혁신적으로 도움이 될 것으로 예상된다. In other words, if unmanned aircraft are used, it is possible to enter and observe areas where firefighting manpower is not accessible, and it is anticipated to help innovatively in finding people who need help in a fire or disaster area.
이와 같이 화재나 재난 발생시 효과적으로 활용하기 위해서는 무인항공기를 세밀하게 제어하는 방법이 중요하다.In order to utilize effectively in case of fire or disaster, it is important to control the unmanned airplane in detail.
기존의 무인항공기 제어 기술은 조종기로 직접 무인항공기를 보면서 제어하거나 원격 조종기를 통해 무인항공기가 촬영한 영상을 보면서 제어를 한다. 직접 무인항공기를 보면서 조정을 하는 경우에는 건물 안이나 재난 현장 안에 활용하는 데 한계가 있어 현장에서 사용되는 무인항공기는 대부분 무인항공기가 제공하는 화면을 기초로 사용자가 원격조정을 한다.Conventional unmanned aerial vehicle control technology is controlled by watching the unmanned airplane directly by the controller or by watching the image taken by the unmanned airplane through the remote controller. In the case of making adjustments while observing the unmanned aerial vehicle directly, there is a limit in utilizing it in a building or a disaster scene. Therefore, the unmanned airplane used in the field is remotely controlled by the user based on the screen provided by the unmanned aerial vehicle.
무인항공기를 GPS 기반으로 화재나 재난 현장에 신속하게 보낼 수 있지만, 화재나 재난 현장이 설정된 GPS의 오차 범위내에 있거나 재난 현장 내에서는 사용자가 무인항공기를 직접 조종하는 것이 필요하다.Unmanned aerial vehicles can be sent quickly to a fire or disaster site on a GPS basis, but it is necessary for the user to navigate the unmanned aerial vehicle directly within the GPS range of the fire or disaster site or within the disaster area.
이와 같이 원격으로 무인항공기를 조종하는 기술은 난이도가 높아 전문적인 무인항공기 조종교육이 필요하다. 그렇기 때문에 전문 인력 양성에 대한 비용적인 측면에서나 현장에서 요구되는 무인항공기 조종 능력자와 교육을 통해 양성되는 전문 인력을 투입할 수 있는 시기가 달라 화재나 재난 현장에서 무인항공기를 활용하는 데 어려움이 있다.This technique of remotely controlling the unmanned airplane is very difficult, and it is necessary to train a professional unmanned aircraft. Therefore, it is difficult to utilize unmanned aircraft in the fire or disaster area because of the cost incurred for the training of professional manpower, the manpower required for the unmanned airplane,
본 발명의 배경이 되는 기술은 대한민국 국내등록특허 제 10-0990386호(2010.11.02 공고)에 개시되어 있다.The technology that is the background of the present invention is disclosed in Korean Patent No. 10-0990386 (published on Nov. 2, 2010).
본 발명이 이루고자 하는 기술적 과제는 체감형 사용자 인터페이스를 통해 사용자의 움직임으로 무인항공기를 제어할 수 있는 체감형 무인항공기 제어 장치 및 그 제어 방법을 제공하기 위한 것이다.SUMMARY OF THE INVENTION It is an object of the present invention to provide a tactile-type unmanned airplane control device and a control method thereof, which can control an unmanned airplane by a user's movement through a bodily-sensible user interface.
이러한 기술적인 과제를 이루기 위한 본 발명의 실시예에 따르면, 헤드 마운트를 착용하고 있는 사용자에게 촬영 영상을 제공하는 무인항공기를 제어하기 위한 체감형 무인항공기 제어 장치에 있어서, 상기 사용자의 머리의 움직임을 감지하는 제1 센서, 상기 사용자의 높이를 감지하는 제2 센서 및 상기 사용자의 위치, 이동 거리, 이동 속도 또는 발의 움직임 중에서 적어도 하나를 감지하는 제3 센서로부터 센싱된 정보를 수집하는 센싱 데이터 수집부, 상기 센싱된 정보를 이용하여 상기 헤드 마운트와 연동된 무인항공기의 동작을 제어하기 위한 제어 신호를 생성하는 제어부 및 상기 제어 신호를 상기 무인항공기로 송신하는 통신부를 포함한다.According to another aspect of the present invention, there is provided a controller for a driverless unmanned aerial vehicle (ATC) for controlling an unmanned airplane that provides an image of a user wearing a head mount, A sensing data collecting unit for collecting sensed information from a third sensor that senses at least one of a first sensor for sensing the user's height, a second sensor for sensing the height of the user, and a movement, A controller for generating a control signal for controlling the operation of the unmanned aerial vehicle linked to the head mount using the sensed information, and a communication unit for transmitting the control signal to the unmanned air vehicle.
상기 제3 센서는 바닥에 설치된 모션 플랫폼 또는 공간상에 설치된 비콘에 부착될 수 있다.The third sensor may be attached to a beacon installed on a floor or a motion platform installed on the floor.
상기 제어부는, 상기 사용자의 머리의 높이 변화의 크기에 비례하여 상기 무인항공기의 높이를 상승 또는 하강시키는 제어 신호를 생성할 수 있다.The controller may generate a control signal for raising or lowering the height of the UAV in proportion to a change in the height of the head of the user.
상기 사용자가 상기 헤드 마운트에 설치된 인식 정지 버튼을 누르면, 상기 제어부는, 상기 사용자의 머리의 높이의 변화가 없는 것으로 간주하여 상기 무인항공기의 높이를 일정하게 유지시킬 수 있다. When the user presses the recognition stop button provided on the head mount, the controller can regard the height of the head of the user as being unchanged and maintain the height of the unmanned aerial vehicle constant.
상기 제어부는, 상기 사용자의 얼굴 방향에 대응하여 상기 무인항공기의 진행 방향을 제어하기 위한 제어 신호를 생성할 수 있다.The control unit may generate a control signal for controlling the traveling direction of the UAV according to the face direction of the user.
상기 제어부는, 상기 무인항공기가 호버링인 상태에서 상기 사용자의 얼굴 방향에 대응하여, 상기 무인항공기의 진행 방향을 제어하기 위한 제어 신호를 생성을 제한하고 상기 무인항공기의 카메라 촬영 방향을 제어하기 위한 제어 신호를 생성할 수 있다.Wherein the control unit controls the generation of a control signal for controlling the traveling direction of the unmanned airplane in correspondence with the face direction of the user in the state where the unmanned airplane is hovering and controls the camera shooting direction of the unmanned airplane Signal can be generated.
상기 제어부는, 상기 무인항공기가 호버링 상태에서 상기 사용자로부터 이동 명령에 대응하는 동작이 검출되면, 상기 무인항공기의 카메라 촬영 방향을 상기 무인항공기의 진행방향과 일치시킨 후 상기 무인항공기를 이동시키도록 하는 제어 신호를 생성할 수 있다.Wherein the control unit causes the unmanned airplane to move the unmanned airplane after matching the camera shooting direction of the unmanned airplane with the traveling direction of the unmanned airplane when the operation corresponding to the move command is detected in the hovering state of the unmanned airplane A control signal can be generated.
상기 제어부는, 상기 사용자의 위치, 이동 거리, 또는 발의 보폭 중에서 적어도 하나에 대응하여 상기 무인항공기의 이동 거리를 제어하고 상기 사용자의 이동 속도에 따라 상기 무인항공기의 이동 속도를 제어하기 위한 제어 신호를 생성할 수 있다.The control unit may control the movement distance of the UAV according to at least one of the position, the movement distance, and the foot width of the user, and may include a control signal for controlling the movement speed of the UAV according to the movement speed of the user Can be generated.
본 발명의 다른 실시예에 따르면, 헤드 마운트를 착용하고 있는 사용자에게 촬영 영상을 제공하는 무인항공기를 제어하기 위한 장치를 이용한 무인항공기 제어 방법에 있어서, 상기 사용자의 머리의 움직임을 감지하는 제1 센서, 높이를 감지하는 제2 센서와 상기 사용자의 위치, 이동 거리, 또는 발의 움직임 중에서 적어도 하나를 감지하는 제3 센서로부터 센싱된 정보를 수집하는 단계, 상기 센싱된 정보를 이용하여 상기 헤드 마운트와 연동된 무인항공기의 동작을 제어하기 위한 제어 신호를 생성하는 단계 및 상기 제어 신호를 상기 무인항공기로 송신하는 단계를 포함한다.According to another embodiment of the present invention, there is provided a method of controlling an unmanned airplane using an apparatus for controlling an unmanned aerial vehicle that provides a captured image to a user wearing a head mount, the method comprising: Collecting information sensed from a second sensor for sensing a height and a third sensor for sensing at least one of a position, a movement distance, and foot motion of the user, and interlocking with the head mount using the sensed information, Generating a control signal for controlling the operation of the unmanned aerial vehicle, and transmitting the control signal to the unmanned air vehicle.
이와 같이 본 발명에 따르면, 무인항공기의 카메라를 통한 이미지 및 영상을 기반으로 사용자는 사용자의 움직임을 통해 자유 자재로 무인항공기의 제어할 수 있기 때문에 실제 현장에서 관찰하는 것과 같은 효과가 나타나며, 조종 방법이 간단하여 특별한 조종 능력을 갖추지 않아도 무인항공기를 제어할 수 있다. As described above, according to the present invention, since the user can freely control the UAV through the movement of the user based on the image and the image through the camera of the UAV, This is simple, so you can control an unmanned airplane without special handling capability.
또한, 사용자가 사용자의 머리 또는 다리의 움직임으로 무인항공기를 제어할 수 있기 때문에, 손으로 또 다른 무인항공기의 추가 기능 제어가 가능하거나 다른 작업 수행을 할 수 있다.Further, since the user can control the UAV by the movement of the user's head or leg, it is possible to control the additional function of another UAV by hand or perform other tasks.
도 1은 본 발명의 실시예에 따른 체감형 무인항공기 제어 시스템을 나타낸 도면이다.
도 2는 본 발명의 실시예에 따른 체감형 무인항공기 제어 장치의 구성도이다.
도 3은 본 발명의 실시예에 따른 체감형 무인항공기 제어 장치의 제어 방법에 대한 순서도이다.FIG. 1 is a view showing a haptic unmanned aerial vehicle control system according to an embodiment of the present invention.
2 is a configuration diagram of a haptic drone control device according to an embodiment of the present invention.
3 is a flowchart of a control method of the haptic unmanned aerial vehicle control apparatus according to the embodiment of the present invention.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, which will be readily apparent to those skilled in the art. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In order to clearly illustrate the present invention, parts not related to the description are omitted, and similar parts are denoted by like reference characters throughout the specification.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification, when an element is referred to as "comprising ", it means that it can include other elements as well, without excluding other elements unless specifically stated otherwise.
그러면 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily carry out the present invention.
도 1은 본 발명의 실시예에 따른 체감형 무인항공기 제어 시스템을 나타낸 도면이다. FIG. 1 is a view showing a haptic unmanned aerial vehicle control system according to an embodiment of the present invention.
체감형 무인항공기 제어 시스템은 체감형 무인항공기 제어 장치(100), 무인항공기(200), 헤드 마운트(300) 및 모션 플랫폼(400)을 포함한다.The haptic unmanned aerial vehicle control system includes the haptic unmanned aerial
체감형 무인항공기 제어 장치(100)는 헤드 마운트(300)에 제1 센서로 얼굴 방향을 감지하고 장착된 제2 센서를 통해 사용자의 머리 높이를 감지하고, 설치된 제3 센서를 통해 발의 보폭, 움직임 거리 및 이동 속도 중에서 적어도 하나를 이용하여 무인항공기(200)의 동작을 제어하기 위한 제어 신호를 생성한다. The
이때, 체감형 무인항공기 제어 장치(100)는 제어 신호를 생성할 때, 무인항공기(200)로부터 위치 정보 및 비행정보를 수신하여 수신된 정보를 참조한다.At this time, when generating the control signal, the haptic assisted unmanned
체감형 무인항공기 제어 장치(100)는 무인항공기(200)의 동작을 제어하기 위해 생성한 제어 신호를 무인항공기(200)에 송신한다. The haptic-type unmanned aerial
무인항공기(200)는 조종사가 탑승하지 않고 무선전파 유도에 의해 비행 및 조종이 가능한 비행체를 말하며, 드론(Dron) 또는 Unmanned Aerial Vehicles(UAV)라고 지칭하기도 한다. 국내 항공법에서는 연료를 제외한 자체 중량이 150kg 이하인 것은 '무인비행장치'로, 150kg을 초과하는 것은 '무인항공기'로 규정하였으나 본 발명의 실시예에서의 무인항공기(200)는 이를 구분하지 않고 총칭하여 사용한다.The
무인항공기(200)는 기본적으로 유인항공기와 동일하며 카메라, GPS, 센서, 통신시스템 등이 사용자에 의해 소방방재에 필요한 기술을 장착할 수 있다. The
또한, 무인항공기(200)는 보통 프로펠러를 장착한 헬기 또는 소형항공기 모형을 가지고 있으나 건물 내 또는 실내에서 움직이는데 적합하게 프로펠러 보호 가드가 있거나 또는 프로펠러와 본체를 감싸는 원형의 케이지를 장착하는 등 특정 모형에 한정하지는 않는다.The
또한 무인항공기(200)는 360o 회전이 가능하며, 하나 이상의 장착된 카메라로 영상을 촬영하여 체감형 무인항공기 제어 장치(100) 또는 헤드 마운트(300)로 송신할 수 있다. Can also be transmitted to UAV 200 360 o rotation is possible and, at least one camera attached to a photographed image tangible
헤드 마운트(300)는 사용자의 머리에 장착하여 입체화면을 표시하고 아울러 머리의 움직임을 실시간으로 감지하여 검출하는 장치이다. The
헤드 마운트(300)의 각각의 오른쪽, 왼쪽 렌즈는 오목하게 굽어진 파노라마 디스플레이 영상을 넓은 시각으로 제공하여 사용자에게 입체화면을 제공하며, 헤드 마운트(300)는 무인항공기(200)로부터 수신한 이미지 및 영상을 입체화면에 표시한다. Each of the right and left lenses of the
헤드 마운트(300)는 입체 화면 표시 및 움직임 감지를 360o 범위에서 활용 가능하여 체감형 무인항공기 제어 장치(100)의 설정에 따라 무인항공기(200)와의 연동이 가능하다.The
또한, 헤드 마운트(300)는 인식 정지 버튼 또는 다양한 제어 버튼을 포함하며, 인식 정지 버튼을 통하여 사용자 머리 높이를 감지하지 않고 얼굴의 방향만을 감지할 수 있다.Also, the
모션 플랫폼(400)은 헤드 마운트(300)와 함께 사용자의 신체 동작이나 움직임을 감지하여 사용자가 현실감 있게 체험할 수 있도록 제공하는 장치로써, 센서가 장착되어 사용자가 모션 플랫폼(400) 상에서 움직이면 그 움직임을 감지하여 그 데이터를 체감형 무인항공기 제어 장치(100)에 보낸다.The
모션 플랫폼(400)은 360도 전 방향으로 제자리에서 걷거나 달리는 등 다양한 움직임이 구현 가능하다. The
또한, 모션 플랫폼(400)에 블루투스를 포함시켜 모바일 기기나 PC와도 직접 무선으로 통신할 수 있다.In addition, the
본 발명의 실시예에 따른 체감형 무인항공기 제어 시스템으로 모션 플랫폼(400)을 포함하는 것으로 설명하였지만 이에 한정하는 것은 아니며, 위치, 이동 거리, 발의 보폭 또는 이동 속도를 감지하기 위해 특정 공간에 센서 및 통신장치를 설치하여 사용자의 움직임을 감지할 수 있는 것이라면 이용 가능하다. 예를 들어, 비콘으로 사용자의 위치 측정이 가능하다.Although the present invention has been described as including the
도 2는 본 발명의 실시예에 따른 체감형 무인항공기 제어 장치의 구성도이다. 2 is a configuration diagram of a haptic drone control device according to an embodiment of the present invention.
본 발명의 실시예에 따른 체감형 무인항공기 제어 장치(100)는 센싱 데이터 수집부(110), 제어부(120), 통신부(130)를 포함하고 센싱 데이터 수집부(110)에 센싱된 정보를 송신하는 센서는 제1 센서(140), 제2 센서(150), 제3 센서(160)를 포함한다.A
센싱 데이터 수집부(110)는 헤드 마운트(300)를 착용하고 있는 사용자의 머리 움직임을 감지하는 제1 센서(140), 높이를 감지하는 제2 센서(150) 및 사용자의 위치, 이동 거리, 발의 보폭 또는 이동 속도를 감지하는 제3 센서(160)로부터 센싱된 정보를 수집한다. The sensing data collection unit 110 includes a first sensor 140 for sensing the head movement of the user wearing the
센싱 데이터 수집부(110)는 바닥에 설치된 모션 플랫폼(400) 상에 위치한 제3 센서를 통해 이동 거리, 발의 보폭 및 이동 속도 중에서 적어도 하나를 센싱된 정보를 수집한다.The sensing data collection unit 110 collects at least one of the moving distance, the foot stride, and the moving speed through the third sensor located on the floor mounted
제어부(120)는 감지된 사용자의 머리의 높이, 얼굴 방향, 발의 보폭, 움직임 거리 및 이동 속도 중에서 적어도 하나를 이용하여 헤드 마운트(300)와 연동된 무인항공기(200)의 동작을 제어하기 위한 제어 신호를 생성한다.The
통신부(130)는 체감형 무인항공기 제어 장치(100)가 생성한 제어 신호를 무인항공기(200)로 송신한다.The
통신부(130)는 무인항공기(200)의 위치 정보 및 비행 정보를 수신받을 수도 있다. 위치 정보는 고도정보를 포함하고 무인항공기(200)에 장착된 GPS를 통해 알 수 있으며, 비행 정보는 무인항공기(200)의 속도 정보, 항법 정보, 자세 정보, 엔진 피드백 데이터 및 센서 피드백 데이터 중 어느 하나 이상이 포함되는 것이다. The
통신부(130)는 무인항공기(200)와 근거리 무선 통신 방식을 사용하고 영상을 와이파이를 이용해 전송할 수도 있고 LTE(4세대 이동통신)망을 통해 원거리 무선 통신 방식으로 제어 신호 및 영상을 송수신할 수 있다. The
또한, 통신부(130)는 헤드 마운트(300)와 모션 플랫폼(400)과는 IP(Internet Protocol) 기반의 유무선망을 포함하며, IP망과 같이 특정 프로토콜을 이용하여 데이터를 송수신할 수 있는 다양한 망을 통해 통신할 수 있다.The
제1 센서(140)는 움직임 감지 센서로서, 헤드 마운트(300)에 장착되어 사용자의 머리의 움직임을 감지한다.The first sensor 140 is a motion sensing sensor, and is mounted on the
제2 센서(150)는 헤드 마운트(300) 또는 정면의 카메라 센서 또는 사용자의 신체 일부에 장착되는 센서로서, 적외선 센서 등으로 이루어질 수 있으며, 사용자의 머리의 높이를 감지한다.The second sensor 150 is a sensor mounted on the
제3 센서(160)는 모션 플랫폼(400) 또는 공간상에 설치된 비콘에 설치되는 움직임 감지 센서로서, 사용자의 위치, 이동거리, 이동 속도 또는 발의 움직임을 감지한다.The third sensor 160 is a motion sensor installed on the
도 3은 본 발명의 실시예에 따른 체감형 무인항공기 제어 장치의 제어 방법에 대한 순서도이다.3 is a flowchart of a control method of the haptic unmanned aerial vehicle control apparatus according to the embodiment of the present invention.
먼저, 헤드 마운트(300)를 착용하고 있는 사용자는 무인항공기(200)로부터 촬영된 영상을 확인할 수 있으며, 체감형 무인항공기 제어 장치(100)는 사용자의 머리의 움직임을 감지하는 제1 센서(140), 높이를 감지하는 제2 센서(150) 및 사용자의 위치, 이동 거리 또는 이동 속도 중에서 적어도 하나를 감지하는 제3 센서(160)로부터 센싱된 정보를 수집한다(S310).First, the user wearing the
여기에서 제1 센서(140)는 사용자가 착용하고 있는 헤드 마운트(300)에 장착되어 있는 것으로, 사용자의 머리 움직임의 방향을 감지하고 제2 센서(150)도 헤드 마운트(300)에 장착되어 바닥과 사용자의 머리와의 높이를 감지하고 제3 센서(160)는 사용자의 위치, 이동 거리, 발의 보폭, 이동 속도 중에서 적어도 하나를 감지하며, 제1 센서(140), 제2 센서(150) 및 제3 센서(160)는 감지된 데이터를 체감형 무인항공기 제어 장치(100)에 송신한다.The first sensor 140 is attached to the
이때, 사용자의 머리 높이를 감지하는 제2센서(150)는 헤드 마운트(300)에 장착되어 사용자의 움직임을 감지할 수 있지만, 헤드 마운트(300) 상이 아닌 사용자의 허벅지에 부착해서 허벅지의 움직임으로 머리의 높이를 측정하거나 사용자의 정면에서 카메라 기반의 센서로 머리의 높이를 측정할 수 있다.At this time, the second sensor 150 sensing the height of the user's head can be mounted on the
또한, 사용자의 발의 움직임을 감지하는 제3 센서(160)는 모션 플랫폼(400)에 장착되어 모션 플랫폼(400) 상에서 사용자의 움직임을 감지할 수 있지만, 모션 플랫폼(400) 상이 아닌 특정 공간에 센서를 부착하여 사용자의 위치, 이동 거리, 발의 보폭 또는 이동 속도 중에서 적어도 하나를 감지할 수도 있다. The third sensor 160 for sensing the movement of the user's foot may be mounted on the
다음으로 체감형 무인항공기 제어 장치(100)는 감지된 사용자의 머리의 높이, 얼굴 방향, 발의 보폭, 위치, 움직임 거리 및 이동 속도 중에서 적어도 하나를 이용하여 헤드 마운트와 연동된 무인항공기(200)의 동작을 제어하기 위한 제어 신호를 생성한다(S320).Next, the declination-free unmanned airplane control device (100) controls the unmanned airplane (200) linked to the head mount by using at least one of the height, face direction, foot stride, A control signal for controlling the operation is generated (S320).
체감형 무인항공기 제어 장치(100)는 제1 센서(140)를 통해 바닥 또는 앉은 자세를 기준으로 바르게 서 있는 사용자의 머리 높이를 측정하고, 기준 높이와 사용자의 머리 높이의 차이에 비례하여 무인항공기(200)의 높이를 상승 또는 하강시키는 제어 신호를 생성한다. The sensible-
즉, 체감형 무인항공기 제어 장치(100)는 바닥 또는 앉은 자세와 같이 가장 낮게 설정된 높이를 기준 높이로 설정하고, 기준 높이와 무인항공기(200)가 바닥에 착륙하는 위치를 매칭시키고, 사용자 머리가 가장 높은 위치와 무인항공기(200)가 최고 고도로 상승할 수 있는 높이를 매칭시킨다.That is, the declination control
예를 들어 사용자의 앉은 자세의 머리의 높이가 100cm이고 사용자가 바르게 선 머리의 높이가 170cm이고, 무인항공기(200)가 최고로 높이 상승할 수 있는 높이가 500m라고 가정한다. 제1 센서(140)에서 감지된 사용자 머리의 높이가 100cm일 경우, 체감형 무인항공기 제어 장치(100)는 바닥에 놓여 있는 무인항공기(200)의 높이를 제어하지 않는다. 사용자의 머리 높이가 170cm로 변한다면, 체감형 무인항공기 제어 장치(100)는 무인항공기(200)를 최고의 고도로 상승시키는 제어 신호를 생성한다.For example, suppose that the height of the head of the user in the sitting position is 100 cm, the height of the head of the user is correctly 170 cm, and the height at which the
만약 사용자의 머리 높이가 100cm 내지 170cm 사이라면, 체감형 무인항공기 제어 장치(100)는 무인항공기(200)의 고도 범위인 0m 내지 500m 사이의 높이와 매칭하여 그에 비례하는 높이로 상승 또는 하강시키는 제어 신호를 생성한다.If the height of the user's head is between 100 cm and 170 cm, the tactile
이때, 사용자가 헤드 마운트(300)에 설치된 인식 정지 버튼을 누르면, 체감형 무인항공기 제어 장치(100)는 버튼을 누르는 시점에 감지된 사용자의 머리 높이를 고정하여 버튼을 누른 후 사용자의 머리의 높이가 변화하더라도 변화가 없는 것으로 간주하여 무인항공기(200)의 높이를 유지시킨다.At this time, when the user presses the recognition stop button provided on the
고정된 사용자의 머리 높이를 해제하려고 한다면, 사용자는 헤드 마운트(300)에 설치된 인식 정지 버튼을 한번 더 누르거나 별도로 설치된 인식 버튼을 눌러 해제할 수 있으나 이는 사용자에 의해 용이하게 변경, 설정될 수 있다.If the user desires to release the head height of the fixed user, the user can press the recognition stop button provided on the
또한, 체감형 무인항공기 제어 장치(100)는 제1 센서(140)를 통해 인식된 사용자의 얼굴 방향에 대응하여 무인항공기(200)의 진행 방향을 제어하기 위한 제어 신호를 생성할 수 있다.In addition, the sensible-feeling
예를 들어 사용자의 얼굴 방향이 오른쪽을 향하고 있는 경우, 체감형 무인항공기 제어 장치(100)는 무인항공기(200)의 진행 방향을 오른쪽으로 제어하는 신호를 생성할 수 있다. 왼쪽, 상향, 하향도 이와 같은 방법으로 체감형 무인항공기 제어 장치(100)는 무인항공기(200)의 진행 방향에 대한 제어 신호를 생성할 수 있다.For example, when the face of the user faces the right direction, the haptic-assisted unmanned
즉, 체감형 무인항공기 제어 장치(100)는 사용자가 움직이는 해당 각도만큼 무인항공기(200)의 진행 방향의 각도를 변화하는 제어 신호를 생성할 수 있다.That is, the tactile-
한편, 무인 항공기가 제자리에서 호버링하고 있는 경우에 한해서 체감형 무인항공기 제어 장치(100)는 제1 센서(140)를 통해 인식된 사용자의 얼굴 방향에 대응하여 무인항공기(200)의 진행 방향을 제어하기 위한 제어 신호 생성을 제한하고 무인항공기(200)가 포함하고 있는 카메라의 촬영 방향을 제어하기 위한 제어 신호를 생성할 수 있다.In the meantime, only when the unmanned airplane hovering in place, the declination control
예를 들어 사용자의 얼굴 방향이 오른쪽을 향하고 있는 경우, 체감형 무인항공기 제어 장치(100)는 무인항공기(200)의 카메라 촬영 방향을 오른쪽으로 제어하는 신호를 생성할 수 있다. 왼쪽, 상향, 하향도 이와 같은 방법으로 체감형 무인항공기 제어 장치(100)는 무인항공기(200)의 카메라 촬영 방향에 대한 제어 신호를 생성할 수 있다.For example, when the user's face direction is directed to the right, the haptic
즉, 무인항공기가 호버링 상태에 있는 경우에 체감형 무인항공기 제어 장치(100)는 사용자가 움직이는 해당 각도만큼 무인항공기(200)의 카메라 촬영 방향의 각도를 변화하는 제어 신호를 생성할 수 있다. That is, when the unmanned airplane is in the hovering state, the haptic-assisted unmanned
무인 항공기가 호버링을 끝내고 이동하면 정면을 촬영하기 위해서 다시 정면 방향으로 카메라를 돌려야 한다.When the unmanned aircraft has finished hovering, the camera must be turned in the front direction again to capture the front.
즉, 체감형 무인항공기 제어 장치(100)는 무인항공기(200)의 카메라 촬영 방향의 각도를 원상태로 돌리기 위한 제어 신호를 생성할 수 있다. That is, the haptic-type unmanned aerial
여기에서 호버링(hovering) 상태는 무인항공기(200)가 일정한 고도를 유지한 채 움직이지 않는 상태를 의미하며, 사용자가 무인항공기(200)를 조정하는 도중 일정 시간 이상 움직임을 멈춘 경우, 체감형 무인항공기 제어 장치(100)는 무인항공기(200)에게 호버링 상태로 전환하도록 하는 제어 신호를 전달한다. Here, the hovering state refers to a state in which the
이와 같은 호버링 상태에서 제2 센서(150) 또는 제3 센서(160)를 통해 사용자의 움직임을 감지하면 체감형 무인항공기 제어 장치(100)는 무인항공기(200)의 호버링 상태를 해제하도록 하는 제어 신호를 생성하여 무인항공기(200)로 전달한다. 그리고, 제어 장치(100)는 카메라 방향을 무인항공기(200)의 진행방향과 일치하도록 조절하고 사용자의 진행 방향에 따라 무인항공기(200)의 진행 방향을 제어하는 제어 신호를 생성한다.When the user senses the movement of the user through the second sensor 150 or the third sensor 160 in such a hovering state, the haptic assisted unmanned
다음으로 체감형 무인항공기 제어 장치(100)는 사용자의 위치, 이동 거리, 발의 움직임 거리 중에서 적어도 하나에 대응하여 무인항공기(200)의 이동거리를 제어하고 사용자의 이동 속도에 따라 무인항공기(200)의 이동 속도를 제어하기 위한 제어 신호를 생성할 수 있다.Next, the sensible-
즉, 사용자가 움직이는 발의 보폭을 너비에 따라 N단계로 나누고 그에 따라 무인항공기(200)의 이동거리를 설정하면, 체감형 무인항공기 제어 장치(100)는 제3 센서(160)를 통해 센싱된 발의 보폭의 단계에 대응하여 무인항공기(200)가 이동하도록 이동 제어 신호를 생성할 수 있다. That is, if the stride of the foot of the user is divided into N steps according to the width and the travel distance of the
또한, 체감형 무인항공기 제어 장치(100)는 사용자의 이동 속도에 대하여, 사용자가 정지했을 때와 가장 빠르게 뛰는 속도를 측정하여 무인항공기(200)의 정지 및 최고 속도와 매칭한다. 그리고, 제3 센서(160)를 통해 사용자의 이동속도를 감지하면, 그에 따른 무인항공기(200) 제어 신호를 생성할 수 있다.In addition, the sensible-
체감형 무인항공기 제어 장치(100)는 생성된 제어 신호를 무인항공기(200)로 송신한다(S330).The sensible-
이와 같이 제어 신호를 수신한 무인항공기(200)는 제어신호에 대응하여 이동하며, 좌우 회전 방향을 변경시킬 수 있으며, 실시간으로 촬영된 영상을 헤드 마운트(300)로 전달한다. In response to the control signal, the
그리고, 체감형 무인항공기 제어 장치(100)는 무인항공기(200)의 위치 정보 및 비행 정보를 실시간으로 수신받으며, 수신된 위치 정보 및 비행 정보를 참고하여 무인항공기(200)가 정상적으로 동작하고 있는지 여부를 판단하도록 할 수 있다. The sensible-
또한, 사용자는 헤드 마운트를 통하여 무인항공기(200)가 전송한 촬영 영상을 통하여 무인항공기의 현재 상태 및 정상 동작 여부를 확인할 수 있다. Also, the user can confirm the current state and the normal operation state of the UAV through the head mount, through the image captured by the
이와 같이 본 발명의 실시예에 따르면, 무인항공기의 카메라를 통한 이미지 및 영상을 기반으로 사용자는 사용자의 움직임을 통해 자유 자재로 무인항공기의 제어할 수 있기 때문에 실제 현장에서 관찰하는 것과 같은 효과가 나타나며, 조종 방법이 간단하여 특별한 조종 능력을 갖추지 않아도 무인항공기를 제어할 수 있다.As described above, according to the embodiment of the present invention, since the user can freely control the UAV through the movement of the user based on the image and the image through the camera of the UAV, , The maneuvering method is simple, and it is possible to control the unmanned airplane without special steering ability.
또한, 사용자가 사용자의 머리 또는 다리의 움직임으로 무인항공기를 제어할 수 있기 때문에, 손으로 또 다른 무인항공기의 추가 기능 제어가 가능하거나 다른 작업 수행을 할 수 있다.Further, since the user can control the UAV by the movement of the user's head or leg, it is possible to control the additional function of another UAV by hand or perform other tasks.
본 발명은 도면에 도시된 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 다른 실시예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의하여 정해져야 할 것이다.While the present invention has been described with reference to exemplary embodiments, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, is intended to cover various modifications and equivalent arrangements included within the spirit and scope of the appended claims. Accordingly, the true scope of the present invention should be determined by the technical idea of the appended claims.
100: 체감형 무인항공기 제어 장치 110: 센싱 데이터 수집부
120: 제어부 130: 통신부
140: 제1 센서 150: 제2 센서
160: 제3 센서 200: 무인항공기
300: 헤드 마운트 400: 모션 플랫폼100: a sensible-type unmanned airplane control device 110: a sensing data collecting unit
120: control unit 130:
140: first sensor 150: second sensor
160: Third sensor 200: Unmanned aerial vehicle
300: Head mount 400: Motion platform
Claims (16)
상기 사용자의 머리의 움직임을 감지하는 제1 센서, 상기 사용자의 높이를 감지하는 제2 센서 및 상기 사용자의 위치, 이동 거리, 이동 속도 또는 발의 움직임 중에서 적어도 하나를 감지하는 제3 센서로부터 센싱된 정보를 수집하는 센싱 데이터 수집부;
상기 센싱된 정보를 이용하여 상기 헤드 마운트와 연동된 무인항공기의 동작을 제어하기 위한 제어 신호를 생성하는 제어부; 및
상기 제어 신호를 상기 무인항공기로 송신하는 통신부를 포함하는 체감형 무인항공기 제어 장치.A tactile-type unmanned aerial vehicle control apparatus for controlling an unmanned aerial vehicle that provides a photographed image to a user wearing a head mount,
A second sensor for sensing a height of the user, and a third sensor for sensing at least one of a position, a moving distance, a moving speed, and a foot motion of the user, A sensing data collecting unit collecting the sensing data;
A control unit for generating a control signal for controlling an operation of the unmanned aerial vehicle linked to the head mount using the sensed information; And
And a communication unit for transmitting the control signal to the unmanned air vehicle.
상기 제3 센서는 바닥에 설치된 모션 플랫폼 또는 공간상에 설치된 비콘에 부착되는 체감형 무인항공기 제어 장치.The method according to claim 1,
Wherein the third sensor is attached to a beacon installed on a motion platform or a space installed on the floor.
상기 제어부는,
상기 사용자의 머리의 높이 변화의 크기에 비례하여 상기 무인항공기의 높이를 상승 또는 하강시키는 제어 신호를 생성하는 체감형 무인항공기 제어 장치.The method according to claim 1,
Wherein,
Wherein the control unit generates a control signal for raising or lowering the height of the UAV in proportion to a change in the height of the head of the user.
상기 사용자가 상기 헤드 마운트에 설치된 인식 정지 버튼을 누르면,
상기 제어부는,
상기 사용자의 머리의 높이의 변화가 없는 것으로 간주하여 상기 무인항공기의 높이를 일정하게 유지시키는 체감형 무인항공기 제어 장치.The method of claim 3,
When the user presses the recognition stop button provided on the head mount,
Wherein,
Wherein the height of the unmanned airplane is maintained constant by considering that there is no change in the height of the head of the user.
상기 제어부는,
상기 사용자의 얼굴 방향에 대응하여 상기 무인항공기의 진행 방향을 제어하기 위한 제어 신호를 생성하는 체감형 무인항공기 제어 장치.The method according to claim 1,
Wherein,
And generates a control signal for controlling a traveling direction of the UAV according to a face direction of the user.
상기 제어부는,
상기 무인항공기가 호버링인 상태에서 상기 사용자의 얼굴 방향에 대응하여, 상기 무인항공기의 진행 방향을 제어하기 위한 제어 신호를 생성을 제한하고 상기 무인항공기의 카메라 촬영 방향을 제어하기 위한 제어 신호를 생성하는 체감형 무인항공기 제어 장치.6. The method of claim 5,
Wherein,
The controller controls generation of a control signal for controlling the traveling direction of the unmanned airplane and generates a control signal for controlling the camera shooting direction of the unmanned airplane in correspondence with the face direction of the user in the state where the unmanned airplane is hovering [Withdrawn] CONTROLLED EQUIPMENT CONTROLLER.
상기 제어부는,
상기 무인항공기가 호버링 상태에서 상기 사용자로부터 이동 명령에 대응하는 동작이 검출되면, 상기 무인항공기의 카메라 촬영 방향을 상기 무인항공기의 진행방향과 일치시킨 후 상기 무인항공기를 이동시키도록 하는 제어 신호를 생성하는 체감형 무인항공기 제어 장치.The method according to claim 6,
Wherein,
Generating a control signal for moving the unmanned airplane after moving the camera shooting direction of the unmanned airplane to the moving direction of the unmanned airplane when the unmanned airplane is in the hovering state and an operation corresponding to the move command is detected by the user A control unit for controlling the unmanned airplane.
상기 제어부는,
상기 사용자의 위치, 이동 거리 및 발의 보폭 중에서 적어도 하나에 대응하여 상기 무인항공기의 이동 거리를 제어하고 상기 사용자의 이동 속도에 따라 상기 무인항공기의 이동 속도를 제어하기 위한 제어 신호를 생성하는 체감형 무인항공기 제어 장치.The method according to claim 1,
Wherein,
Wherein the control unit controls the moving distance of the UAV according to at least one of the position, the moving distance, and the foot stride of the user, and generates a control signal for controlling the moving speed of the UAV according to the moving speed of the user Aircraft control device.
상기 사용자의 머리의 움직임을 감지하는 제1 센서, 높이를 감지하는 제2 센서와 상기 사용자의 위치, 이동 거리, 또는 발의 움직임 중에서 적어도 하나를 감지하는 제3 센서로부터 센싱된 정보를 수집하는 단계;
상기 센싱된 정보를 이용하여 상기 헤드 마운트와 연동된 무인항공기의 동작을 제어하기 위한 제어 신호를 생성하는 단계; 및
상기 제어 신호를 상기 무인항공기로 송신하는 단계를 포함하는 체감형 무인항공기 제어 방법.A method for controlling an unmanned airplane using an apparatus for controlling an unmanned air vehicle providing a photographed image to a user wearing a head mount,
Collecting information sensed by a first sensor that senses movement of the user's head, a second sensor that senses the height, and a third sensor that senses at least one of the user's position, movement distance, or foot motion;
Generating a control signal for controlling an operation of an unmanned air vehicle interlocked with the head mount using the sensed information; And
And transmitting the control signal to the unmanned airplane.
상기 제3 센서는 바닥에 설치된 모션 플랫폼 또는 공간상에 설치된 비콘에 부착되는 사용자의 위치 또는 이동 속도를 측정하는 체감형 무인항공기 제어 방법.10. The method of claim 9,
Wherein the third sensor measures a position or a moving speed of a user attached to a beacon installed on a floor or a motion platform mounted on the floor.
상기 무인항공기의 제어 신호를 생성하는 단계는,
상기 사용자의 머리의 높이 변화의 크기에 비례하여 상기 무인항공기의 높이를 상승 또는 하강시키는 제어 신호를 생성하는 체감형 무인항공기 제어 방법.10. The method of claim 9,
The step of generating the control signal of the unmanned aerial vehicle includes:
Wherein the controller generates a control signal for raising or lowering the height of the UAV in proportion to a change in the height of the head of the user.
상기 사용자가 상기 헤드 마운트에 설치된 인식 정지 버튼을 누르면,
상기 무인항공기의 제어 신호를 생성하는 단계는,
상기 사용자의 머리의 높이의 변화가 없는 것으로 간주하여 상기 무인항공기의 높이를 일정하게 유지시키는 체감형 무인항공기 제어 방법.12. The method of claim 11,
When the user presses the recognition stop button provided on the head mount,
The step of generating the control signal of the unmanned aerial vehicle includes:
The height of the unmanned airplane is kept constant by considering that there is no change in the height of the head of the user.
상기 무인항공기의 제어 신호를 생성하는 단계는,
상기 사용자의 얼굴 방향에 대응하여 상기 무인항공기의 진행 방향을 제어하기 위한 제어 신호를 생성하는 체감형 무인항공기 제어 방법.10. The method of claim 9,
The step of generating the control signal of the unmanned aerial vehicle includes:
And generating a control signal for controlling a traveling direction of the UAV according to a face direction of the user.
상기 무인항공기의 제어 신호를 생성하는 단계는,
상기 무인항공기가 호버링인 상태에서 상기 사용자의 얼굴 방향에 대응하여, 상기 무인항공기의 진행 방향을 제어하기 위한 제어 신호를 생성을 제한하고 상기 무인항공기의 카메라 촬영 방향을 제어하기 위한 제어 신호를 생성하는 체감형 무인항공기 제어 방법.14. The method of claim 13,
The step of generating the control signal of the unmanned aerial vehicle includes:
The controller controls generation of a control signal for controlling the traveling direction of the unmanned airplane and generates a control signal for controlling the camera shooting direction of the unmanned airplane in correspondence with the face direction of the user in the state where the unmanned airplane is hovering [Withdrawn] CONTROLLING METHODS OF UTILIZING UAV.
상기 무인항공기의 제어 신호를 생성하는 단계는,
상기 무인항공기가 호버링 상태에서 상기 사용자로부터 이동 명령에 대응하는 동작이 검출되면, 상기 무인항공기의 카메라 촬영 방향을 상기 무인항공기의 진행 방향과 일치시킨 후 상기 무인항공기를 이동시키도록 하는 제어 신호를 생성하는 체감형 무인항공기 제어 방법.15. The method of claim 14,
The step of generating the control signal of the unmanned aerial vehicle includes:
Generating a control signal for moving the unmanned airplane after moving the camera shooting direction of the unmanned airplane to the moving direction of the unmanned airplane when the unmanned airplane is in the hovering state and an operation corresponding to the move command is detected by the user A method for controlling a tactile type unmanned airplane.
상기 무인항공기의 제어 신호를 생성하는 단계는,
상기 사용자의 위치, 이동 거리 또는 발의 보폭 중에서 적어도 하나에 대응하여 상기 무인항공기의 이동 거리를 제어하고 상기 사용자의 이동 속도에 따라 상기 무인항공기의 이동 속도를 제어하기 위한 제어 신호를 생성하는 체감형 무인항공기 제어 방법.10. The method of claim 9,
The step of generating the control signal of the unmanned aerial vehicle includes:
Wherein the control unit controls the movement distance of the UAV according to at least one of the position, the movement distance, and the footstep of the user, and generates a control signal for controlling the movement speed of the UAV according to the movement speed of the user Aircraft control method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020150031074A KR101682797B1 (en) | 2015-03-05 | 2015-03-05 | Apparatus for tangible control of unmanned aerial vehicle and Method for control thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020150031074A KR101682797B1 (en) | 2015-03-05 | 2015-03-05 | Apparatus for tangible control of unmanned aerial vehicle and Method for control thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20160107788A true KR20160107788A (en) | 2016-09-19 |
KR101682797B1 KR101682797B1 (en) | 2016-12-05 |
Family
ID=57103422
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020150031074A KR101682797B1 (en) | 2015-03-05 | 2015-03-05 | Apparatus for tangible control of unmanned aerial vehicle and Method for control thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101682797B1 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180060534A (en) * | 2016-11-29 | 2018-06-07 | 계명대학교 산학협력단 | Apparatus for user direction recognition based on beacon cooperated with experiential type content providing apparatus and method thereof |
KR20180103601A (en) * | 2017-03-10 | 2018-09-19 | 삼성전자주식회사 | Method for Controlling an Unmanned Aerial Vehicle and the Unmanned Aerial Vehicle supporting the same |
KR101949788B1 (en) * | 2018-09-27 | 2019-02-19 | 새한항업(주) | Image Collecting System Using Aerial Photograph |
CN113497910A (en) * | 2020-04-01 | 2021-10-12 | 南宁富桂精密工业有限公司 | Video system and picture generation method thereof |
JP2022028894A (en) * | 2017-08-29 | 2022-02-16 | 株式会社トプコン | Optical information processing apparatus, optical information processing method, and program for optical information processing |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100990386B1 (en) * | 2008-08-05 | 2010-11-02 | 주식회사 대한항공 | Flight control system and control method of unmanned Aerial Vehicle |
KR20130086192A (en) * | 2013-06-18 | 2013-07-31 | 이상윤 | Unmanned aerial vehicle system operated by smart eyeglass |
KR20150047954A (en) * | 2013-10-25 | 2015-05-06 | 주식회사 바이로봇 | Flying battle game system using flying robot, and Flying battle game method using Thereof |
-
2015
- 2015-03-05 KR KR1020150031074A patent/KR101682797B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100990386B1 (en) * | 2008-08-05 | 2010-11-02 | 주식회사 대한항공 | Flight control system and control method of unmanned Aerial Vehicle |
KR20130086192A (en) * | 2013-06-18 | 2013-07-31 | 이상윤 | Unmanned aerial vehicle system operated by smart eyeglass |
KR20150047954A (en) * | 2013-10-25 | 2015-05-06 | 주식회사 바이로봇 | Flying battle game system using flying robot, and Flying battle game method using Thereof |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180060534A (en) * | 2016-11-29 | 2018-06-07 | 계명대학교 산학협력단 | Apparatus for user direction recognition based on beacon cooperated with experiential type content providing apparatus and method thereof |
KR20180103601A (en) * | 2017-03-10 | 2018-09-19 | 삼성전자주식회사 | Method for Controlling an Unmanned Aerial Vehicle and the Unmanned Aerial Vehicle supporting the same |
JP2022028894A (en) * | 2017-08-29 | 2022-02-16 | 株式会社トプコン | Optical information processing apparatus, optical information processing method, and program for optical information processing |
JP7203935B2 (en) | 2017-08-29 | 2023-01-13 | 株式会社トプコン | Optical information processing device, optical information processing method, and optical information processing program |
KR101949788B1 (en) * | 2018-09-27 | 2019-02-19 | 새한항업(주) | Image Collecting System Using Aerial Photograph |
CN113497910A (en) * | 2020-04-01 | 2021-10-12 | 南宁富桂精密工业有限公司 | Video system and picture generation method thereof |
Also Published As
Publication number | Publication date |
---|---|
KR101682797B1 (en) | 2016-12-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101682797B1 (en) | Apparatus for tangible control of unmanned aerial vehicle and Method for control thereof | |
KR101117207B1 (en) | Auto and manual control system for unmanned aerial vehicle via smart phone | |
US9493232B2 (en) | Remote control method and terminal | |
US9738382B2 (en) | Drone immersion-piloting system | |
JP6932405B2 (en) | Remote control system and its control device | |
US20180143636A1 (en) | Autonomous system for shooting moving images from a drone, with target tracking and holding of the target shooting angle | |
JP4012749B2 (en) | Remote control system | |
JP2016203978A (en) | System for piloting a drone in immersed state | |
US20180095469A1 (en) | Autonomous system for shooting moving images from a drone, with target tracking and holding of the target shooting angle | |
US9961658B2 (en) | Local network for the simultaneous exchange of data between a drone and a plurality of user terminals | |
KR101882452B1 (en) | Fire prevention drone system can charge wirelessly | |
WO2018187916A1 (en) | Cradle head servo control method and control device | |
JP2015037937A (en) | Flight vehicle flight control system | |
WO2017169841A1 (en) | Display device and display control method | |
JP6925670B1 (en) | Remote control system and its control device | |
US11209835B2 (en) | Drone maneuvering system, maneuvering signal transmitter set, and drone maneuvering method | |
KR20170079673A (en) | System and method for controlling automatic flight of unmanned drones | |
KR20180025416A (en) | Drone flying control system and method using motion recognition and virtual reality | |
KR101944952B1 (en) | An unmanned aerial vehicle detecting fire | |
CN108475064B (en) | Method, apparatus, and computer-readable storage medium for apparatus control | |
KR101779255B1 (en) | Automatic navigation and communication possible drones operating system | |
JP6986303B2 (en) | Remote control system and its control device | |
KR20190069777A (en) | Virtual Experience System and Control Method Using Unmanned aerial vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
FPAY | Annual fee payment |
Payment date: 20191104 Year of fee payment: 4 |