KR101408077B1 - 가상 영상을 이용한 무인기 조종 장치 및 방법 - Google Patents

가상 영상을 이용한 무인기 조종 장치 및 방법 Download PDF

Info

Publication number
KR101408077B1
KR101408077B1 KR1020140011713A KR20140011713A KR101408077B1 KR 101408077 B1 KR101408077 B1 KR 101408077B1 KR 1020140011713 A KR1020140011713 A KR 1020140011713A KR 20140011713 A KR20140011713 A KR 20140011713A KR 101408077 B1 KR101408077 B1 KR 101408077B1
Authority
KR
South Korea
Prior art keywords
uav
image
information
virtual
unit
Prior art date
Application number
KR1020140011713A
Other languages
English (en)
Inventor
조성봉
허기봉
이광현
안종민
임재근
Original Assignee
국방과학연구소
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 국방과학연구소 filed Critical 국방과학연구소
Priority to KR1020140011713A priority Critical patent/KR101408077B1/ko
Application granted granted Critical
Publication of KR101408077B1 publication Critical patent/KR101408077B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0044Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with a computer generated representation of the environment of the vehicle, e.g. virtual reality, maps
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0038Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/20Remote controls

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

본 발명은 무인기(UAV : Unmanned Aerial Vehicle)의 조종에 관한 것으로, 무인기를 조종하기 위한 장치에 있어서, 상기 무인기를 조종하기 위한 조종 신호를 생성하는 조종부와, 상기 무인기로부터 무인기의 상태 정보 및 상기 무인기에서 획득된 영상을 포함하는 무인기 정보를 수신하고, 상기 조종 신호를 상기 무인기로 전송하는 통신부와, 상기 무인기의 현재 위치에 근거하여 상기 무인기가 현재 위치한 지역에 대한 가상 환경을 생성하고, 상기 가상 환경으로부터 상기 무인기의 상태 정보에 근거한 가상 영상을 생성하는 가상 영상 생성부와, 상기 무인기에서 획득된 영상 및 상기 가상 영상을 적어도 하나 출력하는 출력부, 및, 외부로부터 수신된 상기 무인기의 현재 위치에 대한 정보 및, 상기 무인기의 상태 정보를 상기 가상 영상 생성부에 입력하여 상기 가상 영상이 생성되도록 상기 가상 영상 생성부를 제어하는 제어부를 포함하는 것을 특징으로 한다.

Description

가상 영상을 이용한 무인기 조종 장치 및 방법{AN APPARATUS AND METHOD FOR CONTROLLING UNMANNED AERIAL VEHICLE USING VIRTUAL IMAGE}
본 발명은 무인기(UAV : Unmanned Aerial Vehicle)를 조종하기 위한 장치 및 방법에 관한 것이다.
일반적으로 무인기라는 것은, 조종사가 탑승하지 않은 비행체를 말하는 것으로 이러한 무인기를 조종하는 방법은 여러 가지가 있을 수 있다. 예를 들어 무인기는, 무인기의 가시 범위 내에서 조종사가 비행체의 상태를 직접 확인하며 원격 무선 조종 장치를 이용하여 조종할 수도 있다. 또는 비행체에서 획득된 영상을 이용하여 지상통제장치에서 조종사가 원격으로 조종간을 이용하여 조종하는 방법이 있을 수도 있다. 이러한 경우 지상통제장치는 무선 데이터 통신으로 수신된 무인기의 정보를 화면에 도시하고, 조종사는 무인기의 카메라에서 촬영된 영상을 이용하여 무인기의 외부 환경을 인식하고, 이를 이용하여 무인기를 조종할 수 있다.
한편, 이처럼 무인기를 조종하기 위해, 무인기의 카메라에서 획득된 영상을 이용하는 것은 상기 획득된 영상이 지상통제센터를 거쳐 화면에 디스플레이되기까지 복잡한 전송 과정을 거쳐야 한다. 예를 들어 무인기에서 획득된 영상은 비행체의 무선 통신부를 통해 지상통제센터의 무선 통신부로 수신될 수 있어야 하고, 수신된 영상은 다시 지상통제센터의 영상 출력 시스템을 통해 조종사가 인식하기에 가능한 형태로 가공되는 과정을 거쳐야 한다. 때문에 이러한 복잡한 과정에서 문제, 예를 들어 케이블이 단락되거나 심한 노이즈 등이 발생하거나, 또는 기구적 문제, 예를 들어 무인기의 카메라등에 문제가 생기는 경우, 조종사는 올바른 영상을 인식하지 못하여 무인기의 비행 조종에 어려움을 겪게 될 수 있다.
또한 상기 무인기의 카메라 및 지상통제센터의 전송 과정에 문제가 없다고 할 경우에도, 데이터 전송량의 한계로 인해 실제 무인기에서 획득된 영상을 이용하는 것은 조종사가 어려움을 겪을 수 있다. 예를 들어 조종사에게, 무인기의 현재 상황에 대한 정확한 정보를 전달하기 위해서는 무인기에서 획득되는 영상의 화질이 우수하여야 하는데, 이를 위해 영상의 화질을 높게 할 경우, 전송되는 데이터의 양이 크게 증가된다. 그리고 이러한 경우 데이터의 양이 증가하게 되면, 그만큼 전송 시간이 오래 걸리게 되므로 조종사의 화면에 출력되는 영상과 무인기의 실제 상황은 그만큼의 지연이 발생하게 되고, 이러한 지연은 조종사가 급박한 순간에 무인기를 제대로 조종하지 못하게 되는 사태를 야기할 수 있다.
또한 이러한 사태를 방지하기 위해 만약 영상의 화질을 낮추는 경우, 화질이 낮아진 만큼 지연 시간은 감소시킬 수 있어도, 조종사에게 전달되는 영상은 그 만큼 낮은 해상도를 가지게 된다. 따라서 조종사는 불분명한 영상으로 인해 무인기 주변의 환경을 정확하게 인식하지 못하는 상황이 벌어질 수도 있다. 따라서 무인기를 조종할 수 있도록 하는 방법이 현재 절실히 필요한 상황이다.
본 발명의 목적은, 무인기에서 획득되는 영상을 이용하지 않고도 무인기를 조종할 수 있도록 하는 무인기 조종 장치 및 방법을 제공함에 있다.
본 발명의 다른 목적은, 무인기를 조종함에 있어 보다 쉽고, 무인기의 현재 주변 상황에 보다 능동적으로 대처할 수 있도록 하는 무인기 조종 장치 및 방법을 제공함에 있다.
상술한 목적을 달성하기 위한 본 발명의 실시 예에 따른 무인기 조종 장치는, 상기 무인기를 조종하기 위한 조종 신호를 생성하는 조종부와, 상기 무인기로부터 무인기의 상태 정보 및 상기 무인기에서 획득된 영상을 포함하는 무인기 정보를 수신하고, 상기 조종 신호를 상기 무인기로 전송하는 통신부와, 상기 무인기의 현재 위치에 근거하여 상기 무인기가 현재 위치한 지역에 대한 가상 환경을 생성하고, 상기 가상 환경으로부터 상기 무인기의 상태 정보에 근거한 가상 영상을 생성하는 가상 영상 생성부와, 상기 무인기에서 획득된 영상 및 상기 가상 영상을 적어도 하나 출력하는 출력부, 및, 외부로부터 수신된 상기 무인기의 현재 위치에 대한 정보 및, 상기 무인기의 상태 정보를 상기 가상 영상 생성부에 입력하여 상기 가상 영상이 생성되도록 상기 가상 영상 생성부를 제어하는 제어부를 포함하는 것을 특징으로 한다.
일 실시 예에 있어서, 상기 무인기의 임무 및 상기 무인기의 상태에 관련된 정보를 포함하는 통제 정보 영상을 생성하는 통제 정보 영상 생성부, 및, 상기 무인기의 위치 및 상기 무인기가 현재 위치한 지역에 관련된 위성 영상을 생성하는 위성 영상 생성부를 더 포함하고, 상기 제어부는, 상기 통제 정보 영상 및 상기 위성 영상 중 적어도 하나가 더 출력되도록 상기 출력부를 제어하는 것을 특징으로 한다.
일 실시 예에 있어서, 상기 가상 영상은, 상기 무인기의 임무와 관련된 가상의 목적선을 표시하기 위한 그래픽 객체를 더 포함하는 가상 영상임을 특징으로 한다.
일 실시 예에 있어서, 상기 가상 영상은, 상기 무인기에 대응되는 가상 객체를 이용하여, 상기 무인기의 외부에서 상기 무인기에 대응되는 가상 객체를 바라보는 시점에 근거하여 생성된 가상 영상임을 특징으로 한다.
일 실시 예에 있어서, 상기 출력부는, HUD(Head Up Display) 임을 특징으로 한다.
일 실시 예에 있어서, 상기 제어부는, 상기 HUD의 방향 전환에 근거하여 조종사의 시선 방향 전환을 감지하고, 상기 감지된 조종사의 시선 방향 전환이 일정 수준 이상인 경우 상기 전환된 조종사의 시선 방향에 대응되는 방위의 상기 가상 영상 또는 상기 무인기에서 획득된 영상 중 어느 하나를 출력하는 것을 특징으로 한다.
일 실시 예에 있어서, 상기 무인기의 임무 및 상기 무인기의 상태에 관련된 정보를 포함하는 통제 정보 영상을 생성하는 통제 정보 영상 생성부, 및, 상기 무인기의 위치 및 상기 무인기가 현재 위치한 지역에 관련된 위성 영상을 생성하는 위성 영상 생성부를 더 포함하고, 상기 제어부는, 상기 HUD의 방향 전환에 근거하여 조종사의 시선 방향 전환을 감지하고, 상기 감지된 조종사의 시선 방향 전환이 일정 수준 이상인 경우 상기 전환된 조종사의 시선 방향에 대응되는 상기 통제 정보 영상 또는 위성 영상을 출력하는 것을 특징으로 한다.
일 실시 예에 있어서, 상기 무인기의 임무 및 상기 무인기의 상태에 관련된 정보를 포함하는 통제 정보 영상을 생성하는 통제 정보 영상 생성부, 및, 상기 무인기의 위치 및 상기 무인기가 현재 위치한 지역에 관련된 위성 영상을 생성하는 위성 영상 생성부를 더 포함하고, 상기 제어부는, 상기 가상 영상 또는 상기 무인기에서 획득된 영상 중 어느 하나가 출력되는 HUD 화면의 적어도 일부에 상기 통제 정보 영상 또는 위성 영상 정보를 적어도 하나 출력하는 것을 특징으로 한다.
또한 본 발명의 실시 예에 따른 무인기 조종 방법은, 상기 무인기로부터 무인기의 비행 상태를 포함하는 상태 정보 및 상기 무인기에서 획득된 영상을 포함하는 무인기 정보를 수신하는 단계와, 상기 무인기의 임무 및 상기 무인기의 위치에 관련된 정보를 수신하는 단계와, 상기 무인기의 현재 위치에 근거하여 상기 무인기가 현재 위치한 지역에 대한 가상 환경을 생성하고, 상기 가상 환경으로부터 상기 무인기의 상태 정보에 근거한 가상 영상을 생성하는 단계와, 상기 무인기에서 획득된 영상 및 상기 가상 영상을 적어도 하나 출력하는 단계, 및, 상기 무인기를 조종하기 위한 조종 신호를 상기 무인기로 전송하고, 상기 조종 신호에 근거하여 상기 무인기가 조종되도록 하는 단계를 포함하는 것을 특징으로 한다.
일 실시 예에 있어서, 상기 가상 영상은, 상기 무인기의 임무와 관련된 가상의 목적선을 표시하기 위한 그래픽 객체를 더 포함하는 가상 영상임을 특징으로 한다.
일 실시 예에 있어서, 상기 가상 영상은, 상기 무인기에 대응되는 가상 객체를 이용하여, 상기 무인기의 외부에서 상기 무인기에 대응되는 가상 객체를 바라보는 시점에 근거하여 생성된 가상 영상임을 특징으로 한다.
일 실시 예에 있어서, 상기 무인기에서 획득된 영상 및 상기 가상 영상을 적어도 하나 출력하는 단계는, 상기 무인기의 임무 및 상기 무인기의 상태, 그리고 상기 무인기의 위치에 관련된 정보를 외부로부터 수신하는 단계, 및, 상기 무인기의 임무 및 상기 무인기의 상태에 대한 정보를 포함하는 통제 정보 영상과, 상기 무인기의 위치 및 상기 무인기가 현재 위치한 지역에 관련된 위성 영상 중 적어도 하나를 생성하는 단계를 더 포함하는 것을 특징으로 한다.
일 실시 예에 있어서, 상기 무인기에서 획득된 영상 및 상기 가상 영상을 적어도 하나 출력하는 단계는, 상기 무인기에서 획득된 영상 및 상기 가상 영상 중 어느 하나의 적어도 일부에, 상기 통제 정보 영상 및 상기 위성 영상 중 적어도 하나를 더 표시하는 것을 특징으로 한다.
일 실시 예에 있어서, 상기 무인기에서 획득된 영상 및 상기 가상 영상을 적어도 하나 출력하는 단계는, 상기 출력부의 회전이 발생하였는지 여부를 통해, 조종사의 시선 방향이 전환되었는지를 감지하는 단계, 및, 상기 조종사의 시선 방향이 전환된 경우, 전환된 시선 방향에 대응되는 상기 통제 정보 영상 또는 위성 영상을 출력하는 단계를 더 포함하는 것을 특징으로 한다.
따라서 본 발명은, 무인기 주변의 지형지물들을 가상영상으로 구현하여 출력함으로써, 무인기에서 획득되는 영상을 이용하지 않고서도 무인기를 조종할 수 있도록 하는 효과가 있다.
또한 본 발명은, 조종사가 무인기의 비행 상태를, 무인기의 외부에서 확인할 수 있도록 함으로써 보다 정밀하게 무인기를 조종할 수 있으며, 무인기의 주변 환경에 보다 능동적으로 대처할 수 있도록 하는 효과가 있다.
도 1a는 본 발명의 실시 예에 따른 무인기 조종 장치의 구성을 도시한 블록 구성도이다.
도 1b는 본 발명의 실시 예에 따른 무인기 조종 장치의 구현 예를 도시한 도면이다.
도 2a 및 2b는 본 발명의 실시 예에 따른 무인기 조종 장치에서 무인기와 관련된 가상 영상을 시현하는 가상 영상 시현의 구성 및 시현된 가상 영상의 예를 도시한 도면이다.
도 3은 본 발명의 실시 예에 따른 무인기 조종 장치에서 무인기와 관련된 통제 정보 영상을 시현하는 통제 영상 시현부의 구성을 도시한 도면이다.
도 4는 본 발명의 실시 예에 따른 무인기 조종 장치에서 무인기와 관련된 위성 영상을 시현하는 위성 영상 시현부의 구성을 도시한 도면이다.
도 5a 및 5b는 본 발명의 실시 예에 따른 무인기 조종 장치에서 무인기에서 획득된 영상을 시현하는 획득 영상 시현부의 구성 및 시현된 영상의 예를 도시한 도면이다.
도 6은 본 발명의 실시 예에 따른 무인기 조종 장치에서 무인기를 조종하기 위한 조종 신호를 생성하는 내부 조종부의 구성을 도시한 도면이다.
도 7은 본 발명의 실시 예에 따른 무인기 조종 장치에서 무인기와 정보를 송수신하는 통신부의 구성을 도시한 도면이다.
도 8은 본 발명의 실시 예에 따른 무인기 조종 방법의 흐름을 도시한 흐름도이다.
도 9는 본 발명의 실시 예에 따른 무인기 조종 방법 중, 조종사가 HUD를 이용하는 경우에 본 발명의 실시 예에 따른 무인기 조종 방법의 흐름을 도시한 예이다.
본 명세서에서 사용되는 기술적 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 명세서에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "구성된다." 또는 "포함한다." 등의 용어는 명세서상에 기재된 여러 구성 요소들, 또는 여러 단계를 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.
또한, 본 명세서에 개시된 기술을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 기술의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예들을 상세히 설명하도록 한다.
먼저 본 발명의 완전한 이해를 돕기 위해, 본 발명의 기본 원리를 설명하면, 본 발명은 무인기의 상태, 즉 비행 고도 또는 비행 속도와, 상기 무인기의 위치에 근거한 무인기의 주변 지형지물들을 가상 영상으로 생성하여 생성된 가상 영상을 조종사에게 화면으로 출력할 수 있도록 한다.
더욱이 본 발명에서는, 데이터에 의한 계기 비행 또는 무인기에서 획득된 영상만으로는 비행체의 자세 및 위치 정보 인지에 한계가 있다는 단점을 해결하기 위하여, 가상 영상을 이용하여 영상 정보를 출력하는 화면의 적어도 일부, 예를 들어 가상 영상으로 표시되는 무인기의 주변 등에, 무인기의 상태 및 현재 무인기를 통해 수행할 임무와 관련된 정보를 표시하도록 한다. 이에 따라 본 발명에서는 조종사가 상기 무인기의 상태 및 무인기를 통해 수행할 임무에 관련된 정보를 보다 쉽게 확인할 수 있으므로, 무인기의 주변 상황에 보다 능동적으로 대처할 수 있으며, 무인기를 통한 임무 수행 능력을 보다 향상시킬 수 있도록 한다.
도 1a는 본 발명의 실시 예에 따른 무인기 조종 장치(150)의 구성을 도시한 블록 구성도이다. 그리고 도 1b는 본 발명의 실시 예에 따른 무인기 조종 장치(150)의 구현 예를 도시한 도면이다.
도 1a를 참조하여 살펴보면, 본 발명의 실시 예에 따른 무인기 조종 장치(150)는, 무인기(190)와 무선으로 통신하는 통신부(120), 상기 통신부(120)와 연결되며, 연결된 각 부분을 제어하는 제어부(100), 상기 제어부(100)와 연결되며 지상 통제 센터(도시되지 않음)로부터 통제 정보를 수신하는 통제 정보 수신부(112), 획득 영상 시현부(108), 위성 영상 시현부(106), 가상 영상 시현부(102), 통제 정보 영상 시현부(104), 그리고 상기 무인기(190)로 전송될 조종 신호를 생성하는 내부 조종부(110)를 포함하여 구성될 수 있다. 그리고 부가적으로 상기 무인기(190)를 조종할 수 있는 외부 조종부(122)를 더 포함하여 구성될 수도 있다.
상기 통신부(120)는 상기 무인기(190)와 각종 정보를 교환할 수 있다. 예를들어 상기 통신부(120)는 무인기(190)의 상태 및 무인기(190)로부터 감지되는 각종 정보를 수신하여 제어부(100)로 전송할 수 있고, 제어부(100)의 제어에 따라 내부 조종부(110) 또는 외부 조종부(122) 중 적어도 하나의 조종부로부터 입력되는 조종 신호를 상기 무인기(190)로 전송할 수 있다.
여기서 외부 조종부(122)는, 조종사가 가시권내에서 무인기를 직접 육안으로 확인가능한 경우에 상기 무인기를 조종하기 위한 것이다. 이러한 외부 조종부(122)는 도 1b에서 보이고 있는 것처럼, 리모트 컨트롤러의 형태로 구현될 수 있다.
그리고 상기 내부 조종부(110)는 조종사가 적어도 하나의 출력부에서 출력되는 가상 영상, 획득 영상, 지상통제부에서 수신되는 통제 정보 영상, 위성 영상을 확인하고 상기 무인기(190)를 조종할 수 있도록 하기 위한 것이다. 예를 들어 상기 내부 조종부(110)는 도 1b에서 보이고 있는 것처럼, 실제 비행체의 조종석과 유사하게, 무인기(190)의 추력을 조종하기 위한 쓰로틀(throttle), 비행체의 비행 방향을 조종하기 위한 조종간(Control stick : 내부 조종 입력장치), 비행체의 회전을 제어할 수 있는 러더(rudder) 페달 및, 비행체의 각종 비행 상태를 제어하기 위한 다수개의 버튼등으로 구성될 수 있다.
또한 상기 쓰로틀, 내부 조종 입력 장치, 러더 페달, 버튼등을 포함하여 구성되는 내부 조종부(110)에는, 제어부(100)를 통해 가상 영상, 위성 영상, 무인기(190)에서 획득된 영상(이하 획득 영상이라 한다), 지상 통제 센터로부터 수신된 지상 통제 영상(이하 통제 정보 영상이라 한다)을 생성 및 출력하기 위한 가상 영상 시현부(102), 통제 정보 영상 시현부(104), 위성 영상 시현부(106) 및 획득 영상 시현부(108)가 적어도 하나 이상 연결될 수 있다.
여기서 가상 영상 시현부(102)는 상기 무인기(190)의 위치 및 조종사의 시점에 근거하여 가상 영상을 생성하는 생성부 및 상기 가상 영상을 출력하는 출력부를 포함하고, 통제 정보 영상 시현부(104)는 상기 지상 통제 센터에서 수신된 통제 정보, 예를 들어 상기 무인기(190)의 임무에 관련된 정보 또는 무인기(190) 주변의 지형지물에 대한 보다 세부적인 정보등을 표시하기 위한 통제 정보 영상을 생성 및 이를 출력하는 출력부를 포함한다. 상기 가상 영상 시현부(102) 및 통제 정보 영상 시현부(104)는 하기 도 2a, 2b 및 도 3에서 도면을 참조하여 보다 자세하게 그 구성을 살펴보도록 한다.
또한 상기 위성 영상 시현부(106)는 위성(도시되지 않음)으로 통해 인식한 상기 무인기(190)의 위치 및, 무인기(190)가 현재 위치한 지역에 대한 지역 정보를 포함하는 위성 영상을 생성하는 생성부 및 생성된 위성 영상을 출력하는 출력부를 포함하여 구성될 수 있다. 그리고 획득 영상 시현부(108)는 상기 무인기(190)가 획득한 영상을 출력하는 출력부를 포함하여 구성될 수 있다. 상기 위성 영상 시현부(106) 및 획득 영상 시현부(108)는 하기 도 4 및 도 5a, 5b에서 도면을 참조하여 보다 자세하게 그 구성을 살펴보도록 한다.
한편 상기 제어부(100)와 연결되는 통제 정보 수신부(112)는 지상 통제 센터로부터 통제 정보를 수신한다. 여기서 상기 통제 정보라는 것은 상기 무인기(190)를 통해 수행하는 임무에 관련된 임무 정보 또는 상기 무인기(190)의 착륙과 이륙에 관한 지시 정보 또는 상기 무인기(190)의 항로에 대한 항로 정보, 그리고 위성으로부터 수신되는 상기 무인기(190)의 위치와 관련된 위성 정보등을 포함하는 정보이다. 상기 통제 정보 수신부(112)는 지상 통제 센터에서 이러한 통제 정보를 수신하여 제어부(100)에 전송한다. 또는 상기 통제 정보 수신부(112)는 기 생성 또는 조종사에 의해 생성된 통제 정보를 상기 제어부(100)에 전송할 수도 있다.
한편, 제어부(100)는 통제 정보 수신부(112) 및 상기 통신부(120)를 통해 상기 통제 정보 및 무인기 정보를 수신한다. 여기서 무인기 정보라는 것은, 무인기(190)로부터 수신되는 정보들, 예를 들어 무인기(190)의 카메라에서 촬영된 영상 정보나 구비된 각종 센서로부터 감지되는 무인기(190) 주변의 환경 정보, 그리고 무인기(190)의 연료나 무장 상태, 또는 무인기(190)의 각 구성부 동작 상태와 같은 무인기(190)의 상태 정보를 포함하는 것이다.
제어부(100)는 이처럼 수신된 정보들을 분류하여, 연결된 각 구성부, 즉 가상 영상 시현부(102), 통제 정보 영상 시현부(104), 위성 영상 시현부(106), 획득 영상 시현부(108) 등에서 필요로 하는 정보를 전송한다. 예를 들어 제어부(100)는 가상 영상 시현부(102)에 현재 무인기(190)의 위치 정보와 조종사가 HUD(Head Up Display)를 사용하고 있는 경우 인식된 조종사의 시선 방향 정보등을 전송할 수 있다. 그러면 가상 영상 시현부(102)는 현재 무인기(190)의 위치에 근거한 가상 영상을 생성하여 기 설정된 출력부에 출력할 수 있고, 조종사가 HUD를 사용하고 있는 경우, 조종사의 선택에 근거하여 가상 영상 화면이 상기 HUD에 출력되도록 할 수 있다.
또한 제어부(100)는 통제 정보 영상 시현부(104)에 수신된 통제 정보 및 현재 무인기(190)의 상태에 대한 정보를 전송할 수 있다. 그러면 통제 정보 영상 시현부(104)는 상기 수신된 통제 정보를 이용하여 조종사가 상기 무인기(190)를 조종하는데 필요로 하는 통제 정보 및 임무에 관련된 정보, 그리고 현재 무인기(190)의 상태에 대한 정보를 생성하여 기 설정된 출력부에 출력할 수 있다.
또한 제어부(100)는 위성 영상 시현부(106)에 수신된 통제 정보로부터 상기 무인기(190)와 관련되어 위성으로부터 수신한 위성 정보를 제공할 수 있다. 그러면 상기 위성 영상 시현부(106)는 상기 위성 정보를 이용하여, 현재 무인기(190)가 위치한 지역에 대한 지도 정보를 포함하는 지역 정보를 기 설정된 출력부를 통해 출력할 수 있다.
또한 제어부(100)는 획득 영상 시현부(108)에 상기 무인기(190)로부터 전송된, 상기 무인기(190)의 카메라에서 촬영된 영상 정보를 제공할 수 있다. 그러면 상기 획득 영상 시현부(108)는 상기 수신된 영상 정보를 기 설정된 출력부를 통해 출력할 수 있다.
한편 상기 제어부(100)는 상기 가상 영상 또는 획득 영상을 출력하는데 있어서, 조종사가 HUD를 사용하는 경우에, HUD의 투과성 디스플레이를 이용하여 상기 무인기(190)의 임무 또는 현재 위치와 관련된 정보가, 상기 가상 영상 또는 획득 영상의 적어도 일부에 출력되도록 할 수도 있음은 물론이다. 또는 제어부(100)는 조종사가 HUD를 사용하지 않는 경우라고 할지라도, 상기 가상 영상 또는 획득 영상에, 상기 무인기(190)의 임무 또는 현재 위치와 관련된 정보가 적어도 일부에 출력되도록 할 수도 있음은 물론이다.
한편 제어부(100)는 상기 내부 조종부(110)로부터 입력되는 조종사의 조종 신호를 수신하여 이를 통신부(120)를 통해 무인기(190)로 전송할 수 있다. 여기서 제어부(100)는 외부 조종부(122)가 더 연결되어 있는 경우, 내부 조종부(110) 또는 외부 조종부(122) 중 어느 조종부에서 조종 신호를 입력받을 것인지 조종사의 선택에 근거하여 결정할 수 있다. 또는 제어부(100)는 상기 무인기(190)의 조종을 2사람 이상이 역할을 나누어 조종하는 경우, 상기 내부 조종부(110) 및 외부 조종부(122) 모두에서 입력되는 조종 신호를 모두 상기 무인기(190)로 전송할 수 있다.
또한 제어부(100)는 조종사가 HUD를 사용하는 경우, 이를 감지하고 조종사의 선택에 대응하여 상기 HUD에 획득 영상 시현부(108)에서 출력되는 영상 또는 상기 가상 영상 시현부(102)에서 출력되는 영상 중 어느 하나의 영상이 출력되도록 할 수 있다. 또는 제어부(100)는 상기 획득 영상 시현부(108)의 영상이 기 설정된 수준 이하의 화질, 예를 들어 해상도가 기 설정된 수준 이하이거나 또는 무인기(190)에서 획득되는 영상의 수신 상태가 기 설정된 수준 이하(예를 들어 일정 시간 이상의 지연 시간이 발생하는 경우 등)인 경우, 상기 HUD에서 출력되는 영상을 가상 영상 시현부(102)에서 출력되는 영상으로 자동으로 전환되도록 할 수도 있다.
따라서 본 발명의 실시 예에 따른 무인기 조종 장치(150)에서는, 조종사가 HUD를 이용하는 경우 기본적으로 획득 영상 시현부(108)에서 출력되는 영상을 출력하는 상태에서, 무인기(190) 자체적으로 결함이 발생하는 경우 또는 기상 환경 또는 현재 무인기(190)가 위치한 지역의 주변 환경에 의한 영향이나 전송 과정에서 문제가 발생하는 경우에, 상기 HUD에 상기 무인기(190)의 조종에 관련된 가상 영상을 출력하도록 함으로써, 조종사가 무인기(190)에서 획득된 영상이 원할하게 전송되지 못하게 되는 경우에도 무인기(190)를 용이하게 조종할 수 있도록 한다. 뿐만 아니라 본 발명의 실시 예에 따른 무인기 조종 장치(150)에서는, 무인기(190)의 현재 상태나 현재 임무에 관련된 정보 및 현재 무인기(190)의 위치등에 대한 정보가 더 출력되도록 할 수 있으므로, 조종사는 보다 쉽고 편리하게 무인기(190)를 조종할 수 있도록 한다.
한편 도 2a 및 2b는 본 발명의 실시 예에 따른 무인기 조종 장치(150)에서 무인기와 관련된 가상 영상을 시현하는 가상 영상 시현의 구성 및 시현된 가상 영상의 예를 도시한 도면이다.
도 2를 참조하여 살펴보면, 본 발명의 실시 예에 따른 무인기 조종 장치(150)의 가상 영상 시현부(102)는 가상 객체 데이터베이스(200), 가상 영상 생성부(202), 가상 영상 출력부(204)를 포함하여 구성될 수 있다. 여기서 가상 객체 데이터베이스(200)는 무인기(190)에 대응되는 비행체 및 각종 지형지물에 대한 가상 객체들을 구현하기 위한 가상 객체 정보들을 포함한다. 그리고 상기 가상 객체 데이터베이스(200)는 적어도 하나의 지역에 대한 지도 정보를 포함하는 지형 정보나 지물 정보등을 더 포함할 수 있다.
그리고 가상 영상 생성부(202)는 상기 제어부(100)로부터 무인기(190)의 현재 위치한 지역에 대한 정보 및 현재 무인기(190)의 비행 상태에 대한 정보를 입력받을 수 있다. 여기서 상기 무인기(190)가 현재 위치한 지역에 대한 정보는 상기 무인기(190)와 관련되어 위성으로부터 수신된 위성 정보일 수도 있다. 그리고 가상 영상 생성부(202)는 입력된 무인기(190)가 현재 위치한 지역 정보에 근거하여, 무인기(190) 주변의 가상 환경을 생성한다.
예를 들어 상기 가상 영상 생성부(202)는, 현재 무인기(190)가 위치한 실제 지역에 대응되는 지도 정보등을 통해 현재 무인기(190)가 위치한 지역의 지형지물에 대한 정보를 획득할 수 있다. 그리고 가상 영상 생성부(202)는, 가상 영상 이미지 렌더링 기법등을 통해, 상기 지형지물 정보에 대응되도록 가상 객체들이 구현되도록 함으로써 상기 무인기(190)가 위치한 지역에 대한 가상 환경을 생성할 수 있다. 예를 들어 가상 영상 생성부(202)는 활주로와 같은 특정 지물 또는 지역에 대해 실제 지형지물과 가상 환경 내의 가상 객체 지형지물을 일치시킬 수 있다.
이처럼 가상 환경이 생성되면, 가상 영상 생성부(202)는 현재 무인기(190)의 비행 상태에 대한 정보에 근거하여, 조종사에게 제공될 가상 영상을 생성할 수 있다. 여기서 상기 무인기(190)의 비행 상태에 대한 정보는, 현재 무인기(190)의 비행 고도 또는 비행 속도, 그리고 조종사가 선택한 시점등에 대한 정보를 말하는 것이다. 따라서 가상 영상 생성부(202)는 상기 현재 생성된 가상 환경 내에서 상기 무인기(190)의 비행 고도와 비행 속도, 그리고 조종사가 선택한 시점의 방향에 대응되는 가상 환경의 영상을 상기 가상 영상 출력부(204)에 출력할 수 있다. 그리고 상기 가상 영상 출력부(204)에서 출력되는 가상 영상은, 실제 무인기(190)에서 수신되는 무인기(190)의 비행 상태에 대한 정보 및 상기 무인기(190)의 실제 위치에 대한 정보를 포함하는 통제 정보에 근거하여 실시간으로 변경될 수 있음은 물론이다.
한편 가상 영상 생성부(202)는, 조종사의 선택에 따라 시점이 변경되는 경우, 마치 조종사가 무인기(190)의 내부에 탑승하고 있는 것처럼 변경된 시점에 대응되는 방향의 가상 환경의 영상을 가상 영상 출력부(204)에 출력할 수 있다. 따라서 조종사는 내부 조종부(110)를 이용하여 가상 영상을 이용하여 마치 실제로 무인기(190)에 탑승하고 있는 것처럼 상기 무인기(190)를 조종할 수 있다.
한편 가상 영상 생성부(202)는 조종사의 선택에 근거하여, 상기 무인기(190)를, 무인기(190)와 대응되는 가상 객체(260)를 이용하여 무인기(190) 외부에서 보고 있는 것과 같은 가상 영상을 상기 가상 영상 출력부(204)에 출력할 수도 있음은 물론이다. 여기서 상기 가상 객체(260)는 실제 무인기(190)의 비행 자세를 포함한 무인기(190)의 외관 변화 상태와 연동되여 변경될 수 있다. 따라서 조종사는 상기 무인기(190)의 비행 상태 및 비행 자세를 직접 확인하며 무인기(190)를 조종할 수 있으므로 무인기(190) 주변의 환경에 대응하여 보다 정밀하고 능동적으로 대처하는 것이 가능하다.
뿐만 아니라, 상기 가상 영상 생성부(202)는 무인기(190)의 임무 수행 또는 착륙등에 대한 정보를 조종사가 보다 쉽게 인지할 수 있도록 가상의 목적선이 상기 무인기(190)와 대응되는 가상 객체의 주변에 표시되도록 할 수도 있다.
도 2b는 이러한 예를 보이고 있는 것이다.
가상 영상 생성부(202)는 도 2b에서 보이고 있는 것처럼, 무인기(190)에 대응되는 가상 객체(260) 주변에 무인기(190)의 임무등에 관련된 그래픽 객체(250)를 표시할 수 있다. 예를 들어 상기 그래픽 객체(250)는 상기 무인기(190)의 임무 지역이 위치한 방향을 표시하기 위한 것일 수도 있다.
한편 상기 그래픽 객체(250)는 목적지의 위치와 현재 무인기(190)의 위치에 따른 거리 정보를 표시하는 기능을 가질 수도 있다. 예를 들어 상기 그래픽 객체(250)는 화살표와 같은 형태로 생성되어 그 길이가 늘어나거나 짧아지는 등의 변화를 통해 현재 무인기(190)의 임무 수행 목적지까지의 거리 및 방향에 대한 직관적인 정보를 조종사에게 제공하는 형태로 표시할 수도 있음은 물론이다.
또한 상기 도 2b에서는 무인기(190)의 임무 수행에 관련된 목적지까지의 정보를 그래픽 객체(250)로 표시하는 예를 도시하였으나, 이와는 달리 상기 그래픽 객체(250)는 무인기(190)의 착륙에 도움을 주기 위한 지시선으로 사용될 수도 있음은 물론이다. 예를 들어 상기 그래픽 객체(250)는 상기 무인기(190)가 실제로 착륙하기에 가장 이상적인 항로와 각도등을 표시할 수 있다. 따라서 조종사는 상기 그래픽 객체(250)가 제공하는 정보에 따라 상기 무인기(190)를 조종함으로써 한결 수월하게 무인기(190)가 착륙되도록 할 수도 있다.
한편 조종사는, 도 1b에서 보이고 있는 것과 같이 복수의 출력부, 즉 복수의 디스플레이 장치를 이용하여 무인기(190)를 조종할 수 있으나, 이와는 달리 HUD 장치를 이용하여 무인기(190)를 조종할 수도 있다. 이러한 경우 제어부(100)는 조종사의 선택에 근거하여 상기 HUD에 출력되는 영상 정보가 출력되도록 할 수 있으며, 상기 HUD에 출력되는 영상 정보는 상기 가상 영상 생성부(202)에서 생성되는 가상 영상 정보가 될 수 있다. 그리고 이러한 경우 제어부(100)는, 상기 도 2b에서 보이고 있는 것과 같이, 무인기(190)의 비행 상태등에 대한 정보를 포함하는 통제 정보를 포함하는 가상 영상이 출력되도록 할 수 있다.
그리고 제어부(100)는 HUD에 가상 영상 정보를 출력함과 동시에, 조종사의 선택에 근거하여, 상기 가상 영상이 출력되는 적어도 일부의 영역에 다른 영상, 예를 들어 위성 영상 정보나 획득 영상 정보가 더 출력되도록 할 수도 있음은 물론이다.
한편 도 3은 본 발명의 실시 예에 따른 무인기 조종 장치(150)에서 무인기와 관련된 통제 정보 영상을 시현하는 통제 영상 시현부의 구성을 도시한 도면이다.
도 3을 참조하여 살펴보면, 통제 정보 영상 시현부(104)는, 제어부(100)로부터 수신한 통제 정보 및 무인기(190)의 상태 정보를 분석하는 통제 정보 분석부(300)와 무인기 상태 분석부(302), 그리고 상기 분석된 통제 정보 및 무인기 상태 정보를 취합하여 통제 정보 영상을 생성 및 출력하는 통제 정보 영상 출력부(304)를 포함하여 구성될 수 있다.
여기서 상기 통제 정보는, 지상 통제 센터(도시되지 않음)에서 제공되는 것을 통제 정보 수신부(112)가 수신할 것일 수 있고, 또는 상기 통제 정보 수신부(112)가 직접 지상 통제 센터로서 생성한 것일 수도 있다. 이러한 통제 정보는, 상기 무인기(190)의 임무에 관련된 정보, 즉 예를 들어 항로 정보 또는 현재 무인기(190)가 위치한 지형 또는 지물에 대한 세부적인 정보등이 될 수 있다. 또는 상기 무인기(190)가 착륙 또는 이륙하는 경우, 상기 무인기(190)의 착륙이나 이륙을 위해 관제탑에서 제공하는 정보일 수도 있다.
통제 정보 분석부(300)는 제어부(100)로부터 이러한 통제 정보를 수신하여 이를 분석한다. 그리고 조종사가 인식할 수 있는 형태로 상기 통제 정보를 가공한다. 예를 들어 상기 통제 정보 분석부(300)는 기 설정된 2차원 지도 이미지 위에 목적지까지의 항로를 표시하거나, 상기 2차원 지도 이미지의 각 지형지물에 대응되는 세부적인 정보를 표시할 수도 있다.
또한 상기 무인기 상태 분석부(302)는 제어부(100)로부터 수신된 무인기(190)의 현재 상태에 대한 정보를 분석한다. 예를 들어 무인기 상태 분석부(302)는 현재 무인기에 남아있는 연료를 확인하고, 최대 비행 가능한 시간에 대한 정보를 추정할 수 있다. 또는 상기 무인기 상태 분석부(302)는 무인기(190)의 각 부분에 대한 동작 상태에 대한 정보를 수신하여, 무인기(190)의 각 부분에 대한 고장 유무를 판단할 수도 있다.
그리고 상기 통제 정보 영상 출력부(304)는, 상기 통제 정보 분석부(300) 및 무인기 상태 분석부(302) 중 적어도 하나로부터 통제 정보 영상으로 출력할 정보를 입력받는다. 예를 들어 상기 통제 정보 영상 출력부(304)는 상기 통제 정보 분석부(300)로부터 가공된 정보, 즉 항로 정보나, 현재 무인기(190)가 위치한 지역의 지형지물에 대한 보다 자세한 정보를 포함하는 지도 정보등을 출력할 수도 있다. 또는 상기 통제 정보 영상 출력부(304)는 상기 무인기 상태 분석부(302)에서 분석된 무인기(190)의 상태 정보, 즉 무인기(190)의 현재 비행 속도나 비행 고도, 또는 연료 상태나 각 동작 상태 등에 대한 정보를 출력할 수 있다. 그리고 이러한 정보들은, 무인기(190)로부터 수신되는 상태 정보에 근거하여 실시간으로 변경될 수 있음은 물론이다.
한편 도 4는 본 발명의 실시 예에 따른 무인기 조종 장치(150)에서 무인기와 관련된 위성 영상을 시현하는 위성 영상 시현부의 구성을 도시한 도면이다.
도 4를 참조하여 살펴보면, 상기 위성 영상 시현부(106)는 지도 정보 데이터베이스(400), 위성 영상 생성부(402), 위성 영상 출력부(404)를 포함하여 구성될 수 있다. 여기서 상기 지도 정보 데이터베이스(400)는 복수의 2차원 또는 3차원 지도 정보를 포함하는 것이다. 그리고 위성 영상 생성부(402)는 상기 제어부(100)로부터 무인기(190)와 관련된 위성 정보와 통제 정보를 입력받고, 위성 영상을 생성한다.
여기서 상기 위성 정보는, 상기 무인기(190)의 현재 위치와 관련하여, 지상 통제 센터가 위성으로부터 수신한 정보일 수 있다. 예를 들어 상기 위성 정보는, 상기 무인기(190)의 현재 위치에 대해 위성을 이용하여 관측한 영상 정보일 수 있다.
위성 영상 생성부(402)는 현재 무인기(190)의 위치 및 무인기(190)가 향하는 방위각을 2차원 또는 3차원 지도 정보에 표시할 수 있다. 그리고 여기서 상기 지도 정보는, 상기 무인기(190)의 위치에 대응되는 지역의 지도 정보일 수 있다. 뿐만 아니라 상기 위성 영상 생성부(402)는 상기 무인기(190)가 이동한 위치의 궤적을 상기 지도 정보에 표시할 수 있으며, 또는 상기 무인기(190)가 이동할 항로를 상기 지도 정보에 표시할 수도 있다. 그리고 이러한 정보가 표시된 지도 정보를 위성 영상으로 생성할 수 있다. 그리고 위성 영상 출력부(404)는 상기 위성 영상 생성부(402)에서 생성된 위성 영상을 출력할 수 있다.
한편, 도 5a 및 5b는 본 발명의 실시 예에 따른 무인기 조종 장치(150)에서 무인기에서 획득된 영상을 시현하는 획득 영상 시현부의 구성 및 시현된 영상의 예를 도시한 도면이다.
우선 도 5a를 참조하여 살펴보면, 상기 획득 영상 시현부(108)는 무인기(190)로부터 획득된 영상에 대한 정보를 제어부(100)를 통해 수신하고, 수신된 영상을 출력가능한 상태로 가공하는 획득 영상 생성부(500)와, 상기 획득 영상 생성부(500)에서 생성된 영상을 출력하는 획득 영상 출력부(502)를 포함하여 구성될 수 있다. 예를 들어 상기 획득 영상 생성부(500)는 무인기(190)에서 획득된 영상 데이터를 수신 및 영상 신호로 복원하기 위한 컴퓨터(획득 영상 생성부(500))와 연결되며, 상기 복원된 영상 신호를 출력하는 모니터(획득 영상 출력부(502))로 구성될 수도 있다.
상기 획득 영상 생성부(500)는 상기 무인기(190)로부터 획득된 영상 신호를 그대로 복원할 수도 있다. 그러나 이와는 달리 획득 영상 생성부(500)는 제어부(100)로 통제 정보 또는 상기 무인기(190)의 상태에 대한 정보를 더 수신받고, 수신받은 통제 정보 또는 무인기(190)의 상태 정보를 상기 획득 영상 출력부(502)에 출력할 수도 있다. 상기 획득 영상 출력부(502)에서 출력되는 영상을 획득 영상이라고 칭하기로 한다.
따라서 상기 획득 영상은, 상기 무인기(190)에서 획득된 영상을 그대로 출력할 뿐만 아니라, 상기 무인기(190)에서 획득된 영상에, 조종사가 상기 무인기(190)를 조종하는데 필요한 부가 정보를 보다 직관적으로 인지할 수 있도록 하기 위한 정보를 더 표시할 수도 있다. 예를 들어 획득 영상 생성부(500)는 현재 무인기(190)의 임무에 근거하여 가상 목적선을 더 표시하거나, 또는 현재 무인기(190)의 위치에 대한 정보를, 지도 정보와 함께 상기 획득 영상이 출력되는 화면의 적어도 일부에 표시할 수도 있다. 도 5b는 이러한 예를 보이고 있는 것이다.
예를 들어 도 5b에서 보이고 있는 것처럼, 상기 획득 영상 출력부(502)에서 출력되는 획득 영상에는, 무인기(190)에서 직접 촬영된 영상 뿐만 아니라, 상기 무인기(190)의 위치에 관한 정보(550) 또는 상기 무인기(190)의 임무에 관련된 가상 목적선(552)과 같은 정보들이 더 표시될 수 있다. 그리고 이처럼 획득 영상 출력부(502)에서 출력되는 도 5b와 같은 영상은, 조종사가 HUD를 사용하는 경우 HUD 화면에 동일하게 출력될 수 있다.
한편, 도 5b에서 보이고 있는 이러한 부가정보들, 즉 상기 무인기(190)의 위치 정보(550)등은 조종사의 선택에 따라 그 출력 여부가 결정될 수 있다. 예를 들어 조종사는 상기 무인기(190)의 위치 정보(550) 또는 가상 목적선(552)과 같은 정보가 표시되지 않도록 할 수도 있음은 물론이다. 또는 조종사는 무인기(190)의 조종 중에 상기 부가정보를 선택에 따라 출력되도록 할 수도 있다.
예를 들어 조종사는, 기 설정된 방향으로 시선을 전환함으로써 상기 부가 정보가 출력되도록 할 수도 있다. 즉, 조종사가 정면에서 왼쪽 방향으로 70도 이상 시선, 즉 HUD의 주시 방향을 전환하는 경우, 화면에 무인기(190)의 위치 정보가 출력되도록 하고, 정면에서 오른쪽 방향으로 70도 이상 시선을 전환하는 경우, 화면에 현재 무인기(190)의 상태에 대한 정보가 출력되도록 미리 설정할 수 있다. 그리고 이처럼 미리 시선 방향의 전환에 따라 부가 정보의 출력이 설정된 경우, 제어부(100)는 조종사의 시선 방향, 즉 HUD의 주시 방향이 기 설정된 수준(예를 들어 좌 또는 우 방향으로 70도) 이상 전환되면, 대응되는 부가 정보를 HUD 상의 적어도 일부에 출력할 수 있다.
여기서 만약, 조종사가 상기 시선 방향의 전환에 대응되는 부가 정보의 출력을 설정하지 않은 경우라면, 제어부(100)는 상기 무인기(190)로부터 상기 조종사의 시선 방향에 대응되는 방위의 획득 영상을 수신하고, 이를 상기 획득 영상 출력부(502)에서 출력되도록 상기 획득 영상 시현부(108)를 제어할 수도 있음은 물론이다.
한편, 도 6은 본 발명의 실시 예에 따른 무인기 조종 장치(150)에서 무인기를 조종하기 위한 조종 신호를 생성하는 내부 조종부의 구성을 도시한 도면이다.
도 6을 참조하여 살펴보면, 상기 내부 조종부(110)는 실제 유인 항공기와 유사한 형태로 구현될 수 있다. 예를 들어 내부 조종부(110)는 러더 페달 및 조종간(Control stick)과 같은 무인기(190)의 Roll축 방향 운동을 조종하기 위한 Roll 조종 장치(612), Pitch축 방향 운동을 조종하기 위한 Pitch 조종 장치(614), Yaw축 방향 운동을 조종하기 위한 Yaw 조종 장치(616)를 포함하여 구성될 수 있다. 뿐만 아니라 무인기(190)의 추력을 조종하기 위한 쓰로틀과 같은 추력 조종 장치(604)나 각종 무인기(190)의 비행 상태를 제어하기 위한 버튼 입력 장치(602), 그리고 무인기(190)의 제동을 조종하기 위한 제동 조종 장치(600)를 포함하여 구성될 수 있다.
이러한 각종 조종 장치들은 아날로그 신호를 이용한 정밀한 조종 신호를 생성할 수 있으며, 이러한 조종 장치를 통해 생성된 조종 신호는 제어부(100)의 제어를 통해 통신부(120)를 거처 무인기(190)로 전송된다. 그러면 무인기(190)는 상기 조종 신호에 따라 조종되게 된다.
한편, 도 7은 본 발명의 실시 예에 따른 무인기 조종 장치(150)에서 무인기와 정보를 송수신하는 통신부의 구성을 도시한 도면이다.
도 7을 참조하여 살펴보면, 상기 통신부(120)는 정보 데이터 통신부(700)와 영상 데이터 통신부(702)를 포함하여 구성될 수 있다. 여기서 상기 정보 데이터 통신부(700)는, 무인기(190)로부터, 무인기(190)가 획득한 영상 정보 또는 무인기(190)의 현재 상태(예를 들어 비행 자세, 추력, 위치, 또는 무인기(190) 각 구성부의 동작 상태, 연료량 등)에 대한 정보와 같이 무인기(190)에 구비된 각종 센서로부터 감지되는 정보(이하 이 두 가지 정보를 모두 포함하는 정보를 무인기 정보라고 칭한다)를 수신하여 제어부(100)로 전송하고, 제어부(100)로부터 출력되는 조종 신호를 무인기(190)로 전송한다. 그리고 상기 영상 데이터 통신부(120)는 상기 무인기(190)로부터 획득되는 영상을 수신하고, 이를 제어부(100)로 전송한다.
한편, 도 8은 이러한 본 발명의 실시 예에 따른 무인기 조종 방법의 흐름을 도시한 흐름도이다.
도 8을 참조하여 살펴보면, 본 발명의 실시 예에 따른 무인기 조종 장치(150)의 제어부(100)는 내부 조종부(110) 또는 외부 조종부(122) 중 적어도 하나를 통해 생성된 조종사의 조종 신호를, 무인기(190)에 전송되도록 통신부(120)를 제어한다. 그리고 무인기(190)가 이륙을 하게 되면, 이륙한 무인기(190)로부터 무인기 정보를 수신한다(S800). 여기서 무인기 정보라는 것은, 상술한 바와 같이, 무인기(190)가 획득한 영상 정보 또는 무인기(190)의 상태 등과 같이 무인기(190)의 각종 센서로부터 감지되는 정보를 포함하는 것이다.
그리고 제어부(100)는 통제 정보를 수신한다(S802). 여기서 통제 정보라는 것은 상기 무인기(190)의 임무에 관련된 정보를 포함하는 정보이다. 그리고 상기 통제 정보에는, 관제소(도시되지 않음)와 같은 지상 통제 센터가, 위성을 이용하여 측정한 상기 무인기(190)의 위치 정보 또는 상기 무인기(190)의 현재 위치한 지역에 대한 부가 정보등이 포함될 수 있다.
상기 통제 정보가 수신되면 제어부(100)는, 상기 무인기(190)의 위치 및 비행 상태에 근거하여 생성된 가상 영상, 상기 무인기(190)에 구비된 카메라등으로부터 획득된 획득 영상, 그리고 상기 무인기(190)의 위치 및 상기 무인기(190)가 위치한 지역에 대한 지도 정보를 포함하는 위성 영상, 그리고 상기 무인기(190)의 임무와 관련된 정보 및 상기 무인기(190)의 현재 상태에 대한 각종 정보를 포함하는 통제 정보 영상 중 적어도 하나를 생성한다(S804).
그리고 제어부(100)는 상기 생성된 영상 중 적어도 하나를 기 설정된 출력부에 출력한다(S806). 예를 들어 제어부(100)는 도 1b에서 보이고 있는 것처럼, 상기 생성된 각각의 영상을 각각 대응되는 출력부를 통해 출력할 수도 있다. 또는 제어부(100)는 조종사가 기 설정된 출력부로 HUD를 선택하는 경우, 상기 각각의 영상 중 어느 하나가 상기 HUD를 통해 출력되도록 할 수 있다.
예를 들어 조종사는 상기 HUD에 무인기(190)로부터 획득된 영상이 출력되도록 할 수 있다. 여기서 상기 획득 영상 시현부(108)는 상기 무인기(190)로부터 획득된 영상에, 상기 무인기(190)의 상태 또는 무인기(190)의 임무와 관련된 부가 정보를 더 표시하여 상기 HUD에 출력될 영상을 생성할 수 있음은 물론이다.
또는 조종사는 상기 HUD에 가상 영상 시현부(102)에서 생성된 가상 영상이 출력되도록 할 수도 있음은 물론이다. 이러한 경우, 가상 영상 시현부(102)는 조종사의 선택에 근거하여 도 2b에서 보이고 있는 것과 같이 무인기(190)와 대응되는 가상 객체(260)를 이용하여 무인기(190)의 외부에서 무인기(190)를 바라보는 시점의 가상 영상을 상기 HUD에 출력할 수도 있음은 물론이다.
한편, 제어부(100)는 조종사로부터 내부 조종부(110) 또는 외부 조종부(122) 중 적어도 하나에 근거하여 조종 신호가 생성되면, 생성된 조종 신호를 무인기(190)로 전송한다(S808). 그리고 제어부(100)는 다시 S800 단계 내지 S806 단계로 진행하여 무인기(190)의 조종에 관련된 영상이 기 설정된 출력부를 통해 출력되도록 한다.
따라서 본 발명의 실시 예에 따른 무인기 조종 방법은, 무인기(190)에서 직접 획득된 영상 뿐만 아니라 무인기(190)의 현재 위치 및 무인기(190)의 비행 상태에 근거한 가상 영상을 생성하고 이를 출력할 수 있도록 한다. 따라서 조종사는 상기 무인기(190)에서 직접 획득된 영상 뿐만 아니라 상기 가상 영상을 이용하여 무인기(190)를 조종할 수 있으므로, 무인기(190)에서 획득된 영상이 올바르게 전송되지 않는 경우에도 얼마든지 상기 무인기(190)를 조종할 수 있도록 한다. 뿐만 아니라 본 발명의 실시 예에 따른 무인기 조종 방법에 따라, 상기 가상 영상에 상기 무인기(190)의 임무와 관련된 정보 또는 상기 무인기(190)의 위치에 관련된 정보와 같은 부가 정보를 표시할 수 있으므로 조종사가 보다 쉽고 편리하게 무인기(190)를 조종할 수 있도록 한다.
또한 본 발명의 실시 예에 따른 무인기 조종 방법에서는, 상기 무인기(190)에 대응되는 가상 객체를 이용하여 상기 무인기(190)의 외부에서 무인기(190)를 바라보는 시점의 영상을 제공할 수 있으므로, 무인기(190)의 비행 자세 및 환경 변화를 보다 쉽게 인지할 수 있고, 이에 따라 무인기(190)를 보다 정밀하게 조종하는 것이 가능하도록 한다.
한편, 도 9는 본 발명의 실시 예에 따른 무인기 조종 방법 중, 조종사가 HUD를 이용하는 경우에 본 발명의 실시 예에 따른 무인기 조종 방법의 흐름을 도시한 예이다.
예를 들어 조종사의 선택에 따른 출력 장치가 HUD인 경우, 제어부(100)는 상기 가상 영상 시현부(102) 또는 획득 영상 시현부(108)에서 생성된 가상 영상 또는 획득 영상 중 어느 하나를 HUD에 출력할 수 있다(S900).
그리고 제어부(100)는 조종사의 시점이 기 설정된 수준 이상 변경되었는지 여부를 판단할 수 있다(S902). 예를 들어 제어부(100)는 상기 HUD가 왼쪽 방향 또는 오른쪽 방향으로 방향이 전환되는 경우를 감지할 수 있으며, 감지된 방향과 기 설정된 정면 사이의 각도가 기 설정된 수준 이상인지를 감지할 수 있다. 즉, 제어부(100)는 조종사가 HUD를 착용한 채로 기 설정된 각도 이상 왼쪽 또는 오른쪽으로 얼굴 방향을 돌렸는지 여부를 감지할 수 있다.
그리고 이러한 조종사의 머리 움직임이 감지되면, 제어부(100)는 변경된 조종사의 시점에 대응되도록 설정된 영상 정보가 있는지를 확인할 수 있다(S904). 여기서 상기 영상 정보는, 상기 무인기(190)의 조종과 관련된 부가 정보, 예를 들어 무인기(190)의 현재 위치와 관련된 위성 정보 또는 상기 무인기(190)의 상태 및 임무와 관련된 정보를 포함하는 통제 정보등이 될 수 있다.
제어부(100)는 상기 S904 단계의 판단 결과, 조종사의 변경된 시점에 대응되도록 미리 설정된 영상 정보가 있는 경우, 대응되는 영상 정보를 상기 HUD의 적어도 일부에 출력할 수 있다(S906). 예를 들어 조종사는 이러한 시점 변경을 통해 상기 HUD의 적어도 일부에 부가 정보의 출력 온 또는 출력 오프를 선택하거나, 또는 출력되는 부가 정보를 다른 것으로 변경할 수도 있다.
그러나 상기 S904 단계의 판단 결과, 조종사의 변경된 시점에 대응되도록 미리 설정된 영상 정보가 없는 경우, 제어부(100)는 조종사의 변경된 시점의 방위에 대응되는 획득 영상 또는 가상 영상을 상기 HUD에 출력되도록 할 수도 있음은 물론이다(S908).
이처럼 본 발명의 실시 예에 따른 무인기 조종 방법에서는, 조종사가 무인기(190)의 조종에 관련된 부가 정보의 출력을 위해 버튼 입력 등 다른 조작 없이도 얼마든지 상기 부가 정보의 출력 온이나 오프, 또는 출력되는 부가 정보의 종류를 다른 것으로 얼마든지 변경할 수 있다.
한편 상술한 본 발명의 설명에서는 구체적인 실시 예에 관해 설명하였으나, 여러 가지 변형이 본 발명의 범위에서 벗어나지 않고 실시할 수 있다. 그러나 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서 본 발명에 개시된 실시 예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석 되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
100 : 제어부 102 : 가상 영상 생성부
104 : 통제 정보 영상부 106 : 위성 영상 생성부
108 : 획득 영상 생성부 110 : 내부 조종부
112 : 통제 정보 수신부 120 : 통신부
122 : 외부 조종부 150 : 무인기 조종 장치
190 : 무인기

Claims (14)

  1. 무인기를 조종하기 위한 장치에 있어서,
    상기 무인기를 조종하기 위한 조종 신호를 생성하는 조종부;
    상기 무인기로부터 무인기의 상태 정보 및 상기 무인기에서 획득된 영상을 포함하는 무인기 정보를 수신하고, 상기 조종 신호를 상기 무인기로 전송하는 통신부;
    상기 무인기의 현재 위치에 근거하여 상기 무인기가 현재 위치한 지역에 대한 가상 환경을 생성하고, 상기 가상 환경으로부터 상기 무인기의 상태 정보에 근거한 가상 영상을 생성하는 가상 영상 생성부;
    상기 무인기에서 획득된 영상 및 상기 가상 영상을 적어도 하나 출력하는 출력부; 및,
    외부로부터 수신된 상기 무인기의 현재 위치에 대한 정보 및, 상기 무인기의 상태 정보를 상기 가상 영상 생성부에 입력하여 상기 가상 영상이 생성되도록 상기 가상 영상 생성부를 제어하는 제어부를 포함하며,
    상기 가상 영상은,
    상기 무인기의 임무와 관련된 가상의 목적선을 표시하기 위한 그래픽 객체를 포함하는 것을 특징으로 하는 무인기 조종 장치.
  2. 제1항에 있어서,
    상기 무인기의 임무 및 상기 무인기의 상태에 관련된 정보를 포함하는 통제 정보 영상을 생성하는 통제 정보 영상 생성부; 및,
    상기 무인기의 위치 및 상기 무인기가 현재 위치한 지역에 관련된 위성 영상을 생성하는 위성 영상 생성부를 더 포함하고,
    상기 제어부는,
    상기 통제 정보 영상 및 상기 위성 영상 중 적어도 하나가 더 출력되도록 상기 출력부를 제어하는 것을 특징으로 하는 무인기 조종 장치.
  3. 삭제
  4. 제1항에 있어서, 상기 가상 영상은,
    상기 무인기에 대응되는 가상 객체를 이용하여, 상기 무인기의 외부에서 상기 무인기에 대응되는 가상 객체를 바라보는 시점에 근거하여 생성된 가상 영상임을 특징으로 하는 무인기 조종 장치.
  5. 제1항에 있어서, 상기 출력부는,
    HUD(Head Up Display) 임을 특징으로 하는 무인기 조종 장치.
  6. 제5항에 있어서, 상기 제어부는,
    상기 HUD의 방향 전환에 근거하여 조종사의 시선 방향 전환을 감지하고, 상기 감지된 조종사의 시선 방향 전환이 일정 수준 이상인 경우 상기 전환된 조종사의 시선 방향에 대응되는 방위의 상기 가상 영상 또는 상기 무인기에서 획득된 영상 중 어느 하나를 출력하는 것을 특징으로 하는 무인기 조종 장치.
  7. 제5항에 있어서,
    상기 무인기의 임무 및 상기 무인기의 상태에 관련된 정보를 포함하는 통제 정보 영상을 생성하는 통제 정보 영상 생성부; 및,
    상기 무인기의 위치 및 상기 무인기가 현재 위치한 지역에 관련된 위성 영상을 생성하는 위성 영상 생성부를 더 포함하고,
    상기 제어부는,
    상기 HUD의 방향 전환에 근거하여 조종사의 시선 방향 전환을 감지하고, 상기 감지된 조종사의 시선 방향 전환이 일정 수준 이상인 경우 상기 전환된 조종사의 시선 방향에 대응되는 상기 통제 정보 영상 또는 위성 영상을 출력하는 것을 특징으로 하는 무인기 조종 장치.
  8. 제5항에 있어서,
    상기 무인기의 임무 및 상기 무인기의 상태에 관련된 정보를 포함하는 통제 정보 영상을 생성하는 통제 정보 영상 생성부; 및,
    상기 무인기의 위치 및 상기 무인기가 현재 위치한 지역에 관련된 위성 영상을 생성하는 위성 영상 생성부를 더 포함하고,
    상기 제어부는,
    상기 가상 영상 또는 상기 무인기에서 획득된 영상 중 어느 하나가 출력되는 HUD 화면의 적어도 일부에 상기 통제 정보 영상 또는 위성 영상 정보를 적어도 하나 출력하는 것을 특징으로 하는 무인기 조종 장치.
  9. 무인기를 조종하는 방법에 있어서,
    상기 무인기로부터 무인기의 비행 상태를 포함하는 상태 정보 및 상기 무인기에서 획득된 영상을 포함하는 무인기 정보를 수신하는 단계;
    상기 무인기의 임무 및 상기 무인기의 위치에 관련된 정보를 수신하는 단계;
    상기 무인기의 현재 위치에 근거하여 상기 무인기가 현재 위치한 지역에 대한 가상 환경을 생성하고, 상기 가상 환경으로부터 상기 무인기의 상태 정보에 근거한 가상 영상을 생성하는 단계;
    상기 무인기에서 획득된 영상 및 상기 가상 영상을 적어도 하나 출력하는 단계; 및,
    상기 무인기를 조종하기 위한 조종 신호를 상기 무인기로 전송하고, 상기 조종 신호에 근거하여 상기 무인기가 조종되도록 하는 단계를 포함하며,
    상기 가상 영상은,
    상기 무인기의 임무와 관련된 가상의 목적선을 표시하기 위한 그래픽 객체를 포함하는 것을 특징으로 하는 무인기 조종 방법.
  10. 삭제
  11. 제9항에 있어서, 상기 가상 영상은,
    상기 무인기에 대응되는 가상 객체를 이용하여, 상기 무인기의 외부에서 상기 무인기에 대응되는 가상 객체를 바라보는 시점에 근거하여 생성된 가상 영상임을 특징으로 하는 무인기 조종 방법.
  12. 제9항에 있어서, 상기 무인기에서 획득된 영상 및 상기 가상 영상을 적어도 하나 출력하는 단계는,
    상기 무인기의 임무 및 상기 무인기의 상태, 그리고 상기 무인기의 위치에 관련된 정보를 외부로부터 수신하는 단계; 및,
    상기 무인기의 임무 및 상기 무인기의 상태에 대한 정보를 포함하는 통제 정보 영상과, 상기 무인기의 위치 및 상기 무인기가 현재 위치한 지역에 관련된 위성 영상 중 적어도 하나를 생성하는 단계를 더 포함하는 것을 특징으로 하는 무인기 조종 방법.
  13. 제12항에 있어서, 상기 무인기에서 획득된 영상 및 상기 가상 영상을 적어도 하나 출력하는 단계는,
    상기 무인기에서 획득된 영상 및 상기 가상 영상 중 어느 하나의 적어도 일부에, 상기 통제 정보 영상 및 상기 위성 영상 중 적어도 하나를 더 표시하는 것을 특징으로 하는 무인기 조종 방법.
  14. 제12항에 있어서, 상기 무인기에서 획득된 영상 및 상기 가상 영상을 적어도 하나 출력하는 단계는,
    상기 무인기에서 획득된 영상 및 상기 가상 영상을 적어도 하나 출력하는 출력부의 회전이 발생하였는지 여부를 통해, 조종사의 시선 방향이 전환되었는지를 감지하는 단계; 및,
    상기 조종사의 시선 방향이 전환된 경우, 전환된 시선 방향에 대응되는 상기 통제 정보 영상 또는 위성 영상을 출력하는 단계를 더 포함하는 것을 특징으로 하는 무인기 조종 방법.
KR1020140011713A 2014-01-29 2014-01-29 가상 영상을 이용한 무인기 조종 장치 및 방법 KR101408077B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140011713A KR101408077B1 (ko) 2014-01-29 2014-01-29 가상 영상을 이용한 무인기 조종 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140011713A KR101408077B1 (ko) 2014-01-29 2014-01-29 가상 영상을 이용한 무인기 조종 장치 및 방법

Publications (1)

Publication Number Publication Date
KR101408077B1 true KR101408077B1 (ko) 2014-06-18

Family

ID=51133058

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140011713A KR101408077B1 (ko) 2014-01-29 2014-01-29 가상 영상을 이용한 무인기 조종 장치 및 방법

Country Status (1)

Country Link
KR (1) KR101408077B1 (ko)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160125591A (ko) * 2015-04-21 2016-11-01 경상대학교산학협력단 무인비행체 기반 실시간 데이터 통합 시현 방법
KR20170025271A (ko) * 2015-08-28 2017-03-08 전자부품연구원 비행 시뮬레이션 방법
KR101797208B1 (ko) * 2015-09-07 2017-11-13 한국항공대학교산학협력단 L-v-c 운용 시스템, 이를 이용한 무인기 훈련/실험 방법
KR101840820B1 (ko) * 2016-09-28 2018-03-22 주식회사 빅스 무인 비행체의 3차원 증강 현실 비행 영상을 생성하는 방법 및 서버
CN110006826A (zh) * 2018-01-04 2019-07-12 中国科学院遥感与数字地球研究所 水体透明度测量方法及装置
KR20210069554A (ko) 2019-12-03 2021-06-11 한국로봇융합연구원 Lvc 환경의 재난 대응 로봇에 대한 훈련생 테스트 및 평가 장치
KR20210069555A (ko) 2019-12-03 2021-06-11 한국로봇융합연구원 Lvc 환경의 재난 대응 로봇에 대한 훈련생 훈련 및 평가 시스템
KR102399839B1 (ko) * 2020-11-13 2022-05-19 주식회사 카프마이크로 무인기 통합 제어 플랫폼 및 방법

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011008788A (ja) * 2009-06-25 2011-01-13 Boeing Co:The 仮想制御ステーション
KR101083128B1 (ko) * 2010-05-28 2011-11-11 한국항공우주산업 주식회사 영상기반 무인항공기 비행시험 시스템 및 방법
EP2685336A1 (en) * 2012-07-13 2014-01-15 Honeywell International Inc. Autonomous airspace flight planning and virtual airspace containment system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011008788A (ja) * 2009-06-25 2011-01-13 Boeing Co:The 仮想制御ステーション
KR101083128B1 (ko) * 2010-05-28 2011-11-11 한국항공우주산업 주식회사 영상기반 무인항공기 비행시험 시스템 및 방법
EP2685336A1 (en) * 2012-07-13 2014-01-15 Honeywell International Inc. Autonomous airspace flight planning and virtual airspace containment system

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160125591A (ko) * 2015-04-21 2016-11-01 경상대학교산학협력단 무인비행체 기반 실시간 데이터 통합 시현 방법
KR101693319B1 (ko) * 2015-04-21 2017-01-09 경상대학교산학협력단 무인비행체 기반 실시간 데이터 통합 시현 방법
KR20170025271A (ko) * 2015-08-28 2017-03-08 전자부품연구원 비행 시뮬레이션 방법
KR102186862B1 (ko) * 2015-08-28 2020-12-04 한국전자기술연구원 비행 시뮬레이션 방법
KR101797208B1 (ko) * 2015-09-07 2017-11-13 한국항공대학교산학협력단 L-v-c 운용 시스템, 이를 이용한 무인기 훈련/실험 방법
KR101840820B1 (ko) * 2016-09-28 2018-03-22 주식회사 빅스 무인 비행체의 3차원 증강 현실 비행 영상을 생성하는 방법 및 서버
CN110006826A (zh) * 2018-01-04 2019-07-12 中国科学院遥感与数字地球研究所 水体透明度测量方法及装置
KR20210069554A (ko) 2019-12-03 2021-06-11 한국로봇융합연구원 Lvc 환경의 재난 대응 로봇에 대한 훈련생 테스트 및 평가 장치
KR20210069555A (ko) 2019-12-03 2021-06-11 한국로봇융합연구원 Lvc 환경의 재난 대응 로봇에 대한 훈련생 훈련 및 평가 시스템
KR102399839B1 (ko) * 2020-11-13 2022-05-19 주식회사 카프마이크로 무인기 통합 제어 플랫폼 및 방법
WO2022102915A1 (ko) * 2020-11-13 2022-05-19 주식회사 카프마이크로 무인기 통합 제어 플랫폼 및 방법

Similar Documents

Publication Publication Date Title
KR101408077B1 (ko) 가상 영상을 이용한 무인기 조종 장치 및 방법
US11217112B2 (en) System and method for supporting simulated movement
CN107077113B (zh) 无人飞行器飞行显示
US7605774B1 (en) Enhanced vision system (EVS) processing window tied to flight path
US10678238B2 (en) Modified-reality device and method for operating a modified-reality device
US20140008496A1 (en) Using handheld device to control flying object
EP3125213B1 (en) Onboard aircraft systems and methods to identify moving landing platforms
US10474152B2 (en) Path-based flight maneuvering system
JP4012749B2 (ja) 遠隔操縦システム
EP3060966A1 (en) Systems and methods for target tracking
US20160176541A1 (en) Aircraft Flight Control
US10818091B2 (en) Visualization system for an aircraft using LIDAR point cloud model
US20220014675A1 (en) Unmanned aerial vehicle with virtual un-zoomed imaging
US11874674B2 (en) Vehicle control and interface system
US20230333552A1 (en) Methods and systems for human-in-the-loop vehicular command and control using immersive synthetic vision
KR101437747B1 (ko) 영상 처리 장치 및 방법
WO2020110292A1 (ja) 表示制御システム、表示制御装置及び表示制御方法
EP2846134B1 (en) Helicopter system and method for integrating collective flight director cues
US11262749B2 (en) Vehicle control system
US20170140657A1 (en) Augmented reality to display flight data and locate and control an aerial vehicle in real time
WO2020105147A1 (ja) 飛行経路案内システム、飛行経路案内装置及び飛行経路案内方法
US20240053770A1 (en) Vehicle control loops and interfaces
KR20190113253A (ko) 터치 방식을 이용해 다수 드론에 다중임무를 부여하는 지상 제어 시스템
JPWO2020110293A1 (ja) 表示制御システム、表示制御装置及び表示制御方法
Sedlmajer et al. Effective Remote Drone Control using Augmented Virtuality.

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant