KR20180047055A - 정밀 착륙 유도 장치 및 방법 - Google Patents

정밀 착륙 유도 장치 및 방법 Download PDF

Info

Publication number
KR20180047055A
KR20180047055A KR1020160142706A KR20160142706A KR20180047055A KR 20180047055 A KR20180047055 A KR 20180047055A KR 1020160142706 A KR1020160142706 A KR 1020160142706A KR 20160142706 A KR20160142706 A KR 20160142706A KR 20180047055 A KR20180047055 A KR 20180047055A
Authority
KR
South Korea
Prior art keywords
distance
landing
markers
landing point
sensor
Prior art date
Application number
KR1020160142706A
Other languages
English (en)
Other versions
KR101872609B1 (ko
Inventor
문성태
최연주
김도윤
공현철
Original Assignee
한국항공우주연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국항공우주연구원 filed Critical 한국항공우주연구원
Priority to KR1020160142706A priority Critical patent/KR101872609B1/ko
Publication of KR20180047055A publication Critical patent/KR20180047055A/ko
Application granted granted Critical
Publication of KR101872609B1 publication Critical patent/KR101872609B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D45/00Aircraft indicators or protectors not otherwise provided for
    • B64D45/04Landing aids; Safety measures to prevent collision with earth's surface
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/08Arrangements of cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64FGROUND OR AIRCRAFT-CARRIER-DECK INSTALLATIONS SPECIALLY ADAPTED FOR USE IN CONNECTION WITH AIRCRAFT; DESIGNING, MANUFACTURING, ASSEMBLING, CLEANING, MAINTAINING OR REPAIRING AIRCRAFT, NOT OTHERWISE PROVIDED FOR; HANDLING, TRANSPORTING, TESTING OR INSPECTING AIRCRAFT COMPONENTS, NOT OTHERWISE PROVIDED FOR
    • B64F1/00Ground or aircraft-carrier-deck installations
    • B64F1/18Visual or acoustic landing aids
    • B64F1/20Arrangement of optical beacons
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U70/00Launching, take-off or landing arrangements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/13Receivers
    • G01S19/14Receivers specially adapted for specific applications
    • G01S19/15Aircraft landing systems
    • B64C2201/145
    • B64C2201/18
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D2203/00Aircraft or airfield lights using LEDs
    • B64D2700/62184
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/10UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
    • B64U2201/104UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS] using satellite radio beacon positioning systems, e.g. GPS

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Acoustics & Sound (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Abstract

정밀 위치 인식에 기반하여 정밀 착륙을 수행하도록 유도하는 정밀 착륙 유도 장치가 제공된다. 상기 장치는: 착륙 지점으로부터 미리 지정된 제1 거리 이내로 진입하면, 초광대역(Ultra Wide Band) 센서 및 라이다(LiDAR) 센서 중 적어도 하나를 이용하여 진행 방향을 탐색하는 탐색부, 및 상기 탐색된 진행 방향에 기초하여 방향 전환 및 회전하면서 상기 착륙 지점의 중앙부분에 부착된 복수 개의 마커를 영상 인식하여 지정된 위치에 착륙하도록 제어하는 제어부를 포함할 수 있다.

Description

정밀 착륙 유도 장치 및 방법{APPARATUS AND METHOD FOR PRECISION LANDING GUIDANCE}
무인항공기의 정밀 착륙을 유도하는 기술에 연관되며, 보다 상세하게는 정밀 위치 인식에 기반하여 정밀 착륙을 수행하도록 유도하는 장치 및 제어 방법에 연관된다.
군사용 목적으로 연구되기 시작된 무인항공기(Unmanned Aerial Vehicle; UAV)는 최근 들어 민간분야로까지 적용이 확대되고 있다. 초기의 무인기는 적 기지에 투입되어 정찰 및 정보수집 용도로 주로 사용되다가 원격탐지장치나 위성제어장치와 같은 최첨단 장비를 갖추어 사람의 접근이 어려운 곳이나 위험한 지역으로까지 그 활용 영역이 점차 확대되었고, 최근에는 배송, 촬영, 통신 등 다양한 분야에서 활발히 사용되고 있다.
일반적으로, 배송, 촬영, 통신과 같은 민간분야에는 위성항법시스템(Global Positioning System; GPS)을 이용하여 목적지까지 찾아가는 자동비행 드론이 이용된다. GPS는 3개의 인공위성이 보내는 전파를 받아 삼변측량법으로 지구상 위치를 계산하는데, 위성의 위치에 따라 5~10m의 오차가 발생할 수 있다. 이러한 GPS를 이용하는 경우 드론이 비행하는 데에는 크게 문제가 없으나, 오차범위가 비교적 큰 값이어서 특정한 정밀 위치를 인식하여 착륙을 수행하기에는 무리가 있다.
일측에 따르면, 정밀 위치 인식에 기반하여 정밀 착륙을 수행하도록 유도하는 정밀 착륙 유도 장치가 제공된다. 상기 장치는: 착륙 지점으로부터 미리 지정된 제1 거리 이내로 진입하면, 초광대역(Ultra Wide Band) 센서 및 라이다(LiDAR) 센서 중 적어도 하나를 이용하여 진행 방향을 탐색하는 탐색부, 및 상기 탐색된 진행 방향에 기초하여 방향 전환 및 회전하면서 상기 착륙 지점의 중앙부분에 부착된 복수 개의 마커를 영상 인식하여 지정된 위치에 착륙하도록 제어하는 제어부를 포함할 수 있다.
일실시예에 따르면, 상기 제1 거리는 상기 착륙 지점으로부터 GPS 신호의 오차 거리에 대응하며, 상기 제어부는 상기 제1 거리 진입 전까지는 상기 착륙 지점에 연관되는 GPS 신호에 기초하여 주행하도록 제어할 수 있다.
일실시예에 따르면, 상기 탐색부는: 상기 제1 거리 내로 진입한 후 진입 방향을 유지하면서 일정거리 이동한 위치에서 상기 착륙 지점까지의 제2 거리에 관한 정보를 상기 초광대역 센서로부터 획득하고, 상기 제2 거리가 상기 제1 거리보다 작아지도록 상기 진행 방향을 탐색할 수 있다.
이 때, 상기 탐색부는: 상기 초광대역 센서가 상기 착륙 지점의 적어도 어느 한 측에 부착된 제2 초광대역 센서와의 통신을 통해 상기 제2 거리에 관한 정보를 측정 및 획득할 수 있다.
또한, 상기 탐색부는: 상기 라이다 센서가 획득한 상기 제2 거리에서의 고도정보를 이용하여 상기 진행 방향을 설정할 수 있다.
일실시예에 따르면, 상기 제어부는: 상기 방향 전환 및 회전 결과 상기 착륙 지점으로부터의 거리가 미리 지정된 제3 거리 이내로 진입하면, 카메라를 이용하여 상기 복수 개의 마커에 대한 영상 인식을 수행할 수 있다.
여기서, 복수 개의 마커는 각각 할당된 고유번호를 통해 구분되며, 방향 식별 마커 및 오동작 검사 마커를 포함한다.
일실시예에 따르면, 상기 복수 개의 마커는 흑 또는 백으로 각각 채색되고, 상기 제어부는 상기 복수 개의 마커의 채색 조합 모양에 의한 패턴 인식을 이용하여 상기 영상 인식을 수행할 수 있다.
또한, 상기 복수 개의 마커는, LED를 각각 포함하고, 상기 제어부는 상기 LED의 깜빡임에 대한 패턴 인식을 이용하여 상기 영상 인식을 수행할 수도 있다.
다른 일측에 따르면, 정밀 위치 인식에 기반하여 정밀 착륙을 수행하도록 유도하는 정밀 착륙 유도 방법이 제공된다. 상기 방법은: 착륙 지점으로부터 미리 지정된 제1 거리 이내로 진입하면, 초광대역(Ultra Wide Band) 센서 및 라이다(LiDAR) 센서 중 적어도 하나를 이용하여 진행 방향을 탐색하는 단계와, 상기 탐색된 진행 방향에 기초하여 방향 전환 및 회전하면서 상기 착륙 지점에 접근하도록 제어하는 단계, 및 상기 착륙 지점의 중앙부분에 부착된 복수 개의 마커를 영상 인식하여 지정된 위치에 착륙하도록 제어하는 단계를 포함할 수 있다.
일실시예에 따르면, 상기 제1 거리 진입 전까지는 상기 착륙 지점에 연관되는 GPS 신호에 기초하여 주행하도록 제어하는 단계를 더 포함하며, 상기 제1 거리는, 상기 착륙 지점으로부터 GPS 신호의 오차 거리에 대응할 수 있다.
일실시예에 따르면, 상기 진행 방향을 탐색하는 단계는: 상기 제1 거리 내로 진입한 후 진입 방향을 유지하면서 일정거리 이동한 위치에서 상기 착륙 지점까지의 제2 거리에 관한 정보를 상기 초광대역 센서로부터 획득하고, 상기 제2 거리가 상기 제1 거리보다 작아지도록 상기 진행 방향을 탐색한다.
또한, 상기 진행 방향을 탐색하는 단계는: 상기 초광대역 센서가 상기 착륙 지점의 적어도 어느 한 측에 부착된 제2 초광대역 센서와의 통신을 통해 측정 및 획득한 상기 제2 거리에 관한 정보와, 상기 라이다 센서가 획득한 상기 제2 거리에서의 고도정보를 이용하여 상기 진행 방향을 설정할 수 있다.
일실시예에 따르면, 상기 지정된 위치에 착륙하도록 제어하는 단계는: 상기 방향 전환 및 회전 결과 상기 착륙 지점으로부터의 거리가 미리 지정된 제3 거리 이내로 진입하면, 카메라를 이용하여 상기 복수 개의 마커에 대한 영상 인식을 수행한다.
이 때, 흑 또는 백으로 각각 채색된 상기 복수 개의 마커의 채색 조합 모양에 의한 패턴 인식을 이용하여 상기 영상 인식을 수행할 수 있다.
또한, 상기 복수 개의 마커에 포함된 LED의 깜빡임에 대한 패턴 인식을 이용하여 상기 영상 인식을 수행할 수도 있다.
도 1은 일실시예에 따른 정밀 착륙 유도 방식의 개념을 설명하는 도면이다.
도 2는 일실시예에 따른 정밀 착륙 유도 장치를 도시하는 블록도이다.
도 3은 일실시예에 따라 무인 비행체의 정밀 착륙을 위해 착륙 지점에 설치되는 장비를 설명하는 도면이다.
도 4는 일실시예에 따라 무인 비행체에 구비되는 센서의 구성을 나타내는 도면이다.
도 5는 일실시예에 따라 UWB 및 LiDAR를 이용하여 정밀 위치를 인식하는 과정을 설명하는 도면이다.
도 6은 일실시예에 따른 정밀 착륙 유도 방법을 도시하는 흐름도이다.
본 명세서에 개시되어 있는 본 발명의 개념에 따른 실시예들에 대해서 특정한 구조적 또는 기능적 설명들은 단지 본 발명의 개념에 따른 실시예들을 설명하기 위한 목적으로 예시된 것으로서, 본 발명의 개념에 따른 실시예들은 다양한 형태로 실시될 수 있으며 본 명세서에 설명된 실시예들에 한정되지 않는다.
본 발명의 개념에 따른 실시예들은 다양한 변경들을 가할 수 있고 여러 가지 형태들을 가질 수 있으므로 실시예들을 도면에 예시하고 본 명세서에 상세하게 설명하고자 한다. 그러나, 이는 본 발명의 개념에 따른 실시예들을 특정한 개시형태들에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 변경, 균등물, 또는 대체물을 포함한다.
제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만, 예를 들어 본 발명의 개념에 따른 권리 범위로부터 이탈되지 않은 채, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 표현들, 예를 들어 "~사이에"와 "바로~사이에" 또는 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.
본 명세서에서 사용한 용어는 단지 특정한 실시예들을 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 그러나, 특허출원의 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.
도 1은 일실시예에 따른 정밀 착륙 유도 방식의 개념을 설명하는 도면이다.
일반적으로 배송, 촬영, 통신 등의 민간분야에 사용되는 자동비행 드론은 GPS 위경도 정보를 이용하여 목적지까지 이동한다. 다만, GPS의 경우, 위성의 시간 오차, 위성의 궤도 오차, 대기권의 전파지연, 수신기에서 발생하는 전자파적 잡음(Noise)이나 전파의 다중경로(Multipath)와 같은 구조적 요인에 의한 거리오차와, 위성의 배치 상황에 따른 기하학적 오차 등으로 인해 정밀성이 떨어지는 문제가 있다. 이러한 한계를 보완하는 취지에서, 드론이 목적지로부터 GPS 오차 범위 거리(이를 테면, 10m)까지는 GPS 위경도 정보를 이용하여 비행하다가 오차 범위 거리 이내에서는 UWB(Ultra Wide Band) 및 LiDAR(Light Detection And Ranging) 신호를 이용하여 정밀 위치를 인식하는 방식을 적용할 수 있다.
UWB는 IEEE 802.15.4a 기반의 초정밀 위치 측위 기술로서 기존 측위 기술의 오차범위(5~10m)에 비해 개선된 오차범위(1m 이내)를 제공하여 정밀도를 높일 수 있다. 다만, UWB의 경우, 수평 거리에 관한 정밀도는 향상되지만, 수직 거리에 관한 오차는 여전히 개선되지 않는다는 문제가 있다. 반면에, LiDAR는 드론으로부터 지상으로 레이저 펄스를 송신하여 반사파의 속도 및 강도를 측정함으로써 거리를 측정하는데, 수직 거리의 정확도에 비해 수평 거리의 정확도가 떨어진다. 따라서, 정밀 위치 인식 과정에서 수평 거리는 UWB를 이용하여 획득한 정보를 이용하고, 수직 거리는 LiDAR를 이용하여 획득한 정보를 이용하여, 수평 거리 및 수직 거리 모두에 대해 정밀도를 높일 수 있다.
또한, 드론이 UWB 및 LiDAR의 오차 범위 거리 이내로 진입한 이후에는 목적지에 미리 설치된 마커를 이용하여 지정된 정밀한 위치로 착륙하도록 할 수 있다. 이 경우, 드론에 구비된 카메라를 통해 목적지의 마커를 영상 인식하여, 보다 정밀한 위치로 드론을 유도한다. 목적지에 미리 설치된 마커는 QR 코드와 같이 상기 목적지를 나타내는 특정 패턴으로 구성되거나, 불빛의 깜빡임을 신호화하여 인식하도록 하는 LED로 구성될 수 있다.
도 1에서, 드론(100)이 목적 위치(131)로의 비행 시 상기 목적 위치(131)로부터 GPS 오차 범위인 10m 거리에 있는 위치까지는 GPS의 위경도 정보를 이용하여 비행한다(110). 상기 목적 위치(131)에서 10m 거리 이내로 진입하게 되면 GPS의 정확성이 떨어지므로, 보다 정밀한 위치 인식이 가능한 UWB 및 LiDAR를 이용하여 드론(100)의 진행 방향을 탐색한다(120). 이 때, UWB는 드론(100)의 현재 위치에서 목적 위치(131)까지의 수평 거리를 측정하는 데 이용되고, LiDAR는 목적 위치(131)까지의 수직 거리를 측정하는 데 이용된다. UWB 및 LiDAR를 이용하여 각각 획득한 수평 거리 정보 및 수직 거리 정보에 기초하여 목적 위치(131)에 대한 보다 정밀한 위치 확인이 수행될 수 있으며, 이를 기반으로 드론(100)의 정밀 착륙을 위한 진행 방향을 탐색할 수 있다. 이 결과, 드론(100)이 목적 위치(131)로부터 1m 이내의 거리에 있는 위치로 진입하면, 드론(100)에 구비된 카메라가 상기 목적 위치(131)에 미리 설치된 마커를 영상 인식하여 지정된 위치에 정확하게 착륙하도록 한다(130).
도 2는 일실시예에 따른 정밀 착륙 유도 장치(200)를 도시하는 블록도이다.
정밀 착륙 유도 장치(200)는 정밀 위치 인식에 기반하여 정밀 착륙을 수행하도록 제어하는 수단으로, 드론과 같은 무인 비행체가 GPS 정보를 이용하여 목적지로 이동하다가 GPS의 오차범위 거리에 진입하면 UWB, LiDAR 및 마커를 이용하여 정밀 위치를 인식하여 정밀 착륙을 수행하도록 함으로써, 드론이 목적지로 비행하는 과정에서 일반적으로 이용되는 GPS의 오차에 의해 정밀성이 떨어지는 문제점을 보완할 수 있다. 상기 정밀 착륙 유도 장치(200)는 탐색부(210) 및 제어부(220)를 포함할 수 있다.
먼저, 탐색부(210)는 비행체가 착륙 지점으로부터 미리 지정된 제1 거리 이내로 진입하면, 초광대역(UWB) 센서 및 라이다(LiDAR) 센서 중 적어도 하나를 이용하여 진행 방향을 탐색할 수 있다. 여기서, 상기 제1 거리는 상기 착륙 지점을 기준으로 GPS의 오차 범위 거리(이를 테면, 10m)에 대응하는 위치를 나타내며, 상기 제1 거리 진입 전까지는 상기 비행체가 상기 착륙 지점에 연관되는 GPS 신호에 기초하여 제어된다.
탐색부(210)는 상기 비행체가 상기 제1 거리 내로 진입한 후 진입 방향을 유지하면서 일정거리 이동한 위치에서 상기 착륙 지점까지의 제2 거리에 관한 정보를 상기 초광대역 센서로부터 획득하고, 상기 제2 거리가 상기 제1 거리보다 작아지도록 상기 진행 방향을 탐색할 수 있다. 이 때, 상기 탐색부(210)는 상기 초광대역 센서가 상기 착륙 지점의 적어도 어느 한 측에 부착된 제2 초광대역 센서와의 통신을 통해 상기 제2 거리에 관한 정보를 측정 및 획득한다. 또한, 상기 탐색부(210)는 상기 라이다 센서가 획득한 상기 제2 거리에서의 고도 정보를 추가적으로 고려하여 상기 진행 방향을 설정할 수도 있다.
제어부(220)는 상기 탐색된 진행 방향에 기초하여 방향 전환 및 회전하면서 상기 착륙 지점의 중앙부분에 부착된 복수 개의 마커를 영상 인식하여, 상기 비행체가 지정된 위치에 착륙하도록 제어할 수 있다. 상기 제어부(220)는 상기 방향 전환 및 회전 결과 상기 착륙 지점으로부터의 거리가 미리 지정된 제3 거리 이내로 진입하면, 상기 비행체에 구비된 카메라를 이용하여 상기 복수 개의 마커에 대한 영상 인식을 수행한다. 상기 제3 거리는 상기 착륙 지점을 기준으로 UWB의 오차 범위를 고려하여 설정될 수 있다.
상기 착륙 지점에 미리 설치되는 복수 개의 마커는 마커 각각에 할당되는 고유번호를 통해 구분되고, 이 중 방향 식별 용도로 사용되는 마커와 오동작 검사 용도로 사용되는 마커가 포함될 수 있다. 상기 복수 개의 마커는 각각 흑 또는 백으로 채색될 수 있으며, 일정 고도에서 보았을 때 QR 코드와 같은 형태로 구성될 수 있다. 이 경우 제어부(220)는 상기 복수 개의 마커의 채색 조합 모양에 의한 패턴 인식을 이용하여 상기 영상 인식을 수행한다. 또한, 상기 복수 개의 마커는 각각 LED를 포함하도록 구현될 수 있으며, 이 경우 제어부(220)는 상기 LED의 깜빡임에 대한 패턴 인식을 이용하여 상기 영상 인식을 수행할 수 있다. 이 때, 상기 제어부(220)는 LED의 온/오프 형태를 영상으로 인식하거나 LED의 깜빡임을 모스부호와 같은 패턴으로 인식할 수 있으며, 이러한 LED 패턴 인식은 일몰 이후의 시간에 활용 가능하다.
정밀 착륙 유도 장치(200)는 비행체가 착륙 목적 지점으로부터 GPS 오차 범위 거리에 도달하기 전까지는 일반적인 비행 방식과 같이 GPS 위경도 정보를 이용하여 비행하되, GPS 오차 범위 거리 내에 진입한 이후에는 GPS에 비해 정밀도가 높은 UWB 및 LiDAR를 이용함으로써 정밀 위치 인식이 가능해지도록 한다. 또한, 비행체가 착륙 목적 지점으로부터 UWB 오차 범위 거리에 도달하면 착륙 목적 지점에 미리 설치된 마커를 이용하여 정밀 착륙을 수행하도록 유도할 수 있다.
도 3은 일실시예에 따라 무인 비행체의 정밀 착륙을 위해 착륙 목적 지점에 설치되는 장비를 설명하는 도면으로, 도 3a는 착륙 목적 지점에 고정적으로 설치되는 장비를, 도 3b는 사용자 이동 시 휴대 가능한 형태의 장비를 각각 도시한다.
무인 비행체가 착륙 목적 지점 부근까지 이동한 후 지정된 위치에 정확히 물건을 배송하거나 정밀 착륙을 수행하기 위해서는, 착륙 목적 지점에 무인 비행체를 유도할 장비가 미리 설치되어 있어야 한다.
도 3a와 같이, 상기 장비(310)는 일정 규격(이를 테면, 2mX2m)의 사각형으로 구성되고, UWB 센서(311), GPS 또는 LTE 장치(312) 및 복수 개의 마커(313)를 포함할 수 있다. UWB 센서(311)는 장비(310)의 각 모서리 부분에 위치하며, 무인 비행체가 상기 착륙 목적 지점에 대해 정밀 위치 인식을 할 수 있도록 한다. GPS 또는 LTE 장치(312)는 장비(310)의 어느 한 측에 위치하여, 상기 무인 비행체가 GPS 위경도 정보를 이용하여 상기 착륙 목적 지점 부근까지 이동하도록 유도한다. 다만, GPS 또는 LTE 장치(312)가 상기 장비(310)에 꼭 구비될 필요는 없고, 이를 대체하여 사용자의 스마트폰이 이용될 수도 있다. GPS나 LTE의 경우 거리 오차가 비교적 크기 때문에, 상기 착륙 목적 지점으로부터 GPS(또는 LTE)의 오차 범위 거리까지는 GPS나 LTE 신호를 이용하여 이동하되, 상기 비행체가 상기 오차 범위 거리 이내에 진입한 이후에는 UWB 신호를 이용하여 정밀 위치 인식이 수행되도록 한다. 상기 장비(310)의 중앙부분에는 복수 개의 마커(313)가 위치한다. 상기 복수 개의 마커(313)는 0 내지 10까지 조합된 2진수 값의 고유번호가 할당된 일반 마커, 상기 장비(310)에 대한 x축 및 y축 방향을 가늠하기 위한 방향 식별 마커(313에서 'a'로 표시된 부분) 및 비행체의 정밀 착륙 과정에서의 오동작 여부를 판단하기 위한 오동작 검사 마커(313에서 'parity'로 표시된 부분)를 포함할 수 있다. 상기 일반 마커에 할당되는 고유번호의 경우, 고정적으로 표시될 수도 있고, 사용자의 설정 시마다 임의의 번호가 설정되도록 할 수도 있다. 도 3a의 장비(310)는 비행체가 이동하고자 하는 목적지의 옥상이나 현관에 설치되며, 접이식으로 제작되어 사용하지 않는 경우에는 도 3a의 우측과 같이 1/4 크기로 접어서 보관할 수 있다.
도 3b는 도 3a의 장비(310)를 축소하여 이동식 장비(320)로 구현한 것으로, 사용자가 이동 시에도 간편하게 휴대할 수 있도록 도 3a의 장비(310)에 비해 작은 규격(이를 테면, 50cmX50cm)으로 구성된다. 또한, 도 3b의 이동식 장비(320)는 도 3a의 장비(310)와 달리, 비행체의 착륙에 필요한 최소한의 모듈만을 포함하며, 중앙부분에 UWB 센서(321) 및 복수 개의 마커(322)가 위치하도록 구성된다. UWB 센서(321)는 비행체가 착륙 목적 지점으로부터 GPS 오차 범위 거리 이내에 진입한 이후 정밀 위치 인식을 수행하도록 하고, 복수 개의 마커(322)는 상기 비행체가 UWB 오차 범위 거리 이내에 진입하면 영상 인식을 통해 정밀 착륙을 수행하도록 유도한다. 이동식 장비(320)는 별도의 GPS 장치를 구비하고 있지 않으므로, 상기 비행체의 이동 과정에서 GPS 신호를 이용하는 경우에는 사용자의 스마트폰이 이용될 수 있다. 상기 복수 개의 마커(322)의 세부 구성은 도 3a의 마커(313)과 동일하다. 상기 이동식 장비(320)는 도 3a의 장비(310)와 마찬가지로, 접이식으로 제작되어 사용하지 않는 경우에는 도 3b 우측과 같이 1/4 크기로 접어서 휴대 가능하다.
도 3a 및 도 3b에 도시된 복수 개의 마커(313, 322)에 대한 영상 인식은 다양한 방식으로 수행될 수 있다. 이를 테면, 복수 개의 마커(313, 322) 각각이 흑 또는 백으로 채색되어, 일정 고도에서 보았을 때 QR 코드와 같은 형태로 구성될 수 있으며, 비행체에 구비된 카메라가 상기 복수 개의 마커의 채색 조합 모양에 의한 패턴을 영상 인식하는 방식으로 수행된다. 또한, 다른 실시예에 의해, 상기 복수 개의 마커는 각각 LED를 포함하도록 구현될 수 있고, 비행체에 구비된 카메라가 LED의 온/오프 형태를 영상으로 인식하거나 LED의 깜빡임을 모스부호와 같은 패턴으로 인식하는 방식도 가능하다.
도 4는 일실시예에 따라 무인 비행체에 구비되는 센서의 구성을 나타내는 도면이다.
도 4를 참조하면, 비행체가 착륙 목적 지점에 대해 정밀 위치 인식 및 정밀 착륙을 수행하기 위해서는 UWB(410), LiDAR(420) 및 카메라(430)를 구비하여야 한다. 상기 비행체는 착륙 목적 지점의 GPS 위경도 정보를 기반으로 비행하다가 상기 착륙 목적 지점으로부터 GPS 오차 범위 거리 이내에 진입한 이후부터는 UWB 신호를 이용하여 정밀 위치 인식을 수행하게 된다. 다만, UWB는 수평 거리의 정밀 도에 비해, 수직 거리의 정밀도가 떨어지는 문제가 있으므로, 정밀 위치 인식 과정에서 수평 거리에 대해서는 UWB(410)를 이용하여 획득한 정보를 이용하되, 수직 거리에 대해서는 LiDAR(420)를 이용하여 획득한 정보를 이용함으로써, 수평 거리 및 수직 거리 모두에 대해 정밀도를 높일 수 있다.
또한, 상기 비행체가 상기 착륙 목적 지점으로부터 UWB 오차 범위 거리 이내로 진입한 이후에는 카메라(430)를 이용하여 상기 착륙 목적 지점을 영상 인식하는 방식으로 정밀 착륙을 수행할 수 있다. 이를 위해, 상기 착륙 목적 지점에는 상기 비행체의 착륙을 유도하기 위한 마커가 미리 설치되는데, 상기 마커는 QR 코드와 같이 상기 목적지를 나타내는 특정 패턴으로 구성되거나, 불빛의 깜빡임을 신호화하여 인식하도록 하는 LED로 구성될 수 있다.
도 5는 일실시예에 따라 UWB 및 LiDAR를 이용하여 정밀 위치를 인식하는 과정을 설명하는 도면이다.
도 5를 참조하면, 비행체(500)는 GPS 위경도 정보를 이용하여 목적 지점(530)의 대략적인 위치까지 이동하다가, 목적 지점(530)을 기준으로 GPS 오차 범위인 제1 범위(510) 내로 진입하면 UWB 및 LiDAR를 이용한 정밀 위치 인식을 수행하게 된다. 상기 목적 지점(530)으로부터 상기 제1 범위에 대한 반경 R1(511)은 GPS 오차 범위 거리에 대응된다. 상기 비행체(500)가 상기 제1 범위 내로 진입한 후 진입 방향을 유지하면서 일정 거리 D1(512)만큼 이동한 위치에서 상기 착륙 지점까지의 거리 R2(513)를 확인할 수 있는데, R2(513)가 R1(511)보다 작아지면 상기 목적 지점(530)으로 접근하고 있는 것으로 해석 가능하다. 상기 비행체(500)가 R2(513)의 거리에서 이동 가능한 방향은 D2(521) 또는 D2'(523)로 선택 가능한데, D2(521)만큼 이동한 후 확인되는 거리 R3(522)는 이전에 확인된 거리 R2(513)에 비해 감소하는 반면에, D2'(523)만큼 이동한 후 확인되는 거리 R3'(524)는 R2(513)에 비해 증가하기 때문에, 상기 비행체(500)는 D2'(523)이 아닌 D2(521) 방향으로 진행하는 것이 적절하다. 이를 위해, 상기 비행체(500)는 아래 수학식 1과 같은 방향을 가지도록 방향 전환을 수행할 수 있다.
Figure pat00001
또한, 수학식 1을 이용하여 상기 비행체의 진행 방향이 결정되면, 회전에 필요한 각도(θ)는 수학식 2를 통해 계산된다.
Figure pat00002
그 결과, 상기 비행체(500)는 D2'(523)이 아닌 D2(521) 방향으로 방향 전환 및 회전하면서 목적 지점(530)을 향해 비행하게 된다. 상기 제1 범위(510) 진입 후 방향 전환 및 회전 과정은, D2(521) 이동 후 목적 지점(530)으로부터의 거리 R3(522)를 반경으로 하는 제2 범위(520)를 기준으로 다시 수행되며, 방향 전환 및 회전의 반복적 수행을 통해 상기 목적 지점(530)에 점차 근접하도록 진행한다.
도 6은 일실시예에 따른 정밀 착륙 유도 방법을 도시하는 흐름도이다.
정밀 착륙 유도 장치는 드론과 같은 무인 비행체가 GPS 정보를 이용하여 목적지로 이동하다가 GPS의 오차범위 거리에 진입하면 UWB, LiDAR 및 마커를 이용하여 정밀 위치를 인식하여 정밀 착륙을 수행하도록 유도하는 방법을 제공한다.
단계 610에서는, 정밀 착륙 유도 장치의 탐색부가 착륙 지점으로부터 미리 지정된 제1 거리 이내로 진입하면 초광대역(UWB) 센서 및 라이다(LiDAR) 센서 중 적어도 하나를 이용하여 진행 방향을 탐색할 수 있다. 단계 610에 앞서, 상기 제1 거리 진입 전까지는 상기 착륙 지점에 연관되는 GPS 신호에 기초하여 주행하도록 제어된다. 상기 제1 거리는 상기 착륙 지점으로부터 GPS 신호의 오차 거리에 대응한다.
단계 610에서, 상기 탐색부는 상기 비행체가 상기 제1 거리 내로 진입한 후 진입 방향을 유지하면서 일정거리 이동한 위치에서 상기 착륙 지점까지의 제2 거리에 관한 정보를 상기 초광대역 센서로부터 획득하고, 상기 제2 거리가 상기 제1 거리보다 작아지도록 상기 진행 방향을 탐색할 수 있다. 이 때, 상기 탐색부는 상기 초광대역 센서가 상기 착륙 지점의 적어도 어느 한 측에 부착된 제2 초광대역 센서와의 통신을 통해 측정 및 획득한 상기 제2 거리에 관한 정보와, 상기 라이다 센서가 획득한 상기 제2 거리에서의 고도정보를 이용하여 상기 진행 방향을 설정할 수 있다.
단계 620에서는, 정밀 착륙 유도 장치의 제어부가 단계 610에서 탐색된 진행 방향에 기초하여 방향 전환 및 회전하면서 상기 비행체가 착륙 지점에 접근하도록 제어할 수 있다.
단계 630에서는, 상기 제어부가 상기 착륙 지점의 중앙부분에 부착된 복수 개의 마커를 영상 인식하여 지정된 위치에 착륙하도록 제어할 수 있다. 상기 제어부는 단계 620에서 방향 전환 및 회전하여 상기 착륙 지점에 접근한 결과, 상기 착륙 지점으로부터의 거리가 미리 지정된 제3 거리 이내로 진입하면 상기 비행체에 구비된 카메라를 이용하여 상기 복수 개의 마커에 대한 영상 인식을 수행한다. 이 때, 상기 제3 거리는 상기 착륙 지점을 기준으로 UWB의 오차 범위를 고려하여 설정될 수 있다. 상기 착륙 지점에 미리 설치되는 복수 개의 마커는 마커 각각에 할당되는 고유번호를 통해 구분되고, 이 중 방향 식별 용도로 사용되는 마커와 오동작 검사 용도로 사용되는 마커가 포함될 수 있다. 한편, 상기 복수 개의 마커에 대한 영상 인식은 다양한 방식으로 구현 가능하다.
만일, 상기 복수 개의 마커 각각이 흑 또는 백으로 채색되어 QR 코드와 같은 형태로 구성되는 경우, 단계 630에서 상기 제어부는 상기 복수 개의 마커의 채색 조합 모양에 의한 패턴 인식을 이용하여 상기 영상 인식을 수행한다. 일부 실시예에 의해, 상기 복수 개의 마커가 각각 LED를 포함하도록 구현되는 경우 LED의 깜빡임에 대한 패턴 인식을 이용하여 상기 영상 인식을 수행될 수 있으며, 상기 제어부는 단계 630에서 LED의 온/오프 형상을 영상으로 인식하거나 LED의 깜빡임을 모스부호와 같은 패턴으로 인식할 수 있다. 상기 복수 개의 마커의 구성 방식이나 이를 영상 인식하는 내용은 일실시예에 불과하며, 착륙 지점의 지형적 특성이나 비행체의 비행 시간에 따라 다양한 방식으로 구현 가능하다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (17)

  1. 착륙 지점으로부터 미리 지정된 제1 거리 이내로 진입하면, 초광대역(Ultra Wide Band) 센서 및 라이다(LiDAR) 센서 중 적어도 하나를 이용하여 진행 방향을 탐색하는 탐색부; 및
    상기 탐색된 진행 방향에 기초하여 방향 전환 및 회전하면서 상기 착륙 지점의 중앙부분에 부착된 복수 개의 마커를 영상 인식하여 지정된 위치에 착륙하도록 제어하는 제어부
    를 포함하는 정밀 착륙 유도 장치.
  2. 제1항에 있어서,
    상기 제1 거리는, 상기 착륙 지점으로부터 GPS 신호의 오차 거리에 대응하며,
    상기 제어부는, 상기 제1 거리 진입 전까지는 상기 착륙 지점에 연관되는 GPS 신호에 기초하여 주행하도록 제어하는 정밀 착륙 유도 장치.
  3. 제1항에 있어서,
    상기 탐색부는,
    상기 제1 거리 내로 진입한 후 진입 방향을 유지하면서 일정거리 이동한 위치에서 상기 착륙 지점까지의 제2 거리에 관한 정보를 상기 초광대역 센서로부터 획득하고, 상기 제2 거리가 상기 제1 거리보다 작아지도록 상기 진행 방향을 탐색하는 정밀 착륙 유도 장치.
  4. 제3항에 있어서,
    상기 탐색부는,
    상기 초광대역 센서가 상기 착륙 지점의 적어도 어느 한 측에 부착된 제2 초광대역 센서와의 통신을 통해 상기 제2 거리에 관한 정보를 측정 및 획득하는 정밀 착륙 유도 장치.
  5. 제3항에 있어서,
    상기 탐색부는,
    상기 라이다 센서가 획득한 상기 제2 거리에서의 고도정보를 이용하여 상기 진행 방향을 설정하는 정밀 착륙 유도 장치.
  6. 제1항에 있어서,
    상기 제어부는,
    상기 방향 전환 및 회전 결과 상기 착륙 지점으로부터의 거리가 미리 지정된 제3 거리 이내로 진입하면, 카메라를 이용하여 상기 복수 개의 마커에 대한 영상 인식을 수행하는 정밀 착륙 유도 장치.
  7. 제6항에 있어서,
    상기 복수 개의 마커는 각각 할당된 고유번호를 통해 구분되며, 방향 식별 마커 및 오동작 검사 마커를 포함하는 정밀 착륙 유도 장치.
  8. 제7항에 있어서,
    상기 복수 개의 마커는, 흑 또는 백으로 각각 채색되고,
    상기 제어부는, 상기 복수 개의 마커의 채색 조합 모양에 의한 패턴 인식을 이용하여 상기 영상 인식을 수행하는 정밀 착륙 유도 장치.
  9. 제7항에 있어서,
    상기 복수 개의 마커는, LED를 각각 포함하고,
    상기 제어부는, 상기 LED의 깜빡임에 대한 패턴 인식을 이용하여 상기 영상 인식을 수행하는 정밀 착륙 유도 장치.
  10. 착륙 지점으로부터 미리 지정된 제1 거리 이내로 진입하면, 초광대역(Ultra Wide Band) 센서 및 라이다(LiDAR) 센서 중 적어도 하나를 이용하여 진행 방향을 탐색하는 단계;
    상기 탐색된 진행 방향에 기초하여 방향 전환 및 회전하면서 상기 착륙 지점에 접근하도록 제어하는 단계; 및
    상기 착륙 지점의 중앙부분에 부착된 복수 개의 마커를 영상 인식하여 지정된 위치에 착륙하도록 제어하는 단계
    를 포함하는 정밀 착륙 유도 방법.
  11. 제10항에 있어서,
    상기 제1 거리 진입 전까지는 상기 착륙 지점에 연관되는 GPS 신호에 기초하여 주행하도록 제어하는 단계를 더 포함하며,
    상기 제1 거리는, 상기 착륙 지점으로부터 GPS 신호의 오차 거리에 대응하는 정밀 착륙 유도 방법.
  12. 제10항에 있어서,
    상기 진행 방향을 탐색하는 단계는,
    상기 제1 거리 내로 진입한 후 진입 방향을 유지하면서 일정거리 이동한 위치에서 상기 착륙 지점까지의 제2 거리에 관한 정보를 상기 초광대역 센서로부터 획득하고, 상기 제2 거리가 상기 제1 거리보다 작아지도록 상기 진행 방향을 탐색하는 정밀 착륙 유도 방법.
  13. 제12항에 있어서,
    상기 진행 방향을 탐색하는 단계는,
    상기 초광대역 센서가 상기 착륙 지점의 적어도 어느 한 측에 부착된 제2 초광대역 센서와의 통신을 통해 측정 및 획득한 상기 제2 거리에 관한 정보와, 상기 라이다 센서가 획득한 상기 제2 거리에서의 고도정보를 이용하여 상기 진행 방향을 설정하는 정밀 착륙 유도 방법.
  14. 제10항에 있어서,
    상기 지정된 위치에 착륙하도록 제어하는 단계는,
    상기 방향 전환 및 회전 결과 상기 착륙 지점으로부터의 거리가 미리 지정된 제3 거리 이내로 진입하면, 카메라를 이용하여 상기 복수 개의 마커에 대한 영상 인식을 수행하는 정밀 착륙 유도 방법.
  15. 제14항에 있어서,
    흑 또는 백으로 각각 채색된 상기 복수 개의 마커의 채색 조합 모양에 의한 패턴 인식을 이용하여 상기 영상 인식을 수행하는 정밀 착륙 유도 방법.
  16. 제14항에 있어서,
    상기 복수 개의 마커에 포함된 LED의 깜빡임에 대한 패턴 인식을 이용하여 상기 영상 인식을 수행하는 정밀 착륙 유도 방법.
  17. 기록매체에 저장되는 정밀 착륙 유도를 위한 프로그램으로서, 상기 프로그램은 컴퓨팅 시스템에서 실행되는:
    착륙 지점으로부터 미리 지정된 제1 거리 이내로 진입하면, 초광대역(Ultra Wide Band) 센서 및 라이다(LiDAR) 센서 중 적어도 하나를 이용하여 진행 방향을 탐색하는 명령어 세트;
    상기 탐색된 진행 방향에 기초하여 방향 전환 및 회전하면서 상기 착륙 지점에 접근하도록 제어하는 명령어 세트; 및
    상기 착륙 지점의 중앙부분에 부착된 복수 개의 마커를 영상 인식하여 지정된 위치에 착륙하도록 제어하는 명령어 세트
    를 수록하는 정밀 착륙 유도 프로그램.
KR1020160142706A 2016-10-31 2016-10-31 정밀 착륙 유도 장치 및 방법 KR101872609B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160142706A KR101872609B1 (ko) 2016-10-31 2016-10-31 정밀 착륙 유도 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160142706A KR101872609B1 (ko) 2016-10-31 2016-10-31 정밀 착륙 유도 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20180047055A true KR20180047055A (ko) 2018-05-10
KR101872609B1 KR101872609B1 (ko) 2018-06-28

Family

ID=62184896

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160142706A KR101872609B1 (ko) 2016-10-31 2016-10-31 정밀 착륙 유도 장치 및 방법

Country Status (1)

Country Link
KR (1) KR101872609B1 (ko)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108802713A (zh) * 2018-06-01 2018-11-13 郑州联睿电子科技有限公司 单基站无人机定位系统及降落导引方法
CN110745252A (zh) * 2018-07-23 2020-02-04 上海峰飞航空科技有限公司 用于无人驾驶飞行器的着陆平台、方法和充电系统
WO2021015325A1 (ko) * 2019-07-23 2021-01-28 엘지전자 주식회사 무인 항공 시스템에서 스테이션 인식을 통한 무인 항공 로봇 착륙 방법 및 이를 지원하기 위한 장치
KR20210097887A (ko) * 2020-01-31 2021-08-10 주식회사 로보프렌레스큐 드론 착륙 제어 시스템 및 그 착륙 제어 방법
KR102323935B1 (ko) * 2021-04-23 2021-11-09 한화시스템(주) Uwb 기반 비행체 착륙 유도장치 및 그 방법
KR102340192B1 (ko) * 2021-06-04 2021-12-17 한화시스템 주식회사 초광대역 센서 기반의 착륙 제어 시스템 및 방법
KR20220120080A (ko) * 2021-02-23 2022-08-30 주식회사 베이리스 표식을 구비한 드론 착륙장 및 그 착륙장에의 착륙 방법
KR102466484B1 (ko) * 2022-03-23 2022-11-11 한화시스템 주식회사 정찰 시스템 및 정찰 시스템의 운용 방법
KR20230016730A (ko) * 2021-07-26 2023-02-03 주식회사 제이슨랩 착륙지점에 드론이 정밀하게 착륙할 수 있도록 유도하는 자동착륙 시스템

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102059182B1 (ko) 2019-03-25 2019-12-24 (주)에프디크리에이트 드론 위치 측정 장치

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012232654A (ja) * 2011-04-28 2012-11-29 Topcon Corp 離着陸ターゲット装置及び自動離着陸システム
KR20130122715A (ko) * 2013-10-21 2013-11-08 한국항공우주연구원 수직무인이착륙 비행체의 충전 및 격납을 위한 운송체 및 그 방법
KR20160102844A (ko) * 2015-02-23 2016-08-31 한남대학교 산학협력단 멀티콥터 착륙 가이드 시스템 및 방법
KR101668643B1 (ko) * 2015-06-23 2016-10-24 유콘시스템 주식회사 시선각 장치가 환형으로 회전가능한 구형의 무인항공기

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012232654A (ja) * 2011-04-28 2012-11-29 Topcon Corp 離着陸ターゲット装置及び自動離着陸システム
KR20130122715A (ko) * 2013-10-21 2013-11-08 한국항공우주연구원 수직무인이착륙 비행체의 충전 및 격납을 위한 운송체 및 그 방법
KR20160102844A (ko) * 2015-02-23 2016-08-31 한남대학교 산학협력단 멀티콥터 착륙 가이드 시스템 및 방법
KR101668643B1 (ko) * 2015-06-23 2016-10-24 유콘시스템 주식회사 시선각 장치가 환형으로 회전가능한 구형의 무인항공기

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108802713A (zh) * 2018-06-01 2018-11-13 郑州联睿电子科技有限公司 单基站无人机定位系统及降落导引方法
CN110745252A (zh) * 2018-07-23 2020-02-04 上海峰飞航空科技有限公司 用于无人驾驶飞行器的着陆平台、方法和充电系统
WO2021015325A1 (ko) * 2019-07-23 2021-01-28 엘지전자 주식회사 무인 항공 시스템에서 스테이션 인식을 통한 무인 항공 로봇 착륙 방법 및 이를 지원하기 위한 장치
US11492110B2 (en) 2019-07-23 2022-11-08 Lg Electronics Inc. Method of landing unmanned aerial robot through station recognition in unmanned aerial system and device supporting the same
KR20210097887A (ko) * 2020-01-31 2021-08-10 주식회사 로보프렌레스큐 드론 착륙 제어 시스템 및 그 착륙 제어 방법
KR20220120080A (ko) * 2021-02-23 2022-08-30 주식회사 베이리스 표식을 구비한 드론 착륙장 및 그 착륙장에의 착륙 방법
KR102323935B1 (ko) * 2021-04-23 2021-11-09 한화시스템(주) Uwb 기반 비행체 착륙 유도장치 및 그 방법
KR102340192B1 (ko) * 2021-06-04 2021-12-17 한화시스템 주식회사 초광대역 센서 기반의 착륙 제어 시스템 및 방법
KR20230016730A (ko) * 2021-07-26 2023-02-03 주식회사 제이슨랩 착륙지점에 드론이 정밀하게 착륙할 수 있도록 유도하는 자동착륙 시스템
KR102466484B1 (ko) * 2022-03-23 2022-11-11 한화시스템 주식회사 정찰 시스템 및 정찰 시스템의 운용 방법

Also Published As

Publication number Publication date
KR101872609B1 (ko) 2018-06-28

Similar Documents

Publication Publication Date Title
KR101872609B1 (ko) 정밀 착륙 유도 장치 및 방법
CN113597591B (zh) 用于无人飞行器导航的地理基准
US10061027B2 (en) Laser navigation system and method
US11036946B2 (en) Navigation using self-describing fiducials
KR100842104B1 (ko) Ads―b와 영상정보를 이용한 무인항공기의 자동 착륙유도 제어 방법
KR101988212B1 (ko) 무인비행체를 이용한 측량 시스템 및 방법
US9435635B1 (en) System and methods of detecting an intruding object in a relative navigation system
US11204274B2 (en) Ultraviolet sensing apparatus with mirror amplification
KR101798996B1 (ko) 수직 이착륙 무인기의 상대위치 정밀 산출방법 및 그를 이용한 무인기 착륙 안내 시스템
EP3868652B1 (en) Information processing system, information processing method, and program
JP7190699B2 (ja) 飛行システム及び着陸制御方法
KR102088989B1 (ko) 무인 항공기의 착륙 유도 방법 및 그를 위한 장치
KR102290533B1 (ko) 불법 비행 감지 및 대응을 위한 rtk-gps 연동 시스템 및 그 방법
KR102039797B1 (ko) 드론의 착륙 유도 장치 및 방법
US10989797B2 (en) Passive altimeter system for a platform and method thereof
CN106197396A (zh) 一种基于光学信号发射和接收的定位导引系统及方法
KR101537324B1 (ko) 영상기반 비행체 자동 이착륙 유도 시스템
KR101965203B1 (ko) 무인 운송 비행체의 동작 방법
KR20160089132A (ko) 무인항공기의 주행 중 차량 도킹 장치 및 그 방법
CN208459855U (zh) 一种基于激光传导的无人机降落装置
KR102149494B1 (ko) 드론을 이용한 구조물 검사 시스템 및 검사 방법
KR20230083409A (ko) 고밀집 실내 환경에 적합한 무인비행체 위치 결정 시스템
KR102209882B1 (ko) 비행 드론을 통한 구조물 검사 시스템
KR101727254B1 (ko) 항공기 충돌 방지 장치
KR101539065B1 (ko) 광방출기를 이용한 영상기반 비행체 자동 이착륙 유도 방법

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right