KR20200100944A - 무인기 착륙 시스템 - Google Patents

무인기 착륙 시스템 Download PDF

Info

Publication number
KR20200100944A
KR20200100944A KR1020190018944A KR20190018944A KR20200100944A KR 20200100944 A KR20200100944 A KR 20200100944A KR 1020190018944 A KR1020190018944 A KR 1020190018944A KR 20190018944 A KR20190018944 A KR 20190018944A KR 20200100944 A KR20200100944 A KR 20200100944A
Authority
KR
South Korea
Prior art keywords
unmanned aerial
aerial vehicle
server
image data
information
Prior art date
Application number
KR1020190018944A
Other languages
English (en)
Other versions
KR102235589B1 (ko
Inventor
정승호
정승현
Original Assignee
주식회사 아르고스다인
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 아르고스다인 filed Critical 주식회사 아르고스다인
Priority to KR1020190018944A priority Critical patent/KR102235589B1/ko
Priority to PCT/KR2019/008864 priority patent/WO2020171315A1/ko
Priority to US17/413,323 priority patent/US20220009630A1/en
Publication of KR20200100944A publication Critical patent/KR20200100944A/ko
Application granted granted Critical
Publication of KR102235589B1 publication Critical patent/KR102235589B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B7/00Radio transmission systems, i.e. using radiation field
    • H04B7/14Relay systems
    • H04B7/15Active relay systems
    • H04B7/185Space-based or airborne stations; Stations for satellite systems
    • H04B7/18502Airborne stations
    • H04B7/18506Communications with or from aircraft, i.e. aeronautical mobile service
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D45/00Aircraft indicators or protectors not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0016Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement characterised by the operator's input device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0094Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/0202Control of position or course in two dimensions specially adapted to aircraft
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/04Control of altitude or depth
    • G05D1/042Control of altitude or depth specially adapted for aircraft
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0004Transmission of traffic-related information to or from an aircraft
    • G08G5/0013Transmission of traffic-related information to or from an aircraft with a ground station
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0017Arrangements for implementing traffic-related aircraft activities, e.g. arrangements for generating, displaying, acquiring or managing traffic information
    • G08G5/0021Arrangements for implementing traffic-related aircraft activities, e.g. arrangements for generating, displaying, acquiring or managing traffic information located in the aircraft
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0047Navigation or guidance aids for a single aircraft
    • G08G5/0052Navigation or guidance aids for a single aircraft for cruising
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0047Navigation or guidance aids for a single aircraft
    • G08G5/0069Navigation or guidance aids for a single aircraft specially adapted for an unmanned aircraft
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0073Surveillance aids
    • G08G5/0086Surveillance aids for monitoring terrain
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/02Automatic approach or landing aids, i.e. systems in which flight data of incoming planes are processed to provide landing data
    • G08G5/025Navigation or guidance aids
    • B64C2201/146
    • B64C2201/18
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/13Flying platforms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/13Flying platforms
    • B64U10/16Flying platforms with five or more distinct rotor axes, e.g. octocopters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/20Remote controls
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U70/00Launching, take-off or landing arrangements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U70/00Launching, take-off or landing arrangements
    • B64U70/90Launching from or landing on platforms

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Astronomy & Astrophysics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)

Abstract

무인기 착륙시스템이 개시된다. 본 발명의 일 측면에 따르면, 무인기 착륙시스템에 있어서, 서버가 무선단말기로부터 상기 무인기에 구비된 이미지센서의 이미지데이터의 픽셀좌표를 수신하는 단계; 상기 서버가 상기 무인기 상태정보를 바탕으로 하여 상기 픽셀좌표를 상기 무인기의 절대좌표로 변환하는 좌표변환단계; 및 상기 서버가 상기 무인기로 상기 절대좌표를 전송하는 단계를 포함하는 무인기 착륙시스템이 제공된다.

Description

무인기 착륙 시스템{UAV landing system}
본 발명은 무인기에 관한 것으로, 보다 상세하게는 무인기 착륙 시스템에 관한 것이다.
현재 무인비행체인 드론 시장이 활발하게 되면서 드론의 물품배송, 픽업 서비스, 구호응급물품 제공 등 관련 산업이 확장되고 있다.여러 관련 기술들이 개발되고 있으나 현재 GPS 위치 오차나 주변 구조물 등의 장애에 의하여 드론을 서비스 제공지에 착륙시키는데 기술적 문제가 발생한다.
좀 더 구체적으로, 수취인(사용자) 위치정보가 입력되면 드론은 해당 위치를 목적지로 하는 자율 비행을 통해 수취인을 향해 날아가게 된다. 다만, 현재 GPS 기술로는 10~50m의 오차가 발생하며, 특히 드론의 시야를 방해하는 장애물이 존재(예: 나무가 우거진 숲)하거나 목적지에 수취인을 포함하는 불특정 여러 사람이 위치하는 경우(예:공원 등)에는 드론의 착륙지점 특정이 어려운 문제가 있다.
또한, 사용자를 포함한 군중 등을 피해 안전하게 착륙할 정도로 영상처리 및 비행제어기술이 발전하지 못했다. 이와 관련된 선행특허문헌으로 'Human interaction with unmanned aerial vehicles(미국등록특허 제9459620호, 등록일자 2016.10.4)'이 존재한다. 선행특허문헌에서는 사람이 제스처 등을 통해 무인기를 유도하는 것에 대해 개시하고 있다. 그러나 이러한 제스처는 영상처리 등을 통해 인식해야 하는 것이고 또한, 제스처를 통해 정확한 착륙지점을 드론에 알려주는 것은 불가능하다.
미국등록특허 제9459620호(2016.10.4)
본 발명의 목적은 무인기 착륙 시스템을 제공하는 것이다. 더욱 구체적으로, 사용자가 착륙 지점을 이미지데이터 형식으로 확인하고, 착륙장소를 선택하여 무인기가 보다 안전하게 착륙할 수 있는 방법을 제공하는 것이다.
본 발명의 일 측면에 따르면, 무인기 착륙시스템에 있어서, 서버가 무선단말기로부터 상기 무인기에 구비된 이미지센서의 이미지데이터의 픽셀좌표를 수신하는 단계, 상기 서버가 상기 무인기 상태정보를 바탕으로 하여 상기 픽셀좌표를 상기 무인기의 절대좌표로 변환하는 좌표변환단계; 및 상기 서버가 상기 무인기로 상기 절대좌표를 전송하는 단계를 포함하는 것을 특징으로 하는 무인기 착륙 시스템이 제공된다.
또한, 상기 픽셀좌표를 수신하는 단계 이전에, 상기 서버가 상기 무인기의 방위정보, 가속도 정보, 각속도 정보 중 적어도 하나에 기초하여, 상기 이미지 데이터 촬상면이 지면에 수평을 유지하고 있는지 여부를 판단하는 단계, 상기 서버가 상기 무인기로 상기 이미지데이터 촬상면이 수평을 유지하도록 하는 제어명령을 전송하는 단계를 더 포함할 수 있다.
또한, 상기 서버가 상기 무선단말기로부터 촬상 요청을 수신하는 경우, 상기 무인기에 구비된 상기 이미지센서가 상기 이미지데이터를 촬상하도록 하는 명령을 발송하는 단계, 상기 서버가 상기 무인기로부터 이미지데이터를 수신하여 상기 이미지 데이터를 상기 무선단말기로 발송하는 단계를 더 포함할 수 있다.
또한, 상기 서버가 상기 무선단말기로부터 사용자명령을 수신 받는 경우, 상기 서버가 상기 사용자명령을 무인기로 전송하는 단계를 더 포함할 수 있다.
또한, 상기 사용자명령이 착륙명령인 경우, 상기 서버가 상기 무인기를 상기 절대좌표에 착륙하도록 제어하는 명령을 상기 무인기로 전송하는 단계를 더 포함할 수 있다.
또한, 사용자명령이 이동명령인 경우, 상기 서버가 상기 무인기를 상기 이동좌표로 이동하도록 제어하는 명령을 상기 무인기로 전송하는 단계를 더 포함할 수 있다.
또한, 상기 서버가 상기 좌표변환단계에 있어서, 상기 픽셀좌표, 상기 무인기의 고도정보, 상기 이미지센서의 화각을 변수로 사용하여, 상기 픽셀좌표를 상기 절대좌표로 변환하는 것을 특징으로 하는 무인기 착륙 시스템을 제공할 수 있다.
또한, 상기 서버가 상기 이미지센서에 구비된 렌즈의 방사 왜곡 상수, 접선 왜곡 상수, 초점거리, 렌즈 중심 영상좌표를 변수로 하여 상기 이미지데이터를 보정하는 것을 특징으로 하는 무인기 착륙 시스템을 제공할 수 있다.
또한, 상기 서버가 상기 무인기로부터 상기 무인기의 고도 정보, 위치정보, 방위정보, 가속도 정보, 각속도 정보 및 상기 무인기 이미지센서로부터 촬상된 이미지데이터 중 적어도 하나를 포함하는 무인기 상태정보를 수신하는 단계를 더 포함할 수 있다.
또한, 상기 좌표변환단계는, 상기 서버가 거리별로 복수 회 촬상된 구조물데이터에서 인식점들을 추출하는 단계, 상기 서버가 상기 이미지데이터에서 상기 인식점을 매칭하여 구조물을 특정하는 단계, 상기 서버가 상기 구조물 데이터베이스에서 상기 특정된 구조물의 크기 정보를 참조하여 상기 픽셀좌표를 상기 절대좌표로 변환하는 단계를 더 포함할 수 있다.
또한, 상기 서버가 상기 무선단말기로부터 촬영 요청을 수신하는 경우, 상기 무선단말기로 사용자인증정보를 요청하는 단계, 상기 서버가 상기 무선단말기로부터 상기 사용자인증정보를 수신하는 경우 상기 사용자인증정보에 기초하여 상기 무선단말기의 적합 여부를 판단하는 단계를 더 포함할 수 있다.
또한, 무인기 착륙시스템에 있어서, 무인기가 무선단말기로부터 상기 무인기에 구비된 이미지센서의 이미지데이터의 픽셀좌표를 수신하는 단계, 상기 무인기가 상기 무인기 상태정보를 바탕으로 하여 상기 픽셀좌표를 상기 무인기의 절대좌표로 변환하는 좌표변환단계를 포함하는 것을 특징으로 하는 무인기 착륙 시스템을 제공할 수 있다.
또한, 상기 무인기가 상기 무인기의 방위정보, 가속도 정보, 각속도 정보 중 적어도 하나에 기초하여, 상기 이미지데이터 촬상면이 지면에 수평을 유지하고 있는지 여부를 판단하는 단계, 상기 무인기가 상기 이미지데이터 촬상면이 수평을 유지하도록 상기 무인기의 자세를 제어하는 단계를 더 포함할 수 있다.
또한, 상기 픽셀좌표를 수신하는 단계 이전에, 상기 무인기가 상기 무선단말기로부터 촬상요청을 수신하는 경우, 상기 무인기에 구비된 상기 이미지센서를 통하여 상기 이미지데이터를 촬상하는 단계, 상기 이미지데이터를 상기 무선단말기로 전송하는 단계를 더 포함할 수 있다.
본 발명의 일 측면에 따르면, 사용자단말기가 무인기에 구비된 이미지센서로 촬상된 이미지데이터를 수신 받는 경우, 상기 이미지데이터를 상기 사용자단말기에 구비된 디스플레이에 표시하는 단계, 상기 사용자단말기가 상기 무인기 상태정보를 바탕으로 하여 상기 픽셀좌표를 상기 무인기의 절대좌표로 변환하는 좌표변환단계, 상기 사용자 단말기가 상기 무인기로 상기 절대좌표를 전송하는 단계를 더 포함하는 것을 특징으로 하는 무인기 착륙 시스템을 제공할 수 있다.
상술한 본 발명에 따르면, 무인기 착륙 시스템을 제공할 수 있다.
도 1은 본 발명에 따른 무인기(10), 무선단말기(20) 및 서버(30)의 통신 연결 관계를 도식화한 것이다.
도 2는 서버의 관점에서 본 발명에 따른 방법을 도시한 흐름도이다.
도 3은 무인기의 실제 공간상 절대좌표의 원점과 선택지점의 관계를 나타낸 도면이다.
도 4는 이미지데이터 상에서 픽셀좌표 및 선택지점을 나타낸 도면이다.
도 5는 본 발명의 일 측면에 따른 사용자명령 처리과정을 나타낸 도면이다.
도 6은 본 발명의 일 측면에 따른 촬상된 구조물을 사용하여 픽셀좌표를 절대좌표로 변환하는 과정을 나타낸 도면이다.
도 7은 본 발명의 일 실시 단계에 따라 사용자단말기가 무인기로 이미지데이터를 요청하는 동작을 나타낸 도면이다.
도 8은 본 발명의 일 실시 단계에 따라 무인기가 착륙지점을 촬상하는 동작을 나타낸 도면이다.
도 9는 본 발명의 일 실시 단계에 따라 무인기가 사용자단말기로 직접적으로 이미지데이터를 전송하는 과정을 나타낸 도면이다.
도 10은 본 발명의 일 실시 단계에 따라 사용자가 사용자단말기로부터 이동명령을 선택하는 동작을 나타낸 도면이다.
도 11은 본 발명의 일 실시 단계에 따라 사용자가 사용자단말기로부터 착륙명령을 선택하는 동작을 나타낸 도면이다.
도 12는 본 발명의 일 실시 단계에 따라 무인기가 절대좌표로 착륙하는 동작을 나타낸 도면이다.
본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
이하, 본 발명에 따른 실시예를 첨부도면을 참조하여 상세히 설명하기로 하며, 첨부 도면을 참조하여 설명함에 있어, 동일하거나 대응하는 구성 요소는 동일한 도면번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.
또한, 이하 사용되는 제1, 제2 등과 같은 용어는 동일 또는 상응하는 구성 요소들을 구별하기 위한 식별 기호에 불과하며, 동일 또는 상응하는 구성요소들이 제1, 제2 등의 용어에 의하여 한정되는 것은 아니다.
또한, 결합이라 함은, 각 구성 요소 간의 접촉 관계에 있어, 각 구성 요소 간에 물리적으로 직접 접촉되는 경우만을 뜻하는 것이 아니라, 다른 구성이 각 구성 요소 사이에 개재되어, 그 다른 구성에 구성 요소가 각각 접촉되어 있는 경우까지 포괄하는 개념으로 사용하도록 한다.
또한, 컴퓨터 프로그램과 관련하여, 구성요소에 대한 접미사 "모듈" 및/또는 "부"는 컴퓨터를 특정 기능의 수단으로 기능시키기 위한 컴퓨터 프로그램의 일부이거나, 컴퓨터에서 특정 기능을 실현시키기 위한 컴퓨터 프로그램의 일부 일 수 있다. 예를 들어, 모듈 A는 컴퓨터를 수단 A로 기능시키기 위한 컴퓨터 프로그램 또는 컴퓨터에 기능 A를 실현시키기 위한 컴퓨터 프로그램으로 해석될 수 있다. 방법으로서 "단계"는 컴퓨터에 컴퓨터 프로그램으로 구현되어 실행될 수 있다.
또한, "모듈" 및/또는 "부"가 모여 "군"을 이룰 수 있다.
한편, 애플리케이션(Application)이란 특정한 업무를 수행하기 위해 고안된 일련의 컴퓨터 프로그램의 집합을 가리키는 것으로, 응용프로그램이라고도 한다. 사용자는 본 발명의 실시예에 따른 애플리케이션을 자신의 전자기기에 인스톨하는 것으로 관련 기능을 추가할 수 있다.
애플리케이션이 인스톨되는 사용자의 전자기기란 컴퓨터, 태블릿PC, 스마트폰과 같이 CPU, RAM, ROM, 저장장치 등으로 구성되고, Windows, ios, 안드로이드, 리눅스 등의 그래픽 운영체제로 전체 시스템이 제어되는 환경인 것이 바람직하며, 특히 등록된 연락처로 전화 및 문자를 주고받거나, 카메라를 구비하여 영상을 촬영할 수 있고, 촬영된 영상을 전송할 수 있는 스마트폰에 특화되었다.
또한, 본 명세서에 첨부된 도면의 순서도는 발명을 설명하기 위한 순서도에 불과하며, 컴퓨터 상에 버그 없이 완벽히 구현되기 위한 순서도일 필요는 없다.
또한, 본 명세서에서 언급된 단말기는 일반적인 사용자 단말기로서 스마트폰, 퍼스널 컴퓨터, 태블릿 PC 등이 될 수 있다.
도 1은 본 발명에 따른 무인기(10), 무선단말기(20) 및 서버(30)의 통신 연결 관계를 도식화한 것이다.
도 1을 참조하여 설명하면, 무인기 (10)와 사용자 무선단말기(20)와 착륙시스템(30)이 데이터를 주고받을 수 있다. 일반적으로 무인기는 사람이 탑승하지 않는 무인기를 일컬으나 본 발명의 실시효과는 사용자의 정확한 위치와 인식을 필요로 하는 모든 비행 이동체에 적용 가능하므로, 본 발명에 따른 무인기는 촬영수단(예: 카메라 등), 지자기 센서, 3축 가속도센서, GPS(GNSS) 등의 센서가 내장되어 위치좌표, 방위각 등의 정보를 갖는 이동수단을 통칭할 수 있다.
본 발명에 따른 사용자는 무인기에 의한 물품배송의 수취인, 다른 곳으로 물품을 배달시키기 위하여 무인기 서비스를 요청한 픽업서비스 사용자, 드론 온 디맨드 촬영 서비스를 요청한 사용자 등 무인기에 의한 서비스를 받는 모든 사용자가 될 수 있다.
일반적으로 무선 통신을 통하여 서버는 무인기 및 사용자 무선단말기와 데이터를 주고 받을 수 있으나, 반드시 무선 통신에 한정되는 것은 아니며 유선 통신을 통해 데이터를 주고 받아도 무방하다. 본 명세서에서는 데이터를 주고받는 것에 관한 기술에 대해서 그 설명을 생략한다.
서버는 무인기가 물품 배송 등의 무인기 활용 서비스를 제공하기 위한 소정의 목적을 가지고 서로 접근하는 경우, 무인기로부터 수신되는 정보를 수신한다. 여기서 무인기로부터 수신되는 정보란 무인기의 비행 관련 정보, 상태정보, 사용자 정보, 위치 정보 등이 될 수 있다.
좀 더 구체적으로, 서버는 무인기로부터 수신한 무인기 정보를 사용자 단말기로 전송한다. 또한, 서버는 무인기의 이상유무, 비행경로 파악, 사용자의상태 등에 따른 상황을 지속적으로 모니터링하며, 무인기와 사용자의 인증 시 사용자와 무인기의 상대적인 위치 정보, 고도 정보, 방위각 정보 등을 기준으로 착륙 및 가이드에 필요한 무인기의 경로조정 데이터를 계산할 수 있다. 또한, 서버는 무인기가 착륙 시 사용자의 위치 정보, 방위각 정보 등을 기준으로 착륙지점 위치를 계산하여 무인기로 전송할 수 있다.
한편, 무인기는 위치, 속도, 고도, 방위각, 베터리 상태 등을 포함하는 기체의 모든 상태 정보 및 비행 관련 정보를 지속적으로 서버로 전송한다. 또한, 무인기는 수취인 좌표에 도착한 시점에서의 고도, 방위각, 무인기 자세 등을 서버로 전송할 수 있다.
본 발명의 일 측면에 따르면, 상기 서버가 상기 무인기로부터 상기 무인기의 고도 정보, 위치정보, 방위정보, 가속도 정보, 각속도 정보 및 상기 무인기 이미지센서로부터 촬상된 이미지데이터 중 적어도 하나를 포함하는 무인기 상태정보를 수신하는 단계를 통하여 서버는 무인기 상태정보를 수신할 수 있다.
한편 사용자 무선단말기는 무선단말기의 위치정보, 각도, 방위각, 고각 정보 등의 데이터 및 명령을 서버로 전송한다. 또한, 사용자 무선단말기는 서버로부터 전송된 무인기 정보 및 상황을 디스플레이할 수 있다.
도 2는 서버의 관점에서 본 발명에 따른 방법을 도시한 흐름도이다. 도 2를 참조하면, 무인기가 서비스제공지점에 도착하는 단계(S110), 서버가 무인기의 이미지 센서가 촬상한 이미지 데이터를 수신받는 단계(S120), 서버가 수신 받은 이미지 데이터를 사용자 단말기로 전송하는 단계(S130), 서버가 사용자 무선단말기로부터 이미지데이터의 픽셀좌표를 수신하는 단계(S140), 서버가 픽셀좌표와 무인기 상태정보를 기반으로 무인기 절대좌표를 연산하는 단계(S150)를 포함한다.
본 발명의 일 측면에 따르면, 무인비행체 착륙시스템은 서버가 무선단말기로부터 무인기에 구비된 이미지센서의 이미지데이터의 픽셀좌표를 수신하는 단계, 상기 서버가 상기 무인비행체 상태정보를 바탕으로 하여 상기 픽셀좌표를 상기 무인비행체의 절대좌표로 변환하는 좌표변환단계, 및 상기 서버가 상기 무인비행체로 상기 절대좌표를 전송하는 단계를 포함할 수 있다.
더욱 구체적으로, 무인기는 서비스 제공을 위하여 서비스제공지로 이동한다. 서버 혹은 무인기는 무인기 센서로부터 무인기의 고도 정보, 위치정보, 방위정보, 자세정보를 지속적으로 모니터링한다. 또한, 서버 혹은 무인기는 수신받은 위치정보에 기반하여 무인기가 서비스제공지점에 도착하였는지 여부를 판단할 수 있다.
도 8은 본 발명의 일 실시 단계에 따라 무인기가 착륙지점을 촬상하는 동작을 나타낸 도면이다. 도 8을 참조하면, 이미지센서를 구비한 무인기는 서비스제공지점의 상공에서 호버링한 이미지데이터를 촬상한다.
좀 더 구체적으로, 서버 혹은 무인기는 무인기가 무선단말기를 가지고 있는 수취인에게 무인기 활용 서비스를 제공하기 위한 소정의 목적을 가지고 서비스제공지점에 도착하는 경우, 무인기가 구비된 이미지센서를 이용하여 착륙지점을 촬상하도록 할 수 있다. 이때, 이미지 데이터는 무인기가 일정한 고도를 유지하도록 호버링한 상태로 촬영수단의 렌즈가 지표면과 수평을 유지한 상태에서 촬상된다.
이미지센서란 렌즈에 의해 맺힌 광학적 이미지를 전기적 신호로 변환하는 것으로, 이미지센서는 CCD(charge coupled device, 전하 결합 소자), MOS(metal oxide semi-conductor, 금속 산화막 반도체), CMOS(complementary metal-oxide semiconductor, 상보적 금속 산화막 반도체) 등으로 구성될 수 있다. 다만, 이미지센서의 종류가 이에 제한되는 것은 아니다. 또한, 이미지는 광신호가 변환된 디지털 신호는 물론, 이러한 디지털 신호가 디스플레이 장치를 통해 가시화된 광으로 출력된 결과물까지 포함하는 광의의 개념일 수 있다.
촬상이란 이미지센서를 이용하여 광신호를 이미지데이터로 변환하는 일체의 과정을 의미한다. 좀 더 구체적으로, 이미지데이터란 정지 영상 데이터를 의미하며, 이미지센서를 통하여 촬상된 이미지를 픽셀단위로 디지털화하여 저장한 데이터를 말한다. 이미지 데이터는 압축되거나, 압축되지 않은 채로, 또는 벡터 포맷으로도 저장되고, 이미지데이터는 픽셀의 평면상 위치만을 포함한 2차 행렬, 색상 정보를 포함한 3차행렬 등으로 표현될 수 있다. 또한, 이미지데이터는 이미지 파일 포맷 형식인 ani, bmp, cal, fax, gif, hdp, img, jpe, jpec, jpg, mac, pbm, pcd, pct, pcx, pgm, png, ppm, psd, ras, tga, tif, tiff, wmf 등의 형식으로 저장될 수 있다.
본 발명의 일 측면에 따르면, 상기 서버가 상기 무인기의 방위정보, 가속도 정보, 각속도 정보 중 적어도 하나에 기초하여, 상기 이미지데이터 촬상면이 지면에 수평을 유지하고 있는지 여부를 판단하는 단계, 상기 서버가 상기 무인기로 상기 이미지데이터 촬상면이 수평을 유지하도록 제어명령을 전송하는 단계를 통하여 이미지데이터가 수평을 유지하도록 무인기를 제어할 수 있다.
또한, 무인기가 상기 무인기의 방위정보, 가속도 정보, 각속도 정보 중 적어도 하나에 기초하여 상기 이미지데이터 촬상면이 지면에 수평을 유지하고 있는지 여부를 판단하는 단계, 상기 무인기가 상기 이미지데이터 촬상면이 수평을 유지하도록 상기 무인기를 제어하는 단계를 통하여 무인기가 직접 그 자세를 제어할 수 있다.
무인기에는 무인기의 자세를 제어하기 위하여 자력계, 3축 가속도계, 3축 자이로스코프 등의 센서가 구비될 수 있다. 서버 또는 무인기는 가속도계로 측정된 가속도, 자이로스코프로 측정된 각속도를 바탕으로 무인기의 자세(Roll, Pitch)를 연산할 수 있다.
촬상면이란 필름이나 디지털 카메라의 CCD, CMOS 센서와 같이 사진기의 집광부에서 빛을 받아들이는 역할을 하는 소자의 면적을 말하는 것으로, 이미지센서 내에 피사체의 이미지가 맺히는 장소를 뜻한다. 이미지데이터 촬상면이 지표면에 수평하다는 의미는, 이미지데이터의 상이 지표면과 수평하여 이미지데이터의 어느 지점을 상하좌우로 대칭한다 하여도 실체상에서 렌즈와 촬상된 지면 사이의 거리가 동일한 것을 의미한다. 일반적인 촬영수단에서 이미지센서의 촬상면과 렌즈는 서로 수평하여 렌즈가 지면과 수평을 유지하는 것과 촬상면이 지면과 수평을 유지하는 것은 같은 의미를 가진다. 또한, 이때 지면이란 지표면을 평면이라 가정하였을 때 나타나는 가상의 평면을 의미한다.
서버 또는 무인기는 무인기의 자세정보 및 이미지데이터를 사용하여 이미지센서의 렌즈가 착륙지점과 수평을 유지한 상태로 이미지데이터가 촬상되었는지 여부를 판단한다. 서버 또는 무인기는 무인기를 제어하여 이미지데이터가 수평을 유지한 채로 촬영되도록 한다. 이미지센서의 렌즈가 착륙지점과 수평을 유지함으로써, 촬상되는 이미지데이터는 지표면과 수평하게 촬상되어 이미지데이터의 픽셀좌표를 절대좌표로 변환하는 연산과정을 단순화시킬 수 있다.
도 7은 본 발명의 일 실시 단계에 따라 사용자단말기가 무인기로 이미지데이터를 요청하는 동작을 나타낸 도면이다. 본 발명에 따른 일 실시예에 따르면, 사용자 무선단말기는 서버 혹은 무인기로 무인기가 이미지데이터를 촬상하도록 요청할 수 있다. 구체적으로, 무인기가 서비스제공지점에 도착한 경우 메시지 형태로 사용자 무선단말기로 무인기의 도착을 알릴 수 있다. 사용자는 사용자단말기를 클릭, 드래그 등의 동작의 조합으로 무인기 착륙지점의 이미지데이터 촬상을 요청할 수 있다.
도 9는 본 발명의 일 실시 단계에 따라 무인기가 사용자단말기로 직접적으로 이미지데이터를 전송하는 과정을 나타낸 도면이다.
촬상요청은 사용자 무선단말기로부터 직접적으로 혹은 서버를 경유하여 무인기로 전달될 수 있으며, 무인기는 일련의 이미지데이터 촬상과정을 통하여 이미지데이터를 촬상할 수 있다. 촬상된 이미지데이터는 무인기로부터 직접적으로 혹은 서버를 경유하여 사용자 무선단말기로 전송될 수 있다.
무인기로 직접적으로 전송할 뿐 아니라 서버가 상기 무선단말기로부터 촬상요청을 수신하는 경우, 상기 무인기에 구비된 상기 이미지센서가 상기 이미지데이터를 촬상하도록 하는 명령을 발송하는 단계, 상기 서버가 상기 무인기로부터 이미지데이터를 수신하여 상기 이미지데이터를 상기 무선단말기로 발송하는 단계를 통하여 사용자는 무인기로 이미지데이터를 요청할 수 있다.
이때, 무선단말기의 촬상요청을 받아들이기 전에 사용자 인증과정을 거칠 수 있다. 예를 들면, 인증과정은 서버가 무선단말기로부터 촬영 요청이 있는 경우, 무선단말기로 사용자인증정보를 요청하는 단계, 서버가 무선단말기로부터 사용자인증정보를 수신하는 경우 사용자인증정보에 기초하여 무선단말기의 적합여부를 판단하는 단계로 이루어질 수 있다. 또한, 이때 무선단말기, 서버, 무인기간 통신은 암호화되어 이루어져 통신의 보안성을 높일 수 있다.
촬상된 이미지데이터는 서버를 통하여 사용자단말기로 전송될 수 있다. 전송된 이미지데이터는 레스터화되어 사용자단말기에 구비된 디스플레이상에 표시된다. 디스플레이상에 표시되는 이미지 데이터는 사용자가 임의의 지점을 선택할 수 있도록 구성되며, 동시에 사용자가 내릴 명령을 클릭 등의 동작으로 선택할 수 있는 특정지점을 포함할 수 있다.
이때, 선택지점이란 지표면에 이미지센서의 렌즈가 수평하게 촬상된 이미지데이터 상에서 사용자가 선택한 지점과 대응하는 실제 지표면상의 특정 지점이라 할 수 있다. 이때 공간상 무인기에 수직한 지표면상 원점을 기준으로 한 선택지점의 좌표를 절대좌표라 한다.
좀 더 구체적으로 예를 들면, 사용자 단말기가 착륙지점의 이미지데이터를 디스플레이에 표시하고, 사용자가 이미지데이터의 임의의 지점을 터치하여 선택하는 경우, 무선단말기는 해당 선택지점의 픽셀좌표 값을 참조할 수 있다. 무선단말기는 사용자가 임의의 지점을 선택하기 전후로 다양한 방법(예: 텍스트, 음성 메시지)을 통해 사용자명령을 질의할 수 있다.
사용자는 원하는 사용자명령을 클릭 등의 조작을 통하여 선택할 수 있고, 선택된 사용자명령 및 선택지점의 픽셀좌표는 직접적으로 혹은 서버를 통하여 무인기로 전달될 수 있다. 사용자명령이란, 사용자단말기로부터 발신되어 서버를 경유하거나 혹은 직접적으로 무인기로 전달되어 무인기의 이동, 착륙 등의 동작을 제어하는 명령이 될 수 있다. 사용자명령 및 그에 따른 무인기의 이동은 이후 도 5를 참조하여 구체적으로 설명한다.
이때, 서버는 좌표변환 단계에서 상기 픽셀좌표, 상기 무인기의 고도정보, 상기 이미지센서의 화각을 변수로 사용하여, 상기 픽셀좌표를 상기 절대좌표로 변환할 수 있다.
도 4는 이미지데이터 상에서 픽셀좌표 및 선택지점을 나타낸 도면이다.
도 4를 참조하면, 픽셀좌표란 레스터화된 이미지데이터를 구성하는 기본 요소인 픽셀을 단위로 하여, 디스플레이상에 표시되는 영상에 대한 좌표를 의미한다. 또한, 영상의 중심을 원점으로 하고, 좌표계는 오른쪽 방향을 x축 증가방향, 위쪽 방향을 y축 증가방향으로 가진다. 이때 도 3을 참조하면, 픽셀좌표계의 원점을 (
Figure pat00001
,
Figure pat00002
), 이미지 데이터상 사용자가 선택지점의 픽셀좌표를 (
Figure pat00003
,
Figure pat00004
), X좌표선으로 사진 끝 부분까지의 거리를
Figure pat00005
, Y좌표선으로 사진 끝 부분까지의 거리를
Figure pat00006
로 나타낼 수 있다.
도 3은 무인기의 실제 공간상 절대좌표의 원점과 선택지점의 관계를 나타낸 도면이다.
도 3을 참조하면, 절대좌표란 무인기의 실제 위치를 원점으로 하는 2차원 지상 좌표계이다. 절대좌표계는 실체적인 길이를 기본 단위로 가진다(예: m, inch, ft). 또한, 촬영수단의 카메라 렌즈 중앙점을 지면에 수직으로 선을 그었을 때 지면과 만나는 점을 원점으로 하고, 이미지 데이터상 오른쪽 방향을 X축 증가방향, 위쪽 방향을 Y축 증가방향으로 가진다. 드론의 위치를 원점으로 하는 2차원 지상 좌표계의 원점을 (
Figure pat00007
,
Figure pat00008
), 카메라 렌즈 화각을
Figure pat00009
, 카메라 렌즈로 찍을 수 있는 X축 상의 최대 거리를
Figure pat00010
, 드론의 고도를 H로 표현할 수 있다.
이미지데이터는 렌즈가 지표면과 수평을 유지하게 촬영되어, 픽셀 좌표는 렌즈의 화각, 무인기의 고도를 변수로 하여 절대좌표로 변환될 수 있다. 구체적인 픽셀좌표와 절대좌표의 변환식은 다음과 같다.
Figure pat00011
(
Figure pat00012
: 절대좌표,
Figure pat00013
: 픽셀좌표,
Figure pat00014
: 무인기의 고도,
Figure pat00015
: 촬영 수단의 화각,
Figure pat00016
: 사진상 원점에서 X축으로 사진의 끝 부분까지의 거리(pixel 단위))
이미지데이터가 지표면과 수평을 유지한 채로 촬상된 경우, 픽셀좌표와 절대좌표 상에는 몇 가지 비례관계가 성립한다. 일단, 지표면상에서의 길이와 이미지데이터 상의 픽셀 수는 일정한 비율을 유지한다. 화각이란, 렌즈의 종류에 따른 고유한 값으로 렌즈로 촬상 가능한 범위가 렌즈 중심에 대하여 이루는 각도이다. 화각을 이용하여 이미지센서를 통하여 렌즈가 촬상 가능한 최대 영역을 구할 수 있다. 또한, 렌즈가 촬상 가능한 최대영역은 고도와 화각의 탄젠트 값을 사용하여 그 실제 길이를 구할 수 있다. 이때, 이미지데이터 상 양 끝부분은 촬상 가능한 최대영역과 일정한 비율을 유지하며, 각 길이의 비례관계를 이용하여 픽셀좌표 값을 절대좌표로 변환하는 과정은 위에 기재된 수식으로 정리될 수 있다. 하여, 무인기의 절대좌표는 무인기의 고도, 화각, 픽셀좌표를 변수로 하여 연산될 수 있다. 이때, 연산 과정은 무인기, 서버, 무선단말기 어떤 장치에 의하여도 이루어질 수 있다.
본 발명의 일 측면에 따르면, 고도는 무인기에 구비된 가속도센서, 고도계, 거리계 등의 센서 혹은 이들의 조합을 통하여 측정될 수 있다.
일반적으로 무인기의 고도측정에는 가속도센서가 사용된다. 단, 가속도센서로 측정되는 데이터는 가속도를 적분하여 고도를 계산하는 방식임으로 적분오차가 누적되며 표면고도를 정확하게 측정하기 어려운 문제점이 있다.
그 밖에 초음파, 레이저 또는 라이다(LiDAR) 기반 센서를 사용하여 무인기와 지면간 거리를 측정하는 거리계를 사용할 수 있다. 또한, GPS 위성신호의 길이를 계산하여 고도 값을 표현하는 위성 고도계를 사용할 수 있다.
또한, 복수개의 센서로부터 측정된 측정값을 조합하여 보다 정확한 고도 값을 연산할 수 있다. 예를 들면, 확장 칼만 필터를 이용하여 가속도센서, 거리계, 고도계, 이미지센서로부터 측정된 고도 데이터를 융합하여 무인기의 고도를 보다 정확하게 측정할 수 있다.
본 발명의 일 측면에 따르면 픽셀좌표를 절대좌표로 변환하는 과정은 이미지데이터에 포함된 다양한 구조물에 관한 정보를 분석하여 이루어질 수 있다. 좀 더 구체적으로, 서버가 거리별로 복수 회 촬상된 구조물데이터에서 인식점들을 추출하는 단계, 서버가 이미지데이터에서 인식점을 매칭하여 구조물을 특정하는 단계, 서버가 구조물 데이터베이스에서 특정된 구조물의 크기 정보를 참조하여 고도정보를 연산하는 단계를 포함할 수 있다.
도 6은 본 발명의 일 측면에 따른 촬상된 구조물을 사용하여 픽셀좌표를 절대좌표로 변환하는 과정을 나타낸 도면이다.
도 6을 참조하면 구조물 이용한 좌표변환 과정은 거리에 차등을 두어 수평을 유지한 채로 구조물데이터베이스를 촬상하는 단계(S310), 복수개의 구조물데이터를 분석하여 인식점을 추출하는 단계(S320), 이미지센서가 촬상한 이미지데이터와 인식점을 비교하여 구조물을 특정하는 단계(S330), 구조물 데이터베이스로부터 구조물 크기정보를 참조하여 픽셀좌표를 절대좌표로 변환하는 단계(S340)를 포함할 수 있다.
좀 더 구체적으로, 서버 또는 무인기에 구비된 구조물 데이터베이스에 구조물데이터가 저장된다. 구조물 데이터베이스란 각 구조물에 관한 일체의 구조물 정보를 저장하고 있는 데이터베이스로서, 구조물 정보에는 구조물의 재료특성, 기하형상, 크기, 길이, 이미지데이터 등에 관한 정보를 포함된다.
구조물데이터란 지표면과 수평을 유지한 상태로 구조물을 거리에 차등을 두어 촬상한 이미지로서, 서버는 구조물데이터에 기반하여 인식점을 추출한다. 이때, 인식점이란 특정 구조물을 다른 구조물과 비교하였을 때 특정 구조물은 인식할 수 있을 수 있는 특징적인 부분을 의미한다. 각각의 인식점은 인식점 추출 알고리즘을 통하여 정해질 수 있다.
예를 들면, 인식점 추출 알고리즘은 SIFT, SURF 알고리즘 등이 사용될 수 있다. SIFT, SURF 알고리즘은 인식점을 찾는 단계와 인식점을 비교하여 매칭하는 단계로 이루어져 있다. 이때 인식점은 크기와 방향에 불변할 것으로 추측되는 지점이며, 가우시안 필터(Gaussian Filter)와 DoG(Difference of Gaussian)을 이용한다. 단, 인식점을 추출하는 방법은 기재된 알고리즘으로 제한되지 않는다.
서버는 구조물데이터를 조합하여 인식점을 찾아 구조물을 인식하고, 구조물 크기에 관한 정보를 구조물 데이터베이스에서 참조할 수 있다. 이때, 참조된 구조물 크기에 관한 정보와 인식된 구조물의 픽셀 수의 비율을 이용하여 픽셀과 실제 크기 사이의 비율을 계산할 수 있고, 이를 이용하여 픽셀좌표를 절대좌표로 변환할 수 있다.
이때 구조물데이터 또한 이미지데이터와 마찬가지로 수평을 유지한 상태로 촬상 되어, 거리에 차등을 둔다 하여도 인식점 사이 거리는 각각 일정한 비율을 유지한다. 하여, 인식점 사이의 픽셀거리를 비교하고 구조물 데이터베이스에 저장된 구조물의 기하형상 및 크기정보를 참조하여 인식점 사이의 실제거리를 연산할 수 있다. 또한, 인식점 사이의 실제거리와 픽셀거리 사이의 비율을 이용하여 픽셀좌표를 절대좌표로 변환할 수 있다.
도 10의 이미지데이터에 나타나 있는 승용차를 예로 들어 설명하면, 구조물 데이터베이스에 이미지데이터에 나타난 차량의 크기, 기하학적 모양새 등에 관한 정보가 미리 저장될 수 있다. 구조물데이터베이스에는 해당 승용차를 고도를 달리하여 수평을 유지한 상태로 촬상하여 이미지 형태로 구조물데이터가 저장되어 있다. 복수개의 구조물데이터는 각각 인식점 추출 알고리즘으로 분석되어, 승용차를 인식할 수 있는 인식점이 선정된다. 선정된 인식점과 인식점 사이의 실제 길이 또한 구조물데이터베이스에 저장될 수 있다.
서버는 무인기로부터 수신한 이미지데이터와 구조물데이터베이스에 저장된 인식점을 비교 분석하여 특정 승용차가 이미지데이터 내부에 포함되었는지 판단할 수 있다. 또한, 구조물데이터베이스에 저장된 픽셀거리와 실제거리 사이의 비율, 구조물 크기 및 기하학적 형태정보를 변수로 하여 픽셀좌표를 절대좌표로 변환할 수 있다.
구조물을 이용하여 픽셀좌표를 절대좌표로 변환하는 과정은 서버를 통해서 뿐만 아니라 무선단말기, 혹은 무인기에서 자체적으로 이루어질 수 있다.
또한, 이때 이미지데이터를 사용하여 픽셀좌표를 절대좌표로 변환함에 있어 렌즈의 왜곡으로 인한 오차가 발생할 수 있다. 렌즈의 왜곡에는 볼록렌즈의 굴절률에 의한 방사왜곡(radial distortion)과 촬상수단 제조과정에서 카메라 렌즈와 이미지센서의 수평이 맞지 않거나 또는 렌즈 자체의 중심이 맞지 않아서 발생하는 접선왜곡(tangential distortion)이 있다.
렌즈계의 왜곡이 없다고 하는 경우 3차원 공간상의 한 점은 핀홀 투영(pinhole projection)에 의해 정상화된 이미지면(normalized image plane) 상의 한 점으로 투영되어 선형성을 가진다. 그러나 렌즈계의 비선형성에 의해 왜곡되며, 이러한 렌즈계 왜곡 모델 및 촬상수단 내부 파라미터를 반영하여 이미지데이터를 보정할 수 있다.
렌즈계 왜곡 모델은 다음과 같다.
Figure pat00017
(
Figure pat00018
: 방사왜곡상수,
Figure pat00019
: 접선왜곡상수, (
Figure pat00020
): 렌즈계 왜곡이 반영된 정규화된 좌표, (
Figure pat00021
): 렌즈계 비선형성에 의한 왜곡,
Figure pat00022
: 왜곡이 없을 때의 중심까지의 거리)
렌즈계 왜곡 모델을 사용하여 이미지센서에 구비된 렌즈의 방사 왜곡 상수, 접선 왜곡 상수, 초점 거리, 렌즈 중심 영상좌표를 변수로 하여 상기 이미지데이터의 왜곡을 보정하도록 할 수 있다. 이미지데이터 왜곡의 보정은 서버, 사용자단말기, 무인기 등 장치에 관계없이 이루어질 수 있다.
도 5는 본 발명의 일 측면에 따른 사용자명령 처리과정을 나타낸 도면이다.
도 5를 참조하여 설명하면, 무인기 착륙 시스템은 무인기가 도착하는 단계(S210), 사용자단말기가 이미지데이터를 수신하는 단계(S220), 사용자가 픽셀좌표 및 사용자명령을 선택하고, 사용자단말기를 통하여 서버로 전송하는 단계(S230), 서버가 픽셀좌표를 절대좌표로 변환하는 단계(S240), 서버가 사용자명령을 판단하는 단계(S250), 사용자명령이 착륙명령인 경우, 무인기가 절대좌표로 착륙하도록 무인기를 제어하는 단계(S260), 사용자명령이 이동명령인 경우, 무인기가 이동좌표로 이동하는 단계(S290), 무인기가 이미지데이터를 촬상하는 단계(S280)를 포함할 수 있다.
상기 서버가 상기 무선단말기로부터 사용자명령을 수신 받는 경우, 상기 서버가 상기 사용자명령을 무인기로 전송하는 단계를 통하여 무선단말기의 명령이 서버로 전송될 수 있도록 할 수 있다. 이때, 상기 사용자명령이 착륙명령인 경우, 상기 서버가 상기 무인기를 상기 절대좌표에 착륙하도록 제어하는 명령을 상기 무인기로 전송할 수 있고, 상기 사용자명령이 이동명령인 경우, 상기 서버가 상기 무인기를 상기 이동좌표로 이동하도록 제어하는 명령을 상기 무인기로 전송할 수도 있다.
서버는 무인기로부터 무인기 정보를 전송받는다. 무인기가 서비스제공지점에 도착한 경우 다양한 방법(예: 메시지, 음성알림 등)을 통해 사용자단말기로 무인기의 도착을 알릴 수 있다. 이때, 사용자는 사용자 단말기를 조작하여 사용자명령을 선택할 수 있다.
여기서 사용자명령이란 사용자단말기가 무인기로 직접적으로 혹은 서버를 경유하여 무인기를 조작하도록 하는 일련의 명령을 의미한다. 본 발명에서 사용자명령은 이동명령, 착륙명령 등이 될 수 있다.
사용자단말기가 무인기로부터 도착 알림을 수신한 경우 디스플레이에 사용자가 클릭 또는 드래그 등의 조작을 통하여 사용자명령을 선택할 수 있도록 버튼 등을 표시할 수 있다.
도 10은 본 발명의 일 실시 단계에 따라 사용자가 사용자단말기로부터 이동명령을 선택하는 동작을 나타낸 도면이다.
도 11은 본 발명의 일 실시 단계에 따라 사용자가 사용자단말기로부터 착륙명령을 선택하는 동작을 나타낸 도면이다.
이때, 무인기는 도착 알림과 함께 무인기의 이미지센서로 촬상한 이미지데이터를 송신할 수 있다. 도 10 및 도 11을 참조하면, 도 11과 같이 사용자는 무선단말기의 디스플레이에 표시된 이미지데이터 상에서 원하는 착륙지점이 있는 경우, 해당 지점으로 착륙하도록 착륙명령을 내릴 수 있다. 그러나 도 10과 같이 사용자가 마땅한 착륙지점이 없다 판단하는 경우 이미지데이터상 다른 지점으로 이동하여 착륙지점을 찾도록 할 수 있다. 사용자의 조작에 따라 사용자명령 및 선택지점이 특정된다. 사용자가 선택한 선택지점 및 사용자명령은 서버를 경유하여 혹은 직접적으로 서버 혹은 무인기로 전달된다.
사용자가 사용자단말기에서 착륙명령을 선택하는 경우, 서버는 착륙명령과 픽셀좌표를 수신한다. 위에서 기재한 좌표변환과정을 통하여 선택지점의 절대좌표를 연산할 수 있다. 이때 착륙명령은 좌표변환과정을 통하여 선택한 지표면상의 선택지점으로 무인기를 착륙시키는 명령이다.
도 12는 본 발명의 일 실시 단계에 따라 무인기가 절대좌표로 착륙하는 동작을 나타낸 도면이다.
도 12를 참조하면, 무인기는 지표면상 선택지점으로 착륙하는 과정에서 동일한 고도를 유지하며 이동좌표로 이동하고, 이후 쓰로틀(Throttle)을 조절하여 고도를 낮추어 무인기가 착륙하도록 제어할 수 있다. 이때, 이동좌표란 지표면을 원점으로 하는 절대좌표를 기준으로 하였을 때 무인기와 같은 고도에 있는 선택지점의 수선과 만나는 지점의 공간상 좌표를 의미한다.
또한, 사용자는 이동명령을 선택할 수 있다. 이동명령을 선택하는 경우, 서버가 무인기로 무인기가 이동좌표로 이동하도록 제어하는 명령을 보낸다. 이동명령을 수신한 경우, 무인기는 일정한 고도 상에서 이동지점으로 이동한다. 이동지점으로 이동한 이후 무인기는 무선단말기로 이동이 완료되었음을 알릴 수 있다.
또한, 무인기 이동명령이 있는 경우, 서버는 무인기가 고도를 유지하며 선택지점과 수직한 이동지점으로 이동하도록 제어한다. 무인기의 이동지점으로 이동이 완료되며, 수평을 유지하여 이미지센서를 이용하여 이미지데이터를 촬상할 수 있다.
촬상된 이미지데이터는 서버를 경유하여 사용자 무선단말기로 전송되고, 사용자는 조작을 통하여 선택지점을 특정하고, 기체의 이동명령 혹은 착륙명령을 선택하는 일련의 사용자명령 선택 과정을 반복하여 기체가 착륙할 지점을 선별할 수 있다.
이때, 착륙명령, 이동명령, 이미지데이터 등은 서버를 경유하지 않고 직접적으로 사용자단말기 혹은 무인기로 전송될 수 있으며, 이미지데이터의 픽셀좌표를 무인기의 절대좌표로 변환하는 과정 또한 서버, 무인기, 무선단말기 셋 중 어느 장치에 의하여도 이루어질 수 있다.
본 발명의 일 측면에 따르면, 사용자단말기가 무인기에 구비된 이미지센서로 촬상된 이미지데이터를 수신 받는 경우, 상기 이미지데이터를 상기 사용자단말기에 구비된 디스플레이에 표시하는 단계, 상기 사용자단말기가 상기 무인기 상태정보를 바탕으로 하여 상기 픽셀좌표를 상기 무인기의 절대좌표로 변환하는 좌표변환단계, 상기 사용자 단말기가 상기 무인기로 상기 절대좌표를 전송하는 단계를 통하여 데이터의 처리가 사용자단말기를 통하여 이루어질 수 있다.
상술된 방법 및 처리는, 예를 들어, 프로세서, 컨트롤러, 또는 다른 처리 디바이스에 의한 실행을 위한 명령들로서, 인코딩되거나, 컴팩트 디스크 판독 전용 메모리(CDROM), 자기 또는 광학 디스크, 플래시 메모리, 랜덤 액세스 메모리(RAM) 또는 판독 전용 메모리(ROM), 소거가능 프로그램가능 판독 전용 메모리(EPROM) 또는 다른 머신-판독가능 매체와 같은 머신 판독가능 또는 컴퓨터 판독가능 매체에 저장될 수도 있다.
이러한 매체는, 명령 실행가능 시스템, 장치 또는 디바이스에 의해 또는 이와 연결하여 사용하기 위한 실행가능한 명령들을 포함, 저장, 통신, 전파 또는 이동시키는 임의의 디바이스로서 구현될 수도 있다. 대안으로 또는 추가적으로, 하나 이상의 집적 회로, 또는 하나 이상의 프로세서 실행 명령들과 같은 하드웨어를 이용하여 아날로그 또는 디지털 로직으로서; 또는 API (application programming interface) 또는 DLL (Dynamic Link Library), 로컬 또는 원격 절차 호출로서 정의된 또는 공유 메모리에서 이용가능한 기능들의 소프트웨어로; 또는 하드웨어 및 소프트웨어의 조합으로서 구현될 수도 있다.
다른 구현에서, 방법은 신호 또는 전파-신호 매체로 나타내어질 수도 있다. 예를 들어, 임의의 소정의 프로그램의 로직을 구현하는 명령들은 전기, 자기, 광학, 전자기, 적외선 또는 다른 타입의 신호의 형태를 취할 수도 있다. 상술된 시스템은 광섬유 인터페이스, 안테나, 또는 다른 아날로그 또는 디지털 신호 인터페이스와 같은 통신 인터페이스에서 이러한 신호를 수신하고, 그 신호로부터 명령들을 복원하고, 이들을 머신 판독 가능 메모리에 저장하고, 그리고/또는 프로세서를 이용하여 이들을 실행시킬 수도 있다.
또한, 상기 본 발명은 하드웨어 또는 소프트웨어에서 구현될 수 있다. 구현은 상기 본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.
본 발명의 실시예들은 여기에 설명된 방법들 중 하나가 실행되는 프로그램가능 컴퓨터 시스템으로 운영될 수 있는, 전자적으로 판독가능한 제어 신호들을 갖는 캐리어 웨이브를 포함할 수 있다. 본 발명의 실시예들은 프로그램 코드를 갖는 컴퓨터 프로그램 제품으로서 구현될 수 있으며, 프로그램 코드는 컴퓨터 프로그램이 컴퓨터 상에서 구동될 때 방법들 중 하나를 실행하기 위하여 운영된다. 프로그램 코드는 예를 들면 기계 판독가능 캐리어 상에 저장될 수 있다. 본 발명의 일실시예는 컴퓨터 프로그램이 컴퓨터 상에 구동될 때, 여기에 설명된 방법들 중 하나를 실행하기 위한 프로그램 코드를 갖는 컴퓨터 프로그램일 수 있다. 본 발명은 위에서 설명한 방법들 중 하나를 실행하기 위한 컴퓨터, 또는 프로그램가능 논리 장치를 포함할 수 있다. 위에서 설명한 방법들의 일부 또는 모든 기능을 실행하기 위하여 프로그램가능 논리 장치(예를 들면, 필드 프로그램가능 게이트 어레이, 상보성 금속 산화물 반도체 기반 논리 회로)가 사용될 수 있다.
이상, 본 발명의 일 실시예에 대하여 설명하였으나, 해당 기술 분야에서 통상의 지식을 가진 자라면 특허청구범위에 기재된 본 발명의 사상으로부터 벗어나지 않는 범위 내에서, 구성 요소의 부가, 변경, 삭제 또는 추가 등에 의해 본 발명을 다양하게 수정 및 변경시킬 수 있을 것이며, 이 또한 본 발명의 권리범위 내에 포함된다고 할 것이다.
10 : 무인기
20 : 사용자 무선단말기
30 : 서버

Claims (15)

  1. 무인기 착륙시스템에 있어서,
    서버가 무선단말기로부터 상기 무인기에 구비된 이미지센서의 이미지데이터의 픽셀좌표를 수신하는 단계;
    상기 서버가 상기 무인기의 상태정보를 바탕으로 하여 상기 픽셀좌표를 상기 무인기의 절대좌표로 변환하는 좌표변환단계; 및
    상기 서버가 상기 무인기로 상기 절대좌표를 전송하는 단계;
    를 포함하는 것을 특징으로 하는 무인기 착륙 시스템.
  2. 제1 항에 있어서,
    상기 픽셀좌표를 수신하는 단계 이전에, 상기 서버가 상기 무인기의 방위정보, 가속도 정보, 각속도 정보 중 적어도 하나에 기초하여, 상기 이미지데이터의 촬상면이 지면에 수평을 유지하고 있는지 여부를 판단하는 단계; 및
    상기 서버가 상기 무인기로 상기 이미지데이터의 촬상면이 수평을 유지하도록 하는 제어명령을 전송하는 단계;
    를 더 포함하는 것을 특징으로 하는 무인기 착륙 시스템.
  3. 제1 항에 있어서,
    상기 서버가 상기 무선단말기로부터 촬상 요청을 수신하는 경우, 상기 무인기에 구비된 상기 이미지센서가 상기 이미지데이터를 촬상하도록 하는 명령을 발송하는 단계; 및
    상기 서버가 상기 무인기로부터 이미지데이터를 수신하여 상기 이미지데이터를 상기 무선단말기로 발송하는 단계;
    를 더 포함하는 것을 특징으로 하는 무인기 착륙 시스템.
  4. 제1 항에 있어서,
    상기 서버가 상기 무선단말기로부터 사용자명령을 수신 받는 경우, 상기 서버가 상기 사용자명령을 무인기로 전송하는 단계;
    를 더 포함하는 것을 특징으로 하는 무인기 착륙 시스템.
  5. 제4 항에 있어서,
    상기 사용자명령이 착륙명령인 경우, 상기 서버가 상기 무인기를 상기 절대좌표에 착륙하도록 제어하는 명령을 상기 무인기로 전송하는 단계;
    를 더 포함하는 것을 특징으로 하는 무인기 착륙 시스템.
  6. 제4 항에 있어서,
    상기 사용자명령이 이동명령인 경우, 상기 서버가 상기 무인기를 이동좌표로 이동하도록 제어하는 명령을 상기 무인기로 전송하는 단계;
    를 더 포함하는 것을 특징으로 하는 무인기 착륙 시스템
  7. 제1 항에 있어서,
    상기 서버가 상기 좌표변환단계에 있어서, 상기 픽셀좌표, 상기 무인기의 고도정보, 상기 이미지센서의 화각을 변수로 사용하여, 상기 픽셀좌표를 상기 절대좌표로 변환하는 것을 특징으로 하는 무인기 착륙 시스템.
  8. 제1 항에 있어서,
    상기 서버가 상기 이미지센서에 구비된 렌즈의 방사 왜곡 상수, 접선 왜곡 상수, 초점거리, 렌즈 중심 영상좌표를 변수로 하여 상기 이미지데이터를 보정하는 것을 특징으로 하는 무인기 착륙 시스템.
  9. 제1 항에 있어서,
    상기 서버가 상기 무인기로부터 상기 무인기의 고도 정보, 위치정보, 방위정보, 가속도 정보, 각속도 정보 및 상기 무인기의 이미지센서로부터 촬상된 이미지데이터 중 적어도 하나를 포함하는 무인기 상태정보를 수신하는 단계;
    를 더 포함하는 것을 특징으로 하는 무인기 착륙시스템
  10. 제1 항에 있어서,
    상기 좌표변환단계는,
    상기 서버가 거리별로 복수 회 촬상된 구조물데이터에서 인식점들을 추출하는 단계;
    상기 서버가 상기 이미지데이터에서 상기 인식점을 매칭하여 구조물을 특정하는 단계;
    상기 서버가 구조물 데이터베이스에서 상기 특정된 구조물의 크기 정보를 참조하여 상기 픽셀좌표를 상기 절대좌표로 변환하는 단계;
    를 포함하는 것을 특징으로 하는 무인기 착륙 시스템.
  11. 제3 항에 있어서,
    상기 서버가 상기 무선단말기로부터 촬영 요청을 수신하는 경우, 상기 무선단말기로 사용자인증정보를 요청하는 단계;
    상기 서버가 상기 무선단말기로부터 상기 사용자인증정보를 수신하는 경우 상기 사용자인증정보에 기초하여 상기 무선단말기의 적합 여부를 판단하는 단계;
    를 더 포함하는 것을 특징으로 하는 무인기 착륙 시스템.
  12. 무인기 착륙시스템에 있어서,
    무인기가 무선단말기로부터 상기 무인기에 구비된 이미지센서의 이미지데이터의 픽셀좌표를 수신하는 단계; 및
    상기 무인기가 상기 무인기의 상태정보를 바탕으로 하여 상기 픽셀좌표를 상기 무인기의 절대좌표로 변환하는 좌표변환단계;
    를 포함하는 것을 특징으로 하는 무인기 착륙 시스템.
  13. 제12 항에 있어서,
    상기 무인기가 상기 무인기의 방위정보, 가속도 정보, 각속도 정보 중 적어도 하나에 기초하여, 상기 이미지데이터의 촬상면이 지면에 수평을 유지하고 있는지 여부를 판단하는 단계;
    상기 무인기가 상기 이미지데이터의 촬상면이 수평을 유지하도록 상기 무인기의 자세를 제어하는 단계;
    를 더 포함하는 것을 특징으로 하는 무인기 착륙 시스템.
  14. 제12 항에 있어서,
    상기 픽셀좌표를 수신하는 단계 이전에, 상기 무인기가 상기 무선단말기로부터 촬상요청을 수신하는 경우, 상기 무인기에 구비된 상기 이미지센서를 통하여 상기 이미지데이터를 촬상하는 단계; 및
    상기 이미지데이터를 상기 무선단말기로 전송하는 단계;
    를 더 포함하는 것을 특징으로 하는 무인기 착륙 시스템.
  15. 무인기 착륙 시스템에 있어서,
    사용자단말기가 무인기에 구비된 이미지센서로 촬상된 이미지데이터를 수신 받는 경우, 상기 이미지데이터를 상기 사용자단말기에 구비된 디스플레이에 표시하는 단계;
    상기 사용자단말기가 상기 무인기의 상태정보를 바탕으로 하여 픽셀좌표를 상기 무인기의 절대좌표로 변환하는 좌표변환단계; 및
    상기 사용자단말기가 상기 무인기로 상기 절대좌표를 전송하는 단계;
    를 포함하는 것을 특징으로 하는 무인기 착륙 시스템.
KR1020190018944A 2019-02-19 2019-02-19 무인기 착륙 시스템 KR102235589B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020190018944A KR102235589B1 (ko) 2019-02-19 2019-02-19 무인기 착륙 시스템
PCT/KR2019/008864 WO2020171315A1 (ko) 2019-02-19 2019-07-18 무인기 착륙 시스템
US17/413,323 US20220009630A1 (en) 2019-02-19 2019-07-18 Unmanned aerial vehicle landing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190018944A KR102235589B1 (ko) 2019-02-19 2019-02-19 무인기 착륙 시스템

Publications (2)

Publication Number Publication Date
KR20200100944A true KR20200100944A (ko) 2020-08-27
KR102235589B1 KR102235589B1 (ko) 2021-04-02

Family

ID=72144628

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190018944A KR102235589B1 (ko) 2019-02-19 2019-02-19 무인기 착륙 시스템

Country Status (3)

Country Link
US (1) US20220009630A1 (ko)
KR (1) KR102235589B1 (ko)
WO (1) WO2020171315A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022075523A1 (ko) * 2020-10-06 2022-04-14 김동철 드론 및 드론 배송 방법

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230252896A1 (en) * 2022-02-08 2023-08-10 Nullmax (Hong Kong) Limited Autonomous driving system with air support

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130120176A (ko) * 2012-04-25 2013-11-04 한국항공우주산업 주식회사 무인 항공기의 위치 추적 방법
KR20150019771A (ko) * 2013-08-16 2015-02-25 한국항공우주연구원 무인 항공기의 착륙 방법 및 시스템
KR101574636B1 (ko) * 2015-07-23 2015-12-07 주식회사 지오스토리 면형방식 디지털 항공카메라로 촬영한 시계열 항공사진을 입체시하여 좌표를 연동하고 변화지역을 판독하는 시스템
KR20160058471A (ko) * 2014-11-17 2016-05-25 엘지전자 주식회사 이동 단말기 및 그 제어 방법
US9459620B1 (en) 2014-09-29 2016-10-04 Amazon Technologies, Inc. Human interaction with unmanned aerial vehicles
KR20180027060A (ko) * 2016-09-06 2018-03-14 강인화 무인항공기 및 무인항공기의 비행방법
KR101860310B1 (ko) * 2017-07-11 2018-05-24 연세대학교 산학협력단 무인항공기가 촬영한 동영상을 이용하여 파노라마 이미지를 생성하는 방법 및 장치

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4480212B2 (ja) * 1999-11-05 2010-06-16 アジア航測株式会社 空中写真の位置及び姿勢の計算方法
JP4532318B2 (ja) * 2005-03-25 2010-08-25 ヤマハ発動機株式会社 無人ヘリコプタ
US8521339B2 (en) * 2008-09-09 2013-08-27 Aeryon Labs Inc. Method and system for directing unmanned vehicles
KR20120081500A (ko) * 2011-01-11 2012-07-19 유세혁 복수개의 회전익을 가진 비행장치 및 그 제어방법
US9817396B1 (en) * 2014-06-09 2017-11-14 X Development Llc Supervisory control of an unmanned aerial vehicle
US20180025649A1 (en) * 2016-02-08 2018-01-25 Unmanned Innovation Inc. Unmanned aerial vehicle privacy controls
BR112019002084B1 (pt) * 2016-08-18 2023-01-31 Tevel Advanced Technologies Ltd Sistema e método para mapear e construir banco de dados e uso do sistema
US20190003840A1 (en) * 2016-08-30 2019-01-03 Faraday&Future Inc. Map registration point collection with mobile drone
US20210365725A1 (en) * 2017-02-01 2021-11-25 Conflu3Nce Ltd System and method for creating an image and/or automatically interpreting images
CN108628337A (zh) * 2017-03-21 2018-10-09 株式会社东芝 路径生成装置、路径控制系统以及路径生成方法
US11557057B2 (en) * 2017-05-04 2023-01-17 Skydio, Inc. Ground control point center determination
CN109839945B (zh) * 2017-11-27 2022-04-26 北京京东乾石科技有限公司 无人机降落方法、无人机降落装置及计算机可读存储介质
JP6743243B2 (ja) * 2018-06-05 2020-08-19 タタ コンサルタンシー サービシズ リミテッドTATA Consultancy Services Limited 磁気干渉の存在下でのデータ収集およびアセット検査のためのシステムおよび方法
US11074447B1 (en) * 2018-07-13 2021-07-27 Hana Resources, Inc. Land analysis system using drone-captured data
EP3837492A1 (en) * 2018-08-21 2021-06-23 SZ DJI Technology Co., Ltd. Distance measuring method and device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130120176A (ko) * 2012-04-25 2013-11-04 한국항공우주산업 주식회사 무인 항공기의 위치 추적 방법
KR20150019771A (ko) * 2013-08-16 2015-02-25 한국항공우주연구원 무인 항공기의 착륙 방법 및 시스템
US9459620B1 (en) 2014-09-29 2016-10-04 Amazon Technologies, Inc. Human interaction with unmanned aerial vehicles
KR20160058471A (ko) * 2014-11-17 2016-05-25 엘지전자 주식회사 이동 단말기 및 그 제어 방법
KR101574636B1 (ko) * 2015-07-23 2015-12-07 주식회사 지오스토리 면형방식 디지털 항공카메라로 촬영한 시계열 항공사진을 입체시하여 좌표를 연동하고 변화지역을 판독하는 시스템
KR20180027060A (ko) * 2016-09-06 2018-03-14 강인화 무인항공기 및 무인항공기의 비행방법
KR101860310B1 (ko) * 2017-07-11 2018-05-24 연세대학교 산학협력단 무인항공기가 촬영한 동영상을 이용하여 파노라마 이미지를 생성하는 방법 및 장치

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022075523A1 (ko) * 2020-10-06 2022-04-14 김동철 드론 및 드론 배송 방법

Also Published As

Publication number Publication date
WO2020171315A1 (ko) 2020-08-27
KR102235589B1 (ko) 2021-04-02
US20220009630A1 (en) 2022-01-13

Similar Documents

Publication Publication Date Title
US11704812B2 (en) Methods and system for multi-target tracking
US11194323B2 (en) Systems and methods for target tracking
US20190096069A1 (en) Systems and methods for visual target tracking
US20200346750A1 (en) Method for generating flight path, control device, and unmanned aerial vehicle
WO2021226876A1 (zh) 一种目标检测方法及装置
CN111344644B (zh) 用于基于运动的自动图像捕获的技术
KR101959366B1 (ko) 무인기와 무선단말기 간의 상호 인식 방법
KR20180064253A (ko) 비행 제어 방법 및 이를 지원하는 전자 장치
KR102235589B1 (ko) 무인기 착륙 시스템
WO2019230604A1 (ja) 検査システム
JP6849272B2 (ja) 無人航空機を制御するための方法、無人航空機、及び無人航空機を制御するためのシステム
JP2023100642A (ja) 検査システム
JP2003110981A (ja) 空撮映像処理システム及び無線式の小型無人飛行体
KR101651152B1 (ko) 공간 모델과 결합하는 드론의 영상영역 모니터링 시스템
CN112119428A (zh) 获取降落位置的方法、设备、无人机、系统及存储介质
JP6681101B2 (ja) 検査システム
KR102132945B1 (ko) 무인기 착륙 유도 방법
US20200088831A1 (en) Mobile body detection device, mobile body detection method, and mobile body detection program
KR20190123095A (ko) 드론 기반의 전방위 열화상 이미지 처리 방법 및 이를 위한 열화상 이미지 처리 시스템
KR102334509B1 (ko) 무인기와 무선단말기 간의 상호 인식 방법
JP7437930B2 (ja) 移動体及び撮像システム
KR20220068606A (ko) 부분 영상을 고려한 드론의 자동 착륙 알고리즘
Recker et al. Autonomous precision landing for the joint tactical aerial resupply vehicle
KR102367392B1 (ko) 무인기 착륙 유도 방법
KR102439142B1 (ko) 기간 시설의 이미지를 획득하는 방법 및 장치

Legal Events

Date Code Title Description
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant