KR102182128B1 - 위치 추적 기반의 항공 영상 합성 방법 및 장치 - Google Patents

위치 추적 기반의 항공 영상 합성 방법 및 장치 Download PDF

Info

Publication number
KR102182128B1
KR102182128B1 KR1020190086581A KR20190086581A KR102182128B1 KR 102182128 B1 KR102182128 B1 KR 102182128B1 KR 1020190086581 A KR1020190086581 A KR 1020190086581A KR 20190086581 A KR20190086581 A KR 20190086581A KR 102182128 B1 KR102182128 B1 KR 102182128B1
Authority
KR
South Korea
Prior art keywords
aerial
aerial images
coordinate information
aircraft
index
Prior art date
Application number
KR1020190086581A
Other languages
English (en)
Inventor
이상복
류정림
김지우
전재홍
이민수
Original Assignee
주식회사 에프엠웍스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 에프엠웍스 filed Critical 주식회사 에프엠웍스
Priority to KR1020190086581A priority Critical patent/KR102182128B1/ko
Application granted granted Critical
Publication of KR102182128B1 publication Critical patent/KR102182128B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENTS OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/08Arrangements of cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/30Interpretation of pictures by triangulation
    • G01C11/34Aerial triangulation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/13Receivers
    • G01S19/14Receivers specially adapted for specific applications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing

Abstract

위치 추적 기반의 항공 영상 합성 장치 및 방법이 개시된다.
위치 추적 기반의 항공 영상 합성 장치는 드론으로부터 획득하는 복수의 항공 영상 각각의 GPS 좌표 정보를 산출하고, 이를 이용하여 사용자가 지정한 대공 지표의 보정 위치 정보를 생성하며, 상기 복수의 항공 영상 중 상기 대공 지표의 보정 위치 정보를 포함하는 항공 영상을 기준으로 하여 상기 복수의 항공 영상을 합성한다.

Description

위치 추적 기반의 항공 영상 합성 방법 및 장치{AN APPARATUS AND METHOD OF MAKING AVIATION IMAGE BASED ON REAL TIME POSITION TRACKING}
본 발명은 위치 추적 기반의 항공 영상 합성 방법 및 장치에 관한 것으로, 더욱 상세하게는 드론에서 촬영하는 항공 영상의 위치 정보에 기반하여 복수의 항공 영상을 합성하는 위치 추적 기반의 항공 영상 합성 방법 및 장치에 관한 것이다.
산악 또는 해양환경 관제에 드론이 널리 활용되고 있다. 예를 들면, 드론은 국가공간정보 포탈에서 제공하는 지형정보에 기반한 고도비행으로 산악 환경을 안전하게 비행하면서 산악환경의 영상을 획득하여 제공할 수 있으며, 관리자는 드론으로부터 영상을 제공 받아 산불, 유류유출, 해양 인명피해 등을 발견할 수 있을 것이다.
한편 드론으로부터 제공되는 영상에서 산불발생, 유류유출 등을 발견하더라도 정확한 위치 좌표 정보는 알 수 없다.
예를 들면, 야간에 산불이 발생한 경우, 드론으로부터 제공되는 영상에서 화재발생지점만 화면에 보일 뿐 나머지 산악 지형을 확인할 수 있는 부분은 어둡게 보일 것이다. 이때 화재진압을 위해서는 화재발생지점의 정확한 위치 좌표 정보가 필요한데, 이를 확인하기 위해 드론을 가까이 접근시킬 경우, 공기의 밀도가 달라 드론의 추락 위험이 있다.
또한 드론으로부터 제공 받은 영상을 합성하여 정사영상이나 3차원 지도를 생성할 수 있는데, 영상의 정확한 위치 좌표 획득이 어렵기 때문에 정사영상 생성을 위해 요구되는 항공 영상의 개수 또는 연산량이 많아진다는 문제점이 있다.
본 발명의 일측면은 드론에서 촬영하는 항공 영상의 위치 좌표 정보를 획득하고, 이를 이용하여 대공 지표를 보정한 뒤 정사영상 또는 3차원 지도 생성을 위해 복수의 항공 영상을 합성하는 위치 추적 기반의 항공 영상 합성 방법 및 장치를 제공한다.
본 발명의 기술적 과제는 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
상기 과제를 해결하기 위한 본 발명의 위치 추적 기반의 항공 영상 합성 장치는 지형을 나타내는 3차원 좌표 정보에 기반한 비행경로를 따라 비행하는 드론에서 획득하는 복수의 항공 영상을 합성하여 정사영상 또는 3차원 지도를 생성하는 위치 추적 기반의 항공 영상 합성 장치에 있어서, 상기 드론으로부터 복수의 항공 영상을 획득하고, 복수의 항공 영상 각각의 GPS 좌표 정보를 산출하는 위치 추적부, 상기 복수의 항공 영상 각각의 GPS 좌표 정보 및 사용자가 지정한 대공 지표를 환산한 GPS 좌표 정보를 비교하여 상기 복수의 항공 영상 중 대공 지표 근접 항공 영상 리스트를 추출하고, 상기 대공 지표 근접 항공 영상 리스트에 포함되는 항공 영상으로부터 상기 대공 지표의 보정 위치 정보를 생성하는 대공 지표 보정부 및 상기 복수의 항공 영상 중 상기 대공 지표의 보정 위치 정보를 포함하는 항공 영상을 기준으로 하여 상기 복수의 항공 영상을 합성하는 항공 영상 합성부를 포함한다.
한편, 상기 위치 추적부는, 상기 드론으로부터 상기 드론의 현재 위치 좌표 및 상기 드론에 탑재된 카메라가 갖는 각도를 포함하는 카메라의 자세 정보를 수신하고, 상기 드론의 현재 위치 좌표, 상기 카메라의 자세 정보 및 미리 저장된 상기 카메라의 화각을 이용한 삼각측량으로 상기 복수의 항공 영상 각각의 3차원 좌표 정보를 산출할 수 있다.
또한, 상기 위치 추적부는, GPS 좌표 체계를 갖는 3차원 지도를 출력하기 위한 인터페이스를 생성하고, 상기 3차원 지도에서 복수의 항공 영상 각각의 GPS 좌표 정보에 해당하는 위치에 GPS 포인트를 생성할 수 있다.
또한, 상기 대공 지표 보정부는, 사용자가 지정한 적어도 하나의 대공 지표를 GPS 좌표 정보로 환산하여 상기 3차원 지도 상에서 해당하는 위치에 대공 지표 포인트를 생성하고, 상기 3차원 지도 상에 생성된 GPS 포인트 중 상기 대공 지표 포인트와 미리 설정된 거리 이내에 위치하는 GPS 포인트를 추출하여 상기 대공 지표 근접 항공 영상 리스트로 생성하며, 상기 3차원 지도 상에서 추출한 GPS 포인트의 색상을 변경하여 표시할 수 있다.
또한, 상기 대공 지표 보정부는, 상기 3차원 지도에서 상기 대공 지표 근접 항공 영상 리스트로 추출된 GPS 포인트 중 어느 하나의 GPS 포인트가 선택되는 경우, 해당 항공 영상을 출력하여 사용자가 대공 지표의 보정 위치를 마킹할 수 있도록 하는 인터페이스를 생성할 수 있다.
또한, 상기 항공 영상 합성부는, 상기 복수의 항공 영상 각각의 GPS 좌표 정보에 맞추어 상기 복수의 항공 영상을 합성할 수 있다.
한편, 본 발명의 위치 추적 기반의 항공 영상 합성 방법은 지형을 나타내는 3차원 좌표 정보에 기반한 비행경로를 따라 비행하는 드론에서 획득하는 복수의 항공 영상을 합성하여 정사영상 또는 3차원 지도를 생성하는 항공 영상 합성 장치에서의 위치 추적 기반의 항공 영상 합성 방법에 있어서, 상기 드론으로부터 복수의 항공 영상을 획득하는 단계, 상기 복수의 항공 영상 각각의 GPS 좌표 정보를 산출하는 단계, 상기 복수의 항공 영상 각각의 GPS 좌표 정보 및 사용자가 지정한 대공 지표를 환산한 GPS 좌표 정보를 비교하여 상기 복수의 항공 영상 중 대공 지표 근접 항공 영상 리스트를 추출하는 단계, 상기 대공 지표 근접 항공 영상 리스트에 포함되는 항공 영상으로부터 상기 대공 지표의 보정 위치 정보를 생성하는 단계 및 상기 복수의 항공 영상 중 상기 대공 지표의 보정 위치 정보를 포함하는 항공 영상을 기준으로 하여 상기 복수의 항공 영상을 합성하는 단계를 포함한다.
한편, 상기 복수의 항공 영상 각각의 GPS 좌표 정보를 산출하는 단계는, 상기 드론으로부터 상기 드론의 현재 위치 좌표 및 상기 드론에 탑재된 카메라가 갖는 각도를 포함하는 카메라의 자세 정보를 수신하는 단계 및 상기 드론의 현재 위치 좌표, 상기 카메라의 자세 정보 및 미리 저장된 상기 카메라의 화각을 이용한 삼각측량으로 상기 복수의 항공 영상 각각의 3차원 좌표 정보를 산출하는 단계를 포함할 수 있다.
또한, 상기 복수의 항공 영상 각각의 GPS 좌표 정보 및 사용자가 지정한 대공 지표를 환산한 GPS 좌표 정보를 비교하여 상기 복수의 항공 영상 중 대공 지표 근접 항공 영상 리스트를 추출하는 단계는, GPS 좌표 체계를 갖는 3차원 지도를 출력하기 위한 인터페이스를 생성하는 단계 및 상기 3차원 지도에서 복수의 항공 영상 각각의 GPS 좌표 정보에 해당하는 위치에 GPS 포인트를 생성하는 단계를 포함할 수 있다.
또한, 상기 복수의 항공 영상 각각의 GPS 좌표 정보 및 사용자가 지정한 대공 지표를 환산한 GPS 좌표 정보를 비교하여 상기 복수의 항공 영상 중 대공 지표 근접 항공 영상 리스트를 추출하는 단계는, 사용자가 지정한 적어도 하나의 대공 지표를 GPS 좌표 정보로 환산하여 상기 3차원 지도 상에서 해당하는 위치에 대공 지표 포인트를 생성하는 단계, 상기 3차원 지도 상에 생성된 GPS 포인트 중 상기 대공 지표 포인트와 미리 설정된 거리 이내에 위치하는 GPS 포인트를 추출하여 상기 대공 지표 근접 항공 영상 리스트로 생성하는 단계 및 상기 3차원 지도 상에서 추출한 GPS 포인트의 색상을 변경하여 표시하는 단계를 포함할 수 있다.
또한, 상기 대공 지표 근접 항공 영상 리스트에 포함되는 항공 영상으로부터 상기 대공 지표의 보정 위치 정보를 생성하는 단계는, 상기 3차원 지도에서 상기 대공 지표 근접 항공 영상 리스트로 추출된 GPS 포인트 중 어느 하나의 GPS 포인트가 선택되는 경우, 해당 항공 영상을 출력하여 사용자가 출력된 화면에서 대공 지표의 보정 위치를 마킹할 수 있도록 하는 인터페이스를 생성하는 단계 및 상기 대공 지표의 보정 위치 마킹에 따라 상기 대공 지표의 보정 위치 정보를 생성하는 단계를 포함할 수 있다.
또한, 상기 복수의 항공 영상 중 상기 대공 지표의 보정 위치 정보를 포함하는 항공 영상을 기준으로 하여 상기 복수의 항공 영상을 합성하는 단계는, 상기 복수의 항공 영상 각각의 GPS 좌표 정보에 맞추어 상기 복수의 항공 영상을 합성하는 단계를 포함할 수 있다.
본 발명에 따르면, 사용자 지정 대공 지표를 기준으로 한 정사 영상 또는 3차원 지도를 획득할 수 있으며, 실시간 위치 추적에 기반하여 정사영상 또는 3차원 지도를 합성함으로써, 영상의 개수 및 연산량을 최소화할 수 있다.
도 1은 본 발명의 일 실시예에 따른 위치 추적 시스템의 개념도이다.
도 2는 도 1에 도시된 본 발명의 일 실시예에 따른 위치 추적 시스템에서의 대상점 위치 추적을 설명하기 위한 도면이다.
도 3은 도 1에 도시된 실시간 위치 추적 장치에서의 대상점의 위치 좌표 산출 방법을 설명하기 위한 도면이다.
도 4는 본 발명의 다른 실시예에 따른 항공 영상 합성 장치의 제어 블록도이다.
도 5는 도 4에 도시된 위치 추적부에서 출력하는 화면의 일 예이다.
도 6은 본 발명의 일 실시예에 따른 위치 추적 기반의 항공 영상 합성 방법의 흐름도이다.
후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예와 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.
이하, 도면들을 참조하여 본 발명의 바람직한 실시예들을 보다 상세하게 설명하기로 한다.
도 1은 본 발명의 일 실시예에 따른 위치 추적 시스템의 개념도이다.
도 1을 참조하면, 본 발명의 일 실시예에 따른 위치 추적 시스템(1000)은 드론(10) 및 실시간 위치 추적 장치(100)를 포함할 수 있다.
본 발명의 일 실시예에 따른 위치 추적 시스템(1000)은 드론(10)을 이용하여 항공 영상을 획득하고, 항공 영상에 설정되는 대상점의 정확한 3차원 좌표 정보를 산출하여 제공할 수 있다.
드론(10)은 무인 회전익 구조체로, 자율비행 소프트웨어(FMS)에 의해 설정되는 비행경로를 따라 비행할 수 있다. 자율비행 소프트웨어에 따르면 드론(10)이 비행할 지형을 나타내는 3차원 좌표 정보에 기반하여 비행경로가 설정될 수 있다. 예를 들면, 지형을 나타내는 3차원 좌표 정보는 국가공간정보 포탈에서 제공하는 DEM(Digital Elevation Model) 또는 해양수산부에서 제공하는 해수면 DB(지오이드)일 수 있다. 드론(10)은 이러한 산악 또는 해양환경을 나타내는 3차원 좌표 정보에 기반하여 설정되는 고도 및 비행경로를 따라 비행할 수 있다.
드론(10)은 카메라(11)가 탑재되어, 비행하는 지형의 영상을 획득할 수 있다. 여기서 카메라(11)는 짐벌에 의해 각도 조절이 가능하여, 짐벌의 회전 각도 내에서 회전함으로써 영상의 중심을 이동시킬 수 있다. 예를 들면, 카메라(11)는 항법 좌표계에 대해 카메라가 갖는 3개의 각도(롤(roll), 피치(pitch) 및 요(yaw))가 제어될 수 있으며, 이하의 설명에서 카메라(11)의 자세 정보는 카메라의 롤, 피치 및 요 각도를 의미한다.
드론(10)은 드론(10)의 위치 정보를 확인하거나 이를 얻기 위한 위치 정보 모듈을 포함할 수 있다. 예를 들면, 위치 정보 모듈은 GPS(Global Position System) 모듈일 수 있으며, 위성으로부터 수신한 위치 정보로부터 위도, 경도, 고도뿐만 아니라 3차원의 속도 정보와 함께 정확한 시간까지 얻을 수 있다. 따라서 드론(10)은 정확한 현재 위치 좌표를 획득할 수 있으며, 이를 이용하여 비행경로 등을 제어할 수 있다.
드론(10)은 외부 장치와 통신을 가능하게 하는 통신 모듈이 탑재될 수 있다. 예를 들면, 통신 모듈은 블루투스, 3G, 4G, 5G, 적외선 및 무선 LAN 통신 중 어느 하나의 통신을 가능하게 하는 구성요소를 포함하여 구현될 수 있다. 이에 드론(10)은 실시간 위치 추적 장치(100)와 통신하여 카메라(11)를 통해 획득하는 영상에 설정되는 대상점의 위치 추적을 위한 각종 데이터를 송수신할 수 있다.
실시간 위치 추적 장치(100)는 통신이 가능하고 정보의 입출력이 가능한 장치로, 예를 들면, PC, 스마트폰, 테블릿 등으로 구현될 수 있으며, 실시간 위치 추적을 위한 소프트웨어(애플리케이션)가 설치되어 실행될 수 있다.
실시간 위치 추적 장치(100)는 드론(10)과 양방향 통신을 수행함으로써, 드론(10)으로부터 카메라(11)를 통해 획득하는 항공 영상을 수신하여 출력할 수 있다. 실시간 위치 추적 장치(100)는 드론(10)으로부터 드론(10)의 현재 위치 좌표, 카메라(11)의 자세 정보 등을 수신하고, 이를 삼각측량법에 적용하여 대상점의 3차원 좌표 정보를 산출할 수 있다. 이와 관련하여 도 2를 예로 들어 설명한다.
도 2는 도 1에 도시된 본 발명의 일 실시예에 따른 위치 추적 시스템에서의 대상점 위치 추적을 설명하기 위한 도면이다.
도 2를 참조하면, 드론(10)은 해수면 DB에 기반하여 설정되는 비행경로를 따라 비행하면서 해수면 영상을 획득할 수 있다.
실시간 위치 추적 장치(100)는 드론(10)으로부터 영상을 수신하여 출력할 수 있으며, 영상에서 대상점을 선택할 수 있다. 일예로, 실시간 위치 추적 장치(100)는 영상의 한 픽셀을 대상점으로 선택할 수 있다.
실시간 위치 추적 장치(100)는 드론(10)으로부터 드론(10)의 현재 위치 좌표 및 카메라(11)의 자세 정보를 수신하고, 미리 저장된 해수면 DB 및 카메라(11)의 화각 정보를 이용하여 삼각측량법에 의해 대상점의 3차원 위치 좌표 정보를 획득할 수 있다. 이와 관련하여 도 3을 참조하여 설명한다.
도 3은 도 1에 도시된 실시간 위치 추적 장치에서의 대상점의 위치 좌표 산출 방법을 설명하기 위한 도면이다.
실시간 위치 추적 장치(100)는 삼각측량법을 이용하여 영상에 설정되는 대상점의 3차원 좌표 정보를 산출할 수 있다.
실시간 위치 추적 장치(100)는 드론(10)이 비행하는 지형을 나타내는 3차원 좌표 정보 및 드론(10)에 탑재된 카메라(11)의 화각을 미리 획득하여 저장할 수 있다. 실시간 위치 추적 장치(100)는 드론(10)으로부터 드론(10)의 현재 위치 좌표 및 카메라(11)의 자세 정보를 획득할 수 있다. 실시간 위치 추적 장치(100)는 이러한 데이터들을 이용한 삼각측량법을 통해 대상점의 3차원 좌표 정보를 역추적할 수 있다. 삼각측량법은 삼각형 한 변의 길이와 그 양쪽의 각을 알면 남은 변의 길이를 계산해 내는 수학공식을 이용해 평면위치를 결정하는 측량법이다.
도 3을 참조하면, 실시간 위치 추적 장치(100)는 대상점(P)을 지나며, 대상점(P)을 중심으로 하는 기선(
Figure 112019073411044-pat00001
)을 설정할 수 있다. 즉
Figure 112019073411044-pat00002
Figure 112019073411044-pat00003
의 길이는 동일하다.
실시간 위치 추적 장치(100)는 드론(10)의 현재 위치 좌표(D)로부터 기선(
Figure 112019073411044-pat00004
)으로 내리는 수선(
Figure 112019073411044-pat00005
)을 설정할 수 있다.
실시간 위치 추적 장치(100)는 수선(
Figure 112019073411044-pat00006
)의 길이를 산출할 수 있다. 실시간 위치 추적 장치(100)는 드론(10)의 현재 위치 좌표(D) 및 드론(10)이 비행하는 지형을 나타내는 3차원 좌표 정보를 이용하여 수선(
Figure 112019073411044-pat00007
)의 길이를 산출할 수 있다. 예컨대 실시간 위치 추적 장치(100)는 드론(10)의 현재 위치 좌표(D)의 고도값에서 드론(10)이 비행하는 지형을 나타내는 3차원 좌표 정보의 고도값을 빼는 방식으로 수선(
Figure 112019073411044-pat00008
)의 길이를 산출할 수 있다.
실시간 위치 추적 장치(100)는 드론(10)의 현재 위치 좌표(D) 및 대상점(P)을 연결하는 선(
Figure 112019073411044-pat00009
)을 설정할 수 있으며, 카메라(11)의 화각(
Figure 112019073411044-pat00010
) 및 카메라(11)의 자세 정보에 포함되는 각도(α)를 이용하여 드론(10)의 현재 위치 좌표(D) 및 대상점(P)을 연결하는 선(
Figure 112019073411044-pat00011
)과 수선(
Figure 112019073411044-pat00012
)이 이루는 각도(β)를 산출할 수 있다. 예컨대 카메라(11)는 영상의 중심에 대상점(P)이 위치하도록 앵글을 조절하므로, 좌표 정보 산출부(130)는 화각(
Figure 112019073411044-pat00013
)의 1/2에서 카메라(11)의 자세 정보에 포함되는 각도(α)를 뺀 값을 드론(10)의 현재 위치 좌표(D) 및 대상점(P)을 연결하는 선(
Figure 112019073411044-pat00014
)과 수선(
Figure 112019073411044-pat00015
)이 이루는 각도(β)로 산출할 수 있다.
이에 실시간 위치 추적 장치(100)는 수선(
Figure 112019073411044-pat00016
)의 길이 및 수선(
Figure 112019073411044-pat00017
)과 선(
Figure 112019073411044-pat00018
)이 이루는 각도(β)를 산출하였으므로, 이를 삼각함수에 적용하는 경우, 선(
Figure 112019073411044-pat00019
)의 길이를 산출할 수 있다.
실시간 위치 추적 장치(100)는 드론(10)의 현재 위치 좌표(D) 및 대상점(P)을 연결하는 선(
Figure 112019073411044-pat00020
)의 길이와, 드론(10)의 현재 위치 좌표(D) 및 지형을 나타내는 3차원 좌표 정보를 이용하여 대상점(P)의 3차원 좌표 정보를 획득할 수 있을 것이다.
이와 같이 본 발명의 일 실시예에 따른 위치 추적 시스템(1000)은 드론(10)으로부터 드론(10)의 현재 위치 좌표 및 카메라(11)의 자세 정보를 포함하는 데이터를 획득하여 드론(10)에서 획득하는 항공 영상의 정확한 위치 좌표 획득이 가능하다.
이하 본 발명의 일 실시예에 따른 위치 추적 시스템(1000)을 적용하여 항공 영상을 합성하는 장치에 대해 구체적으로 설명한다.
도 4는 본 발명의 다른 실시예에 따른 항공 영상 합성 장치의 제어 블록도이다.
도 4를 참조하면, 본 발명의 다른 실시예에 따른 항공 영상 합성 장치(200)는 위치 추적부(210), 대공 지표(GCP: Ground Control Point) 보정부(230) 및 항공 영상 합성부(250)를 포함할 수 있다.
본 발명의 일 실시예에 따른 항공 영상 합성 장치(200)는 도 4에 도시된 구성요소보다 많은 구성요소에 의해 구현될 수 있고, 그보다 적은 구성요소에 의해 구현될 수도 있다.
이하 도 4에 도시된 본 발명의 다른 실시예에 따른 항공 영상 합성 장치(200)의 각 구성요소에 대하여 구체적으로 설명한다.
위치 추적부(210)는 도 1에 도시된 본 발명의 일 실시예에 따른 실시간 위치 추적 장치(100)가 그대로 적용될 수 있다. 즉 위치 추적부(210)는 드론(10)과 양방향 통신을 수행함으로써, 드론(10)으로부터 카메라(11)를 통해 획득하는 항공 영상을 수신하여 출력할 수 있다. 또한, 위치 추적부(100)는 드론(10)으로부터 드론(10)의 현재 위치 좌표, 카메라(11)의 자세 정보 등을 수신하고, 이를 삼각측량법에 적용하여 항공 영상의 GPS 좌표 정보를 산출할 수 있다. 이와 관련하여 구체적인 설명은 상술한 것으로 대체한다.
위치 추적부(210)는 드론(10)으로부터 복수의 항공 영상을 획득할 수 있으며, 복수의 항공 영상 각각의 GPS 좌표 정보를 산출할 수 있다. 위치 추적부(210)는 복수의 항공 영상과 GPS 좌표 정보를 매칭하여 저장할 수 있다.
위치 추적부(210)는 GPS 좌표 체계를 갖는 3차원 지도 상에 복수의 항공 영상에 해당하는 GPS 좌표 정보 각각의 포인트를 도시할 수 있다. 이와 관련하여 도 5를 예로 들어 설명한다.
도 5는 도 4에 도시된 위치 추적부에서 출력하는 화면의 일 예이다.
도 5를 참조하면, 위치 추적부(210)는 GPS 좌표 체계를 갖는 3차원 지도를 출력하기 위한 인터페이스를 생성할 수 있다. 위치 추적부(210)는 3차원 지도에서 복수의 항공 영상 각각의 GPS 좌표 정보에 해당하는 위치에 GPS 포인트(1)를 생성할 수 있다. 위치 추적부(210)는 복수의 항공 영상 각각의 라벨과 3차원 지도 상에 표시된 GPS 포인트(1) 각각의 라벨을 매칭하여 저장할 수 있다. 예컨대, 위치 추적부(210)는 3차원 지도에서 어느 하나의 GPS 포인트(1)가 선택되는 경우, 해당 라벨이 부여된 항공 영상을 큰 화면으로 보여줄 수도 있다.
대공 지표 보정부(230)는 사용자가 지정한 적어도 하나의 대공 지표와 근거리의 GPS 좌표 정보를 갖는 항공 영상을 출력하여, 사용자로부터 대공 지표의 보정 위치 정보를 획득할 수 있다. 이와 관련하여 도 5를 예로 들어 설명한다.
도 5를 참조하면, 대공 지표 보정부(230)는 사용자가 지정한 적어도 하나의 대공 지표를 GPS 좌표 정보로 환산하고, 위치 추적부(210)에서 생성하는 3차원 지도 상에서 GPS 좌표 정보에 해당하는 위치에 대공 지표 포인트(5)를 생성할 수 있다.
대공 지표 보정부(230)는 GPS 포인트(1) 중 대공 지표 포인트(5)와 미리 설정된 거리 이내에 위치하는 GPS 포인트(1')를 추출하여 대공 지표 근접 항공 영상 리스트로 생성할 수 있다. 대공 지표 보정부(230)는 GPS 포인트(1) 중 대공 지표 포인트(5)와 미리 설정된 거리 이내에 위치하는 GPS 포인트(1')의 색상을 변경하여 표시할 수 있다.
대공 지표 보정부(230)는 3차원 지도에서 어느 하나의 GPS 포인트(1')가 선택되는 경우, 해당 라벨이 부여된 항공 영상을 큰 화면으로 출력할 수 있으며, 사용자가 출력된 화면에서 대공 지표의 위치를 직접 마킹할 수 있도록 하는 인터페이스를 생성할 수 있다.
이에 따라 대공 지표 보정부(230)는 사용자에 의해 마킹된 대공 지표의 보정 위치 정보를 포함하는 항공 영상을 생성할 수 있다.
항공 영상 합성부(250)는 복수의 항공 영상의 GPS 좌표 정보에 맞추어 복수의 항공 영상을 합성할 수 잇다.
이때 항공 영상 합성부(250)는 복수의 항공 영상 중 대공 지표의 보정 위치 정보를 포함하는 항공 영상을 기준으로 하여, 복수의 항공 영상의 합성을 진행할 수 있다.
이에 따라 항공 영상 합성부(250)는 사용자 지정 대공 지표를 기준으로 한 정사 영상 또는 3차원 지도를 획득할 수 있을 것이다.
이와 같이 본 발명의 다른 실시예에 따른 항공 영상 합성 장치(200)는 실시간 위치 추적에 기반하여 정사영상 또는 3차원 지도를 합성함으로써, 영상의 개수 및 연산량을 최소화할 수 있으며, 대공 지표의 위치 보정이 가능하다.
이하에서는 도 6을 참조하여 본 발명의 일 실시예에 따른 위치 추적 기반의 항공 영상 합성 방법에 대하여 설명한다.
도 6은 본 발명의 일 실시예에 따른 위치 추적 기반의 항공 영상 합성 방법의 흐름도이다.
본 발명의 일 실시예에 따른 위치 추적 기반의 항공 영상 합성 방법은 도 4에 도시된 본 발명의 다른 실시예에 따른 항공 영상 합성 장치(200)와 실질적으로 동일한 구성 하에서 진행될 수 있다. 따라서 도 4의 장치(200)와 동일한 구성요소는 동일한 도면부호를 부여하고 반복되는 설명은 생략한다.
도 6을 참조하면, 위치 추적부(210)는 드론(10)으로부터 카메라(11)를 통해 획득하는 복수의 항공 영상을 수신할 수 있다(S1000).
위치 추적부(210)는 복수의 항공 영상 각각의 GPS 좌표 정보를 산출할 수 있다(S2000).
위치 추적부(210)는 GPS 좌표 체계를 갖는 3차원 지도 상에 복수의 항공 영상에 해당하는 GPS 좌표 정보 각각의 포인트를 도시할 수 있다.
대공 지표 보정부(230)는 복수의 항공 영상 각각의 GPS 좌표 정보 및 사용자가 지정한 대공 지표를 환산한 GPS 좌표 정보를 비교하여 복수의 항공 영상 중 대공 지표 근접 항공 영상 리스트를 추출할 수 있다(S3000).
대공 지표 보정부(230)는 사용자가 지정한 적어도 하나의 대공 지표를 GPS 좌표 정보로 환산하고, 위치 추적부(210)에서 생성하는 3차원 지도 상에서 GPS 좌표 정보에 해당하는 위치에 대공 지표 포인트(5)를 생성할 수 있다.
대공 지표 보정부(230)는 GPS 포인트(1) 중 대공 지표 포인트(5)와 미리 설정된 거리 이내에 위치하는 GPS 포인트(1')를 추출하여 대공 지표 근접 항공 영상 리스트로 생성할 수 있다. 대공 지표 보정부(230)는 GPS 포인트(1) 중 대공 지표 포인트(1)와 미리 설정된 거리 이내에 위치하는 GPS 포인트(1')의 색상을 변경하여 표시할 수 있다.
대공 지표 보정부(230)는 대공 지표 근접 항공 영상 리스트에 포함되는 항공 영상으로부터 대공 지표의 보정 위치 정보를 생성할 수 있다(S4000).
대공 지표 보정부(230)는 3차원 지도에서 어느 하나의 GPS 포인트(1')가 선택되는 경우, 해당 라벨이 부여된 항공 영상을 큰 화면으로 출력할 수 있으며, 사용자가 출력된 화면에서 대공 지표의 위치를 직접 마킹할 수 있도록 하는 인터페이스를 생성할 수 있다.
이에 따라 대공 지표 보정부(230)는 사용자에 의해 마킹된 대공 지표의 보정 위치 정보를 포함하는 항공 영상을 생성할 수 있다.
항공 영상 합성부(250)는 복수의 항공 영상 중 대공 지표의 보정 위치 정보를 포함하는 항공 영상을 기준으로 하여, 복수의 항공 영상을 합성할 수 있다(S5000).
항공 영상 합성부(250)는 복수의 항공 영상의 GPS 좌표 정보에 맞추어 복수의 항공 영상을 합성하되, 복수의 항공 영상 중 대공 지표의 보정 위치 정보를 포함하는 항공 영상을 기준으로 하여, 복수의 항공 영상의 합성을 진행할 수 있다.
이에 따라 항공 영상 합성부(250)는 사용자 지정 대공 지표를 기준으로 한 정사 영상 또는 3차원 지도를 획득할 수 있을 것이다.
이와 같은, 본 발명의 위치 추적 기반의 항공 영상 합성 방법은 어플리케이션으로 구현되거나 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다.
상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거니와 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수도 있다.
컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD 와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다.
프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상에서는 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
1000: 위치 추적 시스템
10: 드론
11: 카메라
100: 실시간 위치 추적 장치
200: 항공 영상 합성 장치

Claims (12)

  1. 지형을 나타내는 3차원 좌표 정보에 기반한 비행경로를 따라 비행하는 드론에서 획득하는 복수의 항공 영상을 합성하여 정사영상 또는 3차원 지도를 생성하는 위치 추적 기반의 항공 영상 합성 장치에 있어서,
    상기 드론으로부터 복수의 항공 영상을 획득하고, 복수의 항공 영상 각각의 GPS 좌표 정보를 산출하는 위치 추적부;
    상기 복수의 항공 영상 각각의 GPS 좌표 정보 및 사용자가 지정한 대공 지표를 환산한 GPS 좌표 정보를 비교하여 상기 복수의 항공 영상 중 대공 지표 근접 항공 영상 리스트를 추출하고, 상기 대공 지표 근접 항공 영상 리스트에 포함되는 항공 영상으로부터 상기 대공 지표의 보정 위치 정보를 생성하는 대공 지표 보정부; 및
    상기 복수의 항공 영상 중 상기 대공 지표의 보정 위치 정보를 포함하는 항공 영상을 기준으로 하여 상기 복수의 항공 영상을 합성하는 항공 영상 합성부를 포함하고,
    상기 위치 추적부는,
    GPS 좌표 체계를 갖는 3차원 지도를 출력하기 위한 인터페이스를 생성하고, 상기 3차원 지도에서 복수의 항공 영상 각각의 GPS 좌표 정보에 해당하는 위치에 GPS 포인트를 생성하며,
    상기 대공 지표 보정부는,
    사용자가 지정한 적어도 하나의 대공 지표를 GPS 좌표 정보로 환산하여 상기 3차원 지도 상에서 해당하는 위치에 대공 지표 포인트를 생성하고, 상기 3차원 지도 상에 생성된 GPS 포인트 중 상기 대공 지표 포인트와 미리 설정된 거리 이내에 위치하는 GPS 포인트를 추출하여 상기 대공 지표 근접 항공 영상 리스트로 생성하며, 상기 3차원 지도 상에서 추출한 GPS 포인트의 색상을 변경하여 표시하는 위치 추적 기반의 항공 영상 합성 장치.
  2. 제1항에 있어서,
    상기 위치 추적부는,
    상기 드론으로부터 상기 드론의 현재 위치 좌표 및 상기 드론에 탑재된 카메라가 갖는 각도를 포함하는 카메라의 자세 정보를 수신하고, 상기 드론의 현재 위치 좌표, 상기 카메라의 자세 정보 및 미리 저장된 상기 카메라의 화각을 이용한 삼각측량으로 상기 복수의 항공 영상 각각의 3차원 좌표 정보를 산출하는 위치 추적 기반의 항공 영상 합성 장치.
  3. 삭제
  4. 삭제
  5. 제1항에 있어서,
    상기 대공 지표 보정부는,
    상기 3차원 지도에서 상기 대공 지표 근접 항공 영상 리스트로 추출된 GPS 포인트 중 어느 하나의 GPS 포인트가 선택되는 경우, 해당 항공 영상을 출력하여 사용자가 대공 지표의 보정 위치를 마킹할 수 있도록 하는 인터페이스를 생성하는 위치 추적 기반의 항공 영상 합성 장치.
  6. 제1항에 있어서,
    상기 항공 영상 합성부는,
    상기 복수의 항공 영상 각각의 GPS 좌표 정보에 맞추어 상기 복수의 항공 영상을 합성하는 위치 추적 기반의 항공 영상 합성 장치.
  7. 지형을 나타내는 3차원 좌표 정보에 기반한 비행경로를 따라 비행하는 드론에서 획득하는 복수의 항공 영상을 합성하여 정사영상 또는 3차원 지도를 생성하는 항공 영상 합성 장치에서의 위치 추적 기반의 항공 영상 합성 방법에 있어서,
    상기 드론으로부터 복수의 항공 영상을 획득하는 단계;
    상기 복수의 항공 영상 각각의 GPS 좌표 정보를 산출하는 단계;
    상기 복수의 항공 영상 각각의 GPS 좌표 정보 및 사용자가 지정한 대공 지표를 환산한 GPS 좌표 정보를 비교하여 상기 복수의 항공 영상 중 대공 지표 근접 항공 영상 리스트를 추출하는 단계;
    상기 대공 지표 근접 항공 영상 리스트에 포함되는 항공 영상으로부터 상기 대공 지표의 보정 위치 정보를 생성하는 단계; 및
    상기 복수의 항공 영상 중 상기 대공 지표의 보정 위치 정보를 포함하는 항공 영상을 기준으로 하여 상기 복수의 항공 영상을 합성하는 단계를 포함하고,
    상기 복수의 항공 영상 각각의 GPS 좌표 정보 및 사용자가 지정한 대공 지표를 환산한 GPS 좌표 정보를 비교하여 상기 복수의 항공 영상 중 대공 지표 근접 항공 영상 리스트를 추출하는 단계는,
    GPS 좌표 체계를 갖는 3차원 지도를 출력하기 위한 인터페이스를 생성하는 단계; 및
    상기 3차원 지도에서 복수의 항공 영상 각각의 GPS 좌표 정보에 해당하는 위치에 GPS 포인트를 생성하는 단계를 포함하며,
    상기 복수의 항공 영상 각각의 GPS 좌표 정보 및 사용자가 지정한 대공 지표를 환산한 GPS 좌표 정보를 비교하여 상기 복수의 항공 영상 중 대공 지표 근접 항공 영상 리스트를 추출하는 단계는,
    사용자가 지정한 적어도 하나의 대공 지표를 GPS 좌표 정보로 환산하여 상기 3차원 지도 상에서 해당하는 위치에 대공 지표 포인트를 생성하는 단계;
    상기 3차원 지도 상에 생성된 GPS 포인트 중 상기 대공 지표 포인트와 미리 설정된 거리 이내에 위치하는 GPS 포인트를 추출하여 상기 대공 지표 근접 항공 영상 리스트로 생성하는 단계; 및
    상기 3차원 지도 상에서 추출한 GPS 포인트의 색상을 변경하여 표시하는 단계를 포함하는 위치 추적 기반의 항공 영상 합성 방법.
  8. 제7항에 있어서,
    상기 복수의 항공 영상 각각의 GPS 좌표 정보를 산출하는 단계는,
    상기 드론으로부터 상기 드론의 현재 위치 좌표 및 상기 드론에 탑재된 카메라가 갖는 각도를 포함하는 카메라의 자세 정보를 수신하는 단계; 및
    상기 드론의 현재 위치 좌표, 상기 카메라의 자세 정보 및 미리 저장된 상기 카메라의 화각을 이용한 삼각측량으로 상기 복수의 항공 영상 각각의 3차원 좌표 정보를 산출하는 단계를 포함하는 위치 추적 기반의 항공 영상 합성 방법.
  9. 삭제
  10. 삭제
  11. 제7항에 있어서,
    상기 대공 지표 근접 항공 영상 리스트에 포함되는 항공 영상으로부터 상기 대공 지표의 보정 위치 정보를 생성하는 단계는,
    상기 3차원 지도에서 상기 대공 지표 근접 항공 영상 리스트로 추출된 GPS 포인트 중 어느 하나의 GPS 포인트가 선택되는 경우, 해당 항공 영상을 출력하여 사용자가 출력된 화면에서 대공 지표의 보정 위치를 마킹할 수 있도록 하는 인터페이스를 생성하는 단계; 및
    상기 대공 지표의 보정 위치 마킹에 따라 상기 대공 지표의 보정 위치 정보를 생성하는 단계를 포함하는 위치 추적 기반의 항공 영상 합성 방법.
  12. 제7항에 있어서,
    상기 복수의 항공 영상 중 상기 대공 지표의 보정 위치 정보를 포함하는 항공 영상을 기준으로 하여 상기 복수의 항공 영상을 합성하는 단계는,
    상기 복수의 항공 영상 각각의 GPS 좌표 정보에 맞추어 상기 복수의 항공 영상을 합성하는 단계를 포함하는 위치 추적 기반의 항공 영상 합성 방법.
KR1020190086581A 2019-07-17 2019-07-17 위치 추적 기반의 항공 영상 합성 방법 및 장치 KR102182128B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190086581A KR102182128B1 (ko) 2019-07-17 2019-07-17 위치 추적 기반의 항공 영상 합성 방법 및 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190086581A KR102182128B1 (ko) 2019-07-17 2019-07-17 위치 추적 기반의 항공 영상 합성 방법 및 장치

Publications (1)

Publication Number Publication Date
KR102182128B1 true KR102182128B1 (ko) 2020-11-23

Family

ID=73680125

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190086581A KR102182128B1 (ko) 2019-07-17 2019-07-17 위치 추적 기반의 항공 영상 합성 방법 및 장치

Country Status (1)

Country Link
KR (1) KR102182128B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220095057A (ko) * 2020-12-29 2022-07-06 인하대학교 산학협력단 드론 영상을 이용한 조선소 적치장 모니터링 시스템 및 그 방법

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100663836B1 (ko) * 2006-04-28 2007-01-02 (주)대한지적기술단 항공사진 촬영용 카메라의 중심 초점 매칭을 위한 모터의제어 시스템
KR101224132B1 (ko) * 2012-06-26 2013-01-22 대원항업 주식회사 Gps 및 고도계를 이용한 항공기의 3d 위치 측량 및 정사 영상 촬영 시스템과 그 방법
KR101346206B1 (ko) * 2013-09-11 2014-02-07 (주)아세아항측 정사영상의 정밀 처리를 위한 gps 기반 항공측량시스템
WO2017151730A1 (en) * 2016-03-01 2017-09-08 Exergy Dynamics, Inc. Light emitting diode assemblies utilizing heat sharing from light-conditioning structures for enhanced energy efficiency
JP2018044913A (ja) * 2016-09-16 2018-03-22 株式会社トプコン Uav測定装置及びuav測定システム
JP2018155627A (ja) * 2017-03-17 2018-10-04 本田技研工業株式会社 ナビゲーション装置、ナビゲーション方法及びナビゲーションプログラム
KR20180127567A (ko) * 2017-05-18 2018-11-29 (주)인스페이스 무인항공기 영상 자동 기하보정을 위한 처리시스템
KR20190057885A (ko) * 2017-11-21 2019-05-29 한국전자통신연구원 3차원 복원 지형 정합 방법 및 그 장치

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100663836B1 (ko) * 2006-04-28 2007-01-02 (주)대한지적기술단 항공사진 촬영용 카메라의 중심 초점 매칭을 위한 모터의제어 시스템
KR101224132B1 (ko) * 2012-06-26 2013-01-22 대원항업 주식회사 Gps 및 고도계를 이용한 항공기의 3d 위치 측량 및 정사 영상 촬영 시스템과 그 방법
KR101346206B1 (ko) * 2013-09-11 2014-02-07 (주)아세아항측 정사영상의 정밀 처리를 위한 gps 기반 항공측량시스템
WO2017151730A1 (en) * 2016-03-01 2017-09-08 Exergy Dynamics, Inc. Light emitting diode assemblies utilizing heat sharing from light-conditioning structures for enhanced energy efficiency
JP2018044913A (ja) * 2016-09-16 2018-03-22 株式会社トプコン Uav測定装置及びuav測定システム
JP2018155627A (ja) * 2017-03-17 2018-10-04 本田技研工業株式会社 ナビゲーション装置、ナビゲーション方法及びナビゲーションプログラム
KR20180127567A (ko) * 2017-05-18 2018-11-29 (주)인스페이스 무인항공기 영상 자동 기하보정을 위한 처리시스템
KR101941878B1 (ko) * 2017-05-18 2019-01-28 (주)인스페이스 무인항공기 영상 자동 기하보정을 위한 처리시스템
KR20190057885A (ko) * 2017-11-21 2019-05-29 한국전자통신연구원 3차원 복원 지형 정합 방법 및 그 장치

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220095057A (ko) * 2020-12-29 2022-07-06 인하대학교 산학협력단 드론 영상을 이용한 조선소 적치장 모니터링 시스템 및 그 방법
KR102588246B1 (ko) 2020-12-29 2023-10-13 인하대학교 산학협력단 드론 영상을 이용한 조선소 적치장 모니터링 시스템 및 그 방법

Similar Documents

Publication Publication Date Title
US20240068808A1 (en) Aerial video based point, distance, and velocity real-time measurement system
RU2481612C2 (ru) Способ и система управления работой устройства с использованием комплексного моделирования с возможностью временного сдвига
KR102007567B1 (ko) 스테레오 드론 및 이를 이용하는 무기준점 토공량 산출 방법과 시스템
CA2112101C (en) Real time three dimensional geo-referenced digital orthophotograph-basedpositioning, navigation, collision avoidance and decision support system
US11189189B2 (en) In-flight training simulation displaying a virtual environment
US8577518B2 (en) Airborne right of way autonomous imager
Themistocleous et al. More than a flight: the extensive contributions of UAV flights to archaeological research–the case study of curium site in Cyprus
US11398078B2 (en) Gradual transitioning between two-dimensional and three-dimensional augmented reality images
US9460554B2 (en) Aerial video annotation
KR20200114924A (ko) 드론을 이용한 실시간 위치 추적 방법 및 장치, 이를 포함하는 위치 추적 시스템
CN106683039B (zh) 一种生成火情态势图的系统
KR20200126348A (ko) 드론을 이용한 실시간 위치 추적 방법 및 장치, 이를 포함하는 위치 추적 시스템
KR102182128B1 (ko) 위치 추적 기반의 항공 영상 합성 방법 및 장치
JPWO2021038834A1 (ja) 無人航空機の操縦シミュレーションシステム及び方法
Walter et al. Virtual UAV ground control station
US11409280B1 (en) Apparatus, method and software for assisting human operator in flying drone using remote controller
US11703354B2 (en) Video display system and method
Kaub et al. Developing an autonomous unmanned aerial system to estimate field terrain corrections for gravity measurements
KR102181809B1 (ko) 시설물 점검 장치 및 방법
US9372052B2 (en) System and method for decoy management
Lee An examination of close-range photogrammetry and traditional cave survey methods for terrestrial and underwater caves for 3-dimensional mapping
US11967035B1 (en) Visualizing area covered by drone camera
Persson et al. Real-time image processing on handheld devices and UAV
WO2022175385A1 (en) Apparatus, method and software for assisting human operator in flying drone using remote controller
Sambolek et al. Determining the Geolocation of a Person Detected in an Image Taken with a Drone

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant