KR20200106680A - 항공사진을 이용한 정사영상 구축방법 - Google Patents

항공사진을 이용한 정사영상 구축방법 Download PDF

Info

Publication number
KR20200106680A
KR20200106680A KR1020190025226A KR20190025226A KR20200106680A KR 20200106680 A KR20200106680 A KR 20200106680A KR 1020190025226 A KR1020190025226 A KR 1020190025226A KR 20190025226 A KR20190025226 A KR 20190025226A KR 20200106680 A KR20200106680 A KR 20200106680A
Authority
KR
South Korea
Prior art keywords
image
reference point
constructing
orthogonal
orthogonal image
Prior art date
Application number
KR1020190025226A
Other languages
English (en)
Other versions
KR102195179B1 (ko
Inventor
홍원화
백승찬
서동민
우현정
이승원
Original Assignee
경북대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 경북대학교 산학협력단 filed Critical 경북대학교 산학협력단
Priority to KR1020190025226A priority Critical patent/KR102195179B1/ko
Publication of KR20200106680A publication Critical patent/KR20200106680A/ko
Application granted granted Critical
Publication of KR102195179B1 publication Critical patent/KR102195179B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Remote Sensing (AREA)
  • Image Processing (AREA)

Abstract

본 발명의 항공사진을 이용한 정사영상 구축방법은 기설정된 비행조건을 유지하며 촬영영역의 이미지를 수집하는 항공사진 촬영 단계; 수집된 이미지에서 임계치 이상의 정보를 포함하는 객체를 선정하는 객체 선정 단계; 선정된 객체를 포함하는 복수의 이미지를 기초로 반복적인 위치 산출을 수행하여 기준점을 산출하는 기준점 산출 단계; 및 산출된 기준점에 따라 중첩된 이미지 영역에서 일치점을 추출하여 영상을 접합하고, 접합된 영상의 모델링을 수행하여 촬영영역의 정사영상을 구축하는 정사영상 구축 단계;를 포함할 수 있다.

Description

항공사진을 이용한 정사영상 구축방법{ORTHOPHOTO BUILDING METHODS USING AERIAL PHOTOGRAPHS}
본 발명은 항공사진을 이용한 정사영상 구축방법에 관한 것으로, 더욱 상세하게는 기준점의 실 측량 또는 설치과정이 생략된 항공사진을 이용한 정사영상 구축방법에 관한 것이다.
정사영상은 거리, 지형지물의 위치정보, 면적 등의 다양한 정보를 얻을 수 있어서 많은 분야에서 제작 및 활용이 이루어지고 있다. 기존의 정사영상 제작은 주로 유인항공기나 위성 촬영을 활용하여 수행되고 있으며, 이러한 방법은 취득 영상의 해상도가 낮고 소규모 지역의 촬영에서는 비효율적이며, 지형지물의 지속적인 변화에 대응하기 힘든 단점이 있다.
한편, 무인비행장치를 활용한 항공촬영은 기존의 유인항공기 촬영이나 위성 촬영에 비하여 높은 해상도의 사진을 취득 할 수 있으며, 장비의 구축이 용이하여 소규모 지역의 촬영에서 비교적으로 경제적이라는 장점을 가지고 있다. 또한, 사람이 접근하기 난해하거나 불가능한 물리적 환경의 촬영 및 지형지물의 변화에 대한 촬영이 즉시 가능하여 활용도가 뛰어나다.
이러한 필요 시점에 따라 고해상도 영상 취득이 가능한 무인비행장치의 장점을 토대로 현재 항공측량, 수치지도 제작, 소나무 재선충병 탐사, 정사영상 제작 등과 같이 공간정보 취득을 위해 무인비행장치를 활용한 연구가 활발히 진행되고 있다.
특히, VRS-RTK와 같은 측량장비를 촬영하여 지상기준점을 취득하고, 취득 영상에 Geo-referencing을 수행한다. 그러나 사건·사고 현장, 재난·재해 상황 등 공간정보 생성이 긴급하게 필요한 상황 및 수상, 산간 지형 등 지상기준점의 설치가 난해하거나 불가능한 물리적 환경의 경우 무인비행장치에 탑재된 GPS(Global Positioning System)와 IMU(Inertial Measurement Unit)센서에서 제공되는 위치정보를 사용하여 무기준점 방식의 공간정보 구축을 수행하게 된다.
무기준점 방법으로 구축된 정사영상은 높은 수준의 위치오차가 발생하며, 이로 인하여 위치정확도가 미흡하다는 한계가 존재하였다. 또한 지상기준점을 사용하여 제작된 정사영상의 위치정확도 분석 연구, 무기준점 방식으로 제작된 정사영상의 위치정확도 분석 연구, 지상기준점 사용 여부에 따른 정사영상의 위치정확도 비교 분석 연구는 수행되고 있으나, 지상기준점의 실 측량 또는 설치없이 정사영상의 획득이 제한되는 문제점이 있다.
한국등록특허 제10-1736850호
본 발명의 기술적 과제는 이러한 점에서 착안된 것으로 본 발명의 목적은 무인비행장치의 측정정보를 활용한 객체 위치 추정을 통하여 기준점의 설치 또는 측량과정이 생략된 항공사진을 이용한 정사영상 구축방법을 제공하는데 있다.
본 발명의 실시 예를 따르는 항공사진을 이용한 정사영상 구축방법은 기설정된 비행조건을 유지하며 촬영영역의 이미지를 수집하는 항공사진 촬영 단계; 상기 수집된 이미지에서 임계치 이상의 정보를 포함하는 객체를 선정하는 객체 선정 단계; 상기 선정된 객체를 포함하는 복수의 이미지를 기초로 반복적인 위치 산출을 수행하여 기준점을 산출하는 기준점 산출 단계; 및 상기 산출된 기준점에 따라 중첩된 이미지 영역에서 일치점을 추출하여 영상을 접합하고, 접합된 영상의 모델링을 수행하여 상기 촬영영역의 정사영상을 구축하는 정사영상 구축 단계;를 포함한다.
또한, 상기 항공사진 촬영 단계는, 종중복도를 65 내지 75%로 설정하고, 횡중복도를 65 내지 75% 범위로 설정된 비행조건을 유지할 수 있다.
또한, 상기 객체 선정 단계는, 도로 안내선, 주차 구획선 등과 같이 일정길이 이상의 객체를 선정할 수 있다.
또한, 상기 객체 선정 단계는, 배수구, 멘홀 등과 같이 일정면적 이상의 객체를 선정할 수 있다.
또한, 상기 기준점 산출 단계는, 상기 선정된 객체를 포함하는 복수의 이미지 중 임의의 이미지를 선택하여 상기 기준점의 위치를 추정할 수 있다.
또한, 상기 기준점 산출 단계는, 상기 산출된 기준점의 위치에 통계적 점 추정 기법을 적용하여 지상기준점을 도출할 수 있다.
또한, 상기 정사영상 구축 단계는, 상기 도출된 지상기준점을 기초로 영상 정합을 실시하여 중첩된 이미지 영역에서 상기 일치점을 추출할 수 있다.
또한, 상기 정사영상 구축 단계는, 상기 정합된 영상의 이미지로부터 깊이 정보를 계산하고, 계산된 깊이 정보를 기초로 상기 촬영영역의 메시(mesh) 이미지를 형성할 수 있다.
또한, 상기 정사영상 구축 단계는, 상기 항공사진 촬영 단계에서 수집된 이미지를 기초로 텍스처를 생성하여, 상기 촬영영역의 메시(mesh) 이미지에 매핑시킬 수 있다.
또한, 본 발명의 실시 예를 따르는 항공사진을 이용한 정사영상 구축방법은 상기 정사영상 구축 단계 이후, 상기 기준점의 실 측정값을 기초로 평균제곱근 오차를 산출하여 상기 촬영영역의 정사영상에 대한 신뢰도를 평가하는 신뢰도 평가 단계;를 더 포함할 수 있다.
본 발명에 따른 항공사진을 이용한 정사영상 구축방법은 지상기준점 측량없이 무인항공기의 측정정보만을 활용하여 지상기준점을 추정하고, 이를 활용하여 정사영상을 구축함으로써, 지상기준점 측량이 난해한 재난, 재해 상황 또는 수상, 산간 지형 등의 물리적 환경에서 무인항공기 기반 정사영상 제작시 용이하게 정사영상을 획득할 수 있다.
또한, 본 발명에 따른 항공사진을 이용한 정사영상 구축방법은 임계치 이상의 정보를 포함하는 객체를 선별하여 기준점을 선정하고 공통의 기준점을 갖는 이미지를 정합하여 정사영상을 구축함으로써, 무기준점 방식으로 정사영상의 구축시 무인항공기에 탑재된 센서의 오류로 인해 감소되는 정확도를 향상시킬 수 있다.
도 1은 본 발명의 항공사진을 이용한 정사영상 구축방법에 따라 무인항공기를 통해 촬영영역을 촬영하는 개략도를 나타낸다.
도 2는 본 발명의 일 실시 예에 따른 항공사진을 이용한 정사영상 구축방법을 수행하는 시스템의 모식도를 나타낸다.
도 3은 본 발명의 일 실시 예에 따른 항공사진을 이용한 정사영상 구축방법의 흐름도이다.
도 4는 도 3의 항공사진을 이용한 정사영상 구축방법 중 객체 선정 단계를 상세히 나타낸 흐름도이다.
도 5는 도 3의 항공사진 촬영 단계를 위해 설정된 무인항공기 이동경로의 예시를 나타낸다.
도 6은 도 3의 기준점 산출 단계를 통해 산출된 복수의 기준점을 나타내는 도면이다.
후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시 예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시 예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시 예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시 예와 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시 예로 구현될 수 있다. 또한, 각각의 개시된 실시 예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.
이하, 도면들을 참조하여 본 발명의 바람직한 실시 예들을 보다 상세하게 설명하기로 한다.
본 발명에 따른 항공사진을 이용한 정사영상 구축방법은 지상기준점 측량없이 무인항공기의 측정정보만을 활용하여 지상기준점을 추정하고, 이를 활용하여 정사영상을 구축함으로써, 지상기준점 측량이 난해한 재난, 재해 상황 또는 수상, 산간 지형 등의 물리적 환경에서 무인항공기 기반 정사영상 제작시 용이하게 정사영상을 획득할 수 있다.
도 1은 본 발명의 항공사진을 이용한 정사영상 구축방법에 따라 무인항공기를 통해 촬영영역을 촬영하는 개략도를 나타낸다.
도 1을 참조하면, 본 발명의 일 실시 예에 따른 항공사진을 이용한 정사영상 구축방법에서는 기설정된 비행조건을 유지하는 무인항공기(1)를 통해 촬영영역의 상공을 비행 및 촬영할 수 있다. 무인항공기(1)는 촬영영역을 분할하여 복수의 이미지를 촬영할 수 있으며, 촬영된 각각의 이미지는 중첩되는 영역을 기반으로 정사영상을 구축할 수 있다. 특히, 무인항공기(1)를 통해 촬영된 복수의 이미지 중, 촬영영역에서 위치가 변경되지 않고 임계치 이상의 정보를 포함하는 대상을 포함하는 이미지는 기준점과 지상기준점을 선정하기 위한 기초자료로 활용될 수 있다.
이처럼, 본 발명의 항공사진을 이용한 정사영상 구축방법에서는 무인항공기를 통해 촬영영역을 촬영함으로써 비행 조종사의 탑승이 요구되지 않으며, 사전에 설정된 프로그램에 따라 자동 또는 반자동 형식으로 자율비행 할 수 있으며, 필요에 따라 인공지능을 탑재하여 자체적으로 비행환경을 판단하여 촬영영역의 이미지를 획득할 수 있다. 또한, 장시간 비행이 요구되는 넓은 영역을 촬영하는 경우에는 고정익 무인항공기를 활용하여 이미지를 획득하고, 활주로 마련이 제한되는 좁은 영역에서는 회전익 무인항공기를 활용하여 촬영조건에 따라 다양한 방식으로 이미지를 획득할 수 있다.
한편, 무인항공기를 통해 획득된 이미지는 중앙처리장치를 포함하는 하드웨어 또는 하드웨어에 설치된 프로그램으로 전달될 수 있으며, 전달된 이미지를 기초로 항공사진을 이용한 정사영상 구축방법에 따라 촬영영역의 정사영상을 구축할 수 있다. 이하에서는, 무인항공기(1)에서 촬영된 이미지를 통해 정사영상을 구축하는 과정에 대하여 상세히 설명하도록 한다.
도 2는 본 발명의 일 실시 예에 따른 항공사진을 이용한 정사영상 구축방법을 수행하는 시스템의 모식도를 나타낸다.
도 2를 참조하면, 본 발명의 일 실시 예에 따른 항공사진을 이용한 정사영상 구축방법을 수행하는 시스템은 무인항공기(1) 및 중앙처리장치(2)를 포함할 수 있다.
무인항공기(1)는 전술한 도 1과 동일한 특성을 공유하며, 중앙처리장치(2)는 무인항공기(1)에서 획득한 이미지를 전달받아 정사영상을 구축할 수 있다. 일 예로, 중앙처리장치(2)는 객체 선정 모듈(21), 기준점 산출 모듈(23), 정사영상 구축 모듈(25) 및 신뢰도 평가 모듈(27)을 포함할 수 있다. 각 모듈은 도 2와 같이 별도의 모듈로 이루어질 수 있다. 또한, 각각의 모듈은 통합 모듈로 형성되거나 하나 이상의 모듈로 이루어질 수 있다.
객체 선정 모듈(21)은 객체 선정 단계(S3)를 기준점 산출 모듈(23)은 객체 선정 단계(S3)를 정사영상 구축 모듈(25)는 정사영상 구축 단계(S7)를 각각 수행할 수 있다. 또한, 신뢰도 평가 모듈(27)은 본 발명의 실시 예에 따른 항공사진을 이용한 정사영상 구축 방법을 통해 구축한 정사영상과 후술하게될 제2 실험군 및 대조군을 통해 구축한 정사영상의 비교를 통해 신뢰도 평가 단계를 수행함으로써, 본 발명에 따른 정사영상의 오차 및 평균제곱근 오차에 따른 신뢰도를 평가할 수 있다.
도 3은 본 발명의 일 실시 예에 따른 항공사진을 이용한 정사영상 구축방법의 흐름도이고, 도 4는 도 3의 항공사진을 이용한 정사영상 구축방법 중 객체 선정 단계를 상세히 나타낸 흐름도이다.
도 3 및 도 4를 참조하면, 본 발명의 일 실시 예에 따른 항공사진을 이용한 정사영상 구축방법은 항공사진 촬영 단계(S1), 객체 선정 단계(S3), 기준점 산출 단계(S5) 및 정사영상 구축 단계(S7)를 포함한다.
항공사진 촬영 단계(S1)에서는 무인항공기가 기설정된 비행조건을 유지하며 촬영영역의 이미지를 수집할 수 있다. 상세하게, 항공사진 촬영 단계(S1)에서는 촬영되는 이미지의 종중복도를 65 내지 75%로 설정할 수 있다. 항공사진 촬영 단계(S1)에서는 촬영되는 이미지의 횡중복도를 65 내지 75%로 설정하여 비행조건을 유지할 수 있다. 항공사진 촬영 단계(S1)에서는 무인항공기의 비행속도에 따라 종중복도 또는 횡중복도를 변경할 수 있다. 항공사진 촬영 단계(S1)에서 설정되는 종중복도 또는 횡중복도에 의해 하기의 기준점, 지상기준점 또는 일치점을 용이하게 산출할 수 있으며, 이를 기초로 정사영상을 구축할 수 있다. 항공사진 촬영 단계(S1)에서 일정한 중복도를 가진 상태로 획득한 이미지는 객체 선정 단계(S3)에서 사용되기 위해 중앙처리장치를 포함하는 하드웨어 또는 하드웨어에 설치된 프로그램으로 전달될 수 있다.
한편, 객체 선정 단계(S3), 기준점 산출 단계(S5) 및 정사영상 구축 단계(S7)는 중앙처리장치를 포함하는 하드웨어 또는 하드웨어에 설치된 프로그램을 통해 수행될 수 있다.
또한, 항공사진 촬영 단계(S1)에서는 기설정된 비행경로를 따라 무인항공기가 비행할 수 있다. 상세하게, 항공사진 촬영 단계(S1)에서 촬영영역을 분할하여 비행경로를 설정할 수 있으며, 기설정된 중복도에 따라 비행경로를 설정하여 촬영영역 전체의 이미지를 획득할 수 있다. 항공사진 촬영 단계(S1)에서 비행경로에 따라 획득된 촬영영역의 이미지는 촬영 시기에 따라 순차적으로 저장되어 객체 선정 단계(S3)로 전달될 수 있다. 항공사진 촬영 단계(S1)에서 비행경로에 따라 촬영영역을 촬영하는 예시는 도 5를 통해 설명하도록 한다.
객체 선정 단계(S3)에서는 중앙처리장치를 포함하는 하드웨어 또는 하드웨어에 설치된 프로그램을 통해 무인항공기에서 수집된 이미지에서 임계치 이상의 정보를 포함하는 객체를 선정할 수 있다.
일 예로, 객체 선정 단계(S3)에서는 도로 안내선, 주차 구획선 등과 같이 일정길이 이상의 객체를 선정할 수 있다. 다른 예로, 객체 선정 단계(S3)에서는 배수구, 멘홀 등과 같이 일정면적 이상의 객체를 선정할 수 있다.
상세하게, 객체 선정 단계(S3)는 도 3과 같이 식별대상 선정 단계(S31), 식별대상 길이 비교 단계(S33), 식별대상 면적 비교 단계(S35) 및 대상의 객체화 단계(S37)를 포함할 수 있다.
식별대상 선정 단계(S31)에서는 항공사진 촬영 단계(S1)에서 획득한 이미지에서 위치의 변화가 없고 임계치 이상의 정보를 갖는 식별대상을 선정할 수 있다. 식별대상의 임계치는 길이 또는 면적으로 구분될 수 있으며, 길이를 임계치의 기준으로 지정하여 식별대상을 선정하는 경우 식별대상 길이 비교 단계(S33)가 수행될 수 있다. 또한, 면적을 임계치의 기준으로 지정하여 식별대상을 선정하는 경우 식별대상 면적 비교 단계(S35)가 수행될 수 있다.
식별대상 길이 비교 단계(S33)에서는 식별대상의 길이를 임계치와 비교할 수 있다. 일 예로, 식별대상 길이 비교 단계(S33)에서 식별대상은 도로 안내선, 주차 구획선, 도로 중앙선 등의 위치가 변경되지 않고 일정한 길이를 유지하는 지시선을 포함할 수 있으며, 건물 울타리, 건물 외벽 등의 길이가 일정한 구조물을 포함할 수 있으나 이에 제한되지 않는다. 식별대상 길이 비교 단계(S33)에서 식별대상의 길이가 임계 길이를 초과하는 경우에는 대상의 객체화 단계(S37)가 수행될 수 있으며, 식별대상의 길이가 임계 길이 이하인 경우에는 임계치의 기준을 면적으로 수정하여 식별대상 면적 비교 단계(S35)가 수행될 수 있다.
식별대상 면적 비교 단계(S35)에서는 식별대상의 면적을 임계치와 비교할 수 있다. 일 예로, 식별대상 면적 비교 단계(S35)에서 식별대상은 배수구, 멘홀, 우체통 등 도로에 배치되어 위치가 변경되지 않고 일정한 면적의 설치물을 포함할 수 있으며, 헬기장, 건물 옥상 등 면적이 일정한 구조물의 단면을 포함할 수 있으나 이에 제한되지 않는다. 식별대상 면적 비교 단계(S35)에서 식별대상의 면적이 임계 면적을 초과하는 경우에는 대상의 객체화 단계(S37)가 수행될 수 있으며, 식별대상의 면적이 임계 면적 이하인 경우에는 임계치의 기준을 길이로 수정하여 식별대상 길이 비교 단계(S33)가 수행될 수 있다.
한편, 식별대상의 길이와 면적 모두 임계치 이하인 경우에는 식별대상 선정 단계(S31)를 재수행하여, 식별대상을 재선정하고 이후 식별대상 길이 비교 단계(S33) 또는 식별대상 면적 비교 단계(S35)를 수행할 수 있다.
이후, 대상의 객체화 단계(S37)에서는 임계치를 초과하는 식별대상을 객체로 지정할 수 있다. 대상의 객체화 단계(S37)에서 지정된 객체는 기준점 산출 단계(S5)에서 산출되는 기준점의 후보군으로 사용될 수 있다.
기준점 산출 단계(S5)에서는 선정된 객체를 포함하는 복수의 이미지를 기초로 반복적인 위치 산출을 수행하여 기준점을 산출할 수 있다. 기준점 산출 단계(S5)에서는 선정된 객체를 포함하는 복수의 이미지 중 임의의 이미지를 선택하여 기준점의 위치를 추정할 수 있다.
상세하게, 기준점 산출 단계(S5)에서는 객체 선정 단계(S3)에서 지정된 객체의 위치를 추정하고, 위치가 추정된 객체를 기준점으로 선정할 수 있다. 기준점 산출 단계(S5)에서는 객체를 포함하고 서로 다른 복수의 이미지를 선택하고, 서로 다른 이미지 중 일부를 선택하여 객체의 위치를 추정하였다. 기준점 산출 단계(S5)에서 선택되는 이미지의 개수에 따라 상이한 조합이 발생될 수 있다. 일 예로, 객체를 포함하는 9개의 이미지를 선택하고, 이중 3개의 이미지를 선택하여 위치를 조합하는 경우에는, 84번(9C3)의 조합의 수가 발생될 수 있다. 이 이 같은 조합을 통해 단일 객체에 대하여 84번의 위치 정보를 취득하여 객체로부터 위치정보를 가진 기준점을 산출할 수 있다.
이후, 기준점 산출 단계(S5)에서는 산출된 기준점의 위치에 통계적 점 추정 기법을 적용하여 지상기준점을 도출할 수 있다. 상세하게, 위치 정보를 포함하는 기준점에 대하여 통계적 점 추정 기법을 적용할 수 있으며, 이를 통해 정사영상 구축 시 모델링 및 매칭에서 사용되는 지상기준점을 도출할 수 있다. 기준점 산출 단계(S5)에서 도출되는 지상기준점은 기준점 중 통계적 점 추정 기법을 통해 산출된 위치와 오차가 적은 점들로 구성될 수 있다. 기준점 산출 단계(S5)에서 지상기준점은 복수의 기준점 중 낮은 오차율 순으로 선택적으로 지정되거나, 일정 오차범위 내에 포함되는 모든 기준점을 포함할 수 있으나 이에 제한되지 않으며 설정된 형태에 맞추어 지상기준점이 도출될 수 있다. 이처럼, 기준점 산출 단계(S5)에서 도출된 지상기준점은 정사영상 구축 단계(S7)에서 정사영상 구축시 활용될 수 있다.
정사영상 구축 단계(S7)에서는 산출된 기준점에 따라 중첩된 이미지 영역에서 일치점을 추출하여 영상을 접합할 수 있다. 정사영상 구축 단계(S7)에서는 접합된 영상의 모델링을 수행하여 촬영영역의 정사영상을 구축할 수 있다. 정사영상 구축 단계(S7)에서는 도출된 지상기준점을 기초로 영상 정합을 실시하여 중첩된 이미지 영역에서 일치점을 추출할 수 있다. 정사영상 구축 단계(S7)에서는 정합된 영상의 이미지로부터 깊이 정보를 계산하고, 계산된 깊이 정보를 기초로 촬영영역의 메시(mesh) 이미지를 형성할 수 있다. 정사영상 구축 단계(S7)에서는 항공사진 촬영 단계에서 수집된 이미지를 기초로 텍스처를 생성하여, 촬영영역의 메시(mesh) 이미지에 매핑시킬 수 있다.
한편, 본 발명의 실시 예에 따른 항공사진을 이용한 정사영상 구축방법은 정사영상 구축 단계(S7) 이후 신뢰도 평가 단계를 더 포함할 수 있다. 신뢰도 평가 단계에서는 하나의 기준점 또는 복수의 기준점들의 실 측정값을 기초로 평균제곱근 오차를 산출할 수 있다. 이를 기초로, 신뢰도 평가 단계 에서는 촬영영역의 정사영상에 대한 신뢰도를 평가할 수 있다. 신뢰도 평가 단계에서는 촬영영역 내부의 기준점 또는 지상기준점을 GPS 장비를 사용하여 가상기준점 방식으로 측량할 수 있다. 신뢰도 평가 단계에서 활용된 가상기준점 방식의 Network RTK 측량은 이동국 GPS 위치를 VRS 서버에 전송하고, 이동국 GPS 주변에 위치하고 있는 3개의 GPS 상시 관측소의 정보를 통해 위치를 보정하여 가상기준점을 생성할 수 있다. 이후, 가상기준점의 위치 보정값을 도출하여 다시 이동국 GPS로 전송하면 가상기준점과 이동국 GPS의 RTK를 통하여 위치 정보를 정밀하게 측정할 수 있다. 신뢰도 평가 단계에서는 이러한 방식으로 위치 정보가 측정된 가상기준점과 지상기준점의 방향별 오차 및 평균제곱근 오차를 비교하여 신뢰도를 평가할 수 있다.
이하에서는, 본 발명에 따른 항공사진을 이용한 정사영상 구축방법을 통해 정사영상을 구축한 예시를 도면을 통해 설명하도록 한다.
<실험 예> 6개의 지상기준점 신뢰도 평가
해당 실험 예에서는, 본 발명에 따른 항공사진을 이용한 정사영상 구축방법과 무기준점 기반의 정사영상을 실험군으로, VRS-RTK 가상기준점 기반 정사영상을 대조군으로 설정하였다.
실험군에서 사용된 무인항공기는 DJI사의 Inspire2 모델이며, 무인항공기는 회전익 형태의 무인항공기가 사용되었다. 비행경로는 Precision Flight 어플리케이션을 활용하여 자동경로로 설정되었고, 70M의 비행고도에서 10m/s의 비행속도로 약 15분간 비행을 통하여 1.32cm/pixel의 항공사진을 254매 취득하였다. 이때, 사용된 촬영 센서는 DJI 사의 Zenmuse X5S 모델이 사용되었다. 또한, 카메라는 ISO-200으로 조리개 값은 F/2.8, 셔터 속도는 1/1250s 였으며, 촬영각도는 90도로 설정되었다. 정사영상 구축을 위채 종중복도와 횡중복도는 각각 70%로 설정하여 비행을 실시하였다.
한편, 도 5는 도 3의 항공사진 촬영 단계를 위해 설정된 무인항공기 이동경로의 예시를 나타낸다.
도 5를 참조하면, 무인항공기는 촬영영역(Z1)의 상단에 지정된 1번 위치에서부터 하단에 지정된 20번 위치까지 기설정된 비행경로로 비행하면서 촬영영역(Z1) 전체를 순차적으로 촬영할 수 있다. 상세하게, 무인항공기는 1번으로부터 20번으로 이동시 일정한 이동속력을 유지할 수 있으며, 동일한 기설정된 셔터 속도를 통해 연속적으로 촬영을 수행함으로써 기설정된 중복도를 갖는 복수의 이미지를 순차적으로 획득할 수 있다.
해당 실험 예에서 본 발명에 따른 제1 실험군은 자동으로 설정된 경로를 가진 무인항공기를 통해 254매의 항공사진을 취득하였고, 동일한 식별대상을 갖는 이미지 9장을 각각 취득하고 이 중 3장을 임의로 선택하여 Pix4D 프로그램을 활용하여 객체의 위치를 추정하였다. 단일 객체당 84번의 위치 정보 취득을 실시하여 기준점을 산출하였으며, 각 기준점에 대하여 통계적 점 추정 기법을 적용하여 지상기준점을 도출하였다. 총 10개의 기준점이 산출되었으며, 모든 기준점에 대하여 총 840회의 객체 위치정보 취득을 실시하였다. 이후, 통계적 점 추정 기법을 적용하여 정사영상 구축 시 활용가능한 6개의 지상기준점을 도출하였다. 도출된 지상기준점은 하기의 도 6을 통해 설명하도록 한다.
도 6은 도 3의 기준점 산출 단계를 통해 산출된 복수의 기준점을 나타내는 도면이다.
도 6을 참조하면, 지상기준점(P1 내지 P6)은 촬영영역의 내측 또는 외측에 위치한 식별대상으로부터 도출될 수 있다. 지상기준점(P1 내지 P6)은 임계치를 초과하는 길이의 기준점 또는 임계치를 초과하는 면적의 기준점 중 일부 또는 전체로 도출될 수 있다. 지상기준점은 도로 또는 지면의 내측(P1, P2, P3, P6) 또는 건물의 일부(P4, P5)로 설정될 수 있다. 이 같이 도출된 지상기준점(P1 내지 P6)을 기초로 정사영상을 구축할 수 있다.
본 발명에 따른 제1 실험군은 도 6과 같이 도출된 지상기준점을 기초로 point cloud 기반의 영상처리 프로그램인 Agisoft 사의 Photoscan Professional 프로그램을 활용하여 영상처리를 수행하였고, 좌표체계는 WGS84 UTM zone 52N(EPSG: 32652)로 통일하여 작업을 수행하였다.
상세하게, 각 이미지에 대한 카메라의 위치를 분석하여 이미지를 정렬하고, 기하 보정을 위하여 지상기준점의 좌표를 입력한 뒤, 영상 접합을 수행하여 중첩된 이미지에서 일치점을 추출하였다. 이후, Build Dense point cloud 단계를 통하여 영상 접합된 point cloud 모델을 기반으로 각각의 이미지로부터 깊이 정보가 계산하여 point cloud 모델을 생성하였으며, Build mesh 단계를 통해 촬영영역의 Polygon mesh 이미지 모델을 생성하였다. 한편, 촬영을 통해 수집된 원본 이미지를 기초로 텍스처를 생성하여 메시(mesh)이미지 모델에 매핑시켜 2차원 정사영상을 구축하였다. 이후, Agisoft Photoscan 프로그램의 결과보고서를 통해 원본 이미지의 카메라 위치 및 영상 중복도, 일치점의 개수, 정사영상의 지상표본거리, 지상기준점의 위치, 지상기준점의 평균제곱근오차, 정사영상의 평균제곱근 오차를 취득하였다. 분석결과 55013개의 일치점이 추출되었으며, 정사영상의 지상표본거리는 1.59cm/pixel로 분석되었다. 한편, 정사영상의 평균 제곱근 오차는 RMSE X=0.882m, RMSE Y=0.581m, RMSE Z=0.018m, RMSE Total=1.057m로 계산되었다.
한편, 제2 실험군인 무기준점 기반 정사영상은 항공촬영을 통하여 취득한 원본 이미지만을 활용하여 정사영상을 구축하였다. 무기준점 기반 정사영상 구축 시, 탐욕 알고리즘(Greedy algorithm)을 이용하여 이미지의 대략적인 카메라 위치를 찾아낸 뒤, 번들 조정 알고리즘(Bundle-adjust algorithm)을 사용하여 카메라 위치에 대한 미세 조정을 수행하였다. 무기준점 기반으로 구축된 정사영상의 결과보고서를 통하여 원본 이미지 X, Y, Z 값의 오차를 취득하였으며, 구축된 정사영상의 평균제곱근 오차는 RMSE X= 3.429m, RMSE Y= 0.756m, RMSE Z= 2.209m, RMSE Total= 4.149m로 계산되었다.
이후, 대조군의 정사영상을 구축하기 위해 촬영영역을 전술한 신뢰도 평가 단계에 서술된 설명을 도 6의 지상기준점에 대하여 동일하게 측량하였다. 측량을 통해 산출된 가상기준점을 기준으로 평균제곱근 오차를 산출하였으며, 대조군의 평균제곱근 오차는 RMSE X= 0.100m, RMSE Y= 0.074m, RMSE Z= 0.018m, RMSE Total= 0.126m로 계산되었다.
한편, 제1, 제2 실험군 및 대조군을 통해 구축된 정사영상의 분석 이전에 제1 실험군의 지상기준점과 대조군의 가상기준점의 오차를 분석하였다. 대조군의 가상기준점 대비 제1 실험군의 지상기준점은 X 방향 최소 오차 0.045m 최대 오차 2.774m, Y 방향 최소 오차 1.201m 최대 오차 3.002m를 나타내었으며, RMSE X=1.803m, RMSE Y= 2.27m로 분석되었다.
이후, 제1, 제2 실험군 및 대조군에서 구축한 정사영상으로부터 오차 및 평균제곱근 오차를 산출하여 분석하였다. 대조군은 X방향 최소 오차 0.018m 최대 오차 0.207m, Y방향 최소 오차 0.004m 최대 오차 0.129m를 나타냈고, RMSE X=0.100m, RMSE Y=0.074m, RMSE Total=0.126m의 정확도 값이 확인되었다. 제1 실험군은 X방향 최소 오차 0.051m 최대 오차 1.782m, Y방향 최소 오차 0.006m 최대 오차 0.917m를 나타내었고, RMSE X=0.882m, RMSE Y=0.581m, RMSE Total=1.057m의 정확도 값이 확인되었다. 마지막으로, 제2 실험군은 RMSE X=0.3.429m, RMSE Y=0.756m, RMSE Total=4.149m의 정확도 값이 확인되었다.
이처럼, 본 발명에 따른 제1 실험군은 무기준점을 기반으로 정사영상을 구축한 제2 실험군 대비 최소 74.53%에서 최대 96.97%의 오차가 감소하였으며, 이를 통해 정사영상 구축 시 오차율이 낮아 높은 정확도를 갖는 정사영상을 획득할 수 있다.
즉, 본 발명에 따른 항공사진을 이용한 정사영상 구축방법은 임계치 이상의 정보를 포함하는 객체를 선별하여 기준점을 선정하고 공통의 기준점을 갖는 이미지를 정합하여 정사영상을 구축함으로써, 무기준점 방식으로 정사영상의 구축시 무인항공기에 탑재된 센서의 오류로 인해 감소되는 정확도를 향상시킬 수 있다.
이상에서 대표적인 실시 예를 통하여 본 발명을 상세하게 설명하였으나, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 상술한 실시 예에 대하여 본 발명의 범주에서 벗어나지 않는 한도 내에서 다양한 변형이 가능함을 이해할 것이다. 그러므로 본 발명의 권리 범위는 설명한 실시 예에 국한되어 정해져서는 안 되며, 후술하는 특허청구범위뿐만 아니라 특허청구범위와 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태에 의하여 정해져야 한다.
1: 무인항공기
2: 중앙처리장치
21: 객체 선정 모듈
23: 기준점 산출 모듈
25: 정사영상 구축 모듈
27: 신뢰도 평가 모듈
Z1: 촬영영역

Claims (10)

  1. 기설정된 비행조건을 유지하며 촬영영역의 이미지를 수집하는 항공사진 촬영 단계;
    상기 수집된 이미지에서 임계치 이상의 정보를 포함하는 객체를 선정하는 객체 선정 단계;
    상기 선정된 객체를 포함하는 복수의 이미지를 기초로 반복적인 위치 산출을 수행하여 기준점을 산출하는 기준점 산출 단계; 및
    상기 산출된 기준점에 따라 중첩된 이미지 영역에서 일치점을 추출하여 영상을 접합하고, 접합된 영상의 모델링을 수행하여 상기 촬영영역의 정사영상을 구축하는 정사영상 구축 단계;를 포함하는, 항공사진을 이용한 정사영상 구축방법.
  2. 제 1 항에 있어서,
    상기 항공사진 촬영 단계는,
    종중복도를 65 내지 75%로 설정하고, 횡중복도를 65 내지 75% 범위로 설정된 비행조건을 유지하는, 항공사진을 이용한 정사영상 구축방법.
  3. 제 1 항에 있어서,
    상기 객체 선정 단계는,
    도로 안내선, 주차 구획선 등과 같이 일정길이 이상의 객체를 선정하는, 항공사진을 이용한 정사영상 구축방법.
  4. 제 1 항에 있어서,
    상기 객체 선정 단계는,
    배수구, 멘홀 등과 같이 일정면적 이상의 객체를 선정하는, 항공사진을 이용한 정사영상 구축방법.
  5. 제 1 항에 있어서,
    상기 기준점 산출 단계는,
    상기 선정된 객체를 포함하는 복수의 이미지 중 임의의 이미지를 선택하여 상기 기준점의 위치를 추정하는, 항공사진을 이용한 정사영상 구축방법.
  6. 제 5 항에 있어서,
    상기 기준점 산출 단계는,
    상기 산출된 기준점의 위치에 통계적 점 추정 기법을 적용하여 지상기준점을 도출하는, 항공사진을 이용한 정사영상 구축방법.
  7. 제 6 항에 있어서,
    상기 정사영상 구축 단계는,
    상기 도출된 지상기준점을 기초로 영상 정합을 실시하여 중첩된 이미지 영역에서 상기 일치점을 추출하는, 항공사진을 이용한 정사영상 구축방법.
  8. 제 7 항에 있어서,
    상기 정사영상 구축 단계는,
    상기 정합된 영상의 이미지로부터 깊이 정보를 계산하고, 계산된 깊이 정보를 기초로 상기 촬영영역의 메시(mesh) 이미지를 형성하는, 항공사진을 이용한 정사영상 구축방법.
  9. 제 8 항에 있어서,
    상기 정사영상 구축 단계는,
    상기 항공사진 촬영 단계에서 수집된 이미지를 기초로 텍스처를 생성하여, 상기 촬영영역의 메시(mesh) 이미지에 매핑시키는, 항공사진을 이용한 정사영상 구축방법.
  10. 제 1 항에 있어서,
    상기 정사영상 구축 단계 이후, 상기 기준점의 실 측정값을 기초로 평균제곱근 오차를 산출하여 상기 촬영영역의 정사영상에 대한 신뢰도를 평가하는 신뢰도 평가 단계;를 더 포함하는, 항공사진을 이용한 정사영상 구축방법.
KR1020190025226A 2019-03-05 2019-03-05 항공사진을 이용한 정사영상 구축방법 KR102195179B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190025226A KR102195179B1 (ko) 2019-03-05 2019-03-05 항공사진을 이용한 정사영상 구축방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190025226A KR102195179B1 (ko) 2019-03-05 2019-03-05 항공사진을 이용한 정사영상 구축방법

Publications (2)

Publication Number Publication Date
KR20200106680A true KR20200106680A (ko) 2020-09-15
KR102195179B1 KR102195179B1 (ko) 2020-12-24

Family

ID=72450538

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190025226A KR102195179B1 (ko) 2019-03-05 2019-03-05 항공사진을 이용한 정사영상 구축방법

Country Status (1)

Country Link
KR (1) KR102195179B1 (ko)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102195051B1 (ko) * 2020-09-25 2020-12-24 김화경 드론의 영상 정보를 이용한 공간 정보 생성 시스템 및 방법과, 이를 위한 컴퓨터 프로그램
CN114240758A (zh) * 2021-12-24 2022-03-25 柳州市侗天湖农业生态旅游投资有限责任公司 一种以四边形地块为参照物的山区茶园低空图像拼接方法
CN114913297A (zh) * 2022-05-09 2022-08-16 北京航空航天大学 一种基于mvs稠密点云的场景正射影像生成方法
KR20220118865A (ko) * 2021-02-19 2022-08-26 유대상 시설물 객체 인식 및 다중 영상 정합을 통한 시설물 변경 변화 관리 시스템 및 방법.
CN116772800A (zh) * 2023-03-07 2023-09-19 重庆地质矿产研究院 一种面向大高差地形矿山监测的无人机航摄设计方法
KR102603147B1 (ko) * 2022-11-10 2023-11-16 한국건설기술연구원 지중매설물 영상정보화 방법

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102488553B1 (ko) * 2021-05-03 2023-01-12 이재영 드론을 이용한 3차원 지도 제작 방법
KR20230114431A (ko) 2022-01-25 2023-08-01 건국대학교 산학협력단 인공지능기법으로 정사영상을 이용하여 건물수치지도 자동생성방법

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100956446B1 (ko) * 2009-09-11 2010-05-06 중앙항업(주) 디지털 항공영상을 이용하여 3차원 객체의 외관 텍스쳐 자동 추출방법
JP2011520190A (ja) * 2008-05-02 2011-07-14 アイアイシー、インク. 画像アラインメントを使用してオブジェクトを別画像に亘ってマッピングするシステム
KR101176446B1 (ko) * 2012-01-25 2012-09-13 (주)올포랜드 수치지도의 실시간 편집 방법 및 시스템, 이를 위한 서버 및 기록매체
KR20130086509A (ko) * 2012-06-26 2013-08-02 (주)올포랜드 수치지도의 실시간 편집 방법 및 시스템, 이를 위한 서버 및 기록매체
KR20160070375A (ko) * 2014-12-10 2016-06-20 한국항공우주연구원 무인 비행체의 군집 비행을 이용한 항공 영상 정합 장치 및 방법
KR101736850B1 (ko) 2016-09-12 2017-05-18 (주)대지이엔지 다른 고도의 지상영상데이터를 활용한 정사영상 생성과 매핑시스템
KR20180024809A (ko) * 2016-08-31 2018-03-08 한국항공우주연구원 영상 기하 보정 방법 및 이를 위한 장치

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011520190A (ja) * 2008-05-02 2011-07-14 アイアイシー、インク. 画像アラインメントを使用してオブジェクトを別画像に亘ってマッピングするシステム
KR100956446B1 (ko) * 2009-09-11 2010-05-06 중앙항업(주) 디지털 항공영상을 이용하여 3차원 객체의 외관 텍스쳐 자동 추출방법
KR101176446B1 (ko) * 2012-01-25 2012-09-13 (주)올포랜드 수치지도의 실시간 편집 방법 및 시스템, 이를 위한 서버 및 기록매체
KR20130086509A (ko) * 2012-06-26 2013-08-02 (주)올포랜드 수치지도의 실시간 편집 방법 및 시스템, 이를 위한 서버 및 기록매체
KR20160070375A (ko) * 2014-12-10 2016-06-20 한국항공우주연구원 무인 비행체의 군집 비행을 이용한 항공 영상 정합 장치 및 방법
KR20180024809A (ko) * 2016-08-31 2018-03-08 한국항공우주연구원 영상 기하 보정 방법 및 이를 위한 장치
KR101736850B1 (ko) 2016-09-12 2017-05-18 (주)대지이엔지 다른 고도의 지상영상데이터를 활용한 정사영상 생성과 매핑시스템

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
A. L. Muji, et al,"Assessment of Digital Elevation Model using Onboard GPS and Ground Control Points in UAV Image Processing", Intelligent Systems Conference 2017(2017.09.07.)* *
S. L. Madawalagama, et al, "LOW COST AERIAL MAPPING WITH CONSUMER- GRADE DRONES," Conference, 37th Asian Conference on Remote Sensing(2016.10.17.)* *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102195051B1 (ko) * 2020-09-25 2020-12-24 김화경 드론의 영상 정보를 이용한 공간 정보 생성 시스템 및 방법과, 이를 위한 컴퓨터 프로그램
KR20220118865A (ko) * 2021-02-19 2022-08-26 유대상 시설물 객체 인식 및 다중 영상 정합을 통한 시설물 변경 변화 관리 시스템 및 방법.
CN114240758A (zh) * 2021-12-24 2022-03-25 柳州市侗天湖农业生态旅游投资有限责任公司 一种以四边形地块为参照物的山区茶园低空图像拼接方法
CN114913297A (zh) * 2022-05-09 2022-08-16 北京航空航天大学 一种基于mvs稠密点云的场景正射影像生成方法
KR102603147B1 (ko) * 2022-11-10 2023-11-16 한국건설기술연구원 지중매설물 영상정보화 방법
CN116772800A (zh) * 2023-03-07 2023-09-19 重庆地质矿产研究院 一种面向大高差地形矿山监测的无人机航摄设计方法
CN116772800B (zh) * 2023-03-07 2024-03-29 重庆地质矿产研究院 一种面向大高差地形矿山监测的无人机航摄设计方法

Also Published As

Publication number Publication date
KR102195179B1 (ko) 2020-12-24

Similar Documents

Publication Publication Date Title
KR102195179B1 (ko) 항공사진을 이용한 정사영상 구축방법
KR101933216B1 (ko) 드론과 공간정보를 이용한 하천지형정보 생성 방법
KR102007567B1 (ko) 스테레오 드론 및 이를 이용하는 무기준점 토공량 산출 방법과 시스템
KR102001728B1 (ko) 스테레오 카메라 드론을 활용한 무기준점 3차원 위치좌표 취득 방법 및 시스템
Chiabrando et al. UAV and RPV systems for photogrammetric surveys in archaelogical areas: two tests in the Piedmont region (Italy)
JP5389964B2 (ja) 地図情報生成装置
KR101160454B1 (ko) 무인항공기의 자세 제어를 이용한 3d 공간정보구축 방법
KR20060013640A (ko) 항공 화상의 자동 처리
KR101771492B1 (ko) 복수의 센서를 탑재한 무인 비행체를 이용하는 매핑 방법 및 시스템
CN112652065A (zh) 三维社区建模方法、装置、计算机设备及存储介质
Haala et al. Dense multiple stereo matching of highly overlapping UAV imagery
BR112015001737B1 (pt) Método para aquisição e processamento de informações geográficas de uma trajetória.
US20110261162A1 (en) Method for Automatically Generating a Three-Dimensional Reference Model as Terrain Information for an Imaging Device
CN115657706B (zh) 基于无人机的地貌测量方法及系统
Ruzgienė et al. UAV photogrammetry for road surface modelling
RU2584368C1 (ru) Способ определения контрольных значений параметров пространственно-угловой ориентации самолёта на трассах и приаэродромных зонах при лётных испытаниях пилотажно-навигационного оборудования и система для его осуществления
US11460302B2 (en) Terrestrial observation device having location determination functionality
Maurice et al. A photogrammetric approach for map updating using UAV in Rwanda
Starek et al. Application of unmanned aircraft systems for coastal mapping and resiliency
CN115493598B (zh) 运动过程中的目标定位方法、装置及存储介质
Bolkas et al. A case study on the accuracy assessment of a small UAS photogrammetric survey using terrestrial laser scanning
KR20210037998A (ko) 드론 경로 제공 방법
Woo et al. Evaluating ortho-photo production potentials based on UAV real-time geo-referencing points
KR102488553B1 (ko) 드론을 이용한 3차원 지도 제작 방법
KR102557775B1 (ko) 드론을 이용한 3차원 지도 제작 방법

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant