KR102195051B1 - 드론의 영상 정보를 이용한 공간 정보 생성 시스템 및 방법과, 이를 위한 컴퓨터 프로그램 - Google Patents

드론의 영상 정보를 이용한 공간 정보 생성 시스템 및 방법과, 이를 위한 컴퓨터 프로그램 Download PDF

Info

Publication number
KR102195051B1
KR102195051B1 KR1020200124563A KR20200124563A KR102195051B1 KR 102195051 B1 KR102195051 B1 KR 102195051B1 KR 1020200124563 A KR1020200124563 A KR 1020200124563A KR 20200124563 A KR20200124563 A KR 20200124563A KR 102195051 B1 KR102195051 B1 KR 102195051B1
Authority
KR
South Korea
Prior art keywords
reference point
image
ground reference
gcp
target
Prior art date
Application number
KR1020200124563A
Other languages
English (en)
Inventor
김화경
Original Assignee
김화경
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김화경 filed Critical 김화경
Priority to KR1020200124563A priority Critical patent/KR102195051B1/ko
Application granted granted Critical
Publication of KR102195051B1 publication Critical patent/KR102195051B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/08Arrangements of cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/001
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • B64C2201/127
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Remote Sensing (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)

Abstract

공간 정보 생성 시스템은, 지리적 영역에 배치된 복수 개의 제1 지상기준점(Ground Control Point; GCP) 타겟; 상기 지리적 영역에 배치되며, 상기 복수 개의 제1 GCP 타겟을 각각 둘러싸고 배치된 복수 개의 제2 GCP 타겟; 상기 지리적 영역의 영상을 촬영하도록 구성된 촬영 장치를 구비한 드론; 및 상기 복수 개의 제1 GCP 타겟 및 상기 복수 개의 제2 GCP 타겟의 좌표를 저장하며, 상기 드론으로부터 상기 지리적 영역의 영상 정보를 수신하고, 상기 영상 정보 내의 상기 제1 GCP 타겟 및 상기 제2 GCP 타겟 중 하나 이상의 이미지를 상기 제1 GCP 타겟 및 상기 제2 GCP 타겟 중 하나 이상의 좌표에 매칭시킴으로써 상기 영상 정보에 상응하는 공간 정보를 생성하도록 구성된 관리 서버를 포함할 수 있다. 상기 공간 정보 생성 시스템에 의하면, 드론의 영상 정보를 지도 데이터에 매핑하여 공간 정보를 생성함에 있어서, 영상 내 GCP 타겟들의 위치 탐지를 통하여 매핑 위치를 결정하고, 제1 및 제2 GCP 들에 대한 탐지 위치를 통해 렌즈 왜곡을 보정할 수 있는 이점이 있다.

Description

드론의 영상 정보를 이용한 공간 정보 생성 시스템 및 방법과, 이를 위한 컴퓨터 프로그램{SYSTEM AND METHOD FOR CREATING SPATIAL INFORMATION USING IMAGE INFORMATION FROM DRONE AND COMPUTER PROGRAM FOR THE SAME}
실시예들은 공간 정보 생성 시스템 및 방법과, 이를 위한 컴퓨터 프로그램에 관한 것이다. 보다 상세하게는, 실시예들은 드론의 영상 정보를 지도 데이터에 매핑하여 공간 정보를 생성함에 있어서, 영상 내 지상기준점(Ground Control Point; GCP) 타겟의 위치 탐지를 통하여 매핑 위치를 결정하고, 상이한 종류의 GCP 타겟들에 대한 탐지 위치를 통해 렌즈 왜곡을 보정하는 기술에 대한 것이다.
지도는 국가의 사회간접자본 건설 및 국토계획 수립 등에 필요한 기초자료가 될 뿐만 아니라, 지리정보시스템의 핵심 요소로서, 그 활용성이 매우 높다. 한국에서는 1995년부터 기존의 종이지도와 함께 수치지도(Ver1.0)를 제작하였고, 그 후 기존 수치지도의 논리적인 모순 및 기하학적인 문제점이 제거된 지형 및 속성 정보를 갖는 수치지도(Ver2.0)을 구축하였다. 현재, 국토지리정보원에서는 1/5000 축척의 수치지도(Ver2.0)를 이용하여 1/5000, 1/25000, 1/50000 축척의 종이지도 제작을 자동화하는 사업을 추진하고 있다.
최근에는, 드론과 같은 무인 항공 기술이 발달함에 따라, 드론 등 무인 항공기의 영상을 이용하여 지도를 제작하는 기술이 사용되고 있다. 무인 항공기에서 촬영한 영상을 지도로 제작하기 위해서는, 카메라 렌즈의 구면수차 보정 과정, 무인 항공기의 자세에 의한 영향의 보정 과정, 및 촬영 영상의 각 픽셀을 실제 GPS 좌표에 매핑하는 과정 등과 같은 다양한 연산 및 데이터 정제 과정이 필요하다. 예를 들어, 공개특허공보 제10-1999-0047500호는 위성 및 항공기에 의해 수집된 영상의 기하학적 왜곡을 보정하는 방법을 개시한다.
그런데, 종래의 영상 왜곡 보정은 복잡한 수학적 연산에 의하여 이루어지므로 오랜 처리 시간이 소요되는 문제가 있었다. 또한, 촬영 이미지와 실제 좌표를 매핑하기 위해서는 지리적 영역 내에 소정의 지상기준점(Ground Control Point; GCP) 타겟들을 뿌려두고 각 GCP 타겟의 위치를 영상 내의 픽셀과 매칭시켜야 하는데, 이 또한 오랜 시간이 소요되며 영상 왜곡으로 인해 GCP 타겟의 이미지가 실제 좌표와 일치하지 않는 문제가 있어 왔다.
공개특허공보 제10-1999-0047500호
본 발명의 일 측면에 따르면, 드론에서 촬영된 영상들을 결합하여 지도로 구축하거나 드론의 영상 정보를 기존의 2D 또는 3D 지도에 매핑하여 공간 정보를 생성함에 있어서, 영상 내 지상기준점(Ground Control Point) 타겟의 위치 탐지를 통하여 촬영 영상을 자동으로 특정 좌표에 매칭시킬 수 있고, 동시에 촬영 렌즈의 구면수차로 인한 영상의 왜곡을 보정할 수 있는 공간 정보 생성 시스템 및 방법과, 이를 위한 컴퓨터 프로그램을 제공할 수 있다.
일 실시예에 따른 공간 정보 생성 시스템은, 지리적 영역에 배치된 복수 개의 제1 지상기준점(Ground Control Point; GCP) 타겟; 상기 지리적 영역에 배치되며, 상기 복수 개의 제1 GCP 타겟을 각각 둘러싸고 배치된 복수 개의 제2 GCP 타겟; 상기 지리적 영역의 영상을 촬영하도록 구성된 촬영 장치를 구비한 드론; 및 상기 복수 개의 제1 GCP 타겟 및 상기 복수 개의 제2 GCP 타겟의 좌표를 저장하며, 상기 드론으로부터 상기 지리적 영역의 영상 정보를 수신하고, 상기 영상 정보 내의 상기 제1 GCP 타겟 및 상기 제2 GCP 타겟 중 하나 이상의 이미지를 상기 제1 GCP 타겟 및 상기 제2 GCP 타겟 중 하나 이상의 좌표에 매칭시킴으로써 상기 영상 정보에 상응하는 공간 정보를 생성하도록 구성된 관리 서버를 포함한다.
일 실시예에서, 상기 관리 서버는, 상기 영상 정보 내의 상기 제1 GCP 타겟의 이미지 및 상기 제2 GCP 타겟의 이미지를 식별하도록 구성된 이미지 처리부; 상기 제1 GCP 타겟의 이미지를 이용하여, 상기 영상 정보를 각각 상기 제1 GCP 타겟을 중심으로 하며 상기 제2 GCP 타겟에 의하여 둘러싸인 복수 개의 단위 영역으로 분할하도록 구성된 영역 분할부; 및 상기 복수 개의 단위 영역 각각의 상기 제1 GCP 타겟의 이미지를 상기 제1 GCP 타겟의 좌표에 매칭시킴으로써 상기 복수 개의 단위 영역을 이용하여 상기 공간 정보를 생성하도록 구성된 공간 정보 생성부를 포함한다.
일 실시예에서, 상기 공간 정보 생성부는, 상기 영상 정보의 중앙에 가장 가깝게 위치하는 상기 제1 GCP 타겟 또는 상기 제2 GCP 타겟의 이미지를 이용하여 상기 영상 정보의 가장자리에 위치하는 상기 단위 영역의 크기를 조정하도록 구성된 왜곡 보정부를 포함한다.
일 실시예에서, 상기 공간 정보 생성부는, 상기 영상 정보의 중앙에 가장 가깝게 위치하는 상기 제1 GCP 타겟의 이미지 또는 상기 영상 정보의 중앙에 가장 가깝게 위치하는 한 쌍의 상기 제2 GCP 타겟의 이미지를 이용하여, 상기 영상 정보의 가장자리에 위치하는 제1 GCP 타겟의 예측된 위치를 산출하도록 구성된 위치 예측부를 더 포함한다. 이때, 상기 왜곡 보정부는, 상기 제1 기상기준점 타겟의 예측된 위치와 상기 영상 정보의 가장자리에 위치하는 제1 GCP 타겟의 이미지의 위치 차이를 이용하여, 상기 영상 정보의 가장자리에 위치하는 제1 GCP 타겟을 중심으로 한 단위 영역의 크기를 조절하도록 더 구성된다.
일 실시예에 따른 공간 정보 생성 방법은, 촬영 장치를 구비한 드론을 이용하여 촬영되며, 복수 개의 제1 GCP 타겟, 및 상기 복수 개의 제1 GCP 타겟을 각각 둘러싸고 배치된 복수 개의 제2 GCP 타겟이 배치된 지리적 영역의 영상 정보를 공간 정보 생성 시스템의 관리 서버가 수신하는 단계; 상기 관리 서버가, 상기 복수 개의 제1 GCP 타겟 및 상기 복수 개의 제2 GCP 타겟의 좌표를 상기 관리 서버에 저장하는 단계; 상기 관리 서버가, 상기 드론으로부터, 상기 드론에 의하여 촬영된 상기 영상 정보를 수신하는 단계; 및 상기 관리 서버가, 상기 영상 정보 내의 상기 제1 GCP 타겟 및 상기 제2 GCP 타겟 중 하나 이상의 이미지를 상기 제1 GCP 타겟 및 상기 제2 GCP 타겟 중 하나 이상의 좌표에 매칭시킴으로써 상기 영상 정보에 상응하는 공간 정보를 생성하는 단계를 포함한다.
일 실시예에서, 상기 공간 정보를 생성하는 단계는, 상기 관리 서버가, 상기 영상 정보 내의 상기 제1 GCP 타겟의 이미지 및 상기 제2 GCP 타겟의 이미지를 식별하는 단계; 상기 관리 서버가, 상기 제1 GCP 타겟의 이미지를 이용하여, 상기 영상 정보를 각각 상기 제1 GCP 타겟을 중심으로 하며 상기 제2 GCP 타겟에 의하여 둘러싸인 복수 개의 단위 영역으로 분할하는 단계; 및 상기 관리 서버가, 상기 복수 개의 단위 영역 각각의 상기 제1 GCP 타겟의 이미지를 상기 제1 GCP 타겟의 좌표에 매칭시킴으로써 상기 복수 개의 단위 영역을 이용하여 상기 공간 정보를 구성하는 단계를 포함한다.
일 실시예에서, 상기 공간 정보를 생성하는 단계는, 상기 복수 개의 단위 영역으로 분할하는 단계 후에, 상기 관리 서버가, 상기 영상 정보의 중앙에 가장 가깝게 위치하는 상기 제1 GCP 타겟 또는 상기 제2 GCP 타겟의 이미지를 이용하여 상기 영상 정보의 가장자리에 위치하는 상기 단위 영역의 왜곡을 보정하는 단계를 더 포함한다.
일 실시예에서, 상기 단위 영역의 왜곡을 보정하는 단계는, 상기 관리 서버가, 상기 영상 정보의 중앙에 가장 가깝게 위치하는 상기 제1 GCP 타겟의 이미지 또는 상기 영상 정보의 중앙에 가장 가깝게 위치하는 한 쌍의 상기 제2 GCP 타겟의 이미지를 이용하여, 상기 영상 정보의 가장자리에 위치하는 제1 GCP 타겟의 예측된 위치를 산출하는 단계; 및 상기 관리 서버가, 상기 제1 기상기준점 타겟의 예측된 위치와 상기 영상 정보의 가장자리에 위치하는 제1 GCP 타겟의 이미지의 위치 차이를 이용하여, 상기 영상 정보의 가장자리에 위치하는 제1 GCP 타겟을 중심으로 한 단위 영역의 크기를 조절하는 단계를 포함한다.
일 실시예에 따른 컴퓨터 프로그램은 하드웨어와 결합되어 전술한 실시예들에 따른 공간 정보 생성 방법을 실행하기 위한 것으로서 컴퓨터로 판독 가능한 매체에 저장된 것일 수 있다.
본 발명의 일 측면에 따른 공간 정보 생성 시스템 및 방법에 의하면, 드론에서 촬영된 영상들을 결합하여 지도로 구축하거나 드론의 영상 정보를 기존의 2D 또는 3D 지도에 매핑하여 공간 정보를 생성함에 있어서, 대상 지리적 영역에 미리 배치된 지상기준점(Ground Control Point; GCP) 타겟들의 위치를 영상에서 탐지함으로써 드론의 촬영 영상을 실제 좌표에 매칭시키고 정확한 공간 정보를 생성할 수 있는 이점이 있다.
또한, 본 발명의 일 측면에 따른 공간 정보 생성 시스템 및 방법에 의하면, 지상에 배치되는 GCP 타겟을 서로 상이한 2 이상의 종류로 구성하여 드론이 촬영하는 지리적 영역을 다각형, 타원, 또는 원 등의 형상으로 된 단위 영역으로 분할하고, 단위 영역별로 영상과 지도 사이의 상대적인 크기를 조절함으로써, 드론에 구비된 촬영 렌즈의 구면수차로 인한 영상의 왜곡을 보정할 수 있는 이점이 있다.
도 1은 일 실시예에 따른 공간 정보 생성 시스템의 구성을 나타내는 개념도이다.
도 2는 일 실시예에 따른 공간 정보 생성 시스템에 의해 사용되는 지상기준점(Ground Control Point) 타겟의 형태를 나타내는 개념도이다.
도 3은 일 실시예에 따른 공간 정보 생성 시스템의 관리 서버의 개략적인 블록도이다.
도 4 는 일 실시예에 따른 공간 정보 생성 시스템에 의하여 렌즈 왜곡을 보정하는 과정을 설명하기 위한 개념도이다.
도 5는 일 실시예에 따른 공간 정보 생성 시스템에 의하여 렌즈 왜곡을 보정하는 과정을 설명하기 위한 또 다른 개념도이다.
도 6은 일 실시예에 따른 공간 정보 생성 방법의 각 단계를 나타내는 순서도이다.
이하에서, 도면을 참조하여 본 발명의 실시예들에 대하여 상세히 살펴본다.
도 1은 일 실시예에 따른 공간 정보 생성 시스템의 구성을 나타내는 개념도이다.
도 1을 참조하면, 본 실시예에 따른 공간 정보 생성 시스템은 지리적 영역(P)에 배치된 복수 개의 제1 지상기준점(Ground Control Point; GCP) 타겟(10) 및 복수 개의 제2 GCP 타겟(20)과, 지리적 영역(P)의 영상을 촬영하도록 구성된 카메라 등 촬영 장치(31)를 구비한 드론(30)과, 해당 드론(30)과 유선 및/또는 무선 네트워크를 통하여 통신하면서 드론(30)의 영상 정보를 이용하여 지리적 영역(P)에 대한 공간 정보를 생성하도록 구성된 관리 서버(40)를 포함한다. 또한 일 실시예에서, 관리 서버(40)는 지도 데이터 서버와 같은 외부의 데이터베이스(database; DB) 서버(50)와 더 통신하며 동작하도록 구성된다.
실시예들에 따른 공간 정보 생성 시스템에서 드론(30), 관리 서버(40) 및 DB 서버(50) 사이의 통신 방법은 유선 및/또는 무선 네트워크를 통하여 객체와 객체가 네트워킹 할 수 있는 모든 통신 방법을 포함할 수 있으며, 유선 통신, 무선 통신, 3G, 4G, 혹은 그 이외의 방법으로 제한되지 않는다.
예를 들어, 드론(30), 관리 서버(40) 및 DB 서버(50) 사이의 유선 및/또는 무선 네트워크는 LAN(Local Area Network), MAN(Metropolitan Area Network), GSM(Global System for Mobile Network), EDGE(Enhanced Data GSM Environment), HSDPA(High Speed Downlink Packet Access), W-CDMA(Wideband Code Division Multiple Access), CDMA(Code Division Multiple Access), TDMA(Time Division Multiple Access), 블루투스(Bluetooth), 지그비(Zigbee), 와이-파이(Wi-Fi), VoIP(Voice over Internet Protocol), LTE Advanced, IEEE802.16m, WirelessMAN-Advanced, HSPA+, 3GPP Long Term Evolution (LTE), Mobile WiMAX (IEEE 802.16e), UMB (formerly EV-DO Rev. C), Flash-OFDM, iBurst and MBWA (IEEE 802.20) systems, HIPERMAN, Beam-Division Multiple Access (BDMA), Wi-MAX(World Interoperability for Microwave Access) 및 초음파 활용 통신으로 이루어진 군으로부터 선택되는 하나 이상의 통신 방법에 의한 통신 네트워크를 지칭할 수 있으나, 이에 한정되는 것은 아니다.
실시예들에 따른 공간 정보 생성 시스템에서, 지리적 영역(P)은 위도 및 경도(또는 GPS 좌표)를 갖는 물리적인 범위를 의미하고, 지리적 영역(P) 내 소정의 위치에 복수 개의 제1 GCP 타겟(10) 및 복수 개의 제2 GCP 타겟(20)이 각각 배치될 수 있다. 각각의 GCP 타겟(10, 20) 들은 그 배치 위치(예컨대, GPS 좌표)가 알려져 있다. 예를 들어, GCP 타겟 설치 시 관리자는 각 GCP 타겟의 지리적 좌표를 확인하고 이를 공간 정보 생성 시스템의 관리 서버(40)에 입력해 놓을 수 있다.
또한, 본 명세서에서 공간 정보란, 지리적 영역(P)의 실제 좌표를 지리적 영역(P)에 대한 영상 정보와 결합한 데이터 집합체를 의미한다. 예를 들어, 공간 정보는 지도 상에 영상 정보가 표시되는 지도 데이터일 수 있으나, 공간 정보의 표시 형태는 이에 한정되는 것은 아니다.
실시예들에서, 지리적 영역(P)에 배치된 제2 GCP 타겟(20)들은 제1 GCP 타겟(10)을 둘러싸는 형태로 배치된다. 도 1에서는, 하나의 제1 GCP 타겟(10)을 6개의 제2 GCP 타겟(20)이 둘러싸는 형태로 제1 GCP 타겟(10) 및 제2 GCP 타겟(20)이 배치되어, 제2 GCP 타겟(20)들은 제1 GCP 타겟(10)을 중심으로 한 육각형의 각 꼭지점에 배치되었다. 그러나 이는 예시적인 것으로서, GCP 타겟들의 배치 형태는 이에 한정되는 것은 아니다.
한편, 하나의 제1 GCP 타겟(10)을 중심으로 하여 이를 둘러싸는 제2 GCP 타겟(20)들을 꼭지점으로 하여 다각형 또는 폐곡선 형태의 영역(100)이 정의될 수 있으며, 지리적 영역(P)은 이러한 영역(100)들로 분할될 수 있다. 상기 영역(100)은 드론(30)의 영상 정보로부터 공간 정보를 재구성하기 위한 단위 영역에 해당하며, 이에 대해서는 상세히 후술한다.
드론(30)은 지리적 영역(P) 위를 비행하면서, 촬영 장치(31)를 이용하여 지리적 영역(P)의 영상 정보를 획득하도록 구성된다. 드론(30)의 영상 정보는 유선 및/또는 무선 네트워크를 통하여 관리 서버(40)에 전송된다. 관리 서버(40)에서는, 드론(30)의 영상 정보로부터 제1 GCP 타겟(10) 및/또는 제2 GCP 타겟(20)들의 이미지를 특정하고, 특정된 이미지들을 제1 GCP 타겟(10) 및/또는 제2 GCP 타겟(20)의 실제 좌표에 매칭시킴으로써 지리적 영역(P)의 위도 및 경도(또는 GPS 좌표)와 같은 위치 정보가 영상 정보와 매핑(mapping)된 공간 정보를 생성할 수 있다.
도 2는 일 실시예에 따른 공간 정보 생성 시스템에 의해 사용되는 GCP 타겟의 형태를 나타내는 개념도이다. 도 2의 (a)는 제1 GCP 타겟(10)의 일 예를 나타내며, 도 2의 (b)는 제2 GCP 타겟(20)의 일 예를 나타낸다.
도 2를 참조하면, 제1 GCP 타겟(10) 및 제2 GCP 타겟(20)은 이들이 포함된 지리적 영역의 영상에서 각 GCP 타겟(10, 20)의 이미지를 자동으로 인식하고 분류할 수 있도록 특수한 형태 및 구조로 구성될 수 있다. 도 2의 (a) 및 (b)에서 제1 및 제2 GCP 타겟(10, 20)은 원형으로 도시되었으며, 이는 GCP 타겟(10, 20)이 촬영된 영상에서 각 GCP 타겟(10, 20)의 중심점을 추출하는 것을 용이하게 하기 위한 것이다. 그러나 이는 예시적인 것으로서, 다른 실시예에서 제1 및 제2 GCP 타겟(10, 20)은 타원이나 다른 폐곡선 또는 다각형 형태의 외곽선을 갖는 도형의 형태일 수도 있다.
일 실시예에서, 제1 및 제2 GCP 타겟(10, 20)은 서로 상이한 색상을 갖는 복수 개의 영역을 포함할 수 있다. 도 2의 (a)에서 제1 GCP 타겟(10, 20)은 서로 상이한 색상을 갖는 4개의 영역(A, B, C, D)을 갖는다. 또한, 도 2의 (b)에서 제2 GCP 타겟(20)은 서로 상이한 색상을 갖는 8개의 영역(a, b, c, d, e, f, g, h)을 갖는다. 각 GCP 타겟(10, 20)에서 복수 개의 색상 영역은 각각 소정의 색으로 채워지되, 각 색상 영역은 인접한 색상 영역과 동일하지 않은 색을 갖도록 색상이 결정된다. 따라서, 제1 및 제2 GCP 타겟(10, 20)은 복수의 색상들의 고유한 배열을 가지며, 이를 이용하여 드론의 영상 정보에서 각 GCP 타겟(10, 20)의 이미지를 특정할 수 있도록 구성된다.
일 실시예에서, 제1 GCP 타겟(10)은 제2 GCP 타겟(20)에 비하여 직경이 크도록 구성된다. 또한 일 실시예에서, 제1 GCP 타겟(10)을 분할하는 복수 개의 색상 영역(A, B, C, D)의 개수는 제2 GCP 타겟(20)을 분할하는 복수 개의 색상 영역(a, b, c, d, e, f, g, h)의 개수에 비해 적다. 이는, 지리적 영역을 분할하는 단위 영역들은 제1 GCP 타겟(10)을 중심으로 정의되며 제2 GCP 타겟(20)들은 제1 GCP 타겟(10)을 둘러싸도록 배치되므로, 드론의 영상 정보에서 제1 GCP 타겟(10)을 식별하는 것이 상대적으로 더 용이하도록 제1 GCP 타겟(10)의 크기 및/또는 제1 GCP 타겟(10)의 각 색상 영역(A, B, C, D)의 크기가 제2 GCP 타겟(20)의 각 색상 영역(a, b, c, d, e, f, g, h)의 크기에 비해 크도록 하기 위한 것이다.
이상의 실시예와 동일한 원리에 따라, 다른 실시예에서 제1 GCP 타겟(10)의 각 색상 영역(A, B, C, D)의 색상은 제2 GCP 타겟(20)의 각 색상 영역(a, b, c, d, e, f, g, h)에 비해 채도가 더 높은 색상으로 도색되거나, 또는/또한 제1 GCP 타겟(10)의 각 색상 영역(A, B, C, D)이 제2 GCP 타겟(20)의 각 색상 영역(a, b, c, d, e, f, g, h)에 비해 높은 명도로 도색되도록 각 GCP 타겟(10, 20)을 구성할 수도 있다.
한편, 도 2의 (a) 및 (b)에 도시된 각 GCP 타겟(10, 20)에서 복수 개의 색상 영역은 각 GCP 타겟(10, 20)의 중심점으로 기초로 각도를 균할 등분한 부채꼴의 형태로 배치되었다. 그러나 이는 예시적인 것으로서, 다른 실시예에서 각 GCP 타겟(10, 20)의 복수 개의 색상 영역은 비균등하게 분할될 수도 있다.
도 3은 일 실시예에 따른 공간 정보 생성 시스템의 관리 서버의 개략적인 블록도이다.
도 3을 참조하면, 본 실시예에 따른 공간 정보 생성 시스템의 관리 서버(40)는 이미지 처리부(43), 영역 분할부(44) 및 공간 정보 생성부(45)를 포함한다. 일 실시예에서, 관리 서버(40)는 수신부(41) 및 저장부(42)를 더 포함한다. 일 실시예에서, 공간 정보 생성부(45)는 왜곡 보정부(452)를 포함한다. 또한 일 실시예에서, 공간 정보 생성부(45)는 위치 예측부(451)를 더 포함한다.
실시예들에 따른 공간 정보 생성 시스템의 관리 서버(40)에 포함된 각 부(unit)는, 전적으로 하드웨어이거나, 또는 부분적으로 하드웨어이고 부분적으로 소프트웨어인 측면을 가질 수 있다. 예컨대, 관리 서버(40)에 포함된 각 부(41-45)는 특정 형식 및 내용의 데이터를 처리하거나 또는/또한 전자통신 방식으로 주고받기 위한 하드웨어 및 이에 관련된 소프트웨어를 통칭할 수 있다. 본 명세서에서 "부", "모듈", "장치", "단말기", "서버" 또는 "시스템" 등의 용어는 하드웨어 및 해당 하드웨어에 의해 구동되는 소프트웨어의 조합을 지칭하는 것으로 의도된다. 예를 들어, 하드웨어는 CPU 또는 다른 프로세서(processor)를 포함하는 데이터 처리 기기일 수 있다. 또한, 하드웨어에 의해 구동되는 소프트웨어는 실행중인 프로세스, 객체(object), 실행파일(executable), 실행 스레드(thread of execution), 프로그램(program) 등을 지칭할 수 있다.
또한, 공간 정보 생성 시스템의 관리 서버(40)를 구성하는 각각의 요소는 반드시 서로 물리적으로 구분되는 별개의 장치를 지칭하는 것으로 의도되지 않는다. 즉, 도 3의 수신부(41), 저장부(42), 이미지 처리부(43), 영역 분할부(44) 및 공간 정보 생성부(45)는 관리 서버(40)를 구성하는 하드웨어를 해당 하드웨어에 의해 수행되는 동작에 따라 기능적으로 구분한 것일 뿐, 반드시 각각의 부가 서로 독립적으로 구비되어야 하는 것이 아니다. 물론, 실시예에 따라서는 수신부(41), 저장부(42), 이미지 처리부(43), 영역 분할부(44) 및 공간 정보 생성부(45) 중 하나 이상이 서로 물리적으로 구분되는 별개의 장치로 구현되는 것도 가능하다.
도 1 및 도 3을 참조하면, 수신부(41)는 드론(30)이 촬영한 지리적 영역(P)의 영상 정보를 수신하도록 구성된다. 또한 일 실시예에서, 수신부(41)은 영상 정보와 함께 해당 영상 정보의 촬영 시 드론(30)의 고도에 대한 정보를 더 수신할 수도 있다.
저장부(42)는 지리적 영역(P) 내에 배치된 복수 개의 제1 GCP 타겟(10) 및 복수 개의 제2 GCP 타겟(20)의 위치 정보를 미리 저장하도록 구성된다. 또한, 저장부(42)는 수신부(41)에 의해 수신된 영상 정보를 더 저장하도록 구성될 수도 있다. 나아가, 저장부(42)에는 드론(30)의 촬영 고도에 따라 촬영 장치(31)의 촬영 이미지와 실제 공간 사이의 비율을 나타내는 사진 축척 정보를 더 저장할 수 있다.
이미지 처리부(43)는, 수신부(41)에 수신된 드론(30)의 영상 정보로부터 제1 GCP 타겟(10)의 이미지 및 제2 GCP 타겟(20)의 이미지를 식별하도록 구성된다. 이는, 각각의 GCP 타겟(10, 20)에 상응하는 형상과 고유의 색상 배열이 위치하는 픽셀들을 이미지로부터 추출하는 방식으로 이루어질 수 있으며, 공지된 또는 향후 개발될 임의의 이미지 처리 알고리즘에 의하여 수행될 수 있다.
영역 분할부(44)는, 이미지 처리부(43)에 의하여 영상 정보로부터 인식된 제1 GCP 타겟(10) 및 제2 GCP 타겟(20)의 이미지 위치를 이용하여, 영상 정보를 제1 GCP 타겟(10)을 중심으로 하고 제2 GCP 타겟(20)에 의하여 둘러싸인 단위 영역(100)들로 분할하여 재구성할 수 있다.
다음으로, 공간 정보 생성부(45)는, 영상 정보로부터 분할된 각 단위 영역(100)의 이미지를 실제 위치에 매핑시켜 공간 정보를 생성할 수 있다. 이때, 복수 개의 제1 GCP 타겟(10) 및 제2 GCP 타겟(20)들의 위치는 사전에 알려져 저장부(42)에 저장되어 있으므로, 공간 정보 생성부(45)는 각각의 단위 영역(100)의 이미지를 이에 포함된 제1 GCP 타겟(10) 및/또는 제2 GCP 타겟(20)의 실제 위치(예컨대, GPS 좌표)에 매칭시킴으로써 위치 정보와 영상 정보가 결합된 공간 정보를 생성할 수 있다.
한편, 이상과 같이 영상 정보를 실제 위치 정보에 매핑하더라도, 드론(30)의 영상 정보는 넓게 퍼져 있는 지리적 영역(P)을 하나의 고정된 지점에서 촬영한 것이므로, 촬영 장치(31)에 구비된 렌즈의 구면수차로 인하여 이미지의 외곽 부분으로 갈수록 왜곡이 존재할 수 있다.
따라서, 일 실시예에서 공간 정보 생성부(45)는 영상 정보와 위치 정보의 결합 시 렌즈의 구면수차로 인한 공간 정보의 왜곡을 보정한다. 구체적으로, 공간 정보 생성부(45)는, 드론(30)의 영상 정보에서 중앙에 가깝게 위치하는 제1 GCP 타겟(10) 또는 제2 GCP 타겟(20)의 이미지 위치를 이용하여, 영상 정보의 가장자리에 위치하는 단위 영역(100)의 크기를 조절함으로써 렌즈의 구면수차로 인한 왜곡을 보정할 수 있으며, 공간 정보 생성부(45)는 이상의 동작을 위하여 위치 예측부(451) 및 왜곡 보정부(452)를 포함할 수 있다.
도 4 는 일 실시예에 따른 공간 정보 생성 시스템에 의하여 렌즈 왜곡을 보정하는 과정을 설명하기 위한 개념도이다.
도 3 및 도 4를 참조하면, 지리적 영역을 촬영한 영상 정보 내에는 복수의 제1 GCP 타겟(11-13)이 존재하며, 영역 분할부(44)는 이를 이용하여 영상 정보를 복수 개의 단위 영역(110, 120, 130)으로 분할할 수 있다. 다음으로, 공간 정보 생성부(45)는, 각 단위 영역(110, 120, 130)의 이미지를 해당 단위 영역(110, 120, 130)의 중심에 위치하는 제1 GCP 타겟(11-13)의 좌표에 매핑함으로써 공간 정보를 생성할 수 있다. 이는, 공간 정보 생성 시스템의 저장부에 제1 및 제2 GCP 타겟들의 좌표가 미리 저장되어 있는 것을 이용하여 구현될 수 있다.
본 실시예에 의하면, 영상 내 모든 픽셀들에 대해 각각 실제 좌표와 영상을 매칭시키기 위해 오랜 시간이 소요되는 복잡한 연산을 할 필요가 없이, 영상 정보를 제1 GCP 타겟을 중심으로 한 수 개 내지 수십 개 정도의 단위 영역으로 분할하고, 단위 영역 중심의 제1 GCP 타겟 위치를 기준으로 한 간단한 연산에 의하여 영상 정보를 위치에 매칭시킬 수 있다. 이는 영상 내의 모든 픽셀들을 실제 좌표와 매칭시키는 엄밀한 방법은 아니지만, 몇 개의 GCP 타겟을 탐지하는 단순한 연산을 통해 영상과 실제 위치 사이의 매칭이 가능한 점에서 완전 자동화된 작업이 가능하고 연산 속도가 빠르며 고성능의 처리 장치를 요하지 않는 점에서 종래 기술과 차별화된 이점을 갖는다.
한편, 드론에 의하여 촬영된 영상은 완전한 평면이 아니며, 렌즈의 구면수차로 인하여 영상의 가장자리로 갈수록 왜곡이 존재한다. 따라서, 영상 정보를 분할한 단위 영역을 실제 위치에 매핑하기만 하는 것으로는, 영상 중앙 부분의 단위 영역은 정상적으로 표시되지만, 영상 가장자리의 단위 영역들은 실제 위치와 영상의 위치가 일치하지 않을 수 있다.
위와 같은 렌즈의 구면수차로 인한 왜곡을 해소하기 위하여, 일 실시예에서 공간 정보 생성부(45)의 위치 예측부(451)는, 영상 정보의 중앙에 가장 가깝게 위치하는 제1 GCP 타겟(11)의 이미지를 이용하여, 제1 GCP 타겟(11)에 비해 상대적으로 영상 정보의 가장자리에 가깝게 위치하는 하나 이상의 다른 제1 GCP 타겟(12, 13)들의 위치를 예측할 수 있다.
다음으로, 공간 정보 생성부(45)의 왜곡 보정부(452)는, 영상 정보의 중앙에 가장 가깝게 위치하는 제1 GCP 타겟(11)의 좌표를 영상 정보 상에 투영하여 상대적으로 영상 정보의 가장자리에 위치하는 다른 제1 GCP 타겟(12)의 위치를 예측할 수 있다. 또한 왜곡 보정부(452)는 제1 GCP 타겟(11)의 좌표로부터 예측된 제1 GCP 타겟(12)의 위치(12')와 실제 영상 정보 내의 제1 GCP 타겟(12)의 위치 차이를 토대로, 영상 정보의 가장자리에 위치하는 제1 GCP 타겟(12)을 중심으로 한 단위 영역(120)의 크기를 조절하도록 영상 정보를 수정할 수 있다.
본 명세서에서, 영상 정보의 가장자리에 위치하는 제1 GCP 타겟이란 해당 GCP 타겟이 영상 정보의 맨 끝의 픽셀에 위치하는 것을 의미하는 것은 아니며, 영상 정보의 중앙에 가장 가깝게 위치하는 제1 GCP 타겟에 대한 상대적인 의미로 정의된 것이다. 즉, 도 4에서 제1 GCP 타겟(11)이 영상 정보의 중앙에 가장 가깝게 위치하며, 제1 GCP 타겟(11)이 아닌 다른 임의의 제1 GCP 타겟(12, 13)은 모두 영상 정보의 가장자리에 위치하는 제1 GCP 타겟에 해당된다.
예를 들어, 영상 정보가 가로 및 세로 방향의 픽셀 개수에 따라 200×100의 해상도를 갖는 이미지이며, 이미지에서 식별된 제1 GCP 타겟(11-13) 중 이미지의 중앙의 좌표를 (0, 0)이라고 할 경우 이미지의 중앙에 가장 가깝게 위치하는 제1 GCP 타겟(11)의 이미지 내 좌표는 (10, -5)이라고 가정한다. 이때, 중앙의 제1 GCP 타겟(11)과 이에 인접한 다른 제1 GCP 타겟(12) 사이의 실제 거리는 GPS 좌표를 통해 산출될 수 있으므로, 제1 GCP 타겟(11) 및 제1 GCP 타겟(12) 사이의 실제 거리를 이미지에 투영하여 제1 GCP 타겟(12)의 영상 내 위치를 예측할 수 있다. 이때, 실제 지표면상의 거리와 이미지 내의 거리의 비율은, 영상 정보의 촬영 시 드론(30)의 고도 정보와 저장부(40)에 저장된 촬영 장치(41)의 사진 축척 정보를 이용하여 산출될 수도 있다.
이때, 렌즈의 구면수차로 인하여, 영상 정보의 가장자리 부분은 원형으로 말린 지면을 촬영한 것과 같은 형태가 되며, 따라서 영상 정보 내의 지표면 면적은 실제 평면 형태에 비하여 그 가장자리로 갈수록 면적이 줄어든다. 이에 따라, 제1 GCP 타겟(12)의 실제 좌표를 이미지에 투영한 위치(12')와 이미지 내의 제1 GCP 타겟(12)의 위치 사이에는 오차가 발생한다. 이러한 왜곡을 보정하기 위하여, 공간 정보 생성 시스템(45)의 왜곡 보정부(452)는 제1 GCP 타겟(12)의 실제 좌표를 이미지에 투영한 위치(12')에 단위 영역(120)의 중심이 가까워지도록 단위 영역(120)에 포함된 각 픽셀들을 늘여 단위 영역(120)의 크기를 조정할 수 있다.
예를 들어, 영상 정보 중앙의 제1 GCP 타겟(11)의 이미지 내 좌표가 (10, -5) 이며 그 이를 토대로 예측된 영상 가장자리의 제1 GCP 타겟(12)의 이미지 내 위치(12')가 (-50, -60)이지만, 이미지로부터 실제로 식별된 제1 GCP 타겟(12)은 (-60, -70)의 이미지 내 좌표에 위치한다고 가정한다. 이때, 왜곡 보정부(452)는, 제1 GCP 타겟(12)을 중심으로 한 단위 영역(120)의 영상 정보를 위치 정보와 매칭시킴에 있어서, 제1 GCP 타겟(12)의 예측된 위치(12')에 단위 영역(120)의 중심이 일정 수준 이상 근접하도록 단위 영역(120)에 포함된 픽셀들을 늘릴 수 있다. 예를 들어, 단위 영역(120)의 중심이 제1 GCP 타겟(12)의 예측된 위치(12')와 이미지 내 위치(12)의 중간 지점인 (-55, -65)에 오도록 단위 영역(120)의 크기를 증가시킬 수 있다.
부가적으로, 일 실시예에서는, 영상 가장자리에 위치하는 제1 GCP 타겟(12, 13)을 중심으로 한 단위 영역(120, 130) 내에서 가장 큰 크기를 갖는 지형지물(건물, 논밭 등)을 탐지하고, 이를 사전에 알려진 해당 지형지물의 크기와 비교하여 단위 영역(120, 130)의 영상의 크기 비율을 보정할 수도 있다. 이때 기준이 되는 지형지물의 실제 크기는, 기존의 2D 또는 3D 지도 데이터 등을 외부 서버로부터 수신하여 공간 정보 생성 시스템에 저장하는 방식으로 획득될 수도 있다.
이상의 예에서는 단위 영역(120)의 크기를 증가시키는 방식으로 렌즈 왜곡을 보정하는 것에 대하여 설명하였으나, 렌즈의 형태에 따라서는 실제 평평한 지표면에 비해 영상 정보 내의 지표면의 면적이 더 클 수도 있으며, 이 경우 왜곡 보정부(452)는 예측된 제1 GCP 타겟(12)의 위치(12')에 단위 영역(120)의 중심이 일정 수준 이상 근접하도록 단위 영역(120)의 크기를 감소시키는 방식으로 영상 정보를 수정하는 것도 가능하다.
도 5는 일 실시예에 따른 공간 정보 생성 시스템에 의하여 렌즈 왜곡을 보정하는 과정을 설명하기 위한 또 다른 개념도이다. 도 5에 도시된 렌즈 왜곡의 보정 과정은, 영상의 중앙에 가장 가깝게 위치하는 제1 GCP 타겟 대신 영상의 중앙에 가장 가깝게 위치하는 2개의 제2 GCP 타겟을 기준으로 영상 왜곡을 보정하는 점에서 도 4를 참조하여 전술한 왜곡 보정 과정과 차이가 있다.
도 3 및 도 5를 참조하면, 본 실시예에서 공간 정보 생성부(45)의 위치 예측부(451)는, 영상 정보에서 탐지된 복수 개의 제2 GCP 타겟(21-24) 중 영상 정보의 중앙에 가까운 순서로 상위 2개의 제2 GCP 타겟(21, 23)의 위치를 이용하여, 이들에 비해 상대적으로 영상 정보의 가장자리에 위치하는 하나 이상의 제1 GCP 타겟(11-13)들의 위치를 예측할 수 있다.
다음으로, 공간 정보 생성부(45)의 왜곡 보정부(452)는, 영상 정보의 중앙에 가장 가까운 2 개의 제2 GCP 타겟(21, 23)의 좌표를 영상 정보 상에 투영하고, 이로부터 영상 정보의 가장자리에 위치하는 제1 GCP 타겟(11-13) 들의 이미지 내 위치를 예측할 수 있다. 예컨대, 제2 GCP 타겟(21-24) 들이 제1 GCP 타겟(11-13)을 중심으로 한 육각형 형태로 배열되는 경우, 영상 정보의 중앙에 위치하는 2개의 제2 GCP 타겟(21, 23) 각각을 통과하며 상기 2개의 제2 GCP 타겟(21, 23) 사이를 연결하는 선분(213)에 대해 60도의 각도를 이루는 직선을 그렸을 때 이러한 직선들이 만나는 지점이 제1 GCP 타겟(11-13)의 예측된 위치(11'-13')에 해당된다.
그러나, 영상 정보의 중앙에 위치하는 제2 GCP 타겟(21-24)들로부터 제1 GCP 타겟(11-13)의 예측된 위치(11'-13')를 산출하기 위한 방법은 GCP 타겟들의 배치 형태에 따라 상이할 수 있고, 전술한 육각형 형태의 단위 영역을 대상으로 한 방법으로 한정되지 않는다.
다음으로, 왜곡 보정부(452)는 영상 정보의 중앙에 가장 가까운 2 개의 제2 GCP 타겟(21, 23)의 좌표로부터 예측된 제1 GCP 타겟(11-13)의 위치(11'-13')와 실제 영상 정보 내의 제1 GCP 타겟(11-13)의 위치 차이를 토대로, 영상 정보의 가장자리에 위치하는 제1 GCP 타겟(11-13)을 중심으로 한 단위 영역(110, 120, 130)의 크기를 조절하도록 영상 정보를 수정할 수 있다. GCP 타겟의 예측된 위치와 이미지의 위치를 토대로 단위 영역(110, 120, 130)의 크기를 수정하는 방법은 도 4를 참조하여 전술한 바와 같으므로, 설명의 중복을 피하기 위하여 자세한 설명은 생략한다.
도 6은 일 실시예에 따른 공간 정보 생성 방법의 각 단계를 나타내는 순서도이다. 실시예들에 따른 공간 정보 생성 방법은 본 발명의 실시예들에 따른 공간 정보 생성 시스템을 이용하여 수행될 수 있다. 이하에서는, 설명의 편의를 위하여, 도 1 및 도 6을 참조하여 실시예들에 따른 공간 정보 생성 방법의 각 단계에 대하여 설명한다.
먼저, 지리적 영역(P) 내에 복수 개의 제1 GCP 타겟(10) 및 복수 개의 제2 GCP 타겟(20)을 배치할 수 있다(S1). 이때, 각각의 제2 GCP 타겟(20)들은 제1 GCP 타겟(10)을 둘러싸는 형태로 배열된다. 또한, 지리적 영역(P) 내에 배치된 각 제1 GCP 타겟(10) 및 각 제2 GCP 타겟(20)의 위치 정보(예컨대, GPS 좌표)는 관리 서버(40)에 저장될 수 있다(S2).
다음으로, 지리적 영역(P) 위를 비행하는 드론(30)의 촬영 장치(31)에 의하여 지리적 영역(P)을 촬영하여 영상 정보를 획득하고(S3), 획득한 영상 정보는 드론(30)으로부터 관리 서버(40)에 전송될 수 있다(S4). 이때, 일 실시예에서 관리 서버(40)는 영상과 실제 지표면 사이의 비율을 산출하기 위하여 영상 정보의 촬영 시 드론(30)의 고도에 대한 정보를 드론(30)으로부터 더 수신할 수도 있다. 또한, 관리 서버(40)는 촬영 고도에 따라 촬영 장치(31)의 촬영 이미지와 실제 공간 사이의 비율을 나타내는 사진 축척 정보를 더 저장할 수 있다.
영상 정보를 수신한 관리 서버(40)에서는, 영상 정보 내의 각 GCP 타겟(10, 20)의 이미지를 식별하고(S5), 제1 GCP 타겟(10)을 중심으로 한 단위 영역(100)을 설정함으로써 영상 정보를 복수 개의 단위 영역(100)들로 분할하여 재구성할 수 있다(S6). 다음으로, 관리 서버(40)는 분할된 각 단위 영역(100)을 해당 단위 영역의 중심에 해당하는 제1 GCP 타겟(10)의 알려진 좌표에 매핑함으로써 위치 정보와 영상 정보가 결합된 공간 정보를 생성할 수 있다(S9).
한편, 일 실시예에서 관리 서버(40)는 위치 정보와 영상 정보를 매칭시키는 과정에서 렌즈의 구면수차로 인한 왜곡의 보정을 실시할 수도 있다. 본 실시예에서, 관리 서버(40)는 영상 정보에서 중앙에 가장 가깝게 위치하는 제1 GCP 타겟(10) 또는 제2 GCP 타겟(20)들의 위치를 이용하여 상대적으로 영상의 가장자리에 위치하는 제1 GCP 타겟(10)의 예측된 위치를 산출할 수 있다(S7). 이는, 각 제1 GCP 타겟(10)의 실제 위치는 관리 서버(40)에 저장되어 있으므로, GCP 제1 타겟(10) 사이의 실제 거리를 이미지 상에 투영함으로써 수행된다.
다음으로, 관리 서버(40)는 영상 정보의 가장자리에 위치하는 제1 GCP 타겟(10)의 예측된 위치와, 영상 정보에서 식별되는 해당 제1 GCP 타겟(10)의 위치를 서로 비교하여, 해당 제1 GCP 타겟(10)을 중심으로 하는 단위 영역(100)의 크기를 보정할 수 있다(S8). 이는, 단위 영역(100)의 중심이 해당 단위 영역(100)의 중심에 해당하는 제1 GCP 타겟(10)의 예측된 위치에 일정 수준 이상 근접하도록 단위 영역(100)에 포함된 픽셀들의 크기를 늘이거나 줄이는 것에 의하여 수행될 수 있다.
다음으로, 관리 서버(40)는 이상의 과정에 의하여 크기가 보정된 단위 영역의 영상 정보들을 이용하여 위치 정보와 영상 정보가 결합된 공간 정보를 생성할 수 있다(S9). 이상의 과정에 의하면, 대상 지리적 영역에 미리 배치된 GCP 타겟들을 영상에서 탐지함으로써 드론의 촬영 영상을 실제 좌표에 매칭시키고, 두 종류의 GCP 타겟을 이용하여 정의되는 단위 영역별로 영상과 지도 사이의 상대적인 크기를 조절하여 촬영 렌즈의 구면수차로 인한 영상의 왜곡을 최소화한 공간 정보를 생성할 수 있다.
이상에서 설명한 실시예들에 따른 공간 정보 생성 방법에 의한 동작은 적어도 부분적으로 컴퓨터 프로그램으로 구현되고 컴퓨터로 읽을 수 있는 기록매체에 기록될 수 있다. 실시예들에 따른 공간 정보 생성 방법에 의한 동작을 구현하기 위한 프로그램이 기록되고 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수도 있다. 또한, 본 실시예를 구현하기 위한 기능적인 프로그램, 코드 및 코드 세그먼트(segment)들은 본 실시예가 속하는 기술 분야의 통상의 기술자에 의해 용이하게 이해될 수 있을 것이다.
이상에서 살펴본 본 발명은 도면에 도시된 실시예들을 참고로 하여 설명하였으나 이는 예시적인 것에 불과하며 당해 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 실시예의 변형이 가능하다는 점을 이해할 것이다. 그러나, 이와 같은 변형은 본 발명의 기술적 보호범위 내에 있다고 보아야 한다. 따라서, 본 발명의 진정한 기술적 보호범위는 첨부된 청구범위의 기술적 사상에 의해서 정해져야 할 것이다.

Claims (9)

  1. 지리적 영역에 배치된 복수 개의 제1 지상기준점 타겟;
    상기 지리적 영역에 배치되며, 상기 복수 개의 제1 지상기준점 타겟을 각각 둘러싸고 배치된 복수 개의 제2 지상기준점 타겟;
    상기 지리적 영역의 영상을 촬영하도록 구성된 촬영 장치를 구비한 드론; 및
    상기 복수 개의 제1 지상기준점 타겟 및 상기 복수 개의 제2 지상기준점 타겟의 좌표를 저장하며, 상기 드론으로부터 상기 지리적 영역의 영상 정보를 수신하고, 상기 영상 정보 내의 상기 제1 지상기준점 타겟 및 상기 제2 지상기준점 타겟 중 하나 이상의 이미지를 상기 제1 지상기준점 타겟 및 상기 제2 지상기준점 타겟 중 하나 이상의 좌표에 매칭시킴으로써 상기 영상 정보에 상응하는 공간 정보를 생성하도록 구성된 관리 서버를 포함하되,
    상기 관리 서버는,
    상기 영상 정보 내의 상기 제1 지상기준점 타겟의 이미지 및 상기 제2 지상기준점 타겟의 이미지를 식별하도록 구성된 이미지 처리부;
    상기 제1 지상기준점 타겟의 이미지를 이용하여, 상기 영상 정보를 각각 상기 제1 지상기준점 타겟을 중심으로 하며 상기 제2 지상기준점 타겟에 의하여 둘러싸인 복수 개의 단위 영역으로 분할하도록 구성된 영역 분할부; 및
    상기 복수 개의 단위 영역 각각의 상기 제1 지상기준점 타겟의 이미지를 상기 제1 지상기준점 타겟의 좌표에 매칭시킴으로써 상기 복수 개의 단위 영역을 이용하여 상기 공간 정보를 생성하도록 구성된 공간 정보 생성부를 포함하는 공간 정보 생성 시스템.
  2. 삭제
  3. 제1항에 있어서,
    상기 공간 정보 생성부는, 상기 영상 정보의 중앙에 가장 가깝게 위치하는 상기 제1 지상기준점 타겟 또는 상기 제2 지상기준점 타겟의 이미지를 이용하여 상기 영상 정보의 가장자리에 위치하는 상기 단위 영역의 크기를 조정하도록 구성된 왜곡 보정부를 포함하는 공간 정보 생성 시스템.
  4. 제3항에 있어서,
    상기 공간 정보 생성부는,
    상기 영상 정보의 중앙에 가장 가깝게 위치하는 상기 제1 지상기준점 타겟의 이미지 또는 상기 영상 정보의 중앙에 가장 가깝게 위치하는 한 쌍의 상기 제2 지상기준점 타겟의 이미지를 이용하여, 상기 영상 정보의 가장자리에 위치하는 제1 지상기준점 타겟의 예측된 위치를 산출하도록 구성된 위치 예측부를 더 포함하며,
    상기 왜곡 보정부는, 상기 제1 지상기준점 타겟의 예측된 위치와 상기 영상 정보의 가장자리에 위치하는 제1 지상기준점 타겟의 이미지의 위치 차이를 이용하여, 상기 영상 정보의 가장자리에 위치하는 제1 지상기준점 타겟을 중심으로 한 단위 영역의 크기를 조절하도록 더 구성된 공간 정보 생성 시스템.
  5. 촬영 장치를 구비한 드론을 이용하여 촬영되며, 복수 개의 제1 지상기준점 타겟, 및 상기 복수 개의 제1 지상기준점 타겟을 각각 둘러싸고 배치된 복수 개의 제2 지상기준점 타겟이 배치된 지리적 영역의 영상 정보를 공간 정보 생성 시스템의 관리 서버가 수신하는 단계;
    상기 관리 서버가, 상기 복수 개의 제1 지상기준점 타겟 및 상기 복수 개의 제2 지상기준점 타겟의 좌표를 상기 관리 서버에 저장하는 단계;
    상기 관리 서버가, 상기 드론으로부터, 상기 드론에 의하여 촬영된 상기 영상 정보를 수신하는 단계; 및
    상기 관리 서버가, 상기 영상 정보 내의 상기 제1 지상기준점 타겟 및 상기 제2 지상기준점 타겟 중 하나 이상의 이미지를 상기 제1 지상기준점 타겟 및 상기 제2 지상기준점 타겟 중 하나 이상의 좌표에 매칭시킴으로써 상기 영상 정보에 상응하는 공간 정보를 생성하는 단계를 포함하되,
    상기 공간 정보를 생성하는 단계는,
    상기 관리 서버가, 상기 영상 정보 내의 상기 제1 지상기준점 타겟의 이미지 및 상기 제2 지상기준점 타겟의 이미지를 식별하는 단계;
    상기 관리 서버가, 상기 제1 지상기준점 타겟의 이미지를 이용하여, 상기 영상 정보를 각각 상기 제1 지상기준점 타겟을 중심으로 하며 상기 제2 지상기준점 타겟에 의하여 둘러싸인 복수 개의 단위 영역으로 분할하는 단계; 및
    상기 관리 서버가, 상기 복수 개의 단위 영역 각각의 상기 제1 지상기준점 타겟의 이미지를 상기 제1 지상기준점 타겟의 좌표에 매칭시킴으로써 상기 복수 개의 단위 영역을 이용하여 상기 공간 정보를 구성하는 단계를 포함하는 공간 정보 생성 방법.
  6. 삭제
  7. 제5항에 있어서,
    상기 공간 정보를 생성하는 단계는,
    상기 복수 개의 단위 영역으로 분할하는 단계 후에, 상기 관리 서버가, 상기 영상 정보의 중앙에 가장 가깝게 위치하는 상기 제1 지상기준점 타겟 또는 상기 제2 지상기준점 타겟의 이미지를 이용하여 상기 영상 정보의 가장자리에 위치하는 상기 단위 영역의 왜곡을 보정하는 단계를 더 포함하는 공간 정보 생성 방법.
  8. 제7항에 있어서,
    상기 단위 영역의 왜곡을 보정하는 단계는,
    상기 관리 서버가, 상기 영상 정보의 중앙에 가장 가깝게 위치하는 상기 제1 지상기준점 타겟의 이미지 또는 상기 영상 정보의 중앙에 가장 가깝게 위치하는 한 쌍의 상기 제2 지상기준점 타겟의 이미지를 이용하여, 상기 영상 정보의 가장자리에 위치하는 제1 지상기준점 타겟의 예측된 위치를 산출하는 단계; 및
    상기 관리 서버가, 상기 제1 지상기준점 타겟의 예측된 위치와 상기 영상 정보의 가장자리에 위치하는 제1 지상기준점 타겟의 이미지의 위치 차이를 이용하여, 상기 영상 정보의 가장자리에 위치하는 제1 지상기준점 타겟을 중심으로 한 단위 영역의 크기를 조절하는 단계를 포함하는 공간 정보 생성 방법.
  9. 하드웨어와 결합되어 제5항, 제7항 및 제8항 중 어느 한 항에 따른 공간 정보 생성 방법을 실행하도록 컴퓨터로 판독 가능한 기록매체에 저장된 컴퓨터 프로그램.
KR1020200124563A 2020-09-25 2020-09-25 드론의 영상 정보를 이용한 공간 정보 생성 시스템 및 방법과, 이를 위한 컴퓨터 프로그램 KR102195051B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200124563A KR102195051B1 (ko) 2020-09-25 2020-09-25 드론의 영상 정보를 이용한 공간 정보 생성 시스템 및 방법과, 이를 위한 컴퓨터 프로그램

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200124563A KR102195051B1 (ko) 2020-09-25 2020-09-25 드론의 영상 정보를 이용한 공간 정보 생성 시스템 및 방법과, 이를 위한 컴퓨터 프로그램

Publications (1)

Publication Number Publication Date
KR102195051B1 true KR102195051B1 (ko) 2020-12-24

Family

ID=74087377

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200124563A KR102195051B1 (ko) 2020-09-25 2020-09-25 드론의 영상 정보를 이용한 공간 정보 생성 시스템 및 방법과, 이를 위한 컴퓨터 프로그램

Country Status (1)

Country Link
KR (1) KR102195051B1 (ko)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220158570A (ko) * 2021-05-24 2022-12-01 이재영 드론을 이용한 3차원 지도 제작 방법
KR20220166689A (ko) * 2021-06-10 2022-12-19 이재영 드론을 이용한 3차원 지도 제작 방법
KR20220169342A (ko) * 2021-06-18 2022-12-27 이재영 드론을 이용한 3차원 지도 제작 방법
KR20230114457A (ko) * 2022-01-25 2023-08-01 서울대학교산학협력단 Rgb 영상을 이용한 하천의 합류부 전단층 해석 장치 및 방법
KR102641975B1 (ko) * 2023-04-14 2024-02-28 박종판 지리정보 제공 방법 및 시스템

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19990047500A (ko) 1997-12-04 1999-07-05 정선종 반자동 온라인 지리보정 방법
KR101762809B1 (ko) * 2016-01-21 2017-07-28 전주비전대학교산학협력단 드론을 사용한 산사태 예측 지형자료 생성 및 산사태 위험지역 선정 방법
KR101888169B1 (ko) * 2018-02-06 2018-08-13 엘아이지넥스원 주식회사 자탄 위치 검출 시스템 및 방법
KR102003187B1 (ko) * 2019-06-13 2019-07-23 주식회사 디지털커브 무인 비행체에 의해 촬영된 이미지들을 사용하여 측량 대상지의 위치 정보를 포함하는 GCP (Ground Control Point)들의 각각이 매칭된 결과 이미지를 모델링하는 방법 및 장치
KR102015388B1 (ko) * 2019-01-21 2019-08-28 주식회사 지공간솔루션 무인항공기와 지상용 3d라이다스캐너를 활용한 정사영상 3차원 포인트클라우드 db 구축기반 가상현실 공간 맵 제공시스템 및 제공방법
KR20200106680A (ko) * 2019-03-05 2020-09-15 경북대학교 산학협력단 항공사진을 이용한 정사영상 구축방법

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19990047500A (ko) 1997-12-04 1999-07-05 정선종 반자동 온라인 지리보정 방법
KR101762809B1 (ko) * 2016-01-21 2017-07-28 전주비전대학교산학협력단 드론을 사용한 산사태 예측 지형자료 생성 및 산사태 위험지역 선정 방법
KR101888169B1 (ko) * 2018-02-06 2018-08-13 엘아이지넥스원 주식회사 자탄 위치 검출 시스템 및 방법
KR102015388B1 (ko) * 2019-01-21 2019-08-28 주식회사 지공간솔루션 무인항공기와 지상용 3d라이다스캐너를 활용한 정사영상 3차원 포인트클라우드 db 구축기반 가상현실 공간 맵 제공시스템 및 제공방법
KR20200106680A (ko) * 2019-03-05 2020-09-15 경북대학교 산학협력단 항공사진을 이용한 정사영상 구축방법
KR102003187B1 (ko) * 2019-06-13 2019-07-23 주식회사 디지털커브 무인 비행체에 의해 촬영된 이미지들을 사용하여 측량 대상지의 위치 정보를 포함하는 GCP (Ground Control Point)들의 각각이 매칭된 결과 이미지를 모델링하는 방법 및 장치

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220158570A (ko) * 2021-05-24 2022-12-01 이재영 드론을 이용한 3차원 지도 제작 방법
KR102525519B1 (ko) 2021-05-24 2023-04-24 이재영 드론을 이용한 3차원 지도 제작 방법
KR20220166689A (ko) * 2021-06-10 2022-12-19 이재영 드론을 이용한 3차원 지도 제작 방법
KR102567800B1 (ko) 2021-06-10 2023-08-16 이재영 드론을 이용한 3차원 지도 제작 방법
KR20220169342A (ko) * 2021-06-18 2022-12-27 이재영 드론을 이용한 3차원 지도 제작 방법
KR102567799B1 (ko) 2021-06-18 2023-08-16 이재영 드론을 이용한 3차원 지도 제작 방법
KR20230114457A (ko) * 2022-01-25 2023-08-01 서울대학교산학협력단 Rgb 영상을 이용한 하천의 합류부 전단층 해석 장치 및 방법
KR102665566B1 (ko) 2022-01-25 2024-05-17 서울대학교산학협력단 Rgb 영상을 이용한 하천의 합류부 전단층 해석 장치 및 방법
KR102641975B1 (ko) * 2023-04-14 2024-02-28 박종판 지리정보 제공 방법 및 시스템

Similar Documents

Publication Publication Date Title
KR102195051B1 (ko) 드론의 영상 정보를 이용한 공간 정보 생성 시스템 및 방법과, 이를 위한 컴퓨터 프로그램
CN110310248B (zh) 一种无人机遥感影像实时拼接方法及系统
US20170110014A1 (en) Generating a mission plan for capturing aerial images with an unmanned aerial vehicle
CN109387186B (zh) 测绘信息获取方法、装置、电子设备及存储介质
US11238647B2 (en) Apparatus for building map using machine learning and image processing
US8994821B2 (en) Methods and apparatus for automated assignment of geodetic coordinates to pixels of images of aerial video
CN113359782B (zh) 一种融合lidar点云与图像数据的无人机自主选址降落方法
CN112414403A (zh) 一种机器人的定位定姿方法、设备及存储介质
CN109325913A (zh) 无人机图像拼接方法及装置
CN108801225A (zh) 一种无人机倾斜影像定位方法、系统、介质及设备
WO2020237422A1 (zh) 航测方法、飞行器及存储介质
CN110910432A (zh) 一种遥感图像匹配方法、装置、电子设备及可读存储介质
CN111527375B (zh) 一种测绘采样点的规划方法、装置、控制终端及存储介质
CN113415433B (zh) 基于三维场景模型的吊舱姿态修正方法、装置和无人机
US11557059B2 (en) System and method for determining position of multi-dimensional object from satellite images
KR102249381B1 (ko) 3차원 영상 정보를 이용한 모바일 디바이스의 공간 정보 생성 시스템 및 방법
CN111582296B (zh) 一种遥感图像综合匹配方法、装置、电子设备及存储介质
JP7347696B2 (ja) 訓練装置、制御方法、及びプログラム
KR102587445B1 (ko) 드론을 이용하여 시계열정보가 포함된 3차원 지도의 제작 방법
WO2019100214A1 (zh) 输出影像生成方法、设备及无人机
JP7485200B2 (ja) 画像拡張装置、制御方法、及びプログラム
CN114387532A (zh) 边界的识别方法及其装置、终端、电子设备和无人设备
Lim et al. Analysis of orientation accuracy of an UAV image according to camera calibration
US20240104754A1 (en) Information processing system, method and program
CN118172410A (zh) 一种将光伏巡检图像映射到建站正射图像的方法以及装置

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant