KR102426282B1 - 도로선형 기반의 3차원 공간객체 위치보정 방법 - Google Patents

도로선형 기반의 3차원 공간객체 위치보정 방법 Download PDF

Info

Publication number
KR102426282B1
KR102426282B1 KR1020200047523A KR20200047523A KR102426282B1 KR 102426282 B1 KR102426282 B1 KR 102426282B1 KR 1020200047523 A KR1020200047523 A KR 1020200047523A KR 20200047523 A KR20200047523 A KR 20200047523A KR 102426282 B1 KR102426282 B1 KR 102426282B1
Authority
KR
South Korea
Prior art keywords
road
spatial object
information
correction
image
Prior art date
Application number
KR1020200047523A
Other languages
English (en)
Other versions
KR20210129472A (ko
Inventor
강지훈
이재희
연성현
이세원
Original Assignee
한국국토정보공사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국국토정보공사 filed Critical 한국국토정보공사
Priority to KR1020200047523A priority Critical patent/KR102426282B1/ko
Publication of KR20210129472A publication Critical patent/KR20210129472A/ko
Application granted granted Critical
Publication of KR102426282B1 publication Critical patent/KR102426282B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/10Constructive solid geometry [CSG] using solid primitives, e.g. cylinders, cubes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Geometry (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Remote Sensing (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Navigation (AREA)

Abstract

본 발명은 도로선형 기반의 3차원 공간객체 위치보정 방법에 관한 것으로, (a) 무인비행체의 비행 과정에서 촬영된 영상을 기초로 특정 지역에 관한 3D 공간객체 모델과 2D 정사보정 영상을 생성하는 단계, (b) 도로의 패턴에 관한 학습 모델을 기초로 상기 2D 정사보정 영상으로부터 도로선을 추출하여 도로선형 벡터를 생성하는 단계, (c) 상기 특정 지역에 대해 기 구축된 공간정보로부터 상기 도로선에 대응되는 도로선형 정보를 결정하는 단계, (d) 상기 도로선형 벡터와 상기 도로선형 정보 간의 매칭을 위한 변환 정보를 생성하는 단계 및 (e) 상기 3D 공간객체 모델 및 상기 2D 정사보정 영상에 대해 상기 변환 정보를 각각 적용하여 위치보정을 수행하는 단계를 포함한다.

Description

도로선형 기반의 3차원 공간객체 위치보정 방법{3D SPATIAL OBJECT LOCATION CORRECTION METHOD BASED ON ROAD LINEARITY}
본 발명은 3차원 공간객체 위치보정 기술에 관한 것으로, 보다 상세하게는 원시데이터에서 추출된 특징과 기 구축된 공간정보 데이터를 형상비교하여 정합계수를 도출하고 UAV를 통해 생성한 3차원 공간객체에 적용할 수 있는 도로선형 기반의 3차원 공간객체 위치보정 방법에 관한 것이다.
고해상도의 UAV(Unmanned Aerial Vehicle) 영상을 이용한 다양한 부가가치정보가 주목받고 있다. 수백 km 상공에서 촬영되는 인공위성과 수 km에서 촬영되는 항공기와 달리 UAV 촬영고도는 100 m 안팎으로 낮아져 수 cm급 해상도 영상을 획득할 수 있기 때문이다. 하지만, 영상 한 장이 커버하는 면적이 좁고, 일반적으로 디지털카메라 또는 유사한 사양의 구형 카메라를 탑재하기 때문에 획득된 영상의 외곽으로 왜곡현상이 발생하는 단점이 있다.
그러므로, UAV 영상을 항공영상이나 인공위성 영상과 같이 활용하기 위해서는 각각의 영상에서 지형/지물 등의 높이에 따라 발생되는 기복변위를 보정하고 정합과정을 거쳐야 한다.
다만, UAV는 촬영 시 인공위성이나 항공기보다 기체의 흔들림이 심하고, 상대적으로 GPS(Global Positioning System)와 IMU(Inertial Measurement Unit) 센서의 정확도가 낮아 외부표정요소가 부정확할 확률이 높다.
위치정확도 향상 및 기하보정을 위해서는 일반적으로 지상기준점(GCP, Ground Control Point)을 이용한다. 하지만, 재난상황에서의 촬영과 같이 지상기준점 설정보다 신속한 촬영이 요구되거나 지형적인 조건에 따라 촬영이 불가능한 경우가 존재할 수 있으며, 이 경우 영상 내부에 존재하는 일부 특징점을 활용할 수 있다.
한국등록특허 제10-1160454호 (2012.06.21)
본 발명의 일 실시예는 원시데이터에서 추출된 특징과 공간정보 데이터를 형상비교하여 정합계수를 도출하고 3차원 공간객체에 적용할 수 있는 도로선형 기반의 3차원 공간객체 위치보정 방법을 제공하고자 한다.
본 발명의 일 실시예는 도로선형을 활용한 3차원 공간객체의 위치보정을 수행함으로써 실감형 3D 공간객체와 국가공간정보와의 정합 오차를 최소화할 수 있고 저비용 3D 건물객체의 위치정합 오차를 개선할 수 있는 도로선형 기반의 3차원 공간객체 위치보정 방법을 제공하고자 한다.
실시예들 중에서, 도로선형 기반의 3차원 공간객체 위치보정 방법은 (a) 무인비행체의 비행 과정에서 촬영된 영상을 기초로 특정 지역에 관한 3D 공간객체 모델과 2D 정사보정 영상을 생성하는 단계, (b) 도로의 패턴에 관한 학습 모델을 기초로 상기 2D 정사보정 영상으로부터 도로선을 추출하여 도로선형 벡터를 생성하는 단계, (c) 상기 특정 지역에 대해 기 구축된 공간정보로부터 상기 도로선에 대응되는 도로선형 정보를 결정하는 단계, (d) 상기 도로선형 벡터와 상기 도로선형 정보 간의 매칭을 위한 변환 정보를 생성하는 단계 및 (e) 상기 3D 공간객체 모델 및 상기 2D 정사보정 영상에 대해 상기 변환 정보를 각각 적용하여 위치보정을 수행하는 단계를 포함한다.
상기 (a) 단계는 상기 촬영된 영상이 등간격으로 촬영된 복수의 부분 영상들로 구성된 경우 상기 복수의 부분 영상들을 병합하여 상기 특정 지역에 관한 하나의 영상으로서 상기 2D 정사보정 영상을 생성하는 단계를 포함할 수 있다.
상기 (c) 단계는 상기 특정 지역의 수치지도에 포함된 복수의 레이어(layer)들 중에서 상기 도로선에 대응되는 레이어 만을 추출하여 저장하는 단계를 포함할 수 있다.
상기 (d) 단계는 (d1) 상기 특정 지역 내에서 복수의 매칭점들을 결정하는 단계, (d2) 상기 도로선형 벡터에서 상기 복수의 매칭점들 각각에 대응되는 제1 위치좌표를 추출하는 단계, (d3) 상기 도로선형 정보에서 상기 복수의 매칭점들 각각에 대응되는 제2 위치좌표를 추출하는 단계 및 (d4) 상기 제2 위치좌표에서 상기 제1 위치좌표로의 정방향 변환에 관한 변환행렬을 생성하는 단계를 포함할 수 있다.
상기 (d1) 단계는 상기 특정 지역의 수치지도에 포함된 도로 정보를 기초로 도로의 끊김, 축소 및 확장 중 적어도 하나를 포함하는 변화 지점을 상기 매칭점으로 결정하는 단계를 포함할 수 있다.
상기 (d4) 단계는 상기 제1 위치좌표를 독립변수로 하고 상기 제2 위치좌표를 종속변수로 하는 2차 다항식 변환에서 해당 다항식의 계수를 상기 변환행렬로서 생성하는 단계를 포함할 수 있다.
상기 (e) 단계는 (e1) 상기 3D 공간객체 모델에서 3D 공간객체와 2D 위치좌표를 각각 추출하는 단계, (e2) 상기 2D 위치좌표에 대해 상기 정방향 변환의 역방향 변환을 적용하여 2D 보정좌표를 생성하는 단계 및 (e3) 상기 3D 공간객체 및 상기 2D 보정좌표를 통합하여 보정된 3D 공간객체 모델을 생성하는 단계를 포함할 수 있다.
상기 3차원 공간객체 위치보정 방법은 (f) 상기 특정 지역에 대해 기 설정된 복수의 지상기준점(Ground Control Point, GCP)들을 기준으로 상기 2D 정사보정 영상에 대한 위치보정 전·후의 거리 오차(distance error)를 비교하여 상기 위치보정에 관한 정확도를 검증하는 단계를 더 포함할 수 있다.
개시된 기술은 다음의 효과를 가질 수 있다. 다만, 특정 실시예가 다음의 효과를 전부 포함하여야 한다거나 다음의 효과만을 포함하여야 한다는 의미는 아니므로, 개시된 기술의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.
본 발명의 일 실시예에 따른 도로선형 기반의 3차원 공간객체 위치보정 방법은 원시데이터에서 추출된 특징과 공간정보 데이터를 형상비교하여 정합계수를 도출하고 3차원 공간객체에 적용할 수 있다.
본 발명의 일 실시예에 따른 도로선형 기반의 3차원 공간객체 위치보정 방법은 도로선형을 활용한 3차원 공간객체의 위치보정을 수행함으로써 실감형 3D 공간객체와 국가공간정보와의 정합 오차를 최소화할 수 있고 저비용 3D 건물객체의 위치정합 오차를 개선할 수 있다.
도 1은 본 발명에 따른 3차원 공간객체 위치보정 시스템을 설명하는 블록도이다.
도 2는 도 1에 있는 위치보정 장치의 물리적 구성을 설명하는 도면이다.
도 3은 도 1에 있는 위치보정 장치의 기능적 구성을 설명하는 도면이다.
도 4는 본 발명에 따른 도로선형 기반의 3차원 공간객체 위치보정 과정을 설명하는 순서도이다.
도 5는 도로선형 기반의 3차원 공간객체 위치보정 방법의 일 실시예를 설명하는 개념도이다.
도 6은 본 발명에 따른 3D 포인트 클라우드 데이터의 데이터 포맷 변환의 일 실시예를 설명하는 도면이다.
도 7은 본 발명에 따른 매칭점에 대응되는 위치좌표의 일 실시예를 설명하는 도면이다.
도 8은 본 발명에 따른 위치보정 전과 후의 거리 오차의 일 실시예를 설명하는 도면이다.
도 9는 본 발명에 따른 도로선형 기반의 3차원 공간객체 위치보정 방법을 설명하는 흐름도이다.
본 발명에 관한 설명은 구조적 내지 기능적 설명을 위한 실시예에 불과하므로, 본 발명의 권리범위는 본문에 설명된 실시예에 의하여 제한되는 것으로 해석되어서는 아니 된다. 즉, 실시예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 본 발명의 권리범위는 기술적 사상을 실현할 수 있는 균등물들을 포함하는 것으로 이해되어야 한다. 또한, 본 발명에서 제시된 목적 또는 효과는 특정 실시예가 이를 전부 포함하여야 한다거나 그러한 효과만을 포함하여야 한다는 의미는 아니므로, 본 발명의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.
한편, 본 출원에서 서술되는 용어의 의미는 다음과 같이 이해되어야 할 것이다.
"제1", "제2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로, 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어"있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결될 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어"있다고 언급된 때에는 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 한편, 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함하다"또는 "가지다" 등의 용어는 실시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
각 단계들에 있어 식별부호(예를 들어, a, b, c 등)는 설명의 편의를 위하여 사용되는 것으로 식별부호는 각 단계들의 순서를 설명하는 것이 아니며, 각 단계들은 문맥상 명백하게 특정 순서를 기재하지 않는 이상 명기된 순서와 다르게 일어날 수 있다. 즉, 각 단계들은 명기된 순서와 동일하게 일어날 수도 있고 실질적으로 동시에 수행될 수도 있으며 반대의 순서대로 수행될 수도 있다.
본 발명은 컴퓨터가 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현될 수 있고, 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
여기서 사용되는 모든 용어들은 다르게 정의되지 않는 한, 본 발명이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석될 수 없다.
도 1은 본 발명에 따른 3차원 공간객체 위치보정 시스템을 설명하는 블록도이다.
도 1을 참조하면, 3차원 공간객체 위치보정 시스템(100)은 무인비행체(110), 위치보정 장치(130) 및 데이터베이스(150)을 포함할 수 있다.
무인비행체(110)는 실제 조종사가 탑승하지 않은 채 비행할 수 있는 기체(비행체)에 해당할 수 있다. 예를 들어, 무인비행체(110)는 무인항공기(Unmanned Aerial Vehicle, UAV) 또는 드론(Drone) 등을 포함할 수 있다. 무인비행체(110)는 자동 비행을 위해 다양한 센서들을 포함하여 구현될 수 있고, 비행 능력과 조종 능력을 위한 다양한 모듈들을 포함할 수 있다. 즉, 무인비행체(110)는 관제 및 지상지원시스템, 통신 및 항법 시스템 등을 포함하여 구현될 수 있다.
또한, 무인비행체(110)는 위치보정 장치(130)와 네트워크를 통해 연결될 수 있고, 복수의 무인비행체(110)들은 위치보정 장치(130)와 동시에 연결될 수 있다. 무인비행체(110)는 비행 과정에서 지상을 촬영할 수 있는 다양한 카메라 장치들을 포함하여 구현될 수 있으며, 비행 중 실시간으로 촬영 영상을 위치보정 장치(130)에게 전송할 수도 있다. 무인비행체(110)는 촬영 영상을 항공영상이나 인공위성 영상과 같이 활용하기 위하여 촬영 영상에서 지형/지물 등의 높이에 따라 발생하는 기본변위를 보정하고 정합하는 동작을 수행할 수 있으며, 이를 위하여 영상 처리 소프트웨어를 포함하여 구현될 수 있다.
위치보정 장치(130)는 원시데이터에서 추출된 특징과 공간정보 데이터를 비교하여 정합계수를 도출하고 3차원 공간객체의 위치보정을 처리할 수 있는 컴퓨터 또는 프로그램에 해당하는 서버로 구현될 수 있다. 위치보정 장치(130)는 무인비행체(110)와 블루투스, WiFi, 통신망 등을 통해 무선으로 연결될 수 있고, 네트워크를 통해 무인비행체(110)와 데이터를 주고 받을 수 있다.
일 실시예에서, 위치보정 장치(130)는 데이터베이스(150)와 연동하여 도로선형 기반의 3차원 공간객체 위치보정을 위해 필요한 데이터를 저장할 수 있다. 한편, 위치보정 장치(130)는 도 1과 달리, 데이터베이스(150)를 내부에 포함하여 구현될 수 있다. 또한, 위치보정 장치(130)는 프로세서, 메모리, 사용자 입출력부 및 네트워크 입출력부를 포함하여 구현될 수 있으며, 이에 대해서는 도 2에서 보다 자세히 설명한다.
데이터베이스(150)는 위치보정 장치(130)의 동작 과정에서 필요한 다양한 정보들을 저장하는 저장장치에 해당할 수 있다. 데이터베이스(150)는 무인비행체(110)에 의해 촬영된 영상에 관한 정보를 저장할 수 있고, 위치보정을 위한 다양한 공간정보 데이터를 저장할 수 있으며, 반드시 이에 한정되지 않고, 위치보정 장치(130)가 무인비행체(110)에 의해 촬영된 영상을 기초로 3차원 공간객체 모델을 생성하고 위치보정을 수행하는 과정에서 다양한 형태로 수집 또는 가공된 정보들을 저장할 수 있다.
도 2는 도 1에 있는 위치보정 장치의 물리적 구성을 설명하는 도면이다.
도 2를 참조하면, 위치보정 장치(130)는 프로세서(210), 메모리(230), 사용자 입출력부(250) 및 네트워크 입출력부(270)를 포함하여 구현될 수 있다.
프로세서(210)는 위치보정 장치(130)가 동작하는 과정에서의 각 단계들을 처리하는 프로시저를 실행할 수 있고, 그 과정 전반에서 읽혀지거나 작성되는 메모리(230)를 관리할 수 있으며, 메모리(230)에 있는 휘발성 메모리와 비휘발성 메모리 간의 동기화 시간을 스케줄할 수 있다. 프로세서(210)는 위치보정 장치(130)의 동작 전반을 제어할 수 있고, 메모리(230), 사용자 입출력부(250) 및 네트워크 입출력부(270)와 전기적으로 연결되어 이들 간의 데이터 흐름을 제어할 수 있다. 프로세서(210)는 위치보정 장치(130)의 CPU(Central Processing Unit)로 구현될 수 있다.
메모리(230)는 SSD(Solid State Drive) 또는 HDD(Hard Disk Drive)와 같은 비휘발성 메모리로 구현되어 위치보정 장치(130)에 필요한 데이터 전반을 저장하는데 사용되는 보조기억장치를 포함할 수 있고, RAM(Random Access Memory)과 같은 휘발성 메모리로 구현된 주기억장치를 포함할 수 있다.
사용자 입출력부(250)는 사용자 입력을 수신하기 위한 환경 및 사용자에게 특정 정보를 출력하기 위한 환경을 포함할 수 있다. 예를 들어, 사용자 입출력부(250)는 터치 패드, 터치 스크린, 화상 키보드 또는 포인팅 장치와 같은 어댑터를 포함하는 입력장치 및 모니터 또는 터치스크린과 같은 어댑터를 포함하는 출력장치를 포함할 수 있다. 일 실시예에서, 사용자 입출력부(250)는 원격 접속을 통해 접속되는 컴퓨팅 장치에 해당할 수 있고, 그러한 경우, 위치보정 장치(130)는 서버로서 수행될 수 있다.
네트워크 입출력부(270)은 네트워크를 통해 외부 장치 또는 시스템과 연결하기 위한 환경을 포함하고, 예를 들어, LAN(Local Area Network), MAN(Metropolitan Area Network), WAN(Wide Area Network) 및 VAN(Value Added Network) 등의 통신을 위한 어댑터를 포함할 수 있다.
도 3은 도 1에 있는 위치보정 장치의 기능적 구성을 설명하는 도면이다.
도 3을 참조하면, 위치보정 장치(130)는 영상 처리부(310), 매칭 도로선형 생성부(320), 기준 도로선형 결정부(330), 변환 정보 생성부(340), 위치보정 수행부(350), 정확도 검증부(360) 및 제어부(370)를 포함할 수 있다.
영상 처리부(310)는 무인비행체(110)의 비행 과정에서 촬영된 영상을 기초로 특정 지역에 관한 3D 공간객체 모델과 2D 정사보정 영상을 생성할 수 있다. 여기에서, 3D 공간객체 모델은 무인비행체(110)의 비행 과정에서 촬영된 지역에 대응되는 3차원 공간 모델에 해당할 수 있고, 2D 정사보정 영상은 상공에서 촬영된 영상에 대해 중심투영에 의한 기복변위와 카메라 자세에 의한 변위를 제거한 2차원 이미지에 해당할 수 있다. 따라서, 2D 정사보정 영상은 지도와 같은 특성을 갖는 2차원 이미지에 해당할 수 있다.
한편, 영상 처리부(310)는 무인비행체(110)에 의해 독립적으로 생성된 3D 공간객체 모델과 2D 정사보정 영상을 수신하여 활용할 수 있으며, 이 경우 3D 공간객체 모델은 3D 포인트 클라우드(point cloud) 데이터에 해당할 수 있다.
일 실시예에서, 영상 처리부(310)는 촬영된 영상이 등간격으로 촬영된 복수의 부분 영상들로 구성된 경우 복수의 부분 영상들을 병합하여 특정 지역에 관한 하나의 영상으로서 2D 정사보정 영상을 생성할 수 있다. 무인비행체(110)는 특정 지역의 상공을 비행하는 과정에서 주기적으로 영상을 촬영할 수 있고, 이에 따라 등간격으로 촬영된 복수의 부분 영상들을 생성할 수 있다. 영상 처리부(310)는 복수의 부분 영상들을 원본 데이터로 수신하여 번들(bundle) 조정과 영상 매칭 과정을 거쳐 통합된 하나의 정사보정 영상을 생성할 수 있다.
매칭 도로선형 생성부(320)는 도로의 패턴에 관한 학습 모델을 기초로 2D 정사보정 영상으로부터 도로선을 추출하여 도로선형 벡터를 생성할 수 있다. 이를 위하여 위치보정 장치(130)는 다양한 지역의 상공 영상과 실제 도로 정보를 기초로 도포 패턴에 관한 학습을 수행할 수 있고, 학습의 결과로서 특정 이미지를 입력 데이터로 하여 해당 이미지 상에 포함된 도로선에 관한 정보를 출력 데이터로 생성하는 학습 모델을 생성할 수 있다. 매칭 도로선형 생성부(320)는 구축된 학습 모델을 활용하여 2D 정사보정 영상에 해당하는 지역의 도로에 관한 벡터 형태의 데이터를 획득할 수 있다.
기준 도로선형 결정부(330)는 특정 지역에 대해 기 구축된 공간정보로부터 도로선에 대응되는 도로선형 정보를 결정할 수 있다. 이를 위하여, 위치보정 장치(130)는 외부 시스템인 도로명주소 안내 시스템과 연동하여 관련 기 구축된 공간정보에 접근할 수 있고, 주기적으로 수집 및 갱신을 통해 데이터베이스(150)를 최신 상태로 유지할 수 있다.
일 실시예에서, 기준 도로선형 결정부(330)는 특정 지역의 수치지도에 포함된 복수의 레이어(layer)들 중에서 도로선에 대응되는 레이어 만을 추출하여 저장할 수 있다. 예를 들어, 기준 도로선형 결정부(330)는 국가공간정보 데이터의 수치지도(특히, 도로명지도)가 제공하는 다양한 정보들 중에서 특정 지역의 도로에 관한 실제 정보로서 도로선(도로)을 선택하여 도로선형 정보로서 결정할 수 있다.
변환 정보 생성부(340)는 도로선형 벡터와 도로선형 정보 간의 매칭을 위한 변환 정보를 생성할 수 있다. 즉, 도로선형 벡터는 매칭 데이터로 활용되고 도로선형 정보는 기준 데이터로 활용될 수 있다. 도로는 대부분의 영상에서 포함되고 식별이 용이하며, 건물에 비해 변화의 정도가 많지 않아 자동화 개발 시에도 추출과 매칭점 탐지가 용이하다는 점에서 위치보정의 기준으로 적합할 수 있다.
따라서, 위치보정 장치(130)는 2D 정사보정 영상을 기준 영상에 맞게 변환하기 위하여 각 영상에 포함된 정보들 중 변경 가능성이 낮은 도로를 기준으로 선정할 수 있고, 변환 정보 생성부(340)는 도로에 관한 특징 정보로서 도로선형 벡터와 도로선형 정보를 각각 활용할 수 있다.
일 실시예에서, 변환 정보 생성부(340)는 특정 지역 내에서 복수의 매칭점들을 결정하고, 도로선형 벡터에서 복수의 매칭점들 각각에 대응되는 제1 위치좌표를 추출하며, 도로선형 정보에서 복수의 매칭점들 각각에 대응되는 제2 위치좌표를 추출하고, 제2 위치좌표에서 제1 위치좌표로의 정방향 변환에 관한 변환행렬을 생성할 수 있다. 이 때, 매칭점은 영상 내에서의 특징이 명확하여 주변보다 위치 식별이 용이한 위치가 결정될 수 있다.
보다 구체적으로, 변환 정보 생성부(340)는 특정 지역 내의 도로를 기준으로 주변과의 식별이 명확한 지점을 매칭점으로 결정할 수 있고, 2D 정사보정 영상의 도로선형 벡터와 기 구축된 공간정보의 도로선형 정보 각각에서 매칭점에 대응되는 위치좌표를 추출할 수 있다. 이 때, 위치좌표는 평면 상의 x, y 좌표에 해당할 수 있고, 매칭점에 관한 좌표 정보로서 위치좌표 테이블이 생성될 수 있다. 변환 정보 생성부(340)는 위치좌표 간의 변환 규칙 도출을 위해 n차 다항식 변환을 활용할 수 있다.
일 실시예에서, 변환 정보 생성부(340)는 특정 지역의 수치지도에 포함된 도로 정보를 기초로 도로의 끊김, 축소 및 확장 중 적어도 하나를 포함하는 변화 지점을 매칭점으로 결정할 수 있다. 변환 정보 생성부(340)는 도로 정보의 급격한 변화가 감지되는 지점을 매칭점으로 결정할 수 있다. 예를 들어, 도로의 끊김에 의해 도로 정보의 연속성이 단절된 지점, 도로폭의 축소 및 확장에 따라 도로 정보의 변화율이 기 설정된 임계값을 초과하는 지점 등이 매칭점으로 결정될 수 있다.
일 실시예에서, 변환 정보 생성부(340)는 제1 위치좌표를 독립변수로 하고 제2 위치좌표를 종속변수로 하는 2차 다항식 변환에서 해당 다항식의 계수를 변환행렬로서 생성할 수 있다. 변환 정보 생성부(340)는 n차 다항식 변환을 이용하여 매칭 정보를 도출할 수 있으며, n차 다항식 변환을 위해서는 (n+1)2 만큼의 매칭점이 필요하다는 점을 고려하여 결정된 매칭점의 개수를 기초로 다항식 변환의 차수를 결정할 수 있다. 예를 들어, 변환 정보 생성부(340)는 총 9의 매칭점이 결정된 경우 1차 및 2차 다항식 중 어느 하나를 선택할 수 있다(도 7 참조).
한편, 변환 정보 생성부(340)는 최소 제곱 추정치를 사용하여 다항 함수의 계수 Kx(i,j)와 Ky(i,j)를 결정할 수 있으며, 이는 아래의 수학식을 이용하여 산출될 수 있다.
[수학식]
Figure 112020040480394-pat00001
여기에서, Kx와 Ky는 다항식에 대한 입력값으로 이용되어 2차원 정사보정 영상에서의 좌표 xo, yo는 실제 도로 정보에서의 좌표 xi, yi로 매핑될 수 있다. 변환 정보 생성부(340)는 2차 다항식 변환에서 다항식의 계수 Kx와 Ky를 2*2 크기의 변환행렬로서 생성할 수 있다. 도 7에서, 변환 정보 생성부(340)는 변환행렬로서 각각
Figure 112020040480394-pat00002
,
Figure 112020040480394-pat00003
을 생성할 수 있다.
위치보정 수행부(350)는 3D 공간객체 모델 및 2D 정사보정 영상에 대해 변환 정보를 각각 적용하여 위치보정을 수행할 수 있다. 위치보정 수행부(350)는 3D 공간객체 모델 및 2D 정사보정 영상에 대해 각각 독립적인 위치보정 연산을 수행할 수 있으며, 3D 공간객체 모델의 경우 기하보정을 위한 정보만을 추출하는 연산을 별도로 수행할 수 있다. 위치보정 수행부(350)는 변환 정보 생성부(340)에 의해 생성된 변환행렬을 이용하여 2D 정사보정 영상에 대한 기하보정을 수행할 수 있다.
일 실시예에서, 위치보정 수행부(350)는 3D 공간객체 모델에서 3D 공간객체와 2D 위치좌표를 각각 추출하고, 2D 위치좌표에 대해 정방향 변환의 역방향 변환을 적용하여 2D 보정좌표를 생성하며, 3D 공간객체 및 2D 보정좌표를 통합하여 보정된 3D 공간객체 모델을 생성할 수 있다. 3D 공간객체 모델은 3D 포인트 클라우드(point cloud) 데이터로 표현될 수 있고, 위치보정 수행부(350)는 이를 기초로 건물영역과 외곽점을 추출하는 연산과 텍스처링(texturing) 연산을 순차적으로 수행하여 3D 공간객체를 생성할 수 있다. 이 때, 3D 공간객체는 특정 지역에 존재하는 건물에 대한 공간 모델로서 3D 건물 모델에 해당할 수 있다.
또한, 위치보정 수행부(350)는 3D 포인트 클라우드 데이터를 기초로 데이터 포맷 변환을 통해 'x', 'y', 'z', 'color red', 'color green' 및 'color blue'의 6개 항목의 속성값을 갖는 데이터를 생성할 수 있고, 이 중에서 2D 위치좌표로서 'x' 및 'y' 항목의 속성값을 추출할 수 있다. 즉, 위치보정 수행부(350)는 3D 공간객체 모델의 'x' 및 'y' 항목에 대해 변환행렬을 적용하여 위치보정의 결과로서 2D 보정좌표를 생성할 수 있다(도 6 참조).
또한, 위치보정 수행부(350)는 3D 공간객체 및 2D 보정좌표를 통합하여 보정된 3D 공간객체 모델을 생성할 수 있다. 위치보정 수행부(350)는 데이터 포맷 변환을 통해 획득한 6개 항목의 속성값 중 'x', 'y'에 대해서는 변환행렬을 이용한 위치보정을 수행하고, 나머지 'z', 'color red', 'color green' 및 'color blue'은 그대로 유지할 수 있다. 위치보정 수행부(350)는 보정된 'x', 'y'로 기존의 속성값을 대체한 후 데이터 포맷 변환을 통해 3D 포인트 클라우드 데이터를 획득함으로써 보정된 3D 공간객체 모델을 생성할 수 있다.
정확도 검증부(360)는 특정 지역에 대해 기 설정된 복수의 지상기준점(Ground Control Point, GCP)들을 기준으로 2D 정사보정 영상에 대한 위치보정 전·후의 거리 오차(distance error)를 비교하여 위치보정에 관한 정확도를 검증할 수 있다. 이 때, 복수의 지상기준점들은 특정 지역에 대해 영상 촬영을 수행한 지점 인근에 설정된 통합기준점을 기준으로 설정될 수 있다. 정확도 검증부(360)는 지상기준점의 실제좌표와 2D 정사보정 영상에서의 지상기준점에 대응되는 지점의 위치좌표 간의 거리 오차를 기초로 정확도를 검증할 수 있다.
도 8에서, 지상기준점(GCP)이 총 6개 설정된 경우, 위치보정 전(Before correction) 및 위치보정 후(After correction) 각각의 거리 오차(Difference with criteria coordinates)를 확인할 수 있다. 이 때, 거리 오차는 지상기준점들(GCPs)을 기준으로 직선거리로서 산출될 수 있다. 즉, 본 발명에 따른 위치보정을 통해 보정 전 평균 약 34.54 m의 차이를 보였던 거리가 보정 후 약 1.21 m로 감소함을 확인할 수 있다.
한편, 정확도 검증부(360)는 2D 정사보정 영상에 대한 정확도 검증 결과 보정 후의 거리 오차가 보정 전의 거리 오차보다 감소한 경우 정확도 검증에 성공한 것으로 결정할 수 있다. 또한, 위치보정 장치(130)는 정확도 검증부(360)를 통해 보정 전과 후의 거리 오차의 감소율을 기초로 정확도 검증의 성공 여부를 결정할 수 있다. 즉, 보정 전과 후의 거리 오차 간의 차이가 크지 않은 경우라면 위치보정의 효율이 높지 않기 때문에 위치보정 장치(130)는 2D 정사보정 영상을 기초로 정확도 검증을 수행한 후 그 결과에 따라 3D 공간객체 모델에 대한 위치보정 연산의 수행여부를 결정할 수 있다.
제어부(370)는 위치보정 장치(130)의 전체적인 동작을 제어하고, 영상 처리부(310), 매칭 도로선형 생성부(320), 기준 도로선형 결정부(330), 변환 정보 생성부(340), 위치보정 수행부(350) 및 정확도 검증부(360) 간의 제어 흐름 또는 데이터 흐름을 관리할 수 있다.
도 4는 본 발명에 따른 도로선형 기반의 3차원 공간객체 위치보정 과정을 설명하는 순서도이다.
도 4를 참조하면, 위치보정 장치(130)는 영상 처리부(310)를 통해 무인비행체(110)의 비행 과정에서 촬영된 영상을 기초로 특정 지역에 관한 3D 공간객체 모델과 2D 정사보정 영상을 생성할 수 있다(단계 S410). 위치보정 장치(130)는 매칭 도로선형 생성부(320)를 통해 도로의 패턴에 관한 학습 모델을 기초로 2D 정사보정 영상으로부터 도로선을 추출하여 도로선형 벡터를 생성할 수 있다(단계 S420).
또한, 위치보정 장치(130)는 기준 도로선형 결정부(330)를 통해 특정 지역에 대해 기 구축된 공간정보로부터 도로선에 대응되는 도로선형 정보를 결정할 수 있다(단계 S430). 위치보정 장치(130)는 변환 정보 생성부(340)를 통해 도로선형 벡터와 도로선형 정보 간의 매칭을 위한 변환 정보를 생성할 수 있다(단계 S440).
또한, 위치보정 장치(130)는 위치보정 수행부(350)를 통해 3D 공간객체 모델 및 2D 정사보정 영상에 대해 변환 정보를 각각 적용하여 위치보정을 수행할 수 있다(단계 S450). 위치보정 장치(130)는 정확도 검증부(360)를 통해 특정지역에 대해 기 설정된 복수의 지상기준점(Ground Control Point, GCP)들을 기준으로 2D 정사보정 영상에 대한 위치보정 전·후의 거리 오차(distance error)를 비교하여 위치보정에 관한 정확도를 검증할 수 있다(단계 S460).
도 5는 도로선형 기반의 3차원 공간객체 위치보정 방법의 일 실시예를 설명하는 개념도이다.
도 5를 참조하면, 위치보정 장치(130)는 무인기에 의해 지상기준점(GCP)이 설정되지 않은 상태에서 촬영된 영상을 기초로 생성된 3D 포인트 클라우드 데이터에 대한 위치보정을 통해 정확도를 향상시킬 수 있다. 이를 위하여, 위치보정 장치(130)는 위치 정확도 향상을 위한 기준 데이터로서 공공데이터포털에서 제공하는 벡터파일 중 도로 정보를 활용할 수 있다.
즉, 위치보정 장치(130)는 촬영 영상을 기초로 획득된 2차원 정사보정 모자익에 대한 기하보정을 먼저 수행할 수 있고, 해당 과정에서 산출되는 변환행렬을 3차원 포인트 클라우드에 적용하여 위치보정을 수행할 수 있다. 이 때, 변환행렬은 2D 정사보정 모자익에서 추출된 도로선형 벡터와 국가공간정보 데이터에서 추출된 도로 정보 간의 매칭을 통해 정방향 변환(M) 정보로서 도출될 수 있다. 위치보정 장치(130)는 정방향 변환(M)의 역변환(M-1)을 3D 포인트 클라우드와 3D 정사보정 모자익 각각에 적용하여 위치보정을 수행할 수 있다(단계 S510).
도 9는 본 발명에 따른 도로선형 기반의 3차원 공간객체 위치보정 방법을 설명하는 흐름도이다.
도 9를 참조하면, 위치보정 장치(130)는 위치보정 장치(130)는 무인기(Drone)에 의해 지상기준점(GCP)이 설정되지 않은 상태에서 촬영된 영상에 대해 이미지 보정을 수행할 수 있다(Image correction(EO)).
위치보정 장치(130)는 위치 정확도 향상을 위한 비교 데이터로서 공공데이터포털에서 제공하는 국가공간기반 데이터(national spatial data)를 사용할 수 있다. 즉, 위치보정 장치(130)는 촬영 영상을 기초로 이미지 보정에 의해 획득된 2차원 정보와 국가공간기반 데이터를 비교하여 위치보정을 위한 매칭 정보(Matching Coefficient)를 산출할 수 있다. 예를 들어, 위치 보정 장치(130)는 해당 과정에서 산출되는 변환행렬을 위치보정을 위한 매칭 정보로 사용할 수 있다.
한편, 위치보정 장치(130)는 이미지 보정 결과를 기초로 3차원 포인트 클라우드를 추출할 수 있으며(Point cloud extraction), 3차원 포인트 클라우드를 기초로 3차원 공간객체(Building objects(BO)를 생성할 수 있다. 위치보정 장치(130)는 3차원 공간객체에 매칭 정보를 적용함으로써 3차원 공간객체에 대한 위치 보정(position correction)을 수행할 수 있다(단계 S910).
따라서, 본 발명에 따른 위치보정 장치(130)는 지상기준점 선정없이 획득된 UAV영상의 2차원 및 3차원 영상의 위치 정확도 향상을 제공함으로써 타 공간정보 데이터와의 연계 및 호환 등이 가능하고, 포인트 클라우드 데이터에서 획득된 3차원 공간 객체의 활용 범위를 확대시키는 효과를 제공할 수 있다.
상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
100: 3차원 공간객체 위치보정 시스템
110: 무인비행체 130: 위치보정 장치
150: 데이터베이스
210: 프로세서 230: 메모리
250: 사용자 입출력부 270: 네트워크 입출력부
310: 영상 처리부 320: 매칭 도로선형 생성부
330: 기준 도로선형 결정부 340: 변환 정보 생성부
350: 위치보정 수행부 360: 정확도 검증부
370: 제어부

Claims (8)

  1. (a) 무인비행체의 비행 과정에서 촬영된 영상을 기초로 특정 지역에 관한 3D 공간객체 모델과 2D 정사보정 영상을 생성하는 단계;
    (b) 도로의 패턴에 관한 학습 모델을 기초로 상기 2D 정사보정 영상으로부터 도로선을 추출하여 도로선형 벡터를 생성하는 단계;
    (c) 상기 특정 지역에 대해 기 구축된 공간정보로부터 상기 도로선에 대응되는 도로선형 정보를 결정하는 단계;
    (d) 상기 도로선형 벡터와 상기 도로선형 정보 간의 매칭을 위한 변환 정보를 생성하는 단계; 및
    (e) 상기 3D 공간객체 모델 및 상기 2D 정사보정 영상에 대해 상기 변환 정보를 각각 적용하여 위치보정을 수행하는 단계를 포함하되,
    상기 (d) 단계는 (d1) 상기 특정 지역 내에서 복수의 매칭점들을 결정하는 단계; (d2) 상기 도로선형 벡터에서 상기 복수의 매칭점들 각각에 대응되는 제1 위치좌표를 추출하는 단계; (d3) 상기 도로선형 정보에서 상기 복수의 매칭점들 각각에 대응되는 제2 위치좌표를 추출하는 단계; 및 (d4) 상기 제2 위치좌표에서 상기 제1 위치좌표로의 정방향 변환에 관한 변환행렬을 생성하는 단계를 포함하고,
    상기 (d4) 단계는 상기 제1 위치좌표를 독립변수로 하고 상기 제2 위치좌표를 종속변수로 하는 2차 다항식 변환에서 해당 다항식의 계수를 상기 변환행렬로서 생성하는 단계를 포함하는 것을 특징으로 하는 도로선형 기반의 3차원 공간객체 위치보정 방법.
  2. 제1항에 있어서, 상기 (a) 단계는
    상기 촬영된 영상이 등간격으로 촬영된 복수의 부분 영상들로 구성된 경우 상기 복수의 부분 영상들을 병합하여 상기 특정 지역에 관한 하나의 영상으로서 상기 2D 정사보정 영상을 생성하는 단계를 포함하는 것을 특징으로 하는 도로선형 기반의 3차원 공간객체 위치보정 방법.
  3. 제1항에 있어서, 상기 (c) 단계는
    상기 특정 지역의 수치지도에 포함된 복수의 레이어(layer)들 중에서 상기 도로선에 대응되는 레이어 만을 추출하여 저장하는 단계를 포함하는 것을 특징으로 하는 도로선형 기반의 3차원 공간객체 위치보정 방법.
  4. 삭제
  5. 제1항에 있어서, 상기 (d1) 단계는
    상기 특정 지역의 수치지도에 포함된 도로 정보를 기초로 도로의 끊김, 축소 및 확장 중 적어도 하나를 포함하는 변화 지점을 상기 매칭점으로 결정하는 단계를 포함하는 것을 특징으로 하는 도로선형 기반의 3차원 공간객체 위치보정 방법.
  6. 삭제
  7. 제1항에 있어서, 상기 (e) 단계는
    (e1) 상기 3D 공간객체 모델에서 3D 공간객체와 2D 위치좌표를 각각 추출하는 단계;
    (e2) 상기 2D 위치좌표에 대해 상기 정방향 변환의 역방향 변환을 적용하여 2D 보정좌표를 생성하는 단계; 및
    (e3) 상기 3D 공간객체 및 상기 2D 보정좌표를 통합하여 보정된 3D 공간객체 모델을 생성하는 단계를 포함하는 것을 특징으로 하는 도로선형 기반의 3차원 공간객체 위치보정 방법.
  8. 제1항에 있어서,
    (f) 상기 특정 지역에 대해 기 설정된 복수의 지상기준점(Ground Control Point, GCP)들을 기준으로 상기 2D 정사보정 영상에 대한 위치보정 전·후의 거리 오차(distance error)를 비교하여 상기 위치보정에 관한 정확도를 검증하는 단계를 더 포함하는 것을 특징으로 하는 도로선형 기반의 3차원 공간객체 위치보정 방법.
KR1020200047523A 2020-04-20 2020-04-20 도로선형 기반의 3차원 공간객체 위치보정 방법 KR102426282B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200047523A KR102426282B1 (ko) 2020-04-20 2020-04-20 도로선형 기반의 3차원 공간객체 위치보정 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200047523A KR102426282B1 (ko) 2020-04-20 2020-04-20 도로선형 기반의 3차원 공간객체 위치보정 방법

Publications (2)

Publication Number Publication Date
KR20210129472A KR20210129472A (ko) 2021-10-28
KR102426282B1 true KR102426282B1 (ko) 2022-07-29

Family

ID=78232693

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200047523A KR102426282B1 (ko) 2020-04-20 2020-04-20 도로선형 기반의 3차원 공간객체 위치보정 방법

Country Status (1)

Country Link
KR (1) KR102426282B1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102407704B1 (ko) * 2021-12-16 2022-06-10 이은석 드론을 이용한 토목 설계 시스템

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009177251A (ja) * 2008-01-21 2009-08-06 Pasuko:Kk オルソフォト画像の生成方法、および撮影装置
WO2016151730A1 (ja) * 2015-03-23 2016-09-29 三菱電機株式会社 画像補正装置および画像補正方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101160454B1 (ko) 2010-06-08 2012-06-27 (주) 충청에스엔지 무인항공기의 자세 제어를 이용한 3d 공간정보구축 방법
KR101617078B1 (ko) * 2014-02-24 2016-04-29 주식회사 한화 무인 항공기 영상과 지도 영상에 대한 영상 정합 장치 및 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009177251A (ja) * 2008-01-21 2009-08-06 Pasuko:Kk オルソフォト画像の生成方法、および撮影装置
WO2016151730A1 (ja) * 2015-03-23 2016-09-29 三菱電機株式会社 画像補正装置および画像補正方法

Also Published As

Publication number Publication date
KR20210129472A (ko) 2021-10-28

Similar Documents

Publication Publication Date Title
CN109324337B (zh) 无人飞行器的航线生成及定位方法、装置及无人飞行器
Chiabrando et al. UAV and RPV systems for photogrammetric surveys in archaelogical areas: two tests in the Piedmont region (Italy)
EP2423873B1 (en) Apparatus and Method for Generating an Overview Image of a Plurality of Images Using a Reference Plane
US8437501B1 (en) Using image and laser constraints to obtain consistent and improved pose estimates in vehicle pose databases
US8797400B2 (en) Apparatus and method for generating an overview image of a plurality of images using an accuracy information
TWI820395B (zh) 用於產生物件之三維(3d)點雲的方法、用於3d點集產生及對準之系統及相關機器可讀媒體
Yahyanejad et al. Incremental mosaicking of images from autonomous, small-scale uavs
CN113192193B (zh) 基于Cesium三维地球框架的高压输电线路走廊三维重建方法
US9460554B2 (en) Aerial video annotation
JP2008186145A (ja) 空撮画像処理装置および空撮画像処理方法
KR102154950B1 (ko) 무인 비행체에 의해 촬영된 이미지를 지도, 도면 또는 위성 사진에 대해 매칭시키는 방법 및 장치
KR101345554B1 (ko) 지상기준점측량과 gps/ins가 연계된 고해상 선형방식 디지털 다중 밴드 영상을 gis와 수치지도와 3차원국토공간정보로 구축하기위해 면형방식영상으로 재배열하는 방법
US8994821B2 (en) Methods and apparatus for automated assignment of geodetic coordinates to pixels of images of aerial video
Nocerino et al. Multi-temporal analysis of landscapes and urban areas
CN110209847A (zh) 航空遥感数据机上准实时处理方法、装置和存储介质
KR101737438B1 (ko) 기준 레이어의 구축 방법 및 장치와, 기준 레이어를 이용한 3차원 공간 정보 구축 방법 및 시스템
CN115423863B (zh) 相机位姿估计方法、装置及计算机可读存储介质
KR20200056613A (ko) 정사영상에 기반한 센서 탑재 이동형 플랫폼의 기하 보정 시스템
KR102159134B1 (ko) 무인비행기를 이용한 비측량용 실시간 고해상도 정사지도 생성 방법 및 비측량용 실시간 고해상도 정사지도 생성 장치
KR102426282B1 (ko) 도로선형 기반의 3차원 공간객체 위치보정 방법
KR20120111805A (ko) 촬영화상의 카메라 자세 추정 시스템 및 방법
CN116433845A (zh) 一种基于多无人机协同的陌生环境快速建模方法及系统
US8564607B2 (en) Apparatus and method for creating textures of building
KR102528951B1 (ko) 건물형상정합 알고리즘을 이용한 3d 모델 위치보정 방법 및 장치
Muji et al. Assessment of Digital Elevation Model (DEM) using onboard GPS and ground control points in UAV image processing

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant