KR101105361B1 - 영상데이터와 라이다데이터의 기하학적 정합방법 및 그 장치 - Google Patents

영상데이터와 라이다데이터의 기하학적 정합방법 및 그 장치 Download PDF

Info

Publication number
KR101105361B1
KR101105361B1 KR1020090116982A KR20090116982A KR101105361B1 KR 101105361 B1 KR101105361 B1 KR 101105361B1 KR 1020090116982 A KR1020090116982 A KR 1020090116982A KR 20090116982 A KR20090116982 A KR 20090116982A KR 101105361 B1 KR101105361 B1 KR 101105361B1
Authority
KR
South Korea
Prior art keywords
data
matching
image data
lidar
edge
Prior art date
Application number
KR1020090116982A
Other languages
English (en)
Other versions
KR20110027522A (ko
Inventor
이임평
홍주석
최경아
Original Assignee
서울시립대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울시립대학교 산학협력단 filed Critical 서울시립대학교 산학협력단
Publication of KR20110027522A publication Critical patent/KR20110027522A/ko
Application granted granted Critical
Publication of KR101105361B1 publication Critical patent/KR101105361B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing

Abstract

영상데이터와 라이다데이터의 기하학적 정합방법 및 그 장치가 개시된다. 본 영상데이터 및 라이다데이터의 기하학적 정합방법은, 영상데이터 및 라이다데이터 각각으로부터 상호 정합을 위한 정합기본 요소를 추출하는 단계 추출된 정합기본요소들간에 상호적 일치하는 관계를 수립하는 단계 및 상호 일치하는 관계로 수신된 정합기본요소가 기하학적으로 일치되도록 영상데이터의 외부표정요소를 조정하는 단계;를 포함한다. 그리하여 라이다데이터와 영상 데이터의 융합을 위해서 두 데이터 사이에 존재하는 기하학적 불일치를 제어할 수 있다.
영상, 라이다데이터, 외부표정요소

Description

영상데이터와 라이다데이터의 기하학적 정합방법 및 그 장치{THE METHOD FOR GEOMETRIC REGISTRATION FOR IMAGES DATA AND LIDAR DATA AND THE APPARATUS THEREOF}
기하학적 정합방법에 관한 것으로, 보다 구체적으로 영상데이터와 라이다데이터의 기하학적 정합방법에 관한 것이다.
도심지의 다양하고 정밀한 3차원 공간정보에 대한 수요가 증대됨에 따라 보다 신속하고 효과적인 공간정보의 구축 및 제공이 필수적이다. 이를 위해 기존의 개별센서가 아닌 멀티센서를 이용한 신속한 공간정보 구축 방법이 활발히 개발되고 있다. 특히 유무인 항공기에 디지털 카메라, 레이저 스캐너, GPS(Global positioning system), INS(Inertial navigation system) 등의 센서를 탑재한 항공다중센서시스템의 구축 및 개발이 활발하게 이뤄지고 있다. 항공다중센서시스템의 발달로 대상지역의 센서데이터를 거의 실시간으로 지상으로 전송하여 DEM(Digital Elevation Model), DSM(Digital Surface Model) 및 정사영상과 같은 3차원 공간정보를 보다 정확하고 신속하게 구축하는 연구도 진행되고 있다.
3차원 공간정보의 신속한 구축을 위해서 센서 데이터의 신속한 취득 및 전송 뿐만 아니라 취득된 데이터로부터 고품질의 공간정보를 생성하는 신속하고 자동화된 처리 기술의 개발이 필수적이다. 특히, 항공다중센서시스템으로 취득되는 주요한 센서 데이터인 라이다데이터와 항공영상은 서로 상호보완적인 특성을 가지고 있어서 두 데이터를 융합(Fusion)하는 연구가 최근에 활발히 진행되고 있다. 대상지역의 3차원 위치정보를 상세하고 신속하게 제공하는 라이다데이터와 이에 비해 대상지역의 시각적인 정보를 풍부하게 제공하는 항공영상의 융합은 도심지의 3차원 가상 건물모델과 같은 다양한 어플리케이션에 활용 가능한 공간정보 생성에 가장 효율적인 방법으로 인지되고 있다. 또한, 이러한 멀티센서 데이터 융합을 통해 현재 Google Earth 및 MS Virtual Earth와 같은 현실감 있는 3차원 가상 도시모델을 생성하기 위한 연구가 활발히 진행되고 있고, 수목 식별이나 도심지 건물의 변화 탐지에도 데이터 융합을 통한 연구가 적용되고 있다.
항공기를 이용해 취득한 데이터뿐만 아니라 지상에서 라이다와 디지털 카메라를 이용하여 취득한 두 데이터를 융합하여 고대 유적이나 문화재를 복원하는 연구 등도 국내외에서 활발히 이뤄지고 있다.
라이다데이터와 항공영상의 융합을 위해서 두 데이터 사이에 존재하는 기하학적 불일치를 제거하기 위한 정합(Registration)이 필수적이다. 기하학적 불일치는 서로 다른 두 종류의 센서 데이터에 포함된 시스템적 오차에 기인한다. 예를 들어, 카메라 보정을 통해 얻어진 영상의 내부표정요소에 포함된 오차, GPS/INS로부터 주어지는 영상의 외부표정요소에 포함된 오차, 라이다데이터의 보정 오차 등으로 인해 기하학적 불일치가 발생한다.
본 발명은 상기한 문제점을 해결하기 위해 라이다데이터와 영상데이터의 융합을 위해서 두 데이터 사이에 존재하는 기하학적 불일치를 제거하는 기하학적 정합방법 및 그 장치를 제공한다.
상기 목적을 달성하기 위한 본 발명에 따른, 영상데이터 및 라이다데이터의 기하학적 정합방법은, 영상데이터 및 라이다데이터 각각으로부터 상호 정합을 위한 정합기본 요소를 추출하는 단계; 상기 추출된 정합기본요소들간에 상호적 일치하는 관계를 수립하는 단계; 및 상기 상호 일치하는 관계로 수신된 정합기본요소가 기하학적으로 일치되도록 상기 영상데이터의 외부표정요소를 조정하는 단계;를 포함한다.
그리고, 상기 정합기본요소는 영상데이터로부터 추출된 객체점 및 연결에지와, 라이다데이터로부터 추출된 평면패치 및 교면에지를 포함하는 것이 바람직하다.
또한, 상기 추출하는 단계는, 상기 영상데이터의 공액점에 상기 영상데이터의 외부표정요소를 공선조건식에 적용하여 계산된 복수 개의 객체점을 추출하고, 상기 복수 개의 객체점을 연결하는 연결에지를 추출하는 것이 바람직하다.
그리고, 상기 추출하는 단계는, 상기 라이다데이터를 구성하는 라이다점들을 기설정된 인접 정도를 기준으로 그룹핑하고, 상기 그룹핑된 라이다 점들과 기설정 된 임계값 이하의 주위 라이다 점들을 결합시킨 복수 개의 평면패치를 추출하고, 상기 복수 개의 평면패치가 인접하면서 형성된 교면에지를 추출하는 것이 바람직하다.
또한, 상기 수립하는 단계는, 상기 객체점과 상기 평면패치를 이용하여 상호 일치하는 관계를 수립하고, 상기 연결에지와 상기 교면에지를 이용하여 상호 일치하는 관계를 수립하는 것이 바람직하다.
그리고, 상기 평면패치에 상기 객체점의 일정 거리내의 구간이 포함되는 경우, 상호 일치하는 관계가 수립되고, 상기 연결에지와 교면에지가 오차범위내에 있는 경우, 상호 일치하는 관계가 수립되는 것이 바람직하다.
또한, 상기 조정하는 단계는, 상기 상호 일치하는 관계가 수립된 상기 객체점과 상기 평면패치 사이의 수직 거리 및 상기 연결에지와 교면에지 사이의 수평거리가 최소가 되도록 상기 외부표정요소를 조정하는 것이 바람직하다.
한편, 상기 목적을 달성하기 위한 본 발명에 따른, 영상데이터 및 라이다데이터의 기하학적 정합장치는, 영상데이터 및 라이다데이터 각각으로부터 상호 정합을 위한 정합기본 요소를 추출하는 추출부; 상기 추출된 정합기본요소들간에 상호적 일치하는 관계를 수립하는 수립부; 및 상기 상호 일치하는 관계로 수신된 정합기본요소가 기하학적으로 일치되도록 상기 영상데이터의 외부표정요소를 조정하는 조정부;를 포함한다.
그리고, 상기 정합기본요소는 영상데이터로부터 추출된 객체점 및 연결에지와, 라이다데이터로부터 추출된 평면패치 및 교면에지를 포함하는 것이 바람직하 다.
또한, 상기 추출부는, 상기 영상데이터의 공액점에 상기 영상데이터의 외부표정요소를 공선조건식에 적용하여 계산된 복수 개의 객체점을 추출하고, 상기 복수 개의 객체점을 연결하는 연결에지를 추출하는 것이 바람직하다.
그리고, 상기 추출부는, 상기 라이다데이터를 구성하는 라이다점들을 기설정된 인접 정도를 기준으로 그룹핑하고, 상기 그룹핑된 라이다 점들과 기설정된 임계값 이하의 주위 라이다 점들을 결합시킨 복수 개의 평면패치를 추출하고, 상기 복수 개의 평면패치가 인접하면서 형성된 교면에지를 추출하는 것이 바람직하다.
또한, 상기 수립부는, 상기 객체점과 상기 평면패치를 이용하여 상호 일치하는 관계를 수립하고, 상기 연결에지와 상기 교면에지를 이용하여 상호 일치하는 관계를 수립하는 것이 바람직하다.
그리고, 상기 평면패치에 상기 객체점의 일정 거리내의 구간이 포함되는 경우, 상호 일치하는 관계가 수립되고, 상기 연결에지와 교면에지가 오차범위내에 있는 경우, 상호 일치하는 관계가 수립되는 것이 바람직하다.
또한, 상기 조정부는, 상기 상호 일치하는 관계가 수립된 상기 객체점과 상기 평면패치 사이의 수직 거리 및 상기 연결에지와 교면에지 사이의 수평거리가 최소가 되도록 상기 외부표정요소를 조정하는 것이 바람직하다.
본 발명에 의하면, 라이다데이터와 영상 데이터의 융합을 위해서 두 데이터 사이에 존재하는 기하학적 불일치를 제어할 수 있다.
그리고, 상기한 기하학적 정합방법은 카메라와 라이다를 동시에 탑재한 항공 및 지상 다중센서 시스템의 데이터에 적용되어 엄밀 정사영상, DSM, 도시모델 등 고품질 공간정보의 생성에 크게 기여할 수 있다.
이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다.
본 발명에서 제시하는 영상데이터와 라이다데이터의 기하학적 정합 방법은 영상데이터, 라이다데이터 및 GPS/INS로부터 획득된 초기 영상의 외부표정요소를 입력으로 하여 최종적으로 라이다데이터와 정교하게 기하학적으로 일치하게 하는 영상의 외부표정요소를 출력하는 것이다.
도 1은 본 발명의 일 실시예에 따른 기하학적 정합장치의 블록도이고, 도 2는 본 발명의 일 실시예에 따른 영상데이터와 라이다데이터의 기하학적 정합방법을 설명하는 흐름도이다.
도 1 및 도 2에 에 도시된 바와 같이, 추출부(110)는 영상데이터 및 라이다데이터 각각으로부터 상호정합을 위해 비교가 가능한 기하학적 객체를 의미하는 정합기본요소(Registration Primitives)를 추출한다(S310). 구체적으로, 영상데이터로부터 3차원 객체점(Object Point) 및 이를 연결하는 에지(Edge)를 추출하고, 라이다데이터로부터 평면패치(Patch) 및 인접한 평면패치들로부터 생기는 교면에지를 추출한다.
수립부(130)는 추출된 정합기본요소들간에 상호적으로 일치하는 관계를 수립한다(S320). 즉, 수립부(130)는 영상의 객체점과 대응하는 라이다의 평면패치를 결 정하고, 영상의 연결에지와 대응하는 라이다의 교면에지를 결정한다.
조정부(150)는 상호일치성이 결정된 정합기본요소가 보다 정교하게 기하학적으로 일치되도록 영상데이터의 외부표정요소를 조정한다(S330).
정합기본요소에 대해 설명하면, 정합기본요소는 영상데이터와 라이다데이터와 같이, 동시에 대상 지역에 대해 취득된 서로 다른 특성을 가진 센서 데이터를 기하학적 오차를 줄이기 위한 정합과정에 이용하기 위해 각 데이터에서 추출된 기하학적 형상(Feature)을 의미한다.
영상데이터 및 라이다데이터를 정합하는 경우는 원시데이터의 특성이 크게 다르기 때문에 상호비교가 가능한 형상을 추출해야 한다. 원시데이터의 특성을 살펴보면 영상데이터는 2차원 영상좌표계에서 일정한 간격으로 연속적으로 위치한 픽셀들로 구성된 2차원 데이터인 반면에 라이다데이터는 3차원 절대 좌표계에서 불규칙하게 분포한 데이터들로 구성되기 때문이다.
참고로, 정합기본요소를 추출하는 과정에 있어서 크게 정확도와 균일성이라는 2가지 측면을 고려해야 한다. 정확도는 추출된 정합기본요소가 실제 객체공간의 기하학적 형상을 정확하게 표현할 수 있어야 한다는 것이다. 왜냐하면 두 종류의 데이터 사이의 기하학적 오차를 정확히 파악할 수 있고, 이를 최소화하는 조정을 수행할 수 있기 때문이다. 균일성은 정합기본요소가 전체대상지역에서 균일한 분포를 가져야 하며 정합기본요소로부터 수평 및 수직좌표를 비교적 균등하게 비교할 수 있어야 한다는 것이다.
이하에서는 정합장치의 각 구성요소의 기능을 보다 구체적으로 설명한다.
제1 추출부(112)는 중첩된 두 개 이상의 영상데이터로부터의 공액점에 GPS/INS로부터 수신된 초기의 외부표정요소를 공선조건식(Collinearity Equation)에 적용하여 계산된 객체점을 추출하고, 상기한 객체점을 연결하는 연결에지를 추출한다. 상기한 객체점은 절대좌표계로 표현된 3차원 좌표를 갖는다.
정합기본요소를 영상데이터로부터 추출할 때 수평방향과 수직방향의 비교에 용이한 요소들을 구분하는 것이 바람직하다. 수평방향의 비교에 용이한 요소들은 건물의 지붕구조에 포함된 모서리 및 에지 등이 있으며, 수직방향의 비교에 용이한 요소들은 도로면 또는 주차장과 같은 비교적 수평에 가까운 매끄러운 지역에 위치하면서 식별이 용이한 횡단보도, 차선, 주차선 등이 있다.
보다 구체적으로, 제1 추출부(112)는 영상의 정합기본요소를 추출하기 위해 복수 개의 프레임 또는 필드 영상에서 상기한 수평 및 수직방향의 비교에 이용되는 공액점을 선택한다. 그리고, 선택된 공액점과 GPS/INS 센서로부터 수신된 영상의 외부표정요소를 공선방정식에 기반한 광속조정법(Bundle Block Adjustment)을 적용하여 객체점을 추출한다. 또한, 제1 추출부(112)는 객체점들을 연결하는 연결에지를 추출한다.
라이다데이터의 정합기본요소 중 평면패치는 3차원 라이다점을 그룹핑하여 추출하고, 교면에지는 인접한 평면패치 사이의 교선으로부터 추출한다.
제2 추출부(114)는, 영상의 경우와 유사하게, 수평 및 수직방향의 비교에 용이한 요소들을 구분하여 선택하고, 수평방향의 비교를 위해서 건물의 지붕구조 등이 포함된 평면패치와 교면에지를 추출하고, 수직방향의 비교를 위해서 도로면과 주차장 지역 등에서 평면패치 및 교면에지를 추출한다.
제2 추출부(114)는 기설정된 인접 정도를 기준으로 불규칙하게 분포하고 있는 3차원 라이다점들을 그룹핑한 초기평면패치(Seed Patch)를 생성하고, 초기평면패치와 기설정된 임계값 이하의 주위 라이다 점들을 결합시켜서 평면패치를 추출한다. 추출된 평면패치는 개별적으로 이를 구성하는 라이다점, 평면의 계수, 경계에 대한 정보로 이루어져 있다.
그리고, 제2 추출부(114)는 추출된 평면패치들 중에서 서로 인접한 평면패치들 사이의 교선으로부터 교면에지를 추출한다. 예를 들어, 인접한 2개의 평면패치로 이루어진 건물지붕은 그 사이에서 생성된 에지는 수평방향의 비교를 위한 정합기본요소인 것이다.
한편, 상호일치성의 수립이란 영상데이터와 라이다데이터로부터 추출된 정합기본요소들 사이에서 서로 상응하는 것들을 찾는 과정이다. 수직방향의 비교를 위해 영상에서 추출한 객체점과 라이다데이터로부터 추출한 평면패치들 사이에 일치되는 것들을 찾아내고, 수평방향의 비교를 위해 영상에서 추출한 연결에지와 라이다데이터로부터 추출한 교면에지들 사이에 일치되는 것들을 찾는 과정이다.
제1 수립부(132)는 수직방향의 상호일치성 수립을 위해서 도로와 같이 수평에 가까운 지역에 포함된 객체점과 평면패치를 사용한다.
일반적으로 횡단보도나 유사 표기가 되어 있는 도로의 일부는 특성상 높이의 변화가 거의 없기 때문에, 라이다데이터로부터 거의 수평에 가깝고 상당히 넓은 평면패치의 추출이 가능하고, 영상데이터로부터 횡단보도, 도로선, 주차선 등과 같은 밝기값의 변화가 커서 정확하게 식별된 공액점으로부터 생성된 객체점을 추출할 수 있다.
이를 위해 평면패치들 중에서 충분히 넓고 수평면에 가까우며 매끄러운 평면패치들을 추출한다. 여기서 매끄러운 평면패치들은 평면패치에 포함된 라이다점을 평면으로 근사할 때 계산되는 오차의 크기로 정의되는 거칠기(roughness)를 기준으로 평가되고, 거칠기가 낮은 평면패치를 매끄러운 평면패치라고 한다.
객체점과 평면패치 사이의 대응관계는 기본적으로 3차원 절대좌표계 상의 공간적인 위치를 고려하여 설정된다. 하나의 객체점의 절대좌표값이 평면패치의 수평적인 범위 안에 위치하면 두 요소 사이에 상호일치성을 수립된다고 할 수 있다.
여기서 객체점의 절대좌표값은 영상데이터로부터 알 수 없기 때문에 객체점마다 좌표값 추정에 수반된 오차를 고려하여 개별 객체점 좌표의 절대좌표값와 일정거리내에 있는 신뢰구간을 설정하고, 신뢰구간 전체가 포함될 수 있는 평면패치를 선택한다.
도 3은 본 발명의 일실시예에 따른 수직방향의 상호일치성 수립과 관련된 도면이다. 도 3의 제1 객체점(310)는 신뢰구간(R)의 범위가 제2 객체점(320)의 신뢰구간(R)의 범위에 비해 제1 평면패치(330)에 모두 포함되므로 둘 사이의 상호일치성이 수립가능하다. 반면, 제2 객체점(320)는 신뢰구간의 범위가 제1 평면패치(330)와 제2 평면패치(340)에 걸쳐져 있기 때문에 상호일치성이 수립되지 않는다.
또한, 제2 수립부(134)는 수평방향의 상호일치성 수립을 위해서 영상의 연결 에지와 라이다데이터의 교면에지를 사용한다. 구체적으로, 건물영역에서 지붕구조를 구성하는 모서리점에 해당하는 객체점을 추출하고, 추출된 점들을 연결하여 지붕의 모서리를 나타내는 연결에지를 생성한다. 그러므로 영상에서 추출한 연결에지와 대응하는 라이다데이터에서 추출한 교면에지를 사용하여 이들 간의 상호일치성을 수립한다.
연결에지와 교면에지에 대한 상호일치성의 수립은 에지들 사이의 상호간의 거리를 기준으로 판단한다. 연결에지와 교면에지의 수직적인 거리가 현저히 크지 않으면서, 연결에지의 수평 위치와 교면에지의 수평위치가 오차범위에 있는 경우, 이들간의 상호 일치성이 수립된다고 한다. 여기서 오차범위란 오차전파의 원리로부터 불확실성을 고려하여 통계적으로 동일한 수평위치로 간주되는 범위를 의미한다.
도 4는 본 발명의 일 실시예에 따른 수평방향의 상호일치성 수립과 관련된 도면이다. 도 4의 건물 지붕을 나타내는 객체점에서 추출한 연결에지와 인접평면패치로부터 추출한 빨간색의 교면에지는 수직적으로 현저한 차이가 없으며 통계적으로 수평적 동일위치라 판단할 수 있는 거리인 분홍색 타원의 단축의 내부에 존재하므로 서로 상호일치한다고 결정한다.
대부분의 경우, 객체점은 대응되는 평면패치 상에 위치하고, 연결에지와 대응되는 교면에지는 정확하게 일치하지 않는데, 이는 영상데이터나 라이다데이터 취득시 각 센서에서 발생하는 오차의 영향도 있지만 초기에 주어진 외부표정요소의 부정확함으로 인해 정합하는 과정에서 발생한 시스템적 오차의 영향 때문이다.
그러므로 외부표정요소가 조정되어야만 공액점을 통해 계산된 객체점과 이로 부터 생성한 연결에지가 각각 대응되는 평면패치와 교면에지와 일치된다.
외부표정요소의 조정 방법은 라이다데이터로부터 추출된 평면패치를 지상기준면으로 교면에지를 지상기준선으로 사용한다.
도 5는 본 발명의 일 실시예에 따른 수직 방향 및 수평 방향의 외부표정요소의 조정 방법을 도시한 도면이다. 도 5의 (a) 및 (b)와 같이, 서로 상호일치성이 수립된 객체점과 평면패치 사이의 수직 거리 및 연결에지와 교면에지 사이의 수평 거리가 최소로 되도록 영상의 외부표정요소를 조정한다.
보다 구체적으로, 조정부(150)는 영상의 외부표정요소를 조정하기 위해 공선조건식을 기반으로 한 광속 조정법을 이용한다.
공선조건식은 영상에 생성되는 중심 투영의 원리에 기반하여 지상의 절대좌표계로 표현된 지상점(P)이 내부표정요소(I)와 외부표정요소(E)를 갖는 영상에서 영상점(p)에 투영된다는 것을 의미한다.
만약 다수의 영상이 존재하는 경우에 이들 사이의 공액점과 카메라 보정을 통해 결정된 영상의 내부표정요소 및 GPS/INS로 주어진 영상의 외부표정요소가 주어진다면 하기 수학식 1와 같은 관측방정식에 기반한 광속조정법을 통해 외부표정요소가 조정된다
Figure 112009073787904-pat00001
여기서
Figure 112009073787904-pat00002
Figure 112009073787904-pat00003
는 관측값으로써
Figure 112009073787904-pat00004
는 공액점,
Figure 112009073787904-pat00005
는 GPS/INS로 주어진 영상의 외부표정요소로서 관측값이고,
Figure 112009073787904-pat00006
Figure 112009073787904-pat00007
는 미지수로써
Figure 112009073787904-pat00008
는 조정된 외부표정요소,
Figure 112009073787904-pat00009
는 공액점에 대응하는 지상점의 좌표를 의미한다.
Figure 112009073787904-pat00010
Figure 112009073787904-pat00011
는 공선방정식을 각각
Figure 112009073787904-pat00012
Figure 112009073787904-pat00013
에 대해 미분하여 얻어진 행렬이고,
Figure 112009073787904-pat00014
Figure 112009073787904-pat00015
Figure 112009073787904-pat00016
사이의 관계를 나타내는 행렬로써 일반적으로 단위행렬이다. 또한,
Figure 112009073787904-pat00017
Figure 112009073787904-pat00018
는 관측값
Figure 112009073787904-pat00019
Figure 112009073787904-pat00020
에 수반된 오차를 나타낸다. 오차의 통계적 특성은 기댓값은 0이고 분산공분산(variance-covariance) 행렬은 각각
Figure 112009073787904-pat00021
Figure 112009073787904-pat00022
이고
Figure 112009073787904-pat00023
Figure 112009073787904-pat00024
사이의 공분산(covariance)은 0으로 가정한다.
일반적으로 수학식 1은 지상기준점 없이 공액점과 GPS/INS 정보만을 가지고 광속조정에 의해 항공삼각측량(AT, Aerial Triangulation)을 수행할 때 이용된다. 결국 공액점을 이용하여 GPS/INS에서 주어진 외부표정요소를 조정하고, 공액점에 대응되는 지상점을 계산한다.
위와 같은 항공 삼각측량으로 계산된 객체점 및 연결에지를 라이다데이터로부터 추출한 평면패치 및 교면에지와 비교하면 육안으로 식별이 가능한 정도의 현저한 차이를 보인다. 이를 최소화하기 위해 라이다데이터로부터 추출한 정합기본요소를 지상기준정보로 고려하기 위해 하기 수학식 2와 같은 확률제약조 건(stochastic constraints)을 설정한다.
Figure 112009073787904-pat00025
여기서
Figure 112009073787904-pat00026
Figure 112009073787904-pat00027
각각은 관측된 수직제약조건을 만족하는 인수 및 수평제약조건을 만족하는 인수이고,
Figure 112009073787904-pat00028
Figure 112009073787904-pat00029
각각은 수직 및 수평제약조건을 감족하는 인수를
Figure 112009073787904-pat00030
에 대해 미분한 행렬이다. 이러한 제약조건은 지상점만 관련이 있기 때문에, 외부표정요소와의 관계를 나타내는 부분은 0으로 채워진다.
Figure 112009073787904-pat00031
Figure 112009073787904-pat00032
는 제약조건의 불확실성을 나타내는 오차이고, 오차의 기댓값은 0이고 분산공분산 행렬은 각각
Figure 112009073787904-pat00033
Figure 112009073787904-pat00034
이다.
Figure 112009073787904-pat00035
사이의 공분산은 0으로 가정한다.
또한, 수직제약조건은 객체점이 대응되는 평면패치 상에 위치하는 조건을 의미하는 것으로, 수직제약조건은 하기 수학식 3와 같이 표현된다.
Figure 112009073787904-pat00036
여기서
Figure 112009073787904-pat00037
는 평면패치의 평면 계수를,
Figure 112009073787904-pat00038
는 객체점의 좌표를 의미한다.
수학식 3를 수학식 2의 형식으로 표현하면, 하기 수학식 4와 같이 표현된다.
Figure 112009073787904-pat00039
여기서,
Figure 112009073787904-pat00040
각각은
Figure 112009073787904-pat00041
에 대응된다.
Figure 112009073787904-pat00042
는 수직제약조건의 수반된 불확실성을 나타내는 오차를 의미하며, 오차의 분산은
Figure 112009073787904-pat00043
로 표현된다.
수평제약조건은 연결에지에 포함된 2개 이상의 객체점이 동시에 대응되는 교면에지에 수평적으로 일치하는 조건을 의미하는 것으로, 두 개의 인접한 평면패치가 인접하여 생성되는 교면에지의 수평좌표의 집합은 2차원 직선의 방정식으로 표현되고 객체점의 수평좌표와 일치하여야 한다. 이를 수학적으로 표현하면 하기 수학식 5와 같다.
Figure 112009073787904-pat00044
여기서
Figure 112009073787904-pat00045
Figure 112009073787904-pat00046
는 각각 두 개의 인접한 평면패치의 평면계 수,
Figure 112009073787904-pat00047
는 연결에지에 포함된 하나의 객체점의 수평좌표를 의미한다.
수학식 5을 수학식 2의 형식으로 표현하면 수학식 6과 같다.
Figure 112009073787904-pat00048
Figure 112009073787904-pat00049
각각은
Figure 112009073787904-pat00050
와 대응되고.
Figure 112009073787904-pat00051
는 하나의 수평제약조건의 수반된 불확실성을 나타내는 오차를 의미하며, 오차의 분산
Figure 112009073787904-pat00052
Figure 112009073787904-pat00053
의 합으로 표현된다.
이하에서는 본 발명에서 제안한 방법을 실측 데이터에 적용하여 검증하여 본다. 대상지역은 우리나라 제주특별자치도의 산, 도로, 빌딩 지역이 포함된 지역이며, 항공라이다시스템을 이용해 동시에 취득한 영상데이터와 라이다데이터를 사용한다. 모든 센서 데이터는 GPS 시간을 기준으로 동기화되며 GPS/INS로부터 각 영상이 촬영된 노출시점의 초기 외부표정요소를 취득된다.
도 6은 본 발명의 일 실시예에 따라 촬영된 영상 데이터를 도시한 도면이다. 도 6에 도시된 바와 같이, 2장의 영상데이터는 약 60% 정도의 중복도를 갖는다. 그리고, 상기한 영상데이터의 촬영에 사용된 카메라는 Applanix 사의 DSS 모델이며 중해상도(medium format) metric 디지털 카메라이다. 카메라의 초점거리, 주점의 위치, 렌즈왜곡계수 등을 포함하는 내부표정요소는 제조사에서 제공한 카메라검증 보고서를 참고한다.
한편, 영상데이터의 주요 규격은 하기 표 1과 같다.
Figure 112009073787904-pat00054
라이다데이터는 영상데이터와 동시에 취득된 것으로 주요 규격은 하기 표 2 와 같다.
Figure 112009073787904-pat00055
라이다데이터 취득에 사용된 라이다 시스템은 Optech사의 ALTM 3100 모델로서, 도 7은 라이다데이터를 3차원으로 시각화한 그림을 보여주는 도면이다. 도 7의 (a)는 모든 점을 3차원 나타낸 도면이고, 도 7의 (b)는 TIN (Triangulated Irregular Network)을 구성하여 면으로 시각화한 도면이다.
데이터를 처리하기에 앞서 실험에 사용되는 영상데이터, 라이다데이터, GPS/INS로부터 수신된 데이터에 대한 검증을 한다. 영상데이터와 라이다데이터가 충분히 중첩되어 있는지 확인하기 위해 먼저 GPS/INS로부터 주어진 영상의 외부표정요소를 이용하여 두 영상의 모서리 점을 대상지역의 평균 고도값을 갖는 수평면으로 가정한 가상의 지상면에 투영하여 영상이 나타내는 지상범위를 계산한다. 또한, 라이다데이터의 좌표값의 범위로부터 지상범위를 계산한다. 계산된 영상데이터 및 라이다데이터의 지상범위는 도 8과 같이 중첩하여 2개의 영상 간의 중첩도와 영상데이터 및 라이다데이터 사이의 중첩도가 충분하다는 것을 확인할 수 있다.
먼저, 영상데이터의 정합기본요소인 객체점 결정을 위해 공액점을 선정한다. 영상이 중첩된 영역에서 건물 및 도로가 잘 식별되고 골고루 분산된 12지역(A∼L)을 도 9와 같이 선정하고 각 지역에서 건물지붕, 도로와 같은 대상 객체의 기하학적 형상을 추출하기 위한 159개의 공액점들을 양쪽 영상에서 추출한다.
그리하여, 각 지역별로 대상 객체의 종류와 선택된 공액점의 개수는 하기 표 3과 같다.
Figure 112009073787904-pat00056
예를 들어, 도 10은 지역 A와 C에서 건물 지붕과 도로면의 횡단보도 위에서 선정된 공액점들을 보여준 도면이다. 도 10에 도시된 바와 같이, 건물 지붕에서 공액점을 선택할 때 지붕 구조의 기하학적 형상을 재현할 수 있도록 지붕면의 모든 모서리 점을 선택하고, 도로면에서는 횡단보도 및 차선에서 식별이 용이한 가능한 많은 점들을 선택하는 것이 바람직하다.
도 11 및 12는 각각 A 지역과 L 지역에서 생성된 객체점 및 연결 에지를 가시화한 도면이다. 도 11 및 도 12의 굵은 파란색 선은 건물 지붕의 모서리에 해당하는 객체점을 연결하여 생성한 연결에지이고 얇은 초록색 선은 건물 지붕의 경계를 나타낸다. 객체점 및 연결에지를 2차원으로 가시화 한 도12에서 연결에지들이 지붕의 경계와 평행을 나타내면서 실제 지붕의 형상과 거의 흡사하게 나타나는 것을 알 수 있다.
반면에 도 11에서 박공(拱)형태 지붕의 두 면이 교차하는 연결에지(2-6)를 보면 지면에 평행하지 않는 모습을 보인다. 즉 실제는 거의 동일한 고도값을 갖는 2의 고도값과 6의 고도값이 현저하게 다른 것을 볼 수 있는데 이는 수직좌표에 포함된 상당히 큰 오차로 비롯된다.
한편, 제1 추출부(112)는 각 지역에서 라이다데이터로부터 평면패치를 추출하고 이로부터 교면에지를 생성하였다. 하기 표 4는 각 지역에서 평면패치 추출에 사용된 라이다데이터에 대한 점의 개수와 추출된 평면패치 및 교면에지의 개수를 나타낸다.
Figure 112009073787904-pat00057
표 4와 같이, 도로지역의 경우 평면패치의 개수는 많으나 교면에지의 개수가 0 이거나 혹은 작다. 하지만 건물 지역이라도 데이터의 특성상 교면에지가 적은 지역이 존재하므로 대상 지역을 영상 전체에 분산시키는 것이 바람직하다.
또한, 도 13은 A지역에서 생성된 평면패치 및 교면에지를 도시한 도면이다. 도 13의 (a)는 A 지역에 포함된 라이다데이터의 점을 나타내고 여기서 점의 색깔은 고도값을 의미한다. 이 점들로부터 추출한 평면패치 및 교면에지가 도 13의 (b)와 같다.
다음으로, 외부표정요소를 재조정하기 위한 조정계산에 제약 조건으로 사용되기 위해 추출된 객체점과 평면패치, 연결에지와 교면에지사이의 상호일치성을 수립한다. 인접 평면패치가 생성한 교면에지는 A 지역과 같이 대상 객체가 건물에 해당하는 지역에 수평제어요소로 사용되기 위해 할당된다. 반면에 수평에 가까운 평면패치는 C 지역과 같이 대상 객체가 도로에 해당하는 지역에 수직제어 요소로 사용되기 위해 할당된다.
도 14는 본 발명의 일 실시예에 따른 상호일치성 수립을 도시한 도면이다.
도 14의 (a)에 도시된 바와 같이, 4번, 6번 평면패치가 생성한 교면에지는 객체점 2번, 6번의 연결에지와 상호일치성이 할당되어 수평제어요소로 사용된다. 그리고 도 14의 (b)에 대한 29번 평면패치는 객체점 31번부터 44번과 상호일치성이 할당되어 조정계산의 수직제어요소로 사용된다. 상기와 같은 방법으로, 대상 지역 전체에서 44개의 객체점에 대응되는 평면패치가 할당되었고, 5개의 연결에지에 대응되는 교면에지가 하기 표 5와 같이 할당된다. 즉, 동일 지역의 객체점은 하나의 평면패치와 상호일치성을 수립하고, 마찬가지로 하나의 연결에지는 하나의 교면에지와 상호일치성을 수립한다. 이에 본 실시예에서 제안한 조정계산의 원리에 따라 객체점 44개와 연결에지 5개가 사용되고 수직제어요소 44개와 에지의 양 끝점을 이용한 수평제어요소 10개가 사용된다.
Figure 112009073787904-pat00058
이하에서는 영상데이터 및 라이다데이터 사이의 기하학적 불일치를 확인한다. 비교적 단순한 지붕구조를 갖는 세 개의 대표적인 지역(A, H, L)에서 영상 및 라이다데이터로부터 추출된 지붕의 형상을 비교한다.
도 15는 지역 A, H, L에서 영상데이터와 라이다데이터 사이의 기하학적 불일치를 도시한 도면이다. 도 15에서 파란 색선은 영상의 객체점을 연결하여 구성한 지붕의 형상을 나타내고, 붉은 색선은 라이다데이터로부터 추출한 지붕의 형상을 나타낸다.
이러한 두 종류의 형상을 비교해보면 모든 지역에서 수직 및 수평좌표에 현저한 기하학적 오차가 존재한다는 것을 확인할 수 있다. 개략적으로 수평좌표는 약 0.6m, 수직좌표는 약 1.44m 정도의 차이를 나타난다. 이러한 차이는 외부표정요소의 부정확성 및 라이다데이터에 포함된 정오차 등으로 기인된 것이다. 이를 보정하지 않고 두 종류의 데이터를 상호융합하면 융합된 결과의 품질이 크기 떨어지게 된다.
최종적으로 영상데이터 및 라이다데이터로부터 추출한 정합기본요소들에 수립된 상호일치성에 기반하여 44개의 수직제약조건과 10개의 수평제약조건을 설정하고, 이를 159개의 공액점과 GPS/INS로 얻은 외부표정요소의 초기값을 이용하여 광속조정법에 기반한 항공 삼각측량을 다시 수행한다. 이를 통해 조정된 외부표정요소 및 라이다데이터와 일치하는 객체점의 좌표를 얻을 수 있다. 하기 표 6은 GPS/INS로부터 얻은 초기 외부표정요소, 1차적으로 공액점만으로 조정된 외부표정요소, 라이다데이터를 포함하여 최종 조정된 외부표정요소 및 초기와 최종의 조정량을 차례로 보여준다.
Figure 112009073787904-pat00059
외부표정요소 중에서 자세에 해당하는 각들의 변화량이 아주 중요하다. 각의 조정량이 작아 보여도 실제 지상거리로 환산하면 0.1m에서 크게는 1.6m까지도 차이가 날 수 있기 때문이다. 표 6에 도시된 바와 같이, 외부표정요소가 조정되었음을 확인할 수 있다.
외부표정요소가 조정되면서 동시에 조정된 159개의 객체점의 변화에 대한 통계적 수치는 하기 표 7에 나타난다.
Figure 112009073787904-pat00060
여기서 Z값은 0.5m에서 최대 약 2.3m까지 변화된 것을 알 수 있고 표준편차가 0.322m로 크다는 것은 전체적으로 객체점 좌표의 차이가 동일한 상수가 아니라 위치에 따라 독립적으로 다르다는 것을 뜻한다. 그러므로 단순히 외부표정요소 중 위치요소 만을 일정하게 옮겨서 조정할 수 없고 각을 포함한 모든 요소를 다 조정해야만 한다는 결론을 얻을 수 있다.
마지막으로 조정된 결과를 확인하기 위해서 특정 지역(L)에 대하여 최종 조정된 외부표정요소를 이용하여 결정된 객체점과 연결에지를 평면패치 및 교면에지와 중첩하여 본다.
도 16는 L지역에 조정된 외부표정요소에 의해 결정된 객체점과 연결에지 각각을 평면패치 및 교면에지와 중첩한 결과를 도시한 도면이다.
도 16에서 녹색 선으로 표현된 형상은 정합 전이고 파란색 선으로 표현된 것이 정합 후의 형상이다. 빨간 선과 하늘색 평면패치는 각각 기준정보인 교면에지와 평면패치이다. 정합 전에 존재했던 수평 및 수직좌표의 차이가 현저히 줄어들어 두 데이터 간의 정합이 잘 된 것을 확인할 수 있다.
표 8은 이러한 정합 전후의 객체점과 라이다데이터와의 기하학적 차이를 절대값 수치로 보여준다.
Figure 112009073787904-pat00061
제안된 데이터의 정합방법은 카메라와 라이다를 동시에 탑재한 항공 및 지상 다중센서 시스템의 데이터에 적용되어 엄밀 정사영상, DSM, 도시모델 등 고품질 공간정보의 생성에 크게 기여할 것으로 판단된다.
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.
도 1은 본 발명의 일 실시예에 따른 기하학적 정합장치의 블록도,
도 2는 본 발명의 일 실시예에 따른 영상데이터와 라이다데이터의 기하학적 정합방법을 설명하는 흐름도,
도 3은 본 발명의 일실시예에 따른 수직방향의 상호일치성 수립과 관련된 도면,
도 4는 본 발명의 일 실시예에 따른 수평방향의 상호일치성 수립과 관련된 도면,
도 5는 본 발명의 일 실시예에 따른 수직 방향 및 수평 방향의 외부표정요소의 조정 방법을 도시한 도면,
도 6은 본 발명의 일 실시예에 따라 촬영된 영상 데이터를 도시한 도면,
도 7은 라이다데이터를 3차원으로 시각화한 그림을 보여주는 도면,
도 8은 본 발명에 적용된 영상데이터와 라이다데이터의 지상범위를 도시한 도면,
도 9는 본 발명에 적용된 중첩된 영상에서 선정된 12개의 지역을 도시한 도면,
도 10은 지역 A와 C에서 건물 지붕과 도로면의 횡단보도 위에서 선정된 공액점들을 보여준 도면,
도 11 및 12는 각각 A 지역과 L 지역에서 생성된 객체점 및 연결 에지를 가시화한 도면,
도 13은 A지역에서 생성된 평면패치 및 교면에지를 도시한 도면,
도 14는 본 발명의 일 실시예에 따른 상호일치성 수립을 도시한 도면,
도 15는 지역 A, H, L에서 영상데이터와 라이다데이터 사이의 기하학적 불일치를 도시한 도면, 그리고,
도 16은 L지역에 조정된 외부표정요소에 의해 결정된 객체점과 연결에지 각각을 평면패치 및 교면에지와 중첩한 결과를 도시한 도면,
* 도면의 주요 부분에 대한 부호의 설명 *
110: 추출부 112: 제1 추출부
114: 제2 추출부 130: 수립부
132: 제1 수립부 134: 제2 수립부
150: 조정부

Claims (14)

  1. 상호 정합을 위한 정합기본 요소로서 수직방향의 비교를 위해 영상데이터로부터 객체점과 라이다데이터로부터 평면패치 및 수평방향의 비교를 위해 영상데이터로부터 연결에지와 라이다데이터로부터 교면에지를 추출하는 단계;
    상기 추출된 정합기본요소들간에 상호적 일치하는 관계를 수립하는 단계; 및
    상기 상호적 일치하는 관계를 수립한 정합기본요소를 수신하여 기하학적으로 일치되도록 상기 영상데이터의 외부표정요소를 조정하는 단계;를 포함하는 것을 특징으로 하는 영상데이터 및 라이다데이터의 기하학적 정합방법.
  2. 삭제
  3. 제1 항에 있어서,
    상기 추출하는 단계는,
    상기 영상데이터의 공액점에 상기 영상데이터의 외부표정요소를 공선조건식에 적용하여 계산된 복수 개의 객체점을 추출하고, 상기 복수 개의 객체점을 연결하는 연결에지를 추출하는 것을 특징으로 하는 영상데이터 및 라이다데이터의 기하학적 정합방법.
  4. 제1 항에 있어서,
    상기 추출하는 단계는,
    상기 라이다데이터를 구성하는 라이다점들을 기설정된 인접 정도를 기준으로 그룹핑하고, 상기 그룹핑된 라이다 점들과 기설정된 임계값 이하의 주위 라이다 점들을 결합시킨 복수 개의 평면패치를 추출하고, 상기 복수 개의 평면패치가 인접하면서 형성된 교면에지를 추출하는 것을 특징으로 하는 영상데이터 및 라이다데이터의 기하학적 정합방법.
  5. 제1 항에 있어서,
    상기 수립하는 단계는,
    상기 객체점과 상기 평면패치를 이용하여 상호 일치하는 관계를 수립하고,
    상기 연결에지와 상기 교면에지를 이용하여 상호 일치하는 관계를 수립하는 것을 특징으로 하는 영상데이터 및 라이다데이터의 기하학적 정합방법.
  6. 제 5항에 있어서,
    상기 평면패치에 상기 객체점의 일정 거리내의 구간이 포함되는 경우, 상호 일치하는 관계가 수립되고,
    상기 연결에지와 교면에지가 오차범위내에 있는 경우, 상호 일치하는 관계가 수립되는 것을 특징으로 하는 영상데이터 및 라이다데이터의 기하학적 정합방법.
  7. 제1 항에 있어서,
    상기 조정하는 단계는,
    상기 상호 일치하는 관계가 수립된 상기 객체점과 상기 평면패치 사이의 수직 거리 및 상기 연결에지와 교면에지 사이의 수평거리가 최소가 되도록 상기 외부표정요소를 조정하는 것을 특징으로 하는 영상데이터 및 라이다데이터의 기하학적 정합방법.
  8. 상호 정합을 위한 정합기본 요소로서 수직방향의 비교를 위해 영상데이터로부터 객체점과 라이다데이터로부터 평면패치 및 수평방향의 비교를 위해 영상데이터로부터 연결에지와 라이다데이터로부터 교면에지를 추출하는 추출부;
    상기 추출된 정합기본요소들간에 상호적 일치하는 관계를 수립하는 수립부; 및
    상기 상호적 일치하는 관계를 수립한 정합기본요소를 수신하여 기하학적으로 일치되도록 상기 영상데이터의 외부표정요소를 조정하는 조정부;를 포함하는 것을 특징으로 하는 영상데이터 및 라이다데이터의 기하학적 정합 장치.
  9. 삭제
  10. 제8 항에 있어서,
    상기 추출부는,
    상기 영상데이터의 공액점에 상기 영상데이터의 외부표정요소를 공선조건식에 적용하여 계산된 복수 개의 객체점을 추출하고, 상기 복수 개의 객체점을 연결하는 연결에지를 추출하는 것을 특징으로 하는 영상데이터 및 라이다데이터의 기하학적 정합장치.
  11. 제 8항에 있어서,
    상기 추출부는,
    상기 라이다데이터를 구성하는 라이다점들을 기설정된 인접 정도를 기준으로 그룹핑하고, 상기 그룹핑된 라이다 점들과 기설정된 임계값 이하의 주위 라이다 점들을 결합시킨 복수 개의 평면패치를 추출하고, 상기 복수 개의 평면패치가 인접하면서 형성된 교면에지를 추출하는 것을 특징으로 하는 영상데이터 및 라이다데이터의 기하학적 정합장치.
  12. 제8 항에 있어서,
    상기 수립부는,
    상기 객체점과 상기 평면패치를 이용하여 상호 일치하는 관계를 수립하고,
    상기 연결에지와 상기 교면에지를 이용하여 상호 일치하는 관계를 수립하는 것을 특징으로 하는 영상데이터 및 라이다데이터의 기하학적 정합장치.
  13. 제 12항에 있어서,
    상기 평면패치에 상기 객체점의 일정 거리내의 구간이 포함되는 경우, 상호 일치하는 관계가 수립되고,
    상기 연결에지와 교면에지가 오차범위내에 있는 경우, 상호 일치하는 관계가 수립되는 것을 특징으로 하는 영상데이터 및 라이다데이터의 기하학적 정합장치.
  14. 제8 항에 있어서,
    상기 조정부는,
    상기 상호 일치하는 관계가 수립된 상기 객체점과 상기 평면패치 사이의 수직 거리 및 상기 연결에지와 교면에지 사이의 수평거리가 최소가 되도록 상기 외부표정요소를 조정하는 것을 특징으로 하는 영상데이터 및 라이다데이터의 기하학적 정합장치.
KR1020090116982A 2009-09-10 2009-11-30 영상데이터와 라이다데이터의 기하학적 정합방법 및 그 장치 KR101105361B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020090085464 2009-09-10
KR20090085464 2009-09-10

Publications (2)

Publication Number Publication Date
KR20110027522A KR20110027522A (ko) 2011-03-16
KR101105361B1 true KR101105361B1 (ko) 2012-01-16

Family

ID=43934326

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090116982A KR101105361B1 (ko) 2009-09-10 2009-11-30 영상데이터와 라이다데이터의 기하학적 정합방법 및 그 장치

Country Status (1)

Country Link
KR (1) KR101105361B1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103020966A (zh) * 2012-12-04 2013-04-03 南京大学 一种基于建筑物轮廓约束的航空与地面LiDAR数据自动配准方法
CN103065295B (zh) * 2012-12-04 2016-01-20 南京大学 一种基于建筑物角点自修正的航空与地面LiDAR数据高精度自动配准方法
KR20230086921A (ko) 2021-12-09 2023-06-16 현대오토에버 주식회사 라이다 데이터 및 컬러 정보 매핑 방법 및 장치

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102607459B (zh) * 2012-03-06 2014-11-19 中国矿业大学(北京) Lidar测量数据的拼接方法和装置
KR102027771B1 (ko) 2013-01-31 2019-10-04 한국전자통신연구원 차량 속도 적응형 장애물 검출 장치 및 방법
KR101525772B1 (ko) * 2013-07-16 2015-06-05 남서울대학교 산학협력단 가로수 정보의 3차원 모델 서비스 제공 방법 및 그 장치
KR101897660B1 (ko) 2017-11-01 2018-09-12 김민중 프리스트레스트 강재거더 및 그 제작방법
KR102167847B1 (ko) * 2018-01-15 2020-10-20 주식회사 스트리스 레이저 관측 장비를 이용한 mms의 캘리브레이션을 위한 장치 및 방법
CN110163900B (zh) * 2019-05-31 2021-04-20 北京百度网讯科技有限公司 用于调整点云数据方法和装置
KR102257610B1 (ko) * 2019-10-02 2021-05-28 고려대학교 산학협력단 자율 주행 시스템을 위한 복수의 3차원 라이다 센서의 외부 파리미터 보정 방법

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040017604A (ko) * 2002-08-22 2004-02-27 한국과학기술원 자동 영상등록 및 보정을 위한 영상 처리방법

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040017604A (ko) * 2002-08-22 2004-02-27 한국과학기술원 자동 영상등록 및 보정을 위한 영상 처리방법

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
이임평 외 3인, ‘평면패치를 사용한 항공영상과 라이다데이터의 형상기반정합’, 대한토목학회 정기학술대회, 2005.10., 3555-3559쪽

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103020966A (zh) * 2012-12-04 2013-04-03 南京大学 一种基于建筑物轮廓约束的航空与地面LiDAR数据自动配准方法
CN103065295B (zh) * 2012-12-04 2016-01-20 南京大学 一种基于建筑物角点自修正的航空与地面LiDAR数据高精度自动配准方法
KR20230086921A (ko) 2021-12-09 2023-06-16 현대오토에버 주식회사 라이다 데이터 및 컬러 정보 매핑 방법 및 장치

Also Published As

Publication number Publication date
KR20110027522A (ko) 2011-03-16

Similar Documents

Publication Publication Date Title
KR101105361B1 (ko) 영상데이터와 라이다데이터의 기하학적 정합방법 및 그 장치
KR100912715B1 (ko) 이종 센서 통합 모델링에 의한 수치 사진 측량 방법 및장치
CN102506824B (zh) 一种城市低空无人机系统生成数字正射影像图的方法
Daftry et al. Building with drones: Accurate 3D facade reconstruction using MAVs
Verhoeven et al. Computer vision‐based orthophoto mapping of complex archaeological sites: The ancient quarry of Pitaranha (Portugal–Spain)
Cavegn et al. Benchmarking high density image matching for oblique airborne imagery
US7944547B2 (en) Method and system of generating 3D images with airborne oblique/vertical imagery, GPS/IMU data, and LIDAR elevation data
CN105046251B (zh) 一种基于环境一号卫星遥感影像的自动正射校正方法
Rumpler et al. Evaluations on multi-scale camera networks for precise and geo-accurate reconstructions from aerial and terrestrial images with user guidance
US20090010489A1 (en) Method for comparison of 3D computer model and as-built situation of an industrial plant
Barazzetti et al. True-orthophoto generation from UAV images: Implementation of a combined photogrammetric and computer vision approach
Rumpler et al. Automated end-to-end workflow for precise and geo-accurate reconstructions using fiducial markers
CN114902289A (zh) 使用源自立体图像对的点云对结构建模的系统和方法
CN112652065A (zh) 三维社区建模方法、装置、计算机设备及存储介质
Gerke Using horizontal and vertical building structure to constrain indirect sensor orientation
CN112288848A (zh) 无人机航拍三维建模计算工程量的方法
Bybee et al. Method for 3-D scene reconstruction using fused LiDAR and imagery from a texel camera
RU2562368C1 (ru) Способ трёхмерного (3d) картографирования
Altuntas et al. Image based methods for surveying heritage of masonry arch bridge with the example of Dokuzunhan in Konya, Turkey
Jiang et al. Determination of construction site elevations using drone technology
Choi et al. Precise geometric registration of aerial imagery and LIDAR data
Hidayat et al. Combined aerial and terrestrial images for complete 3D documentation of Singosari Temple based on Structure from Motion algorithm
Carvajal-Ramírez et al. Unmanned aerial vehicle photogrammetry and 3d modeling applied to virtual reconstruction of an archaeological site in the bronce age
NL2016718B1 (en) A method for improving position information associated with a collection of images.
CN107784666A (zh) 基于立体影像的地形地物三维变化检测和更新方法

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20150106

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20160105

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20161223

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20171226

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20181203

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20191202

Year of fee payment: 9