KR100709142B1 - 이미지 기반의 공간 정보 구축 방법 및 시스템 - Google Patents

이미지 기반의 공간 정보 구축 방법 및 시스템 Download PDF

Info

Publication number
KR100709142B1
KR100709142B1 KR1020050048560A KR20050048560A KR100709142B1 KR 100709142 B1 KR100709142 B1 KR 100709142B1 KR 1020050048560 A KR1020050048560 A KR 1020050048560A KR 20050048560 A KR20050048560 A KR 20050048560A KR 100709142 B1 KR100709142 B1 KR 100709142B1
Authority
KR
South Korea
Prior art keywords
image
stereoscopic image
stereoscopic
data
segment
Prior art date
Application number
KR1020050048560A
Other languages
English (en)
Other versions
KR20060127519A (ko
Inventor
신대식
최선용
오미경
박현춘
유향미
Original Assignee
국방과학연구소
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 국방과학연구소 filed Critical 국방과학연구소
Priority to KR1020050048560A priority Critical patent/KR100709142B1/ko
Publication of KR20060127519A publication Critical patent/KR20060127519A/ko
Application granted granted Critical
Publication of KR100709142B1 publication Critical patent/KR100709142B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing

Abstract

본 발명은 이미지 기반의 공간 정보 구축 방법 및 그 시스템에 관한 것으로, 특히 복잡한 기하특성을 갖는 위성영상으로부터 3차원 공간 정보를 추출하여 이미지 기반 데이터베이스로 구축하고 구축된 데이터베이스에 포함된 이미지에서 관측하려는 대상물의 3차원 위치 정보를 간단하고 정확하며 빠르게 추출할 수 있도록 하는데 그 목적이 있다. 이러한 목적의 본 발명은 3차원 공간자료를 구축하는 방법에 있어서, 위성에서 촬영된 원영상의 외부표정요소를 결정하여 3차원 센서 모델을 생성하는 단계와, 상기 3차원 센서 모델을 이용하여 원영상으로부터 입체시영상을 생성하는 단계와, 상기 입체시영상을 분할하여 다수의 세그먼트 입체시영상을 생성하는 단계와, 상기 세그먼트 입체시영상의 RPC 계수를 결정하는 단계와, 상기 세그먼트 입체시영상의 부속자료(진단점 자료, 이격 자료, 정확도 평가 자료, 불량지역 식별 자료)를 생성하는 단계와, 대상영역의 참조지도(CADRG형식의 지도자료)를 재구성하는 단계와, 상기 세그먼트 입체시영상과 참조지도 및 부속자료를 NITF 형식의 IBPPS로 제작하는 단계를 수행하도록 구성함을 특징으로 한다.

Description

이미지 기반의 공간 정보 구축 방법 및 시스템{SPATIAL INFORMATION STRUCTURE METHOD BASED IMAGE AND SYSTEM THEREOF}
도1은 본 발명의 실시 예에서 이미지 기반의 공간 정보 구축 과정을 보인 동작 순서도.
도2는 본 발명의 실시 예에서 원 영상, 입체시 영상 및 세그먼트 모델의 관계 설정을 위한 파라미터의 예시도.
도3은 본 발명의 실시 예에서 RFM 모델의 정확도를 보인 표.
도4는 본 발명의 실시 예에서 세그먼트 입체시영상 생성 화면의 예시도.
도5는 본 발명의 실시 예에서 세그먼트 입체시영상의 RPC 계수 결정 화면의 예시도.
도6은 본 발명의 실시 예에서 진단점 자료 생성 화면의 예시도.
도7은 본 발명의 실시 예에서 이격자료 생성 화면의 예시도.
도8은 본 발명의 실시 예에서 정확도 평가자료 생성 화면의 예시도.
도9는 본 발명의 실시 예에서 불량지역 식별자료 생성 화면의 예시도.
도10은 본 발명의 실시 예에서 참조지도 재구성 화면의 예시도.
도11은 본 발명의 실시 예에서 IBPPS용 NITF 파일 제작 화면의 예시도.
본 발명은 영상처리기술에 관련된 것으로 특히, 위성에서 촬영되어 방사보정된 원시영상(이하 '원영상'이라 칭함)을 이용하여 지형지물의 3차원 좌표를 측정할 수 있도록 자료를 구축하는 이미지 기반의 공간 정보 구축 방법 및 그 시스템에 관한 것이다.
지도(map)는 2차원 면 위에 등고선을 이용하여 지형의 높낮이를 표시한 것이다.
그러나 지도에 표시되는 등고선만으로는 복잡한 지형을 쉽게 파악할 수 없으므로 중요한 토목공사를 위해서는 3차원 지도를 필요로 한다.
또한, 대규모 토목공사를 시행하는 경우에 3차원 모형을 제작하여 사용하는 경우도 있으나, 도로, 강, 산, 촌락 등을 포함한 지형을 정확히 나타내지 못하는 것은 물론 비용 및 시간이 많이 소요되는 문제점이 있었다.
따라서, 근래에는 항공촬영 또는 위성촬영 방식을 이용하여 3차원 지도를 제작하고 있다.
일반적으로 항공 또는 위성촬영 영상을 이용하여 지형지물의 좌표를 측정하기 위해 수치표고모델(Digital Elevation Model, 이하 'DEM'이라 칭함) 또는 정사영상(Orthogonal Image) 등을 이용하였다.
그러나, DEM의 경우는 수평좌표와 고도만으로 구성되어 있으므로 지형지물의 위치를 정확하게 식별할 수 없고, 정사영상의 경우에도 지형지물의 수평좌표를 측정할수 있으나 고도값은 측정할 수 없다.
따라서, 정사영상과 DEM을 상호보완적으로 활용(중복도시)하여야만 지형지물의 3차원 좌표를 측정할 수 있다.
그러나, 정사영상과 DEM은 생성과정에서 각 단계마다 오차요소가 누적되기 때문에 이들을 중복도시하여 3차원 좌표를 측정하는 것은 원영상을 이용하여 측정하는 것에 비해 정확도가 현저하게 저하되는 단점이 있다.
따라서, 원영상으로부터 3차원 좌표를 측정하기 위한 기술로서 센서 모델링 기술이 활용되고 있다. 센서 모델링이란 위성이 영상을 촬영할 당시의 위치와 자세(이하 '외부표정요소'라 칭함) 값을 결정하여 원영상의 촬영 기하를 복원할 수 있는 센서 모델을 생성하는 작업을 말한다.
센서 모델은 다른 방법에 비하여 포함되는 오차요소가 적으므로 보다 정확한 3차원 좌표 측정이 가능하다.
하지만, 센서 모델링을 위해서는 지상기준점의 절대좌표를 수집하고, 영상좌표의 정밀한 관측이 필요하며, 이를 위해서 많은 시간과 비용이 소요되고, 숙련된 전문가의 작업이 요구된다.
최근에는 3차원 좌표를 측정하기 위해 위성에서 입체 촬영된 영상과 RPC(Rapid Positioning Capability) 계수를 이용하는 RFM(Rational Function Model) 모델이 사용되고 있다. RFM 모델은 센서 모델과 유사한 수준의 정확도를 유지하며 간단하고도 즉각적으로 3차원 좌표를 측정할 수 있는 유용한 모델이다.
그러나, 위성의 위치 및 자세정보만을 이용하여 RPC 계수를 결정하기 때문에 RFM 모델을 이용하여 측정된 3차원 좌표에는 특정 방향으로 편향된 바이어스(bias) 오차성분이 포함된다.
따라서, RFM 모델을 이용하여 3차원 좌표를 정확히 측정하기 위해서는 반드시 지상기준점을 이용하여 바이어스(bias)를 보정하는 작업이 요구된다.
한편, 센서 모델 및 RFM 모델은 수치사진측정 분야에서 많은 연구가 진행되어 왔으며, 각 모델에 대한 기본적인 아이디어는 유사하지만 실제 구현하는 방법은 매우 다양하다.
현재 센서 모델의 경우에는 수치사진 측량 관련 상용 S/W 등에 구현되어 누구나 활용이 가능하다.
그러나 RFM 모델의 경우 RPC 계수를 활용하는 장비는 상용으로 공개되고 있는 반면, RPC 계수를 제작할 수 있는 공개된 상용장비는 없는 실정이며, 단지 위성의 표준영상 생성을 위한 전용장비에만 실제로 적용되어 활용되고 있는 것으로 알려져 있다.
위성촬영 영상을 이용하여 3차원 좌표를 측정하기 위해서는 동일한 지역을 서로 다른 방향에서 촬영한 두개의 원영상(이하 '입체영상쌍'이라 칭함)이 필요하다. 3차원 좌표를 측정하기 위해서는 일반적으로 에피폴라(epipolar) 정렬된 입체시영상을 이용하는 데, 이는 2개의 영상을 입체로 관측하면 보다 정밀하게 좌표를 측정할 수 있기 때문이다.
최근 위성영상은 대용량(QuickBird 영상의 경우 1.4GB)으로 제공되므로 입체영상쌍을 동시에 도시 및 처리하기가 용이하지 않으며, 3차원 입체도시가 가능한 입체시영상을 생성하기 위해 많은 시간이 소요된다.
따라서 3차원 좌표 측정을 용이하게 하기 위해서는 입체영상쌍을 이용하여 입체시영상을 생성하고 입체시영상을 적절한 크기로 분할하는 작업이 필요하다
또한 입체영상쌍의 센서모델 정보를 활용하기 위해서 입체영상쌍, 입체시영상 및 분할된 입체시영상 간의 관계가 명확하게 정의되어 있어야 한다. 따라서 관측하고자 하는 대상물의 3차원 좌표를 측정하기 위해서는 매우 복잡한 작업과 많은 시간이 소요된다.
이에, 본 발명은 종래의 문제점을 개선하기 위하여 원영상으로부터 이미지 기반의 3차원 위치 정보 및 다양한 부속자료를 데이터베이스로 구축하고 이를 이용하여 관측하려는 대상물의 3차원 위치 정보를 간단하고 정확하며 빠르게 제공할 수 있도록 창안한 이미지 기반의 공간 정보 구축 방법 및 시스템을 제공하는데 그 목적이 있다.
즉, 본 발명은 위성촬영된 원영상으로부터 임의의 대상물체에 대한 좌표를 측정하기 위한 자료구조를 제작함에 있어서, RPC(Rapid Positioning Capability) 계수 결정, 진단/이격/정확도 자료 제작 및 편집, NITF(National Imagery Transformation Format) 제작 등의 절차를 단순, 자동화함으로써 3차원 좌표 측정에 관련된 다양한 자료를 빠르고 간단하게 제작할 수 있다.
본 발명은 상기의 목적을 달성하기 위하여 다음과 같은 특징을 갖는다.
본 발명에 따른 영상 기반 위치 측정 자료(Image Based Point Positioning System, 이하 "IBPPS"라 약칭함)는 사용자가 관측하고자 하는 지형지물의 위치를 3차원 좌표로 매우 간단하고 정확하며 빠르게 제공하는 것으로, 1°×1°의 단위로 구성되는 입체시된 영상들의 집합이다.
하나의 입체시된 영상은 세그먼트 입체시영상이라하며, 세그먼트 입체시영상은 입체영상쌍을 이용하여 제작한 입체시영상을 적당한 크기로 분할한 것이다. 각 세그먼트 입체시영상은 신속하게 3차원 좌표를 계산할 수 있게 하는 RPC 계수를 포함하고 있다.
또한, 본 발명은 IBPPS를 이용하여 측정한 3차원 위치정보에 대한 신뢰성을 판단하기 위해 고유 정확도를 확인할 수 있도록 한다. 이를 위해 IBPPS는 진단자료와 각 세그먼트 입체시영상들 간의 이격정확도, 절대정확도, 상대정확도 및 정확도 수준이 저하되는 영역에 대한 정보, 불량지역 정보 등은 물론 자료의 성격에 따라 참조지도 정보, 심볼 및 기타 식별할 수 있는 많은 종류의 자료를 포함한다.
이러한 특징을 갖는 본 발명은 3차원 공간자료를 구축하는 방법에 있어서, 입체영상쌍의 외부표정요소를 결정하여 3차원 센서 모델을 생성하는 단계와, 상기 3차원 센서 모델을 이용하여 입체영상쌍을 입체시영상으로 가공하는 단계와, 상기 입체시영상을 다수의 세그먼트 입체시영상으로 분할하는 단계와, 상기 세그먼트 입체시영상의 RPC 계수를 결정하는 단계와, 상기 세그먼트 입체시영상에 대한 부속자료(진단점 자료, 이격 자료, 정확도 평가 자료, 불량지역 식별 자료)를 생성하는 단계와, 대상영역의 참조지도(CADRG형식의 지도자료)를 재구성하는 단계와, 상기 세그먼트 입체시영상과 참조지도 및 부속자료를 NITF 형식의 IBPPS로 제작하는 단계를 수행하도록 구성함을 특징으로 한다.
상기에서 3차원 센서 모델을 이용하여 가공한 입체시영상은 여색입체 방식 또는 편광입체 방식으로 입체도시할 수 있는 특징이 있다.
상기 3차원 센서 모델 생성 단계는 입체영상쌍에 공통으로 존재하는 지상기준점을 국소직각좌표계 상에서 관측하고 그 점의 지상좌표를 취득하는 과정과, 상기 지상기준점의 지상위치와 영상위치 및 영상촬영시점의 위성 위치를 연결하는 공선조건 방정식을 구하는 과정과, 상기 공선조건 방정식을 이용하여 상기 입체영상쌍 각각의 외부표정요소를 결정하여 3차원 센서 모델을 생성하는 과정으로 이루어짐을 특징으로 한다.
상기 세그먼트 입체시영상 생성 단계는 입체시영상으로부터 다수의 세그먼트 입체시영상을 분할하는 과정과, 상기 세그먼트 입체시영상 각각에 대해 세그먼트 축소 입체시영상을 생성하는 과정으로 이루어짐을 특징으로 한다.
상기 세그먼트 축소 입체시영상에 대한 RPC 계수는 해상도 식별을 위한 축척변환 모수를 포함하는 것을 특징으로 한다.
상기 이격 자료 및 정확도 평가 자료 생성은 자동상관매칭 방법을 이용하는 것을 특징으로 한다.
상기 과정으로 제작된 IBPPS는 저장매체에 기록되어 제공됨을 특징으로 한다.
따라서, 본 발명에서는 상기 IBPPS를 이용하여 대상물체의 3차원 좌표를 신속하게 측정하고 그 측정된 3차원 좌표의 신뢰성을 확인할 수 있다.
이하, 본 발명을 도면에 의거 상세히 설명하면 다음과 같다.
본 발명의 바람직한 실시 예에서는 본 발명의 전반적인 이해를 위하여 본 발명의 구체적인 처리 흐름을 도면과 특정 상세 설명에서 나타내도록 한다.
또한, 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능 및 구성에 대한 상세 설명은 생략하기로 한다.
도1은 본 발명의 실시 예에 따른 3차원 공간정보 생성 과정을 보인 동작 순서도로서 이에 도시한 바와 같이, 입체영상쌍을 이용하여 3차원 센서 모델을 생성하는 단계와, 상기 3차원 센서 모델을 이용하여 위성영상쌍을 입체시영상으로 가공하고 그 입체시영상으로부터 다수의 세그먼트 입체시영상을 생성하는 단계와, 상기 세그먼트 입체시영상의 해상도를 변경하여 세그먼트 축소 입체시영상을 생성하는 단계와, 상기 세그먼트 입체시영상 및 세그먼트 축소 입체시영상에 대한 부속자료(진단점 자료, 이격 자료, 정확도 평가자료, 불량지역 식별자료)를 생성하는 단계와, 대상 영역의 참조지도를 재구성하는 단계와, 상기 참조지도와 세그먼트 입체시영상 파일(세그먼트 축소 입체시영상 파일 포함)을 NITF 형식의 IBPPS로 제작하는 단계를 수행하도록 구성한다.
이와 같이 구성한 본 발명의 실시 예에 대한 동작 및 작용 효과를 각각의 단계별로 설명하면 다음과 같다.
1. 제1 단계에서 위성영상을 촬영하고 이를 획득하는 과정을 수행한다.
예로, SPOT-5 위성을 이용하는 경우 그 SPOT-5 위성의 HRG 센서는 12000개의 CCD로 이루어진 Linear Array에 의한 Push-Broom 방식으로 촬영하며 상이한 궤도에서의 좌우측 방향으로 경사 촬영하여 입체영상쌍을 획득한다. HRG 영상은 supermode를 적용하여 2.5m 해상도의 24000 * 24000 화소의 영상을 제공한다.
2. 제2 단계에서 입체영상쌍으로부터 3차원 센서 모델을 생성하는 과정을 수행한다.
즉, 3차원 센서 모델을 생성하는 과정은 좌측 영상과 우측 영상으로 이루어진 영상쌍의 각 영상에 공통으로 존재하는 지상기준점을 국소직각좌표계 상에서 관측하고 그 점의 지상좌표를 취득한다. 이후 지상기준점의 지상위치와 영상위치 및 영상촬영시점의 위성위치를 연결하는 공선조건 방정식을 구한다. 이에 따라, 상기 공선조건 방정식을 이용하여 각 영상의 외부표정요소를 결정하여 입체영상쌍의 3차원 센서 모델을 생성한다.
3. 제3 단계에서 3차원 센서 모델을 이용하여 입체영상쌍으로부터 입체시영상을 제작하는 단계를 수행한다.
일반적으로 입체시영상이란 에피폴라(epipolar) 정렬된 3차원 도시가 가능한 2개의 영상이다. 하지만, 입체시영상만으로는 3차원 좌표를 측정할 수 없다.
입체시영상으로부터 3차원 좌표를 계산하기 위해서는 입체시영상에서 관측한 영상좌표를 입체영상쌍의 영상좌표로 변환하고, 그 변환된 입체영상쌍에서의 영상좌표와 3차원 센서 모델링 과정에서 계산된 외부 표정(標定)요소를 이용하여야 한다.
따라서, 입체시영상은 입체영상쌍과의 관계를 명확하게 식별할 수 있는 구조로 구성되어야 한다.
도4는 본 발명의 실시 예에서 세그먼트 입체시영상의 생성(또는 제작)을 위한 화면의 화면의 예시도이다.
본 발명의 실시 예에서는 도4의 화면에 입체시영상을 입체 도시한 상태에서 분할하고자 하는 세그먼트 입체시영상의 개수를 설정하며, 마우스만을 이용하여 분할 영역을 설정한다.
이때, IBPPS에 포함되는 영상은 입체시영상을 다시 여러 개의 입체시영상으로 분할한 세그먼트 입체시영상으로 구성되므로 세그먼트 입체시영상들은 약간의 영역이 중복되도록 설정된다.
그런데, IBPPS는 경위도 1°×1°영역을 단위로 제작되므로 세그먼트 입체시영상은 중복 영역을 허용하면서 1°×1°영역을 포함하도록 가장 효율적으로 분할되어야 하기 때문에 입체시영상은 좌측영상 또는 우측영상을 각각 독립적으로 분할해서는 안되며, 반드시 입체시 상태에서 2개의 영상을 동시에 분할한다.
본 발명의 실시 예에서 세그먼트 입체시영상 생성과 아울러 그 세그먼트 입체시영상에는 도2의 표에 도시한 바와 같이 세그먼트 입체시영상과 입체시영상과 입체영상쌍간의 관계 설정을 정의하는 파라미터가 적용된다.
4. 제4 단계에서 세그먼트 입체시영상에 대한 RPC 계수를 생성할 수 있는 기능을 지원한다.
세그먼트 입체시영상의 RPC(Rapid Positioning Capability) 계수를 생성하기 위해서는 세그먼트 입체시영상을 생성할 때 사용했던 입체영상쌍의 외부표정요소 값을 이용하여야 하므로, 입체시영상에서의 영상좌표를 입체영상쌍의 영상좌표로 역변환하는 과정과 세그먼트 입체시영상의 영상좌표를 입체시영상의 영상좌표로 역변환하는 과정이 필요하다. 이러한 과정을 수행하기 위해 도2의 파라미터를 이용한다.
센서모델로부터 RFM 모델의 RPC 계수를 결정하는 방법은 수치사진측량학 분야에서 많은 연구가 진행되어 왔으며, 그 기본적인 아이디어는 유사하지만 실제 구현하는 방법은 매우 다양하다.
RFM 모델의 경우 주어진 RPC 계수를 활용하는 장비는 상용으로 공개되고 있는 반면, RPC 계수를 결정할 수 있는 장비는 상용으로 공개되어 있지 않으며, 단지 IKONOS 및 QuickBird 위성의 표준영상 생성을 위한 전용 장비에서만 실제로 적용하여 활용되고 있는 것으로 알려져 있다.
본 발명의 실시 예에서는 지상의 위치를 알고 있는 지상기준점의 지상좌표를 이용하여, 국소직각좌표계 상에서 센서모델을 수행하는 방법을 사용하므로 RPC 계수를 생성하는 과정에 경중률 및 라그랑지(lagrange) 계수 등의 부가적인 모수(母數)를 포함하지 않는다.
모수란 통계학에서 모집단(母集團)의 특성을 나타내는 정수(定數)를 의미한다.
본 발명의 실시 예에서 세그먼트 입체시영상에 대한 RPC 계수 생성 단계는 센서 모델을 이용하여 지상기준점을 계산하는 과정과, 국소직각좌표계에서 지상기준점을 포함하는 공간에 가상으로 무수히 많은 격자점을 구성하고, 각 격자점의 좌표를 계산하는 과정과, 각 격자점의 위치와 그에 해당하는 영상위치를 연결하는 공선조건 방정식을 구하는 과정과, 상기 공선조건 방정식을 이용하여 대상 영역의 최대 및 최소 고도값을 자동으로 생성하는 과정과, 상기 계산된 값들을 이용하여 관측 방정식을 구하는 과정과, 상기 관측 방정식에 최소제곱법을 적용하여 RPC 계수를 결정하는 과정으로 이루어진다.
도5는 본 발명의 실시 예에서 세그먼트 입체시영상의 RPC 계수를 생성하기 위한 화면의 예시도이다. 도5의 화면에서 대상 영상이 포함되어 있는 지역의 최대 및 최소 고도값을 자동으로 계산할 수 있으며 고도 간격과 격자 간격을 임의로 설정할 수 있다.
따라서, 본 발명은 일부 상용 위성영상과 함께 제공되는 RPC 계수를 이용할 때 나타나는 바이어스(bias) 성분의 편향된 오차 특성이 없고, 국소직각좌표계상에서 센서 모델링을 수행하기 때문에 지도 좌표계를 사용할 경우 유발되는 지구의 곡률에 의한 오차를 포함하지 않으며, 대상영역이 좌표계 원점과 가까운 거리에 위치해 있기 때문에 상대오차가 적다.
또한, 대상영역 내의 고도한계 범위만을 대상으로 하기 때문에 RFM 모델의 정확도 저하를 방지할 수 있으며, 부가적인 모수를 사용하지 않기 때문에 계산속도가 매우 빠른 장점을 갖는다.
일반적으로 FM 모델의 정확도는 센서모델의 결과와 얼마나 일치하는 결과를 산출할 수 있는지를 이용하여 판단한다. 본 발명에 사용된 방법을 적용한 정확도 결과는 도3의 표에 도시하였으며, 이에 도시된 바와 같이 수 cm 정도의 정확도를 유지할 수 있다.
한편, 본 발명의 실시 예에서는 IBPPS에 세그먼트 입체시영상을 축소한 세그먼트 축소 입체시영상을 포함시킬 수 있다.
세그먼트 축소 입체시영상은 세그먼트 입체시영상을 이용하지 않아도 되는 간단한 확인 작업 등을 신속히 수행하기 위해 세그먼트 입체시영상의 해상도를 저하시켜 생성하며, 별도의 파일로 IBPPS에 포함된다.
그리고, 사용자가 세그먼트 축소 입체시영상을 이용하여 3차원 위치를 확인할 수 있어야 하기 때문에 세그먼트 축소 입체시영상에 대한 RPC 계수도 생성한다.
세그먼트 축소 입체시영상은 세그먼트 입체시영상과는 독립된 영상쌍 파일이므로, 세그먼트 축소 입체시영상과 그에 대응하는 RPC 계수를 생성하기 위해서 세그먼트 입체시영상 및 그 RPC 계수 생성 방법과 동일한 방법을 이용한다.
상기와 같이 생성되는 세그먼트 축소 입체시영상은 세그먼트 입체시영상에 대한 해상도 저하를 식별할 수 있는 축척 변환 모수가 추가된다.
본 발명에서는 모든 과정을 자동화하여 하나의 버튼 클릭으로 RPC 계수를 생성할 수 있도록 한다.
또한, 본 발명의 실시 예에 따른 IBPPS는 상기와 같은 과정으로 생성된 자료의 정확도를 확인하기 위한 진단점 자료, 이격 자료, 정확도 자료 등이 포함된다. 이러한 정보는 사용자에게 자료에 대한 신뢰성을 확인시키기 위한 것이다.
5. 제5 단계는 진단점 자료를 생성하는 과정이다.
삭제
도6은 진단점 자료 생성을 위한 화면의 예시도이다.
본 발명의 본 발명의 실시 예에서는 도6의 화면에 세그먼트 입체시영상을 여색입체로 도시한 상태에서 마우스 또는 트랙볼을 이용하여 진단점의 지상좌표를 측정하며, 자료의 신뢰성 확보를 위해 여러 차례 반복 측정한 결과를 평균하여 기록한다.
여색입체 도시란 좌측에서 촬영된 영상은 붉은색 필터, 우측에서 촬영된 영상은 푸른색 필터를 적용하여 영상처리한 후 동시에 도시하는 것을 의미한다. 이렇게 도시된 2개의 영상쌍을 좌측엔 붉은 렌즈, 우측엔 푸른 렌즈가 있는 안경을 착용하고 관측하면 입체화된 상을 볼 수 있다. 여색입체 도시와 유사하게 세그먼트 입체시영상을 편광모니터에 도시하고 편광안경을 사용하는 편광입체 도시방법을 사용할 수도 있다.
상기 과정으로 생성된 진단점 자료는 IBPPS의 관측 정확도를 사전에 확인하기 위한 자료로 사용되며, 각 세그먼트 모델에 하나 이상이 포함되어 있다.
진단점의 세그먼트 입체시영상에서의 위치와 3차원 좌표값은 사전에 IBPPS에 기록하여 사용자가 3차원 좌표 측정작업 수행 전에 진단점을 측정함으로써 작업 대상 세그먼트 입체시영상의 정확도를 미리 확인할 수 있도록 한다.
따라서, 진단점을 측정한 좌표값과 사전에 기록된 좌표값을 비교하여 오차가 작을 경우에만 관측작업을 진행하도록 한다.
6. 제6 단계는 이격 자료를 제작하는 과정이다.
이격 자료는 둘 이상의 인접한 IBPPS 간 또는 세그먼트 입체시영상 간에 중복되는 지역 내에 공통되는 지점들을 관측한 지상좌표 결과들의 차이를 기록한 자료이다.
이격 자료는 기본적으로 2개 이상의 세그먼트 입체시영상에서 관측되어야 하므로 중복영역을 식별하고, 하나의 세그먼트 모델을 도시하여 3차원 좌표를 측정한 후, 다시 다른 세그먼트 모델을 도시하여 동일한 위치의 3차원 좌표를 측정하는 과정으로 제작된다.
도7은 본 발명의 실시 예에서 이격자료 생성을 위한 화면의 예시도이다.
도7의 화면을 살펴보면, 생성하고자 하는 IBPPS에 포함되어 있는 모든 세그먼트 입체시영상 영역에 대한 범위를 사각형으로 표현할 수 있도록 하여 세그먼트 입체시영상들간의 중복/배치 현황을 쉽게 확인하고, 이격자료 생성을 위한 대상 영역 및 관측대상 지점의 수 등을 쉽게 설정할 수 있음을 알 수 있다.
이격자료의 관측대상 지점은 자동상관 매칭방법을 이용하여 결정함으로써 제작자가 육안으로 관측함에 의한 시간 소요를 단축시키게 된다.
통상적으로 자동상관매칭은 좌측 영상에 대해 소정크기의 기준영역을 설정하고 우측 영상에 대해 상기 기준영역이 존재할 가능성이 있는 크기의 검색영역을 설정하여 기준 영역을 검색 영역 내에서 한 화소씩 이동시켜 상관계수를 계산하는 것이다. 즉, 기준 영역이 검색 영역 내의 어느 위치에 부합되는지를 결정하기 위해 기준 영역을 검색 영역 내에서 이동시키면서 상관 계수를 계산한 후 상관 계수 값이 가장 클 때의 위치를 결정하는 것이다.
7. 제7 단계는 정확도 평가 자료를 생성하는 과정이다.
정확도 자료는 절대 정확도와 상대정확도 자료로 구분된다. 이는 좌표 변환 및 적용하는 기준계에 따라 좌표값에 차이가 발생하는데, 위치 관계에 대한 정확성을 표현하는 기준을 제시하여 통계적으로 의미있는 정확도 값을 추정하기 위한 것이다.
먼저, 절대 정확도는 관측된 지점의 3차원 좌표에 대해 RPC 계수를 이용하여 계산된 좌표값과 센서모델을 이용하여 계산된 좌표값과의 차를 이용하여 계산한다.
그리고, 상대 정확도는 동일 기준계에서의 상대적인 위치 관계에 대한 정확성을 표현하는 기준으로 사용되는데, 특정 기준계 내에서의 임의 두 지점간의 상대거리 및 상대 고도값을 이용하여 계산된다. 즉, 임의의 두 점의 기준좌표를 알고 있고 IBPPS로부터 계산된 두 점의 좌표를 알고 있을 때 기준좌표들간의 좌표차와 계산된 좌표들간의 좌표차를 이용하여 상대 정확도를 계산한다.
상대 정확도 계산을 위한 거리 범위는 0~2km, 2~10km, 10~30km, 30~60km, 60km 이상으로 구분된다. 일반적으로 두 점간의 거리가 멀수록 상대 정확도는 저하된다.
상대정확도는 측정한 점들 중에서 거리 범위에 포함되는 임의의 2개 점의 쌍을 이용하여 계산하므로 무수히 많은 경우에 대한 계산과정이 필요하며 계산된 결과를 통계적으로 분석하여 정확도를 표현하여야 한다.
따라서, 본 발명의 실시 예에서는 통계적으로 의미가 있도록 최소 30점 이상의 정확도 평가자료를 자동상관매칭방법으로 생성한다. 이때, 정확도 평가를 위한 50% 신뢰수준의 CEP(Circular Error Probable) 및 LEP(Linear Error Probable)를 자동으로 계산한다.
도8은 본 발명의 실시 예에서 정확도 평가 자료를 생성하기 위한 화면의 예시도이다.
그런데, 입체영상쌍의 촬영 시기가 많이 다르거나, 촬영 경사각의 차이가 클 경우 두 영상간의 영상특성이 많이 달라지므로 자동상관매칭에 의한 영상좌표 관측이 매우 어렵다.
따라서, 이러한 경우 자동상관 매칭 방법에 의해 추출된 영상좌표를 편집하는 작업이 반드시 필요하다.
본 발명의 실시 예에서는 여색입체/편광입체 장치를 이용하여 매칭에 의해 추출된 결과를 확인하고, 편집이 필요할 경우 입체환경에서 마우스 및 트랙볼을 이용하여 영상좌표를 관측하여 영상점을 이동시키고 필요시 추가 및 삭제를 실행하여 이격자료 및 정확도 평가자료를 편집하게 된다.
도8의 화면에서 이격자료, 정확도 평가자료 생성을 위해 여색입체, 편광입체, 마우스 커서 및 트랙볼 커서 장치를 이용하여 관측자료를 편집할 수 있다.
8. 제8 단계는 불량지역 식별자료를 생성하는 과정이다.
세그먼트 입체시영상은 일반적으로 직사각형의 형태로 저장되지만, 실제 지형이 포함된 지역은 위성의 궤도 및 경사촬영에 의해 임의의 다각형 형태로 구성되어 있어 불필요한 영역이 포함되는 것은 물론 지형정보의 추출이 어려운 바다, 강, 구름, 눈 등의 영역도 포함될 수 있다.
따라서, IBPPS에는 좌표 측정이 용이하지 않거나 불가능한 지역을 사전에 식별하여 그 정보를 벡터 형태 또는 일반 텍스트 형태로 포함함으로써, 사용자가 불량지역을 관측할 때 정확도가 낮다고 안내하거나 관측이 불가능함을 안내하는데 활용된다.
본 발명의 실시 예에서는 도9의 화면에서 불량지역 식별자료를 생성할 수 있다. 도9는 불량지역 식별자료를 생성하기 위한 화면의 예시도이다.
일반적으로 자동상관매칭의 경우 영상에 대한 불량지역 정보를 활용하지 않으므로 영상정보가 없는 영역에 대해서도 자동상관매칭을 적용하지만, 본 발명에서는 관측이 용이하지 않거나 불가능한 지역에 대해서는 자동상관매칭이 적용되는 대상영역에서 제외시킴으로써 관측 결과에 포함될 수도 있는 오차요인을 제거하고 처리시간을 상당히 단축시키게 된다.
9. 제9 단계는 참조지도 재구성을 수행하는 과정이다.
IBPPS는 대상지역에 대한 조감 및 검색이 용이하도록 동일지역의 축척 1/250,000의 참조지도인 CADRG(Compressed Arc Digitized Raster Graphics)를 포함한다.
CADRG는 ADRG를 압축한 형태의 자료이다. 상기 ADRG(Arc Digitized Raster Graphics)는 종이지도를 스캐닝하고 이를 지리 부호화한 래스터(Raster) 형태의 수치지도이다.
CADRG는 파일의 효율적 관리를 위해 작은 격자화된 단위파일(frame이라고도 함)로 구성되어 있으며, A.TOC라고 하는 메타파일에서 각 단위파일의 정보를 관리하고 있다. 즉, A.TOC를 조사하면 어떤 위치에 어떤 단위파일이 있는지를 알 수 있다.
IBPPS는 대상영역에 해당되는 CADRG 단위파일들을 재구성하여 포함시킨다.
도10은 본 발명의 실시 예에서 참조지도 재구성을 위한 화면의 예시도이다.
따라서, 도10의 화면에서 대상영역에 해당하는 CADRG 단위파일을 식별하여 대상영역에 해당되는 파일만을 자동으로 발췌하고 이를 IBPPS의 구조에 맞게 자동으로 재구성하게 된다.
10. 제10 단계는 IBPPS용 NITF 파일을 제작하는 과정이다.
IBPPS는 IBPPS를 구성하는 파일에 대한 정보를 포함하는 MPF(Master Product File)라는 파일과 CADRG, 세그먼트 입체시영상 및 세그먼트 축소 입체시영상으로 구성된다.
IBPPS는 참조지도인 래스터형태의 CADRG, CGM(Computer Graphic Metafile) 형태의 부호(심볼)자료, 텍스트형태의 설명자료 등의 다양한 부가자료를 포함하므로 이 자료들을 효과적으로 관리하기 위해 NITF 형태의 파일 구조로 저장하게 된다.
상기 NITF(National Imagery Transformation Format, MIL-STD-2500B)는 다양한 래스터 영상자료, 벡터자료, 부호자료 등 GIS(Geographic Information System : 지리정보 시스템)에서 사용하는 대부분의 자료구조를 포함하는 매우 확장성이 크고 복잡한 파일 형식이다.
특히, IBPPS에 포함되는 다양한 영상자료, 부호자료, 텍스트 설명자료를 제외한 모든 부가정보자료는 IBPPS에만 적용되는 'Extension'이라는 형태의 고유한 구조로 MPF라는 파일에 포함된다.
따라서, 본 발명에서는 IBPPS에 Extension이라는 구조를 포함시켜 파일 제작자가 자료 구조를 임의로 생성할 수 있게 하였다.
도11은 IBPPS용 NITF 파일 제작을 위한 화면의 예시도이다.
따라서, 사용자가 자료의 물리적 저장위치, 자료의 용량, 자료의 개수 등에 대한 정보를 알고 있지 않아도 윈도우의 탭 기능을 이용한 도11의 화면에서 다양하고 복잡한 자료를 NITF 형식으로 구성하여 간단하고 편리하게 IBPPS를 제작할 수 있다.
상기와 같은 과정으로 생성된 3차원 공간정보에 대한 자료는 저장매체(예로, DVD)에 기록되어 제공될 수 있으며 또한, 상기 과정을 수행하도록 제작된 소프트웨어도 컴퓨터에서 실행할 수 있도록 저장 매체에 기록하여 제공할 수 있다.
이에 따라, 기록 매체 또는 통신매체를 통해 제공받은 IBPPS를 이용하여 대상물의 3차원 좌표를 측정하고 그 측정된 3차원 좌표의 정확도를 확인할 수 있다.
한편, 상기에서 본 발명의 바람직한 실시예를 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경할 수 있음을 이해할 수 있을 것이다.
상기에서 상세히 설명한 바와 같이 본 발명은 IBPPS에 포함된 세그먼트 입체시영상과 입체시영상 및 입체영상쌍간의 관계를 명확하게 설정할 수 있는 3차원 공간정보에 대한 자료의 제작 방법을 단순화 및 자동화함으로써 빠른 시간에 간단하고 편리하게 자료를 제작할 수 있는 효과를 발휘하게 된다.
또한, 본 발명은 진단점 자료, 이격 자료, 정확도 평가 자료를 간편하게 제작하고 관리하는 기능을 제공함으로써 사용자가 자료의 정확도를 간단하게 확인할 수 있어 요구 정확도에 따른 3차원 좌표 측정 작업을 매우 용이하게 하는 효과가 있다.

Claims (35)

  1. 3차원 공간정보를 생성하는 방법에 있어서
    입체영상쌍을 이용하여 3차원 센서 모델을 생성하는 단계와,
    상기 3차원 센서 모델을 이용하여 입체영상쌍을 입체시영상으로 가공하는 단계와,
    상기 입체시영상을 다수의 세그먼트 입체시영상으로 분할하는 단계와,
    상기 세그먼트 입체시영상의 RPC 계수를 결정하는 단계와,
    상기 세그먼트 입체시영상에 대한 부속자료(진단점, 이격점, 정확도 평가, 불량지역 식별)를 생성하는 단계와,
    대상영역의 참조지도를 재구성하는 단계와,
    상기 세그먼트 입체시영상 파일, 참조지도 파일 및 부속자료를 NITF 형태의 IBPPS 자료로 제작하는 단계를 수행하도록 구성함을 특징으로 하는 이미지 기반의 공간 정보 구축 방법.
  2. 삭제
  3. 삭제
  4. 제1항에 있어서, 상기 3차원 센서 모델 생성 단계는
    좌측영상과 우측영상으로 이루어진 입체영상쌍의 각 영상에서 공통으로 존재하는 특정점을 국소직각좌표계 상에서 관측하고 그 특정점에 대응하는 점의 지상 좌표를 구하는 과정과,
    상기 지상좌표와 영상좌표 및 촬영시점의 위성의 위치를 연결하는 공선조건 방정식을 구하는 과정과,
    상기 공선조건 방정식을 이용하여 상기 입체영상쌍의 외부표정요소를 결정하여 3차원 센서 모델을 생성하는 과정으로 이루어짐을 특징으로 하는 이미지 기반의 공간 정보 구축 방법.
  5. 제1항에 있어서, 상기 세그먼트 입체시영상 분할은
    입체시 영상을 입체 도시한 상태에서 실행되는 것을 특징으로 하는 이미지 기반의 공간 정보 구축 방법.
  6. 제1항에 있어서, 상기 세그먼트 입체시영상은
    입체시 분할영상(세그먼트 입체시영상)과 입체시영상과 입체영상쌍간의 관계 설정을 정의하는 파라미터가 적용되는 것을 특징으로 하는 이미지 기반의 공간 정보 구축 방법.
  7. 제1항에 있어서, 상기 세그먼트 입체시영상 분할 단계는
    분할된 세그먼트 입체시영상에 대해 해상도를 변환한 세그먼트 축소 입체시영상을 생성하는 과정을 포함하여 실행하는 것을 특징으로 하는 이미지 기반의 공간 정보 구축 방법.
  8. 제7항에 있어서, 상기 세그먼트 축소 입체시영상은
    해상도를 식별하기 위한 축척 변환 모수가 부가되는 것을 특징으로 하는 이미지 기반의 공간 정보 구축 방법.
  9. 제1항에 있어서, 상기 세그먼트 입체시영상에 대한 RPC 계수 결정 단계는
    상기 3차원 센서 모델을 이용하여 입체영상쌍의 특징점에 대한 지상좌표를 계산하는 과정과,
    상기 지상좌표를 이용하여 RFM 모델을 제작하기 위한 관측 방정식을 구하는 과정과,
    상기 관측 방정식에 최소제곱법을 적용하여 RPC 계수를 결정하는 과정으로 이루어짐을 특징으로 하는 이미지 기반의 공간 정보 구축 방법.
  10. 제9항에 있어서, 상기 관측 방정식을 구하는 과정은
    국소 직각 좌표계에서 공간상의 격자점에 구성하는 과정과,
    상기 격자점에 해당하는 지상좌표를 계산하는 과정과,
    상기 계산된 지상좌표와 영상좌표를 연결하는 공선조건 방정식을 구하는 과정과,
    상기 공선조건 방정식을 이용하여 대상 영역의 최대, 최소 고도값을 자동으로 생성하는 과정과,
    상기 산출 값들을 이용하여 관측 방정식을 구하는 과정으로 이루어짐을 특징으로 하는 이미지 기반의 공간 정보 구축 방법.
  11. 삭제
  12. 제1항에 있어서, 상기 진단점 자료는
    세그먼트 입체시영상에 적어도 하나 이상 포함되는 것을 특징으로 하는 이미지 기반의 공간 정보 구축 방법.
  13. 제1항 또는 제12항에 있어서, 상기 진단점 자료 제작 단계는
    세그먼트 입체시영상을 여색입체/편광입체로 도시한 상태에서 진단점의 지상좌표를 측정하는 과정과,
    상기 측정과정을 반복 수행하는 과정과,
    상기 반복 수행된 결과를 평균하여 진단점의 지상좌표를 결정하는 과정으로 이루어짐을 특징으로 하는 이미지 기반의 공간 정보 구축 방법.
  14. 제1항에 있어서, 상기 이격 자료 제작 단계는
    둘 이상의 세그먼트 입체시영상 간에 중복 지역을 식별하는 과정과,
    상기 세그먼트 입체시영상들 각각의 3차원 좌표를 측정하는 과정과,
    자동상관매칭방법을 이용하여 이격 거리를 결정하는 과정으로 이루어짐을 특징으로 하는 이미지 기반의 공간 정보 구축 방법.
  15. 제1항에 있어서, 상기 정확도 평가자료 제작 단계는
    소정 개수 이상의 관측점을 선정하는 과정과,
    상기 선정된 관측점에 대해 자동상관매칭 방법을 적용하여 여러개의 세그먼트 입체시영상에서 관측하는 과정과,
    상기 관측된 다수 관측점의 3차원 좌표를 계산하는 과정과,
    상기 다수의 관측점에 대해 입체영상쌍의 외부표정요소를 이용하여 계산된 좌표와 세그먼트 입체시영상의 RPC 계수를 이용하여 계산된 좌표를 비교하여 정확도를 계산하는 과정으로 이루어짐을 특징으로 하는 이미지 기반의 공간 정보 구축 방법.
  16. 제15항에 있어서, 상기 정확도 평가자료는
    상대정확도와 절대정확도로 구분하여 계산하는 과정으로 이루어짐을 특징으로 하는 이미지 기반의 공간 정보 구축 방법.
  17. 제15항에 있어서, 상기 관측점의 3차원 좌표는
    특정 기준계 내에서의 임의의 점들간의 위치관계를 계산하고 그 계산된 결과의 차로부터 계산하는 것을 특징으로 하는 이미지 기반의 공간 정보 구축 방법.
  18. 제15항에 있어서, 정확도 평가를 위한 정확도 평가 모수(CEP : Circular Error Probable, LEP : Linear Error Probable)을 자동으로 계산하는 과정을 포함하는 것을 특징으로 하는 이미지 기반의 공간 정보 구축 방법.
  19. 제14항 또는 제15항에 있어서,
    여색입체/평관입체 장치 및 마우스를 이용하여 결과를 확인하는 단계와,
    편집이 필요한 경우 입체시 환경에서 영상좌표를 관측하여 영상점 이동, 추가 또는 삭제를 실행하는 단계를 더 포함하여 이루어짐을 특징으로 하는 이미지 기반의 공간 정보 구축 방법.
  20. 제1항에 있어서, 상기 불량지역 식별자료 제작 단계는
    관측 대상 지역에 좌표 관측이 용이하지 않거나 불가능한 지역이 있는지 식별하는 과정과,
    상기에서 식별된 지역 정보를 저장하는 과정으로 이루어짐을 특징으로 하는 이미지 기반의 공간 정보 구축 방법.
  21. 제20항에 있어서, 상기 관측이 용이하지 않거나 불가능한 지역의 식별정보는 벡터 형태 또는 텍스트 형태로 저장되는 것을 특징으로 하는 이미지 기반의 공간 정보 구축 방법.
  22. 제20항 또는 제21항에 있어서, 상기 불량지역 식별 정보는 사용자가 해당 지역 관측시에 해상도 저하 또는 관측 불가능을 안내하는 정보로 활용하는 것을 특징으로 하는 이미지 기반의 공간 정보 구축 방법.
  23. 제20항에 있어서, 상기 관측이 용이하지 않거나 불가능한 지역에 대해 자동상관매칭 대상 영역에서 제외시키는 과정을 포함하여 이루어짐을 특징으로 하는 이미지 기반의 공간 정보 구축 방법.
  24. 삭제
  25. 제1항에 있어서, 상기 NITF 형태의 IBPPS 자료는
    사용자 임의로 자료 구조를 생성할 수 있는 부가 정보를 포함하는 것을 특징으로 하는 이미지 기반의 공간 정보 구축 방법.
  26. 3차원 공간정보를 생성하는 시스템에 있어서
    입체영상쌍을 이용하여 3차원 센서 모델을 생성하고 그 상기 3차원 센서 모델을 입체시영상으로 가공하는 제1 수단과,
    상기 입체시영상으로부터 다수의 세그먼트 입체시영상으로 분할하고 그 세그먼트 입체시영상에 대한 RPC 계수를 계산하는 제2 수단과,
    상기 세그먼트 입체시영상에 대한 부속자료(진단점, 이격점, 정확도 평가, 불량지역 식별)를 자동상관매칭을 이용하여 생성하는 제3 수단과,
    대상영역의 참조지도를 재구성하여 상기 세그먼트 입체시영상 파일과 CADRG 단위파일 및 부속자료를 NITF 형태의 IBPPS 자료로 제작하는 제4 수단을 포함하여 구성함을 특징으로 하는 이미지 기반의 공간 정보 구축 시스템.
  27. 제26항에 있어서, 상기 제2 수단은
    입체시영상을 입체 도시한 상태에서 세그먼트 입체시영상 분할 및 각 세그먼트 입체시영상에 대한 세그먼트 축소 입체시영상을 생성하고, 상기 세그먼트 입체시영상과 세그먼트 축소 입체시영상에 대한 RPC 계수를 계산하도록 구성함을 특징으로 하는 이미지 기반의 공간 정보 구축 시스템.
  28. 제27항에 있어서, 상기 세그먼트 입체시영상은 입체시 분할영상(세그먼트 입체시영상)과 입체시영상과 입체영상쌍의 관계 설정을 정의하는 파라미터가 적용되고, 세그먼트 축소 입체시영상은 해상도를 식별하기 위한 축척 변환 모수가 부가되는 것을 특징으로 하는 이미지 기반의 공간 정보 구축 시스템.
  29. 제26항에 있어서, 상기 제3 수단은
    관측 정확도를 확인하기 위해 세그먼트 입체시영상에 적어도 하나 이상 포함되는 진단점 자료를 생성하는 제1 모듈과,
    둘이상의 인접한 IBPPS간 또는 세그먼트 입체시영상간에 중복지역 내에 공통되는 지점을 관측한 지상좌표값들의 차이를 기록하기 위한 이격 자료를 생성하는 제2 모듈과,
    기준좌표계상에서의 위치 관계에 대한 정확성을 표현하기 위한 정확도 평가 자료를 생성하는 제3 모듈과,
    관측 대상 지역 내에 포함되어 있는 관측이 용이하지 않거나 불가능한 지역을 식별하기 위한 정보를 생성하는 제4 모듈을 포함하여 구성함을 특징으로 하는 이미지 기반의 공간 정보 구축 시스템.
  30. 제29항에 있어서, 상기 진단점 자료 제작을 위한 제1 모듈은
    세그먼트 입체시영상을 여색입체/편광입체로 도시한 상태에서 진단점의 지상좌표 측정을 반복하고 그 측정 결과를 평균하여 진단점을 결정하도록 구성함을 특징으로 하는 이미지 기반의 공간 정보 구축 시스템.
  31. 제29항에 있어서, 상기 이격 자료 제작을 위한 제2 모듈은
    둘 이상의 세그먼트 입체시영상 간에 중복 지역을 식별함과 아울러 자동상관매칭방법을 적용하여 상기 세그먼트 입체시영상 각각의 3차원 좌표를 측정하고 이격 거리를 결정하도록 구성함을 특징으로 하는 이미지 기반의 공간 정보 구축 시스템.
  32. 제29항에 있어서, 상기 정확도 평가자료 생성을 위한 제3 모듈은
    소정 개수 이상의 관측점을 선정하여 3차원 좌표를 측정하고 상대정확도 및 절대정확도에 대한 정확도 평가 모수(CEP : Circular Error Probable, LEP : Linear Error Probable)을 계산하도록 구성함을 특징으로 하는 이미지 기반의 공간 정보 구축 시스템.
  33. 제32항에 있어서, 상기 관측점의 3차원 좌표는
    세그먼트 입체시영상의 RPC 계수로 계산된 결과 입체영상쌍의 외부표정요소로부터 계산된 결과의 차로부터 계산하거나 특정 기준계 내에서의 임의의 점들간의 위치관계를 계산한 결과의 차로부터 계산하는 것을 특징으로 하는 이미지 기반의 공간 정보 구축 시스템.
  34. 제29항에 있어서, 상기 진단점 자료, 이격 자료, 정확도 평가 자료에 대해 여색입체/평관입체 장치 및 마우스를 이용하여 입체시 환경에서 영상좌표를 관측하고 영상점 이동, 추가 또는 삭제 등의 편집을 실행하는 모듈을 더 포함하여 이루어짐을 특징으로 하는 이미지 기반의 공간 정보 구축 시스템.
  35. 제29항에 있어서, 상기 불량지역 식별자료 제작을 위한 제4 모듈은
    관측 대상 지역에 좌표 관측이 용이하지 않거나 불가능한 지역이 있는지 식별하고 그 식별된 지역 정보를 이용하여 벡터 형태 또는 텍스트 형태로 저장하도록 구성함을 특징으로 하는 이미지 기반의 공간 정보 구축 시스템.
KR1020050048560A 2005-06-07 2005-06-07 이미지 기반의 공간 정보 구축 방법 및 시스템 KR100709142B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020050048560A KR100709142B1 (ko) 2005-06-07 2005-06-07 이미지 기반의 공간 정보 구축 방법 및 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020050048560A KR100709142B1 (ko) 2005-06-07 2005-06-07 이미지 기반의 공간 정보 구축 방법 및 시스템

Publications (2)

Publication Number Publication Date
KR20060127519A KR20060127519A (ko) 2006-12-13
KR100709142B1 true KR100709142B1 (ko) 2007-04-20

Family

ID=37730573

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020050048560A KR100709142B1 (ko) 2005-06-07 2005-06-07 이미지 기반의 공간 정보 구축 방법 및 시스템

Country Status (1)

Country Link
KR (1) KR100709142B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101602631B1 (ko) 2014-11-07 2016-03-11 국방과학연구소 Rpc 번들조정 모델 ap와 영상변환 오차전파를 이용한 에피폴라 영상의 rpc 불확성치 결정 방법 및 장치
KR101663642B1 (ko) 2015-09-14 2016-10-07 국방과학연구소 Ap와 직접변환 센서 모델 기법을 이용한 휘스크 브룸 센서 모델 방법 및 장치

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100818340B1 (ko) * 2006-11-01 2008-04-01 (주)이지스 3차원 건축물의 지붕면 산출 방법과, 지붕 영상 맵핑 방법
KR101942065B1 (ko) * 2018-07-26 2019-01-24 아이씨티웨이주식회사 불분명 영상이미지의 합성 처리를 통한 수정방식의 영상처리 및 관리시스템

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1164014A (ja) * 1997-08-11 1999-03-05 Nippon Signal Co Ltd:The 測位装置、地域情報提供装置及び課金装置
KR20040038413A (ko) * 2002-11-01 2004-05-08 서용철 지구 측위 위성 시스템의 평가 시스템 및 그 방법
US20040122633A1 (en) * 2002-12-21 2004-06-24 Bang Ki In Method for updating IKONOS RPC data by additional GCP
KR100461850B1 (ko) * 2004-10-15 2004-12-16 주식회사 자티전자 위치 정보 검색 시스템 및 위치 정보 검색 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1164014A (ja) * 1997-08-11 1999-03-05 Nippon Signal Co Ltd:The 測位装置、地域情報提供装置及び課金装置
KR20040038413A (ko) * 2002-11-01 2004-05-08 서용철 지구 측위 위성 시스템의 평가 시스템 및 그 방법
US20040122633A1 (en) * 2002-12-21 2004-06-24 Bang Ki In Method for updating IKONOS RPC data by additional GCP
KR100461850B1 (ko) * 2004-10-15 2004-12-16 주식회사 자티전자 위치 정보 검색 시스템 및 위치 정보 검색 방법

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101602631B1 (ko) 2014-11-07 2016-03-11 국방과학연구소 Rpc 번들조정 모델 ap와 영상변환 오차전파를 이용한 에피폴라 영상의 rpc 불확성치 결정 방법 및 장치
KR101663642B1 (ko) 2015-09-14 2016-10-07 국방과학연구소 Ap와 직접변환 센서 모델 기법을 이용한 휘스크 브룸 센서 모델 방법 및 장치

Also Published As

Publication number Publication date
KR20060127519A (ko) 2006-12-13

Similar Documents

Publication Publication Date Title
Sevara et al. Surfaces from the visual past: Recovering high-resolution terrain data from historic aerial imagery for multitemporal landscape analysis
Lamsal et al. Digital terrain modelling using Corona and ALOS PRISM data to investigate the distal part of Imja Glacier, Khumbu Himal, Nepal
Gupta et al. Application of drone for landslide mapping, dimension estimation and its 3D reconstruction
Gao et al. High-resolution mapping based on an Unmanned Aerial Vehicle (UAV) to capture paleoseismic offsets along the Altyn-Tagh fault, China
KR100912715B1 (ko) 이종 센서 통합 모델링에 의한 수치 사진 측량 방법 및장치
Chandler et al. Autodesk 123D catch: how accurate is it
Qin Automated 3D recovery from very high resolution multi-view satellite images
Maurer et al. Tapping into the Hexagon spy imagery database: A new automated pipeline for geomorphic change detection
Capaldo et al. DSM generation from high resolution imagery: applications with WorldView-1 and Geoeye-1.
US7853070B2 (en) Method and apparatus for storing 3D information with raster imagery
Pérez et al. Accuracy and effectiveness of orthophotos obtained from low cost UASs video imagery for traffic accident scenes documentation
KR100904078B1 (ko) 항공 사진의 영상정합을 이용한 3차원 공간 정보 생성 시스템 및 방법
Giribabu et al. Improving Cartosat-1 DEM accuracy using synthetic stereo pair and triplet
Habib et al. Extraction and accuracy assessment of high-resolution DEM and derived orthoimages from ALOS-PRISM data over Sahel-Doukkala (Morocco)
Krishnan et al. DEM generation using Cartosat-I stereo data and its comparison with publically available DEM
KR100709142B1 (ko) 이미지 기반의 공간 정보 구축 방법 및 시스템
Govedarica et al. Flood risk assessment based on LiDAR and UAV points clouds and DEM
Cogliati et al. Extraction of dems and orthoimages from archive aerial imagery to support project planning in civil engineering
Ahmad et al. Generation of three dimensional model of building using photogrammetric technique
Gupta et al. 3D reconstruction of a landslide by application of UAV and structure from motion
Scaioni et al. Image-based reconstruction and analysis of dynamic scenes in a landslide simulation facility
KR20170108552A (ko) 수변구조물 피해정보 분석을 위한 정보시스템 구축방안
Ahn et al. Ortho-rectification software applicable for IKONOS high resolution images: GeoPixel-Ortho
Altuntas Urban area change detection using time series aerial images
La Rocca A photogrammetry application to rockfall monitoring: the Belca, Slovenia case study

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment
FPAY Annual fee payment
LAPS Lapse due to unpaid annual fee