KR20060127519A - 이미지 기반의 공간 정보 구축 방법 및 시스템 - Google Patents

이미지 기반의 공간 정보 구축 방법 및 시스템 Download PDF

Info

Publication number
KR20060127519A
KR20060127519A KR1020050048560A KR20050048560A KR20060127519A KR 20060127519 A KR20060127519 A KR 20060127519A KR 1020050048560 A KR1020050048560 A KR 1020050048560A KR 20050048560 A KR20050048560 A KR 20050048560A KR 20060127519 A KR20060127519 A KR 20060127519A
Authority
KR
South Korea
Prior art keywords
image
spatial information
model
segment
data
Prior art date
Application number
KR1020050048560A
Other languages
English (en)
Other versions
KR100709142B1 (ko
Inventor
신대식
최선용
오미경
박현춘
유향미
Original Assignee
국방과학연구소
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 국방과학연구소 filed Critical 국방과학연구소
Priority to KR1020050048560A priority Critical patent/KR100709142B1/ko
Publication of KR20060127519A publication Critical patent/KR20060127519A/ko
Application granted granted Critical
Publication of KR100709142B1 publication Critical patent/KR100709142B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Graphics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

본 발명은 이미지 기반의 공간 정보 구축 방법 및 시스템에 관한 것으로, 특히 위성촬영 영상으로부터 이미지 기반의 3차원 공간 정보를 데이터베이스로 구축하고 이를 이용하여 위성촬영 영상으로부터 관측하려는 대상물의 3차원 위치 정보를 간단하고 정확하며 빠르게 제공할 수 있도록 하는데 그 목적이 있다. 이러한 목적의 본 발명은 3차원 공간자료 구축하는 방법에 있어서, 원 영상으로부터 3차원 센서 모델을 생성하는 단계와, 원 영상에 대한 3차원 센서 모델의 외부표정요소를 결정하여 3차원 센서 모델에 부가하는 단계와, 상기 3차원 센서 모델을 입체시 영상으로 가공하는 단계와, 상기 입체시 영상으로부터 다수의 세그먼트 모델로 분할하는 단계와, 상기 세그먼트 모델에 대한 RPC를 제작하는 단계와, 상기 세그먼트 모델에 대한 자료(진단점 자료, 이격 자료, 정확도 평가 자료, 불량지역 식별 자료)를 생성하는 단계와, 대상영역의 수치지도를 CADRG 파일로 재구성하는 단계와, 상기 세그먼트 모델 파일 및 CADRG 파일 및 자료를 NITF 형태의 IBPPS로 제작하는 단계를 수행하도록 구성함을 특징으로 한다.

Description

이미지 기반의 공간 정보 구축 방법 및 시스템{SPATIAL INFORMATION STRUCTURE METHOD BASED IMAGE AND SYSTEM THEREOF}
도1은 본 발명의 실시 예에서 이미지 기반의 공간 정보 구축 과정을 보인 동작 순서도.
도2는 본 발명의 실시 예에서 원 영상, 입체시 영상 및 세그먼트 모델의 관계 설정을 위한 파라미터의 예시도.
도3은 본 발명의 실시 예에서 RPC의 정확도를 보인 표.
도4는 본 발명의 실시 예에서 세그먼트 모델 제작 화면의 예시도.
도5는 본 발명의 실시 예에서 세그먼트 모델의 RPC 제작 화면의 예시도.
도6은 본 발명의 실시 예에서 진단점 자료 제작 화면의 예시도.
도7은 본 발명의 실시 예에서 이격자료 제작 화면의 예시도.
도8은 본 발명의 실시 예에서 정확도 평가자료 제작 화면의 예시도.
도9는 본 발명의 실시 예에서 불량지역 식별자료 제작 화면의 예시도.
도10은 본 발명의 실시 예에서 CADRG 재구성 화면의 예시도.
도11은 본 발명의 실시 예에서 IBPPS용 NITF 파일 제작 화면의 예시도.
본 발명은 영상처리기술에 관한 것으로 특히, 위성영상을 이용하여 지형지물의 3차원 위치를 측정할 수 있도록 자료를 구축하는 이미지 기반의 공간 정보 구축 방법 및 시스템에 관한 것이다.
지도(map)는 2차원 면 위에 등고선을 이용하여 지형의 높낮이를 표시한 것이다.
그러나 지도에 표시되는 등고선만으로는 복잡한 지형을 쉽게 파악할 수 없으므로 중요한 토목공사를 위해서는 3차원 지도를 필요로 한다.
또한, 대규모 토목공사를 시행하는 경우에 3차원 모형을 제작하여 사용하는 경우도 있으나, 도로, 강, 산, 촌락 등을 포함한 지형을 정확히 나타내지 못하는 것은 물론 비용 및 시간이 많이 소요되는 문제점이 있었다.
따라서, 근래에는 항공촬영 또는 위성촬영 방식을 이용하여 3차원 지도를 제작하고 있다.
일반적으로 항공촬영 또는 위성촬영에 따른 영상을 이용하여 지형지물의 위치를 측정하기 위해 일반적으로 수치표고모델(Digital Elevation Model, 이하 DEM이라 칭함) 또는 정사영상(Orthogonal Image) 등을 이용하였다.
그러나, DEM의 경우는 수평좌표와 고도만으로 구성되어 있으므로 지형지물의 위치를 정확하게 식별할 수 없고, 정사영상의 경우에도 지형지물의 수평위치를 식별할 수 있으나 고도값을 측정할 수 없다.
따라서, 정사영상과 DEM을 중복 도시하는 방식을 이용하여 측정하고자 하는 3차원 좌표를 추출할 수 있다는 것을 의미한다.
또한, 정사영상 및 DEM의 중복 도시 방식은 위성에서 촬영된 원 영상으로부터 여러 단계의 작업과정을 통해 제작되므로 각 단계마다 오차요소가 누적되기 때문에 원 영상의 해상도에 비해 정확도가 현저하게 저하되는 단점이 있다.
따라서, 3차원 위치를 측정하기 위한 기술로서 센서 모델링 기술이 제시되어 있다. 센서 모델링이란 위성이 영상을 촬영할 당시의 위치와 자세를 결정하여 위성영상 촬영 기하를 복원하는 작업을 말한다.
센서 모델링은 기준점의 오차와 위성위치/자세의 오차 외에는 다른 오차요소가 포함되지 않으므로 어떠한 다른 방법보다도 정확한 3차원 좌표 측정이 가능하다.
하지만, 센서 모델링을 위해서는 기준점 수집 및 관측 작업 등이 필요하며, 이러한 작업을 위해서 많은 시간 및 비용이 소요되고, 숙련된 전문가의 작업이 요구된다.
최근 위성으로 입체 촬영된 영상과 RPC(Rational Polynomial Coefficient)를 이용하는 RFM(Rational Function Model) 모델이 제안되어 사용되고 있다. RFM 모델은 센서 모델과 유사한 수준의 정확도를 유지하며 간단하고도 즉각적으로 3차원 좌표를 측정할 수 있는 유용한 모델이다.
RFM 모델은 기준점을 이용하여 보정하면 센서 모델링과 유사한 수준의 정확도로 3차원 좌표 측정이 가능하다고 확인되어 RFM 모델의 활용이 증대되고 있다.
그러나, 위성 영상의 경우 위성의 위치 및 자세정보만을 이용하여 RPC를 계 산하기 때문에 RFM 모델을 이용하여 측정된 3차원 좌표에 특정 방향으로 편향된 바이어스(bias) 오차성분이 포함된다.
따라서, RFM 모델을 이용하여 3차원 좌표를 정확히 측정하기 위해서는 반드시 지상기준점을 이용하여 바이어스(bias)를 보정하는 작업이 요구된다.
한편, 센서 모델 및 RFM 모델은 수치사진측정 분야에서 많은 연구가 진행되어 왔으며, 각 모델에 대한 기본적인 아이디어는 유사하지만 실제 구현하는 방법에 있어서는 매우 다양한 방법이 관련 전문 분야의 학술지를 통해 제안되고 있다.
현재 센서 모델의 경우에는 수치사진 측량 관련 상용 S/W 등에 구현되어 누구나 활용이 가능하다.
그러나 RFM 모델의 경우 RPC 계수를 활용하는 장비는 상용으로 공개되고 있는 반면, RPC 계수를 제작할 수 있는 공개된 상용장비는 없는 실정이며, 단지 위성의 표준영상 생성을 위한 전용장비에만 실제로 적용되어 활용되고 있는 것으로 알려져 있다.
최근 위성영상은 대용량(QuickBird 영상의 경우 1.4GB)으로 제공되어 입체 영상쌍(두 개의 영상)을 동시에 도시 및 처리하기가 용이하지 않다.
따라서, 원활한 작업이 가능하도록 영상을 적절한 크기로 분할하는 작업이 필요하며, 이때 3차원 좌표 측정을 위해서는 입체시 분할영상(세그먼트 모델)과 입체시 영상과 원 영상의 관계를 정의할 수 있는 구조가 제공되어야 한다.
이는 영상들 간의 관계가 명확하여야만 입체시 영상을 도시하고, 특정 지형 지물에 대한 영상좌표를 입체 영상쌍에서 관측할 때 즉각적으로 3차원 절대좌표를 계산할 수 있기 때문이다.
이에, 본 발명은 종래의 문제점을 개선하기 위하여 위성촬영 영상으로부터 이미지 기반의 3차원 위치 정보를 데이터베이스로 구축하고 이를 이용하여 위성촬영 영상으로부터 관측하려는 대상물의 3차원 위치 정보를 간단하고 정확하며 빠르게 제공할 수 있도록 창안한 이미지 기반의 공간 정보 구축 방법 및 시스템을 제공하는데 그 목적이 있다.
즉, 본 발명은 위성촬영 영상으로부터 임의의 대상물체에 대한 위치를 측정하기 위한 자료구조를 제작함에 있어서, RPC(Rational Polynomial Coefficient) 산출, 진단/이격/정확도 자료 제작 및 편집, NITF(National Imagery Transformation Format) 제작 등의 절차를 단순, 자동화함으로써 3차원 위치 정보에 관련된 자료를 빠르고 간단하게 제작할 수 있다.
본 발명은 상기의 목적을 달성하기 위하여 다음과 같은 특징을 갖는다.
본 발명에 따른 영상 기반 위치 측정 자료(Image Based Point Positioning System, 이하 "IBPPS"라 약칭함)는 사용자가 관측하고자 하는 지형지물의 위치를 3차원 좌표로 매우 간단하고 정확하며 빠르게 제공하는 것으로,
Figure 112005030114086-PAT00001
의 단위로 구성되는 입체시된 영상의 집합이다.
각각의 입체시된 영상은 여러 개의 세그먼트 입체모델로 분할되며, 각각의 세그먼트 입체모델은 RPC(Rational Polynomial Coefficient)를 포함하고 있어 신속 한 3차원 좌표 측정이 가능하다.
일반적으로 입체시 영상이란 에피폴라(epipolar) 정렬된 3차원 도시가 가능한 영상을 말한다.
또한, 본 발명은 IBPPS를 이용한 3차원 위치정보에 대한 신뢰성 판단을 위해 파라미터의 고유 정확도를 확인할 수 있도록 한다. 이를 위해 IBPPS에는 진단자료와 각 세그먼트들 간의 이격 정확도, 절대정확도, 상대정확도 및 정확도 수준이 저하되는 영역에 대한 정보, 불량지역 정보 등은 물론 자료의 성격에 따라 참조지도 정보, 심볼 및 기타 식별할 수 있는 많은 종류의 자료를 포함한다.
이러한 특징을 갖는 본 발명은 3차원 공간자료 구축하는 방법에 있어서, 원 영상으로부터 3차원 센서 모델을 생성하는 단계와, 원 영상에 대한 3차원 센서 모델의 외부표정요소를 결정하여 3차원 센서 모델에 부가하는 단계와, 상기 3차원 센서 모델을 입체시 영상으로 가공하는 단계와, 상기 입체시 영상으로부터 다수의 세그먼트 모델로 분할하는 단계와, 상기 세그먼트 모델에 대한 RPC를 제작하는 단계와, 상기 세그먼트 모델에 대한 자료(진단점 자료, 이격 자료, 정확도 평가 자료, 불량지역 식별 자료)를 생성하는 단계와, 대상영역의 수치지도를 CADRG 파일로 재구성하는 단계와, 상기 세그먼트 모델 파일 및 CADRG 파일 및 자료를 NITF 형태의 IBPPS로 제작하는 단계를 수행하도록 구성함을 특징으로 한다.
상기에서 3차원 센서 모델의 입체시 영상 가공은 여색입체 방식 또는 편광입체 방식을 이용하는 것을 특징으로 한다.
상기 3차원 센서 모델 생성 단계는 좌측영상과 우측영상으로 이루어진 영상 쌍의 각 영상에서 공통으로 존재하는 국소 직각 좌표계 상에서 특정점을 관측하고 그 특정점에 대응하는 점의 지상 좌표를 구하는 과정과, 상기 지상 좌표와 지상 기준점의 영상점 및 촬영시점의 위치를 연결하는 공선의 방정식을 구하는 과정과, 상기 공선 방정식을 이용하여 상기 영상쌍의 3차원 센서 모델을 생성하는 과정으로 이루어짐을 특징으로 한다.
상기 세그먼트 모델 생성 단계는 입체시 영상으로부터 다수의 세그먼트 모델을 분할하는 과정과, 상기 세그먼트 모델 각각에 대해 축소 세그먼트 모델을 생성하는 과정으로 이루어짐을 특징으로 한다.
상기 축소 세그먼트 모델에 대한 RPC는 해상도 식별을 위한 축적변환 모수를 포함하는 것을 특징으로 한다.
상기 이격 자료 및 정확도 평가 자료 생성은 자동상관매칭 방법을 이용하는 것을 특징으로 한다.
상기 과정으로 제작된 IBPPS는 저장매체에 기록되어 제공됨을 특징으로 한다.
따라서, 본 발명에서는 상기 IBPPS를 이용하여 측정하려는 대상물체의 3차원 위치 정보를 측정하고 그 측정된 3차원 위치 정보의 신뢰성을 확인할 수 있다.
이하, 본 발명을 도면에 의거 상세히 설명하면 다음과 같다.
본 발명의 바람직한 실시 예에서는 본 발명의 전반적인 이해를 위하여 본 발명의 구체적인 처리 흐름을 도면과 특정 상세 설명에서 나타내도록 한다.
또한, 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능 및 구성에 대한 상세 설명은 생략하기로 한다.
도1은 본 발명의 실시 예에 따른 3차원 공간정보 생성 과정을 보인 동작 순서도로서 이에 도시한 바와 같이, 위성영상(또는 항공영상)에 대해 3차원 센서 모델을 생성하는 단계와, 상기 3차원 센서 모델을 입체시 영상으로 가공하고 그 입체시 영상에 대해 다수의 세그먼트 영상을 생성하는 단계와, 상기 세그먼트 영상에 대해 해상도를 변경한 축소 세그먼트 축소 영상을 생성하는 단계와, 상기 세그먼트 영상 및 축소 세그먼트 축소 영상에 대한 자료(진단점 자료, 이격 자료, 정확도 평가자료, 불량지역 식별자료)를 제작하는 단계와, 대상 영역의 수치지도를 CADRG 프레임 파일로 재구성하는 단계와, 상기 CADRG 프레임 파일 및 세그먼트 모델 파일(축소 세그먼트 모델 파일 포함)를 NITF 형태의 IBPPS로 제작하는 단계를 수행하도록 구성한다.
이와 같이 구성한 본 발명의 실시 예에 대한 동작 및 작용 효과를 각각의 단계별로 설명하면 다음과 같다.
1. 제1 단계에서 위성영상을 촬영하고 이를 획득하는 과정을 수행한다.
예로, SPOT-5 위성을 이용하는 경우 그 SPOT-5 위성의 HRG 센서는 12000개의 CCD로 이루어진 Linear Array에 의한 Push-Broom 방식으로 촬영하며 상이한 궤도에서의 경사 촬영으로 입체 영상을 획득한다. HRG 영상은 supermode를 적용하여 2.5m 해상도의 24000 * 24000 화소 크기의 영상을 제공한다.
2. 제2 단계에서 위성영상으로부터 3차원 센서 모델을 생성하는 과정을 수행한다.
즉, 3차원 센서 모델링은 좌측 영상과 우측 영상으로 이루어진 영상쌍의 각 영상에서 공통으로 존재하는 국소 직각 좌표계 상에서 특정점을 관측하고 그 특정점에 대응하는 점의 지상좌표를 구한다. 이후 지상 좌표와 지상 기준점의 영상점 및 촬영시점의 위치를 연결하는 공선의 방정식을 구한다. 이에 따라, 상기 공선 방정식을 이용하여 영상쌍의 3차원 센서 모델을 생성한다.
3. 제3 단계에서 3차원 센서 모델로부터 입체시 영상을 제작하는 단계를 수행한다.
일반적으로 입체시 영상이란 에피폴라(epipolar) 정렬된 3차원 도시가 가능한 영상이다. 하지만, 입체시 영상만으로는 3차원 좌표를 측정할 수 없다.
입체시 영상으로부터 3차원 좌표를 계산하기 위해서는 입체시 영상에서 관측한 입체시 영상좌표를 원 영상좌표로 변환하고, 그 변환된 원 영상좌표와 3차원 센서 모델링을 수행하여 계산된 외부 표정(標定)요소를 이용하여야 한다.
따라서, 입체시 영상은 원 영상과의 관계를 명확하게 식별할 수 있는 구조로구성되어야 한다.
도4는 본 발명의 실시 예에서 세그먼트 모델의 생성(또는 제작)을 위한 화면의 예시도이다.
본 발명의 실시 예에서는 도4의 화면에 입체시 영상을 입체 도시한 상태에서 분할하고자 하는 세그먼트 모델의 개수를 설정하며, 마우스만을 이용하여 분할 영역을 설정한다.
이때, IBPPS에 포함되는 영상은 입체시 영상을 다시 여러 개의 입체시 영상 으로 분할한 세그먼트 모델로 구성됨으로 세그먼트 모델들은 약간의 영역이 중복되도록 설정된다.
그런데, IBPPS는 경위도
Figure 112005030114086-PAT00002
영역을 단위로 제작되므로 세그먼트 모델은 중복 영역을 허용하면서
Figure 112005030114086-PAT00003
영역을 포함하도록 가장 효율적으로 분할되어야 하기 때문에 입체시 영상의 분할은 하나의 영상을 각각 독립적으로 분할해서는 안되며, 반드시 입체시 상태에서 분할한다.
본 발명의 실시 예에서 세그먼트 모델 생성과 아울러 그 세그먼트 모델에는 도2의 표에 도시한 바와 같이 입체시 분할영상(세그먼트 모델)과 입체시 영상과 원 영상의 관계 설정을 정의하는 파라미터가 적용된다.
4. 제4 단계에서 세그먼트 모델에 대한 RPC를 제작할 수 있는 기능을 지원한다.
RPC(Rational Polynomial Coefficient)의 제작을 위해서는 해당 영상에 대한 3차원 센서모델을 구성한 후 외부 표정요소의 계산이 필요하다.
3차원 센서모델은 원 영상 좌표를 이용하여 모형화하였기 때문에 세그먼트 모델의 영상좌표는 원 영상 좌표로 역변환되어야 한다.
세그먼트 모델은 원 영상으로부터 변환된 입체시 영상을 다시 분할하여 제작한 것이므로 도2의 세그먼트 모델과 입체시 영상과 원 영상의 관계설정 파라미터가 사용될 수 있다.
센서모델로부터 RFM 모델의 RPC를 계산하는 방법은 수치 사진 측량학 분야에 서 많은 연구가 진행되어 왔으며, 그 기본적인 아이디어는 유사하지만 실제 구현하는 방법은 매우 다양하다.
RFM 모델의 경우 주어진 RPC를 활용하는 장비는 상용으로 공개되고 누구나 활용할 수 있는 반면, RPC를 제작할 수 있는 장비는 상용으로 공개되어 있지 않으며, 단지 IKONOS 및 QuickBird 위성의 표준 영상 생성을 위한 전용 장비에서만 실제로 적용하여 활용되고 있는 것으로 알려져 있다.
본 발명의 실시 예에서는 지상의 위치를 알고 있는 지상기준점을 이용하여, 국소직각 좌표계 상에서 센서모델을 수행하는 방법을 사용함으로 RPC의 계산과정에 경중률 및 라그랑지(lagrange) 계수 등의 부가적인 모수(母數)를 포함하지 않았다.
모수란 통계학에서 모집단(母集團)의 특성을 나타내는 정수(定數)를 의미한다.
본 발명의 실시 예에서 세그먼트 모델에 대한 RPC 제작 단계는 센서 모델에 대한 지상 기준점을 계산하는 과정과, 국소 직각 좌표계에서 지상 기준점에 대응되는 가상 공간의 격자점을 계산하여 지상좌표를 계산하는 과정과, 지상 기준점과 지상좌표를 연결하는 공선방정식을 구하는 과정과, 상기 공선방정식으로 이용하여 대상 영역의 최대, 최소 고도값을 자동으로 생성하는 과정과, 상기 산출 값을 이용하여 관측 방정식을 구하는 과정과, 상기 관측 방정식에 최소제곱법을 적용하여 RPC를 결정하는 과정으로 이루어진다.
도5는 본 발명의 실시 예에서 세그먼트 모델의 RPC를 제작하기 위한 화면의 예시도이다. 도5의 화면에서 대상 영상이 포함되어 있는 지역의 최대, 최소 고도값 을 자동으로 식별할 수 있으며 고도 간격과 격자 간격을 임의로 설정할 수 있다.
따라서, 위성영상의 RPC와 같은 바이어스(bias) 성분이 편향된 오차 특성이 없고, 국소 직각 좌표계 내에서 센서 모델링을 수행하기 때문에 지도 좌표계를 사용할 경우 유발되는 지구 곡률에 대한 오차를 포함하지 않으며, 모델링 대상영역이 좌표계 원점과 가까운 거리에 위치해 있기 때문에 상대오차가 적다.
또한, 대상영역 내의 고도한계 범위만을 대상으로 하기 때문에 RFM 모델의 정확도 저하를 방지할 수 있으며, 부가적인 모수를 사용하지 않기 때문에 계산속도가 매우 빠른 장점을 갖는다.
일반적으로 RPC의 정확도는 센서모델과 얼마나 일치하는가를 이용하여 판단한다. 본 발명에 사용된 방법을 적용한 정확도 결과는 도3의 표에 도시하였으며, 이에 도시된 바와 같이 수 cm 정도의 정확도를 유지할 수 있다.
한편, 본 발명의 실시 예에서는 IBPPS에 세그먼트 모델의 축소영상을 포함시킬 수 있다.
이는 세그먼트 모델은 원 영상과 동일한 해상도를 유지하므로 원 영상과 유사한 수준으로 정확한 관측을 할 수 있지만, 입체영상이 대용량이기 때문에 발생하는 간단한 확인 작업에서의 불편을 해결하기 위한 것이다
따라서, 간단한 관측기능을 지원하기 위해 처리가 용이한 크기로 해상도를 변경한 축소 세그먼트 모델을 별도로 포함한다.
그리고, 사용자가 축소 세그먼트 모델을 이용하여 3차원 좌표를 측정할 수 있어야 하기 때문에 축소 세그먼트모델에 대한 RPC 계수도 계산한다.
축소 세그먼트 모델은 세그먼트 모델과는 독립된 영상쌍 파일임으로, 축소 세그먼트 모델과 그에 대응하는 RPC를 제작하는 방법은 세그먼트모델과 동일한 방법을 이용한다.
상기와 같이 제작되는 축소 세그먼트 모델은 저해상도이기 때문에 해상도 저하를 식별할 수 있는 축적 변환 모수가 추가된다.
본 발명에서는 모든 과정을 자동화하여 하나의 버튼 클릭으로 RPC를 생성할 수 있도록 한다.
또한, 본 발명의 실시 예에 따른 IBPPS는 상기와 같은 과정으로 제작된 자료의 정확도를 확인하기 위한 진단점 자료, 이격 자료, 정확도 평가자료 등이 포함된다. 이러한 정보는 사용자에게 자료에 대한 신뢰성을 확인시키기 위한 것이다.
5. 제5 단계는 진단점 자료를 제작하는 과정이다.
도6은 진단점 자료 제작을 위한 화면의 예시도이다.
본 발명의 실시 예에서는 도6의 화면에 여색입체/편광입체로 도시한 상태에서 마우스 또는 트랙볼을 이용하여 진단점의 지상좌표를 측정하며, 자료의 신뢰성 확보를 위해 여러 차례 반복 측정한 결과를 평균하여 기록한다.
상기 과정으로 제작된 진단점 자료는 IBPPS의 관측 정확도를 사전에 확인하기 위한 자료로 사용되며, 각 세그먼트 모델에 하나 이상이 포함되어야 한다.
진단점의 영상위치와 3차원 좌표값은 사전에 IBPPS에 포함되어 사용자가 측정작업 수행 전에 진단점을 측정할 수 있도록 한다.
따라서, 측정결과와 진단점의 좌표값을 비교하여 오차가 작을 경우에만 관측 작업을 진행하도록 한다.
6. 제6 단계는 이격 자료를 제작하는 과정이다.
이격 자료는 둘 이상의 인접한 IBPPS 간 또는 세그먼트모델 간에 중복되는 지역 내에 공통되는 지점들을 관측한 지상좌표 결과들의 차이를 기록한 자료이다.
이격 자료는 기본적으로 2개 이상의 세그먼트 모델에서 관측되어야 하므로 중복영역을 식별하고, 하나의 세그먼트 모델을 도시하여 3차원 좌표를 측정한 후, 다시 다른 세그먼트 모델을 도시하여 동일한 위치의 3차원 좌표를 측정하는 과정으로 제작된다.
도7은 본 발명의 실시 예에서 이격자료 제작을 위한 화면의 예시도이다.
도7의 화면을 살펴보면, 제작하고자 하는 IBPPS에 포함되어 있는 모든 세그먼트 모델 영역에 대한 범위를 사각형으로 표현할 수 있도록 하여 세그먼트 모델들간의 중복/배치 현황을 쉽게 확인하고, 이격자료 제작 대상 영역 및 관측대상 점의 수 등을 쉽게 설정할 수 있음을 알 수 있다.
이격자료의 관측대상 지점은 자동상관 매칭방법을 이용하여 결정함으로써 제작자가 육안으로 관측함에 의한 시간 소요를 단축시키게 된다.
통상적으로 자동상관매칭은 좌측 영상에 대해 소정크기의 기준영역을 설정하고 우측 영상에 대해 상기 기준영역이 존재할 가능성이 있는 크기의 검색영역을 설정하여 기준 영역을 검색 영역 내에서 한 화소씩 이동시켜 상관계수를 계산하는 것이다. 즉, 기준 영역이 검색 영역 내의 어느 위치에 부합되는지를 결정하기 위한 기준 영역을 검색 영역 내에서 이동시키면서 상관 계수를 계산한 후 상관 계수 값 이 가장 클 때의 위치를 결정하는 것이다.
7. 제7 단계는 정확도 평가 자료를 제작하는 과정이다.
정확도 자료는 절대 정확도와 상대정확도 자료로 구분되며, 이는 좌표 변환 및 적용하는 기준계에 따라 좌표 차이가 발생하는데 위치 관계에 대한 정확성을 표현하는 기준을 제시하여 통계적으로 의미있는 정확도 값을 추정하기 위한 것이다.
먼저, 절대 정확도는 관측된 지점에 대한 3차원 좌표를 RPC를 이용하여 계산된 결과와 센서모델로부터 계산된 결과의 차를 이용하여 계산한다.
그리고, 상대 정확도는 동일 기준계에서의 상대적인 위치 관계에 대한 정확성을 표현하는 기준으로 사용되는데, 특정 기준계 내에서의 2개 임의점 간의 상대거리 및 상대 고도값을 이용하여 계산된다. 즉, 임의의 두 점의 기준좌표를 알고 있고 IBPPS 내에서 그 두 점의 좌표를 알고 있을 때 기준좌표들간의 좌표차와 측정한 좌표들간의 좌표차를 이용하여 상대 정확도를 계산한다.
상대 정확도 계산을 위한 거리 단위는 0~2km, 2~10km, 10~30km, 30~60km, 60km 이상으로 구분된다. 일반적으로 두 점간의 거리가 멀수록 상대 정확도는 저하된다.
상대정확도는 측정한 점들 중에서 거리 단위에 포함되는 임의의 2개점의 쌍을 이용하여 계산하므로 무수히 많은 경우에 대한 계산과정이 필요하며 계산된 결과를 통계적으로 분석하여 정확도를 표현하여야 한다.
따라서, 본 발명의 실시 예에서는 통계적으로 의미가 있도록 최소 30점 이상의 정확도 평가자료를 자동상관매칭방법으로 생성한다. 이때, 정확도 평가를 위한 50% 신뢰수준의 CEP(Circular Error Probable) 및 LEP(Linear Error Probable)를 자동으로 계산한다.
도8은 본 발명의 실시 예에서 정확도 평가 자료를 제작하기 위한 화면의 예시도이다.
그런데, 위성영상 입체쌍의 촬영 간격이 길거나, 촬영 입사각의 차이가 클 경우 자동상관매칭에 의한 영상좌표 관측이 매우 어렵다.
따라서, 이러한 경우 자동상관 매칭 방법에 의해 추출된 영상좌표를 편집하는 작업이 반드시 필요하다.
본 발명의 실시 예에서는 여색입체/편광입체 장치를 이용하여 매칭에 의해 추출된 결과를 확인하고, 편집이 필요할 경우 입체환경에서 마우스 및 트랙볼을 이용하여 영상좌표를 관측하여 영상점을 이동시키고 필요 시 추가 및 삭제를 실행하여 이격자료 및 정확도 평가자료를 편집하게 된다.
도8의 화면에서 이격자료, 정확도 평가자료 제작을 위해 여색입체, 편광입체, 마우스 커서 및 트랙볼 커서 장치를 이용하여 관측자료를 편집할 수 있다.
8. 제8 단계는 불량지역 식별자료를 제작하는 과정이다.
세그먼트모델 영상은 일반영상과 같이 직각사각형의 형태로 저장되지만, 실제 지형이 포함된 지역은 위성의 궤도 및 경사촬영에 의해 임의의 다각형 형태로 구성되어 있어 불필요한 영역을 포함되는 것은 물론 지형정보 추출이 어려운 바다, 강, 구름, 눈 등의 영역이 포함된다.
따라서, IBPPS에는 좌표 관측이 용이하지 않거나 불가능한 지역을 사전에 식 별하여 그 정보를 벡터 형태 또는/및 일반 텍스트 형태로 포함하게 된다.
이러한 정보는 사용자가 임의의 지역을 관측할 때 정확도가 낮다고 안내하거나 관측 불가능을 안내하는데 활용된다.
본 발명의 실시 예에서는 도9의 화면에서 불량지역 식별자료를 제작할 수 있다. 도9는 불량지역 식별자료 제작을 화면의 예시도이다.
기존에는 영상에 대한 불량지역 정보를 활용하지 않으므로 정보가 없는 영역에 대해서도 자동상관매칭을 적용하지만, 본 발명에서는 관측이 용이하지 않거나 불가능한 지역에 대해서는 자동상관 매칭이 적용되는 대상영역에서 제외시킴으로써 관측 결과에 포함될 수도 있는 오차요인을 제거하여 작업시간을 상당히 단축시키게 된다.
9. 제9 단계는 CADRG 재구성을 수행하는 과정이다.
IBPPS는 대상지역에 대한 조감 및 검색이 용이하도록 동일지역의 축척 1/250,000 CADRG(Compressed Arc Digitized Raster Graphics)을 포함한다.
CADRG는 ADRG를 압축한 형태의 자료이다. 상기 ADRG(Arc Digitized Raster Graphics)는 종이지도를 스캐닝하고 이를 지리 부호화한 래스터(Raster) 형태의 수치지도이다.
CADRG는 파일의 효율적 관리를 위해 보통 작은 단위의 격자화된 파일(frame이라고도 함)로 구성되어 있으며, A.TOC라고 하는 메타파일에서 각 프레임의 정보를 관리하고 있다. 즉, A.TOC를 조사하면 어떤 위치에 어떤 단위파일이 있는지를 알 수 있다.
IBPPS는 CADRG의 단위 프레임에 대해 어떠한 수정도 하지 않고 대상영역에 해당되는 파일만을 읽어 재구성하여 포함시킨다.
도10은 본 발명의 실시 예에서 CADRG 재구성을 위한 화면의 예시도이다.
따라서, 도10의 화면에서 대상영역에 해당하는 CADRG 프레임을 식별하여 대상영역에 해당되는 파일만을 자동으로 발췌하고 이를 IBPPS의 구조에 맞게 자동으로 재구성하게 된다.
10. 제10 단계는 IBPPS용 NITF 파일을 제작하는 과정이다.
IBPPS는 Master Product File라는 파일로 관리되며, CADRG, 세그먼트 모델 및 축소 세그먼트 모델로 구성된다.
IBPPS는 CADRG 수치지도, CGM(Computer Graphic Metafile) 형태의 부호자료, 텍스트형태의 설명자료 등의 다양한 부가자료를 포함함으로 이 자료들을 효과적으로 관리하기 위해 NITF 형태의 파일 구조로 저장하게 된다.
상기 NITF(National Imagery Transformation Format, 예로 Mil-STD-2500B)는 다양한 래스터 영상자료, 벡터자료, 부호 등 GIS(Geographic Information System : 지리정보 시스템)에서 사용하는 대부분의 자료구조를 포함하는 매우 확장성이 크고 복잡한 파일 형식이다.
이러한 구성의 IBPPS는 DVD를 기록매체로 하기 때문에 CADRG 프레임 파일들을 하나의 디렉토리 내에 저장하는 구조를 갖는다.
또한, IBPPS에 포함되는 부호자료와 텍스트 설명자료를 제외한 모든 부가정보자료는 IBPPS에만 적용되는 'Extension'이라는 형태의 고유한 구조로 각각의 파 일에 포함된다.
따라서, 본 발명에서는 IBPPS에 Extension이라는 구조를 포함하고 있어 파일 제작자가 자료 구조를 임의로 생성할 수 있다.
도11은 IBPPS용 NITF 파일 제작을 위한 화면의 예시도이다.
따라서, 사용자가 자료의 물리적 저장위치, 자료의 용량, 자료의 개수 등에 대한 정보를 알고 있지 않아도 윈도우의 탭 기능을 이용한 도11의 화면에서 다양하고 복잡한 자료를 NITF 형식으로 구성하여 간단하고 편리하게 IBPPS를 제작할 수 있다.
상기와 같은 과정으로 생성된 3차원 공간정보에 대한 자료는 저장매체(예로, DVD)에 기록되어 제공될 수 있다. 또한, IBPPS 자료는 CADRG 단위 파일로 하나의 디렉토리에 기록된다.
따라서, 상기 과정을 수행하도록 제작된 소프트웨어 또는 그 소프트웨어에 의해 제작된 자료를 컴퓨터에서 실행할 수 있도록 저장 매체에 기록하여 제공할 수 있다.
이에 따라, 기록 매체 또는 통신매체를 통해 제공받은 IBPPS를 이용하여 대상물의 3차원 좌표를 측정하고 그 측정된 3차원 좌표의 정확도를 확인할 수 있다.
한편, 상기에서 본 발명의 바람직한 실시예를 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경할 수 있음을 이해할 수 있을 것이다.
상기에서 상세히 설명한 바와 같이 본 발명은 IBPPS에 포함된 세그먼트 모델과 입체시 영상 및 원 영상의 관계를 명확하게 설정할 수 있는 3차원 공간정보에 대한 자료 제작 방법을 단순화 및 자동화함으로써 빠른 시간에 간편하고 편리하게 자료를 제작할 수 있는 효과를 발휘하게 된다.
또한, 본 발명은 진단점 자료, 이격 자료, 정확도 평가 자료를 제공함으로써 다양한 3차원 편집 장비를 이용하여 간편하게 편집이 가능하도록 하는 효과가 있다.

Claims (35)

  1. 3차원 공간정보를 생성하는 방법에 있어서
    원 영상으로부터 3차원 센서 모델을 생성하는 단계와,
    상기 3차원 센서 모델을 입체시 영상으로 가공하는 단계와,
    상기 입체시 영상으로부터 다수의 세그먼트 모델로 분할하는 단계와,
    상기 세그먼트 모델에 대한 RPC를 계산하는 단계와,
    상기 세그먼트 모델에 대한 자료(진단점, 이격점, 정확도 평가, 불량지역 식별)를 생성하는 단계와,
    대상영역의 수치지도를 CADRG 파일로 재구성하는 단계와,
    상기 세그먼트 모델 파일 및 CADRG 파일 및 자료를 NITF 형태의 IBPPS 자료로 제작하는 단계를 수행하도록 구성함을 특징으로 하는 이미지 기반의 공간 정보 구축 방법.
  2. 제1항에 있어서, 3차원 센서 모델은
    원 영상에 대한 3차원 센서 모델의 외부 표정(標定)요소가 부가되는 것을 특징으로 하는 이미지 기반의 공간 정보 구축 방법.
  3. 제1항에 있어서, 3차원 센서 모델의 입체시 영상은 여색입체 방식 또는 편광입체 방식을 이용하여 가공하는 것을 특징으로 하는 이미지 기반의 공간 정보 구축 방법.
  4. 제1항에 있어서, 3차원 센서 모델 생성 단계는
    좌측영상과 우측영상으로 이루어진 영상 쌍의 각 영상에서 공통으로 존재하는 국소 직각 좌표계 상에서 특정점을 관측하고 그 특정점에 대응하는 점의 지상 좌표를 구하는 과정과,
    상기 지상 좌표와 지상 기준점의 영상점 및 촬영시점의 위치를 연결하는 공선의 방정식을 구하는 과정과,
    상기 공선 방정식을 이용하여 상기 영상쌍의 3차원 센서 모델을 생성하는 과정으로 이루어짐을 특징으로 하는 이미지 기반의 공간 정보 구축 방법.
  5. 제1항에 있어서, 세그먼트 모델 분할은
    입체시 영상을 입체 도시한 상태에서 실행되는 것을 특징으로 하는 이미지 기반의 공간 정보 구축 방법.
  6. 제1항에 있어서, 세그먼트 모델은
    입체시 분할영상(세그먼트 모델)과 입체시 영상과 원 영상의 관계 설정을 정의하는 파라미터가 적용되는 것을 특징으로 하는 이미지 기반의 공간 정보 구축 방법.
  7. 제1항에 있어서, 세그먼트 모델 분할 단계는
    분할된 세그먼트 모델에 대해 해상도를 변환한 축소 세그먼트 모델을 제작하는 과정을 포함하여 실행하는 것을 특징으로 하는 이미지 기반의 공간 정보 구축 방법.
  8. 제7항에 있어서, 축소 세그먼트 모델은
    해상도를 식별하기 위한 축척 변환 모수가 부가되는 것을 특징으로 하는 이미지 기반의 공간 정보 구축 방법.
  9. 제1항에 있어서, 세그먼트 모델에 대한 RPC 제작 단계는
    센서 모델에 대한 지상 기준점을 계산하는 과정과,
    상기 지상 기준점을 이용하여 관측 방정식을 구하는 과정과,
    상기 관측 방정식에 최소제곱법을 적용하여 RPC를 결정하는 과정으로 이루어짐을 특징으로 하는 이미지 기반의 공간 정보 구축 방법.
  10. 제9항에 있어서, 관측 방정식을 구하는 과정은
    국소 직각 좌표계에서 지상 기준점에 대응되는 가상 공간의 격자점을 계산하여 지상좌표를 계산하는 과정과,
    지상 기준점과 지상좌표를 연결하는 공선방정식을 구하는 과정과,
    상기 공선방정식으로 이용하여 대상 영역의 최대, 최소 고도값을 자동으로 생성하는 과정과,
    상기 산출 값을 이용하여 관측 방정식을 구하는 과정으로 이루어짐을 특징으로 하는 이미지 기반의 공간 정보 구축 방법.
  11. 제10항에 있어서, 고도 간격 및 격자 간격은 임의로 설정하는 것을 특징으로 하는 이미지 기반의 공간 정보 구축 방법.
  12. 제1항에 있어서, 진단점 자료는
    세그먼트 모델에 적어도 하나 이상 포함되는 것을 특징으로 하는 이미지 기반의 공간 정보 구축 방법.
  13. 제1항 또는 제12항에 있어서, 진단점 자료 제작 단계는
    여색입체/편광입체로 도시된 상태에서 진단점의 지상좌표를 측정하는 과정과,
    상기 측정과정을 반복 수행하는 과정과,
    상기 반복 수행된 결과를 평균하여 진단점을 결정하는 과정으로 이루어짐을 특징으로 하는 이미지 기반의 공간 정보 구축 방법.
  14. 제1항에 있어서, 이격 자료 제작 단계는
    둘 이상의 세그먼트 모델 간에 중복 지역을 식별하는 과정과,
    상기 세그먼트 모델 각각의 3차원 좌표를 측정하는 과정과,
    자동상관매칭방법을 이용하여 이격 거리를 결정하는 과정으로 이루어짐을 특징으로 하는 이미지 기반의 공간 정보 구축 방법.
  15. 제1항에 있어서, 정확도 평가자료 제작 단계는
    소정 개수 이상의 관측점을 선정하는 과정과,
    상기 관측점에 대한 3차원 좌표를 계산하는 과정과,
    상기 다수의 관측점에 대한 3차원 좌표에 대해 자동상관매칭방법을 적용하여 정확도를 계산하는 과정으로 이루어짐을 특징으로 하는 이미지 기반의 공간 정보 구축 방법.
  16. 제15항에 있어서, 관측점의 3차원 좌표는
    RPC로 계산된 결과 센서모델로부터 계산된 결과의 차로부터 계산하는 것을 특징으로 하는 이미지 기반의 공간 정보 구축 방법.
  17. 제15항에 있어서, 관측점의 3차원 좌표는
    특정 기준계 내에서의 임의의 점들간의 위치관계를 계산하고 그 계산된 결과의 차로부터 계산하는 것을 특징으로 하는 이미지 기반의 공간 정보 구축 방법.
  18. 제15항에 있어서, 정확도 평가를 위한 정확도 평가 모수(CEP : Circular Error Probable, LEP : Linear Error Probable)을 자동으로 계산하는 과정을 포함하는 것을 특징으로 하는 이미지 기반의 공간 정보 구축 방법.
  19. 제14항 또는 제15항에 있어서,
    여색입체/평관입체 장치 및 마우스를 이용하여 결과를 확인하는 단계와,
    편집이 필요한 경우 입체시 환경에서 영상좌표를 관측하여 영상점 이동, 추가 또는 삭제를 실행하는 단계를 더 포함하여 이루어짐을 특징으로 하는 이미지 기반의 공간 정보 구축 방법.
  20. 제1항에 있어서, 불량지역 식별자료 제작 단계는
    관측 대상 지역에 좌표 관측이 용이하지 않거나 불가능한 지역이 있는지 식별하는 과정과,
    상기에서 식별된 지역 정보를 저장하는 과정으로 이루어짐을 특징으로 하는 이미지 기반의 공간 정보 구축 방법.
  21. 제20항에 있어서, 관측이 용이하지 않거나 불가능한 지역의 식별정보는 벡터 형태 또는 텍스트 형태로 저장되는 것을 특징으로 하는 이미지 기반의 공간 정보 구축 방법.
  22. 제20항 또는 제21항에 있어서, 식별 정보는 해당 지역 관측 시에 해상도 저 하 또는 관측 불가능을 안내하는 정보로 활용하는 것을 특징으로 하는 이미지 기반의 공간 정보 구축 방법.
  23. 제20항에 있어서, 관측이 용이하지 않거나 불가능한 지역에 대해 자동상관매칭 대상 영역에서 제외시키는 과정을 포함하여 이루어짐을 특징으로 하는 이미지 기반의 공간 정보 구축 방법.
  24. 제1항에 있어서, NITF 형태의 IBPPS 자료는
    CADRG 단위 파일로 기록매체에 하나의 디렉토리에 기록되는 것을 특징으로 하는 이미지 기반의 공간 정보 구축 방법.
  25. 제1항 또는 제24항에 있어서, NITF 형태의 IBPPS 자료는
    사용자 임의로 자료 구조를 생성할 수 있는 부가 정보를 포함하는 것을 특징으로 하는 이미지 기반의 공간 정보 구축 방법.
  26. 3차원 공간정보를 생성하는 시스템에 있어서
    원 영상으로부터 3차원 센서 모델을 생성하고 그 상기 3차원 센서 모델을 입체시 영상으로 가공하는 제1 수단과,
    상기 입체시 영상으로부터 다수의 세그먼트 모델로 분할하고 그 세그먼트 모델에 대한 RPC를 계산하는 제2 수단과,
    상기 세그먼트 모델에 대한 자료(진단점, 이격점, 정확도 평가, 불량지역 식별)를 자동상관매칭을 이용하여 생성하는 제3 수단과,
    대상영역의 수치지도를 CADRG 파일로 재구성하여 상기 세그먼트 모델 파일 및 CADRG 파일 및 자료를 NITF 형태의 IBPPS 자료로 제작하는 제4 수단을 포함하여 구성함을 특징으로 하는 이미지 기반의 공간 정보 구축 시스템.
  27. 제26항에 있어서, 제2 수단은
    입체시 영상을 입체 도시한 상태에서 세그먼트 모델 분할 및 각 세그먼트에 대한 축소 세그먼트 모델 분할을 실행하고, 상기 세그먼트 모델과 축소 세그먼트 모델에 대한 RPC를 계산하도록 구성함을 특징으로 하는 이미지 기반의 공간 정보 구축 시스템.
  28. 제27항에 있어서, 세그먼트 모델은 입체시 분할영상(세그먼트 모델)과 입체시 영상과 원 영상의 관계 설정을 정의하는 파라미터가 적용되고, 축소 세그먼트 모델은 해상도를 식별하기 위한 축척 변환 모수가 부가되는 것을 특징으로 하는 이미지 기반의 공간 정보 구축 시스템.
  29. 제26항에 있어서, 제3 수단은
    관측 정확도를 확인하기 위해 세그먼트 모델에 적어도 하나 이상 포함되는 진단점 자료를 제작하는 제1 모듈과,
    둘이상의 인접한 IBPPS간 또는 세그먼트 모델간에 중복지역 내에 공통되는 지점을 관측한 지상좌표 결과들의 차이를 기록하기 위한 이격 자료를 제작하는 제2 모듈과,
    기준계에서 위치 관계에 대한 정확성을 표현하기 위한 정확도 평가 자료를 제작하는 제3 모듈과,
    관측 대상 지역 내에 포함되는 관측이 용이하지 않거나 불가능한 지역을 식별하기 위한 정보를 제작하는 제4 모듈을 포함하여 구성함을 특징으로 하는 이미지 기반의 공간 정보 구축 시스템.
  30. 제29항에 있어서, 진단점 자료 제작을 위한 제1 모듈은
    여색입체/평관입체로 도시된 상태에서 진단점의 지상좌표를 측정을 반복하고 그 측정 결과를 평균하여 진단점을 결정하도록 구성함을 특징으로 하는 이미지 기반의 공간 정보 구축 시스템.
  31. 제29항에 있어서, 이격 자료 제작을 위한 제2 모듈은
    둘 이상의 세그먼트 모델 간에 중복 지역을 식별함과 아울러 상기 세그먼트 모델 각각의 3차원 좌표를 측정하고 상기 정보에 대해 자동상관매칭방법을 적용하여 이격 거리를 결정하도록 구성함을 특징으로 하는 이미지 기반의 공간 정보 구축 시스템.
  32. 제29항에 있어서, 정확도 평가자료 제작을 위한 제3 모듈은
    소정 개수 이상의 관측점을 선정하여 3차원 좌표를 계산하고 상기 3차원 좌표에 대해 자동상관매칭방법을 적용하여 정확도를 계산하고 정확도 평가 모수(CEP : Circular Error Probable, LEP : Linear Error Probable)을 계산하도록 구성함을 특징으로 하는 이미지 기반의 공간 정보 구축 시스템.
  33. 제32항에 있어서, 관측점의 3차원 좌표는
    RPC로 계산된 결과 센서모델로부터 계산된 결과의 차로부터 계산하거나 특정 기준계 내에서의 임의의 점들간의 위치관계를 계산한 결과의 차로부터 계산하는 것을 특징으로 하는 이미지 기반의 공간 정보 구축 시스템.
  34. 제29항에 있어서, 진단점 자료, 이격 자료, 정확도 평가 자료에 대해 여색입체/평관입체 장치 및 마우스를 이용하여 입체시 환경에서 영상좌표를 관측하고 영상점 이동, 추가 또는 삭제 등의 편집을 실행하는 모듈을 더 포함하여 이루어짐을 특징으로 하는 이미지 기반의 공간 정보 구축 시스템.
  35. 제29항에 있어서, 불량지역 식별자료 제작을 위한 제4 모듈은
    관측 대상 지역에 좌표 관측이 용이하지 않거나 불가능한 지역이 있는지 식별하고 그 식별된 지역 정보를 이용하여 벡터 형태 또는 텍스트 형태로 저장하도록 구성함을 특징으로 하는 이미지 기반의 공간 정보 구축 시스템.
KR1020050048560A 2005-06-07 2005-06-07 이미지 기반의 공간 정보 구축 방법 및 시스템 KR100709142B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020050048560A KR100709142B1 (ko) 2005-06-07 2005-06-07 이미지 기반의 공간 정보 구축 방법 및 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020050048560A KR100709142B1 (ko) 2005-06-07 2005-06-07 이미지 기반의 공간 정보 구축 방법 및 시스템

Publications (2)

Publication Number Publication Date
KR20060127519A true KR20060127519A (ko) 2006-12-13
KR100709142B1 KR100709142B1 (ko) 2007-04-20

Family

ID=37730573

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020050048560A KR100709142B1 (ko) 2005-06-07 2005-06-07 이미지 기반의 공간 정보 구축 방법 및 시스템

Country Status (1)

Country Link
KR (1) KR100709142B1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100818340B1 (ko) * 2006-11-01 2008-04-01 (주)이지스 3차원 건축물의 지붕면 산출 방법과, 지붕 영상 맵핑 방법
KR101942065B1 (ko) * 2018-07-26 2019-01-24 아이씨티웨이주식회사 불분명 영상이미지의 합성 처리를 통한 수정방식의 영상처리 및 관리시스템
CN112037296A (zh) * 2020-07-13 2020-12-04 国家海洋信息中心 一种大洋矿区申请图件的绘制方法

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101602631B1 (ko) 2014-11-07 2016-03-11 국방과학연구소 Rpc 번들조정 모델 ap와 영상변환 오차전파를 이용한 에피폴라 영상의 rpc 불확성치 결정 방법 및 장치
KR101663642B1 (ko) 2015-09-14 2016-10-07 국방과학연구소 Ap와 직접변환 센서 모델 기법을 이용한 휘스크 브룸 센서 모델 방법 및 장치

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1164014A (ja) * 1997-08-11 1999-03-05 Nippon Signal Co Ltd:The 測位装置、地域情報提供装置及び課金装置
KR100477964B1 (ko) * 2002-11-01 2005-03-23 서용철 지구 측위 위성 시스템의 평가 시스템 및 그 방법
KR20040055510A (ko) * 2002-12-21 2004-06-26 한국전자통신연구원 소수의 지상 기준점을 이용한 이코노스 알피씨 데이터갱신방법
KR100461850B1 (ko) * 2004-10-15 2004-12-16 주식회사 자티전자 위치 정보 검색 시스템 및 위치 정보 검색 방법

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100818340B1 (ko) * 2006-11-01 2008-04-01 (주)이지스 3차원 건축물의 지붕면 산출 방법과, 지붕 영상 맵핑 방법
KR101942065B1 (ko) * 2018-07-26 2019-01-24 아이씨티웨이주식회사 불분명 영상이미지의 합성 처리를 통한 수정방식의 영상처리 및 관리시스템
CN112037296A (zh) * 2020-07-13 2020-12-04 国家海洋信息中心 一种大洋矿区申请图件的绘制方法
CN112037296B (zh) * 2020-07-13 2024-05-14 国家海洋信息中心 一种大洋矿区申请图件的绘制方法

Also Published As

Publication number Publication date
KR100709142B1 (ko) 2007-04-20

Similar Documents

Publication Publication Date Title
Gupta et al. Application of drone for landslide mapping, dimension estimation and its 3D reconstruction
Sevara et al. Surfaces from the visual past: Recovering high-resolution terrain data from historic aerial imagery for multitemporal landscape analysis
Gao et al. High-resolution mapping based on an Unmanned Aerial Vehicle (UAV) to capture paleoseismic offsets along the Altyn-Tagh fault, China
Lamsal et al. Digital terrain modelling using Corona and ALOS PRISM data to investigate the distal part of Imja Glacier, Khumbu Himal, Nepal
KR100912715B1 (ko) 이종 센서 통합 모델링에 의한 수치 사진 측량 방법 및장치
US8139111B2 (en) Height measurement in a perspective image
Bolkas Assessment of GCP number and separation distance for small UAS surveys with and without GNSS-PPK positioning
Chandler et al. Autodesk 123D catch: how accurate is it
Maurer et al. Tapping into the Hexagon spy imagery database: A new automated pipeline for geomorphic change detection
CN109961510B (zh) 一种基于三维点云重构技术的高切坡地质快速编录方法
US20100189343A1 (en) Method and apparatus for storing 3d information with raster imagery
KR100904078B1 (ko) 항공 사진의 영상정합을 이용한 3차원 공간 정보 생성 시스템 및 방법
WO2008103804A2 (en) Iterative region-based automated control point generation
Giribabu et al. Improving Cartosat-1 DEM accuracy using synthetic stereo pair and triplet
Sevara Top secret topographies: recovering two and three-dimensional archaeological information from historic reconnaissance datasets using image-based modelling techniques
Krishnan et al. DEM generation using Cartosat-I stereo data and its comparison with publically available DEM
KR100709142B1 (ko) 이미지 기반의 공간 정보 구축 방법 및 시스템
JP2007193850A (ja) 変化領域認識装置
Durand et al. Qualitative assessment of four DSM generation approaches using Pléiades-HR data
Saponaro et al. Geometric accuracy evaluation of geospatial data using low-cost sensors on small UAVs
CN116051980B (zh) 基于倾斜摄影的建筑识别方法、系统、电子设备及介质
Ahmad et al. Generation of three dimensional model of building using photogrammetric technique
Gupta et al. 3D reconstruction of a landslide by application of UAV and structure from motion
CN114136335A (zh) 一种基于无人机倾斜摄影测量的空中三角形精度分析方法
Schwind Comparing and characterizing three-dimensional point clouds derived by structure from motion photogrammetry

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment
FPAY Annual fee payment
LAPS Lapse due to unpaid annual fee