KR20040017604A - 자동 영상등록 및 보정을 위한 영상 처리방법 - Google Patents

자동 영상등록 및 보정을 위한 영상 처리방법 Download PDF

Info

Publication number
KR20040017604A
KR20040017604A KR1020020049753A KR20020049753A KR20040017604A KR 20040017604 A KR20040017604 A KR 20040017604A KR 1020020049753 A KR1020020049753 A KR 1020020049753A KR 20020049753 A KR20020049753 A KR 20020049753A KR 20040017604 A KR20040017604 A KR 20040017604A
Authority
KR
South Korea
Prior art keywords
image
point
matching
target image
reference point
Prior art date
Application number
KR1020020049753A
Other languages
English (en)
Other versions
KR100488685B1 (ko
Inventor
김태정
임용조
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR10-2002-0049753A priority Critical patent/KR100488685B1/ko
Priority to US10/264,071 priority patent/US7127085B2/en
Publication of KR20040017604A publication Critical patent/KR20040017604A/ko
Application granted granted Critical
Publication of KR100488685B1 publication Critical patent/KR100488685B1/ko

Links

Classifications

    • G06T5/80
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/35Determination of transform parameters for the alignment of images, i.e. image registration using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/754Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries involving a deformation of the sample pattern or of the reference pattern; Elastic matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features

Abstract

본 발명은 위성영상이나 일반영상에 대해 영상정합과 영상등록 및 정밀보정과정을 자동으로 수행하는 방법에 관한 것이다.
본 발명의 영상 처리방법은, 기준 영상(reference image)과, 상기 기준 영상의 기준점 칩(CP chips)과, 상기 기준 영상과 기준점 칩의 지리좌표와 투사각과 방위각을 포함하는 보조정보를 데이터베이스에 저장한 컴퓨터 시스템에서, 타겟영상과 상기 타겟영상의 대략적인 위치정보와 투사각과 방위각 정보를 포함한 보조정보가 입력되면, 상기 타겟영상이 포함되는 지역에 해당하는 기준영상을 찾아서 관심영역으로 설정하고, 상기 기준영상의 관심영역 내에 포함된 기준점 칩을 추출하는 기준점 칩 추출단계와; 상기 기준점 칩 추출단계에서 추출된 기준점 칩 내의 기준점에 대한 상기 타겟영상의 정합점을 찾는 영상 정합단계와; 상기 영상 정합단계에서 찾아진 정합결과 중 오정합점을 찾아서 제거하는 오정합점 제거단계와; 상기 오정합점 제거단계를 수행한 후의 상기 정합결과를 이용하여 상기 타겟영상을 지리좌표계로 배열하는 영상 정밀 보정단계를 포함한다.

Description

영상 처리방법 { Image Processing Method }
본 발명은 위성영상이나 일반영상을 처리하는 방법에 관한 것으로서, 보다상세하게는 영상정합과 영상등록 및 정밀보정과정을 자동으로 수행하는 방법에 관한 것이다.
일반적으로, 인공위성이나 항공기를 통하여 관측된 원격탐사 자료는 관측시의 기기상태나 대기조건, 관측대(platform)의 이동방향 및 자세, 지도의 투영법 등에 따라 많은 오류와 왜곡을 포함한다. 이러한 오류와 왜곡은 복원(restoration)되거나 보정(correction)되어야 하는데, 이때 주로 수집된 영상의 기하학적 형태와 기준 지도와의 차이를 보정하는 기하학적 보정(geometric correction)이 수행된다.
이 기하학적 보정은 영상이 원초적으로 가지고 있는 기하학적 왜곡을 보정하는 처리과정이다. 이 기하학적 보정에는 오류 및 왜곡의 원인을 체계적으로 분석한 결과를 이용한 시스템 보정(system correction)과, 지상 기준점(ground control point)을 이용한 기준점 보정(control point correction)이 있다.
시스템 보정이란, 영상의 수집시 발생하는 관측대의 고도변화 및 흔들림, 관측기기의 광학적 특성, 지형의 기복, 지구의 자전, 지도의 투영법 등 모든 왜곡 원인을 분석하고, 그 분석결과를 사용하여 수집 영상의 왜곡을 복원시키기 위한 역변환(inverse transformation) 체계를 구하고, 그 역변환 체계를 이용하여 수집 영상의 왜곡을 원래 상태로 복원하는 처리방법이다. 이러한 시스템 보정은 수집 영상의 모든 왜곡 원인을 정확히 분석하고 역변환 체계를 구할 수 있다면, 동일한 체계에 포함된 모든 왜곡을 쉽게 보정할 수 있는 장점이 있다. 그러나, 수집 영상의 모든 왜곡 원인을 분석하는 것이 쉽지 않고, 지형의 기복이 심하거나 영상의 분해능이 높은 경우에는 정밀한 보정을 하기 어려운 단점이 있다.
기준점 보정이란, 수집 영상의 왜곡 원인이 아니라 왜곡 정도만을 분석하고, 그 분석결과를 이용하여 수집 영상과 기준 지도간을 연결하는 보정식을 구하고, 그 보정식을 이용하여 영상의 왜곡을 보정하는 처리방법이다. 여기서, 기준점이란 수집된 영상을 기준 지도와 맞추기 위하여 영상과 기준 지도에서 같은 형상을 가진 지점을 추출한 좌표이다.
기준점을 이용하는 왜곡 보정은, 왜곡의 원인을 모르거나 분석이 어려운 경우에도 사용할 수 있고, 정확한 기준점만 추출되면 시스템 보정보다 더 정확하게 영상의 왜곡을 보정할 수 있는 장점이 있다. 그러나, 기준점이 잘못 추출되면 정확한 보정 결과를 얻을 수 없는 단점이 있다. 종래에는 오퍼레이터가 수집 영상과 기준 지도를 육안으로 보면서 수동으로 기준점을 추출하였기 때문에, 기준점을 추출하는 오퍼레이터의 숙련도에 따라 보정결과가 크게 달라지고, 같은 지역이라고 하더라도 관측일이 바뀌면 기준점을 다시 구해야하는 번거로움이 있다. 따라서, 최근 들어 기준점을 자동으로 추출하는 연구가 많이 이루어지고 있다.
지금까지 개발된 기준점 자동 추출방법은 크게 반자동으로 추출하는 방법과, 자동으로 추출하는 방법으로 구분된다.
기준점 반자동 추출법은 대한민국 공개특허 제1999-47500호(1999년 7월 5일 공개)에 기재되어 있다. 이 선행특허는 오퍼레이터가 4개의 기준점을 선택하면, 시스템이 이 4개의 기준점을 이용하여 보정 변환식과 역보정 변환식을 구하고, 새로운 기준점을 추가 선택하고, 영상을 보정하는 방법이 기술되어 있다. 이러한 선행특허는, 초기에 오퍼레이터가 4개 이상의 기준점을 선택하여 입력하여야 하기 때문에 오퍼레이터의 숙련도에 따라 보정결과가 달라지고, 시간이 오래 걸리며 많은 비용이 소요되는 종래기술의 문제점이 그대로 남아있다.
한편, 기준점 자동 추출법에는, 웨이브릿(Wavelet) 방식을 이용하여 영상의 특징을 추출하고 기준점을 추출하는 법, 랜드셋(Landsat) 위성영상에서 자동으로 기준점을 추출하는 법, 다중 분광밴드를 이용하여 자동으로 기준점을 추출하는 법, 제너릭(Generic) 알고리즘에 의해 자동으로 기준점을 추출하는 법, DTM을 이용한 자동 기하보정기법 등이 있다. 이러한 다양한 기준점 자동 추출법은 영상으로부터 자동으로 기준점을 추출하는 방법만 기재되어 있을 뿐, 추출된 기준점에 포함된 오류를 찾아서 극복하는 방법에 대해서는 전혀 기재되어 있지 않다. 따라서, 상술한 기준점 자동 추출법에 따르면 기준점을 자동으로 찾을 수는 있으나 추출된 기준점에 포함된 오류 때문에 정확한 영상등록 및 정밀보정이 어려운 문제점이 있다.
상기와 같은 종래 기술의 문제점을 해결하기 위한 본 발명의 목적은, 자동으로 기준점을 추출하고, 추출된 기준점 중 오정합되는 기준점을 제거하여, 자동으로 영상등록 및 정밀보정을 정확하게 할 수 있는 영상 처리방법을 제공하기 위한 것이다.
도 1은 본 발명에 따른 영상 처리방법을 도시한 동작 흐름도,
도 2는 타겟영상의 보조정보를 이용하여 기준영상의 관심영역을 설정한 상태를 도시한 도면,
도 3은 기준영상과 타겟영상의 방위각에 따라 검색창을 회전한 상태를 도시한 도면,
도 4는 본 발명의 효과를 설명하기 위하여 대전지역에 해당하는 스폿 위성영상을 도시한 도면으로서, (a)는 기준영상이고, (b)는 타겟영상이다.
도 5는 본 발명에 따른 영상 처리방법에 따라 타겟영상의 정합점을 찾고, 찾아진 정합점 중 오정합점을 걸러낸 후 카메라 모델을 수립하고, 정밀보정을 수행한 결과를 도시한 도면이다.
상기한 목적을 달성하기 위한 본 발명에 따른 영상 처리방법은, 기준영상(reference image)과, 상기 기준 영상의 기준점 칩(CP chips)과, 상기 기준 영상과 기준점 칩의 지리좌표와 투사각과 방위각을 포함하는 보조정보를 데이터베이스에 저장한 컴퓨터 시스템에서의 영상 처리방법에 있어서,
타겟영상과 상기 타겟영상의 대략적인 위치정보와 투사각과 방위각 정보를 포함한 보조정보가 입력되면, 상기 타겟영상이 포함되는 지역에 해당하는 기준영상을 찾아서 관심영역으로 설정하고, 상기 기준영상의 관심영역 내에 포함된 기준점 칩을 추출하는 기준점 칩 추출단계와; 상기 기준점 칩 추출단계에서 추출된 기준점 칩 내의 기준점에 대한 상기 타겟영상의 정합점을 찾는 영상 정합단계와; 상기 영상 정합단계에서 찾아진 정합결과 중 오정합점을 찾아서 제거하는 오정합점 제거단계와; 상기 오정합점 제거단계를 수행한 후의 상기 정합결과를 이용하여 상기 타겟영상을 지리좌표계로 배열하는 영상 정밀 보정단계를 포함한 것을 특징으로 한다.
또한, 본 발명에 따른 상술한 바와 같은 영상 처리방법을 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체가 제공된다.
이하, 첨부된 도면을 참조하면서 본 발명의 한 실시예에 따른 "영상 처리방법"을 보다 상세하게 설명하기로 한다.
본 발명은 일반적인 컴퓨터 시스템에서 동작하는 알고리즘이다. 일반적인 컴퓨터 시스템은 통상적인 입출력장치와, 시스템을 전반적으로 제어하는 마이크로 프로세서와, 본 발명에 따른 영상 처리방법 알고리즘을 저장하여 마이크로 프로세서에게 제공하는 롬(ROM)과, 마이크로 프로세서가 본 발명에 따른 영상 처리방법을 수행하는 동안에 일시적으로 발생하는 데이터를 저장하는 램(RAM), 및 본 발명에따른 영상 처리방법을 수행하기 위해 필요한 데이터를 저장하는 데이터베이스를 포함한다.
이 데이터베이스는 기준 영상(reference image)과 기준 영상의 기준점 칩(CP chips), 및 보조정보를 포함한다. 여기서, 기준점 칩이란 기준 영상에서 기준점을 중심으로 일정한 크기만큼 자른 영상을 말한다. 보조정보(ancillary data)는 위성영상을 촬영하는 순간의 위성상태 및 영상상태에 대한 기록을 말하는데, 보조정보에 포함되는 정보는 위성에 따라 약간의 차이가 있으나, 일반적으로 위성영상 촬영시기와, 위성체 정보와, 위성영상의 틸트각(tilt angle)과 투사각(incidence angle)과 방위각(orientation angle) 정보가 포함된다. 위성영상의 촬영시기에는 날짜와 시간 정보가 포함된다. 위성체 정보에는 위성체의 위치와 속도와 같은 궤도정보와, 대략적인 좌표(오차범위 포함)정보가 포함된다. 위성영상의 틸트각은 위성영상 촬영시의 촬영각도이고, 투사각은 지표와 촬영기와의 각도이고, 방위각은 정북방향에서 위성영상 촬영방향과의 각도를 의미한다. 이 외에도 보조정보에는 처리레벨, 교정 파라미터(calibration parameter), 이득/오프셋(gain/offset)값, 영상크기와 같은 정보들이 포함될 수 있다.
도 1은 본 발명에 따른 영상 처리방법을 도시한 동작 흐름도이다.
본 발명의 영상 처리방법은, 타겟영상과 기준영상 사이의 정합점을 찾는 영상 정합단계와, 상기 타겟영상과 기준영상의 정합점 중 오정합된 점을 제거하는 오정합점 제거단계와, 상기 타겟영상을 지리좌표계로 재배열하는 영상 정밀 보정단계로 이루어진다.
영상 처리분야에서 영상 정합이란 동일한 대상물을 촬영한 2장 이상의 입체 영상에서 매칭되는 점을 찾는 과정을 의미한다. 즉, 영상 정합단계는 타겟영상과 그 타겟영상의 보조정보가 입력되면 데이터베이스를 검색하여 타겟영상이 포함되는 지역에 해당하는 기준영상을 찾아서, 그 타겟영상과 기준영상간의 정합점을 찾는 단계이다.
영상 정합단계를 상세하게 설명한다. 컴퓨터 시스템의 통상적인 입출력수단을 통해 타겟영상과 타겟영상의 보조정보가 입력되면(S101), 마이크로 프로세서는 타겟영상의 보조정보를 이용하여 기준영상에서의 관심영역을 지정한다(S102). 이때, 타겟영상의 보조정보로서 타겟영상의 경계 4 모서리(corner) 좌표정보를 이용한다. 타겟영상이 위성영상인 경우, 위성체는 타겟영상의 경계 4 모서리의 좌표정보와 오차범위정보를 보조정보로 제공하는데, 마이크로 프로세서는 타겟영상의 4 모서리로부터 오차범위를 다소 벗어난 영역까지를 관심영역으로 지정한다. 예를 들어, 도 2에 도시된 바와 같이 타겟영상의 경계 4 모서리의 좌표가 C1 내지 C4이고 오차범위가 e 이면, 최종적으로 기준영상의 관심영역(A)은 타겟영상의 경계 4 모서리로부터 오차범위를 포함한 범위로 설정한다.
다음, 그 기준영상의 관심영역 내에 포함된 기준점 칩을 검색하고(S103), 타겟영상에서 그 기준점 칩에 해당하는 지점을 찾기 위해 타겟영상의 검색영역을 지정한다(S104). 이때, 본 발명에서는 타겟영상의 대략적인 위치정보와 실제 위치정보와의 차이를 이용하여 타겟영상의 검색영역을 지정한다. 예를 들어, 스팟(SPOT) 영상에서 위치오차가 대략 ±2km이고 해상도가 10m인 경우, 타겟영상의 검색영역은기준점을 중심으로 가로, 세로 각각 4km에 해당하는 약 400×400픽셀의 영역으로 설정한다.
마이크로 프로세서는 타겟영상에서의 검색영역을 정한 다음, 기준영상의 기준점 칩에 해당하는 지점을 타겟영상의 검색영역에서 검색한다. 이때, 종래에는 고정된 크기의 사각형 검색창을 이용하여 기준영상과 타겟영상을 검색하였으나, 본 발명은 기준영상과 타겟영상의 촬영상태에 따라 검색창의 형태와 크기를 변형한다(S105).
검색창의 형태와 크기를 변형하는 방법으로는, 투사각(incidence angle)을 이용하여 검색창의 크기를 변화시키는 방법과, 틸트각(tilt angle)을 이용하여 검색창의 크기를 변화시키는 방법, 그리고 방위각(orientation)을 이용하여 검색창을 회전시키는 방법이 있다.
투사각을 이용하여 검색창의 크기를 변화시키는 방법은, 아래의 수학식 1과 같이 타겟영상의 투사각의 코사인값(cos(incidence angle of reference point))을 기준영상의 투사각의 코사인값(cos(incidence angle of target point))으로 나눈 결과를 스케일 팩터(scale factor, s)로 하고, 그 스케일팩터를 이용하여 타겟영상의 검색창의 크기를 변화시키는 것이다.
틸트각을 이용하여 검색창의 크기를 변화시키는 방법은 위의 투사각을 이용하여 검색창의 크기를 변화시키는 방법과 유사하다.
방위각을 이용하여 검색창을 회전하는 방법은, 타겟영상의 중심점 좌표(X0, Y0)와, 중심점으로부터 임의의 격자점과의 x방향 및 y방향으로의 거리(dx, dy), 및 타겟영상의 방위각()을 아래의 수학식 2에 적용하여 상기 격자점의 이동점(Xnew, Ynew)을 구하고, 중심점을 중심으로 격자점을 이동시켜서 타겟영상을 중심점을 중심으로 회전한다.
기준영상과 타겟영상의 방위각에 따라 검색창을 회전한 상태를 도 3에 도시한다. 도면에서 (a)는 기준점 칩을 포함한 기준영상이고, (b)는 타겟영상이다. 타겟영상의 검색영역 내에서 기준영상의 기준점과 동일한 지점을 찾아내는 과정이 영상정합과정이다. 이때, 검색창을 타겟영상의 검색영역 내에서 움직이면서 타겟영상의 검색창과 기준영상의 기준점 칩과의 유사도를 측정하는데, 두 영상의 투사각 또는 틸트각에 따라 검색창의 크기를 조절하고 두 영상의 방위각에 따라 검색창을 회전시키면, 검색결과를 향상시킬 수 있다.
다음, 기준영상의 기준점 칩과 타겟영상의 검색창간에 정규화 교차 상관식을 이용하여, 기준영상의 기준점과 정합되는 타겟영상의 정합점을 찾는다(S106). 이로써, 영상 정합단계가 종료한다.
영상 정합단계가 종료하였을 때의 영상 정합 결과는 100% 정확한 것이 아니라 오정합점을 포함한다. 종래의 대부분의 연구나 방법들은 오정합을 최소화하려는 데 중점을 두고 있으나, 본 발명은 정합 결과 중 오정합을 인지하고 제거함으로써, 최종적으로 정합의 정확도를 높이는 방안을 제시한다.
타겟영상의 정합결과에서 오정합을 제거하는 과정을 상세하게 설명한다. 먼저, 영상 정합결과 중에서 무작위로 일부(최소 8개)의 정합결과를 선택하여(S107) 카메라 모델(camera model)을 수립한다(S108). 카메라 모델이란 촬영순간의 위성체의 위치와 자세에 따라 산출된 영상좌표와 지리좌표계와의 관계이다. 카메라 모델이 수립되면 영상의 행, 열 좌표를 지리좌표계 X, Y, Z로 변환할 수 있다. 카메라 모델을 수립하는 기법은 크게 물리적 모델과 추상적 모델, 일반화 모델로 구분된다. 본 발명에서는 굽타(Gupta)와 하트레이(Hartley)가 제안한 추상적 모델인 DLT(Direct Linear Transformation) 모델을 사용하여, 카메라 모델을 수립한다.
본 발명이 적용되는 DLT모델의 경우, 8개의 기준점을 무작위로 추출하고 그 추출된 기준점에 대한 정합결과를 수학식 3에 적용하여 타겟영상의 Mtarget행렬의 m 파라미터를 구한다. 이 타겟영상의 Mtarget행렬이 타겟영상의 카메라 모델이다. 임의로 추출된 8개의 기준점(Xref, Yref, Zref)에 대한 타겟영상의 정합결과(Ctarget, Rtarget)를 수학식 3에 적용하면, Mtarget행렬의 m 파라미터들을 구할 수 있다.
Mtarget행렬이 구해지면, 즉 카메라 모델이 수립되면, 지리좌표계에서 영상좌표로의 변환이 가능해진다.
위의 수학식 3에서, Ctarget과 Rtarget은 타겟영상의 기준점에 대한 영상좌표이며, Xref와 Yref와 Zref는 기준점의 지리좌표이고, m 파라미터들은 타겟영상의 Mtarget행렬이다.
다음, 위와 같이 Mtarget행렬(카메라 모델)을 계산한 후, 카메라 모델 수립에 사용한 8개 기준점 이외의 기준점들을 이용하여 카메라 모델의 정확도를 계산한다(S109). 즉, 카메라 모델 수립에 사용한 기준점 이외의 기준점들을 정확도 계산을 위해 사용하는데, 정확도 계산을 위한 기준점을 수학식 3의 카메라 모델에 적용하여 그 계산결과와 해당 기준점에 대한 정합결과를 비교한다. 기준점에 대한 수학식 3의 계산결과와 정합결과와의 유사정도와, 두 결과가 유사한 기준점의 개수를 이용하여 카메라 모델의 정확도를 계산한다.
다음, 단계 S107 내지 단계 S109를 수행하는데, 영상정합 결과 중 무작위로 8개의 기준점과 그의 정합결과를 새롭게 선택하여 새로운 카메라 모델을 수립하고, 카메라 모델 수립에 사용한 기준점 이외의 기준점들을 이용하여 새롭게 수립된 카메라 모델의 정확도를 계산한다. 상기 단계 S107 내지 단계 S109는 최고로 정확도가 높은 카메라 모델을 찾을 때까지 반복 수행한다(S110). 최고로 정확도가 높은카메라 모델을 찾은 후에는 해당 카메라 모델에 부합되는 기준점과 그의 정합결과는 취하고, 해당 카메라 모델에 부합되는 않는 기준점과 그의 정합결과는 오정합으로 인식한다.
본 발명에서와 같이 무작위로 기준점을 추출하여 카메라 모델을 수립하고 카메라 모델 수립에 사용한 기준점 이외의 기준점으로 카메라 모델의 정확도를 계산하는 과정을 RANSAC(Random Sample Consensus) 알고리즘이라고 한다.
다음, 타겟영상의 카메라 모델이 정확하게 수립되면, 타겟영상의 행, 열 좌표와 카메라 모델을 위의 수학식 3에 적용하여 타겟영상을 지리좌표계로 재배열한다(S111). 이렇게 타겟영상을 지리좌표계로 재배열하는 과정을 정밀보정(precision geometric correction)이라 한다.
본 발명의 효과를 확인하기 위해 3 지역(대전, 보령, 전주)의 스폿(SPOT) 위성영상을 이용하여 결과를 검증한다. 기준영상(R)을 먼저 촬영한 후 기준점 칩을 추출하여 저장하고, 타겟영상(T)을 촬영한다. 아래의 표 1은 각 스폿 위성영상에 따른 보조정보를 정리한 표이다. 모든 스폿 위성영상은 촬영시기가 달라서 지표특성에 많은 차이가 있다.
촬영지역 대전 보령 전주
촬영시간 R: 1997.10.14T: 1997.11.15 R: 1997.3.1T: 1997.11.15 R: 1997.10.14T: 1997.11.15
투사각(Incidence angle) R: 29.7°T: 4.9° R: -29.7°T: 0.5° R: 29.7°T: 4.9°
방위각(Orientation angle) R: 13.7°T: 11.3° R: 8.1°T: 10.9° R: 13.7°T: 11.3°
기준점 개수 21 20 16
도 4는 대전지역에 해당하는 스폿 위성영상을 도시한 도면으로서, (a)는 기준영상이고, (b)는 타겟영상이다. (a)에서 십자표시는 기준점이고, 이 기준점을 중심으로 좌우 200픽셀의 영역을 기준점 칩으로 사용한다. (a)와 (b)를 비교하면, 같은 지역을 촬영하였지만 두 영상의 상태가 매우 다르다는 것을 확인할 수 있다.
아래의 표 2는 기준영상의 기준점에 대한 타겟영상의 정합점을 찾은 결과를 비교한 표이다. 즉, 표 2는 종래와 같이 검색창을 사각형으로 고정한 경우(C형)와 본 발명과 같이 검색창을 투사각이나 방위각에 의해 크기와 회전각을 변형한 경우(A형)에 있어서, 기준점에 대한 정합점을 찾은 결과 중 성공한 개수:실패한 개수를 표시한다.
촬영지역 대전 보령 전주
검색창 형태 C형 A형 C형 A형 C형 A형
유사도>0.8 5:0 7:0 4:0 5:0 4:0 7:0
0.6<유사도<0.8 6:10 7:7 6:3 9:3 5:5 2:2
유사도<0.6 없음 없음 3:4 2:1 0:2 0:5
합계 11:10 14:7 13:7 16:4 9:7 9:7
위 표 2를 살펴보면, 검색창의 형태에 관계없이 기준영상과 타겟영상의 유사도가 클수록 기준점에 대한 정합점을 더욱더 정확하게 찾을 수 있다. 또한, 크기와 형태가 고정된 정합창을 이용한 것보다는 투사각이나 방위각에 따라 크기와 회전각을 변형한 정합창을 이용하면, 기준점에 대한 정합점을 정확하게 찾을 확률이 높아진다. 그러나, 유사도가 많이 높지 않으면 정합 결과에 오정합점이 포함되어 있음을 확인할 수 있다.
표 3은 기준영상의 기준점에 대한 타겟영상의 정합점 검색결과에서 오정합점을 RANSAC 알고리즘을 이용하여 걸러내고 카메라 모델을 수립한 결과를 표로 나타낸 것이다.
테스트지역 대전 보령 전주
모델링에 사용된 기준점개수 14 16 9
오정합 검색결과 7 4 7
모델링오차 0.70 0.79 0.90
표 3에서 알 수 있듯이, RANSAC 알고리즘을 사용하면 오정합점을 100% 정확하게 걸러낼 수 있으며, 실제 카메라 모델의 정확도와 본 발명에 따른 카메라 모델의 정확도의 차이가 거의 없음을 알 수 있다. 다만, 전주 영상의 경우 다소 정확도에서 차이가 나는데, 이는 기준점의 수가 작기 때문에 발생한 현상으로 추정된다.
도 5는 타겟영상을 본 발명에 따른 영상 처리방법에 따라 정합점을 찾고, 오정합점을 걸러낸 후 카메라 모델을 수립하고, 정밀보정을 수행한 결과를 도시한 도면이다.
위에서 양호한 실시예에 근거하여 이 발명을 설명하였지만, 이러한 실시예는 이 발명을 제한하려는 것이 아니라 예시하려는 것이다. 이 발명이 속하는 분야의 숙련자에게는 이 발명의 기술사상을 벗어남이 없이 위 실시예에 대한 다양한 변화나 변경 또는 조절이 가능함이 자명할 것이다. 그러므로, 이 발명의 보호범위는 첨부된 청구범위에 의해서만 한정될 것이며, 위와 같은 변화예나 변경예 또는 조절예를 모두 포함하는 것으로 해석되어야 할 것이다.
이상과 같이 본 발명에 의하면, 기준영상과 기준점 칩이 데이터베이스에 저장되어 있으면, 오퍼레이터의 개입이 없이도 기준영상의 기준점에 정합되는 타겟영상의 정합점을 자동으로 추출할 수 있고, 추출된 정합결과에서 오정합점을 제거하여 자동으로 영상등록 및 정밀 보정을 정확하게 할 수 있는 잇점이 있다.

Claims (10)

  1. 기준 영상(reference image)과, 상기 기준 영상의 기준점 칩(CP chips)과, 상기 기준 영상과 기준점 칩의 지리좌표와 투사각과 방위각을 포함하는 보조정보를 데이터베이스에 저장한 컴퓨터 시스템에서의 영상 처리방법에 있어서,
    타겟영상과 상기 타겟영상의 대략적인 위치정보와 투사각과 방위각 정보를 포함한 보조정보가 입력되면, 상기 타겟영상이 포함되는 지역에 해당하는 기준영상을 찾아서 관심영역으로 설정하고, 상기 기준영상의 관심영역 내에 포함된 기준점 칩을 추출하는 기준점 칩 추출단계와;
    상기 기준점 칩 추출단계에서 추출된 기준점 칩 내의 기준점에 대한 상기 타겟영상의 정합점을 찾는 영상 정합단계와;
    상기 영상 정합단계에서 찾아진 정합결과 중 오정합점을 찾아서 제거하는 오정합점 제거단계와;
    상기 오정합점 제거단계를 수행한 후의 상기 정합결과를 이용하여 상기 타겟영상을 지리좌표계로 배열하는 영상 정밀 보정단계를 포함한 것을 특징으로 하는 영상 처리방법.
  2. 제 1 항에 있어서, 상기 영상 정합단계는,
    상기 타겟영상의 검색영역과 검색창을 설정하는 단계와,
    상기 검색창을 상기 타겟영상의 검색영역 내에서 이동시키면서 상기 타겟영상의 검색창과 기준영상의 기준점 칩의 유사도를 측정하며, 유사도가 가장 높은 지점을 찾는 단계와,
    상기 유사도가 가장 높은 지점의 정합창에서 상기 기준영상의 기준점과 정합되는 정합점을 찾는 단계를 포함한 것을 특징으로 하는 영상 처리방법.
  3. 제 2 항에 있어서, 상기 타겟영상과 기준영상의 투사각 또는 틸트각에 따라 상기 검색창의 크기를 변형하는 것을 특징으로 하는 영상 처리방법.
  4. 제 2 항에 있어서, 상기 타겟영상의 방위각에 따라 상기 검색창을 회전하는 것을 특징으로 하는 영상 처리방법.
  5. 제 2 항에 있어서, 상기 정합점을 찾는 단계는, 유사도가 가장 높은 지점의 정합창과 기준점 칩간의 정규화 교차 상관식을 이용하여 상기 기준영상의 기준점과 정합되는 상기 타겟영상의 정합점을 찾는 것을 특징으로 하는 영상 처리방법.
  6. 제 1 항에 있어서, 상기 오정합점 제거단계는,
    상기 영상 정합단계에서 찾아진 정합결과 중 일부의 기준점에 대한 정합결과를 선택하여 카메라 모델을 수립하는 단계와,
    상기 카메라 모델 수립에 사용된 정합결과를 제외한 나머지 기준점에 대한 정합결과를 이용하여 상기 카메라 모델의 정확도를 계산하는 단계와,
    상기 카메라 모델 수립에 사용하는 정합결과를 재선택하여 상기 카메라 모델 수립단계 및 정확도 계산단계를 반복 수행하는 단계와,
    상기 반복 수행 결과, 정확도가 가장 큰 카메라 모델을 추출하고 상기 정확도가 가장 큰 카메라 모델에 정합되지 않는 정합결과를 오정합점으로 인식하고 제거하는 단계를 포함하는 것을 특징으로 하는 영상 처리방법.
  7. 제 6 항에 있어서, 상기 카메라 모델 수립단계는 적어도 8개의 기준점과 기준점에 대응하는 정합점을 아래의 수식에 적용하여 Mtarget 행렬의 m 파라미터를 구하는 것을 특징으로 하는 영상 처리방법.
    [수식]
    여기서, Ctarget과 Rtarget은 타겟영상의 정합점의 영상좌표이고, Xref와 Yref와 Zref는 정합점에 대응하는 기준영상의 기준점의 지리좌표이며, m 파라미터들은 타겟영상의 Mtarget행렬 즉, 카메라 모델이다.
  8. 제 7 항에 있어서, 상기 정확도 계산단계는, 상기 나머지 기준점에 대한 정합결과와 상기 카메라 모델을 상기 수식에 적용하고, 상기 계산결과와 정합결과의 유사정도와 두 결과가 유사한 기준점의 개수를 이용하여 상기 카메라 모델의 정확도를 계산하는 것을 특징으로 하는 영상 처리방법.
  9. 제 6 항에 있어서, 상기 영상 정밀 보정단계는, 상기 타겟영상의 영상좌표를 상기 정확도가 가장 큰 카메라 모델에 적용하여 지리좌표계로 배열하는 것을 특징으로 하는 영상 처리방법.
  10. 기준 영상(reference image)과, 상기 기준 영상의 기준점 칩(CP chips)과, 상기 기준 영상과 기준점 칩의 지리좌표와 투사각과 방위각을 포함하는 보조정보를 데이터베이스에 저장한 컴퓨터 시스템에,
    타겟영상과 상기 타겟영상의 대략적인 위치정보와 투사각과 방위각 정보를 포함한 보조정보가 입력되면, 상기 타겟영상이 포함되는 지역에 해당하는 기준영상을 찾아서 관심영역으로 설정하고, 상기 기준영상의 관심영역 내에 포함된 기준점 칩을 추출하는 기준점 칩 추출단계와;
    상기 기준점 칩 추출단계에서 추출된 기준점 칩 내의 기준점에 대한 상기 타겟영상의 정합점을 찾는 영상 정합단계와;
    상기 영상 정합단계에서 찾아진 정합결과 중 오정합점을 찾아서 제거하는 오정합점 제거단계와;
    상기 오정합점 제거단계를 수행한 후의 상기 정합결과를 이용하여 상기 타겟영상을 지리좌표계로 배열하는 영상 정밀 보정단계를 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
KR10-2002-0049753A 2002-08-22 2002-08-22 자동 영상등록 및 보정을 위한 영상 처리방법 KR100488685B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR10-2002-0049753A KR100488685B1 (ko) 2002-08-22 2002-08-22 자동 영상등록 및 보정을 위한 영상 처리방법
US10/264,071 US7127085B2 (en) 2002-08-22 2002-10-02 Image processing method for automatic image registration and correction

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR10-2002-0049753A KR100488685B1 (ko) 2002-08-22 2002-08-22 자동 영상등록 및 보정을 위한 영상 처리방법

Publications (2)

Publication Number Publication Date
KR20040017604A true KR20040017604A (ko) 2004-02-27
KR100488685B1 KR100488685B1 (ko) 2005-05-11

Family

ID=31884958

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-2002-0049753A KR100488685B1 (ko) 2002-08-22 2002-08-22 자동 영상등록 및 보정을 위한 영상 처리방법

Country Status (2)

Country Link
US (1) US7127085B2 (ko)
KR (1) KR100488685B1 (ko)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100973052B1 (ko) * 2009-04-24 2010-07-30 서울시립대학교 산학협력단 라이다데이터를 이용한 디지털 항공영상의 자동 정합기법
KR101105361B1 (ko) * 2009-09-10 2012-01-16 서울시립대학교 산학협력단 영상데이터와 라이다데이터의 기하학적 정합방법 및 그 장치
KR20150077039A (ko) * 2013-12-27 2015-07-07 한국전자통신연구원 표면 모델 정합 장치 및 방법
KR20160073114A (ko) 2014-12-16 2016-06-24 한국항공우주연구원 위성 영상 처리 방법 및 시스템
WO2019172521A1 (en) * 2018-03-05 2019-09-12 Samsung Electronics Co., Ltd. Electronic device and method for correcting images based on image feature information and image correction scheme

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4375523B2 (ja) * 2002-12-20 2009-12-02 富士ゼロックス株式会社 画像処理装置、画像処理方法、画像処理プログラム、印刷物検査装置、印刷物検査方法、印刷物検査プログラム
KR100571429B1 (ko) * 2003-12-26 2006-04-17 한국전자통신연구원 지상기준점 영상 칩을 이용한 온라인 기하 보정 서비스제공 방법
US20050283294A1 (en) * 2004-06-16 2005-12-22 Lehman Allen A Jr Method and apparatus for machine guidance at a work site
US7933001B2 (en) * 2005-07-11 2011-04-26 Kabushiki Kaisha Topcon Geographic data collecting system
CN100587518C (zh) * 2006-07-20 2010-02-03 中国科学院自动化研究所 遥感影像高精度控制点自动选择方法
ITTO20070620A1 (it) * 2007-08-31 2009-03-01 Giancarlo Capaccio Sistema e metodo per presentare dati visuali rilevati a distanza in immagini multi-spettrali, di fusione, ed a tre dimensioni spaziali.
US20090193021A1 (en) * 2008-01-29 2009-07-30 Gupta Vikram M Camera system and method for picture sharing based on camera perspective
JP5150307B2 (ja) * 2008-03-03 2013-02-20 株式会社トプコン 地理データ収集装置
JP5150310B2 (ja) * 2008-03-04 2013-02-20 株式会社トプコン 地理データ収集装置
US8933961B2 (en) * 2009-12-10 2015-01-13 Harris Corporation Video processing system generating corrected geospatial metadata for a plurality of georeferenced video feeds and related methods
FR2954540B1 (fr) 2009-12-23 2018-11-16 Thales Procede de classification d'objets dans un systeme de veille par imagerie.
CN101840517B (zh) * 2010-04-27 2014-04-30 武汉大学 一种基于影像配准的控制点影像库匹配方法
JP5698480B2 (ja) 2010-09-02 2015-04-08 株式会社トプコン 測定方法及び測定装置
CN102567735B (zh) * 2010-12-30 2013-07-24 中国科学院电子学研究所 一种自动提取遥感图像控制点切片的方法
US8731305B1 (en) * 2011-03-09 2014-05-20 Google Inc. Updating map data using satellite imagery
CN102693533A (zh) * 2012-03-12 2012-09-26 清华大学 一种医学数字图像拼接方法
US8938094B1 (en) * 2012-04-13 2015-01-20 Google Inc. Generating a road network based on satellite imagery
CN102903097B (zh) * 2012-08-21 2015-07-15 西华大学 一种图像透视校正方法及装置
CN103440414B (zh) * 2013-08-22 2016-04-20 河南大学 基于地理辅助数据提高夜间灯光观测精度的方法
CN103810677B (zh) * 2014-01-16 2016-06-29 河南科技大学 基于超经验模式分解的遥感图像增强方法
CN103729653B (zh) * 2014-01-21 2016-08-17 武汉大学 一种高分辨率遥感影像监督变化检测的方法
CN104951393B (zh) * 2014-03-25 2018-03-30 中国电信股份有限公司 测试方法和测试装置
CN103996027B (zh) * 2014-05-19 2017-04-12 上海微小卫星工程中心 一种天基空间目标识别方法
US20150356350A1 (en) * 2014-06-05 2015-12-10 Mohamad Mustafa Awad unsupervised non-parametric multi-component image segmentation method
CN105631454B (zh) * 2014-10-27 2019-02-12 浙江大华技术股份有限公司 一种球机定位方法、设备及球机
CN104392457B (zh) * 2014-12-11 2017-07-11 中国测绘科学研究院 倾斜影像的连接点自动匹配方法及装置
CN104599247B (zh) * 2015-01-04 2018-04-24 清华大学 图像校正方法及装置
US10624817B2 (en) 2015-03-24 2020-04-21 Neomed, Inc. Oral administration coupler for back-of-mouth delivery
CN104732556A (zh) * 2015-04-13 2015-06-24 南通理工学院 基于染色矩阵算法的图像边缘检测方法
WO2017006852A1 (ja) * 2015-07-06 2017-01-12 日本電信電話株式会社 画像照合装置、画像照合方法、及びプログラム
WO2017031382A2 (en) 2015-08-18 2017-02-23 Digitalglobe, Inc. Movement intelligence using satellite imagery
CN105678318B (zh) * 2015-12-31 2019-03-08 百度在线网络技术(北京)有限公司 交通标牌的匹配方法及装置
KR101775124B1 (ko) * 2016-01-15 2017-09-05 (주)인스페이스 위성영상의 위치 정확도 개선을 위한 자동영상처리시스템 및 방법
CN106767714B (zh) * 2016-11-29 2019-06-21 上海卫星工程研究所 提高卫星图像定位精度的等效失配模型多级标校方法
US10819789B2 (en) 2018-06-15 2020-10-27 At&T Intellectual Property I, L.P. Method for identifying and serving similar web content
CN109325913B (zh) * 2018-09-05 2022-12-16 北京悦图遥感科技发展有限公司 无人机图像拼接方法及装置
WO2021087818A1 (zh) * 2019-11-06 2021-05-14 西门子股份公司 软件知识捕捉方法、装置和系统
US11436742B2 (en) * 2020-07-22 2022-09-06 Microsoft Technology Licensing, Llc Systems and methods for reducing a search area for identifying correspondences between images
CN114549648B (zh) * 2022-04-25 2022-07-22 环球数科集团有限公司 一种基于高分遥感卫星立体影像rpc模型定位系统
CN115100661B (zh) * 2022-08-24 2023-01-10 上海安维尔信息科技股份有限公司 一种集装箱箱号提取方法及系统

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59137942A (ja) * 1983-01-28 1984-08-08 Hitachi Ltd 画像位置合わせ方式
US4802757A (en) * 1986-03-17 1989-02-07 Geospectra Corporation System for determining the attitude of a moving imaging sensor platform or the like
US5187754A (en) * 1991-04-30 1993-02-16 General Electric Company Forming, with the aid of an overview image, a composite image from a mosaic of images
JPH06230767A (ja) * 1993-01-29 1994-08-19 Hitachi Ltd 情報表示方法
KR20000036155A (ko) * 1996-09-16 2000-06-26 스테판 제이 페이 이미지 분석 방법 및 장치
US5949914A (en) * 1997-03-17 1999-09-07 Space Imaging Lp Enhancing the resolution of multi-spectral image data with panchromatic image data using super resolution pan-sharpening
DE69823116D1 (de) * 1997-08-05 2004-05-19 Canon Kk Bildverarbeitungsverfahren und -gerät
KR100283929B1 (ko) * 1998-06-11 2001-03-02 이종훈 서로 다른 수치 지도간 설비의 상대오차 자동보정 방법
JP2000155831A (ja) * 1998-09-18 2000-06-06 Sanyo Electric Co Ltd 画像合成方法、画像合成装置、画像合成プログラムを記録した記録媒体
KR100362171B1 (ko) * 2000-01-21 2002-11-23 한국전자통신연구원 영상 특징점 매칭을 이용한 변환 행렬 추정 장치, 방법 및 그 기록매체와 그를 이용한 모자이크 영상 생성 장치, 방법 및 그 기록매체
KR100446195B1 (ko) * 2001-07-10 2004-08-30 (주)한양 3차원 위치 측정 장치 및 그 방법
KR100413970B1 (ko) * 2001-11-01 2004-01-13 한국전자통신연구원 영상 매칭을 위한 파라메터 변환 장치 및 그 방법
US6810153B2 (en) * 2002-03-20 2004-10-26 Hitachi Software Global Technology, Ltd. Method for orthocorrecting satellite-acquired image

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100973052B1 (ko) * 2009-04-24 2010-07-30 서울시립대학교 산학협력단 라이다데이터를 이용한 디지털 항공영상의 자동 정합기법
KR101105361B1 (ko) * 2009-09-10 2012-01-16 서울시립대학교 산학협력단 영상데이터와 라이다데이터의 기하학적 정합방법 및 그 장치
KR20150077039A (ko) * 2013-12-27 2015-07-07 한국전자통신연구원 표면 모델 정합 장치 및 방법
KR20160073114A (ko) 2014-12-16 2016-06-24 한국항공우주연구원 위성 영상 처리 방법 및 시스템
WO2019172521A1 (en) * 2018-03-05 2019-09-12 Samsung Electronics Co., Ltd. Electronic device and method for correcting images based on image feature information and image correction scheme
KR20190105380A (ko) * 2018-03-05 2019-09-17 삼성전자주식회사 이미지 보정 방식 및 이미지의 특징 정보에 기반하여 이미지를 보정하는 전자 장치 및 방법
US10867372B2 (en) 2018-03-05 2020-12-15 Samsung Electronics Co., Ltd. Electronic device and method for correcting images based on image feature information and image correction scheme

Also Published As

Publication number Publication date
US7127085B2 (en) 2006-10-24
KR100488685B1 (ko) 2005-05-11
US20040037451A1 (en) 2004-02-26

Similar Documents

Publication Publication Date Title
KR100488685B1 (ko) 자동 영상등록 및 보정을 위한 영상 처리방법
US5606627A (en) Automated analytic stereo comparator
US6853332B1 (en) Automatic registration of images in digital terrain elevation data
CN107330927B (zh) 机载可见光图像定位方法
US7349580B2 (en) Apparatus and method for calibrating zoom lens
KR100519054B1 (ko) 기하학적으로 왜곡된 위성영상을 정밀 보정하는 방법 및기록매체
Ladstädter et al. Monolithic Stitching: One sensor geometry for multiple sensor camera
KR102015817B1 (ko) 입체 위성영상의 제공 rpc 자동 보정 방법
Habib et al. Alternative approaches for utilizing lidar data as a source of control information for photogrammetric models
JP4005336B2 (ja) ランドサットtm画像の精密幾何補正方法及び衛星画像の精密幾何補正方法
Rokhmana et al. Cadastral surveys with non-metric camera using UAV: a feasibility study
Jende et al. Fully automatic feature-based registration of mobile mapping and aerial nadir images for enabling the adjustment of mobile platform locations in GNSS-denied urban environments
Zhang et al. Registration of CBERS-02B satellite imagery in quick GIS updating
Parian et al. An advanced sensor model for panoramic cameras
Dare et al. Digital Orthomosaics as a Source of Control For Geometrically Correction High Resolution Satellite İmagery
Fraser et al. IKONOS Geo Stereo Images: Geometric potential and suitability for 3D building reconstruction
Gotovac et al. A model for automatic geomapping of aerial images mosaic acquired by UAV
Temiz et al. Rectification of digital close range images: sensor models, geometric image transformations and resampling
CN113096163B (zh) 一种无需先验升降轨信息的星载sar影像高精度匹配方法
CN115578656B (zh) 一种支持多型号多光谱相机数据全自动处理的方法和系统
Shan An Approach to Single Image Automatic Orientation and Point Determination by Using Ortho‐Images and a Dtm
Chen et al. Fast orthorectification for satellite images using patch backprojection
Vohra et al. AUTOMATIC REGISTRATION OF IMAGES TO MAPS-THE ARCHANGEL AND ARMIES SYSTEMS
Abduelmula et al. High-accuracy satellite image analysis and rapid DSM extraction for urban environment evaluations (Tripoli-Libya)
CN113436271A (zh) 标定方法、标定装置、交通工具和可读存储介质

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20100503

Year of fee payment: 6

LAPS Lapse due to unpaid annual fee