KR101797027B1 - 표고 영상의 정합 방법 및 장치 - Google Patents

표고 영상의 정합 방법 및 장치 Download PDF

Info

Publication number
KR101797027B1
KR101797027B1 KR1020160028944A KR20160028944A KR101797027B1 KR 101797027 B1 KR101797027 B1 KR 101797027B1 KR 1020160028944 A KR1020160028944 A KR 1020160028944A KR 20160028944 A KR20160028944 A KR 20160028944A KR 101797027 B1 KR101797027 B1 KR 101797027B1
Authority
KR
South Korea
Prior art keywords
image
matching
error
elevation
weight
Prior art date
Application number
KR1020160028944A
Other languages
English (en)
Other versions
KR20170105817A (ko
Inventor
황규영
박현규
Original Assignee
국방과학연구소
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 국방과학연구소 filed Critical 국방과학연구소
Priority to KR1020160028944A priority Critical patent/KR101797027B1/ko
Publication of KR20170105817A publication Critical patent/KR20170105817A/ko
Application granted granted Critical
Publication of KR101797027B1 publication Critical patent/KR101797027B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Remote Sensing (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 기준 표고 영상과 센서를 이용하여 획득한 템플릿 표고 영상을 정합할 수 있는 표고 영상의 정합 장치에 관한 것이다. 상기 표고 영상의 정합 장치는 지형 표고의 규칙적인 배열로 이루어진 템플릿 표고 영상으로부터 하나 또는 그 이상의 파생 영상들을 생성하는 다중 영상 생성부; 상기 템플릿 표고 영상 및 상기 하나 또는 그 이상의 파생 영상들을 정합 대상 영상으로 설정하고, n번째 정합 대상 영상과 기준 표고 영상의 정합 오차를 계산하는 오차 계산부; 상기 n번째 정합 대상 영상의 정합 오차에 대한 오차 분포를 이용하여 상기 n번째 정합 대상 영상의 정보량을 계산하는 정보량 계산부; 상기 n번째 정합 대상 영상의 정보량에 근거하여 상기 n번째 정합 대상 영상의 정합 오차에 대한 가중치를 부여하는 가중치 계산부; 및 상기 n은 1 내지 m 사이의 자연수이고, 상기 m은 정합 대상 영상으로 설정된 영상의 총 개수이며, 상기 m개의 정합 대상 영상에서 가중치를 고려한 오차가 최소인 지점을 정합위치로 결정하는 정합 위치 계산부를 포함한다.
본 발명은 센서로부터 획득한 템플릿 영상뿐만 아니라, 상기 템플릿 영상을 이용하여 생성한 파생 영상을 이용하여 이미지 정합을 수행하기 때문에, 보다 정확한 위치를 추정할 수 있게 된다. 이때, 이미지 정합의 대상이 되는 영상마다 서로 다른 가중치가 부여되기 때문에, 최적의 이미지 정합이 수행될 수 있다.
본 발명은 정합 대상 영상의 정보량를 계산하여 정보량에 비례하여 가중치를 적용함으로써 가중치 결정의 모호성을 해결하고, 또한 정합에 도움이 되는 정보를 최적으로 추출함으로써 최종 정합 오차를 현저하게 줄일 수 있는 효과가 있다.

Description

표고 영상의 정합 방법 및 장치{METHOD AND APPARATUS FOR MATCHING OF DIGITAL ELEVATION IMAGES }
본 발명은 기준 표고 영상과 센서를 이용하여 획득한 템플릿 표고 영상을 정합할 수 있는 표고 영상의 정합 방법 및 장치에 관한 것이다.
지형의 높이를 정보로 하는 수치 표고 모형(Digital Elevation Model; DEM)은 지형 분석 및 시간에 따른 지형 변화와 같은 지구과학적 분야의 응용뿐만 아니라 비행체의 위치를 추정하는 목적으로도 사용될 수 있다. 비행체에서 비행 궤적의수치 표고 모형(DEM)을 측정하면, 이미 주어진 넓은 영역의 기준 영상과 비교하여 정합점을 찾음으로써 비행체의 위치를 추정할 수 있다. 이때 영상정합은 센서로부터 획득한 템플릿 영상와 기준 영상를 비교하여 가장 유사한 위치를 찾는 것을 목적으로 한다. 두 영상 사이의 유사도는 상호상관(Cross Correlation)을 구하여 판단하는 것이 가장 일반적이지만, 처리 속도의 향상과 영상의 크기 및 회전의 영향이 적은 방법을 개발하기 위한 여러 알고리즘이 존재한다.
정합 정확도의 향상을 위해서 지형을 다양한 센서로 측정하거나 측정된 데이터를 이용하여 파생되는 데이터를 생성하여 이를 이용할 수도 있다. 이러한 다중 데이터를 가지고 목표물을 효과적으로 정합하기 위한 방법을 정보 융합(Data Fusion) 알고리즘이라고 하는데, 이는 단일 데이터의 단점을 극복하고 최종 정합 성능을 향상시키고자 하는 것을 목적으로 한다. 핵심이 되는 사항은 여러 정보를 어떤 방식으로 통합할 것이냐 하는 것으로 센서의 종류와 측정 결과물에 따라 다양한 방법이 존재할 수 있다.
본 발명은 전술한 문제 및 다른 문제를 해결하는 것을 목적으로 한다.
또 다른 목적은, 센서로부터 측정된 템플릿 영상, 상기 템플릿 영상으로부터 파생된 파생 영상 중 적어도 하나를 포함하는 다중 영상과 기준 영상과의 정합 정확도를 향상시킬 수 있는, 표고 영상의 정합 장치 및 방법을 제공하는 것이다.
상기와 같은 과제를 실현하기 위한 본 발명의 일 실시 예에 따른 표고 영상의 정합 장치는 지형 표고의 규칙적인 배열로 이루어진 템플릿 표고 영상으로부터 하나 또는 그 이상의 파생 영상들을 생성하는 다중 영상 생성부; 상기 템플릿 표고 영상 및 상기 하나 또는 그 이상의 파생 영상들을 정합 대상 영상으로 설정하고, n번째 정합 대상 영상과 기준 표고 영상의 정합 오차를 계산하는 오차 계산부; 상기 n번째 정합 대상 영상의 정합 오차에 대한 오차 분포를 이용하여 상기 n번째 정합 대상 영상의 정보량을 계산하는 정보량 계산부; 상기 n번째 정합 대상 영상의 정보량에 근거하여 상기 n번째 정합 대상 영상의 정합 오차에 대한 가중치를 부여하는 가중치 계산부; 및 상기 n은 1 내지 m 사이의 자연수이고, 상기 m은 정합 대상 영상으로 설정된 영상의 총 개수이며, 상기 m개의 정합 대상 영상에서 가중치를 고려한 오차가 최소인 지점을 정합 지점으로 결정하는 정합 위치 계산부를 포함한다.
일 실시 예에 따르면, 상기 정보량 계산부는, 상기 n번째 정합 대상 영상의 정합 오차에 대한 오차 분포에서 문턱 값보다 작은 영역에 대한 확률 변수를 정의하고, 상기 확률 변수를 이용하여 상기 n번째 정합 대상 영상의 정보량을 계산할 수 있다.
일 실시 예에 따르면, 상기 정합 지점에 근거하여 네비게이션 정보를 생성하는 위치 탐색부를 더 포함할 수 있다.
일 실시 예에 따르면, 상기 네비게이션 정보를 시각적, 청각적 및 촉각적 방식 중 적어도 하나의 방식으로 출력하는 출력부를 더 포함할 수 있다.
일 실시 예에 따르면, 상기 다중 영상 생성부는, 상기 템플릿 표고 영상으로부터 기울기의 크기를 이용하여 제1 파생 영상을 생성하고, 기울기의 방향을 이용하여 제2 파생 영상을 생성할 수 있다.
또한, 본 발명은 상기와 같은 과제를 실현하기 위하여 표고 영상의 정합 방법을 제안한다. 상기 표고 영상의 정합 방법은 정합 장치에서 수행되며, 지형 표고의 규칙적인 배열로 이루어진 템플릿 표고 영상으로부터 하나 또는 그 이상의 파생 영상들을 생성하는 단계; 상기 템플릿 표고 영상 및 상기 하나 또는 그 이상의 파생 영상들을 정합 대상 영상으로 설정하고, n번째 정합 대상 영상과 기준 표고 영상의 정합 오차를 계산하는 단계; 상기 n번째 정합 대상 영상의 정합 오차에 대한 오차 분포를 이용하여 상기 n번째 정합 대상 영상의 정보량을 계산하는 단계; 상기 n번째 정합 대상 영상의 정보량에 근거하여 상기 n번째 정합 대상 영상의 정합 오차에 대한 가중치를 부여하는 단계; 및 상기 n은 1 내지 m 사이의 자연수이고, 상기 m은 정합 대상 영상으로 설정된 영상의 총 개수이며, 상기 m개의 정합 대상 영상에서 가중치를 고려한 오차가 최소인 지점을 정합 지점으로 결정하는 단계를 포함한다.
일 실시 예에 따르면, 상기 n번째 정합 대상 영상의 정보량을 계산하는 단계는, 상기 n번째 정합 대상 영상의 정합 오차에 대한 오차 분포에서 문턱 값보다 작은 영역에 대한 확률 변수를 정의하는 단계; 및 상기 확률 변수를 이용하여 상기 n번째 정합 대상 영상의 정보량을 계산하는 단계를 포함할 수 있다.
일 실시 예에 따르면, 상기 표고 영상의 정합 방법은, 상기 정합 지점에 근거하여 네비게이션 정보를 생성하는 단계를 더 포함할 수 있다.
일 실시 예에 따르면, 상기 표고 영상의 정합 방법은, 상기 네비게이션 정보를 시각적, 청각적 및 촉각적 방식 중 적어도 하나의 방식으로 출력하는 단계를 더 포함할 수 있다.
일 실시 예에 따르면, 상기 하나 또는 그 이상의 파생 영상들을 생성하는 단계는, 상기 템플릿 표고 영상으로부터 기울기의 크기를 이용하여 제1 파생 영상을 생성하는 단계; 및 상기 템플릿 표고 영상으로부터 기울기의 방향을 이용하여 제2 파생 영상을 생성하는 단계를 포함할 수 있다.
본 발명에 따른 영상 개선 방법의 효과에 대해 설명하면 다음과 같다.
센서로부터 획득한 템플릿 표고 영상과 그로부터 파생된 파생 영상에 같은 값의 가중치를 적용하여 최종 오차를 계산하면 하나의 영상을 이용한 정합 성능보다 열화되는 경우가 발생할 수 있다. 이는 정합이 잘되는 영상에 오차를 첨가하는 것과 마찬가지로 생각할 수 있으며 정합 결과에 도움이 되지 않는다. 어느 영상이 정합에 도움이 되는지는 매순간 다르기 때문에, 다수의 정합 대상 영상에 일정한 값을 부여하는 것은 최적의 성능을 기대할 수 없다.
본 발명은 정합 대상 영상의 정보량를 계산하여 정보량에 비례하여 가중치를 적용함으로써 가중치 결정의 모호성을 해결하고, 또한 정합에 도움이 되는 정보를 최적으로 추출함으로써 최종 정합 오차를 현저하게 줄일 수 있는 효과가 있다.
본 발명은 센서로부터 획득한 템플릿 영상뿐만 아니라, 상기 템플릿 영상을 이용하여 생성한 파생 영상을 이용하여 이미지 정합을 수행하기 때문에, 보다 정확한 위치를 추정할 수 있게 된다. 이때, 이미지 정합의 대상이 되는 영상마다 서로 다른 가중치가 부여되기 때문에, 최적의 이미지 정합이 수행될 수 있다.
본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
도 1은 기존의 영상 정합 방법을 나타내는 블록도.
도 2는 템플릿 표고 영상과 그로부터 파생된 영상의 예시도.
도 3은 다수의 정합 대상 영상을 이용하여 정합을 수행하는 표고 영상의 정합 장치를 나타내는 블록도.
도 4는 다중 영상 정합부를 나타내는 블록도.
도 5a, 도 5b, 도 5c 및 도 5d는 정합 오차 분포를 나타내는 예시도들.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 발명은 기준 표고 영상과 센서를 이용하여 획득한 템플릿 표고 영상의 정합에 관한 것이다. 보다 구체적으로는 정보이론(Information Theory)을 이용하여 센서를 통해 획득한 템플릿 표고 영상 및 템플릿 표고 영상으로부터 파생된 다수의 파생 영상과 기준 표고 영상을 최적으로 정합함으로써 정확한 위치추정을 수행하는 방법 및 장치에 관한 것이다.
여기서, 수치 표고 모형(Digital Elevation Model; DEM)은 실세계 지형 정보 중 건물, 수목, 인공 구조물 등을 제외한 지형(bare earth) 부분을 표현하는 수치 모형이고, 수치 표면 모형(Digital Surface Model; DSM)은 실세계의 모든 정보, 즉 지형, 수목, 건물, 인공 구조물 등을 표현한 모형이다. 또한 수치 지형 모형(Digital Terrain Model;D TM)은 수치 표고 모형(DEM)과 동일한 의미로 사용한다. 수치 표고 자료는 불규칙한 지형 기복을 3차원 좌표 형태로 구축함으로써 국가지리정보체계 구축 사업 지원과 국토 개발을 위한 도시 계획, 입지 선정, 토목, 환경 분야 등에 활용된다.
표고(elevation)는 표고의 기준이 되는 수평면인 수준기준면으로부터 지표 위 어느 점까지의 연직거리를 말한다. 우리나라에서는 인천만의 평균 해면을 국가 수준기준면(National Geodetic Vertical Datum; NGVD)으로 하고 이 수준면을 기준으로 하여 표고를 산출한다. 그러나 수준기준면은 가상의 면으로 사용하기에 불편하다. 따라서 평균 해면을 측정하여 그 부근에 표지를 설치하고 이의 정확한 표고를 측정하여 수준기점으로 삼고 있으며, 수준기점 중에서 기준이 되는 표지를 수준원점(vertical datum point)이라고 한다.
표고 영상(elevation image)은 비행체나 위성 등에서 지표면을 향하도록 배치된 이미지 센서(예를 들어, 레이더, 카메라, 적외선 카메라 등)를 이용하여 촬영한 영상을 의미한다.
기준 표고 영상은 정합의 기준이 되는 표고 영상을 의미하며, 메모리나 서버에 기저장되어 있는 표고 영상을 말한다.
템플릿 표고 영상은 비행체의 위치를 추정하기 위하여 비행체에 배치된 이미지 센서를 이용하여 촬영한 영상을 의미한다.
상기 기준 표고 영상 및 상기 템플릿 표고 영상은 수치 표고 모형(DEM)에 의하여 생성된 영상으로, 지표면에 분포된 각 지점의 높이 값을 수치로 포함할 수 있다.
파생 영상은 상기 템플릿 표고 영상으로부터 파생된 영상으로, 각종 이미지 프로세싱(image processing)이 이루어진 영상을 의미한다.
상기 템플릿 표고 영상과 상기 파생 영상은 상기 기준 표고 영상에 정합을 할 대상으로, '정합 대상 영상'이라고 호칭한다.
컴퓨터 비전에서 하나의 장면이나 대상을 다른 시간이나 관점에서 촬영할 경우, 영상은 서로 다른 좌표계에서 얻어지게 된다. 즉, 기준 표고 영상과 정합의 대상이 되는 정합 대상 영상은 서로 다른 좌표를 가지게 된다.
영상 정합(image registration)은 이와 같은 서로 다른 영상을 변형하여 하나의 좌표계에 나타내는 처리기법이다. 정합을 통해 서로 다른 측정 방식을 통해 얻은 영상이 어떻게 대응되는지를 알 수 있다.
영상의 정합을 수행하기 위해서는 기준 표고 영상과 센서로부터 측정된 템플릿 영상과의 오차가 가장 작은 점을 찾아냄으로써 이루어진다. 이때, 차이는 여러 방법으로 측정될 수 있으며 일례로 영상 화소값의 차이의 절대값의 평균, 제곱의 평균(Mean Square), 상호상관(Cross Correlation)의 역수 등이 존재한다. 본 발명은 이러한 차이의 측정방법을 특정한 방법으로 규정하지는 않는다.
도 1에는 기존의 영상 정합 방법을 나타내는 블록도로서 센서로부터 측정된 템플릿 표고 영상을 기준 표고 영상과 정합하여 정합 위치를 계산하는 과정이 도시되어 있다.
기존의 정합 장치(0)가 기준 표고 영상(101)에 탬플릿 표고 영상(102)을 정합함으로써 정합이 이루어진다. 기존에는, 이미지 센서 등으로부터 획득한 템플릿 표고 영상을 기준 표고 영상에
비행체는 이동하면서 복수의 템플릿 표고 영상들을 획득하게 되며, 상기 복수의 템플릿 표고 영상들을 기준 표고 영상에 정합함으로써 비행체의 위치를 추정하게 된다. 정합의 대상이 되는 다수의 정합 대상 영상을 이용하여 정합을 수행하는 경우, 각 정합 대상 영상의 정합결과를 어떻게 결합할 것인가가 문제가 된다.
특히, 본 발명에 따르면, 위치 추정의 정확성을 높이기 위하여, 하나의 템플릿 표고 영상을 이용하여 하나 또는 그 이상의 파생 영상을 생성한다. 이 경우, 동일한 지역에 대응하는 다수의 정합 대상 영상이 존재하게 되므로, 각 정합 대상 영상의 정합결과를 어떤 기준으로 결합한 것인지가 문제된다.
템플릿 표고 영상과 상기 템플릿 표고 영상으로부터 파생된 파생 영상을 포함하는 다수의 정합 대상 영상을 이용하여 정합점을 계산할 경우, 다수의 정합 대상 영상이 존재하므로 각각의 정합결과를 어떻게 결합할 것인가가 문제가 된다. 최종 정합점을 계산하기 위해서는 각 영상별로 오차를 계산하고, 계산된 각각의 오차에 대한 가중치를 부여하여 최종 정합점을 계산할 수 있다. 하지만, 측정 대상의 특성에 따라 정합 대상 영상의 정보가 달라지므로 효율적이고 고성능의 정합을 위해서는 최적으로 그 가중치를 결정하는 것이 필요하다.
본 발명에서는 기준 표고 영상과의 다수의 정합 대상 영상에서 생성된 오차를 융합하기 위해 필요한 가중치의 결정을 최적으로 수행하기 위해 정보이론(Information Theory)을 이용한다. 즉, 정보량이 더 많은 템플릿 표고 영상에 더 큰 가중치를 부여하여 정합 오차를 계산한다. 영상의 정보는 템플릿 표고 영상과 기준 표고 영상과의 정합 확률을 통하여 구하게 된다.
기준 표고 영상과 템플릿 표고 영상과의 오차를 계산하여 히스토그램을 구하면 오차의 분포를 확인할 수 있다. 오차가 최소인 부분이 정합점이 되는데, 그 최소 오차의 위치가 유일하지 않을 경우에는 정합점이 여러 개가 되기 때문에 정합 오차가 증가하게 된다. 반면, 최소 오차의 위치가 유일하다면 정합 오차는 매우 작게 나타날 가능성이 높다. 즉, 본 발명에서는 정합 대상 영상과 기준 표고 영상이 정합될 확률을 구하고, 그 확률로부터 엔트로피를 계산하여 가중치로 결정하게 된다.
본 발명은 센서로부터 측정된 템플릿 표고 영상과 기준 표고 영상을 정합함에 있어서 정합 성능을 높이기 위해 다수의 정합 대상 영상을 이용하여 정합할 때, 최적으로 가중치를 계산하여 최종 정합에 적용하는 방법 및 장치에 대한 것이다.
레이더나 다른 센서를 이용하여 지표면 표고(또는, 고도)를 측정하여 템플릿 표고 영상을 생성할 경우, 표고 측정시의 측정오차가 존재할 수 있으므로 생성된 템플릿 표고 영상과 함께 템플릿 표고 영상으로부터 파생되는 파생 영상을 활용하여 영상의 정합을 수행할 수 있다. 이때, 파생 영상은 영상의 특징을 좀 더 두드러지게 표현하여 정합 성능을 향상시킬 수 있다.
일례로 파생 영상은 템플릿 표고 영상의 미분값(Gradient) 정보를 포함할 수 있다.
도 2에는 제1 템플릿 표고 영상(104), 미분값의 크기 정보를 포함하는 제1 파생 영상(105), 그리고 미분값의 방향 정보를 포함하는 제2 파생 영상(106)에 대한 예시를 나타내었다.
이와 같은 방법은 기준 표고 영상으로부터 각 위치에서의 gradient 값을 구하고 기울기(gradient)의 절대값 영상(105)과 기울기(gradient)의 방향값 영상(106)을 만들어낼 수 있다. 입력 영상은 표고 수치 모델에 의해 생성된 템플릿 표고 영상이므로 기울기(gradient)는 기울기 필터(gradient filter)를 통해 계산될 수 있으며 [수학식 1]에는 이를 계산하는 예시를 나타내었다.
Figure 112016023355818-pat00001
기울기(Gradient)의 크기는 영상의 특정 좌표에서 인접 좌표와의 고도차이로 표현되고, 기울기(Gradient)의 방향은 0도에서 360도 사이의 값이 된다. 따라서 센서로부터 측정된 템플릿 표고 영상를 이용하여 기울기(Gradient)를 계산함으로써 새로운 영상을 생성할 수 있으며, 이와 같은 방식으로 파생된 영상을 이용하여 다수의 정합 대상 영상을 구성할 수 있다. 이 경우 획득한 템플릿 표고 영상뿐만 아니라 기울기 정보를 이용한 파생 영상들을 이용하여 영상 정합을 수행할 수 있다.
도 3은 다수의 정합 대상 영상을 이용하여 정합을 수행하는 표고 영상의 정합 장치(300)를 나타내는 블록도이다.
본 발명에 따른 표고 영상의 정합 장치(300)는, 도 1에 도시된 기존의 정합 장치과 비교할 때, 템플릿 영상의 다중 영상 생성부(320)와 기준 영상의 다중 영상 생성부(310)를 포함할 수 있다.
템플릿 영상의 다중 영상 생성부(320)는 이미지 센서로부터 획득된 템플릿 표고 영상(102)으로부터 하나 또는 그 이상의 파생 영상들을 생성한다. 템플릿 영상의 다중 영상 생성부(320)는 하나의 템플릿 표고 영상과, 그로부터 파생된 하나 또는 그 이상의 파생 영상들을 다중 영상 정합부(330)로 출력한다. 시간의 흐름에 따라 서로 다른 시각에 획득된 템플릿 표고 영상과 그에 대응하는 파생 영상이 다중 영상 정합부(330)로 출력된다.
기준 영상의 다중 영상 생성부(310)는 기준 표고 영상(101)을 이용하여 다수의 기준 영상을 생성할 수 있다. 기준 영상의 다중 영상 생성부(310)는, 템플릿 영상의 다중 영상 생성부(320)에서 출력되는 정합 대상 영상의 개수에 대응하는 소정 개수의 기준 영상을 생성할 수 있다. 예를 들어, 특정 시각에 대한 정합 대상 영상이 템플릿 영상의 다중 영상 생성부(320)에 의하여 4개가 생성되면, 기준 영상의 다중 영상 생성부(310)에서 4개의 기준 영상이 생성될 수 있다.
다중 영상 정합부(330)는 기준 영상의 다중 영상 생성부(310)와 템플릿 영상의 다중 영상 생성부(320)로부터 출력되는 영상들을 이용하여 최종 영상 정합을 수행한다.
다중 영상 정합부(330)는 자료 융합(data fusion)을 이용하여 정합 성능을 향상시킨다. 자료 융합을 이용하여 정합 성능을 향상시키고자 할 때, 가장 중요한 부분은 각 영상의 정합 결과에 가중치를 어떻게 부여하느냐 하는 것이다.
기본적으로 정합은 두 영상 사이의 오차가 가장 적은 위치를 찾는 과정이지만, 다중 영상의 정합에서는 다수의 오차가 발생하고 이를 어떻게 결합하느냐가 중요한 문제가 된다. 각 영상별로 정합의 성능이 다르기 때문에 발생하는 오차의 중요도에 따라 가중치를 두어 합계를 취함으로써 전체의 오차를 계산해야 한다. 이 가중치를 최적으로 결정하기 위해서 본 발명에서는 정보이론을 이용한다.
구체적으로, 도 4를 참조하면, 다중 영상 정합부(330)는 다중 영상의 오차를 계산하는 오차계산부(331), 각각 생성된 오차의 분포를 계산하는 오차분포계산부(332), 오차분포를 통해 정보량을 계산하는 정보량계산부(333), 정보량을 이용하여 가중치를 계산하는 가중치계산부(334), 가중치를 이용하여 최종 정합위치를 결정하는 정합위치계산부(335)로 구성된다.
정보이론에 의하면 정보는 엔트로피로 표현되고 이는 불확실성과 같은 개념이다. 즉, 한 확률변수에 대하여 한 이벤트가 일어날 확률이 높으면 이는 불확실성이 작아지는 것이기 때문에 엔트로피가 적어지고, 그 이벤트가 일어날 확률이 낮으면 불확실성이 커지는 것이기 때문에 엔트로피가 커진다. 즉, 이벤트가 일어날 확률이 작을수록 정보의 양은 증가한다.
단일 확률변수에 관한 정보량을 계산하면 아래의 [수학식 2]와 같다.
Figure 112016023355818-pat00002
여기서 p는 어떤 사건의 발생 확률을 의미하고, H는 엔트로피를 의미한다.
이 이론을 가중치 결정에 적용하기 위해 정합 오차의 분포를 사용한다. 정합 오차는 템플릿 영상을 스캔라인 방향으로 이동하면서 계산될 수 있으며 그 오차가 최소인 점을 정합점으로 결정하게 된다.
오차 계산부(331)는 기준 표고 영상과 정합 대상 영상을 비교하여 각 위치에서의 오차를 계산한다. 예를 들어, 정합 대상 영상이 총 n개인 경우, n개의 정합 대상 영상의 각각에 대하여 오차를 계산한다(n은 자연수).
오차 분포 계산부(332)는 오차 분포를 계산하며, 모든 정합 대상 영상의 오차에 대한 히스토그램을 생성한다. 즉, n개의 정합 대상 영상에 대한 n개의 히스토그램이 생성된다. 도 5a 내지 도 5d에 도시된 바와 같이, 오차가 0에 가까운 영역에서의 오차 분포는 영상에 따라 다름을 알 수 있다.
정보량 계산부(333)는 상기 오차 분포, 즉 히스토그램을 이용하여 영상 내의 정보량을 산출한다. 정보량 계산부(333)는 상기 오차 분포를 통해 정합 대상 영상이 기준 표고 영상에 정확하게 정합될 확률을 구하고, 그 확률의 로그 함수를 이용하여 [수학식 2]와 같은 엔트로피를 계산한다.
오차가 0에 가까운 영역은 각 영상에서 정합이 이루어지는 위치에 해당하며, 0에 가까운 영역이 적을수록 정합 정확도는 상승하며, 0에 가까운 영역이 많을수록 정합 정확도는 낮다고 볼 수 있다.
이와 같은 특성을 이용하여, 정보량 계산부(333)는 특정 문턱값을 이용하여 정합 오차가 0에 가까운 영역을 정의하고 이를 전체 오차 분포에서의 비율로 확률 변수로 정의한다. 즉, 정합 정확도에 대한 확률 변수를 정의한다. 이에 따라, n번째 정합 대상 영상에 대응하는 n번째 확률 변수가 정의되며, 총 n개의 확률 변수가 생성된다.
정보량 계산부(333)는 상기 확률 변수를 이용하여 [수학식 2]와 같은 엔트로피를 계산하고, 계산된 엔트로피를 이용하여 정보량을 계산한다. 비슷한 수준의 낮은 오차가 많다면 엔트로피가 낮아서 정보량이 적은 반면, 비슷한 수준의 낮은 오차가 적다면 엔트로피가 높아서 정보량이 많게 된다.
가중치 계산부(334)는 계산된 정보량을 이용하여 정합 대상 영상 내의 각 위치에 대한 가중치를 계산한다. 정보량이 많다는 것은 높은 확률로 최적의 정합점을 찾을 수 있다는 의미가 된다. 따라서, 정보량에 따라 서로 다른 가중치가 부여된다. 정보량이 많을수록 더 큰 가중치를 부여하고, 정보량이 적을수록 상대적으로 작은 가중치를 부여할 수 있다.
가중치 계산부(334)는 n번째 정합 대상 영상에 대응하는 n번째 확률 변수를 이용하여 n번째 정합 대상 영상에 가중치를 부여한다. 이로써, 각 정합 대상 영상은 고유의 가중치를 가지게 된다.
정합 위치 계산부(335)는 각 정합 대상 영상에 부여된 가중치에 근거하여 최종 정합점을 계산한다. 예를 들어, 제1 정합 대상 영상에 제1 가중치가 부여되고, 제2 정합 대상 영상에 제2 가중치가 부여될 수 있다. 제1 정합 대상 영상의 정합 오차에는 제1 가중치가 곱해지며, 제2 정합 대상 영상의 정합 오차에는 제2 가중치가 곱해진다. 정합 위치 계산부(335)는 가중치를 고려한 오차가 최소인 지점을 최종 정합점으로 결정한다.
오차가 최소인 부분이 정합점이 되는데, 그 최소 오차의 위치가 유일하지 않을 경우에는 정합점이 여러 개가 되기 때문에 정합 오차가 증가하게 된다. 하지만, 본 발명에 따른 표고 영상의 정합 장치(300)는 정합점에 부여된(또는, 정합 대상 영상에 부여된) 가중치에 근거하여 최종 정합점을 계산한다. 영상의 정보량를 계산하여 정보량에 비례하여 가중치를 적용함으로써 가중치 결정의 모호성을 해결하고, 또한 정합에 도움이 되는 정보를 최적으로 추출함으로써 최종 정합 오차를 현저하게 줄일 수 있는 효과가 있다.
도면에 도시되지 않았으나, 표고 영상의 정합 장치(300)는 위치 탐색부와 출력부를 더 포함할 수 있다.
위치 탐색부는 정합 위치 계산부(335)로부터 결정된 최종 정합점에 근거하여 정합 장치(300)의 위치를 탐색한다. 위치 탐색부는 실시간으로 형성되는 상기 최정 정합점에 근거하여 내비게이션의 역할을 수행할 수 있게 된다. 즉, 위치 탐색부는 정합 위치 계산부(335)에서 출력되는 정합위치에 근거하여 네비게이션 정보를 생성한다.
출력부는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 디스플레이부, 음향 출력부, 햅팁 모듈, 광 출력부 중 적어도 하나를 포함할 수 있다. 디스플레이부는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다. 이러한 터치 스크린은, 표고 영상의 정합 장치(300)와 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부로써 기능함과 동시에, 표고 영상의 정합 장치(300)와 사용자 사이의 출력 인터페이스를 제공할 수 있다.
출력부는 위치 탐색부가 탐색한 위치 정보에 근거하여 정합 장치(300)의 현재 위치를 출력할 수 있다. 예를 들어, 기준 표고 영상이 지형도로 이루어진 경우, 기준 표고 영상을 출력함과 동시에 현재 위치에 대응하는 지점에 그래픽 객체를 표시할 수 있다.
다수의 영상을 가중치에 따라 최적으로 정합함에 따라 보다 정확한 위치를 안내할 수 있게 된다.
본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 컴퓨터는 항적 탐지기(100)를 포함할 수도 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.
300: 정합 장치, 331: 오차 계산부,
332: 오차 분포 계산부, 333: 정보량 계산부,
334: 가중치 계산부, 335: 정합 위치 계산부

Claims (10)

  1. 지형 표고의 규칙적인 배열로 이루어진 템플릿 표고 영상으로부터 하나 또는 그 이상의 파생 영상들을 생성하는 다중 영상 생성부;
    상기 템플릿 표고 영상 및 상기 하나 또는 그 이상의 파생 영상들을 정합 대상 영상으로 설정하고, n번째 정합 대상 영상과 기준 표고 영상의 정합 오차를 계산하는 오차 계산부;
    상기 n번째 정합 대상 영상의 정합 오차에 대한 오차 분포를 이용하여 상기 n번째 정합 대상 영상의 정보량을 계산하는 정보량 계산부;
    상기 n번째 정합 대상 영상의 정보량에 근거하여 상기 n번째 정합 대상 영상의 정합 오차에 대한 가중치를 부여하는 가중치 계산부; 및
    상기 n은 1 내지 m 사이의 자연수이고, 상기 m은 정합 대상 영상으로 설정된 영상의 총 개수이며, 상기 m개의 정합 대상 영상에서 가중치를 고려한 오차가 최소인 지점을 정합 지점으로 결정하는 정합 위치 계산부를 포함하고,
    상기 다중 영상 생성부는, 상기 템플릿 표고 영상으로부터 기울기의 크기를 이용하여 제1 파생 영상을 생성하고, 기울기의 방향을 이용하여 제2 파생 영상을 생성하며,
    상기 가중치 계산부는, 상기 제1 파생 영상에 제1 가중치, 상기 제2 파생 영상에 제2 가중치, 그리고 상기 탬플릿 표고 영상에 제3 가중치를 부여하며,
    상기 정합 위치 계산부는, 상기 제1 가중치를 반영한 상기 제1 파생 영상의 제1 정합 오차, 상기 제2 가중치를 반영한 상기 제2 파생 영상의 제2 정합 오차, 그리고 상기 제3 가중치를 반영한 상기 탬플릿 표고 영상의 제3 정합 오차를 이용하여 상기 정합 지점을 결정하는 것을 특징으로 하는 표고 영상의 정합 장치.
  2. 제1항에 있어서,
    상기 정보량 계산부는,
    상기 n번째 정합 대상 영상의 정합 오차에 대한 오차 분포에서 문턱 값보다 작은 영역에 대한 확률 변수를 정의하고, 상기 확률 변수를 이용하여 상기 n번째 정합 대상 영상의 정보량을 계산하는 것을 특징으로 하는 표고 영상의 정합 장치.
  3. 제1항에 있어서,
    상기 정합 지점에 근거하여 네비게이션 정보를 생성하는 위치 탐색부를 더 포함하는 것을 특징으로 하는 표고 영상의 정합 장치.
  4. 제3항에 있어서,
    상기 네비게이션 정보를 시각적, 청각적 및 촉각적 방식 중 적어도 하나의 방식으로 출력하는 출력부를 더 포함하는 것을 특징으로 하는 표고 영상의 정합 장치.
  5. 삭제
  6. 삭제
  7. 삭제
  8. 삭제
  9. 삭제
  10. 삭제
KR1020160028944A 2016-03-10 2016-03-10 표고 영상의 정합 방법 및 장치 KR101797027B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160028944A KR101797027B1 (ko) 2016-03-10 2016-03-10 표고 영상의 정합 방법 및 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160028944A KR101797027B1 (ko) 2016-03-10 2016-03-10 표고 영상의 정합 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20170105817A KR20170105817A (ko) 2017-09-20
KR101797027B1 true KR101797027B1 (ko) 2017-11-13

Family

ID=60034147

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160028944A KR101797027B1 (ko) 2016-03-10 2016-03-10 표고 영상의 정합 방법 및 장치

Country Status (1)

Country Link
KR (1) KR101797027B1 (ko)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112530012A (zh) * 2020-12-24 2021-03-19 网易(杭州)网络有限公司 虚拟地表的处理方法、装置及电子装置
CN117333688B (zh) * 2023-12-01 2024-03-15 西安现代控制技术研究所 一种基于多维梯度特征的高精度地形匹配方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002190021A (ja) * 2000-12-22 2002-07-05 Shinkawa Ltd 位置検出装置および方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002190021A (ja) * 2000-12-22 2002-07-05 Shinkawa Ltd 位置検出装置および方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
광량 변화에 강건한 가중치 국부 기술자 기반의 스테레오 정합, 대한전자공학회 논문지 제52권4호(2015.04)*
다중영상 영역기반 영상정합을 위한 유사성 측정방법 분석, 한국측량학회지 제30권2호(2012.04)*
시각장애인을 위한 햅틱 네비게이션 시스템, 한국멀티미디어소사이어티, 제14권1호(2011.01)*

Also Published As

Publication number Publication date
KR20170105817A (ko) 2017-09-20

Similar Documents

Publication Publication Date Title
James et al. 3‐D uncertainty‐based topographic change detection with structure‐from‐motion photogrammetry: precision maps for ground control and directly georeferenced surveys
KR101933216B1 (ko) 드론과 공간정보를 이용한 하천지형정보 생성 방법
Pulighe et al. Horizontal accuracy assessment of very high resolution Google Earth images in the city of Rome, Italy
Zhang et al. Mass change of glaciers in Muztag Ata–Kongur Tagh, Eastern Pamir, China from 1971/76 to 2013/14 as derived from remote sensing data
US8116530B2 (en) Map change detection device, map change detection method, and program
US20090154793A1 (en) Digital photogrammetric method and apparatus using intergrated modeling of different types of sensors
JP2011501301A (ja) 地理的情報の複数のソースを用いた地理空間モデリングシステム及び関連する方法
KR100963651B1 (ko) 항공라이다자료를 이용한 건물외곽선 자동 추출 방법
Szypuła Digital elevation models in geomorphology
US9569667B1 (en) Cloud resilient algorithm for coastline registration
KR20180070070A (ko) 무인항공기를 이용한 침수흔적도 작성 시스템 및 방법
KR100904078B1 (ko) 항공 사진의 영상정합을 이용한 3차원 공간 정보 생성 시스템 및 방법
KR101421128B1 (ko) 레이저 레이더 기반의 3차원 원시 데이터를 이용한 건물 영역 추출 방법
AGUILAR et al. 3D coastal monitoring from very dense UAV-Based photogrammetric point clouds
Pourali et al. Vertical accuracy assessment of LiDAR ground points using minimum distance approach
Guedes et al. Comparison between hydrographically conditioned digital elevation models in the morphometric charaterization of watersheds
KR101797027B1 (ko) 표고 영상의 정합 방법 및 장치
US11928837B2 (en) Landmark configuration matcher
Tampubolon et al. UAV data processing for rapid mapping activities
Osama et al. The ATL08 as a height reference for the global digital elevation models
Zhong et al. A fast and effective approach to generate true orthophoto in built‐up area
Papasaika et al. A framework for the fusion of digital elevation models
Lajoie et al. Submeter resolution surface rupture topography from legacy aerial photographs—A test case from the 1992 Landers earthquake
Sefercik et al. Point-based and model-based geolocation analysis of airborne laser scanning data
Su et al. Hierarchical moving curved fitting filtering method based on LIDAR data

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant