KR102102369B1 - 정합 성능 추정 방법 및 장치 - Google Patents

정합 성능 추정 방법 및 장치 Download PDF

Info

Publication number
KR102102369B1
KR102102369B1 KR1020190027159A KR20190027159A KR102102369B1 KR 102102369 B1 KR102102369 B1 KR 102102369B1 KR 1020190027159 A KR1020190027159 A KR 1020190027159A KR 20190027159 A KR20190027159 A KR 20190027159A KR 102102369 B1 KR102102369 B1 KR 102102369B1
Authority
KR
South Korea
Prior art keywords
local
matching
satellite image
image
matching performance
Prior art date
Application number
KR1020190027159A
Other languages
English (en)
Inventor
전소영
Original Assignee
국방과학연구소
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 국방과학연구소 filed Critical 국방과학연구소
Priority to KR1020190027159A priority Critical patent/KR102102369B1/ko
Application granted granted Critical
Publication of KR102102369B1 publication Critical patent/KR102102369B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/344Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

개시된 정합 성능 추정 장치에 의해 수행되는 정합 성능 추정 방법은, 정사 위성 영상 내의 주어진 위치를 중심으로 하는 국소 영역 내의 국소 정사 위성 영상, 국소 와이어프레임 모델 집합 및 국소 영역에 정합 검색 영역까지 포함한 주변 정사 위성 영상을 획득하는 단계와, 국소 정사 위성 영상, 국소 와이어프레임 모델 집합 및 주변 정사 위성 영상에 대하여 각각의 이진 에지 영상을 계산하고 각 에지 픽셀에 방향각을 할당하는 단계와, 국소 정사 위성 영상의 이진 에지 픽셀과 이에 대응하는 국소 와이어프레임 모델 집합의 이진 에지 픽셀로 이루어진 에지 픽셀 쌍에 대하여, 할당된 방향각의 유사도를 계산하는 단계와, 계산된 방향각의 유사도에 기초하여 국소 영역의 정합 성능을 추정하는 단계를 포함한다.

Description

정합 성능 추정 방법 및 장치{METHOD AND APPARATUS FOR ESTIMATING MATCHING PERFORMANCE}
본 발명은 정사 위성 영상(ortho-rectified satellite image) 내의 주어진 위치를 중심으로 하는 국소 영역에 대한 영상 정합(matching)의 성능을 추정하는 방법 및 장치에 관한 것이다.
위성 기술의 발달 및 활용이 나날이 증가하면서 획득된 새로운 위성 영상 들을 기존의 다른 센서 영상들과 정합할 필요성이 증가하고 있다. 영상 정합을 위해 널리 알려진 종래 기술로는 SIFT(Scale Invariant Feature Transform) 기법이나 SURF(Speeded Up Robust Features) 기법이 있다. 이들 기법은 LoG(Laplacian of Gaussian) 필터를 근사하여 에지(edge)나 코너(corner)가 뚜렷한 점을 특징점으로 추출하고, 추출된 다수의 특징점 기반으로 정합을 수행한다. 여기서 각 특징점에 대한 정합은 해당 점 중심의 국소 영역에 대한 정합을 의미하며, 각 특징점들의 정합 결과를 종합하여 가장 정답에 가까울 것으로 보이는 정합 해(解)를 얻는다. 이들 기술을 이종 센서 영상 정합에 적용하기 위한 종래의 기술로서 SIFT 기법을 수정하여 정합 영역을 중첩된 블록들로 나누어 정합을 수행하거나, SURF 기법에서 얻은 특징점들에 대해, 위상상관도 기반 정합으로 적외선과 광학 영상 간의 정합을 수행하는 기술이 있었다.
한편, 이종 센서 영상은 서로 다른 신호 패턴을 보이지만, 에지(혹은 코너)는 공통적으로 발생하는 경우가 많기 때문에, 이 점을 이용한 정합 기술도 고안되었다. 예를 들어, 주어진 정사 위성 영상 또는 기타 영상들로부터 지형지물(도로, 건물 및 기타 경계선 등)에 대한 2차원 또는 3차원 와이어프레임(예를 들어, 삼각형 메쉬) 집합을 사전에 획득한 다음, 와이어프레임 집합을 이용하여 모델 기반 정합을 수행하는 것이다. 모델 기반 정합 수행 시에는 와이어프레임 집합만을 사용하거나, 사전에 주어진 정사 위성 영상을 보완적으로 사용하여 정합할 수도 있다.
특징점 기반 정합 방법을 사용할 때, 정합을 실시간으로 수행해야 하는 상황에서는 사용할 특징점 수를 줄임으로써 종래의 정합 기술을 적용할 수 있다. 예를 들어 모델 기반 정합 수행시, 전체 와이어프레임 모델 집합이 아닌 소수의 국소 와이어프레임 모델 집합만으로 정합을 하면 정합 시간을 단축시킬 수 있다. 단, 소수의 특징점을 사용할 경우, 정합이 실패할 가능성이 높은 와이어프레임 모델 집합을 사전에 배제하여야, 정합 성공률을 높일 수 있다. 이 경우, 실시간으로 정합을 수행하는 분야에서는, 특징점 주변 국소 영역에 대한 정합 성능을 사전에 추정하는 것이 필요하다.
그러나 정사 위성 영상 내의 임의의 위치를 중심으로 하는 국소 영역과 해당 영역이 포함하는 국소 와이어프레임 모델 집합의 정합 성능을 추정하는 것에 대한 연구는 알려진 바가 없다.
일 실시예에 따른 해결하고자 하는 과제는, 위성 영상으로부터 사전 추출된 국소 와이어프레임 모델 집합과 국소 정사 위성 영상을 다른 파장 대역의 미지(unknown)의 영상과 정합하는 경우, 이 정합 성능을 추정하는 방법 및 장치를 제공한다.
해결하고자 하는 과제는 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 해결하고자 하는 과제는 아래의 기재로부터 본 발명이 속하는 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
제 1 관점에 따른 정합 성능 추정 장치에 의해 수행되는 정합 성능 추정 방법은, 정사 위성 영상 내의 특정 위치를 중심으로 하는 국소 영역 내의 국소 정사 위성 영상, 국소 와이어프레임 모델 집합 및 상기 국소 영역에 정합 검색 영역까지 포함한 주변 정사 위성 영상을 획득하는 단계와, 상기 국소 정사 위성 영상, 상기 국소 와이어프레임 모델 집합 및 상기 주변 정사 위성 영상에 대하여 각각의 이진 에지 영상을 계산하고 각 에지 픽셀의 방향각을 할당하는 단계와, 상기 국소 정사 위성 영상의 이진 에지 픽셀과 이에 대응하는 상기 국소 와이어프레임 모델 집합의 이진 에지 픽셀로 이루어진 에지 픽셀 쌍에 할당된 방향각의 유사도를 계산하는 단계와, 계산된 상기 방향각의 유사도에 기초하여 상기 국소 영역의 정합 성능을 추정하는 단계를 포함할 수 있다.
여기서, 상기 국소 정사 위성 영상 내 이진 에지 픽셀 별로 제 1 가중치를 계산하는 단계를 더 포함하고, 상기 정합 성능을 추정하는 단계는, 상기 방향각의 유사도 및 상기 제 1 가중치에 기초하여 상기 정합 성능을 추정할 수 있다.
상기 국소 와이어프레임 모델 집합에 속하는 개별 와이어프레임 모델 별로 제 2 가중치를 계산하는 단계를 더 포함하고, 상기 정합 성능을 추정하는 단계는, 상기 방향각의 유사도와 상기 제 1 가중치 및 상기 제 2 가중치에 기초하여 상기 정합 성능을 추정할 수 있다.
상기 국소 와이어프레임 모델 집합의 이진 에지 영상을 참조 영상으로 하고, 상기 국소 정사 위성 영상 및 상기 주변 정사 위성 영상의 이진 에지 영상을 입력 영상으로 하여 정합을 수행하고 정합 검색 영역에 대한 정합 유사도맵(similarity map)을 계산하는 단계와, 계산된 상기 정합 유사도에 기초하여 상기 국소 영역의 고유성을 정량화하는 단계를 포함하여, 상기 국소 영역이 최소한의 고유성을 가졌는지를 판정하고, 해당 국소 영역을 향후 정합에서 배제할 지 여부를 결정할 수 있다.
제 2 관점에 따른 컴퓨터 프로그램이 저장된 컴퓨터 판독 가능한 기록매체는, 저장된 컴퓨터 프로그램이 정사 위성 영상 내의 특정 위치를 중심으로 하는 국소 영역 내의 국소 정사 위성 영상, 국소 와이어프레임 모델 집합과, 국소 영역에 정합 검색 영역까지 포함한 주변 정사 위성 영상을 획득하는 단계와, 상기 국소 정사 위성 영상, 상기 국소 와이어프레임 모델 집합 및 상기 주변 정사 위성 영상에 대하여 각각의 이진 에지 영상을 계산하고 각 에지 픽셀의 방향각을 할당하는 단계와, 상기 국소 정사 위성 영상의 이진 에지 픽셀과 이에 대응하는 상기 국소 와이어프레임 모델 집합의 이진 에지 픽셀로 이루어진 에지 픽셀 쌍에 대하여, 할당된 방향각의 유사도를 계산하는 단계와, 계산된 상기 방향각의 유사도에 기초하여 상기 국소 영역의 정합 성능을 추정하는 단계를 포함하는 정합 성능 추정 방법을 프로세서가 수행하도록 할 수 있다.
제 3 관점에 따른 정합 성능 추정 장치는, 정사 위성 영상 내의 특정 위치를 중심으로 하는 국소 영역 내의 국소 정사 위성 영상, 국소 와이어프레임 모델 집합 및 상기 국소 영역에 정합 검색 영역까지 포함한 주변 정사 위성 영상을 획득하는 획득부와, 상기 국소 정사 위성 영상, 상기 국소 와이어프레임 모델 집합 및 상기 주변 정사 위성 영상에 대하여 각각의 이진 에지 영상을 계산하고 각 에지 픽셀의 방향각을 할당하는 에지 영상 계산부와, 상기 국소 정사 위성 영상의 이진 에지 픽셀과 이에 대응하는 상기 국소 와이어프레임 모델 집합의 이진 에지 픽셀로 이루어진 에지 픽셀 쌍에 대하여, 할당된 방향각의 유사도를 계산하는 유사도 계산부와, 계산된 상기 방향각의 유사도에 기초하여 상기 국소 영역의 정합 성능을 추정하는 추정부를 포함할 수 있다.
여기서, 상기 국소 정사 위성 영상 내 이진 에지 픽셀 별로 제 1 가중치를 계산하는 가중치 계산부를 더 포함하고, 상기 추정부는, 상기 방향각의 유사도 및 상기 제 1 가중치에 기초하여 상기 정합 성능을 추정할 수 있다.
상기 가중치 계산부는, 상기 국소 와이어프레임 모델 집합에 속하는 개별 와이어프레임 모델 별로 제 2 가중치를 계산하고, 상기 추정부는, 상기 방향각의 유사도와 상기 제 1 가중치 및 상기 제 2 가중치에 기초하여 상기 정합 성능을 추정할 수 있다.
상기 국소 와이어프레임 모델 집합의 이진 에지 영상을 참조 영상으로 하고, 상기 국소 정사 위성 영상 및 상기 주변 정사 위성 영상의 이진 에지 영상을 입력 영상으로 하여 정합을 수행하고 정합 검색 영역에 대한 정합 유사도맵을 계산하는 에지 정합부와, 계산된 상기 정합 유사도맵에 기초하여 상기 국소 영역의 고유성을 정량화하는 고유성 계산부를 더 포함하여, 상기 국소 영역이 정합에 사용될 수 있는 최소한의 고유성을 가졌는지를 판별할 수 있다.
일 실시예에 따르면, 위성 영상으로부터 사전 추출된 2차원 또는 3차원 와이어프레임 모델을 이용하여 다른 파장 대역의 영상과의 정합을 실시간으로 수행할 때에, 와이어프레임 모델을 포함하는 위성 영상 내 주어진 위치를 특징점으로 삼아 그 중심의 국소 영역을 정합하는 경우, 사전에 해당 국소 영역의 정합 성능을 추정할 수 있고, 주변과 비교하여 최소한의 고유성이 있는지 판정하여 정합 실패 가능성이 높은 국소 영역을 사전에 배제할 수 있다.
이로써, 우수한 정합 성능을 보일 것으로 추정되는 소수의 특징점들에 대하여, 이들 중심의 국소 영역들만을 골라서 정합을 수행할 수 있으므로, 정합 성공률을 높이고 처리 시간을 단축시킬 수 있어 위성 영상과 다른 센서 영상 간의 효율적인 정합 시스템을 구현할 수 있다.
도 1은 본 발명의 일 실시예에 따른 정합 성능 추정 장치의 구성도이다.
도 2 내지 도 4는 본 발명의 일 실시예에 따른 정합 성능 추정 장치에 의해 수행되는 정합 성능 추정 방법을 설명하기 위한 흐름도이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명의 범주는 청구항에 의해 정의될 뿐이다.
본 발명의 실시예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명은 본 발명의 실시예들을 설명함에 있어 실제로 필요한 경우 외에는 생략될 것이다. 그리고 후술되는 용어들은 본 발명의 실시예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
도 1은 본 발명의 일 실시예에 따른 정합 성능 추정 장치의 구성도이다.
도 1에 나타낸 바와 같이 일 실시예에 따른 정합 성능 추정 장치(100)는 획득부(110), 에지 영상 계산부(120), 유사도 계산부(130), 추정부(140), 가중치 계산부(150), 에지 정합부(160) 및 고유성 계산부(170)를 포함할 수 있다. 이 중에서, 가중치 계산부(150), 에지 정합부(160) 및 고유성 계산부(170)는 본 발명의 다른 실시예에 따라 생략될 수도 있다. 이러한 일 실시예에 따른 정합 성능 추정 장치(100)를 구성하는 각 구성요소들은 마이크로프로세서(microprocessor)를 포함하여 구현될 수 있다.
획득부(110)는 정사 위성 영상 내의 주어진 위치를 중심으로 하는 국소 영역 내의 국소 정사 위성 영상, 국소 와이어프레임 모델 집합 및 국소 영역에 정합 검색 영역까지 포함한 주변 정사 위성 영상을 획득한다. 예를 들어, 획득부(110)에는 정사 위성 영상 중 정합 성능을 추정하고자 하는 국소 영역의 중심 좌표 및 크기 정보, 삼각형 메쉬로 구성된 와이어프레임 모델 집합에 대한 정보, 정사 위성 영상 등의 정보를 입력받을 수 있고, 입력받은 정보를 이용하여 국소 정사 위성 영상, 국소 와이어프레임 모델 집합 및 주변 정사 위성 영상을 획득할 수 있다.
에지 영상 계산부(120)는 획득부(110)에 의해 획득된 국소 정사 위성 영상, 국소 와이어프레임 모델 집합 및 주변 정사 위성 영상에 대하여 각각의 이진 에지 영상을 계산하고 각 에지 픽셀에 방향각을 할당한다.
유사도 계산부(130)는 국소 정사 위성 영상의 이진 에지 픽셀과 이에 대응하는 국소 와이어프레임 모델 집합의 이진 에지 픽셀로 이루어진 에지 픽셀 쌍에 대하여, 할당된 방향각의 유사도를 계산한다.
추정부(140)는 유사도 계산부(130)에서 계산된 방향각의 유사도에 기초하여 국소 영역의 정합 성능을 추정한다.
한편, 가중치 계산부(150)는 국소 정사 위성 영상 내 이진 에지 픽셀 별로 제 1 가중치를 계산하고, 국소 와이어프레임 모델 집합에 속하는 개별 와이어프레임 모델 별로 제 2 가중치를 계산한다. 이 경우에, 추정부(140)는 방향각의 유사도와 제 1 가중치 및 제 2 가중치에 기초하여 국소 영역의 정합 성능을 추정할 수 있다.
또한, 에지 정합부(160)는 국소 와이어프레임 모델 집합의 이진 에지 영상을 참조 영상으로 하고, 국소 정사 위성 영상 및 주변 정사 위성 영상의 이진 에지 영상을 입력 영상으로 하여 정합을 수행하고 정합 검색 영역에 대한 정합 유사도맵을 계산한다.
그리고, 고유성 계산부(170)는 계산된 정합 유사도맵에 기초하여 국소 영역의 고유성을 정량화한다. 정량화된 고유성을 이용하면 국소 영역이 주변 클러터(clutter)로 인해 정합이 실패할 가능성이 있는 지 판별할 수 있다. 해당 국소 영역이 정합에 실패할 가능성이 높다고 판단되면, 향후 정합에 사용되지 않도록 배제할 수 있다.
도 2 내지 도 4는 본 발명의 일 실시예에 따른 정합 성능 추정 장치에 의해 수행되는 정합 성능 추정 방법을 설명하기 위한 흐름도이다.
이하, 도 1 및 도 4를 참조하여 본 발명의 일 실시예에 따른 정합 성능 추정 장치(100)가 수행하는 정합 성능 추정 방법에 대해 자세히 살펴보기로 한다.
먼저, 정합 성능 추정 장치(100)의 획득부(110)는 정사 위성 영상 내의 주어진 위치를 중심으로 하는 국소 영역 내의 국소 정사 위성 영상, 국소 와이어프레임 모델 집합 및 국소 영역에 정합 검색 영역까지 포함한 주변 정사 위성 영상을 획득하여 에지 영상 계산부(120)에 제공한다.
예를 들어, 획득부(110)는 정사 위성 영상 중 정합 성능을 추정하고자 하는 국소 영역의 중심 좌표 및 크기 정보, 와이어프레임 모델 집합에 대한 정보, 정사 위성 영상 등의 정보를 입력받을 수 있고, 획득부(110)는 입력받은 정보를 이용하여 국소 정사 위성 영상, 국소 와이어프레임 모델 집합 및 정합 검색 영역까지 포함하는 주변 정사 위성 영상을 획득할 수 있다. 여기서, 획득부(110)는 에지 정합부(160)에서 특징점 기반 정합을 위해 정합할 검색 범위의 크기를 기초로 하여 주변 정사 위성 영상의 크기를 결정할 수 있다(S210).
다음으로, 에지 영상 계산부(120)는 획득부(110)로부터 제공받은 국소 정사 위성 영상, 국소 와이어프레임 모델 집합 및 주변 정사 위성 영상에 대하여 각각의 이진 에지 영상을 계산한다.
이러한 에지 영상 계산부(120)는 국소 정사 위성 영상과 주변 정사 위성 영상의 각
Figure 112019024276959-pat00001
번째 픽셀의 x축 그래디언트
Figure 112019024276959-pat00002
와 y축 그래디언트
Figure 112019024276959-pat00003
및 그래디언트 강도
Figure 112019024276959-pat00004
를 계산한다. 그래디언트 강도는 가중치 계산부(150)에서 가중치 계산에 이용된다.
Figure 112019024276959-pat00005
번째 픽셀의 에지 방향각
Figure 112019024276959-pat00006
은 벡터 (
Figure 112019024276959-pat00007
,
Figure 112019024276959-pat00008
)가 가리키는 방향으로 결정된다.
그리고, 에지 영상 계산부(120)는 그래디언트 성분 및 강도 값, 적절한 임계값을 이용하여 국소 정사 위성 영상의 이진 에지 영상을 계산할 수 있다. 예를 들어, 에지 영상 계산부(120)는 케니 에지(Canny edge) 추출 알고리즘 등을 이용하여 국소 정사 위성 영상의 이진 에지 영상을 계산할 수 있다.
또한, 에지 영상 계산부(120)는 국소 와이어프레임 모델 집합을 구성하는 정점(vertex) 및 정점 간 연결 정보를 이용하여 브레즌햄(Bresenham)의 직선 그리기 방법 등을 통해 국소 와이어프레임 모델 집합이 기술하는 선분(line segment)들을 정사 위성 영상과 같은 좌표 공간에서 픽셀단위로 그리는 작업을 수행한다. 이때, 각 선분을 픽셀 단위로 그리는 과정에서 각 선분의 양 끝점의 좌표를 이용해 해당 선분의 방향각
Figure 112019024276959-pat00009
를 결정할 수 있다. 이에 따라 해당 선분을 구성하는 픽셀
Figure 112019024276959-pat00010
의 방향각
Figure 112019024276959-pat00011
Figure 112019024276959-pat00012
가 된다. 단, 해당 선분의 양 끝점을 그린 픽셀 두 개에 대해서는 다른 선분들과 만날 수 있기 때문에 다양한 방향각이 나온다. 이 픽셀 두 개에 대해서는 “Don’t Care” 처리한다. 각 선분이 픽셀 단위로 그려지면 국소 와이어프레임 모델 집합의 이진 에지 영상을 얻을 수 있다. 또한 각 선분이 픽셀로 그려지면, 선분으로 경계가 결정된 다각형 내부의 픽셀 집합 또한 결정된다. 결정된 픽셀 집합은 가중치 계산부(150)에서 사용될 수 있다(S220).
다음으로, 유사도 계산부(130)는 국소 정사 위성 영상의 이진 에지 픽셀과 이에 대응하는 국소 와이어프레임 모델 집합의 이진 에지 픽셀로 이루어진 에지 픽셀 쌍에 할당된 방향각의 유사도를 계산한다.
예를 들어, 에지 영상 계산부(120)로부터 계산된 국소 정사 위성 영상의 이진 에지 영상과 국소 와이어프레임 모델 집합의 이진 에지 영상에 대하여, 상기 두 이진 에지 영상이 사전에 정렬이 되어 있다고 가정하면, 국소 와이어프레임 모델 집합의 이진 에지 영상에서
Figure 112019024276959-pat00013
번째 픽셀의 에지 방향각
Figure 112019024276959-pat00014
와, 이에 대응하는 국소 정사 위성 영상의 이진 에지 영상에서
Figure 112019024276959-pat00015
번째 픽셀의 에지 방향각
Figure 112019024276959-pat00016
의 유사도
Figure 112019024276959-pat00017
를 다음의 수학식 1과 같이 계산한다(S230).
Figure 112019024276959-pat00018
단,
Figure 112019024276959-pat00019
가 Don’t Care 처리되었다면
Figure 112019024276959-pat00020
를 1로 계산한다.
Figure 112019024276959-pat00021
Figure 112019024276959-pat00022
°와
Figure 112019024276959-pat00023
°가 같은 방향이라고 간주하고 값이 적은 방향으로 계산한다.
이후, 추정부(140)는 유사도 계산부(130)에서 계산된 방향각의 유사도에 기초하여 국소 영역의 정합 성능을 추정한다.
예를 들어, 추정부(140)는 중심 좌표가
Figure 112019024276959-pat00024
인 국소 영역의 정합 성능을 아래의 수학식 2와 같이 계산할 수 있다.
Figure 112019024276959-pat00025
여기서,
Figure 112019024276959-pat00026
는 국소 와이어프레임 모델 집합의 이진 에지 픽셀 좌표 집합이고,
Figure 112019024276959-pat00027
는 국소 정사 위성 영상의 이진 에지 픽셀 좌표 집합이다.
한편, 정합 성능 추정 장치(100)의 가중치 계산부(150)는 국소 정사 위성 영상 내 이진 에지 픽셀 별로 제 1 가중치를 계산할 수 있고, 더 나아가 국소 와이어프레임 모델 집합에 속하는 개별 와이어프레임 모델 별로 제 2 가중치를 계산할 수도 있다.
예를 들어, 가중치 계산부(150)는 국소 정사 위성 영상 내 이진 에지 픽셀의 에지 강도
Figure 112019024276959-pat00028
를 0~1 범위에 속하는 값으로 정규화하여 제 1 가중치
Figure 112019024276959-pat00029
을 계산할 수 있다.
Figure 112019024276959-pat00030
,
Figure 112019024276959-pat00031
은 정사 위성 영상 전체를 통틀어 계산된 최대 및 최소 그래디언트 강도이다(S310). 제 1 가중치를 부여하는 목적은 와이어프레임 모델의 경계를 구성하는
Figure 112019024276959-pat00032
번째 에지 픽셀에 대응하는 정사 위성 영상의
Figure 112019024276959-pat00033
번째 에지 픽셀이 에지 강도가 높을수록 정합성능이 높을 것이라고 판단하여, 해당 픽셀이 정합 성능 계산에 기여하는 가중치를 높이기 위한 것이다.
또한, 가중치 계산부(150)는 국소 와이어프레임 모델 집합에 속하는 개별 와이어프레임 별로 부여되는 제 2 가중치를 계산할 수 있다. 국소 와이어프레임 모델 집합이
Figure 112019024276959-pat00034
개의 개별 와이어프레임으로 구성되어 있다고 가정할 때
Figure 112019024276959-pat00035
번째 와이어프레임의 내부 픽셀 좌표 집합을
Figure 112019024276959-pat00036
라고 정의한다.
Figure 112019024276959-pat00037
는 정사 위성 영상과 와이어프레임 모델 집합의 이진 에지 영상 간의 사전 정렬 오차를 감안하여, 와이어프레임의 경계선으로부터 1픽셀 정도 안쪽에 속하는 픽셀 좌표 집합으로 정의할 수 있다. 그러면 다음 수학식 3과 같이 k번째 와이어프레임에 대한 제 2 가중치
Figure 112019024276959-pat00038
를 계산할 수 있다(S320).
Figure 112019024276959-pat00039
수학식 3에서
Figure 112019024276959-pat00040
Figure 112019024276959-pat00041
번째 와이어프레임 내부 픽셀에 대해 계산되는 값으로서, 모델 내부에 존재하는 클러터(clutter) 에지 픽셀의 강도를 표현하기 위한 값이다. 각 개별 와이어프레임에 제 2 가중치를 부여하는 목적은, 해당 와이어프레임 모델 내부가 정사 위성 영상을 통해서 볼 때 수풀이나 흙더미 등으로 인해 부분적으로 가려진 경우, 클러터 에지가 발생하고, 그 결과 해당 와이어프레임은 정합 성능이 떨어질 것이라고 판단하여 낮은 가중치를 주기 위한 것이다. 구체적인 예로 높이가 낮은 건물이 주변의 수풀에 가려진 경우, 이 건물 중심 영역의 정합 성능은 낮을 것으로 판단할 수 있다. 따라서, 수학식 3은
Figure 112019024276959-pat00042
가 0에 가까운 값일수록
Figure 112019024276959-pat00043
의 값이 커지도록 고안되었다.
이처럼, 가중치 계산부(150)가 제 1 가중치를 계산하거나 제 2 가중치까지 계산할 경우에, 추정부(140)는 단계 S230에서 계산된 방향각의 유사도와 단계 S310에서 계산된 제 1 가중치 및 단계 S320에서 계산된 제 2 가중치에 기초하여 국소 영역의 정합 성능을 추정할 수 있다.
예를 들어, 추정부(140)는 가중치 계산부(150)에서 계산한 제 1 가중치
Figure 112019024276959-pat00044
와 수학식 2를 결합하여 수학식 4와 같이 국소 영역의 정합 성능을 추정할 수 있다.
Figure 112019024276959-pat00045
또는, 추정부(140)는 수학식 4에서 집합
Figure 112019024276959-pat00046
를 제외하여 다음의 수학식 5를 이용하여 국소 영역의 정합 성능을 추정할 수도 있다.
Figure 112019024276959-pat00047
수학식 5에서 집합
Figure 112019024276959-pat00048
를 제외하였기 때문에
Figure 112019024276959-pat00049
의 임의의 원소
Figure 112019024276959-pat00050
에 대해 가중치 계산부(150)에서 계산한
Figure 112019024276959-pat00051
가 0보다 크면 해당 픽셀의 방향각 유사도를 계산하므로 수학식 4와 비교하여 집합
Figure 112019024276959-pat00052
를 계산하기 위한 이진 에지 추출 알고리즘의 성능에 의존하지 않을뿐 아니라 해당 에지 추출 작업을 위한 추가 연산 시간 없이 방향각 유사도를 반영할 수 있지만, 에지로 보기 어려운 픽셀도 국소 영역의 정합 성능에 반영하기 때문에 수학식 4와 수학식 5는 서로 장단점을 가지고 있다.
또한, 추정부(140)는 수학식 5에 가중치 계산부(150)에서 계산한 개별 와이어프레임에 부여된 제 2 가중치를 반영하여 다음의 수학식 6을 이용하여 국소 영역의 정합 성능을 추정할 수도 있다.
Figure 112019024276959-pat00053
여기서,
Figure 112019024276959-pat00054
은 국소 와이어프레임 모델 집합을 구성하는 개별 와이어프레임 모델의 개수이고,
Figure 112019024276959-pat00055
Figure 112019024276959-pat00056
번째 개별 와이어프레임 모델의 에지 픽셀 좌표 집합이다.
이처럼, 정합 성능 추정 장치(100)의 추정부(140)는 수학식 2, 수학식 4, 수학식 5 및 수학식 6 중 어느 하나를 이용하여 국소 영역의 정합 성능을 추정할 수 있다(S330).
한편, 정합 성능 추정 장치(100)가 정합성능을 추정하고자 하는 정사 위성 영상 내 주어진 국소 영역이 주변 클러터로 인해 정합이 실패할 가능성이 있는 지 판별할 수 있다.
먼저, 정합 성능 추정 장치(100)의 획득부(110)에 의해 정사 위성 영상 내의 특정 위치를 중심으로 하는 국소 영역 내의 국소 정사 위성 영상, 국소 와이어프레임 모델 집합 및 국소 영역에 정합 검색 영역까지 포함한 주변 정사 위성 영상이 획득되고(S410), 정합 성능 추정 장치(100)의 에지 영상 계산부(120)에 의해 상기 국소 정사 위성 영상, 상기 국소 와이어프레임 모델 집합 및 상기 주변 정사 위성 영상에 대하여 각각의 이진 에지 영상을 계산한다(S420).
그러면, 에지 정합부(160)는 국소 와이어프레임 모델 집합의 이진 에지 영상을 참조 영상으로 하고, 국소 정사 위성 영상 및 주변 정사 위성 영상의 이진 에지 영상을 입력 영상으로 하여 정합을 수행하고 정합 검색 영역에 대한 정합 유사도맵을 계산한다. 예컨대, 에지 정합부(160)는 정합을 위해서 일반화된 허프 변환(Generalized Hough Transform) 등을 이용한 방법을 사용할 수 있다.
여기서, 에지 정합부(160)는 국소 영역의 중심 좌표
Figure 112019024276959-pat00057
로부터 사전에 설정한 검색 영역 내 좌표 집합
Figure 112019024276959-pat00058
내 모든 좌표에 대해 정합 유사도를 계산한다. 이하의 설명에서는 정합 유사도를 계산한 결과로서,
Figure 112019024276959-pat00059
내 좌표
Figure 112019024276959-pat00060
에서의 정합 유사도를
Figure 112019024276959-pat00061
라고 표기한다(S430).
다음으로, 정합 성능 추정 장치(100)의 고유성 계산부(160)는 단계 S430에서 계산된 정합 유사도에 기초하여 국소 영역의 고유성을 정량화한 수치
Figure 112019024276959-pat00062
를 계산한다.
Figure 112019024276959-pat00063
는 수학식 7을 이용하여 계산할 수 있다.
Figure 112019024276959-pat00064
여기서,
Figure 112019024276959-pat00065
는 고유성을 판별할 국소 영역 중심 좌표이다.
Figure 112019024276959-pat00066
는 사전에 설정한 검색 영역 내 좌표 집합이다.
Figure 112019024276959-pat00067
Figure 112019024276959-pat00068
를 중심으로 가로 및 세로
Figure 112019024276959-pat00069
픽셀 영역으로 정의되는 좌표 집합이다.
Figure 112019024276959-pat00070
는 정합 성공 기준이
Figure 112019024276959-pat00071
픽셀 이내 일치일 경우
Figure 112019024276959-pat00072
=2
Figure 112019024276959-pat00073
+1로 설정할 수 있다.
Figure 112019024276959-pat00074
이다. 수학식 7의 분모는 클러터의 유사도를 나타낸다.
고유성 계산부(170)는 수학식 7의
Figure 112019024276959-pat00075
값이 사전에 설정한 값
Figure 112019024276959-pat00076
보다 작으면 클러터로 인해 오정합이 발생할 수 있다고 판정한다.
Figure 112019024276959-pat00077
를 통해 고유성을 판단하는 것은 사용한 정합 알고리즘에 따라서 국소 영역의 고유성을 다소 과장하거나 과소 평가할 수 있다. 따라서
Figure 112019024276959-pat00078
값은 기본적으로 1로 설정하되, 이를 중심으로 증가/감소하여 판정의 엄격한 정도를 조정한다.
이처럼, 고유성 계산부(160)는 국소 영역의 고유성을 정량화함으로써, 국소 영역이 정합에 사용될 수 있는 최소한의 고유성을 가졌는지를 판정하고 이로부터 해당 국소 영역의 정합 실패 가능성을 추정한다. 그 결과 정합 실패 가능성이 높은 국소 영역은 향후 정합에 사용되지 않도록 배제할 수 있다(S440).
지금까지 설명한 바와 같이 본 발명의 일 실시예에 따르면, 위성 영상으로부터 사전 추출된 2차원 또는 3차원 와이어프레임 모델을 이용하여 다른 파장 대역의 영상과의 정합을 실시간으로 수행할 때에, 와이어프레임 모델을 포함하는 정사 위성 영상 내 특정 위치를 특징점으로 삼아 정합할 경우, 이 특징점 의 정합 성능을 사전에 추정할 수 있다.
이로써, 우수한 정합 성능을 보일 것으로 추정되는 특징점만을 골라서 와이어프레임 모델을 이용한 정합을 수행할 수 있으므로, 처리 시간을 단축시키는 한편 정합 성공률을 높일 수 있어 위성 영상과 다른 센서 영상 간의 효율적인 정합 시스템을 구현할 수 있다.
본 발명에 첨부된 흐름도의 각 단계의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수도 있다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 흐름도의 각 단계에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 기록매체에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 기록매체에 저장된 인스트럭션들은 흐름도의 각 단계에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 흐름도의 각 단계에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.
또한, 각 단계는 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실시예들에서는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 단계들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
100 : 정합 성능 추정 장치 110 : 획득부
120 : 에지 영상 계산부 130 : 유사도 계산부
140 : 추정부 150 : 가중치 계산부
160 : 에지 정합부 170 : 고유성 계산부

Claims (11)

  1. 정합 성능 추정 장치에 의해 수행되는 정합 성능 추정 방법으로서,
    정사 위성 영상(ortho-rectified satellite image) 내의 특정 위치를 중심으로 하는 국소 영역 내의 국소 정사 위성 영상, 국소 와이어프레임 모델(wireframe model) 집합 및 상기 국소 영역에 정합 검색 영역까지 포함한 주변 정사 위성 영상을 획득하는 단계와,
    상기 국소 정사 위성 영상, 상기 국소 와이어프레임 모델 집합 및 상기 주변 정사 위성 영상에 대하여 각각의 이진 에지 영상을 계산하고 각 에지 픽셀의 방향각을 할당하는 단계와,
    상기 국소 정사 위성 영상의 이진 에지 픽셀과 이에 대응하는 상기 국소 와이어프레임 모델 집합의 이진 에지 픽셀로 이루어진 에지 픽셀 쌍에 대하여, 할당된 방향각의 유사도를 계산하는 단계와,
    계산된 상기 방향각의 유사도에 기초하여 상기 국소 영역의 정합 성능을 추정하는 단계를 포함하는
    정합 성능 추정 방법.
  2. 제 1 항에 있어서,
    상기 국소 정사 위성 영상 내 이진 에지 픽셀 별로 제 1 가중치를 계산하는 단계를 더 포함하고,
    상기 정합 성능을 추정하는 단계는, 상기 방향각의 유사도 및 상기 제 1 가중치에 기초하여 상기 정합 성능을 추정하는
    정합 성능 추정 방법.
  3. 제 2 항에 있어서,
    상기 제 1 가중치로서 하기의 수학식을 계산하는
    Figure 112019024276959-pat00079

    (여기서,
    Figure 112019024276959-pat00080
    는 와이어프레임 모델의 에지 픽셀
    Figure 112019024276959-pat00081
    에 대응하는 정사 위성 영상의 에지 픽셀
    Figure 112019024276959-pat00082
    의 강도를 정규화한 값이다.
    Figure 112019024276959-pat00083
    이고,
    Figure 112019024276959-pat00084
    Figure 112019024276959-pat00085
    는 각각
    Figure 112019024276959-pat00086
    번째 픽셀의 x축 그래디언트, y축 그래디언트이다.
    Figure 112019024276959-pat00087
    Figure 112019024276959-pat00088
    은 각각 정사 위성 영상 전체를 통틀어 계산된 최대 및 최소 그래디언트 강도이다.)
    정합 성능 추정 방법.
  4. 제 2 항에 있어서,
    상기 국소 와이어프레임 모델 집합에 속하는 개별 와이어프레임 모델 별로 제 2 가중치를 계산하는 단계를 더 포함하고,
    상기 정합 성능을 추정하는 단계는, 상기 방향각의 유사도와 상기 제 1 가중치 및 상기 제 2 가중치에 기초하여 상기 정합 성능을 추정하는
    정합 성능 추정 방법.
  5. 제 4 항에 있어서,
    상기 제 2 가중치로서 k번째 와이어프레임에 대해 하기의 수학식을 계산하고,
    Figure 112019024276959-pat00089

    (여기서,
    Figure 112019024276959-pat00090
    는 상기 국소 와이어프레임 모델 집합이
    Figure 112019024276959-pat00091
    개의 개별 와이어프레임으로 구성되어 있다고 가정할 때
    Figure 112019024276959-pat00092
    번째 와이어프레임의 내부 픽셀 좌표 집합이며,
    Figure 112019024276959-pat00093
    는 모델의 경계선 내부에 존재하는 클러터 에지 픽셀의 강도를 나타내는 값으로서,
    Figure 112019024276959-pat00094
    이며,
    Figure 112019024276959-pat00095
    Figure 112019024276959-pat00096
    은 각각 정사 위성 영상 전체를 통틀어 계산된 최대 및 최소 그래디언트 강도이다.)
    상기 정합 성능은 다음 식
    Figure 112019024276959-pat00097
    ,
    Figure 112019024276959-pat00098
    ,
    Figure 112019024276959-pat00099
    ,
    Figure 112019024276959-pat00100
    중 어느 하나를 이용하여 추정하는
    Figure 112019024276959-pat00101

    Figure 112019024276959-pat00102

    Figure 112019024276959-pat00103

    Figure 112019024276959-pat00104

    (여기서,
    Figure 112019024276959-pat00105
    는 픽셀
    Figure 112019024276959-pat00106
    에서 상기 국소 정사 위성 영상의 x축 그래디언트
    Figure 112019024276959-pat00107
    및 y축 그래디언트
    Figure 112019024276959-pat00108
    에 대하여 벡터 (
    Figure 112019024276959-pat00109
    ,
    Figure 112019024276959-pat00110
    )가 가리키는 방향으로 결정된다.
    Figure 112019024276959-pat00111
    는 픽셀
    Figure 112019024276959-pat00112
    가 표현하는 와이어프레임 모델의 한 선분의 방향각이다. 단, 픽셀
    Figure 112019024276959-pat00113
    가 정확히 선분의 양 끝점 중 하나를 표현할 경우, Don’t Care 처리한다.
    Figure 112019024276959-pat00114
    Figure 112019024276959-pat00115
    는 각각 상기 국소 와이어프레임 집합의 이진 에지 픽셀 좌표 집합, 상기 국소 정사 위성 영상의 이진 에지 픽셀 좌표 집합이다.
    Figure 112019024276959-pat00116
    이다.
    Figure 112019024276959-pat00117
    Figure 112019024276959-pat00118
    °와
    Figure 112019024276959-pat00119
    °가 같은 방향이라고 간주하고 값이 적은 방향으로 계산한다. 단,
    Figure 112019024276959-pat00120
    가 Don’t Care 처리된 경우
    Figure 112019024276959-pat00121
    은 1로 계산한다.
    Figure 112019024276959-pat00122
    이며,
    Figure 112019024276959-pat00123
    Figure 112019024276959-pat00124
    은 각각 정사 위성 영상 전체를 통틀어 계산된 최대 및 최소 그래디언트 강도이다.
    Figure 112019024276959-pat00125
    이며,
    Figure 112019024276959-pat00126
    는 상기 국소 와이어프레임 모델 집합이
    Figure 112019024276959-pat00127
    개의 개별 와이어프레임으로 구성되어 있다고 가정할 때
    Figure 112019024276959-pat00128
    번째 개별 와이어프레임의 내부 픽셀 좌표 집합이다.
    Figure 112019024276959-pat00129
    Figure 112019024276959-pat00130
    번째 개별 와이어프레임의 에지 픽셀 좌표 집합이다.)
    정합 성능 추정 방법.
  6. 제 1 항에 있어서,
    상기 국소 와이어프레임 모델 집합의 이진 에지 영상을 참조 영상으로 하고, 상기 국소 정사 위성 영상 및 상기 주변 정사 위성 영상의 이진 에지 영상을 입력 영상으로 하여 정합을 수행하고 정합 검색 영역에 대한 정합 유사도맵을 계산하는 단계와,
    계산된 상기 정합 유사도맵에 기초하여 상기 국소 영역의 고유성을 정량화하는 단계를 더 포함하는
    정합 성능 추정 방법.
  7. 정사 위성 영상(ortho-rectified satellite image) 내의 주어진 위치를 중심으로 하는 국소 영역 내의 국소 정사 위성 영상, 국소 와이어프레임 모델(wireframe model) 집합 및 상기 국소 영역에 정합 검색 영역까지 포함한 주변 정사 위성 영상을 획득하는 획득부와,
    상기 국소 정사 위성 영상, 상기 국소 와이어프레임 모델 집합 및 상기 주변 정사 위성 영상에 대하여 각각의 이진 에지 영상을 계산하고 각 에지 픽셀의 방향각을 할당하는 에지 영상 계산부와,
    상기 국소 정사 위성 영상의 이진 에지 픽셀과 이에 대응하는 상기 국소 와이어프레임 모델 집합의 이진 에지 픽셀로 이루어진 에지 픽셀 쌍에 대하여, 할당된 방향각의 유사도를 계산하는 유사도 계산부와,
    계산된 상기 방향각의 유사도에 기초하여 상기 국소 영역의 정합 성능을 추정하는 추정부를 포함하는
    정합 성능 추정 장치.
  8. 제 7 항에 있어서,
    상기 국소 정사 위성 영상 내 이진 에지 픽셀 별로 제 1 가중치를 계산하는 가중치 계산부를 더 포함하고,
    상기 추정부는, 상기 방향각의 유사도 및 상기 제 1 가중치에 기초하여 상기 정합 성능을 추정하는
    정합 성능 추정 장치.
  9. 제 8 항에 있어서,
    상기 가중치 계산부는, 상기 국소 와이어프레임 모델 집합에 속하는 개별 와이어프레임 모델 별로 제 2 가중치를 계산하고,
    상기 추정부는, 상기 방향각의 유사도와 상기 제 1 가중치 및 상기 제 2 가중치에 기초하여 상기 정합 성능을 추정하는
    정합 성능 추정 장치.
  10. 제 7 항에 있어서,
    상기 국소 와이어프레임 모델 집합의 이진 에지 영상을 참조 영상으로 하고, 상기 국소 정사 위성 영상 및 상기 주변 정사 위성 영상의 이진 에지 영상을 입력 영상으로 하여 정합을 수행하고 정합 검색 영역에 대한 정합 유사도맵을 계산하는 에지 정합부와,
    계산된 상기 정합 유사도맵에 기초하여 상기 국소 영역의 고유성을 정량화하는 고유성 계산부를 더 포함하는
    정합 성능 추정 장치.
  11. 정사 위성 영상(ortho-rectified satellite image) 내의 주어진 위치를 중심으로 하는 국소 영역 내의 국소 정사 위성 영상, 국소 와이어프레임 모델(wireframe model) 집합 및 상기 국소 영역에 정합 검색 영역까지 포함한 주변 정사 위성 영상을 획득하는 단계와,
    상기 국소 정사 위성 영상, 상기 국소 와이어프레임 모델 집합 및 상기 주변 정사 위성 영상에 대하여 각각의 이진 에지 영상을 계산하고 각 에지 픽셀에 방향각을 할당하는 단계와,
    상기 국소 정사 위성 영상의 이진 에지 픽셀과 이에 대응하는 상기 국소 와이어프레임 모델 집합의 이진 에지 픽셀로 이루어진 에지 픽셀 쌍에 대하여, 할당된 방향각의 유사도를 계산하는 단계와,
    계산된 상기 방향각의 유사도에 기초하여 상기 국소 영역의 정합 성능을 추정하는 단계를 포함하는 정합 성능 추정 방법을 프로세서가 수행하도록 하는
    컴퓨터 프로그램이 저장된 컴퓨터 판독 가능한 기록매체.
KR1020190027159A 2019-03-08 2019-03-08 정합 성능 추정 방법 및 장치 KR102102369B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190027159A KR102102369B1 (ko) 2019-03-08 2019-03-08 정합 성능 추정 방법 및 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190027159A KR102102369B1 (ko) 2019-03-08 2019-03-08 정합 성능 추정 방법 및 장치

Publications (1)

Publication Number Publication Date
KR102102369B1 true KR102102369B1 (ko) 2020-04-20

Family

ID=70467263

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190027159A KR102102369B1 (ko) 2019-03-08 2019-03-08 정합 성능 추정 방법 및 장치

Country Status (1)

Country Link
KR (1) KR102102369B1 (ko)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101348681B1 (ko) * 2012-12-28 2014-01-09 국방과학연구소 영상탐지시스템의 다중센서 영상정렬방법 및 이를 이용한 영상탐지시스템의 다중센서 영상정렬장치
KR101677230B1 (ko) * 2015-06-26 2016-11-18 (주)인스페이스 이종 영상 융합 알고리즘의 품질 평가 장치 및 방법
KR20170111248A (ko) * 2016-03-25 2017-10-12 국방과학연구소 Ir 및 sar 영상을 이용한 표적 탐지 장치 및 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101348681B1 (ko) * 2012-12-28 2014-01-09 국방과학연구소 영상탐지시스템의 다중센서 영상정렬방법 및 이를 이용한 영상탐지시스템의 다중센서 영상정렬장치
KR101677230B1 (ko) * 2015-06-26 2016-11-18 (주)인스페이스 이종 영상 융합 알고리즘의 품질 평가 장치 및 방법
KR20170111248A (ko) * 2016-03-25 2017-10-12 국방과학연구소 Ir 및 sar 영상을 이용한 표적 탐지 장치 및 방법

Similar Documents

Publication Publication Date Title
CN110135455B (zh) 影像匹配方法、装置及计算机可读存储介质
US10373380B2 (en) 3-dimensional scene analysis for augmented reality operations
JP5178875B2 (ja) 対応点探索のための画像処理方法
US20180225527A1 (en) Method, apparatus, storage medium and device for modeling lane line identification, and method, apparatus, storage medium and device for identifying lane line
CN110427932B (zh) 一种识别图像中多个票据区域的方法及装置
US20170039723A1 (en) Image Object Segmentation Using Examples
CN109640066B (zh) 高精度稠密深度图像的生成方法和装置
Lo et al. Joint trilateral filtering for depth map super-resolution
CN111209770A (zh) 一种车道线识别方法及装置
US11189032B2 (en) Method and apparatus for extracting a satellite image-based building footprint
CN107545223B (zh) 图像识别方法及电子设备
CN113221925B (zh) 一种基于多尺度图像的目标检测方法及装置
CN111105452A (zh) 基于双目视觉的高低分辨率融合立体匹配方法
KR102665603B1 (ko) 스테레오 매칭을 위한 하드웨어 디스패러티 평가
CN107403465B (zh) 基于结构先验与深度学习的城市场景分段平面重建方法
Kim et al. Adaptive descriptor-based robust stereo matching under radiometric changes
CN115937825B (zh) 在线俯仰角估计的bev下鲁棒车道线生成方法及装置
KR102102369B1 (ko) 정합 성능 추정 방법 및 장치
CN116798041A (zh) 图像识别方法、装置和电子设备
Zou et al. Automatic inpainting by removing fence-like structures in RGBD images
CN114140320B (zh) 图像迁移方法和图像迁移模型的训练方法、装置
Deng et al. Texture edge-guided depth recovery for structured light-based depth sensor
CN114549825A (zh) 目标检测方法、装置、电子设备与存储介质
Han et al. 3D human model reconstruction from sparse uncalibrated views
Miljković et al. Vehicle Distance Estimation Based on Stereo Camera System with Implementation on a Real ADAS Board

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant