KR101677230B1 - 이종 영상 융합 알고리즘의 품질 평가 장치 및 방법 - Google Patents

이종 영상 융합 알고리즘의 품질 평가 장치 및 방법 Download PDF

Info

Publication number
KR101677230B1
KR101677230B1 KR1020150091442A KR20150091442A KR101677230B1 KR 101677230 B1 KR101677230 B1 KR 101677230B1 KR 1020150091442 A KR1020150091442 A KR 1020150091442A KR 20150091442 A KR20150091442 A KR 20150091442A KR 101677230 B1 KR101677230 B1 KR 101677230B1
Authority
KR
South Korea
Prior art keywords
image
satellite
fusion
gcp
algorithm
Prior art date
Application number
KR1020150091442A
Other languages
English (en)
Inventor
최명진
김태영
한영훈
장수민
Original Assignee
(주)인스페이스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)인스페이스 filed Critical (주)인스페이스
Priority to KR1020150091442A priority Critical patent/KR101677230B1/ko
Application granted granted Critical
Publication of KR101677230B1 publication Critical patent/KR101677230B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/20Adaptations for transmission via a GHz frequency band, e.g. via satellite
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
    • H04N21/2665Gathering content from different sources, e.g. Internet and satellite
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/61Network physical structure; Signal processing
    • H04N21/6106Network physical structure; Signal processing specially adapted to the downstream path of the transmission network
    • H04N21/6143Network physical structure; Signal processing specially adapted to the downstream path of the transmission network involving transmission via a satellite
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/61Network physical structure; Signal processing
    • H04N21/6156Network physical structure; Signal processing specially adapted to the upstream path of the transmission network
    • H04N21/6193Network physical structure; Signal processing specially adapted to the upstream path of the transmission network involving transmission via a satellite
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W84/00Network topologies
    • H04W84/02Hierarchically pre-organised networks, e.g. paging networks, cellular networks, WLAN [Wireless Local Area Network] or WLL [Wireless Local Loop]
    • H04W84/04Large scale networks; Deep hierarchical networks
    • H04W84/06Airborne or Satellite Networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W84/00Network topologies
    • H04W84/02Hierarchically pre-organised networks, e.g. paging networks, cellular networks, WLAN [Wireless Local Area Network] or WLL [Wireless Local Loop]
    • H04W84/04Large scale networks; Deep hierarchical networks
    • H04W84/08Trunked mobile radio systems

Abstract

본 발명은 이종 영상 융합 알고리즘의 품질 평가 장치에 관한 것으로서, 상기 이종 영상 융합 알고리즘의 품질 평가 장치는 기준 위성 영상이 저장되어 있는 기준 위성 영상 저장부, 그리고 상기 기준 위성 영상 저장부에 연결되어 있고, 서로 다른 종류의 이종 영상인 제1 위성 영상과 제2 위성 영상이 사용되는 이종 영상 융합 알고리즘을 구동시켜 융합 영상을 생성하고, 생성된 융합 영상의 기준 영역을 이용하여 상기 기준 위성 영상 저장부에 저장된 상기 기준 위성 영상에서 생성된 융합 영상에 대응하는 지역에 해당하는 기준 영상을 추출하며, 추출된 상기 기준 영상에 정해진 GCP 화소를 이용하여 융합 영상에서 예비 GCP 화소를 정하고, 정해진 예비 GCP 화소를 기준으로 품질 평가 영역 내의 화소들의 화소값과 기준 영상의 GCP 화소를 중심으로 한 화소들의 화소값을 이용하여 융합 영상에서 실제 GCP 화소를 선택하고, 선택된 실제 GCP 화소와 예비 GCP 화소의 오차를 이용하여 상기 이종 영상 융합 알고리즘의 정확도를 판정하는 알고리즘 품질 평가부를 포함한다.

Description

이종 영상 융합 알고리즘의 품질 평가 장치 및 방법{APPARATUS AND METHOD FOR ESTIMATING QUALITY OF HETEROGENIC IMAGE FUSION ALGORITHM}
본 발명은 이종 영상 융합 알고리즘의 품질 평가장치 및 방법에 관한 것이다.
각 인공 위성에서 획득되는 위성 영상은 인공 위성의 종류나 위성 영상을 획득하는 영상 획득부의 종류에 따라 레이더 영상(SAR), 적외선 영상(IR), 광학 영상(EO)이 존재한다.
레이더 영상(SAR)은 합성 개구 레이더(Synthetic Aperture Rader)와 같은 영상 레이더를 이용하여 획득한 위성 영상이고, 광학 영상(EO)은 일반적인 광학(Electro-Optical) 카메라를 이용하여 획득한 영상이며, 적외선 영상(IR)은 적외선 카메라에 의해 획득된 위성 영상이다.
이처럼, 서로 다른 종류의 위성 영상이 획득되어 지구에 위치하는 위성 영상 처리 시스템으로 전송되면, 위성 영상 처리 시스템은 내장되어 있는 위성 영상 융합 알고리즘을 이용하여, 서로 다른 종류의 두 위성 영상(즉, 이종 영상)을 융합하여 인공 위성에서 촬영한 위성 영상보다 좀더 정확하고 선명한 위성 영상(즉, 융합 영상)을 생성한다.
이처럼, 서로 다른 두 종류의 위성 영상을 융합하는 위성 영상 융합 알고리즘(즉, 이종 영상 융합 알고리즘)은 여러 개발자에 의해 개발되어 사용되고 있다.
하지만, 각 개발된 위성 영상 알고리즘에 대한 품질 평가(즉, 생성된 융합 영상의 정확도)를 실시하는 방법이 현재 개발되어 있지 않다.
따라서, 사용자의 경우, 자신이 사용하고 있는 위성 영상 융합 알고리즘의 품질을 정확히 파악할 수 없게 되어 사용자의 선택의 폭이 좁아진다.
또한, 개발자의 경우, 자신이 개발한 위성 영상 융합 알고리즘의 정확도가 어느 정도인지 객관적인 평가를 할 수 없는 문제가 발생한다.
따라서 본 발명이 이루고자 하는 기술적 과제는 위성 영상 융합 알고리즘의 성능을 정확하게 파악할 수 있도록 하기 위한 것이다.
본 발명의 한 특징에 따른 이종 영상 융합 알고리즘의 품질 평가 장치는 기준 위성 영상이 저장되어 있는 기준 위성 영상 저장부, 그리고 상기 기준 위성 영상 저장부에 연결되어 있고, 서로 다른 종류의 이종 영상인 제1 위성 영상과 제2 위성 영상이 사용되는 이종 영상 융합 알고리즘을 구동시켜 융합 영상을 생성하고, 생성된 융합 영상의 기준 영역을 이용하여 상기 기준 위성 영상 저장부에 저장된 상기 기준 위성 영상에서 생성된 융합 영상에 대응하는 지역에 해당하는 기준 영상을 추출하며, 추출된 상기 기준 영상에 정해진 GCP 화소를 이용하여 융합 영상에서 예비 GCP 화소를 정하고, 정해진 예비 GCP 화소를 기준으로 품질 평가 영역 내의 화소들의 화소값과 기준 영상의 GCP 화소를 중심으로 한 화소들의 화소값을 이용하여 융합 영상에서 실제 GCP 화소를 선택하고, 선택된 실제 GCP 화소와 예비 GCP 화소의 오차를 이용하여 상기 이종 영상 융합 알고리즘의 정확도를 판정하는 알고리즘 품질 평가부를 포함한다.
상기 특징에 따른 이종 영상 융합 알고리즘의 품질 평가 장치는 상기 알고리즘 품질 평가부에 연결되어 있고 서로 다른 종류의 위성 영상이 저장되어 있는 위성 영상 저장부를 더 포함하는 것이 좋고, 상기 제1 위성 영상은 적어도 하나의 인공 위성으로부터 전송된 위성 영상이고, 상기 제2 위성 영상은 상기 위성 영상 저장부에 저장된 위성 영상에서 선택된 위성 영상인 것이 좋다.
상기 특징에 따른 이종 영상 융합 알고리즘의 품질 평가 장치는 상기 알고리즘 품질 평가부에 연결되어 있고 서로 다른 종류의 위성 영상이 저장되어 있는 위성 영상 저장부와 상기 알고리즘 품질 평가부에 연결되어 있고 서로 다른 종류의 이종 영상 융합 알고리즘이 저장되어 있는 알고리즘 저장부를 더 포함하는 것이 좋고, 상기 제1 위성 영상과 상기 제2 위성 영상은 상기 위성 영상 저장부에 저장된 위성 영상에서 선택된 위성 영상이고, 상기 이종 영상 융합 알고리즘은 사업자 단말로부터 전송된 이종 영상 융합 알고리즘인 것이 좋다.
본 발명의 다른 특징에 따른 이종 영상 융합 알고리즘의 품질 평가 방법은 서로 다른 종류의 이종 영상인 제1 위성 영상과 제2 위성 영상이 사용되는 이종 영상 융합 알고리즘을 구동시켜 새로운 융합 영상을 생성하는 단계, 생성된 융합 영상의 기준 영역을 이용하여 기준 위성 영상 저장부에 저장된 기준 위성 영상에서 생성된 융합 영상에 대응하는 지역에 해당하는 기준 영상을 추출하는 단계, 추출된 상기 기준 영상에 정해진 GCP 화소를 이용하여 융합 영상에 예비 GCP 화소를 선택하는 단계, 정해진 예비 GCP 화소를 기준으로 정해진 품질 평가 영역 내의 화소들의 화소값과 기준 영상의 GCP 화소를 중심으로 한 화소들의 화소값을 이용하여 융합 영상에서 실제 GCP 화소를 선택하는 단계, 그리고 선택된 실제 GCP 화소와 예비 GCP 화소의 오차를 이용하여 상기 이종 영상 융합 알고리즘의 정확도를 판정하는 단계를 포함한다.
이러한 특징에 따르면, 새로 개발된 이종 영상 융합 알고리즘의 품질 평가가 이루어져 수치적으로 결과를 확인하므로, 해당 이종 영상 융합 알고리즘의 성능 평가가 객관적으로 행해진다.
또한, 위성 영상에 대한 가장 적합한 이종 영상 융합 알고리즘을 판정하므로, 사용자의 선택의 폭이 넓어지고, 개발자의 경우 자신의 이종 영상 융합 알고리즘과 다른 이종 영상 융합 알고리즘의 성능을 비교 평가하게 되므로, 제품 성능 향상을 가속화시킬 수 있다.
도 1은 본 발명의 한 실시예에 따른 이종 영상 융합 알고리즘의 품질 평가 장치의 블럭도이다.
도 2는 본 발명의 한 실시예에 따른 이종 영상 융합 알고리즘의 품질 평가방법의 동작 순서도로서, 새로운 위성 영상이 전송될 때 이종 영상 융합 알고리즘의 품질 평가방법에 대한 동작 순서도이다.
도 3은 이종 영상 융합 알고리즘의 일반적인 동작 과정을 도시한 순서도이다.
도 4은 도 2에서 융합 영상의 품질을 평가하는 단계의 동작에 대한 동작 순서도이다.
도 5의 (a)와 (b)는 도 4에 따른 융합 영상의 품질을 평가하는 과정을 도시한 도면이다.
도 6은 본 발명의 한 실시예에 따른 이종 영상 융합 알고리즘의 품질 평가방법에 대한 동작 순서도로서, 새로운 이종 영상 융합 알고리즘이 전송될 때 이종 영상 융합 알고리즘의 품질 평가방법에 대한 동작 순서도이다.
아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
어떤 구성요소가 다른 구성요소에 "접속되어" 있다거나 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 접속되어 있거나 연결되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 한다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 접속되어" 있다거나 "직접 연결되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
그러면 첨부한 도면을 참고로 하여 본 발명의 한 실시예에 따른 이종 영상 융합 알고리즘의 품질 평가 장치 및 방법에 대하여 설명한다.
먼저, 도 1을 참고로 하여 본 발명의 한 실시예에 따른 이종 영상 융합 알고리즘의 품질 평가 장치에 대하여 상세하게 설명한다.
도 1에 도시한 본 발명의 한 실시예에 따른 이종 영상 융합 알고리즘의 품질 평가 장치(이하, '품질 평가 장치'라 함)는 각 해당하는 종류의 위성 영상을 획득하여 전송하는 복수의 인공 위성(11), 각 해당하는 이종 영상 융합 알고리즘을 제공하는 복수의 사업자 단말(20), 인공 위성(10)와 사업자 단말(20)에 연결되어 있는 알고리즘 품질 평가 유닛(30), 그리고 알고리즘 품질 평가 유닛(30)과 연결되어 있는 복수의 사용자 단말(40)을 구비한다.
각 인공 위성(10)에서 획득되어 전송하는 위성 영상은 레이더 영상, 적외선 영상 및 광학 영상 중 하나이다.
사업자 단말(20)은 자신이 개발한 이종 영상 융합 알고리즘을 알고리즘 품질 평가 유닛(30)으로 전달하여 해당 이종 영상 융합 알고리즘에 대한 성능(즉, 품질) 검사를 의뢰하게 된다.
따라서, 알고리즘 품질 평가 유닛(30)은 해당 사업자 단말(20)로부터 전송된 이종 영상 융합 알고리즘을 자신이 저장하고 있는 서로 다른 종류의 위성 영상을 이용하여 동작시켜 융합 영상을 생성하고, 생성된 융합 영상과 기준 영상을 이용하여 해당하는 이종 영상 융합 알고리즘의 성능을 평가하게 된다.
알고리즘 품질 평가 유닛(30)은, 도 1에 도시한 것처럼, 알고리즘 품질 평가부(31), 알고리즘 품질 평가부(31)에 연결되어 있고 서로 다른 복수의 이종 영상 융합 알고리즘이 저장되어 있는 알고리즘 저장부(321), 알고리즘 품질 평가부(31)에 연결되어 있고 각 인공 위성(10)에서 전달되는 서로 다른 종류의 위성 영상이 저장되어 있는 위성 영상 저장부(322), 알고리즘 품질 평가부(31)에 연결되어 있고 알고리즘 품질 평가부(31)의 동작에 의해 생성된 융합 영상의 품질을 평가하기 위한 기준 영상을 선택하기 위한 기준 위성 영상이 저장되어 있는 기준 위성 영상 저장부(323), 알고리즘 품질 평가부(31)에 연결되어 있고 이종 영상 융합 알고리즘의 동작에 의해 생성된 융합 영상이 저장되는 융합 영상 저장부(324), 알고리즘 품질 평가부(31)에 연결되어 있고 알고리즘 품질 평가부(31)에 의해 행해진 품질 평가 결과가 저장되는 품질 평가결과 저장부(325), 그리고 복수의 사업자 단말(20) 및 복수의 사용자 단말(40)과의 통신을 행하는 통신부(33)을 구비한다.
알고리즘 품질 평가부(31)는 해당 이종 영상 융합 알고리즘의 정확도(즉, 품질 평가 결과)를 산출하기 위해 예비 GCP(ground control point) 화소와 실제 GCP 화소간의 오차에 대한 정확도가 저장되어 있는 룩업 테이블(look-up table)(311)을 포함하고 있고, 룩업 테이블(311)에 저장된 평가 기준값을 이용해 각 사용자 단말(20)로부터 전달되는 이종 영상 융합 알고리즘의 품질 평가를 실시하여 품질 평가 결과를 산출한다.
그런 다음, 알고리즘 품질 평가부(31)는 통신부(33)를 이용하여 품질 평가 결과를 사업자 단말(20)과 사용자 단말(40)로 전송한다.
알고리즘 저장부(321)는 각 사업자 단말(20)로부터 전송되는 이종 영상 융합 알고리즘과 별도의 수집한 이종 영상 융합 알고리즘이 저장되어 있다.
따라서, 알고리즘 품질 평가부(31)는 융합을 원하는 서로 다른 종류의 두 위성 영상에 해당하는 이종 영상 융합 알고리즘을 알고리즘 저장부(321)로부터 선택하여, 선택된 각 이종 영상 융합 알고리즘의 품질을 평가하게 된다.
예를 들어, 융합을 원하는 위성 영상이 광학 영상(EO)과 적외선 영상(IR)인 경우, 알고리즘 품질 평가부(31)는 알고리즘 저장부(321)에 저장되어 있는 복수의 이종 영상 융합 알고리즘 중에서 광학 영상(EO)과 적외선 영상(IR)의 융합 동작을 수행하는 이종 영상 융합 알고리즘을 모두 선택하여, 선택된 각 이종 영상 융합 알고리즘의 품질을 평가하게 된다.
이로 인해, 복수의 이종 영상 융합 알고리즘 중에서 해당하는 두 이종 영상(예, 광학 영상과 적외선 영상)의 융합 동작에 가장 적합한 이종 영상 융합 알고리즘을 판별할 수 있게 된다.
본 예에서, 이종 영상이라 하면 서로 다른 종류의 위성 영상(예, 광학 영상과 레이더 영상)뿐만 아니라 동일한 종류의 위성 영상이라도 해당 위성 영상의 형태가 다른 동일 종류의 위성 영상(예, 제1 형태의 광학 영상과 제2 형태의 광학 영성)도 지칭한다.
또한, 인공 위성(10)으로부터 레이더 영상(SAR)이 전송되면, 알고리즘 품질 평가부(31)는 알고리즘 저장부(321)에 저장되어 있는 복수의 이종 영상 융합 알고리즘 중에서 레이더 영상(SAR) 및 레이더 영상(SAR)과 다른 종류의 위성 영상을 융합하는 모든 이종 영상 융합 알고리즘을 선택하여, 선택된 각 이종 영상 융합 알고리즘의 품질을 평가하게 된다.
이로 인해, 해당 위성 영상과의 융합에 가장 적합한 위성 영상의 종류(예, 광학 영상)가 무엇인지 판정할 수 있고, 또한, 복수의 이종 영상 융합 알고리즘 중에서 해당하는 두 위성 영상(예, 레이더 영상과 광학 영상)의 융합 동작을 가장 적합하게 수행하는 이종 영상 융합 알고리즘이 어떤 것인지를 판정할 수 있다.
복수의 사용자 단말(40)은 이종 영상 융합 알고리즘을 사용하는 사용자에 의해 동작되는 단말로서, 사용자는 원하는 종류의 이종 영상 융합 알고리즘을 선택하여 사용하게 된다.
이러한 사용자 단말(40)은 알고리즘 품질 평가 유닛(30)으로부터 각 이종 영상 융합 알고리즘의 품질 평가 결과를 전달받으므로, 자신이 사용하고 있는 이종 영상 융합 알고리즘뿐만 아니라 자신이 사용하고 있지 않는 다른 이종 영상 융합 알고리즘의 품질 상태를 확인할 수 있으므로, 이종 영상 융합 알고리즘의 선택이 좀더 용이해진다.
또한, 사업자 단말(20)의 경우, 자신이 개발한 이종 영상 융합 알고리즘의 품질 상태를 객관적으로 평가 받고, 다른 사업자 단말(20)에 의해 개발된 이종 영상 융합 알고리즘의 품질 상태를 확인하게 된다.
다음, 도 2를 참고로 하여 본 예에 따른 품질 평가 장치의 동작을 설명한다.
먼저, 도 2를 참고로 하여 복수의 인공 영상(10) 중 하나에서 위성 영상이 인가될 때, 인가된 위성 영상을 다른 종류의 위성 영상과 융합하는 이종 영상 융합 알고리즘의 품질을 평가하는 동작을 설명한다.
알고리즘 품질 평가 유닛(30)의 동작이 시작되면(S10), 알고리즘 품질 평가부(31)는 복수의 인공 위성(10)에서 위성 영상이 입력되는지를 판단한다(S11).
인공 위성(10)에서 위성 영상이 입력되면, 알고리즘 품질 평가부(31)는 입력된 위성 영상을 위성 영상 저장부(322)에 저장한다.
이때, 알고리즘 품질 평가 유닛(30)으로 전송되는 위성 영상에는 촬영된 지역에 대한 영상 데이터뿐만 아니라 해당 위성 영상을 촬영한 인공 위성(10)의 정보(즉, 종류), 위성 영상의 종류, 촬영된 날짜 정보 및 지역 정보(즉, 위도값과 경도값) 및 촬영된 위성 영상의 구름량과 같은 메타 데이터(metadata)를 구비하고 있다.
해당 위성 영상을 해당 저장부(322)에 저장한 후, 알고리즘 품질 평가부(31)는 알고리즘 저장부(321)에서 전송된 해당 위성 영상의 종류와 같은 종류의 위성 영상을 처리하는 이종 영상 융합 알고리즘을 선택한다(S13).
즉, 전송된 위성 영상이 광학 영상(EO)인 경우, 알고리즘 품질 평가부(31)는 융합하고자 하는 서로 다른 두 종류의 위성 영상 중에서 하나의 위성 영상이 광학 영상(EO)인 알고리즘을 모두 선별하게 된다.
그런 다음, 전송된 하나의 위성 영상(예, 제1 위성 영상)과 선별된 이종 영상 융합 알고리즘에서 필요로 하는 다른 하나의 위성 영상(예, 제2 위성 영상)을 선별된 해당 이종 영상 융합 알고리즘에 적용해 해당 이종 영상 융합 알고리즘을 동작시켜, 새로운 융합 영상을 생성한 후(S14), 융합 영상 저장부(324)에 저장한다(S15).
위에 기재한 것처럼, 서로 융합되는 두 이종 영상 중에서 하나의 이종 영상(즉, 제1 위성 영상)은 인공 위성(10)에서 전송된 위성 영상이 되고 다른 하나의 이종 영상(즉, 제2 위성 영상)은 위성 영상 저장부(322)에 저장되어 있는 위성 영상으로서, 선별된 해당 이종 영상 융합 알고리즘에서 사용되는 위성 영상이다.
예들 들어, 선별된 이종 영상 융합 알고리즘이 제1 위성 영상(예, 광학 영상)과 적외선 영상(IR)을 융합하는 이종 영상 융합 알고리즘인 경우, 위성 영상 저장부(322)에서 다양한 형태의 적외선 영상을 선택하고, 광학 영상과 선택된 모든 형태의 적외선 영상에 대한 융합 동작을 모두 실시하여, 각 경우에 대한 융합 영상이 얻어진다.
또한, 선별된 이종 영상 융합 알고리즘이 제1 위성 영상인 광학 영상(EO)과 레이더 영상(SAR)을 융합하는 경우, 역시 위성 영상 저장부(322)에서 다양한 형태의 레이더 영상을 선택하고, 광학 영상(EO)과 선택된 모든 형태의 레이더 영상(SAR)에 대한 융합 동작을 모두 실시하여, 각 경우에 대한 해당 이종 영상 융합 알고리즘에서 생성된 융합 영상이 얻어진다.
이러한 방식으로, 선택된 적어도 하나의 이종 영상 융합 알고리즘에서 사용되는 나머지 위성 영상인 제2 위성 영상에 대한 선별 동작을 실시하여, 선별된 각 제2 위성 영상과 제1 위성 영상의 융합 동작이 이루어지게 된다.
이종 영상 융합 알고리즘의 동작은, 도 3에 도시한 것처럼, 선택된 제1 위성 영상과 제2 위성 영상에 대한 잡음제거와 보정 동작과 같은 제1 및 제2 위성 영상에 대한 전처리 동작을 수행하고(S141), 전처리 동작을 마친 제1 및 제2 위성 영상의 정합 동작을 수행하며(S142), 마지막으로 제1 및 제2 위성 영상의 융합 동작을 실시하여(S143), 제1 및 제2 위성 영상이 융합된 융합 영상을 얻게 된다.
일반적인 전처리 동작은 다음과 같다.
먼저, 위성 영상이 레이더 영상(SAR)인 경우, 스펙클(speckle), 도플러 시프트(Doppler shift), ISLR(Integrated Side Lobe Ratio)등으로 기인된 잡음 성분은 멀티-룩(multi-look)이라는 잡음 제거 동작을 통해 제거될 수 있다.
이 멀티-룩 기법은 설정된 범위의 화소(pixel)를 설정해 주면(예, 2ㅧ2, 4ㅧ4 또는 6ㅧ6), 설정 범위 내에 속한 화소의 데이터를 결합시킨다. 이러한 멀티-룩 기법이 적용되면 해당 영상의 해상도는 저하되지만 스펙클 노이즈 등이 감소한다.
이처럼, 레이더 영상(SAR)에 함유된 잡음 성분이 제거되면, 방사 보정, 기하 보정 등이 행해진다.
방사 보정은 동일한 영상 획득부에서 얻어진 위성 영상이더라도 각 위성 영상 별로 영상 데이터의 값(즉, 화소값)이 상이할 수 있어, 이러한 영상 데이터의 값의 차이를 보상하기 위한 보정 동작이다.
일반적으로 레이더 영상(SAR)을 획득하는 합성 개구 레이더는 전자파를 이용하여 지표면의 전파 영상을 획득하는 레이더로서 기하구조, 관측방향, 전파특성 및 영상 형성 과정의 오차로 인해 기하 위치 오차가 발생한다.
특히 기하구조에 의한 오차는 위성 영상 레이더 운용 시 변경이 불가능하기 때문에 획득된 영상을 지도와 같이 활용하기 위해서는 이러한 왜곡들을 반드시 보정해야 한다. 이러한 왜곡들을 보정하는 동작을 기하 보정(geocoding)이라 하며 해당 레이더 영상(SAR)에서 각 화소의 위치 좌표와 지리 좌표를 일치시켜주는 것이다.
레이더 영상(SAR)에 포함되는 기하학적 왜곡은 레이더 영상에서 각 화소의 위치 좌표와 지도 좌표계에서의 대상물 좌표와의 차이로 나타낼 수 있는데, 이러한 차이는 영상에서의 대상물의 위치와 실제 위치가 달라 왜곡을 일으키게 된다.
따라서, 적절한 지구 타원체[예, WGS84 타원체]와 좌표계[예, UTM(Universal Transverse Mercator)좌표계]를 사용하여 이러한 기하학적 왜곡을 제거할 수 있다.
이처럼 레이더 영상(SAR)에 대한 보정 동작이 행해지면, 해당 레이더 영상(SAR)에 대한 해상도를 설정 해상도로 일치시키는 동작을 수행하여, 두 이종 영상의 융합 동작이 행해질 수 있도록 한다.
위성 영상이 광학 영상(EO)이나 적외선 영상(IR)인 경우에는, 레이더 영상(SAR)과 달리 별도의 잡음 제거 과정 없이 방사 보정과 기하 보정을 실시한다.
광학 영상(EO)을 획득하기 위한 영상 획득부에 도달하는 에너지는 대기를 두 번 통과하여 도달하는 것으로서, 하나는 태양 복사 에너지가 대기를 투과하여 지표에 복사되는 것이며, 다른 하나는 지표에서 반사된 태양 복사 에너지가 대기를 투과하여 영상 획득부에 도달하는 것으로, 대기의 산란(scattering), 흡수(absorption) 및 굴절(refraction)은 생성되는 위성 영상에 직접적인 영향을 미쳐 지표의 반사율을 왜곡시키는 주요 원인이 된다.
따라서, 광학 영상(EO)과 적외선 영상(IR)을 이용하기 위해서는 이처럼 대기로 인해 왜곡을 보정해야 하며, 이를 위해 COST(cosine approximation model) 대기보정 알고리즘이 사용될 수 있다.
위성 영상에는 영상 획득 당시의 인공 위성의 자세 변화나 지구의 자전 등의 다양한 원인으로 인한 기하학적 왜곡이 포함되어 있고, 이러한 기하학적 왜곡을 보정하고 위성 영상의 각 격자에 좌표 값을 부여하는 것이 기하보정이다.
평면 기하보정 컴포넌트 소프트웨어는 영상에 잘 분포된 지상 기준점을 다양한 변환식에 적용하여 위성 영상이 가지고 있는 기하학적 왜곡을 보정하는 기능을 한다.
광학 영상(EO)과 적외선 영상(IR)을 위한 기하 보정 방법으로는 Affine, Bilinear, Projective, 2차, 3차 다항식 변환과 Rubber sheeting 방법이 제공된다.
이처럼, 기하 보정까지 행해진 광학 영상(EO)과 적외선 영상(IR)은 영상 재배열 과정을 거치게 된 후 레이더 영상(SAR)과 같은 해상도 일치 과정을 거친다.
영상 재배열 동작은 기하 보정 후 원래 위성 영상의 배열에 대응하도록 정해진 보정식에 따라서 기하 보정된 위성 영상의 각 화소에 해당하는 화소값을 부여하는 동작이다.
이러한 영상 재배열 동작을 위한 방법은 최근린내삽법(Nearest neighbor), 공1차내삽법(Bilinear interpolation), 3차 보간법인 큐빅 컨볼루젼(Cubic convolution) 방법 등이 존재한다.
최근린내삽법은 계산된 영상 좌표에 가까운 화소를 택하는 방식이고, 공1차내삽법은 인접한 4개 화소 값에 대하여 거리에 따른 가중 평균치를 택하는 법이며, 큐빅 컨볼루젼 방법은 주위 16개 화소에 대하여 사인(sin) 함수 등을 적용하는 방식이다.
제1 위성 영상과 제2 위성 영상의 정합(registration) 동작은 특징요소 추출(feature extraction), 특징요소 간 정합(feature matching), 변환모델 구성(transformation model estimation), 그리고 기하보정(image registration)의 네 단계로 구성된다.
특징요소 정합 방법으로는 CC(Cross-Correlation), MI(Mutual Information) 또는 LSM(Least-Squares Matching) 등의 강도기반 정합기법(intensity-based matching method)과 SIFT(Scale-Invariant Feature Transform)나 SURF(Speeded Up Robust Features)등의 특징기반 정합기법(feature-based matching method) 등이 있다.
광학 영상(EO)간의 정합 기법의 경우에는 특징점 추출을 기반으로 하는 방법을 가장 많이 사용하고 있다.
레이더 영상(SAR)과 광학 영상(EO)과 같은 이종 영상간 영상 융합을 위한 자동 접합 기법의 경우 역시 특징점 기준의 접근 방법이 가장 많이 사용되고 있으며, 이는 이종 영상 사이에 존재하는 가장자리(edge)나 선(line)과 같은 경계선을 추출하여 정합을 수행하는 방법이다. 또 따른 정합 방법은 신호 기반의 접근 방법으로 지역 윈도우로부터 방사적 유사성을 계산하여 정합하는 방법이 존재한다.
경계선 추출 방법은 1차 미분검출기인 소벨(Soble), 프리윗(Prewitt), 로버츠(Roberts), 라플라시안(Laplacian), 캐니(Canny) 등이 사용될 수 있다.
본 예에서 사용되는 이종 영상의 융합 기법은 화소 중심의 융합 기법으로서, 팬샤피닝(pansharpening) 기법이다.
이 팬샤피닝 기법은 CS(Component-Substitution) 기법과 MRA(Multi-Resolution Analysis) 기법에 의한 이종 영상 융합 알고리즘이 존재한다.
이종 영상인 두 위성 영상이 융합될 때 각 화소의 화소값은 최소값 결정 방식, 최대값 결정 방식 또는 평균값 결정 방식이 사용될 수 있다.
다시 도 2로 넘어가, 단계(S14)의 동작으로 선택된 이종 영상 융합 알고리즘 각각에 제1 위성 영상과 선택된 각 제2 위성 영상을 적용하여 제1 위성 영상과 제2 위성 영상에 대한 융합 동작이 행해진 후, 알고리즘 품질 평가부(31)는 생성된 융합 영상에 대한 품질 평가 동작을 실시한다(S16).
따라서, 도 4에 도시한 것처럼, 알고리즘 품질 평가부(31)의 동작이 융합 영상의 품질을 평가하는 단계로 넘어가면, 기준 위성 영상 저장부(323)에서 기준 위성 영상 중에서 획득된 융합 영상에 대응하는 지역에 해당하는 기준 영상을 추출한다(S161).
이때, 기준 위성 영상은 이종 영상 융합 알고리즘의 품질 평가 장치의 관리자가 구글 어스(Google Earth), 항공 사진, 또는 별도의 고해상도 영상 획득 장비를 이용하여 획득한 영상이다.
이를 위해, 알고리즘 품질 평가부(31)는 도 5의 (a)와 같이 매트릭스 형태(matrix type)(m×n)의 화소 구조를 갖는 생성된 융합 영상에서 네 모서리에 위치한 각 화소(PX11, PX1n, PXm1, PXmn)를 선택하고, 각 선택된 화소(PX11, PX1n, PXm1, PXmn)에 대한 위치 좌표값(위도값, 경도값)을 판정한다.
이미 설명한 것처럼, 각 위성 영상은 촬영된 지역 정보를 구비하고 있고, 각 화소에 대응하는 지역의 위도값과 경도값이 각 화소의 위치 좌표값이 된다.
따라서, 알고리즘 품질 평가부(31)는 선택된 모서리의 각 화소(PX11, PX1n, PXm1, PXmn)와 동일한 위치 좌표값을 갖는 네 개의 화소를 기준 위성 영상에서 선택하여, 도 5의 (b)와 같이 선택된 네 개의 화소(PX11, PX1n, PXm1, PXmn)를 기초해 형성된 사각형의 영역을 기준 영역으로 선정하고, 이 기준 영역에 포함되는 기준 위성 영상을 기준 영상으로 추출한다.
다음, 알고리즘 품질 평가부(31)는 추출된 기준 영상에서 GCP(ground control point)로 지정된 화소(즉, GCP 화소)를 추출한다(S162).
이미 기준 영상에는 사용자에 의해 적어도 하나의 GCP 화소가 지정되어 있고, 이 GCP 화소는 기준 영상의 특정 지역을 확인하기 위한 것으로서 특별한 길, 도로, 사거리 등과 같은 특정 지역을 나타내는 화소이다.
도 5의 (b)에는 예로서, 하나의 GCP 화소(PXGCP_ref)가 정해져 있다.
이미 기준 위성 영상 저장부(323)에는 각 GCP 화소에 대한 위치 좌표값 역시 저장되어 있다.
알고리즘 품질 평가부(31)는 기준 영상에서 GCP 화소로 지정된 화소(PXGCP_ref)가 추출되면, 생성된 융합 영상에서 기준 영상에서의 GCP 화소(PXGCP_ref)에 대한 위치 좌표값과 동일한 위치 좌표값을 갖는 화소를 융합 영상의 예비 GCP 화소로 정한다(S163).
적외선 영상(IR)과 레이더 영상(SAR)을 융합하여 도 5의 (a)와 같은 융합 영상이 생성된 경우, 기준 영상의 GCP 화소(PXGCP_ref)와 동일한 위치 좌표값을 갖는 예비 GCP 화소는 화소(PXGCP_FUS)이다.그런 다음, 알고리즘 품질 평가부(31)는 융합 영상의 예비 GCP 화소(PXGCP _ FUS)를 중심으로 행 방향과 열 방향으로 정해진 개수(5ㅧ5)만큼의 영역을 품질 평가 영역으로 하고, 이 품질 평가 영역 내에 속하는 화소들의 화소값을 판정한다(S164).
이때, 정해진 품질 평가 영역 내의 화소값을 판정하기 전에, 생성된 융합 영상의 모든 화소의 화소값을 이진수(0 또는 1)로 변화하는 이진화를 실시한다.
또한, 기준 영상 역시 이미 이진화된 영상이다.
다음, 생성된 융합 영상의 품질 평가 영역내의 화소값의 분포 상태와 기준 영상의 GCP 화소(PXGCP_ref)를 중심으로 한 주변의 화소값의 분포 상태를 서로 비교하여, 실제로 기준 영상의 GCP 화소(PXGCP_ref)에 해당하는 화소를 선택하여 선택된 화소를 융합 영상의 실제 GCP 화소라 한다.
기준 영상의 GCP 화소(PXGCP_ref)를 중심으로 한 화소값의 분포 역시 이미 정해져 있는 영역 내에 존재하는 화소들의 화소값 분포에 대한 것으로, 기준 영상의 GCP 화소(PXGCP_ref)을 중심으로 하는 영역의 크기(즉, 행 방향으로의 화소 개수와 열 방향으로 화소 개수)는 이미 정해져 있다.
즉, 기준 영상의 GCP 화소(PXGCP_ref)를 중심으로 한 화소값 분포와 생성된 융합 영상의 예비 GCP 화소(PXGCP_FUS)를 중심으로 한 품질 평가 영역 내의 화소값 분포가 동일한 부분을 선택하고, 기준 영상의 GCP 화소(PXGCP_ref)와 같은 조건을 갖는 융합 영상의 화소를 융합 영상의 실제 GCP 화소로 정하게 된다.
따라서, 도 5의 (a)의 경우, 적외선 영상(IR)에서의 실제 GCP 화소는 예비GCP 화소(PXGCP_FUS)의 위치와 다른 위치에 위한 화소(PXGCP_FUS_IR)이고, 레이더 영상(SAR)에서의 실제 GCP 화소 역시 예비GCP 화소(PXGCP_FUS)의 위치와 다른 위치에 위한 화소(PXGCP_FUS_SAR)가 된다.
이때, 융합 영상의 정해진 품질 평가 영역 내에서 기준 영상의 GCP 화소(PXGCP_ref)를 중심으로 화소값 분포와 동일한 화소값 분포를 갖는 화소(즉, 실제 GCP 화소)를 찾지 못하면, 품질 평가 영역의 범위를 정해진 단위로 확장시켜 실제 GCP 화소의 탐색 동작을 실시하게 된다.
이처럼, 융합 영상에서 예비 GCP 화소(PXGCP_FUS)와 실제 GCP 화소(PXGCP_FUS_IR, PXGCP_FUS_SAR)가 정해지면, 예비 GCP 화소(PXGCP_FUS)와 판정된 실제 GCP(PXGCP_FUS_IR, PXGCP_FUS_SAR)간의 오차(예를 들어, 행 방향과 열 방향으로의 화소수 차이)를 판정한다(S166).
예비 GCP 화소(PXGCP_FUS)와 판정된 실제 GCP(PXGCP_FUS_IR, PXGCP_FUS_SAR)간의 오차가 판정되면, 알고리즘 품질 평가부(31)는 룩업 테이블(311)에 저장된 데이터를 이용하여 판정된 오차에 대응하는 정확도(%)를 읽어와 해당 이종 영상 융합 알고리즘에 대한 품질 평가 결과로 결정하고(S167), 결정된 품질 평가 결과를 품질 평가 결과 저장부(325)에 저장한다(도 2의 단계 S17).
한 예로, 룩업 테이블(311)에 저장되어 있는 산출된 화소 오차에 대한 정확도는 다음의 [표 1]과 같을 수 있다.
오차(행방향-열방향) 0-1 2-5 6-10 10-15 16-25 26-40
정확도 100% 95% 90% 80% 60% 30%
이와 같이, 해당 인공 위성(10)으로 전송된 제1 위성 영상에 관련된 해당 이종 영상 융합 알고리즘의 품질 평가 결과가 산출되면, 알고리즘 품질 평가부(31)는 통신부(33)를 이용하여 판정된 품질 평가 결과(즉, 산출된 정확도)를 모든 사업자 단말(20)과 모든 사용자 단말(40)로 전송한다(S18).
이러한 동작은 해당 제1 위성 영상에 관련된 선별된 모든 이종 영상 융합 알고리즘에 대해서 각각 행해지게 된다
각 알고리즘에 대한 정확도의 한 예는 다음의 [표 2]와 같다.
이종영상 융합 알고리즘 종류 이종 영상 종류 정확도
A EO+SAR 30%
B EO+IR 20%
C IR+SAR 31%
D EO+IR 50%
E IR+SAR 40%
도 2를 참고로 하여 설명한 경우는 인공 위성(10)으로부터 위성 영상이 입력되는 경우, 입력된 위성 영상이 적용되는 이종 접합 융합 알고리즘의 품질을 평가하는 경우이다.
다음, 도 6을 참고로 하여, 사업자 단말(20)로부터 새롭게 개발된 이종 영상융합 알고리즘이 전송될 때, 전송된 이종 영상 융합 알고리즘의 품질을 평가하는 동작을 설명한다.
도 6에 도시한 것처럼 도 2과 비교할 때, 전송되는 대상이 위성 영상이 아니라 이종 영상 융합 알고리즘이고(S21, S22), 알고리즘 품질 평가부(31)는 입력된 위성 영상에 해당하는 이종 영상 융합 알고리즘을 선택하는 대신 입력된 이종 영상 융합 알고리즘에서 사용되는 서로 다른 종류의 위성 영상을 위성 영상 저장부(322)에서 검색하여 각 검색된 적어도 하나의 제1 위성 영상과 적어도 하나의 제2 위성 영상을 각각 조합하여 입력된 이종 영상 융합 알고리즘에 적용하여, 각 경우에 대한 이종 영상 융합 알고리즘의 정확도를 판정하는 것이 상이합니다.
따라서, 전송된 이종 영상 융합 알고리즘에 적용된 제1 및 제2 위성 영상을 선택한 후, 선택된 제1 및 제2 위성 영상을 이용하여 해당 이종 영상 융합 알고리즘을 동작시켜 생성된 융합 영상에 대한 정확도(즉 품질 평가 결과)를 산출하고, 산출된 정확도를 저장하며 전송하는 동작(S24-S28)은 도 2의 단계(S14-S18)를 참고로 하여 설명한 것과 동일하다.
이처럼, 새로운 이종 영상 융합 알고리즘이 사업자 단말(20)로부터 전송되면, 이에 적용되는 모든 이종 영상에 대한 정확도가 산출되므로, 전송된 이종 영상 융합 알고리즘에 가장 적합한 이종 영상이 무엇인지 개발자와 사용자가 모두 알 수 있게 되어, 사용자의 선택의 폭이 향상되며 또한 개발자는 자신의 이종 영상 융합 알고리즘의 품질 개선의 향상에 노력하게 된다.
이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.
10: 인공 위성 20: 사업자 단말
230: 알고리즘 품질 평가 유닛 40: 사용자 단말
31: 알고리즘 품질 평가부 321: 알고리즘 저장부
322: 위성 영상 저장부 323: 기준 위성 영상 저장부

Claims (4)

  1. 기준 위성 영상이 저장되어 있는 기준 위성 영상 저장부;
    상기 기준 위성 영상 저장부에 연결되어 있고, 서로 다른 종류의 이종 영상인 제1 위성 영상과 제2 위성 영상이 사용되는 이종 영상 융합 알고리즘을 구동시켜 융합 영상을 생성하고, 생성된 융합 영상의 기준 영역을 이용하여 상기 기준 위성 영상 저장부에 저장된 상기 기준 위성 영상에서 생성된 융합 영상에 대응하는 지역에 해당하는 기준 영상을 추출하며, 추출된 상기 기준 영상에 정해진 GCP 화소를 이용하여 융합 영상에서 예비 GCP 화소를 정하고, 정해진 예비 GCP 화소를 기준으로 품질 평가 영역 내의 화소들의 화소값과 기준 영상의 GCP 화소를 중심으로 한 화소들의 화소값을 이용하여 융합 영상에서 실제 GCP 화소를 선택하고, 선택된 실제 GCP 화소와 예비 GCP 화소의 오차를 이용하여 상기 이종 영상 융합 알고리즘의 정확도를 판정하는 알고리즘 품질 평가부;
    상기 알고리즘 품질 평가부에 연결되어 있고 서로 다른 종류의 위성 영상이 저장되어 있는 위성 영상 저장부; 및
    상기 알고리즘 품질 평가부에 연결되어 있고 서로 다른 종류의 이종 영상 융합 알고리즘이 저장되어 있는 알고리즘 저장부;를 포함하고,
    상기 이종 영상 융합 알고리즘은 사업자 단말로부터 전송된 이종 영상 융합 알고리즘인 것을 특징으로 하는 이종 영상 융합 알고리즘의 품질 평가 장치.
  2. 제1항에서,
    상기 제1 위성 영상은 적어도 하나의 인공 위성으로부터 전송된 위성 영상이고,
    상기 제2 위성 영상은 상기 위성 영상 저장부에 저장된 위성 영상에서 선택된 위성 영상인 것을 특징으로 하는 이종 영상 융합 알고리즘의 품질 평가 장치.
  3. 삭제
  4. 삭제
KR1020150091442A 2015-06-26 2015-06-26 이종 영상 융합 알고리즘의 품질 평가 장치 및 방법 KR101677230B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020150091442A KR101677230B1 (ko) 2015-06-26 2015-06-26 이종 영상 융합 알고리즘의 품질 평가 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150091442A KR101677230B1 (ko) 2015-06-26 2015-06-26 이종 영상 융합 알고리즘의 품질 평가 장치 및 방법

Publications (1)

Publication Number Publication Date
KR101677230B1 true KR101677230B1 (ko) 2016-11-18

Family

ID=57537640

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150091442A KR101677230B1 (ko) 2015-06-26 2015-06-26 이종 영상 융합 알고리즘의 품질 평가 장치 및 방법

Country Status (1)

Country Link
KR (1) KR101677230B1 (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101941878B1 (ko) 2017-05-18 2019-01-28 (주)인스페이스 무인항공기 영상 자동 기하보정을 위한 처리시스템
KR102102369B1 (ko) * 2019-03-08 2020-04-20 국방과학연구소 정합 성능 추정 방법 및 장치
KR102160682B1 (ko) 2019-11-05 2020-09-29 인천대학교 산학협력단 다중 스펙트럼 영상을 이용한 원격 이미지 처리 방법 및 장치
KR20220096140A (ko) 2020-12-30 2022-07-07 주식회사 인포웍스 인공지능 알고리즘 기반 광학 및 라이다 영상 융합 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050066373A (ko) * 2003-12-26 2005-06-30 한국전자통신연구원 지상기준점 영상 칩을 이용한 온라인 기하 보정 서비스제공 방법
KR20090096142A (ko) * 2008-03-07 2009-09-10 한국항공우주연구원 위성 영상 융합 방법 및 시스템
KR20120000736A (ko) * 2010-06-28 2012-01-04 서울대학교산학협력단 영상의 분광 및 공간특성이 반영된 융합계수를 이용하여 고해상도 위성영상을 융합하는 방법
KR101381293B1 (ko) * 2012-12-31 2014-04-04 한국해양과학기술원 관측영상 기반의 인공위성 성능 평가 방법 및 장치.

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050066373A (ko) * 2003-12-26 2005-06-30 한국전자통신연구원 지상기준점 영상 칩을 이용한 온라인 기하 보정 서비스제공 방법
KR20090096142A (ko) * 2008-03-07 2009-09-10 한국항공우주연구원 위성 영상 융합 방법 및 시스템
KR20120000736A (ko) * 2010-06-28 2012-01-04 서울대학교산학협력단 영상의 분광 및 공간특성이 반영된 융합계수를 이용하여 고해상도 위성영상을 융합하는 방법
KR101381293B1 (ko) * 2012-12-31 2014-04-04 한국해양과학기술원 관측영상 기반의 인공위성 성능 평가 방법 및 장치.

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101941878B1 (ko) 2017-05-18 2019-01-28 (주)인스페이스 무인항공기 영상 자동 기하보정을 위한 처리시스템
KR102102369B1 (ko) * 2019-03-08 2020-04-20 국방과학연구소 정합 성능 추정 방법 및 장치
KR102160682B1 (ko) 2019-11-05 2020-09-29 인천대학교 산학협력단 다중 스펙트럼 영상을 이용한 원격 이미지 처리 방법 및 장치
KR20220096140A (ko) 2020-12-30 2022-07-07 주식회사 인포웍스 인공지능 알고리즘 기반 광학 및 라이다 영상 융합 방법

Similar Documents

Publication Publication Date Title
Cronk et al. Automated metric calibration of colour digital cameras
Kang et al. Automatic targetless camera–lidar calibration by aligning edge with gaussian mixture model
AU2019301133B2 (en) Image registration to a 3D point set
US20020061132A1 (en) Stereo image processing apparatus and method of processing stereo image
US7912321B1 (en) Image registration with uncertainty analysis
KR101677230B1 (ko) 이종 영상 융합 알고리즘의 품질 평가 장치 및 방법
CN110569861B (zh) 一种基于点特征和轮廓特征融合的图像匹配定位方法
CN111044037B (zh) 一种光学卫星影像的几何定位方法及装置
CN109523585B (zh) 一种基于方向相位一致性的多源遥感影像特征匹配方法
Noh et al. Automatic relative RPC image model bias compensation through hierarchical image matching for improving DEM quality
Buades et al. Reliable multiscale and multiwindow stereo matching
CN109961417A (zh) 图像处理方法、装置及移动装置控制方法
CN108564532B (zh) 大尺度地距星载sar图像镶嵌方法
US11538135B2 (en) Automatic multi-image 3D ground control point extraction
WO2021067252A1 (en) Image targeting via targetable 3d data
He et al. Linear approach for initial recovery of the exterior orientation parameters of randomly captured images by low-cost mobile mapping systems
CN115578468A (zh) 外参标定方法、装置、计算机设备、存储介质
Potuckova Image matching and its applications in photogrammetry
Zhang et al. Automated registration of high‐resolution satellite images
Zhang et al. Guided feature matching for multi-epoch historical image blocks pose estimation
Markiewicz et al. The New Approach to Camera Calibration–GCPs or TLS Data?
Dare et al. Digital Orthomosaics as a Source of Control For Geometrically Correction High Resolution Satellite İmagery
Berveglieri et al. Locating Control Points In Aerial Images With A Multi‐Scale Approach Based On Terrestrial Image Patches
KR20170085871A (ko) 위성영상의 위치 정확도 개선을 위한 자동영상처리시스템 및 방법
CN114863145B (zh) 一种夜光影像稀疏灯光连接点匹配方法

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant