KR20180092066A - 이종센서 영상 융합 알고리즘의 관리 및 평가 장치 - Google Patents

이종센서 영상 융합 알고리즘의 관리 및 평가 장치 Download PDF

Info

Publication number
KR20180092066A
KR20180092066A KR1020170017382A KR20170017382A KR20180092066A KR 20180092066 A KR20180092066 A KR 20180092066A KR 1020170017382 A KR1020170017382 A KR 1020170017382A KR 20170017382 A KR20170017382 A KR 20170017382A KR 20180092066 A KR20180092066 A KR 20180092066A
Authority
KR
South Korea
Prior art keywords
algorithm
image
pixel
gcp
unit
Prior art date
Application number
KR1020170017382A
Other languages
English (en)
Inventor
최명진
장수민
고형균
Original Assignee
(주)인스페이스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)인스페이스 filed Critical (주)인스페이스
Priority to KR1020170017382A priority Critical patent/KR20180092066A/ko
Publication of KR20180092066A publication Critical patent/KR20180092066A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/36Preventing errors by testing or debugging software
    • G06F11/3668Software testing
    • G06F11/3696Methods or tools to render software testable
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/36Preventing errors by testing or debugging software
    • G06F11/3668Software testing
    • G06F11/3672Test management
    • G06F11/3688Test management for test execution, e.g. scheduling of test suites
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/36Preventing errors by testing or debugging software
    • G06F11/3668Software testing
    • G06F11/3672Test management
    • G06F11/3692Test management for test results analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Quality & Reliability (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Image Processing (AREA)

Abstract

본 발명에 의한 이종센서 영상 융합 알고리즘의 관리 및 평가 장치는 이종센서에 의해 획득된 이종영상 또는 이종영상 융합 알고리즘을 입력받는 입력부; 이종영상 및 이종영상 융합 알고리즘 중 적어도 어느 하나를 저장하는 데이터 관리부; 상기 입력부에 의해 입력된 이종영상을 상기 데이터 관리부에 저장되어 있는 이종영상 융합 알고리즘에 적용하여 알고리즘을 구동하거나, 상기 입력부에 의해 입력된 이종영상 융합 알고리즘에 상기 데이터 관리부에 저장되어 있는 이종영상을 적용하여 알고리즘을 구동하는 알고리즘 구동부; 상기 알고리즘 구동부에 의해 구동된 알고리즘의 정확도를 판단하고 이에 대한 평가 결과를 산출하는 알고리즘 평가부; 상기 알고리즘 구동부와 알고리즘 평가부를 관리자가 실시간으로 모니터링 할 수 있는 모니터링 출력부; 및 상기 알고리즘 평가부에 의해 산출된 알고리즘 평가 결과를 표출하는 결과 표출부;를 포함하는 것을 특징으로 한다.

Description

이종센서 영상 융합 알고리즘의 관리 및 평가 장치 {APPARATUS FOR MANAGINGAND ESTIMATING HETEROGENIC SENSOR IMAGE FUSION ALGORITHM}
본 발명은 이종센서 영상 융합 알고리즘의 관리 및 평가 장치에 관한 것으로서, 더욱 상세하게는 이종센서에 의해 획득된 이종영상을 서로 융합하는 알고리즘에 대한 관리 및 평가를 수행할 수 있는 장치에 관한 것이다.
현재 국내외에는 단일 센서 영상 활용을 위한 소프트웨어는 개발되어 있지만, 이종영상을 융합하고 융합된 영상에서 새롭게 부가된 가치를 지닌 고부가 산출물을 생성할 수 있는 소프트웨어는 아직까지 개발되지 않았다.
종래 개시된 일부 소프트웨어는 이와 관련된 기능들이 가능하긴 하지만 사용자가 직접 개발하거나 사용하고 싶은 융합 알고리즘을 소프트웨어에 탑재하지 못하고 단지 탑재된 알고리즘만 사용하여 이종영상을 융합하는 제한된 기능만을 수행할 수 있어 사용자의 선택이나 대상 영상의 종류에 최적화된 알고리즘을 수행할 수 없다는 단점을 가지고 있다.
또한, 종래 개시된 방법에 의할 경우 이종 영상의 융합 및 평가 등을 수행하기 위하여 이종 영상의 대상, 평가 기준, 품질 방향성 등 다양한 파라미터를 고려하여 사용자가 선택할 수 있는 알고리즘을 임의적으로 탑재할 수 없기 때문에 알고리즘의 품질을 평가하는 기능도 이용할 수 없는 한계가 있다고 할 수 있다.
알고리즘을 자유롭게 소프트웨어에 탑재하기 위해서는 플러그인 방식, 즉 알고리즘의 인터페이스만 정해진 규칙대로 맞추면 언제든지 소프트웨어에서구동이 가능하도록 하는 확장성이 고려된 방식을 사용하여 소프트웨어의 프레임워크를 설계해야 하는데, 현재까지는 이러한 플러그인 방식으로 이종영상 융합 알고리즘을 소프트웨어에 탑재할 수 있는 기술은 제시된 바가 없다.
한국공개특허공보 10-2015-0142377호(2015.12.22) 한국공개특허공보 10-2014-0121451호(2014.10.15)
본 발명은 상기와 같은 배경에서 상술된 문제점을 해결하기 위하여창안된 것으로서, 사용자가 자유롭게 이종영상이나 이종영상 융합 알고리즘을 소프트웨어에 탑재하여 구동이 가능하고 품질 평가 및 결과 표출을 수행할 수 있는 구조를 가진 이종센서 영상 융합 알고리즘의 관리 및 평가 장치를 제공하는 데 그 목적이 있다.
본 발명의 다른 목적은 융합된 영상에서 고부가 산출물을 생성하기 위한 알고리즘을 임의로 소프트웨어에 탑재 및 관리할 수 있고 품질 평가 및 결과표출을 수행할 수 있는 이종센서 영상 융합 알고리즘의 관리 및 평가 장치를 제공하는 데 있다.
본 발명의 다른 목적 및 장점들은 아래의 설명에 의하여 이해될 수 있으며, 본 발명의 실시예에 의해 보다 분명하게 알게 될 것이다. 또한, 본 발명의 목적 및 장점들은 특허청구범위에 나타난 구성과 그 구성의 조합에 의하여 실현될 수 있다.
상기 목적을 달성하기 위한 본 발명의 이종센서 영상 융합 알고리즘의 관리 및 평가 장치는 이종센서에 의해 획득된 이종영상 또는 이종영상 융합 알고리즘을 입력받는 입력부; 이종영상 및 이종영상 융합 알고리즘 중 적어도 어느 하나를 저장하는 데이터 관리부; 상기 입력부에 의해 입력된 이종영상을 상기 데이터 관리부에 저장되어 있는 이종영상 융합 알고리즘에 적용하여 알고리즘을 구동하거나, 상기 입력부에 의해 입력된 이종영상 융합 알고리즘에 상기 데이터 관리부에 저장되어 있는 이종영상을 적용하여 알고리즘을 구동하는 알고리즘 구동부; 상기 알고리즘 구동부에 의해 구동된 알고리즘의 정확도를 판단하고 이에 대한 평가 결과를 산출하는 알고리즘 평가부; 상기 알고리즘 구동부와 알고리즘 평가부를 관리자가 실시간으로 모니터링 할 수 있는 모니터링 출력부; 및 상기 알고리즘 평가부에 의해 산출된 알고리즘 평가 결과를 표출하는 결과표출부;를 제공한다.
상기 알고리즘 평가부는 미리 지정된 기준치 대비 융합된 영상들의 유효 품질지수를 산출하고, 상기 알고리즘 평가부에 의해 산출된 기준치 대비 유효 품질지수를 보유한 영상을 선택하여 고부가 산출 알고리즘을 구동하는 고부가 산출 알고리즘 구동부를 더 포함할 수 있다.
상기 고부가 산출 알고리즘은 토지피복분류 알고리즘, 도심지 객체 탐지 알고리즘, 변화탐지 알고리즘, 재난재해 모니터링 알고리즘 또는 벼 재배면적 산출 알고리즘 중 선택된 어느 하나 이상을 포함할 수 있다.
상기 알고리즘 평가부는 기준 영상을 추출하는 처리와, 추출된 상기 기준 영상에 정해진 GCP 화소를 이용하여 융합 영상에서 예비 GCP 화소를 정하는 처리와, 정해진 예비 GCP 화소를 기준으로 품질 평가 영역 내의 화소들의 화소 값과 기준 영상의 GCP 화소를 중심으로 한 화소들의 화소 값을 이용하여 융합 영상에서 실제 GCP 화소를 선택하는 처리와, 선택된 실제 GCP 화소와 예비 GCP 화소의 오차를 이용하여 상기 알고리즘의 정확도를 판단하는 처리를 이용하여 상기 알고리즘 구동부에 의해 구동된 알고리즘의 정확도를 판단하고 이에 대한 평가 결과를 산출할 수 있다.
데이터 관리부에 저장된 기준 위성영상 중에서 획득된 융합 영상에 대응하는 지역에 해당하는 기준 영상을 추출하는 단계; 추출된 기준 영상에서 GCP(ground control point)로 지정된 화소(즉, GCP 화소)를 추출하는 단계; 기준 영상에서 GCP 화소로 지정된 화소(PXGCP_ref)가 추출되면, 생성된 융합 영상에서 기준 영상에서의 GCP 화소(PXGCP_ref)에 대한 위치 좌표 값과 동일한 위치 좌표 값을 갖는 화소를 융합 영상의 예비 GCP 화소로 정하는 단계; 융합 영상의 예비 GCP 화소(PXGCP_FUS)를 중심으로 행 방향과 열 방향으로 정해진 개수만큼의 영역을 품질 평가 영역으로 하고, 이 품질 평가 영역 내에 속하는 화소들의 화소 값을 판정하는 단계; 품질 평가 영역을 판정하여 품질 평가영역 내의 화소 값 분포를 판정하는 단계; 기준 영상의 GCP 화소(PXGCP_ref)를 중심으로 한 화소 값 분포와 생성된 융합 영상의 예비 GCP 화소(PXGCP_FUS)를 중심으로 한 품질 평가 영역 내의 화소 값 분포가 동일한 부분을 선택하고, 기준 영상의 GCP 화소(PXGCP_ref)와 같은 조건을 갖는 융합 영상의 화소를 융합 영상의 실제 GCP 화소로 정하는 단계; 융합 영상에서 예비 GCP 화소(PXGCP_FUS)와 실제 GCP 화소(PXGCP_FUS_IR, PXGCP_FUS_SAR)가 정해지면, 예비 GCP 화소(PXGCP_FUS)와 판정된 실제GCP(PXGCP_FUS_IR, PXGCP_FUS_SAR)간의 오차(예를 들어, 행 방향과 열 방향으로의 화소수 차이)를 판정하는 단계; 예비 GCP 화소(PXGCP_FUS)와 판정된 실제 GCP(PXGCP_FUS_IR, PXGCP_FUS_SAR)간의 오차가 판정되면, 알고리즘 평가부는 데이터 관리부에 저장된 데이터를 이용하여 판정된 오차에 대응하는 정확도에 대한 정보(% 등)를 읽어와 해당 이종영상 융합 알고리즘에 대한 품질 평가 결과로 결정하는 단계; 및 상기 데이터 관리부에 저장된 기준 위성영상 중에서 획득된 융합 영상에 대응하는 지역에 해당하는 기준 영상을 추출하는 단계 내지예비 GCP 화소(PXGCP_FUS)와 판정된 실제 GCP(PXGCP_FUS_IR, PXGCP_FUS_SAR)간의 오차가 판정되면, 알고리즘 평가부는 데이터 관리부에 저장된 데이터를 이용하여 판정된 오차에 대응하는 정확도에 대한 정보(% 등)를 읽어와 해당 이종영상 융합 알고리즘에 대한 품질 평가 결과로 결정하는 단계를 모니터링 하는 단계;를 제공한다.
상기 기준 영상을 추출하는 단계에서, 상기 기준 위성영상은 통상의 구글어스(Google Earth), 항공 사진, 또는 별도의 고해상도 영상 획득 장비를 이용하여 획득한 영상에 의해 제공될 수 있다.
상기 융합 영상의 예비 GCP 화소(PXGCP_FUS)를 중심으로 행 방향과 열 방향으로 정해진 개수만큼의 영역을 품질 평가 영역으로 하고, 이 품질 평가 영역 내에 속하는 화소들의 화소 값을 판정하는 단계에서, 상기 정해진 품질 평가 영역 내의 화소 값을 판정하기 전에, 생성된 융합 영상의 모든 화소의 화소 값을 이진수(0 또는 1)로 변화하는 이진화 프로세싱을 수행하며, 기준 영상 역시 이미 이진화된 영상으로 구현할 수 있다.
본 발명의 바람직한 일 실시예에 의하면, 사용자가 직접 개발하거나사용하고자 하는 이종영상 융합 알고리즘을 임의로 소프트웨어에 탑재하는 것은 물론, 사용자가 탑재한 소프트웨어를 이용한 품질 평가가 가능해 지므로 사용 환경이나 목적 등에 최적화될 수 있는 알고리즘을 사용자가 선별적으로 적용하여 이용할수 있어 더욱 사용자 지향적인 관리 및 평가 장치를 제공할 수 있다.
또한, 본 발명의 다른 실시예에 의할 때, 개발자는 자신이 개발한위성 이종영상 융합 알고리즘의 정확도의 수준을 표출 결과물을 통해 객관적인 평가를 할 수 있는 이점을 제공할 수 있다.
나아가 본 발명은 융합된 영상에서 고부가 산출물을 생성하기 위한알고리즘을 임의로 삽입 및 관리하는 것이 가능하며 또한, 해당 알고리즘을 평가한결과물을 사용자 등에게 정확하게 표출할 수 있는 효과를 제공할 수 있다.
도 1은 본 발명의 일 실시예에 따른 이종센서 영상 융합 알고리즘의관리 및 평가 장치의 구성을 도시한 블록도이다.
도 2 및 도 3은 본 발명의 바람직한 실시예에 따른 이종센서 영상 융합 알고리즘의 관리 및 평가 장치의 동작 과정을 도시한 흐름도이다.
도 4 및 도 5는 도 1에서 알고리즘 평가부의 동작 과정을 도시한 흐름도이다.
도 6은 도 1에서 알고리즘 평가부에 의해 융합 영상의 품질 평가가 수행되는과정을 도시한 흐름도이다.
도 7의 (a)와 (b)는 도 6에서 융합 영상의 품질 평가 방법을 시각화하여 보여주는 도면이다.
도 8은 본 발명에 따라 제공되는 고부가 산출 알고리즘의 구동 및 품질 평가과정을 도시한 흐름도이다.
아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.
그러면 첨부한 도면을 참고로 하여 본 발명의 일 실시예에 따른 이종센서 영상 융합 알고리즘의 관리 및 평가장치에 대하여 설명한다.
도 1은 본 발명의 바람직한 실시예에 따른 이종센서 영상 융합 알고리즘의 관리 및 평가 장치에 구비된 기능적 구성을 도시한 블록도이다.
도 1을 참조하면, 본 발명의 바람직한 실시예에 따른 이종센서 영상융합 알고리즘의 관리 및 평가 장치는 영상 및 알고리즘 입력부(100), 데이터 관리부(101), 알고리즘 구동부(102), 알고리즘 평가부(103) 및 결과 표출부(104)를 포함한다.
본 발명의 상세한 설명에 앞서, 도 1에 도시된 본 발명의 이종센서영상 융합 알고리즘의 관리 및 평가 장치에 대한 각 구성요소는 물리적으로 구분되는 구성요소라기보다는 논리적으로 구분되는 구성요소로 이해되어야 한다.
즉, 각각의 구성은 본 발명의 기술 사상을 실현하기 위한 논리적인 구성요소에 해당하므로 각각의 구성요소가 통합 또는 분리되어 구성되더라도 본 발명의 논리 구성이 수행하는 기능이 실현될 수 있다면 본 발명의 범위 내에 있다고 해석되어야 하며, 동일 또는 유사한 기능을 수행하는 구성요소라면 그 명칭 상의 일치성 여부와는 무관히 본 발명의 범위 내에 있다고 해석되어야 함은 물론이다.
본 발명의 일 실시예에 대한 이종센서 영상 융합 알고리즘의 관리 및 평가 장치는 이종센서에 의해 획득된 이종영상 또는 이종영상 융합 알고리즘을 입력 받는 영상 및 알고리즘 입력부(100), 전반적인 데이터를 관리하는 데이터 관리부(101), 입력된 알고리즘을 구동하는 알고리즘 구동부(102), 알고리즘 평가부(103), 모니터링 출력부(104), 고부가 산출 알고리즘 구동부(105) 및 결과표출부(106)를 포함하여 구성한다.
상기 영상 및 알고리즘 입력부(100)는 이종센서에 의해획득된 이종영상, 또는 이종영상 융합 알고리즘을 입력받는다.
이때, 이종센서에 의해 획득된 이종영상은, 예컨대 인공위성에서 취득되는 위성영상일 수 있다.
위성영상은 인공위성의 종류나 위성영상을 획득하는 영상 획득부의 종류에 따라 레이더 영상(SAR), 적외선 영상(IR), 광학 영상(EO)이 존재한다. 여기서, 레이더 영상(SAR)은 합성 개구 레이더(Synthetic Aperture Radar)와 같은 영상레이더를 이용하여 획득한 위성영상이고, 광학 영상(EO)은 일반적인 광학(Electro-Optical) 카메라를 이용하여 획득한 영상이며, 적외선 영상(IR)은 적외선 카메라에의해 획득된 위성영상이다.
영상 및 알고리즘 입력부(100)가 영상을 입력받을 때는 소정의 소프트웨어에 탑재된 알고리즘(영상 전처리, 영상 융합, 기타 사용자가 등록한 알고리즘)을 이용하여 영상의 전처리, 영상 융합 등을 수행하는 것이 바람직하다.
영상 및 알고리즘 입력부(100)에 입력되는 이종영상 융합 알고리즘은 서로 다른 종류의 위성영상(이종 영상)을 융합함으로써 이종 영상 각각이 보유한 서로 다른 영상적 특성에 대한 시너지 효과를 향상시키기 위한 알고리즘에 해당한다.
제1영상(예를 들어, 광학영상)에 나타나지 않는 특성이 제2영상(예를 들어, SAR 영상)에서 나타날 수 있으므로 이와 같이 이종 영상을 융합시킴으로써 동일 타겟(영상이 생성되는 객체(object)에 대한 다양한 특성이 동시적으로 더욱 시인성 높게 사용자에게 제공될 수 있게 된다.
데이터 관리부(101)는 입력된 이종영상 및 이종영상 융합 알고리즘을 저장 및 관리하는 기능을 수행한다. 영상과 알고리즘이 입력되면 자동으로 데이터 관리부(101)에 저장되며, 나아가 본 발명에 의하여 수행되는 모든 프로세싱과정 또한, 데이터 관리부(101)에서 저장되어 관리되도록 구성할 수 있다.
이와 함께 본 발명의 데이터 관리부(101)에는 이종영상 융합 알고리즘과, 영상의 경로, 사용된 기록 및 결과물이 통합적으로 저장될 수 있음은 물론이다.
본 발명의 알고리즘 구동부(102)는 입력부(100)에 의해 입력된 이종영상을 데이터 관리부(101)에 저장되어 있는 이종영상 융합 알고리즘에 적용하여 알고리즘을 구동하거나, 상기 데이터 관리부(101)에 저장되어 있는 이종영상을 적용하여 입력부(100)에 의해 입력된 이종영상 융합 알고리즘을 구동한다.
알고리즘 평가부(103)는 알고리즘 구동부(102)에 의해 구동된 알고리즘의 정확도를 판정한다. 알고리즘 평가부(103)는 새로운 이종영상을 입력 받았을 때와 새로운 이종영상 융합 알고리즘을 입력 받았을 때를 상호 구분하여 알고리즘평가를 수행하도록 설계될 수 있다.
알고리즘 평가부(103)는 미리 지정된 기준치 대비 융합된 영상들의 품질지수 정도를 산출하는 처리를 수행할 수 있다. 이와 관련하여, 고부가 산출 알고리즘 구동부(105)는 알고리즘 평가부(103)에 의해 산출된 기준치 대비 유효 품질지수를 보유한 영상을 선택하여 고부가 산출 알고리즘을 구동한다.
여기서, '기준치 대비 유효 품질지수'란 사용자가 지정한 기준치 대비 융합된 영상들의 품질지수 정도를 의미한다. 고부가 산출 알고리즘의 예로는,"토지 피복분류 알고리즘", "도심지 객체 탐지 알고리즘", "변화탐지 알고리즘",
"재난재해 모니터링 알고리즘", "벼 재배면적 산출 알고리즘" 등이 있으며, 본 발
명에서는 상술된 알고리즘 중 하나 이상이 사용될 수 있으며, 그 외 다른 알고리즘이 복합적으로 더 사용될 수도 있음은 물론이다.
모니터링 출력부(104)는 상기 알고리즘 구동부와 알고리즘 평가부를 관리자가 실시간으로 모니터링 할 수 있도록 한다.
결과 표출부(106)는 상기 알고리즘 평가부(103)에 의해 산출된 알고리즘 평가 결과를 표출한다. 결과 표출부(104)는 알고리즘 평가가 완료되었을 때,표나 그래프와 같은 시각적 효과가 높은 매개체를 이용하여 평가 결과를 표출함으로써 사용자의 시인성이 더욱 높아질 수 있도록 구성하는 것이 바람직하다.
도 2 및 도 3은 본 발명의 바람직한 실시예에 따른 이종센서 영상융합 알고리즘의 관리 및 평가 장치의 동작 과정을 도시한 흐름도이다.
먼저, 도 2는 입력부(100)를 통하여 새로운 위성영상이 입력되었을 때 의 프로세싱 과정에 대한 실시예가 도시되어 있다.
영상 입력 완료 여부를 판단했을 때(단계 S10), 새로운 영상이 입력된 것으로 확인된 경우 알고리즘 구동부(102)는 데이터 관리부(101)에 저장되어 있
는 여러 가지 이종영상 융합 알고리즘을 독출하여(access and read) 알고리즘의 선택이 이루어지게 한다.
알고리즘 선택이 완료된 것이 확인되면(단계 S11), 알고리즘 구동부(102)는 선택된 이종영상 융합 알고리즘을 구동하며(단계 S12), 이종영상 융합 알고리즘을 구동한 후에는 해당 알고리즘의 정확도 등 품질을 평가하는 방법의 선택이 이루어지게 한다(단계 S13).
평가 방법이 선택된 후에는 알고리즘 평가부(103)를 구동하여 해당 이종영상 융합 알고리즘을 평가하고(단계 S14), 그에 따른 평가 결과는 결과 표출부(104)를 통해 사용자에게 시각적으로 표출되는 한편, 데이터 관리부(101)에 저장된다.
도 3은 입력부(100)를 통하여 새로운 이종영상 융합 알고리즘이 입력되었을 때의 프로세싱 과정에 대한 실시예가 도시되어 있다. 알고리즘 입력 완료 여부를 판단했을 때(단계 S20), 새로운 이종영상 융합 알고리즘이 입력된 것으로 확인된 경우 알고리즘 구동부(102)는 데이터 관리부(101)에 저장되어 있는 영상(위성영상)을 불러와서 영상의 선택이 이루어지게 한다.
영상 선택이 완료된 것이 확인되면(단계 S21), 알고리즘 구동부(102)는 선택된 영상을 적용하여 이종영상 융합 알고리즘을 구동하고(단계 S22), 이종영상 융합 알고리즘을 구동한 후에는 해당 알고리즘의 정확도 등 품질을 평가하는 방법의 선택이 이루어지게 한다(단계 S23).
평가 방법이 선택된 후에는 알고리즘 평가부(103)를 구동하여 해당 이종영상 융합 알고리즘을 평가하고(단계 S24), 그에 따른 평가 결과는 결과 표출부(104)를 통해 사용자에게 시각적으로 표출되는 한편, 데이터 관리부(101)에 저장된다.
도 4 및 도 5는 알고리즘 평가부(103)에서 이종영상 융합 알고리즘을 평가하는 본 발명의 바람직한 일 실시예에 대한 프로세싱 과정을 도시한 흐름도이다.
먼저, 도 4에는 입력부(100)를 통하여 새로운 위성영상이 입력되었을 때의 동작 과정에 대한 본 발명의 일 실시예가 도시되어 있다. 영상 입력 완료 여부를 판단했을 때(단계 S30), 새로운 영상이 입력된 것으로 확인된 경우 해당 영상은 데이터 관리부(101)에 저장된다(단계 S31). 데이터 관리부(101)에는 촬영된 지역에 대한 영상 데이터뿐만 아니라 해당 위성영상을 촬영한 인공위성의 정보(즉, 종류), 위성영상의 종류, 촬영된 날짜 정보 및 지역 정보(즉, 위도 값과 경도 값) 및 촬영된 위성영상의 구름 량과 같은 메타 데이터(metadata) 등이 저장된다.
해당 위성영상이 데이터 관리부(101)에 저장된 이후에는, 데이터 관리부(101)에서, 입력된 위성영상의 종류와 같은 종류의 위성영상을 처리하는 이종영상 융합 알고리즘을 선택한다(S32). 예를 들어, 입력된 위성영상이 광학 영상(EO)인 경우, 알고리즘 평가부(103)는 융합하고자 하는 서로 다른 두 종류의 위성영상 중에서 하나의 위성영상이 광학 영상(EO)인 알고리즘을 모두 선별하게 된다.
이후, 입력된 하나의 위성영상(제1 위성영상)과 선별된 이종영상 융합 알고리즘에서 필요로 하는 다른 하나의 위성영상(제2 위성영상)을 선별하고 해당 이종영상 융합 알고리즘에 적용하여 알고리즘을 구동하여 새로운 융합 영상을생성하고(단계 S33). 그에 따라 생성된 융합 영상은 데이터 관리부(101)에 저장한다(단계 S34).
예들 들어, 선별된 이종영상 융합 알고리즘이 제1 위성영상으로서 광학 영상과 제2 위성영상으로서 적외선 영상(IR)을 융합하는 이종영상 융합 알고리즘인 경우, 알고리즘 구동부(102)에서는 데이터 관리부(101)에서 다양한 형태의 적외선 영상을 선택하고, 상기 광학 영상과 선택된 모든 형태의 적외선 영상에 대한 융합 동작을 모두 실시하여, 각 경우에 대한 융합 영상이 얻어진다.
알고리즘 평가부(103)는 생성된 융합 영상의 품질을 평가하고(단계S35), 그에 따른 평가 결과는 데이터 관리부(101)에 저장되도록 제어하는 한편, 결과 표출부(106)를 통해 상기 평가 결과에 대한 결과물을 사용자에게 시각적으로 표출한다(단계 S36 및 단계 S37).
도 5에는 입력부(100)를 통하여 새로운 이종영상 융합 알고리즘이 입력되었을 때의 동작 과정에 대한 본 발명의 일 실시예가 도시되어 있다.
이종영상 융합 알고리즘 입력 완료 여부를 판단했을 때(단계 S40), 새로운 이종영상 융합 알고리즘이 입력된 것으로 확인된 경우 해당 알고리즘은 데이터 관리부(101)에 저장된다(단계 S41).
해당 이종영상 융합 알고리즘이 데이터 관리부(101)에 저장된 이후에는, 데이터 관리부(101)에서, 입력된 이종영상 융합 알고리즘에 사용되는 제1 위성영상과 제2 위성영상을 선택한다(S42).
이후, 선택된 제1 위성영상 및 제2 위성영상을 입력된 이종 융합 알고리즘에 적용하여 알고리즘을 구동함으로써 새로운 융합 영상을 생성하고(단계S43). 그에 따라 생성된 융합 영상은 데이터 관리부(101)에 저장한다(단계 S44). 알고리즘 평가부(103)에서는 생성된 융합 영상의 품질을 평가하고(단계 S45), 그에 따른 평가 결과는 데이터 관리부(101)에 저장하는 한편, 결과 표출부(104)를 통해 사용자에게 시각적으로 표출한다(단계 S46 및 단계 S47).
도 6은 알고리즘 평가부(103)에 의해 융합 영상의 품질 평가가 수행되는 과정을 구체적으로 도시한 흐름도이다.
알고리즘 평가부(103)는 융합 영상의 품질을 평가하기 위해, 데이터관리부(101)에 저장된 기준 위성영상 중에서 획득된 융합 영상에 대응하는 지역에 해당하는 기준 영상을 추출한다(단계 S50). 이때, 기준 위성영상은 통상의 구글어스(Google Earth), 항공 사진, 또는 별도의 고해상도 영상 획득 장비를 이용하여획득한 영상에 의해 제공될 수 있다.
알고리즘 평가부(103)는 도 7의 (a)와 같이 매트릭스 형태(matrixtype)(m×n)의 화소 구조를 갖도록 생성된 융합 영상에서 네 모서리에 위치한 각
화소(PX11, PX1n, PXm1, PXmn)를 선택하고, 각 선택된 화소(PX11, PX1n, PXm1, PXmn)에 대한 위치 좌표 값(위도 값, 경도 값)을 판정한다.
각 위성영상은 촬영된 지역 정보를 구비하고 있고, 각 화소에 대응하는 지역의 위도 값과 경도 값이 각 화소의 위치 좌표 값이 된다.
따라서 알고리즘 평가부(103)는 선택된 모서리의 각 화소(PX11, PX1n, PXm1, PXmn)와 동일한 위치 좌표 값을 갖는 네 개의 화소를 기준 위성영상에서 선택하여, 도 7의 (b)와 같이 선택된 네 개의 화소(PX11, PX1n, PXm1, PXmn)를기초해 형성된 사각형의 영역을 기준 영역으로 선정하고, 이 기준 영역에 포함되는 기준 위성영상을 기준 영상으로 추출한다.
다음, 알고리즘 평가부(103)는 추출된 기준 영상에서 GCP(groundcontrol point)로 지정된 화소(즉, GCP 화소)를 추출한다(단계 S51).
이미 기준 영상에는 사용자에 의해 적어도 하나의 GCP 화소가 지정되어 있고, 이 GCP 화소는 기준 영상의 특정 지역을 확인하기 위한 것으로서 특별한 길, 도로, 사거리 등과 같은 특정 지역을 나타내는 화소이다. 도 7의 (b)에는 일 예로서, 하나의 GCP 화소(PXGCP_ref)가 정해져 있으며, 각 GCP 화소에 대한 위치좌표 값 역시 데이터 관리부(101)에는 저장되도록 구성하는 것이 바람직하다.
알고리즘 평가부(103)는 기준 영상에서 GCP 화소로 지정된 화소(PXGCP_ref)가 추출되면, 생성된 융합 영상에서 기준 영상에서의 GCP 화소(PXGCP_ref)에 대한 위치 좌표 값과 동일한 위치 좌표 값을 갖는 화소를 융합 영상의 예비 GCP 화소로 정한다(단계 S52).
적외선 영상(IR)과 레이더 영상(SAR)을 융합하여 도 7의 (a)와 같은 융합 영상이 생성된 경우, 기준 영상의 GCP 화소(PXGCP_ref)와 동일한 위치 좌표 값을
갖는 예비 GCP 화소는 화소(PXGCP_FUS)이다. 그런 다음, 알고리즘 품질 평가부(31)는 융합 영상의 예비 GCP 화소(PXGCP_FUS)를 중심으로 행 방향과 열 방향으로 정해진 개수(5×5)만큼의 영역을 품질 평가 영역으로 하고, 이 품질 평가 영역 내에 속하는 화소들의 화소 값을 판정한다(단계 S52).
이때, 정해진 품질 평가 영역 내의 화소 값을 판정하기 전에, 생성된 융합 영상의 모든 화소의 화소 값을 이진수(0 또는 1)로 변화하는 이진화 프로세싱을 수행하며, 기준 영상 역시 이미 이진화된 영상으로 구현하는 것이 바람직하다.
다음, 품질 평가 영역을 판정하여 품질 평가 영역 내의 화소 값 분포를 판정한다(단계 S53).
즉, 생성된 융합 영상의 품질 평가 영역 내의 화소 값의 분포 상태와 기준 영상의 GCP 화소(PXGCP_ref)를 중심으로 한 주변의 화소 값의 분포 상태를 서로 비교한다. 실제로 기준 영상의 GCP 화소(PXGCP_ref)에 해당하는 화소를 선택하여
선택된 화소를 융합 영상의 실제 GCP 화소라 한다.
기준 영상의 GCP 화소(PXGCP_ref)를 중심으로 한 화소 값의 분포 역시 이미 정해져 있는 영역 내에 존재하는 화소들의 화소 값 분포에 대한 것으로, 기준영상의 GCP 화소(PXGCP_ref)을 중심으로 하는 영역의 크기(즉, 행 방향으로의 화소 개수와 열 방향으로 화소 개수)는 이미 정해져 있다.
즉, 기준 영상의 GCP 화소(PXGCP_ref)를 중심으로 한 화소 값 분포와 생성된 융합 영상의 예비 GCP 화소(PXGCP_FUS)를 중심으로 한 품질 평가 영역 내의 화소 값 분포가 동일한 부분을 선택하고, 기준 영상의 GCP 화소(PXGCP_ref)와 같은 조건을 갖는 융합 영상의 화소를 융합 영상의 실제 GCP 화소로 정하게 된다(단계 S54).
따라서, 도 7의 (a)의 경우, 적외선 영상(IR)에서의 실제 GCP 화소는 예비GCP 화소(PXGCP_FUS)의 위치와 다른 위치에 있는 화소(PXGCP_FUS_IR)이고, 레이더영상(SAR)에서의 실제 GCP 화소 역시 예비GCP 화소(PXGCP_FUS)의 위치와 다른 위치에 있는 화소(PXGCP_FUS_SAR)가 된다.
이때, 융합 영상의 정해진 품질 평가 영역 내에서 기준 영상의 GCP화소(PXGCP_ref)를 중심으로 화소 값 분포와 동일한 화소 값 분포를 갖는 화소(즉, 실제GCP 화소)를 찾지 못하면, 품질 평가 영역의 범위를 정해진 단위로 확장시켜 실제GCP 화소의 탐색 동작을 실시하게 된다.
이처럼, 융합 영상에서 예비 GCP 화소(PXGCP_FUS)와 실제 GCP 화소(PXGCP_FUS_IR, PXGCP_FUS_SAR)가 정해지면, 예비 GCP 화소(PXGCP_FUS)와 판정된 실제GCP(PXGCP_FUS_IR, PXGCP_FUS_SAR)간의 오차(예를 들어, 행 방향과 열 방향으로의 화소수 차이)를 판정한다(S55).
예비 GCP 화소(PXGCP_FUS)와 판정된 실제 GCP(PXGCP_FUS_IR, PXGCP_FUS_SAR)간의 오차가 판정되면, 알고리즘 평가부(103)는 데이터 관리부(101)에 저장된 데이터를 이용하여 판정된 오차에 대응하는 정확도에 대한 정보(% 등)를 읽어와 해당 이종영상 융합 알고리즘에 대한 품질 평가 결과로 결정하고(단계 S56), 그에 따라 결정된 품질 평가 결과를 데이터 관리부(101)에 저장한다.
도 8에는 본 발명의 바람직한 일 실시에에 의한 고부가 산출 알고리즘의 구동 및 품질 평가 프로세싱 과정이 도시되어 있다.
바람직하게, 알고리즘 평가부(103)는 미리 지정된 기준치 대비 융합된 영상들의 품질지수 정도를 산출하는 처리를 수행할 수 있다. 전술한 바와 같이
고부가 산출 알고리즘의 예로는, "토지 피복분류 알고리즘", "도심지 객체 탐지 알고리즘", "변화탐지 알고리즘", "재난재해 모니터링 알고리즘", "벼 재배면적 산출알고리즘" 등이 있다.
고부가 산출 알고리즘 구동부(105)는 알고리즘 평가부(103)에 의해 산출된 기준치 대비 유효 품질지수를 보유한 영상을 선택하여 고부가 산출 알고리즘을 구동한다.
즉, 기준치 대비 유효 품질지수의 보유 여부를 판단했을 때(단계S60), 해당 영상이 기준치 대비 유효 품질지수를 보유한 것으로 확인된 경우 고부가 산출 알고리즘 구동부(105)는 데이터 관리부(101)에 저장되어 있는 여러 가지 고부가 산출 알고리즘을 불러와서 알고리즘의 선택이 이루어지게 한다.
알고리즘 선택이 완료된 것이 확인되면(단계 S61), 고부가 산출 알고리즘 구동부(105)는 선택된 고부가 산출 알고리즘을 구동하며(단계 S62) 고부가 산출 알고리즘을 구동한 후에는 활용 알고리즘 평가 방법의 선택이 이루어지게 한다(단계 S63).
평가 방법이 선택된 후에는 알고리즘 평가부(103)에 포함되어 있는 고부가 산출 알고리즘 평가 모듈을 구동하여 해당 고부가 산출 알고리즘을 평가하고(단계 S64), 그에 따른 평가 결과는 결과 표출부(104)를 통해 사용자에게 시각적으로 표출하는 한편, 데이터 관리부(101)에 저장된다.
상기 고부가 산출 알고리즘 평가 모듈은 산출된 결과물과 레퍼런스 상을 이용하여 알고리즘을 평가한다. 평가 시, 융합 매트릭스(Confusion Matrix)를 사용하는데 이는 영상 내 분류 클래스의 개수에 따라 2×2와 n×n 방법으로 나뉜다.
클래스라 함은 분류도라 할 수 있는데 도심지 객체 탐지, 변화탐지, 재난재해 모니터링, 벼 재배면적 산출과 같은 산출물은 결과값을 참조 자료 대비
True 또는 False로 이분화할 수 있기 때문에 2×2를 사용하여 정확도를 평가한다.
다만, 토지 피복분류와 같은 경우 사용자가 클래스 수를 임의로 지정할 수 있으므로 n×n(n은 2 이상의 자연수)을 사용하여 정확도를 평가한다. 이때 참조자료의 클래스의 개수는 실험 결과의 클래스의 개수와 동일해야 한다. 상기 고부가 산출 알고리즘 평가 모듈에서는 융합 매트릭스를 이용하여 알고리즘 결과 영상과 레퍼런스 영상의 탐지된 값, 탐지되지 않은 값의 비율로 정확도를 나타냄으로써 사용자에게 알고리즘의 정확도를 제공한다.
상술한 바와 같은 이종센서 영상 융합 알고리즘의 관리 및 평가 장치는 이종영상 융합 알고리즘을 사용자가 임의로 소프트웨어에 탑재하는 것이 가능하고, 객관적인 품질 평가도 가능하다.
또한, 융합된 영상에서 고부가 산출물을 생성하기 위한 알고리즘을 임의로 삽입 및 관리가 가능하며 해당 알고리즘을 평가하여 결과물을 표출할 수 있다.
이상에서 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 이것에 의해 한정되지 않으며 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 본 발명의 기술사상과 아래에 기재될 특허청구범위의 균등범위 내에서 다양한 수정 및 변형이 가능함은 물론이다.
본 발명의 설명과 그에 대한 실시예의 도시를 위하여 첨부된 도면등은 본 발명에 의한 기술 내용을 강조 내지 부각하기 위하여 다소 과장된 형태로 도시될 수 있으나, 앞서 기술된 내용과 도면에 도시된 사항 등을 고려하여 본 기술분야의 통상의 기술자 수준에서 다양한 형태의 변형 적용 예가 가능할 수 있음은 자명하다고 해석되어야 한다.
100: 입력부 101: 데이터 관리부
102: 알고리즘 구동부 103: 알고리즘 평가부
104: 모니터링 출력부 105: 고부가 산출 알고리즘 구동부
106: 결과 표출부

Claims (7)

  1. 이종센서에 의해 획득된 이종영상 또는 이종영상 융합 알고리즘을 입력받는 입력부;
    이종영상 및 이종영상 융합 알고리즘 중 적어도 어느 하나를 저장하는 데이터 관리부;
    상기 입력부에 의해 입력된 이종영상을 상기 데이터 관리부에 저장되어 있는이종영상 융합 알고리즘에 적용하여 알고리즘을 구동하거나, 상기 입력부에 의해 입력된 이종영상 융합 알고리즘에 상기 데이터 관리부에 저장되어 있는 이종영상을적용하여 알고리즘을 구동하는 알고리즘 구동부;
    상기 알고리즘 구동부에 의해 구동된 알고리즘의 정확도를 판단하고 이에 대한 평가 결과를 산출하는 알고리즘 평가부;
    상기 알고리즘 구동부와 알고리즘 평가부를 관리자가 실시간으로 모니터링 할 수 있는 모니터링 출력부; 및
    상기 알고리즘 평가부에 의해 산출된 알고리즘 평가 결과를 표출하는 결과표출부;를 포함하는 이종센서 영상 융합 알고리즘의 관리 및 평가 장치.
  2. 제 1항에 있어서,
    상기 알고리즘 평가부는 미리 지정된 기준치 대비 융합된 영상들의 유효 품질지수를 산출하고, 상기 알고리즘 평가부에 의해 산출된 기준치 대비 유효 품질지수를 보유한영상을 선택하여 고부가 산출 알고리즘을 구동하는 고부가 산출 알고리즘 구동부를 더 포함하는 이종센서 영상 융합 알고리즘의 관리 및 평가 장치.
  3. 제2항에 있어서,
    상기 고부가 산출 알고리즘은 토지피복분류 알고리즘, 도심지 객체 탐지 알고리즘, 변화탐지 알고리즘, 재난재해 모니터링 알고리즘 또는 벼 재배면적 산출 알고리즘 중 선택된 어느 하나 이상을 포함하는 것을 특징으로 하는 이종센서 영상 융합 알고리즘의 관리 및 평가장치.
  4. 제 1항에 있어서,
    상기 알고리즘 평가부는 기준 영상을 추출하는 처리와, 추출된 상기 기준 영상에 정해진 GCP 화소를 이용하여 융합 영상에서 예비 GCP 화소를 정하는 처리와, 정해진 예비 GCP 화소를 기준으로 품질 평가 영역 내의 화소들의 화소 값과 기준 영상의 GCP 화소를 중심으로 한 화소들의 화소 값을 이용하여 융합 영상에서 실제 GCP 화소를 선택하는 처리와, 선택된 실제 GCP 화소와 예비 GCP 화소의 오차를 이용하여 상기 알고리즘의 정확도를 판단하는 처리를 이용하여 상기 알고리즘 구동부에 의해 구동된 알고리즘의 정확도를 판단하고 이에 대한 평가 결과를 산출하는 것을 특징으로 하는 이종센서영상 융합 알고리즘의 관리 및 평가 장치.
  5. 데이터 관리부에 저장된 기준 위성영상 중에서 획득된 융합 영상에 대응하는 지역에 해당하는 기준 영상을 추출하는 단계;
    추출된 기준 영상에서 GCP(ground control point)로 지정된 화소(즉, GCP 화소)를 추출하는 단계;
    기준 영상에서 GCP 화소로 지정된 화소(PXGCP_ref)가 추출되면, 생성된 융합 영상에서 기준 영상에서의 GCP 화소(PXGCP_ref)에 대한 위치 좌표 값과 동일한 위치 좌표 값을 갖는 화소를 융합 영상의 예비 GCP 화소로 정하는 단계;
    융합 영상의 예비 GCP 화소(PXGCP_FUS)를 중심으로 행 방향과 열 방향으로 정해진 개수만큼의 영역을 품질 평가 영역으로 하고, 이 품질 평가 영역 내에 속하는 화소들의 화소 값을 판정하는 단계;
    품질 평가 영역을 판정하여 품질 평가영역 내의 화소 값 분포를 판정하는 단계;
    기준 영상의 GCP 화소(PXGCP_ref)를 중심으로 한 화소 값 분포와 생성된 융합 영상의 예비 GCP 화소(PXGCP_FUS)를 중심으로 한 품질 평가 영역 내의 화소 값 분포가 동일한 부분을 선택하고, 기준 영상의 GCP 화소(PXGCP_ref)와 같은 조건을 갖는 융합 영상의 화소를 융합 영상의 실제 GCP 화소로 정하는 단계;
    융합 영상에서 예비 GCP 화소(PXGCP_FUS)와 실제 GCP 화소(PXGCP_FUS_IR, PXGCP_FUS_SAR)가 정해지면, 예비 GCP 화소(PXGCP_FUS)와 판정된 실제GCP(PXGCP_FUS_IR, PXGCP_FUS_SAR)간의 오차(예를 들어, 행 방향과 열 방향으로의 화소수 차이)를 판정하는 단계;
    예비 GCP 화소(PXGCP_FUS)와 판정된 실제 GCP(PXGCP_FUS_IR, PXGCP_FUS_SAR)간의 오차가 판정되면, 알고리즘 평가부는 데이터 관리부에 저장된 데이터를 이용하여 판정된 오차에 대응하는 정확도에 대한 정보(% 등)를 읽어와 해당 이종영상 융합 알고리즘에 대한 품질 평가 결과로 결정하는 단계; 및
    상기 데이터 관리부에 저장된 기준 위성영상 중에서 획득된 융합 영상에 대응하는 지역에 해당하는 기준 영상을 추출하는 단계 내지예비 GCP 화소(PXGCP_FUS)와 판정된 실제 GCP(PXGCP_FUS_IR, PXGCP_FUS_SAR)간의 오차가 판정되면, 알고리즘 평가부는 데이터 관리부에 저장된 데이터를 이용하여 판정된 오차에 대응하는 정확도에 대한 정보(% 등)를 읽어와 해당 이종영상 융합 알고리즘에 대한 품질 평가 결과로 결정하는 단계를 모니터링 하는 단계;를 포함하는 것을 특징으로 하는 이종센서 영상 융합 알고리즘의 관리 및 평가 방법.
  6. 제 5항에 있어서,
    상기 기준 영상을 추출하는 단계에서, 상기 기준 위성영상은 통상의 구글어스(Google Earth), 항공 사진, 또는 별도의 고해상도 영상 획득 장비를 이용하여 획득한 영상에 의해 제공될 수 있는 것을 특징으로 하는 이종센서 영상 융합 알고리즘의 관리 및 평가 방법.
  7. 제 5항에 있어서,
    상기 융합 영상의 예비 GCP 화소(PXGCP_FUS)를 중심으로 행 방향과 열 방향으로 정해진 개수만큼의 영역을 품질 평가 영역으로 하고, 이 품질 평가 영역 내에 속하는 화소들의 화소 값을 판정하는 단계에서,
    상기 정해진 품질 평가 영역 내의 화소 값을 판정하기 전에, 생성된 융합 영상의 모든 화소의 화소 값을 이진수(0 또는 1)로 변화하는 이진화 프로세싱을 수행하며, 기준 영상 역시 이미 이진화된 영상으로 구현하는 것을 특징으로 하는 이종센서 영상 융합 알고리즘의 관리 및 평가 방법.
KR1020170017382A 2017-02-08 2017-02-08 이종센서 영상 융합 알고리즘의 관리 및 평가 장치 KR20180092066A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170017382A KR20180092066A (ko) 2017-02-08 2017-02-08 이종센서 영상 융합 알고리즘의 관리 및 평가 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170017382A KR20180092066A (ko) 2017-02-08 2017-02-08 이종센서 영상 융합 알고리즘의 관리 및 평가 장치

Publications (1)

Publication Number Publication Date
KR20180092066A true KR20180092066A (ko) 2018-08-17

Family

ID=63408188

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170017382A KR20180092066A (ko) 2017-02-08 2017-02-08 이종센서 영상 융합 알고리즘의 관리 및 평가 장치

Country Status (1)

Country Link
KR (1) KR20180092066A (ko)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112529088A (zh) * 2020-12-17 2021-03-19 中国航空工业集团公司成都飞机设计研究所 一种嵌入式异构显示融合系统
CN113268411A (zh) * 2021-04-25 2021-08-17 福瑞泰克智能系统有限公司 驾驶辅助算法测试方法、装置、电子装置和存储介质
CN114970667A (zh) * 2022-03-30 2022-08-30 国网吉林省电力有限公司 一种多源异构能源数据融合方法
US11971961B2 (en) 2018-09-28 2024-04-30 Daegu Gyeongbuk Institute Of Science And Technology Device and method for data fusion between heterogeneous sensors

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11971961B2 (en) 2018-09-28 2024-04-30 Daegu Gyeongbuk Institute Of Science And Technology Device and method for data fusion between heterogeneous sensors
CN112529088A (zh) * 2020-12-17 2021-03-19 中国航空工业集团公司成都飞机设计研究所 一种嵌入式异构显示融合系统
CN113268411A (zh) * 2021-04-25 2021-08-17 福瑞泰克智能系统有限公司 驾驶辅助算法测试方法、装置、电子装置和存储介质
CN114970667A (zh) * 2022-03-30 2022-08-30 国网吉林省电力有限公司 一种多源异构能源数据融合方法
CN114970667B (zh) * 2022-03-30 2024-03-29 国网吉林省电力有限公司 一种多源异构能源数据融合方法

Similar Documents

Publication Publication Date Title
US10839211B2 (en) Systems, methods and computer program products for multi-resolution multi-spectral deep learning based change detection for satellite images
CN110427917B (zh) 用于检测关键点的方法和装置
Son et al. Real-time vision-based warning system for prevention of collisions between workers and heavy equipment
KR102026685B1 (ko) 영상과 진동을 이용한 도로불량정보 제공 장치 및 서버
CN108683907B (zh) 光学模组像素缺陷检测方法、装置及设备
JP6969865B2 (ja) ひび割れ解析装置、ひび割れ解析方法及びひび割れ解析プログラム
KR20180092066A (ko) 이종센서 영상 융합 알고리즘의 관리 및 평가 장치
CN111160172B (zh) 泊车位检测方法、装置、计算机设备和存储介质
US11520684B2 (en) Method and apparatus for testing autonomous vehicle, and storage medium
KR101715211B1 (ko) 영상과 레이저를 융합한 도로 노면 상태 탐지 장치 및 방법
US20080219493A1 (en) Image Processing System
CN104902246A (zh) 视频监视方法和装置
GB2476500A (en) System for monitoring the activity of people
GB2591041A (en) Augmented reality display view generation
US20210035355A1 (en) Method for analyzing three-dimensional model and device for analyzing three-dimensional model
JP2019154027A (ja) ビデオ監視システムのパラメータ設定方法、装置及びビデオ監視システム
CN110119675B (zh) 一种产品识别方法和装置
KR101782395B1 (ko) 이종센서 영상 융합 알고리즘의 관리 장치
US20190273845A1 (en) Vibration monitoring of an object using a video camera
KR20090131564A (ko) 웹기반 기상위성자료 분석 시스템 및 방법
EP4250245A1 (en) System and method for determining a viewpoint of a traffic camera
CN110196638B (zh) 基于目标检测和空间投影的移动端增强现实方法和系统
CN115830261A (zh) 2d地图与3d孪生实景结合的航运监控方法及设备
Hong et al. The use of CCTV in the emergency response: A 3D GIS perspective
Xiang et al. A new model for daytime visibility index estimation fused average sobel gradient and dark channel ratio

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application