KR102183559B1 - 피해목 검출 장치 및 방법 - Google Patents

피해목 검출 장치 및 방법 Download PDF

Info

Publication number
KR102183559B1
KR102183559B1 KR1020180144111A KR20180144111A KR102183559B1 KR 102183559 B1 KR102183559 B1 KR 102183559B1 KR 1020180144111 A KR1020180144111 A KR 1020180144111A KR 20180144111 A KR20180144111 A KR 20180144111A KR 102183559 B1 KR102183559 B1 KR 102183559B1
Authority
KR
South Korea
Prior art keywords
tree
image
damaged
damaged tree
feature
Prior art date
Application number
KR1020180144111A
Other languages
English (en)
Other versions
KR20200059422A (ko
Inventor
우충식
이규성
이화선
남영우
Original Assignee
대한민국
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 대한민국 filed Critical 대한민국
Priority to KR1020180144111A priority Critical patent/KR102183559B1/ko
Publication of KR20200059422A publication Critical patent/KR20200059422A/ko
Application granted granted Critical
Publication of KR102183559B1 publication Critical patent/KR102183559B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Analytical Chemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Biochemistry (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Chemical & Material Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

본 발명의 실시예에 따른 피해목 검출 장치는, 제1 컬러모델에 따라 대상 지역의 객체들이 표현되는 적어도 하나의 영상을 입력 받는 입력부, 상기 입력부에 입력된 영상의 분광 특성을 고려하여 식생 지수로 표현 가능한 특징 영상을 생성하는 특징 영상 생성부 및 상기 특징 영상을 기반으로 피해목과 관련된 객체와 상기 대상 지역 내 객체들의 유사도를 산출하여 피해목을 검출하는 피해목 검출부를 포함할 수 있다.

Description

피해목 검출 장치 및 방법 {Apparatus and method for detecting damaged tree}
본 실시예가 속하는 기술 분야는 피해목 검출 장치 및 방법에 관한 것이다.
소나무 재선 충병은 주로 소나무, 곰솔, 잣나무에서 발생하며 감염된 나무는 대부분이 고사하기 때문에, 확산 방지를 위해서는 감염목을 조기에 발견하여 방제 처리하는 것이 매우 중요하다.
소나무 재선충병 예찰 및 방제를 위해서는 고사목의 정확한 위치를 조기에 탐지하여 방제에 필요한 정확한 위치 정보를 제공하여야 한다. 현지 조사에 의한 고사목 탐지 방법은 많은 시간과 예산이 소요되며, 접근성의 한계로 인하여 누락되는 경우가 많다. 과거 항공영상 및 고해상도 위성영상을 이용한 산림 병해충 피해탐지와 관련된 연구가 시도되어 왔으나, 신속하고 효율적으로 적용할 수 있는 방법은 미흡한 실정이다.
현재 무인기 영상을 이용하여 재선충 및 다른 산림병충해 피해목을 탐지하는 작업이 진행되고 있으나, 대부분 육안에 의한 영상판독을 통하여 고사목의 위치를 결정하기 때문에 조사 대상이 매우 넓은 면적인 점을 감안한다면 판독에 필요한 인력 및 소요 시간 측면에서 비효율적인 한계점이 있다.
한국 등록 특허 제10-1545479호 (등록)
상기와 같은 문제점을 해결하기 위하여, 본 발명의 피해목 검출 장치 및 방법을 제공함으로써, 무인기 영상에서 소나무 재선 충병에 의한 피해목을 자동으로 검출할 수 있도록 하는 것을 목적으로 한다.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 피해목 검출 장치는, 제1 컬러모델에 따라 대상 지역의 객체들이 표현된 적어도 하나의 영상을 입력 받는 입력부, 상기 영상에 피해목이 위치하는 영역을 검출할 수 있도록, 상기 입력된 영상의 색상값을 변환하거나, 상기 색상값을 이용하여 재구성된 특징 영상을 생성하는 특징 영상 생성부 및 상기 특징 영상을 기반으로 피해목과 관련된 객체와 상기 대상 지역 내 객체들의 유사도를 산출하여 상기 피해목을 검출하는 피해목 검출부를 포함할 수 있다.
또한, 상기 피해목 검출부는, 상기 대상 지역의 객체들 각각에 대한 화소값을 이용하여 상기 피해목과의 유사도를 산출하는 상기 표적탐지 알고리즘을 통해 상기 특징 영상의 전체 영역 중 상기 피해목 후보군 영역을 추출하는 피해목 후보군 영역 추출부 및 상기 추출된 피해목 후보군 영역에서의 각 객체들의 형상과 피해목을 대표하여 미리 저장된 피해목 폴리곤(polygon)을 비교하여 상기 피해목 후보군 영역에서의 객체들 중 일부 객체를 제거하는 객체 형상 판단부를 더 포함하고, 상기 일부 객체가 제거된 피해목 후보군 영역에서의 텍스처 특징을 고려하여 상기 피해목을 검출할 수 있다.
또한, 상기 피해목 후보군 영역 추출부는 객체에 대한 화소값, 상기 특징 영상 전체의 화소값, 피해목에 대하여 미리 저장된 피해목 화소값에 대한 평균값 및 공분산 행렬을 이용하여 상기 각 객체와 상기 피해목의 유사도를 산출할 수 있다.
또한, 상기 피해목 검출부는, 상기 특징 영상을 복수개의 섹션들로 구분될 수 있도록 구획하고, 구획된 각 섹션들에 대한 화소값에 따른 결합확률밀도를 계산하여 상기 각 섹션에 대한 텍스처 특징을 산출하며, 산출된 텍스처 특징을 고려하여 상기 피해목을 검출할 수 있다.
또한, 상기 피해목 검출부는, 상기 텍스처 특징과 관련하여 미리 정의된 복수의 텍스처 특징 데이터들이 저장된 데이터베이스를 더 포함하고, 상기 데이터베이스에 저장된 텍스처 특징 데이터는 상기 섹션들의 크기에 대한 데이터 및 상기 텍스처 특징을 산출하기 위한 영상의 밝기 데이터를 포함할 수 있다.
또한, 상기 입력부로부터 입력된 영상들을 전달받아, 상기 영상들을 정사보정하여, 하나의 영상으로 집성시켜 모자이킹(mosaicking) 영상으로 변환하는 모자이킹 영상 생성부를 더 포함하고, 상기 특징 영상 생성부는 상기 변환된 모자이킹 영상을 토대로 특징 영상을 생성할 수 있다.
또한, 상기 특징 영상 생성부는 제2 컬러모델을 이용하여 상기 입력된 영상을 색상, 채도 및 명도에 따라 표현 가능한 특징 영상을 더 생성할 수 있다.
또한, 상기 제2 컬러모델을 이용하여 생성된 특징 영상은, 색의 상대적 배치를 나타내는 색상 특징에 따른 색상 영상 및 색상의 순도를 나타내는 채도 특징에 따른 채도 영상일 수 있다.
상기 목적을 달성하기 위한 본 발명의 또 다른 일 실시예에 따른 피해목 검출 장치는, 제1 컬러모델에 따라 대상 지역의 객체들이 표현된 적어도 하나의 영상을 입력 받는 입력부, 상기 영상에 피해목이 위치하는 영역을 검출할 수 있도록, 상기 입력된 영상의 색상값을 변환하거나, 상기 색상값을 이용하여 재구성된 특징 영상을 생성하는 특징 영상 생성부, 상기 특징 영상을 기반으로 피해목과 관련된 객체와 상기 대상 지역 내 객체들의 유사도를 산출하여 상기 피해목을 검출하는 피해목 검출부 및 상기 피해목을 검출한 결과에 대한 검출 정확도를 분석함에 따라 검출 성능을 판단하는 검출 성능 판단부를 포함할 수 있다.
또한, 상기 피해목 검출부는, 상기 대상 지역의 객체들 각각에 대한 화소값을 이용하여 상기 피해목과의 유사도를 산출하는 상기 표적탐지 알고리즘을 통해 상기 특징 영상의 전체 영역 중 상기 피해목 후보군 영역을 추출하는 피해목 후보군 영역 추출부 및 상기 추출된 피해목 후보군 영역에서의 각 객체들의 형상과 피해목을 대표하여 미리 저장된 피해목 폴리곤(polygon)을 비교하여 상기 피해목 후보군 영역에서의 객체들 중 일부 객체를 제거하는 객체 형상 판단부;를 더 포함하고, 상기 일부 객체가 제거된 피해목 후보군 영역에서의 텍스처 특징을 고려하여 상기 피해목을 검출할 수 있다.
또한, 상기 피해목 후보군 영역 추출부는 객체에 대한 화소값, 상기 특징 영상 전체의 화소값, 피해목에 대하여 미리 저장된 피해목 화소값에 대한 평균값 및 공분산 행렬을 이용하여 상기 각 객체와 상기 피해목의 유사도를 산출하는 것을 수행할 수 있다.
또한, 상기 입력부로부터 입력된 영상들을 전달받아, 상기 영상들을 정사보정하여, 하나의 영상으로 집성시켜 모자이킹(mosaicking) 영상으로 변환하는 모자이킹 영상 생성부를 더 포함하고, 상기 특징 영상 생성부는 상기 변환된 모자이킹 영상을 토대로 특징 영상을 생성할 수 있다.
또한, 검출 성능 판단부는, 피해목의 검출이 누락된 누락오차 및 피해목이 아닌 객체를 피해목으로 검출한 수행오차를 분석하여, 상기 검출 성능을 판단할 수 있다.
상기 목적을 달성하기 위한 본 발명의 또 다른 일 실시예에 따른 피해목검출 방법은, 제1 컬러모델에 따라 대상 지역의 객체들이 표현되는 적어도 하나의 영상을 입력 받는 단계, 입력된 영상들을 전달받아, 상기 영상들을 정사보정하여, 하나의 영상으로 집성시켜 모자이킹(mosaicking) 영상으로 변환하는 단계, 상기 모자이킹 영상의 분광 특성을 고려하여 식생 지수로 표현 가능한 특징 영상을 생성하는 단계, 상기 대상 지역의 객체들 각각에 대한 화소값을 이용하여 상기 피해목과의 유사도를 산출하는 기 설정된 알고리즘을 통해 상기 특징 영상의 전체 영역 중 상기 피해목 후보군 영역을 추출하는 단계, 상기 추출된 피해목 후보군 영역에서의 각 객체들의 형상과 피해목을 대표하여 미리 저장된 피해목 폴리곤(polygon)을 비교하여 상기 후보군 영역에서의 객체들 중 일부 객체를 제거하는 단계 및 상기 일부 객체가 제거된 후보군 영역에서의 텍스처 특징을 고려하여 상기 피해목을 검출하는 단계를 포함할 수 있다.
또한, 상기 피해목을 검출한 결과에 대한 검출 정확도를 분석함에 따라 검출 성능을 판단하는 단계를 더 포함하고, 상기 검출 성능을 판단하는 단계는, 피해목의 검출이 누락된 누락오차 및 피해목이 아닌 객체를 피해목으로 검출한 수행오차를 분석하여, 상기 검출 성능을 판단할 수 있다.
또한, 본 발명의 또 다른 목적을 달성하기 위하여, 본 발명의 피해목 검출 방법이 컴퓨터에서 수행하기 위한 컴퓨터에서 판독 가능한 프로그램이 기록된 저장 매체를 제공한다.
본 발명의 피해목 검출 장치 및 방법은 소나무 재선충병 피해목 추출을 정확한 위한 무인기 영상의 최적 촬영 시기와 적합한 공간해상도를 기반으로 하여, 보다 정확하게 피해목을 검출할 수 있는 효과가 있다.
도1은 본 발명의 일 실시예에 따른 피해목 검출 시스템의 구성을 개략적으로 도시한 블록도이다.
도2는 본 발명의 실시예에 따른 피해목 검출 장치의 구성을 개략적으로 도시한 블록도이다.
도3은 본 발명의 실시예에 따른 피해목 검출 장치의 구성을 개략적으로 도시한 블록도이다.
도4는 본 발명의 실시예에 따른 모자이킹 영상을 도시한 도면이다.
도5는 본 발명의 실시예에 따른 식생 지수 영상을 도시한 도면이다.
도6은 본 발명의 일 실시예에 따른 피해목 후보로 검출된 다양한 폴리곤 형상을 도시한 도면이다.
도7은 본 발명의 일 실시예에 따른 텍스처 특징 영상을 도시한 도면이다.
도8은 본 발명의 일 실시예에 따른 피해목 검출 방법을 시간의 흐름에 따라 도시한 흐름도이다.
본 발명과 본 발명의 동작상의 이점 및 본 발명의 실시에 의하여 달성되는 목적을 충분히 이해하기 위해서는 본 발명의 바람직한 실시예를 예시하는 첨부 도면 및 첨부 도면에 기재된 내용을 참조하여야만 한다.
이하, 첨부한 도면을 참조하여 본 발명의 바람직한 실시예를 설명함으로써, 본 발명을 상세히 설명한다. 그러나, 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며, 설명하는 실시예에 한정되는 것이 아니다. 그리고, 본 발명을 명확하게 설명하기 위하여 설명과 관계 없는 부분은 생략되며, 도면의 동일한 참조부호는 동일한 부재임을 나타낸다.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함" 한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라, 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "...부", "...기", "모듈", "블록"등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로구현될 수 있다.
이하, 본 발명의 일 실시예를 첨부된 도면들을 참조하여 상세히 설명한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략할 수 있다.
이하에서는 본 발명의 실시예에 따른 피해목이 위치하고 있는 피해목 검출을 위한 장치의 구성을 관련된 도면을 참조하여 상세히 설명한다. 도1은 본 발명의 일 실시예에 따른 피해목 검출 시스템의 구성을 개략적으로 도시한 블록도이다. 도1을 참조하면, 본 발명의 실시예에 따른 피해목 검출 시스템은 영상 획득 장치(100) 및 피해목 검출 장치(200)를 포함한다.
이때, 본 발명의 영상 획득 장치(100)는 상기 대상 지역을 촬영할 때, 바람이나 기류에 의한 흔들림에 따라 촬영 누락에 의해 특정 지역에 대한 영상을 획득하지 못하게 되는 상황을 방지하기 위하여, 대상 지역의 인접 영역을 중첩(overlap)하여 복수의 영상들을 획득할 수 있도록 한다. 이렇게, 중첩률을 높게 하는 이유는 후술하는 영상 변환 단계에서 획득 영상을 모자이킹 영상으로 변환할 때, 인접 영상간의 대응점을 충분히 확보하기 위함이다. 또한, 본 발명의 영상 획득 장치(100)로부터 획득되는 영상은 고해상도 영상일 수 있다.
본 발명의 실시예에 따른 피해목 검출 장치(200)는 영상 획득 장치(100)로부터 획득된 영상들을 전달 받아, 상기 영상들을 토대로 피해목을 검출 및 탐지한다. 보다 상세하게는, 피해목 탐지 장치(200)는 상기 영상 획득 장치로부터 획득된 무인기 영상에서 피해목 영역을 판단하는데, 먼저 획득된 무인기 영상에서 피해목(타겟) 후보군 영역을 추출하고, 추출된 피해목 후보군 영역에서의 피해목의 위치, 즉 피해목을 검출한다. 이와 관련하여 보다 구체적인 설명을 위하여 도2를 참조하여 후술하도록 한다.
도2 및 도3은 본 발명의 실시예에 따른 피해목 검출 장치(200)의 구성을 개략적으로 도시한 블록도이다. 도2를 참조하면, 본 발명의 실시예에 따른 피해목 검출 장치(200)는 입력부(210), 모자이킹 영상 생성부(220), 특징 영상 생성부(230), 피해목 검출부(240) 및 검출 성능 판단부(250)를 포함한다.
본 발명의 실시예에 따른 입력부(210)는 상기 영상 획득 장치(100)로부터 획득된 복수의 영상들을 입력 받는다. 이때, 입력부(210)에 입력되는 복수의 영상들은 RGB 컬러모델(제1 컬러모델)로 표현되는 RGB 영상이다.
본 발명의 실시예에 따른 모자이킹 영상 생성부(220)는 입력부(210)로부터 입력된 영상들을 전달 받아, 상기 영상을 정사보정하여 하나의 영상으로 집성시켜 모자이킹(mosaicking) 영상을 생성한다. 일 실시예에 따른 모자이킹 영상은 도4와 같다. 도4의 (a)는 높은 중첩도로 획득된 영상들을 도시한 도면이고, 도4의 (b)는 정사보정 처리되어 생성된 모자이킹 영상이다. 이렇게, 본 발명의 모자이킹 영상 생성부(220)가 개별적으로 입력되는 영상들에서 나타나는 상이한 화소값의 특성을 정규화한 모자이크 영상을 생성함에 따라, 모자이크 영상을 이용하여 병해목을 탐지하는데 있어 보다 효율적이다.
본 발명의 실시예에 따른 특징 영상 생성부(230)는 상기 입력된 영상의 색상값을 변환하거나, 상기 색상값을 이용하여 재구성된 특징 영상을 생성할 수 있다. 특징 영상 생성부(230)가 생성하는 특징 영상은 식생 지수를 나타내는 영상뿐만 아니라, 색의 상대적 배치를 나타내는 색상 특징에 따른 색상 특징 영상 및 색상의 순도를 나타내는 채도 특징에 따른 채도 특징 영상을 포함할 수 있다. 즉, 본 발명의 특징 영상 생성부(230)는 색상 특징 영상, 채도 특징 영상 및 식생 지수 영상을 생성할 수 있다.
특징 영상 생성부(230)로부터 생성되는 식생 지수 영상은, 특징 영상 생성부가 근적외선 밴드 영상 없이 가시광선 3개 밴드(Red, Green, Blue band)의 영상만으로 식물의 특징을 나타내는 식생 지수들을 산출함에 따라 생성될 수 있다. 건강한 식물은 녹색파장대에서 반사율이 높고, 적색 및 청색파장대에서는 엽록소 흡수 때문에 상대적으로 반사율이 낮게 나타난다. 따라서, 본 발명의 특징 영상 생성부는 가시광선(RGB) 파장에 따른 영상만으로 식생지수를 산출 가능하며, 이렇게 산출된 식생지수로 표현되는 식생 지수 영상은 도5와 같다.
그리고, 특징 영상 생성부(230)로부터 제2 컬러모델을 이용하여 생성되는 특징 영상은 HSV(Hue/Saturation/Value) 영상일 수 있다. 일 실시예에 따른 제2 컬러모델을 통해 생성되는 색상(Hue) 영상 및 채도(Saturation) 영상은 도5와 같다.
입력부(210)로 입력된 제1 컬러모델에 따른 RGB 영상을 색상/채도/명암 영상으로 변환하는 제2 컬러모델을 이용하여 RGB 영상의 화소값을 색상/채도/명암에 따른 화소값으로 변환함에 따라 특징 영상을 생성함으로써, 생성된 특징 영상은 정규화된 특징값을 갖게 된다. 이렇게, 특징 영상 생성부(230)가 특징 영상을 생성함에 따라 영상 속의 산림과 비산림을 구분하고 피해목(고사목)과 건강목을 구분하는데 있어 용이한 장점이 있다. RGB 영상을 HSV 영상으로 변환하는 기술은 이미 널리 공지된 것이므로, 특징 영상을 생성하는 동작 원리는 생략하도록 한다.
다음으로, 특징 영상 생성부(230)가 특징 영상을 생성함에 따라 피해목 검출부(240)가 피해목(피해목이 위치하고 있는 영역)을 검출하는 방법과 관련하여 도4 및 도5를 참고하여 살펴보도록 한다. 이때, 피해목 검출부(240)가 이용하는 특징 영상은 식생 지수 영상, 색상 특징 영상 및 채도 특징 영상 중 하나를 선택하여, 선택된 특징 영상을 기반으로 특징 영상 생성부(230) 피해목을 검출할 수 있다. 예컨대, 피해목 검출부(240)는 상기 식생 지수 영상, 색상 특징 영상 및 채도 특징 영중 하나만을 이용하여 피해목을 검출할 수 있고, 각각의 영상에 대하여 피해목을 검출할 수도 있다. 후자의 경우, 각각의 특징 영상에 대하여 별도로 검출된 피해목들을 비교 분석함에 따라 최종적으로 피해목을 결정할 수도 있다. 먼저, 하나의 특징 영상을 기반으로 피해목을 검출하는 것과 관련하여 설명하도록 한다.
도3을 참고하면, 본 발명의 실시예에 따른 피해목 검출부(240)는 피해목 후보군 영역 추출부(241), 객체 형상 판단부(242), 텍스처 특징 산출부(243) 및 데이터 베이스(244)를 포함할 수 있다.
본 발명의 실시예에 따른 피해목 후보군 영역 추출부(241)는 기 설정된 알고리즘을 이용하여 상기 생성된 특징 영상을 기반으로 대상 지역에 존재하는 객체들 중 피해목이 위치하고 있는 영역으로 추정되는 피해목 후보군 영역을 추출할 수 있다.
피해목 후보군 영역 추출과정을 보다 구체적으로 설명하면, 피해목 후보군 영역 추출부(241)는 특징 영상에 표시되는 피해목, 배경, 대상물체와 같은 객체들의 화소값을 이용하여 실제 피해목과 유사한 정도를 파악함에 따라 피해목 후보군 영역을 추출할 수 있다. 이때, 피해목 후보군 영역 추출을 위한 기 설정된 알고리즘으로는 정합 필터(Matched Filter)가 이용될 수 있다.
이때, 피해목 후보군 영역 추출부(241)는 정합 필터를 이용하여 피해목 후보군 영역 추출을 위해, 본 발명의 피해목 검출부(240)의 데이터베이스(244)에 미리 저장된 일반적인 피해목에 따른 유사도 판단 기준 화소값을 이용하여야 한다. 예컨대, 본 발명에서 이용되는 상기 기준 화소값은 현지조사에 의하여 소나무재선충병 감염목으로 확정 판정된 세 그루의 수관 영역을 추출하여 선택된 감염목에 대한 영상 화소값일 수 있다.
본 발명의 실시예에 따른 피해목 후보군 영역 추출부(241)는 정합 필터에 따른 <수학식1>을 통해 특징 영상의 각 객체들과 피해목의 유사도를 계산할 수 있다.
Figure 112018115938976-pat00001
여기서, S는 유사도 값이고, t는 피해목과의 유사도를 판단하고자 하는 객체의 화소 평균값이며, μb는 특징 영상 전체 화소의 평균값이고, r은 미리 저장된 피해목에 대한 기준 화소값이며, Г은 공분산 행렬이다.
본 발명의 피해목 후보군 영역 추출부(241)는 위 <수학식1>에 따라 계산된 각 객체의 유사도 값을 기 설정된 임계값과 비교함에 따라 피해목과의 유사도를 판단할 수 있다. 예컨대, 임계값이 1인 경우, 상기 계산된 유사도 값(S)이 1에 가까울 수록 피해목일 확률이 높다는 것을 의미하고, 상기 계산된 유사도 값이 1(임계값)과 멀어질수록 피해목이 아닐 확률이 높다는 것을 도출해 낼 수 있다.
기 설정되는 임계값을 좁은 범위로 설정할수록 적은 피해목 후보가 추출되고, 넓은 범위로 설정할수록 많은 피해목 후보가 추출될 것이다. 본 발명에서 설정되는 바람직한 임계값은 0.7 내지 1.3이지만, 이에 제한되지 않고 필요에 따라 임계값을 선택적으로 변경하여 설정될 수 있다.
다음으로, 본 발명의 실시예에 따른 객체 형상 판단부(242)는 추출된 피해목 후보군 영역에서의 각 객체들의 형상과 피해목을 대표하여 미리 설정된 피해목 폴리곤(polygon)을 비교하여 피해목이 아닌 객체들을 제거한다.
피해목 후보군 영역 추출부(241)를 통해 추출된 객체들은 나지, 도로, 농지, 건축물 등과 같은 객체들이 포함되어있어, 실제 피해목보다 많이 검출될 수 있다. 이러한, 피해목이 아닌 객체들을 피해목 검출을 위한 고려대상에서 제거하기 위하여 본 발명의 객체 형상 판단부(242)는 피해목과 관련된 수관의 크기(면적)과 형상을 고려한 선별 방법을 이용하여 상기 피해목이 아닌 객체들을 제거한다.
객체 형상 판단부(242)는 상대형상지수(Relative Shape Index, RSI)를 산출하여 피해목 후보군 영역에 따른 각 객체들의 형상과 피해목 형상을 비교함으로써, 상기 피해목 형상과 상이한 형상에 따른 객체를 제거하도록 한다. 예컨대, 무인기에서 촬영된 나무의 수관의 형상은 일반적으로 원형에 가깝기 때문에, 원형에서 크게 벗어나는 형태로 추출되는 객체는 피해목이 아닐 확률이 매우 높다. 예를 들어, 후보군 영역에 있는 객체 중 어느 하나의 객체에 대하여 산출된 형상 지수가 원형에 근사하지 않는 값을 가지는 경우, 타겟 검출 후보 대상에서 제외될 수 있다.
일 예로, 본 발명에서는 표준 피해목의 형상에 대한 기준 형상 정보를 데이터베이스(244)에 미리 저장하고, 저장된 기준 형상 정보를 기준으로 하여, 후보군 영역에 있는 객체들을 선별할 수 있다. 여기서, 미리 저장되는 표준 피해목의 형상은 원형이 아닌 다른 형상으로 설정될 수 있다.
도6은 본 발명의 일 실시예에 따른 피해목 후보로 검출된 다양한 폴리곤 형상을 도시한 도면이다. 도6에 도시된 P1 내지 P7은 경작지의 고랑, 경작지와 산림 경계 사이에 선형 모양의 고량을 나타내는데 이러한 형태를 갖는 폴리곤의 색상은 피해목에 해당하는 P9 내지 P12와 거의 동일하지만, 상이한 형상을 가지고 있어, 이러한 경우 본 발명의 객체 형상 판단부(242)의 상대형상지수(RSI)를 이용한 객체 제거가 피해목 영역 검출에 있어 검출 정확도를 높일 수 있다.
다음으로, 객체 형상 판단부(242)에 의해 피해목과 관련성이 떨어지는 일부 객체가 고려대상에서 제거된 후, 본 발명의 실시예에 따른 텍스처 특징 산출부(243)는 상기 일부 객체가 제거된 피해목 후보군 영역을 텍스처 특징을 산출함으로써, 피해목 영역을 검출한다. 예컨대, 텍스처 특징은 일정 거리(공간)에 있는 화소들의 값이 변화하는 정도로 산출된다. 본 발명의 실시예에 따른 텍스처 특징 산출부(243)는 피해목 후보군 영역을 복수개의 섹션으로 구획하고, 구획된 섹션들간 결합확률밀도를 계산하여 각 섹션에서의 텍스처 특징 값을 산출하여 텍스처 특징 영상을 생성할 수 있다.
본 발명의 텍스처 특징 산출부(243)는 복수개의 섹션들 중 특정 섹션을 상기 특정 섹션으로부터 섹션 거리만큼 이격된 또 다른 섹션과 비교하여, 비교된 섹션들의 텍스처 특징 값의 차이가 강조되도록 하는 것을 목적으로 한다. 예컨대, 본 발명의 텍스처 특징 산출부(243)는 각 섹션들의 텍스처 특징 값을 산출하기 위해서 섹션의 크기를 결정해야 하는데, 섹션의 크기는 사용자의 선택에 따라 그 크기가 결정될 수 있고, 또 다른 예로, 미리 구획할 섹션의 크기를 설정해둘 수도 있다.
본 발명의 텍스처 특징 산출부(243)는 섹션의 화소값 간의 결합확률밀도를 계산한 동시발생 행렬(grey level co-occurrence matrix)을 생성한 후, 생성된 행렬을 이용하여 텍스처 특징값을 산출한다.
아래 <표1>은 본 발명의 일 실시예에 따른 미리 정의된 텍스처 특징의 종류를 나타내고, <표1>에는 각 텍스처 특징에 따른 특징값을 산출할 수 있는 수식을 포함하고 있다.
텍스처 특징 수식 텍스처 특징 수식
Mean
Figure 112018115938976-pat00002
Dissimilarity
Figure 112018115938976-pat00003
Variance
Figure 112018115938976-pat00004
Entropy
Figure 112018115938976-pat00005
Homogeneity
Figure 112018115938976-pat00006
Angular Second Moment (ASM)
Figure 112018115938976-pat00007
Contrast
Figure 112018115938976-pat00008
Correlation
Figure 112018115938976-pat00009
상기 <표1>의 수식에서 i와 j는 텍스처 특징 산출부(243)가 생성한 행렬에서의 좌표를 나타내는 좌표값을 나타낸다.
본 발명의 텍스처 특징 산출부(243)는 이렇게 피해목 후보군 영역 내 각 객체들에 대하여 산출된 텍스처 특징을 이용하여 도 7과 같은 텍스처 특징 영상을 생성할 수 있다. 도7은 텍스처 특징 중 Homogeneity와 Variance 텍스처 특징에 따른 특징값을 산출하여 생성된 텍스처 특징 영상이다. 여기서, Homogeneity는 섹션내의 영상 화소값의 균질성을 나타내는 텍스처 특징이고, Variance는 섹션내의 영상 화소값의 불균질성을 나타내는 텍스처 특징이다.
텍스처 특징 산출부(243)에 의해 텍스처 특징 영상이 생성되면, 다시 객체 형상 판단부(242)가 상대형상지수를 이용하여 데이터베이스에 저장된 판단 기준이 되는 피해목의 형상 및 면적에 대한 데이터와 생성된 텍스처 특징 영상을 기반으로 텍스처 특징 영상에 포함된 객체들의 형상 및 면적에 대한 데이터를 비교함으로써, 피해목을 검출하도록 한다.
여기서, 본 발명의 일 실시예에 따른 동일한 대상 지역에 대하여 복수의 특징 영상들이 생성된 경우, 각 특징 영상들을 기반으로 하여 검출된 각각의 피해목(피해목 위치들)을 비교 분석하여 검출된 피해목의 위치를 최종적으로 결정할 수 있다. 예를 들어, 색상 특징 영상을 기반으로 검출된 피해목을 제1 피해목, 채도 특징 영상을 기반으로 검출된 피해목을 제2 피해목, 식생 지수 영상을 기반으로 검출된 피해목을 제3 피해목(여기서, 제1, 제2, 제3 피해목 각각은 복수개의 피해목 위치를 포함함)이라고 할 때, 본 발명의 피해목 검출 장치는 상기 제1 피해목, 제2 피해목, 제3 피해목의 위치를 비교하여, 모두 동일하게 검출한 피해목의 위치를 최종적인 피해목의 위치로 결정할 수 있다. 또 다른 예로, 색상 특징 영상, 채도 특징 영상 및 식생 지수 영상 각각에 가중치를 적용하여, 가중치가 적용된 특징 영상들 각각에서 검출된 결과를 이용하여 최종적으로 피해목의 위치를 결정할 수도 있다.
본 발명의 실시예에 따른 검출 성능 판단부(250)는 피해목 검출부(240)에 의해 검출된 피해목 영역을 검출한 결과에 대한 검출 정확도를 분석함에 따라 검출 성능을 판단할 수 있다. 보다 상세하게는, 검출 성능 판단부(250)는 검출률(recall)과 정밀도(precision)를 각각 분석함에 따라 검출 성능을 판단할 수 있다.
예컨대, 검출률(recall)은 검출된 피해목의 수/전체 피해목의 수로 산출될 수 있고, 정밀도(precision)는 검출된 피해목의 수/ 전체 검출된 나무의 수로 산출될 수 있다. 검출률은 즉 누락오차, 정밀도는 수행오차를 의미한다.
이렇게, 검출 성능 판단부(250)에 의한 검출 성능 판단 결과, 상기 산출된 검출률 및 정밀도가 기 설정된 기준범위에 미치지 못하는 경우, 제어부(미도시)가 이러한 검출오류 성능을 개선시키기 위해서 피해목 검출부(240)의 피해목 검출과정에서 텍스처 임계값을 변경하거나, 면적 및 형상지수에 따른 임계값을 변경시키는 방법을 통해 보다 정확하게 피해목을 검출할 수 있는 제어 동작을 수행할 수 있다.
상술한 바와 같이, 본 발명의 피해목 탐지 장치에 의해 피해목 영역이 탐지되면, 탐지된 피해목의 위치정보를 획득할 수 있어, 위치정보 획득 이후 지속적으로 피해목의 상황을 관리할 수 있다.
이상에서 살펴본 본 발명에 의하면 무인 영상을 기반으로 피해목을 검출함으로써 산림병해충 감염 및 피해 현황에 대한 모니터링을 효과적으로 수행할 수 있다.
도8은 본 발명의 일 실시예에 따른 피해목 검출 방법을 시간의 흐름에 따라 도시한 흐름도이다.
먼저, S80 단계에서 본 발명의 영상 획득 장치(100) 피해목을 검출하고자 하는 대상 지역을 촬영한다. 본 발명의 영상 획득 장치는 고해상도로 현장에서 신속하게 영상을 획득할 수 있어, 기존의 디지털항공사진이나 위성영상과 다른 특성을 가진다.
그리고 S81 단계에서, 본 발명의 입력부(210)는 상기 영상 획득 장치(100)로부터 획득된 복수의 영상들을 입력 받는다. 이때, 입력부(210)에 입력되는 복수의 영상들은 RGB 컬러모델(제1 컬러모델)로 표현되는 RGB 영상이다. 이에 따라, S82 단계에서, 본 발명의 실시예에 따른 모자이킹 영상 생성부(220)는 입력부(210)로부터 입력된 영상들을 전달 받아, 상기 영상을 정사보정하여 하나의 영상으로 집성시켜 모자이킹(mosaicking) 영상을 생성한다.
다음으로, S83 단계에서. 특징 영상 생성부(230)는 모자이킹된 영상에 대한 분광 특성을 이용하여 대상 지역에 대한 영상을 식생 지수로 표현 가능한 특징 영상을 생성할 수 있다. 특징 영상 생성부(230)가 생성하는 특징 영상은 식생 지수를 나타내는 영상뿐만 아니라, 색의 상대적 배치를 나타내는 색상 특징에 따른 색상 특징 영상 및 색상의 순도를 나타내는 채도 특징에 따른 채도 특징 영상을 포함할 수 있다. 즉, 본 발명의 특징 영상 생성부(230)는 색상 특징 영상, 채도 특징 영상 및 식생 지수 영상을 생성할 수 있다.
이후에, S84 단계에서, 피해목 후보군 영역 추출부(241)는 기 설정된 알고리즘을 이용하여 상기 생성된 특징 영상을 기반으로 대상 지역에 존재하는 객체들 중 피해목으로 추정되는 피해목 후보군 영역을 추출할 수 있다. 여기서, 피해목 후보군 영역 추출 방법은 위에서 상세하게 설명한 바 중복되는 내용이므로, 여기서는 생략하도록 한다.
다음으로, S85 단계에서, 객체 형상 판단부(242)는 추출된 피해목 후보군 영역에서의 각 객체들의 형상과 피해목을 대표하여 미리 설정된 피해목 폴리곤(polygon)을 비교하여 피해목이 아닌 객체들을 제거한다.
피해목이 아닌 객체들이 제거되고 나면, S86 단계에서, 텍스처 특징 산출부(243)가 피해목 후보군 영역 내 각 객체들에 대하여 산출된 텍스처 특징을 이용하여 텍스처 특징 영상을 생성한다.
텍스처 특징 산출부(243)에 의해 텍스처 특징 영상이 생성되면, S87 단계에서, 다시 객체 형상 판단부(242)가 상대형상지수를 이용하여 데이터베이스에 저장된 판단 기준이 되는 피해목의 형상 및 면적에 대한 데이터와 생성된 텍스처 특징 영상을 기반으로 텍스처 특징 영상에 포함된 객체들의 형상 및 면적에 대한 데이터를 비교함으로써, 피해목을 검출하도록 한다.
그리고 마지막으로, S88 단계에서, 검출 성능 판단부(250)가 피해목 검출부(240)에 의해 검출된 피해목을 검출한 결과에 대한 검출 정확도를 분석함에 따라 검출 성능을 판단한다.
상술한 바와 같이, RGB칼라영상에서 소나무재선충병 피해목을 잘 보여주는 특징영상들을 생성한 후 이를 이용하여 1차적으로 피해목 후보군을 추출하였고, 후보군을 대상으로 선정된 객체의 크기와 모양, 그리고 텍스처값을 이용하여 피해목을 추출하였다. 영상판독과 현지조사 결과를 종합하여 추출된 피해목 위치를 기준으로 정확도 검증을 실시한 결과, 본 발명에서 적용한 피해목 검출 기법은 대상 지역에 존재하는 피해목을 누락 없이 모두 검출하였음을 확인할 수 있었다.
이상에서 설명한 본 발명의 실시예를 구성하는 모든 구성요소들이 하나로 결합하거나 결합하여 동작하는 것으로 기재되어 있다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 또한, 이와 같은 컴퓨터 프로그램은 USB 메모리, CD 디스크, 플래쉬 메모리 등과 같은 컴퓨터가 읽을 수 있는 기록매체(Computer Readable Media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시예를 구현할 수 있다. 컴퓨터 프로그램의 기록매체로서는 자기 기록매체, 광 기록매체 등이 포함될 수 있다.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위 내에서 다양한 수정, 변경 및 치환이 가능할 것이다. 따라서, 본 발명에 개시된 실시예 및 첨부된 도면들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예 및 첨부된 도면에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구 범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리 범위에 포함되는 것으로 해석되어야 할 것이다.

Claims (17)

  1. 제1 컬러모델에 따라 대상 지역의 객체들이 표현된 적어도 하나의 영상을 입력 받는 입력부;
    상기 영상에 피해목이 위치하는 영역을 검출할 수 있도록, 상기 입력된 영상의 색상값을 변환하거나, 상기 색상값을 이용하여 재구성된 특징 영상을 생성하는 특징 영상 생성부; 및
    상기 특징 영상을 기반으로 피해목과 관련된 객체와 상기 대상 지역의 객체들의 유사도를 산출하여 상기 피해목을 검출하는 피해목 검출부;를 포함하고,
    상기 피해목 검출부는,
    상기 대상 지역의 객체들 각각에 대한 화소값을 이용하여 상기 피해목과의 유사도를 산출하여 상기 특징 영상의 전체 영역 중 피해목 후보군 영역을 추출하는 피해목 후보군 영역 추출부를 포함하며,
    상기 피해목 후보군 영역 추출부는 상기 피해목과의 유사도를 판단하고자 하는 객체의 화소 평균값, 상기 특징 영상의 전체 화소의 평균값, 상기 피해목에 대하여 미리 저장된 피해목에 대한 기준 화소값 및 공분산 행렬을 이용하여 상기 각 객체와 상기 피해목의 유사도 값을 산출하고,
    상기 각 객체와 상기 피해목의 유사도 값 각각을 기 설정된 임계값과 비교하여 상기 피해목과의 유사도를 판단하여 상기 피해목 후보군 영역을 추출하는 것을 특징으로 하는 피해목 검출 장치.
  2. 제1항에 있어서, 상기 피해목 검출부는,
    상기 추출된 피해목 후보군 영역에서의 각 객체들의 형상과 피해목을 대표하여 미리 저장된 피해목 폴리곤(polygon)을 비교하여 상기 피해목 후보군 영역에서의 객체들 중 일부 객체를 제거하는 객체 형상 판단부;를 더 포함하고,
    상기 일부 객체가 제거된 피해목 후보군 영역에서의 텍스처 특징을 고려하여 상기 피해목을 검출하는 것을 특징으로 하는 피해목 검출 장치.
  3. 삭제
  4. 제2항에 있어서, 상기 피해목 검출부는,
    상기 특징 영상을 복수개의 섹션들로 구분될 수 있도록 구획하고, 구획된 각 섹션들에 대한 화소값에 따른 결합확률밀도를 계산하여 상기 각 섹션에 대한 텍스처 특징을 산출하며, 산출된 텍스처 특징을 고려하여 상기 피해목을 검출하는 것을 특징으로 하는 피해목 검출 장치.
  5. 제4항에 있어서,
    상기 피해목 검출부는, 상기 텍스처 특징과 관련하여 미리 정의된 복수의 텍스처 특징 데이터들이 저장된 데이터베이스를 더 포함하고,
    상기 데이터베이스에 저장된 텍스처 특징 데이터는 상기 섹션들의 크기에 대한 데이터 및 상기 텍스처 특징을 산출하기 위한 영상의 밝기 데이터를 포함하는 것을 특징으로 하는 피해목 검출 장치.
  6. 제1항에 있어서,
    상기 입력부로부터 입력된 영상들을 전달받아, 상기 영상들을 정사보정하여, 하나의 영상으로 집성시켜 모자이킹(mosaicking) 영상으로 변환하는 모자이킹 영상 생성부를 더 포함하고,
    상기 특징 영상 생성부는 상기 변환된 모자이킹 영상을 토대로 특징 영상을 생성하는 것을 특징으로 하는 피해목 검출 장치.
  7. 제1항에 있어서,
    상기 특징 영상 생성부는 제2 컬러모델을 이용하여 상기 입력된 영상을 색상, 채도 및 명도에 따라 표현 가능한 특징 영상을 더 생성하는 것을 특징으로 하는 피해목 검출 장치.
  8. 제7항에 있어서,
    상기 제2 컬러모델을 이용하여 생성된 특징 영상은, 색의 상대적 배치를 나타내는 색상 특징에 따른 색상 영상 및 색상의 순도를 나타내는 채도 특징에 따른 채도 영상인 것을 특징으로 하는 피해목 검출 장치.
  9. 제1 컬러모델에 따라 대상 지역의 객체들이 표현된 적어도 하나의 영상을 입력 받는 입력부;
    상기 영상에 피해목이 위치하는 영역을 검출할 수 있도록, 상기 입력된 영상의 색상값을 변환하거나, 상기 색상값을 이용하여 재구성된 특징 영상을 생성하는 특징 영상 생성부;
    상기 특징 영상을 기반으로 피해목과 관련된 객체와 상기 대상 지역의 객체들의 유사도를 산출하여 상기 피해목을 검출하는 피해목 검출부; 및
    상기 피해목을 검출한 결과에 대한 검출 정확도를 분석함에 따라 검출 성능을 판단하는 검출 성능 판단부를 포함하고,
    상기 피해목 검출부는,
    상기 대상 지역의 객체들 각각에 대한 화소값을 이용하여 상기 피해목과의 유사도를 산출하여 상기 특징 영상의 전체 영역 중 피해목 후보군 영역을 추출하는 피해목 후보군 영역 추출부를 포함하고,
    상기 피해목 후보군 영역 추출부는 상기 피해목과의 유사도를 판단하고자 하는 객체의 화소 평균값, 상기 특징 영상의 전체 화소의 평균값, 상기 피해목에 대하여 미리 저장된 피해목에 대한 기준 화소값 및 공분산 행렬을 이용하여 상기 각 객체와 상기 피해목의 유사도 값을 산출하고,
    상기 각 객체와 상기 피해목의 유사도 값 각각을 기 설정된 임계값과 비교하여 상기 피해목과의 유사도를 판단하여 상기 피해목 후보군 영역을 추출하는 것을 특징으로 하는 피해목 검출 장치.
  10. 제9항에 있어서, 상기 피해목 검출부는,
    상기 추출된 피해목 후보군 영역에서의 각 객체들의 형상과 피해목을 대표하여 미리 저장된 피해목 폴리곤(polygon)을 비교하여 상기 피해목 후보군 영역에서의 객체들 중 일부 객체를 제거하는 객체 형상 판단부;를 더 포함하고,
    상기 일부 객체가 제거된 피해목 후보군 영역에서의 텍스처 특징을 고려하여 상기 피해목을 검출하는 것을 특징으로 하는 피해목 검출 장치.
  11. 삭제
  12. 제9항에 있어서,
    상기 입력부로부터 입력된 영상들을 전달받아, 상기 영상들을 정사보정하여, 하나의 영상으로 집성시켜 모자이킹(mosaicking) 영상으로 변환하는 모자이킹 영상 생성부를 더 포함하고,
    상기 특징 영상 생성부는 상기 변환된 모자이킹 영상을 토대로 특징 영상을 생성하는 것을 특징으로 하는 피해목 검출 장치.
  13. 제9항에 있어서,
    상기 검출 성능 판단부는, 피해목의 검출이 누락된 누락오차 및 피해목이 아닌 객체를 검출한 수행오차를 분석하여, 상기 검출 성능을 판단하는 것을 특징으로 하는 피해목 검출 장치.
  14. 제9항에 있어서,
    상기 대상 지역에 대한 서로 다른 영역들을 촬영한 복수개의 영상을 획득하는 영상 획득부를 더 포함하고,
    상기 복수개의 영상들은 인접하는 영역을 일부 중첩(overlap)하여 획득하는 것을 특징으로 하는 피해목 검출 장치.
  15. 제1 컬러모델에 따라 대상 지역의 객체들이 표현되는 적어도 하나의 영상을 입력 받는 단계;
    상기 입력된 영상들을 전달받아, 상기 영상들을 정사보정하여, 하나의 영상으로 집성시켜 모자이킹(mosaicking) 영상으로 변환하는 단계;
    상기 영상에 피해목이 위치하는 영역을 검출할 수 있도록, 상기 입력된 영상의 색상값을 변환하거나, 상기 색상값을 이용하여 재구성된 특징 영상을 생성하는 단계;
    상기 대상 지역의 객체들 각각에 대한 화소값을 이용하여 상기 피해목과의 유사도를 산출하여 상기 특징 영상의 전체 영역 중 피해목 후보군 영역을 추출하는 단계;
    상기 추출된 피해목 후보군 영역에서의 각 객체들의 형상과 피해목을 대표하여 미리 저장된 피해목 폴리곤(polygon)을 비교하여 상기 피해목 후보군 영역에서의 객체들 중 일부 객체를 제거하는 단계; 및
    상기 일부 객체가 제거된 피해목 후보군 영역에서의 텍스처 특징을 고려하여 피해목을 검출하는 단계를 포함하고,
    상기 피해목 후보군 영역을 추출하는 단계는 상기 피해목과의 유사도를 판단하고자 하는 객체의 화소 평균값, 상기 특징 영상의 전체 화소의 평균값, 상기 피해목에 대하여 미리 저장된 피해목에 대한 기준 화소값 및 공분산 행렬을 이용하여 상기 각 객체와 상기 피해목의 유사도 값을 산출하고,
    상기 각 객체와 상기 피해목의 유사도 값 각각을 기 설정된 임계값과 비교하여 상기 피해목과의 유사도를 판단하여 상기 피해목 후보군 영역을 추출하는 것을 특징으로 하는 피해목 검출 방법.
  16. 제15항에 있어서,
    상기 피해목을 검출한 결과에 대한 검출 정확도를 분석함에 따라 검출 성능을 판단하는 단계를 더 포함하고,
    상기 검출 성능을 판단하는 단계는, 피해목의 검출이 누락된 누락오차 및 피해목이 아닌 객체를 피해목으로 검출한 수행오차를 분석하여, 상기 검출 성능을 판단하는 것을 특징으로 하는 피해목 검출 방법.
  17. 제15항 내지 제16항 중 어느 한 항에 따른 피해목 검출 방법을 위한 분석 방법을 컴퓨터에서 수행하기 위한 컴퓨터에서 판독 가능한 프로그램이 기록된 저장 매체.
KR1020180144111A 2018-11-21 2018-11-21 피해목 검출 장치 및 방법 KR102183559B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180144111A KR102183559B1 (ko) 2018-11-21 2018-11-21 피해목 검출 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180144111A KR102183559B1 (ko) 2018-11-21 2018-11-21 피해목 검출 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20200059422A KR20200059422A (ko) 2020-05-29
KR102183559B1 true KR102183559B1 (ko) 2020-11-26

Family

ID=70911427

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180144111A KR102183559B1 (ko) 2018-11-21 2018-11-21 피해목 검출 장치 및 방법

Country Status (1)

Country Link
KR (1) KR102183559B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102532732B1 (ko) * 2022-06-20 2023-05-16 메이사플래닛 주식회사 식생지수 생성 장치 및 방법

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101545479B1 (ko) * 2015-03-31 2015-08-24 김명준 무인항공기 정사영상을 이용한 산림 병해충 피해목 검출 방법

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3718967B2 (ja) * 1997-08-22 2005-11-24 コニカミノルタビジネステクノロジーズ株式会社 画像特徴量抽出装置および方法並びに画像特徴量抽出プログラムを記録した記録媒体
KR20170125470A (ko) * 2016-05-04 2017-11-15 주식회사 씨에스랩 항공 영상을 이용한 병해충 피해목 탐지 방법 및 이를 위한 병해충 피해목 탐지 시스템

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101545479B1 (ko) * 2015-03-31 2015-08-24 김명준 무인항공기 정사영상을 이용한 산림 병해충 피해목 검출 방법

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
An Object-Based Classification Approach in Mapping Tree Mortality Using High Spatial Resolution Imagery, GIScience & Remote Sensing, 2013.05.15.*

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102532732B1 (ko) * 2022-06-20 2023-05-16 메이사플래닛 주식회사 식생지수 생성 장치 및 방법

Also Published As

Publication number Publication date
KR20200059422A (ko) 2020-05-29

Similar Documents

Publication Publication Date Title
US11810272B2 (en) Image dehazing and restoration
KR102623403B1 (ko) 항공 이미지 획득 및 분석을 위한 방법
Zhang et al. Object-oriented shadow detection and removal from urban high-resolution remote sensing images
US7630990B2 (en) Endmember spectrum database construction method, endmember spectrum database construction apparatus and endmember spectrum database construction program
Liang et al. Salient object detection in hyperspectral imagery
JP2017005389A (ja) 画像認識装置、画像認識方法及びプログラム
TW201437925A (zh) 物體識別裝置、方法及電腦程式產品
WO2018076138A1 (zh) 基于大尺度高分辨率高光谱图像的目标探测方法及装置
Stone et al. Forward looking anomaly detection via fusion of infrared and color imagery
Besheer et al. Modified invariant colour model for shadow detection
CN110598795A (zh) 图像差异检测方法及装置、存储介质、终端
KR102183559B1 (ko) 피해목 검출 장치 및 방법
Gauci et al. A Machine Learning approach for automatic land cover mapping from DSLR images over the Maltese Islands
JP2010237976A (ja) 光源情報取得装置、陰影検出装置、陰影除去装置、それらの方法、及びプログラム
JP6434834B2 (ja) 検査対象物抽出装置、及び検査対象物抽出方法
CN112183489B (zh) 一种松材变色立木识别定位方法、装置、设备及存储介质
JP6476935B2 (ja) 植物判別装置、植物判別方法及び植物判別用プログラム
CN114511781A (zh) 无人机搭载多光谱相机对伪装人员识别的方法、装置及介质
JP6200821B2 (ja) 林相解析装置、林相解析方法及びプログラム
Tamilselvi et al. Color based K-Means Clustering For Image Segmentation to Identify the Infected Leaves
US9183457B2 (en) Shadow detection in a multiple colour channel image
WO2024047847A1 (ja) 検出装置、検出方法、および検出プログラム
Bulan et al. Wheal detection from skin prick test images using normalized-cuts and region selection
JP2011124955A (ja) 画像処理方法及び画像処理装置
Afreen et al. A method of shadow detection and shadow removal for high resolution remote sensing images

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right