KR102495175B1 - 웹 기반의 사용자 연동을 통한 초분광 영상 기반 해상객체 인식에 사용되는 학습 데이터셋 구축 장치 및 방법 - Google Patents

웹 기반의 사용자 연동을 통한 초분광 영상 기반 해상객체 인식에 사용되는 학습 데이터셋 구축 장치 및 방법 Download PDF

Info

Publication number
KR102495175B1
KR102495175B1 KR1020220051776A KR20220051776A KR102495175B1 KR 102495175 B1 KR102495175 B1 KR 102495175B1 KR 1020220051776 A KR1020220051776 A KR 1020220051776A KR 20220051776 A KR20220051776 A KR 20220051776A KR 102495175 B1 KR102495175 B1 KR 102495175B1
Authority
KR
South Korea
Prior art keywords
data
user
dataset
web
learning
Prior art date
Application number
KR1020220051776A
Other languages
English (en)
Inventor
서동민
오상우
Original Assignee
한국해양과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국해양과학기술원 filed Critical 한국해양과학기술원
Priority to KR1020220051776A priority Critical patent/KR102495175B1/ko
Application granted granted Critical
Publication of KR102495175B1 publication Critical patent/KR102495175B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/273Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion removing elements interfering with the pattern to be recognised
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/194Terrestrial scenes using hyperspectral data, i.e. more or other wavelengths than RGB

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Remote Sensing (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Image Analysis (AREA)

Abstract

본 발명의 목적은 웹 기반의 사용자 연동을 통해 초분광 영상에 기반하는 해상객체 인식에 사용되는 학습 데이터셋을 구축할 수 있도록 하는 웹 기반의 사용자 연동을 통한 초분광 영상 기반 해상객체 인식에 사용되는 학습 데이터셋 구축 장치 및 방법을 제공하는 것이다.
상기 목적을 달성하기 위해, 본 발명에 따른 웹 기반의 사용자 연동을 통한 초분광 영상 기반 해상객체 인식에 사용되는 학습 데이터셋 구축 장치는, 웹 기반의 사용자로부터 대상 구역별로 촬영된 적어도 하나 이상의 HDR(High Dynamic Range) 데이터 형태로 변환된 초분광 영상을 업로드받아 대상 구역별로 데이터셋을 구성하여 저장하는 데이터셋 저장부; 사용자로부터 선택받은 적어도 하나 이상의 대상 구역에 대한 데이터셋을 상기 데이터셋 저장부에서 읽어와 각 HDR 데이터 별로 이미지를 출력하고, 사용자로부터 상기 이미지 내의 특정 객체에 대한 영역을 적어도 하나 이상 지정받아 분할하는 영역 분할부; 사용자로부터 선택받은 군집화 모델을 사용하여 상기 분할된 영역에서 해수 영역의 데이터를 제거하는 해수 제거부; 사용자로부터 선택받은 군집화 모델을 사용하여 상기 해수 영역의 데이터가 제거된 HDR 데이터에서 해상 객체를 식별하되, 객체 식별을 위해 군집화된 화소에 분류에 따라 서로 다른 색상을 맵핑시켜 출력하는 해상 객체 식별부; 객체 식별을 위해 군집화된 화소에 분류 결과를 포함하는 라벨을 태깅하고, 라벨이 태깅된 화소 데이터를 이용하여 학습 데이터를 구축하는 학습 데이터 구축부;를 포함하는 것을 특징으로 한다.

Description

웹 기반의 사용자 연동을 통한 초분광 영상 기반 해상객체 인식에 사용되는 학습 데이터셋 구축 장치 및 방법{APPARATUS AND METHOD FOR BUILDING LEARNING DATASET USED FOR RECOGNIZING MARINE OBJECTS BASED ON HYPERSPECTRAL IMAGES THROUGH WEB-BASED USER INTERWORKING}
본 발명은 초분광 영상 기반 해상객체 인식에 사용되는 학습 데이터셋 구축 장치 및 방법에 관한 것으로, 더욱 상세하게는 웹 기반의 사용자 연동을 통해 초분광 영상에 기반하는 해상객체 인식에 사용되는 학습 데이터셋 구축 장치 및 방법에 관한 것이다.
초분광 영상(Hyperspectral Image)은 빛의 3원색만 구분하던 일반 영상과 달리 가시광선과 근적외선 영역까지 수백개 이상의 연속된 스펙트럼 밴드로 구성된 분광해상도가 매우 높은 영상이다.
인간의 눈은 주로 3개의 대역에서 가시광선 색상을 보는 반면에, 초분광 영상 기술은 스펙트럼을 더 많은 대역으로 나눈다. 때문에 영상을 구성하는 각 화소에 해당하는 지표물 고유의 파장을 잡아낼 수 있다.
초분광 영상 기술은 이미지 화소마다 세분화된 대역의 스펙트럼 정보를 얻어 특정 대상이나 물질을 보다 쉽게 식별하고 발견할 수 있게 한다.
그리고 눈에 보이는 것 이상으로 확장될 수 있어 전자기 스펙트럼에서 정보를 수집하고 처리하는 일이 가능하다.
초분광 영상은 초분광 센서를 통하여 기록되는데, 초분광 센서는 영상을 구성하는 각 화소에 해당하는 지표물의 연속적이고 완전한 분광 정보를 취득한다.
도 1은 초분광 영상 취득 과정을 예시적으로 보인 도면으로, 위성, 드론, 항공기 등에 장착된 초분광 센서는 각 파장대에 해당하는 반사율 값을 데이터로 저장하며, 영상으로 생성할 경우, 해당 화소는 지상 대상물의 반사 특성을 보이는 곡선을 구성한다.
이러한 과정을 거처 만들어진 초분광 데이터의 분광 정보 자료들은 해당 객체의 특성 분석에 활용된다.
초분광 영상 기술은 초기에는 광물자원 분포나 암석을 구분하는 지질분야, 식물의 생화학적 구성인자 추정에 활용되었다.
식물에 나타나는 각종 스트레스의 탐지가 시도되고 있고, 도시 지역에서 각종 인공물의 분류 등 그 활용 분야가 확대되고 있다.
최근에는 소형 이미지 센서 기술, 1천개 이상 분광 밴드의 극초분광 이미징 기술, 머신러닝 기반 대규모 데이터 분석 기술 등이 결합돼 크게 발전하고 있다.
한편, 해상에서 사고가 발생하는 경우, 신속한 인명 구조와 추가 사고 방지를 위해서 사고 선박과 익수자의 위치를 정확하고 빠르게 파악하는 것이 중요하다.
특히, 해상 사고는 표류 이동 예상 범위를 포함한 광역의 해상 수색이 이루어져야 하므로, 신속하게 넓은 해역을 관측할 수 있는 항공 영상을 기반으로 한 실시간 분석 시스템의 개발이 요구된다.
이러한 요구에 따라 인공지능을 기반으로 초분광 영상을 분석하여 해상객체를 인식하도록 한다.
인공지능을 기반으로 초분광 영상을 분석하여 해상객체를 인식하기 위해서는 데이터별로 레이블 정보가 태깅된 학습 데이터셋이 구축되어야 한다.
대한민국 등록특허공보 제10-2258903호(공고일 2021.06.02.)
상기한 바와 같은 종래의 문제점을 해결하기 위한 본 발명의 목적은 웹 기반의 사용자 연동을 통해 초분광 영상에 기반하는 해상객체 인식에 사용되는 학습 데이터셋을 구축할 수 있도록 하는 웹 기반의 사용자 연동을 통한 초분광 영상 기반 해상객체 인식에 사용되는 학습 데이터셋 구축 장치 및 방법을 제공하는 것이다.
상기 목적을 달성하기 위해, 본 발명에 따른 웹 기반의 사용자 연동을 통한 초분광 영상 기반 해상객체 인식에 사용되는 학습 데이터셋 구축 장치는, 웹 기반의 사용자로부터 대상 구역별로 촬영된 적어도 하나 이상의 HDR(High Dynamic Range) 데이터 형태로 변환된 초분광 영상을 업로드받아 대상 구역별로 데이터셋을 구성하여 저장하는 데이터셋 저장부; 사용자로부터 선택받은 적어도 하나 이상의 대상 구역에 대한 데이터셋을 상기 데이터셋 저장부에서 읽어와 각 HDR 데이터 별로 이미지를 출력하고, 사용자로부터 상기 이미지 내의 특정 객체에 대한 영역을 적어도 하나 이상 지정받아 분할하는 영역 분할부; 사용자로부터 선택받은 군집화 모델을 사용하여 상기 분할된 영역에서 해수 영역의 데이터를 제거하는 해수 제거부; 사용자로부터 선택받은 군집화 모델을 사용하여 상기 해수 영역의 데이터가 제거된 HDR 데이터에서 해상 객체를 식별하되, 객체 식별을 위해 군집화된 화소에 분류에 따라 서로 다른 색상을 맵핑시켜 출력하는 해상 객체 식별부; 객체 식별을 위해 군집화된 화소에 분류 결과를 포함하는 라벨을 태깅하고, 라벨이 태깅된 화소 데이터를 이용하여 학습 데이터를 구축하는 학습 데이터 구축부;를 포함하는 것을 특징으로 한다.
또한, 본 발명에 따른 웹 기반의 사용자 연동을 통한 초분광 영상 기반 해상객체 인식에 사용되는 학습 데이터셋 구축 장치에서, 상기 데이터셋 저장부는, 웹 기반의 사용자로부터 대상 구역별로 촬영된 적어도 하나 이상의 초분광 영상을 HDR 데이터 형태로 변환한 HDR 원본 데이터를 업로드받아 구성된 데이터셋과 상기 HDR 원본 데이터에 대해 전처리 작업을 수행한 전처리 데이터를 업로드받아 구성된 데이터셋 중에서 적어도 하나를 저장하는 것을 특징으로 한다.
또한, 본 발명에 따른 웹 기반의 사용자 연동을 통한 초분광 영상 기반 해상객체 인식에 사용되는 학습 데이터셋 구축 장치에서, 상기 해수 영역의 데이터 제거에 사용되는 군집화 모델은, K-평균 군집화 모델, 가우시안 혼합(Gaussian Mixture) 모델, DBSCAN(Density Based Spatial Clustering of Applications with Noise) 모델 중에서 어느 하나인 것을 특징으로 한다.
또한, 본 발명에 따른 웹 기반의 사용자 연동을 통한 초분광 영상 기반 해상객체 인식에 사용되는 학습 데이터셋 구축 장치에서, 상기 해상 객체 식별에 사용되는 군집화 모델은, K-평균 군집화 모델, 가우시안 혼합 모델, DBSCAN 모델 중에서 어느 하나인 것을 특징으로 한다.
또한, 본 발명에 따른 웹 기반의 사용자 연동을 통한 초분광 영상 기반 해상객체 인식에 사용되는 학습 데이터셋 구축 장치에서, 상기 영역 분할부는, 사용자로부터 선택받은 적어도 하나 이상의 대상 구역에 대한 데이터셋을 상기 데이터셋 저장부에서 읽어와 각 HDR 데이터 별로 이미지를 출력하되, 각 HDR 데이터를 RGB 이미지로 변환하여 출력하고, 사용자로부터 상기 출력된 이미지 내의 특정 객체에 대한 영역을 적어도 하나 이상 지정받아 분할하는 것을 특징으로 한다.
또한, 본 발명에 따른 웹 기반의 사용자 연동을 통한 초분광 영상 기반 해상객체 인식에 사용되는 학습 데이터셋 구축 장치에서, 상기 해수 제거부는, 사용자로부터 선택받은 군집화 모델을 사용하여 상기 분할된 영역에서 해수 영역의 데이터를 제거한 후, 상기 해수 영역의 데이터가 제거된 HDR 데이터들을 하나의 학습 데이터셋으로 구성하는 것을 특징으로 한다.
또한, 본 발명에 따른 웹 기반의 사용자 연동을 통한 초분광 영상 기반 해상객체 인식에 사용되는 학습 데이터셋 구축 장치에서, 상기 해상 객체 식별부는, 상기 해수 제거부에서 구성된 학습 데이터셋에서 사용자로부터 선택받은 HDR 데이터를 사용자로부터 선택받은 군집화 모델에 적용시켜 해상 객체를 식별하는 것을 특징으로 한다.
또한, 본 발명에 따른 웹 기반의 사용자 연동을 통한 초분광 영상 기반 해상객체 인식에 사용되는 학습 데이터셋 구축 장치에서, 상기 학습 데이터 구축부는, 사용자의 요청에 따라 상기 군집화된 화소에 태깅된 라벨 정보를 변경하는 것을 특징으로 한다.
또한, 상기 목적을 달성하기 위해, 본 발명에 따른 웹 기반의 사용자 연동을 통한 초분광 영상 기반 해상객체 인식에 사용되는 학습 데이터셋 구축 방법은, 데이터셋 저장부가, 웹 기반의 사용자로부터 대상 구역별로 촬영된 적어도 하나 이상의 HDR 데이터 형태로 변환된 초분광 영상을 업로드받아 대상 구역별로 데이터셋을 구성하여 저장하는 데이터셋 저장 단계; 영역 분할부가, 사용자로부터 선택받은 적어도 하나 이상의 대상 구역에 대한 데이터셋을 상기 데이터셋 저장부에서 읽어와 각 HDR 데이터 별로 이미지를 출력하고, 사용자로부터 상기 이미지 내의 특정 객체에 대한 영역을 적어도 하나 이상 지정받아 분할하는 영역 분할 단계; 해수 제거부가, 사용자로부터 선택받은 군집화 모델을 사용하여 상기 분할된 영역에서 해수 영역의 데이터를 제거하는 해수 제거 단계; 해상 객체 식별부가, 사용자로부터 선택받은 군집화 모델을 사용하여 상기 해수 영역의 데이터가 제거된 HDR 데이터에서 해상 객체를 식별하되, 객체 식별을 위해 군집화된 화소에 분류에 따라 서로 다른 색상을 맵핑시켜 출력하는 해상 객체 식별 단계; 학습 데이터 구축부가, 객체 식별을 위해 군집화된 화소에 분류 결과를 포함하는 라벨을 태깅하고, 라벨이 태깅된 화소 데이터를 이용하여 학습 데이터를 구축하는 학습 데이터 구축 단계;를 포함하는 것을 특징으로 한다.
또한, 본 발명에 따른 웹 기반의 사용자 연동을 통한 초분광 영상 기반 해상객체 인식에 사용되는 학습 데이터셋 구축 방법에서, 상기 데이터셋 저장 단계는, 웹 기반의 사용자로부터 대상 구역별로 촬영된 적어도 하나 이상의 초분광 영상을 HDR 데이터 형태로 변환한 HDR 원본 데이터를 업로드받아 구성된 데이터셋과 상기 HDR 원본 데이터에 대해 전처리 작업을 수행한 전처리 데이터를 업로드받아 구성된 데이터셋 중에서 적어도 하나를 저장하는 단계인 것을 특징으로 한다.
또한, 본 발명에 따른 웹 기반의 사용자 연동을 통한 초분광 영상 기반 해상객체 인식에 사용되는 학습 데이터셋 구축 방법에서, 상기 해수 영역의 데이터 제거에 사용되는 군집화 모델은, K-평균 군집화 모델, 가우시안 혼합(Gaussian Mixture) 모델, DBSCAN(Density Based Spatial Clustering of Applications with Noise) 모델 중에서 어느 하나인 것을 특징으로 한다.
또한, 본 발명에 따른 웹 기반의 사용자 연동을 통한 초분광 영상 기반 해상객체 인식에 사용되는 학습 데이터셋 구축 방법에서, 상기 해상 객체 식별에 사용되는 군집화 모델은, K-평균 군집화 모델, 가우시안 혼합 모델, DBSCAN 모델 중에서 어느 하나인 것을 특징으로 한다.
또한, 본 발명에 따른 웹 기반의 사용자 연동을 통한 초분광 영상 기반 해상객체 인식에 사용되는 학습 데이터셋 구축 방법에서, 상기 영역 분할 단계는, 사용자로부터 선택받은 적어도 하나 이상의 대상 구역에 대한 데이터셋을 상기 데이터셋 저장부에서 읽어와 각 HDR 데이터 별로 이미지를 출력하되, 각 HDR 데이터를 RGB 이미지로 변환하여 출력하고, 사용자로부터 상기 출력된 이미지 내의 특정 객체에 대한 영역을 적어도 하나 이상 지정받아 분할하는 단계인 것을 특징으로 한다.
또한, 본 발명에 따른 웹 기반의 사용자 연동을 통한 초분광 영상 기반 해상객체 인식에 사용되는 학습 데이터셋 구축 방법에서, 상기 해수 제거 단계는, 사용자로부터 선택받은 군집화 모델을 사용하여 상기 분할된 영역에서 해수 영역의 데이터를 제거한 후, 상기 해수 영역의 데이터가 제거된 HDR 데이터들을 하나의 학습 데이터셋으로 구성하는 단계인 것을 특징으로 한다.
또한, 본 발명에 따른 웹 기반의 사용자 연동을 통한 초분광 영상 기반 해상객체 인식에 사용되는 학습 데이터셋 구축 방법에서, 상기 해상 객체 식별 단계는, 상기 해수 제거 단계에서 구성된 학습 데이터셋에서 사용자로부터 선택받은 HDR 데이터를 사용자로부터 선택받은 군집화 모델에 적용시켜 해상 객체를 식별하는 단계인 것을 특징으로 한다.
또한, 본 발명에 따른 웹 기반의 사용자 연동을 통한 초분광 영상 기반 해상객체 인식에 사용되는 학습 데이터셋 구축 방법에서, 상기 학습 데이터 구축 단계에서, 사용자의 요청에 따라 상기 군집화된 화소에 태깅된 라벨 정보를 변경하는 것을 특징으로 한다.
기타 실시 예의 구체적인 사항은 "발명을 실시하기 위한 구체적인 내용" 및 첨부 "도면"에 포함되어 있다.
본 발명의 이점 및/또는 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 각종 실시 예를 참조하면 명확해질 것이다.
그러나 본 발명은 이하에서 개시되는 각 실시 예의 구성만으로 한정되는 것이 아니라 서로 다른 다양한 형태로도 구현될 수도 있으며, 단지 본 명세서에서 개시한 각각의 실시 예는 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구범위의 각 청구항의 범주에 의해 정의될 뿐임을 알아야 한다.
본 발명에 의하면, 웹 기반의 사용자 연동을 통해 초분광 영상에 기반하는 해상객체 인식에 사용되는 학습 데이터셋을 구축할 수 있게 된다.
도 1은 초분광 영상 취득 과정을 예시적으로 보인 도면이다.
도 2는 군집화 모델의 특징을 예시적으로 보인 도면이다.
도 3은 HDR 데이터를 K-평균 군집화 모델, 가우시안 혼합 모델, DBSCAN 모델에 각각 적용시켜 해수 제거 작업을 수행한 결과를 예시적으로 보인 도면이다.
도 4는 해수 영역이 제거된 이미지를 K-평균 군집화 모델, 가우시안 혼합 모델, DBSCAN 모델에 각각 적용시켜 해상 객체를 분류한 결과를 예시적으로 보인 도면이다.
도 5는 본 발명의 일 실시예에 따른 웹 기반의 사용자 연동을 통한 초분광 영상 기반 해상객체 인식에 사용되는 학습 데이터 구축 장치의 구성을 개략적으로 보인 도면이다.
도 6은 본 발명에 적용되는 데이터셋 관리 UI를 예시적으로 보인 도면이다.
도 7은 본 발명에 적용되는 데이터 선택 UI를 예시적으로 보인 도면이다.
도 8은 본 발명에 적용되는 영역 분할 UI를 예시적으로 보인 도면이다.
도 9는 본 발명에 적용되는 해수 제거 UI를 예시적으로 보인 도면이다.
도 10은 본 발명에 적용되는 객체 식별 UI를 예시적으로 보인 도면이다.
도 11은 본 발명의 일 실시예에 따른 웹 기반의 사용자 연동을 통한 초분광 영상 기반 해상객체 인식에 사용되는 학습 데이터셋 구축 방법을 설명하기 위한 처리도이다.
본 발명을 상세하게 설명하기 전에, 본 명세서에서 사용된 용어나 단어는 통상적이거나 사전적인 의미로 무조건 한정하여 해석되어서는 아니 되며, 본 발명의 발명자가 자신의 발명을 가장 최선의 방법으로 설명하기 위해서 각종 용어의 개념을 적절하게 정의하여 사용할 수 있고, 더 나아가 이들 용어나 단어는 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야 함을 알아야 한다.
즉, 본 명세서에서 사용된 용어는 본 발명의 바람직한 실시 예를 설명하기 위해서 사용되는 것일 뿐이고, 본 발명의 내용을 구체적으로 한정하려는 의도로 사용된 것이 아니며, 이들 용어는 본 발명의 여러 가지 가능성을 고려하여 정의된 용어임을 알아야 한다.
또한, 본 명세서에서, 단수의 표현은 문맥상 명확하게 다른 의미로 지시하지 않는 이상, 복수의 표현을 포함할 수 있으며, 유사하게 복수로 표현되어 있다고 하더라도 단수의 의미를 포함할 수 있음을 알아야 한다.
본 명세서의 전체에 걸쳐서 어떤 구성 요소가 다른 구성 요소를 "포함"한다고 기재하는 경우에는, 특별히 반대되는 의미의 기재가 없는 한 임의의 다른 구성 요소를 제외하는 것이 아니라 임의의 다른 구성 요소를 더 포함할 수도 있다는 것을 의미할 수 있다.
더 나아가서, 어떤 구성 요소가 다른 구성 요소의 "내부에 존재하거나, 연결되어 설치된다"라고 기재한 경우에는, 이 구성 요소가 다른 구성 요소와 직접적으로 연결되어 있거나 접촉하여 설치되어 있을 수 있고, 일정한 거리를 두고 이격되어 설치되어 있을 수도 있으며, 일정한 거리를 두고 이격되어 설치되어 있는 경우에 대해서는 해당 구성 요소를 다른 구성 요소에 고정 내지 연결하기 위한 제 3의 구성 요소 또는 수단이 존재할 수 있으며, 이 제 3의 구성 요소 또는 수단에 대한 설명은 생략될 수도 있음을 알아야 한다.
반면에, 어떤 구성 요소가 다른 구성 요소에 "직접 연결"되어 있다거나, 또는 "직접 접속"되어 있다고 기재되는 경우에는, 제 3의 구성 요소 또는 수단이 존재하지 않는 것으로 이해하여야 한다.
마찬가지로, 각 구성 요소 간의 관계를 설명하는 다른 표현들, 즉 " ~ 사이에"와 "바로 ~ 사이에", 또는 " ~ 에 이웃하는"과 " ~ 에 직접 이웃하는" 등도 마찬가지의 취지를 가지고 있는 것으로 해석되어야 한다.
또한, 본 명세서에서 "일면", "타면", "일측", "타측", "제 1", "제 2" 등의 용어는, 사용된다면, 하나의 구성 요소에 대해서 이 하나의 구성 요소가 다른 구성 요소로부터 명확하게 구별될 수 있도록 하기 위해서 사용되며, 이와 같은 용어에 의해서 해당 구성 요소의 의미가 제한적으로 사용되는 것은 아님을 알아야 한다.
또한, 본 명세서에서 "상", "하", "좌", "우" 등의 위치와 관련된 용어는, 사용된다면, 해당 구성 요소에 대해서 해당 도면에서의 상대적인 위치를 나타내고 있는 것으로 이해하여야 하며, 이들의 위치에 대해서 절대적인 위치를 특정하지 않는 이상은, 이들 위치 관련 용어가 절대적인 위치를 언급하고 있는 것으로 이해하여서는 아니된다.
또한, 본 명세서에서는 각 도면의 각 구성 요소에 대해서 그 도면 부호를 명기함에 있어서, 동일한 구성 요소에 대해서는 이 구성 요소가 비록 다른 도면에 표시되더라도 동일한 도면 부호를 가지고 있도록, 즉 명세서 전체에 걸쳐 동일한 참조 부호는 동일한 구성 요소를 지시하고 있다.
본 명세서에 첨부된 도면에서 본 발명을 구성하는 각 구성 요소의 크기, 위치, 결합 관계 등은 본 발명의 사상을 충분히 명확하게 전달할 수 있도록 하기 위해서 또는 설명의 편의를 위해서 일부 과장 또는 축소되거나 생략되어 기술되어 있을 수 있고, 따라서 그 비례나 축척은 엄밀하지 않을 수 있다.
또한, 이하에서, 본 발명을 설명함에 있어서, 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 구성, 예를 들어, 종래 기술을 포함하는 공지 기술에 대해 상세한 설명은 생략될 수도 있다.
이하, 본 발명의 실시 예에 대해 관련 도면들을 참조하여 상세히 설명하기로 한다.
우선, 본 발명에 적용되는 HDR(High Dynamic Range) 데이터의 특성에 대해 살펴보면 다음과 같다.
본 발명에 적용되는 HDR 데이터는 초분광 센서를 통해 획득한 초분광 영상을 HDR 데이터 형태로 변환한 데이터로, 본 발명의 실시예에서는 명도의 범위를 높이기 위해 초분광 영상을 HDR 데이터 형태로 변환하여 사용하는 경우를 예로 들어 설명한다.
일반적인 이미지의 경우 한 픽셀이 3차원 또는 4차원 정보로 정의되기 때문에 한 픽셀에 내장된 정보의 양이 적다.
이러한 일반적인 이미지에 대한 객체 분류 시에는 CNN(Convolutional Neural Network), R-CNN(Resion-CNN) 등의 머신러닝 기법이 사용될 수 있다.
CNN, R-CNN 등의 머신러닝 기법을 사용하여 객체를 분류할 때, 원본 이미지에서 특정 객체에 대한 영역을 추출하고, 추출된 영역 안에 있는 픽셀을 하나의 인스턴스로 정의한다.
반면 HDR 데이터는 0~500 범위(전처리된 데이터의 경우 0~1 범위)의 값을 가지고 있고, 한 픽셀당 127개의 색상 정보 값을 포함하고 있다.
따라서, 하나의 인스턴스가 가지는 차원의 크기가 크기 때문에 CNN, R-CNN 등의 머신러닝 기법을 사용할 수 없다.
이에, HDR 데이터에서 해상 객체를 탐지하기 위해 군집화 알고리즘을 사용할 수 있다.
HDR 데이터를 군집화 알고리즘에 적용하여 해상 객체를 탐지하기 위해서는 해수 영역을 제거하는 단계와 객체를 분류하는 단계를 거칠 수 있다.
군집화 모델은 도 2에 도시하는 바와 같이 종류별로 특징을 가지고 있으며, 군집화에 소비되는 시간도 각각 다르다.
HDR 데이터에서 해수 영역을 제거하는 작업을 원활하게 수행하기 위해서는 군집화 시간이 짧은 모델이 요구되므로, 다양한 군집화 모델 중에서 속도 측면에서 성능이 우수한 모델인 K-평균 군집화(K-Means Clustering) 모델, 가우시안 혼합(Gaussian Mixture) 모델, DBSCAN(Density Based Spatial Clustering of Applications with Noise) 모델 등이 사용될 수 있다.
도 3은 HDR 데이터를 K-평균 군집화 모델, 가우시안 혼합 모델, DBSCAN 모델에 각각 적용시켜 해수 제거 작업을 수행한 결과를 예시적으로 보인 도면으로, 가우시안 혼합 모델과 DBSCAN 모델을 사용하는 경우, 해수 제거가 성공적으로 이루어지는 것을 확인할 수 있다.
해수 제거 작업이 완료된 후에는 해수 영역이 제거된 이미지를 군집화 모델에 적용시켜 해상 객체를 분류하는데, 도 4는 해수 영역이 제거된 이미지를 K-평균 군집화 모델, 가우시안 혼합 모델, DBSCAN 모델에 각각 적용시켜 해상 객체를 분류한 결과를 예시적으로 보인 도면으로, DBSCAN 모델을 사용하는 경우, 해상 객체가 유의미한 단위로 군집화가 이루어진 것을 확인할 수 있다.
도 5는 본 발명의 일 실시예에 따른 웹 기반의 사용자 연동을 통한 초분광 영상 기반 해상객체 인식에 사용되는 학습 데이터 구축 장치의 구성을 개략적으로 보인 도면이다.
도 5에 도시하는 바와 같이, 본 발명의 일 실시예에 따른 웹 기반의 사용자 연동을 통한 초분광 영상 기반 해상객체 인식에 사용되는 학습 데이터 구축 장치(100)는 데이터셋 저장부(110), 영역 분할부(120), 해수 제거부(130), 해상 객체 식별부(140), 학습 데이터 구축부(150) 등을 포함하여 이루어질 수 있다.
여기서, 데이터셋 저장부(110)는 웹 기반의 사용자로부터 대상 구역별로 촬영된 적어도 하나 이상의 초분광 영상을 업로드받아 대상 구역별로 데이터셋을 구성하여 저장할 수 있다.
초분광 영상은 명도의 범위를 높이기 위해 HDR(High Dynamic Range) 데이터 형태로 변환될 수 있다.
이에 따라, 데이터셋 저장부(110)는 대상 구역별로 적어도 하나 이상의 HDR 데이터를 이용하여 구성된 데이터셋을 저장할 수 있다.
나아가 데이터셋 저장부(110)는 사용자가 다양한 형태로 데이터를 처리할 수 있도록 대상 구역별로 적어도 하나 이상의 HDR 원본 데이터를 업로드받아 구성된 데이터셋과, HDR 원본 데이터에 대해 전처리 작업을 수행한 전처리(필터) 데이터를 업로드받아 구성된 데이터셋 중에서 적어도 하나를 저장할 수 있다.
예를 들어, 동해에서 촬영한 초분광 영상이 9개, 목포에서 촬영한 초분광 영상이 11개라고 가정했을 때, 동해 HDR 원본 데이터 9개를 업로드받아 구성된 데이터셋, 동해 HDR 전처리(필터) 데이터 9개를 업로드받아 구성된 데이터셋, 목포 HDR 원본 데이터 11개를 업로드받아 구성된 데이터셋, 목포 HDR 전처리(필터) 데이터 11개를 업로드받아 구성된 데이터셋을 저장할 수 있다.
여기서 전처리 작업은 왜곡을 보정하는 작업으로, 방사보정, 기하보정, 대기보정 등이 있을 수 있다. 이러한 전처리 작업을 수행하게 되면, 원본 데이터의 범위가 축소될 수 있다.
데이터셋 저장부(110)에 저장되는 데이터셋은 HDR 파일 단위로 HDR 데이터의 추가 및 관리가 가능하다.
도 6은 본 발명에 적용되는 데이터셋 관리 UI를 예시적으로 보인 도면으로, 사용자는 데이터셋 생성하기 메뉴를 통해 데이터셋을 새로 생성할 수도 있고, 업로드 기능을 통해 데이터셋을 구성하는 HDR 데이터를 HDR 파일 단위로 추가할 수 있다.
영역 분할부(120)는 웹 기반의 사용자로부터 적어도 하나 이상의 대상 구역(예를 들어, 동해)을 선택받으면, 선택받은 대상 구역에 대한 데이터셋을 데이터셋 저장부(110)에서 읽어와 취합하고, 각 HDR 데이터별로 이미지를 출력할 수 있다.
여기서 영역 분할부(120)는 사용자의 요청에 따라 필요한 파일을 선택적으로 읽어와 이를 이미지로 출력할 수 있고, 서로 다른 데이터셋에서 HDR 데이터를 읽어와 병합하여 이를 이미지로 출력할 수 있다.
도 7은 본 발명에 적용되는 데이터 선택 UI를 예시적으로 보인 도면으로, 사용자는 목표 HDR 원본 데이터 11개 중에서 1, 2, 4번 HDR 데이터를 선택할 수 있고, 영역 분할부(120)는 사용자로부터 선택받은 1, 2, 4번 HDR 데이터에 대해서만 읽어와 이를 이미지로 출력할 수 있다.
그리고 목포 HDR 원본 데이터와 동해 HDR 원본 데이터에 대한 통합적인 분석이 필요한 경우에는, 사용자로부터 어느 하나의 데이터셋(예를 들어, 목포)을 먼저 선택받아 해당 데이터셋 전체를 불러온 후, 다른 하나의 데이터셋(예를 들어, 동해)을 추가로 선택받아 해당 데이터셋 전체를 불러와 이를 통합하여 이미지로 출력할 수 있다.
여기서 영역 분할부(120)는 선택된 HDR 데이터를 이미지로 출력할 때, 사용자의 요청에 따라 각 HDR 데이터를 RGB 이미지로 변환하여 출력할 수 있다.
영역 분할부(120)는 사용자로부터 각 HDR 데이터별로 출력된 이미지 내의 특정 객체에 대한 영역을 적어도 하나 이상 지정받아 이를 분할할 수 있다.
도 8은 본 발명에 적용되는 영역 분할 UI를 예시적으로 보인 도면으로, 사용자는 출력된 이미지 내에서 특정 객체에 대한 영역을 적어도 하나 이상 지정할 수 있고, 영역 분할부(120)는 사용자로부터 지정받은 영역을 분할한 후, 사용자의 요청에 따라 분할 영역을 저장할 수 있다.
한편, 해수 제거부(130)는 사용자로부터 선택받은 군집화 모델을 사용하여 영역 분할부(120)에서 분할된 각각의 분할 영역에서 해수 영역의 데이터를 제거할 수 있다.
여기서 해수 제거부(130)는 사용자로부터 해수 영역의 데이터 제거에 사용되는 군집화 모델로 K-평균 군집화 모델, 가우시안 혼합 모델, DBSCAN 모델 중에서 어느 하나를 선택받을 수 있다.
도 9는 본 발명에 적용되는 해수 제거 UI를 예시적으로 보인 도면으로, 사용자는 군집화 모델을 선택한 후, 전체 실행 메뉴를 통해 영역 분할부(120)에서 분할된 모든 분할 영역에 대해 해수 영역의 데이터를 제거할 수 있고, 분할 영역 각각에 대한 실행 메뉴를 통해 분할 영역 각각에 대해 개별적으로 해수 영역의 데이터를 제거할 수 있다.
즉, 해수 제거부(130)는 사용자로부터 선택받은 군집화 모델을 사용하여 영역 분할부(120)에서 분할된 분할 영역 전체에 대해 군집화 알고리즘 작업을 수행하여 해수 영역의 데이터를 일괄적으로 제거할 수도 있고, 분할 영역 각각에 대해 군집화 알고리즘 작업을 수행하여 해수 영역의 데이터를 개별적으로 제거할 수도 있다.
전술한 해수 제거부(130)는 사용자로부터 선택받은 군집화 모델을 사용하여 각 분할 영역에서 해수 영역의 데이터를 제거한 후, 해수 영역의 데이터가 제거된 HDR 데이터들을 하나의 학습 데이터셋으로 구성할 수 있다.
해상 객체 식별부(140)는 사용자로부터 선택받은 군집화 모델을 사용하여 해수 제거부(130)에서 해수 영역의 데이터가 제거된 HDR 데이터에서 해상 객체를 식별하되, 도 10에 도시하는 바와 같이 객체 식별을 위해 군집화된 화소에 분류에 따라 서로 다른 색상을 맵핑시켜 출력할 수 있다.
여기서 해상 객체 식별부(140)는 사용자로부터 해상 객체 분류에 사용되는 군집화 모델로 K-평균 군집화 모델, 가우시안 혼합 모델, DBSCAN 모델 중에서 어느 하나를 선택받을 수 있다.
해상 객체 식별부(140)는 해수 제거부(130)에서 구성된 학습 데이터셋에서 사용자로부터 선택받은 HDR 데이터를 사용자로부터 선택받은 군집화 모델에 적용시켜 해상 객체를 식별할 수 있다.
학습 데이터 구축부(150)는 해상 객체 식별부(140)에서 객체 식별을 위해 군집화된 화소에 분류 결과를 포함하는 라벨을 태깅하고, 라벨이 태깅된 화소 데이터를 이용하여 학습 데이터를 구축할 수 있다.
학습 데이터 구축부(150)는 사용자의 요청에 따라 군집화된 화소에 태깅된 라벨 정보를 변경할 수 있다.
도 11은 본 발명의 일 실시예에 따른 웹 기반의 사용자 연동을 통한 초분광 영상 기반 해상객체 인식에 사용되는 학습 데이터셋 구축 방법을 설명하기 위한 처리도이다.
본 발명에 따른 웹 기반의 사용자 연동을 통한 초분광 영상 기반 해상객체 인식에 사용되는 학습 데이터셋 구축 방법은 도 5에 도시된 웹 기반의 사용자 연동을 통한 초분광 영상 기반 해상객체 인식에 사용되는 학습 데이터셋 구축 장치(100)와 실질적으로 동일한 구성 상에서 진행되므로, 도 5의 웹 기반의 사용자 연동을 통한 초분광 영상 기반 해상객체 인식에 사용되는 학습 데이터셋 구축 장치(100)와 동일한 구성 요소에 대해 동일한 도면 부호를 부여하고, 반복되는 설명은 생략하기로 한다.
우선, 데이터셋 저장부(110)는 웹 기반의 사용자로부터 대상 구역별로 촬영된 적어도 하나 이상의 HDR 데이터 형태로 변환된 초분광 영상을 업로드받아 대상 구역별로 데이터셋을 구성하여 저장할 수 있다(S10).
상기한 단계 S10을 통해 데이터셋 저장부(110)에 저장되는 HDR 데이터는 명도의 범위를 높이기 위해 초분광 영상을 HDR 데이터 형태로 변환된 데이터이다.
상기한 단계 S10에서 데이터셋 저장부(110)는 웹 기반의 사용자로부터 대상 구역별로 적어도 하나 이상의 HDR 원본 데이터를 업로드받아 구성된 데이터셋과, HDR 원본 데이터에 대해 전처리 작업을 수행한 전처리(필터) 데이터를 업로드받아 구성된 데이터셋 중에서 적어도 하나를 저장할 수 있다.
여기서 전처리 작업은 왜곡을 보정하는 작업으로, 방사보정, 기하보정, 대기보정 등이 있을 수 있다. 이러한 전처리 작업을 수행하게 되면, 원본 데이터의 범위가 축소될 수 있다.
상기한 단계 S10을 통해 데이터셋 저장부(110)가 대상 구역별로 적어도 하나 이상의 HDR 데이터를 웹 기반의 사용자로부터 업로드받아 데이터셋을 구성하여 저장한 후, 웹 기반의 사용자로부터 적어도 하나 이상의 대상 구역을 선택받으면, 영역 분할부(120)는 사용자로부터 선택받은 대상 구역에 대한 데이터셋을 데이터셋 저장부(110)에서 읽어와 분석할 HDR 데이터를 취합하고, 취합된 HDR 데이터별로 이미지를 출력할 수 있다(S20).
상기한 단계 S20에서 영역 분할부(120)는 사용자로부터 선택받은 HDR 데이터를 이미지로 출력할 때, 사용자의 요청에 따라 각 HDR 데이터를 RGB 이미지로 변환하여 출력할 수 있다.
이후, 영역 분할부(120)는 사용자로부터 각 HDR 데이터별로 출력된 이미지 내의 특정 객체에 대한 영역을 적어도 하나 이상 지정받아 이를 분할할 수 있다(S30).
상기한 단계 S30을 통해 사용자로부터 지정받은 영역을 분할한 후에는 분할 영역에서 해수 영역을 제거하는데, 해수 제거부(130)는 사용자로부터 해수 영역 제거에 사용될 군집화 모델을 선택받고, 사용자로부터 선택받은 군집화 모델을 사용하여 각각의 분할 영역에서 해수 영역의 데이터를 제거할 수 있다(S40).
상기한 단계 S40에서 해수 제거부(130)는 사용자로부터 해수 영역의 데이터 제거에 사용되는 군집화 모델로 K-평균 군집화 모델, 가우시안 혼합 모델, DBSCAN 모델 중에서 어느 하나를 선택받을 수 있다.
상기한 단계 S40에서 해수 제거부(130)는 분할 영역 전체에 대해 군집화 알고리즘 작업을 수행하여 해수 영역의 데이터를 일괄적으로 제거할 수도 있고, 분할 영역 각각에 대해 군집화 알고리즘 작업을 수행하여 해수 영역의 데이터를 개별적으로 제거할 수도 있다.
상기한 단계 S40에서 해수 제거부(130)는 사용자로부터 선택받은 군집화 모델을 사용하여 각 분할 영역에서 해수 영역의 데이터를 제거한 후, 해수 영역의 데이터가 제거된 HDR 데이터들을 하나의 학습 데이터셋으로 구성할 수 있다.
이후에는, 해수 영역의 데이터가 제거된 HDR 데이터에서 해상 객체를 식별하는데, 해상 객체 식별부(140)는 해상 객체 식별에 사용될 군집화 모델을 선택받고, 사용자로부터 선택받은 군집화 모델을 사용하여 해수 영역의 데이터가 제거된 HDR 데이터에서 해상 객체를 식별할 수 있다(S50).
상기한 단계 S50에서 해수 제거부(130)는 객체 식별을 위해 군집화된 화소에 분류에 따라 서로 다른 색상을 맵핑시켜 출력할 수 있다.
도 10에 도시하는 바와 같이, 화소가 3개의 군집을 형성하는 경우, 각각의 군집에 서로 다른 색상(예를 들어, 빨강, 주황, 검정)을 맵핑시켜 출력할 수 있다.
상기한 단계 S50에서 해상 객체 식별부(140)는 사용자로부터 해상 객체 식별에 사용되는 군집화 모델로 K-평균 군집화 모델, 가우시안 혼합 모델, DBSCAN 모델 중에서 어느 하나를 선택받을 수 있다.
상기한 단계 S50에서 해상 객체 식별부(140)는 상기한 단계 S40에서 구성된 학습 데이터셋에서 사용자로부터 선택받은 HDR 데이터를 사용자로부터 선택받은 군집화 모델에 적용시켜 해상 객체를 식별할 수 있다.
이후, 단계 S60에서는 학습 데이터 구축부(150)가 상기한 단계 S50을 통해 객체 식별을 위해 군집화된 화소에 분류 결과를 포함하는 라벨을 태깅하고, 라벨이 태깅된 화소 데이터를 이용하여 학습 데이터를 구축할 수 있다.
상기한 단계 S60에서 학습 데이터 구축부(150)는 사용자의 요청에 따라 군집화된 화소에 태깅된 라벨 정보를 변경할 수 있다.
이와 같이, 본 발명에 의하면, 웹 기반의 사용자 연동을 통해 초분광 영상에 기반하는 해상객체 인식에 사용되는 학습 데이터셋을 구축할 수 있게 된다.
이상, 일부 예를 들어서 본 발명의 바람직한 여러 가지 실시 예에 대해서 설명하였지만, 본 "발명을 실시하기 위한 구체적인 내용" 항목에 기재된 여러 가지 다양한 실시 예에 관한 설명은 예시적인 것에 불과한 것이며, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 이상의 설명으로부터 본 발명을 다양하게 변형하여 실시하거나 본 발명과 균등한 실시를 행할 수 있다는 점을 잘 이해하고 있을 것이다.
또한, 본 발명은 다른 다양한 형태로 구현될 수 있기 때문에 본 발명은 상술한 설명에 의해서 한정되는 것이 아니며, 이상의 설명은 본 발명의 개시 내용이 완전해지도록 하기 위한 것으로 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것일 뿐이며, 본 발명은 청구범위의 각 청구항에 의해서 정의될 뿐임을 알아야 한다.
110. 데이터셋 저장부,
120. 영역 분할부,
130. 해수 제거부,
140. 해상 객체 식별부,
150. 학습 데이터 구축부

Claims (16)

  1. 웹 기반의 사용자로부터 대상 구역별로 촬영된 적어도 하나 이상의 초분광 영상을 HDR(High Dynamic Range) 데이터 형태로 변환한 HDR 원본 데이터를 업로드받아 구성된 데이터셋과 상기 HDR 원본 데이터에 대해 전처리 작업을 수행한 전처리 데이터를 업로드받아 구성된 데이터셋 중에서 적어도 하나를 저장하는 데이터셋 저장부;
    사용자로부터 선택받은 적어도 하나 이상의 대상 구역에 대한 데이터셋을 상기 데이터셋 저장부에서 읽어와 각 HDR 데이터 별로 이미지를 출력하고, 사용자로부터 상기 이미지 내의 특정 객체에 대한 영역을 적어도 하나 이상 지정받아 분할하는 영역 분할부;
    사용자로부터 선택받은 군집화 모델을 사용하여 상기 분할된 영역에서 해수 영역의 데이터를 제거하는 해수 제거부;
    사용자로부터 선택받은 군집화 모델을 사용하여 상기 해수 영역의 데이터가 제거된 HDR 데이터에서 해상 객체를 식별하되, 객체 식별을 위해 군집화된 화소에 분류에 따라 서로 다른 색상을 맵핑시켜 출력하는 해상 객체 식별부;
    객체 식별을 위해 군집화된 화소에 분류 결과를 포함하는 라벨을 태깅하고, 라벨이 태깅된 화소 데이터를 이용하여 학습 데이터를 구축하는 학습 데이터 구축부;를 포함하는 것을 특징으로 하는,
    웹 기반의 사용자 연동을 통한 초분광 영상 기반 해상객체 인식에 사용되는 학습 데이터셋 구축 장치.
  2. 삭제
  3. 제1항에 있어서,
    상기 해수 영역의 데이터 제거에 사용되는 군집화 모델은,
    K-평균 군집화 모델, 가우시안 혼합(Gaussian Mixture) 모델, DBSCAN(Density Based Spatial Clustering of Applications with Noise) 모델 중에서 어느 하나인 것을 특징으로 하는,
    웹 기반의 사용자 연동을 통한 초분광 영상 기반 해상객체 인식에 사용되는 학습 데이터셋 구축 장치.
  4. 제1항에 있어서,
    상기 해상 객체 식별에 사용되는 군집화 모델은,
    K-평균 군집화 모델, 가우시안 혼합 모델, DBSCAN 모델 중에서 어느 하나인 것을 특징으로 하는,
    웹 기반의 사용자 연동을 통한 초분광 영상 기반 해상객체 인식에 사용되는 학습 데이터셋 구축 장치.
  5. 제1항에 있어서,
    상기 영역 분할부는,
    사용자로부터 선택받은 적어도 하나 이상의 대상 구역에 대한 데이터셋을 상기 데이터셋 저장부에서 읽어와 각 HDR 데이터 별로 이미지를 출력하되,
    각 HDR 데이터를 RGB 이미지로 변환하여 출력하고, 사용자로부터 상기 출력된 이미지 내의 특정 객체에 대한 영역을 적어도 하나 이상 지정받아 분할하는 것을 특징으로 하는,
    웹 기반의 사용자 연동을 통한 초분광 영상 기반 해상객체 인식에 사용되는 학습 데이터셋 구축 장치.
  6. 제1항에 있어서,
    상기 해수 제거부는,
    사용자로부터 선택받은 군집화 모델을 사용하여 상기 분할된 영역에서 해수 영역의 데이터를 제거한 후, 상기 해수 영역의 데이터가 제거된 HDR 데이터들을 하나의 학습 데이터셋으로 구성하는 것을 특징으로 하는,
    웹 기반의 사용자 연동을 통한 초분광 영상 기반 해상객체 인식에 사용되는 학습 데이터셋 구축 장치.
  7. 제1항에 있어서,
    상기 해상 객체 식별부는,
    상기 해수 제거부에서 구성된 학습 데이터셋에서 사용자로부터 선택받은 HDR 데이터를 사용자로부터 선택받은 군집화 모델에 적용시켜 해상 객체를 식별하는 것을 특징으로 하는,
    웹 기반의 사용자 연동을 통한 초분광 영상 기반 해상객체 인식에 사용되는 학습 데이터셋 구축 장치.
  8. 제1항에 있어서,
    상기 학습 데이터 구축부는,
    사용자의 요청에 따라 상기 군집화된 화소에 태깅된 라벨 정보를 변경하는 것을 특징으로 하는,
    웹 기반의 사용자 연동을 통한 초분광 영상 기반 해상객체 인식에 사용되는 학습 데이터셋 구축 장치.
  9. 데이터셋 저장부가, 웹 기반의 사용자로부터 대상 구역별로 촬영된 적어도 하나 이상의 초분광 영상을 HDR 데이터 형태로 변환한 HDR 원본 데이터를 업로드받아 구성된 데이터셋과 상기 HDR 원본 데이터에 대해 전처리 작업을 수행한 전처리 데이터를 업로드받아 구성된 데이터셋 중에서 적어도 하나를 저장하는 데이터셋 저장 단계;
    영역 분할부가, 사용자로부터 선택받은 적어도 하나 이상의 대상 구역에 대한 데이터셋을 상기 데이터셋 저장부에서 읽어와 각 HDR 데이터 별로 이미지를 출력하고, 사용자로부터 상기 이미지 내의 특정 객체에 대한 영역을 적어도 하나 이상 지정받아 분할하는 영역 분할 단계;
    해수 제거부가, 사용자로부터 선택받은 군집화 모델을 사용하여 상기 분할된 영역에서 해수 영역의 데이터를 제거하는 해수 제거 단계;
    해상 객체 식별부가, 사용자로부터 선택받은 군집화 모델을 사용하여 상기 해수 영역의 데이터가 제거된 HDR 데이터에서 해상 객체를 식별하되, 객체 식별을 위해 군집화된 화소에 분류에 따라 서로 다른 색상을 맵핑시켜 출력하는 해상 객체 식별 단계;
    학습 데이터 구축부가, 객체 식별을 위해 군집화된 화소에 분류 결과를 포함하는 라벨을 태깅하고, 라벨이 태깅된 화소 데이터를 이용하여 학습 데이터를 구축하는 학습 데이터 구축 단계;를 포함하는 것을 특징으로 하는,
    웹 기반의 사용자 연동을 통한 초분광 영상 기반 해상객체 인식에 사용되는 학습 데이터셋 구축 방법.
  10. 삭제
  11. 제9항에 있어서,
    상기 해수 영역의 데이터 제거에 사용되는 군집화 모델은,
    K-평균 군집화 모델, 가우시안 혼합(Gaussian Mixture) 모델, DBSCAN(Density Based Spatial Clustering of Applications with Noise) 모델 중에서 어느 하나인 것을 특징으로 하는,
    웹 기반의 사용자 연동을 통한 초분광 영상 기반 해상객체 인식에 사용되는 학습 데이터셋 구축 방법.
  12. 제9항에 있어서,
    상기 해상 객체 식별에 사용되는 군집화 모델은,
    K-평균 군집화 모델, 가우시안 혼합 모델, DBSCAN 모델 중에서 어느 하나인 것을 특징으로 하는,
    웹 기반의 사용자 연동을 통한 초분광 영상 기반 해상객체 인식에 사용되는 학습 데이터셋 구축 방법.
  13. 제9항에 있어서,
    상기 영역 분할 단계는,
    사용자로부터 선택받은 적어도 하나 이상의 대상 구역에 대한 데이터셋을 상기 데이터셋 저장부에서 읽어와 각 HDR 데이터 별로 이미지를 출력하되, 각 HDR 데이터를 RGB 이미지로 변환하여 출력하고, 사용자로부터 상기 출력된 이미지 내의 특정 객체에 대한 영역을 적어도 하나 이상 지정받아 분할하는 단계인 것을 특징으로 하는,
    웹 기반의 사용자 연동을 통한 초분광 영상 기반 해상객체 인식에 사용되는 학습 데이터셋 구축 방법.
  14. 제9항에 있어서,
    상기 해수 제거 단계는,
    사용자로부터 선택받은 군집화 모델을 사용하여 상기 분할된 영역에서 해수 영역의 데이터를 제거한 후, 상기 해수 영역의 데이터가 제거된 HDR 데이터들을 하나의 학습 데이터셋으로 구성하는 단계인 것을 특징으로 하는,
    웹 기반의 사용자 연동을 통한 초분광 영상 기반 해상객체 인식에 사용되는 학습 데이터셋 구축 방법.
  15. 제9항에 있어서,
    상기 해상 객체 식별 단계는,
    상기 해수 제거 단계에서 구성된 학습 데이터셋에서 사용자로부터 선택받은 HDR 데이터를 사용자로부터 선택받은 군집화 모델에 적용시켜 해상 객체를 식별하는 단계인 것을 특징으로 하는,
    웹 기반의 사용자 연동을 통한 초분광 영상 기반 해상객체 인식에 사용되는 학습 데이터셋 구축 방법.
  16. 제9항에 있어서,
    상기 학습 데이터 구축 단계에서,
    사용자의 요청에 따라 상기 군집화된 화소에 태깅된 라벨 정보를 변경하는 것을 특징으로 하는,
    웹 기반의 사용자 연동을 통한 초분광 영상 기반 해상객체 인식에 사용되는 학습 데이터셋 구축 방법.
KR1020220051776A 2022-04-27 2022-04-27 웹 기반의 사용자 연동을 통한 초분광 영상 기반 해상객체 인식에 사용되는 학습 데이터셋 구축 장치 및 방법 KR102495175B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220051776A KR102495175B1 (ko) 2022-04-27 2022-04-27 웹 기반의 사용자 연동을 통한 초분광 영상 기반 해상객체 인식에 사용되는 학습 데이터셋 구축 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220051776A KR102495175B1 (ko) 2022-04-27 2022-04-27 웹 기반의 사용자 연동을 통한 초분광 영상 기반 해상객체 인식에 사용되는 학습 데이터셋 구축 장치 및 방법

Publications (1)

Publication Number Publication Date
KR102495175B1 true KR102495175B1 (ko) 2023-02-06

Family

ID=85224338

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220051776A KR102495175B1 (ko) 2022-04-27 2022-04-27 웹 기반의 사용자 연동을 통한 초분광 영상 기반 해상객체 인식에 사용되는 학습 데이터셋 구축 장치 및 방법

Country Status (1)

Country Link
KR (1) KR102495175B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117591905A (zh) * 2024-01-19 2024-02-23 山东鲁港福友药业有限公司 基于高光谱特征的猪肉安全性检测方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101621354B1 (ko) * 2016-03-31 2016-05-20 주식회사 지오스토리 항공 초분광영상을 활용한 수심 보정 방법
KR20180065411A (ko) * 2016-12-07 2018-06-18 한국해양과학기술원 해상객체의 자동추적 시스템 및 방법
KR102258903B1 (ko) 2020-12-24 2021-06-02 한국해양과학기술원 해상객체 식별을 위한 초분광 데이터 처리방법 및 장치
KR102270834B1 (ko) * 2020-12-24 2021-06-30 한국해양과학기술원 초분광 데이터에 기반하는 해상객체 인식 방법 및 시스템

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101621354B1 (ko) * 2016-03-31 2016-05-20 주식회사 지오스토리 항공 초분광영상을 활용한 수심 보정 방법
KR20180065411A (ko) * 2016-12-07 2018-06-18 한국해양과학기술원 해상객체의 자동추적 시스템 및 방법
KR102258903B1 (ko) 2020-12-24 2021-06-02 한국해양과학기술원 해상객체 식별을 위한 초분광 데이터 처리방법 및 장치
KR102270834B1 (ko) * 2020-12-24 2021-06-30 한국해양과학기술원 초분광 데이터에 기반하는 해상객체 인식 방법 및 시스템

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117591905A (zh) * 2024-01-19 2024-02-23 山东鲁港福友药业有限公司 基于高光谱特征的猪肉安全性检测方法
CN117591905B (zh) * 2024-01-19 2024-04-02 山东鲁港福友药业有限公司 基于高光谱特征的猪肉安全性检测方法

Similar Documents

Publication Publication Date Title
Ke et al. A comparison of three methods for automatic tree crown detection and delineation from high spatial resolution imagery
US9031325B2 (en) Automatic extraction of built-up footprints from high resolution overhead imagery through manipulation of alpha-tree data structures
KR101969022B1 (ko) 영상 분석 장치 및 방법
Khoshelham et al. Segment-based classification of damaged building roofs in aerial laser scanning data
Chang et al. Multisensor satellite image fusion and networking for all-weather environmental monitoring
KR102258903B1 (ko) 해상객체 식별을 위한 초분광 데이터 처리방법 및 장치
Bunting et al. Characterisation and mapping of forest communities by clustering individual tree crowns
KR102270834B1 (ko) 초분광 데이터에 기반하는 해상객체 인식 방법 및 시스템
WO2018076138A1 (zh) 基于大尺度高分辨率高光谱图像的目标探测方法及装置
AU2020103887A4 (en) A method for automated endmember identification, selection and extraction from hyperspectral imagery
Osterloff et al. A computer vision approach for monitoring the spatial and temporal shrimp distribution at the LoVe observatory
KR102495175B1 (ko) 웹 기반의 사용자 연동을 통한 초분광 영상 기반 해상객체 인식에 사용되는 학습 데이터셋 구축 장치 및 방법
Wu et al. Cross-regional oil palm tree detection
Weinmann et al. Fusion of hyperspectral, multispectral, color and 3D point cloud information for the semantic interpretation of urban environments
Bello-Pineda et al. Using aerial video to train the supervised classification of Landsat TM imagery for coral reef habitats mapping
KR102158967B1 (ko) 영상 분석 장치, 영상 분석 방법 및 기록 매체
KR102529044B1 (ko) 초분광 데이터 관리 시스템 및 이를 이용한 사용 목적별 운영 서비스 제공 방법
Cubillas et al. The application of support vector machine (SVM) using cielab color model, color intensity and color constancy as features for ortho image classification of Benthic Habitats in Hinatuan, Surigao del sur, Philippines
Sharma et al. Saliency based segmentation of satellite images
Wang General deep learning segmentation process used in remote sensing images
Schilling et al. Object-based detection of vehicles in airborne data
Zhang et al. Learning deep spatial-spectral features for material segmentation in hyperspectral images
Bhattad et al. Novel H-Unet Approach for Cropland Change Detection Using CLCD
Farnell et al. Endmember Extraction on the Grassmannian
Abdollahi Automatic updating and verification of road maps using high-resolution remote sensing images based on advanced machine learning methods

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant