KR102053036B1 - 딥 러닝 분석을 통한 표적 분류 방법 및 장치 - Google Patents

딥 러닝 분석을 통한 표적 분류 방법 및 장치 Download PDF

Info

Publication number
KR102053036B1
KR102053036B1 KR1020190024026A KR20190024026A KR102053036B1 KR 102053036 B1 KR102053036 B1 KR 102053036B1 KR 1020190024026 A KR1020190024026 A KR 1020190024026A KR 20190024026 A KR20190024026 A KR 20190024026A KR 102053036 B1 KR102053036 B1 KR 102053036B1
Authority
KR
South Korea
Prior art keywords
wavelength
classification model
target
processor
sensor
Prior art date
Application number
KR1020190024026A
Other languages
English (en)
Inventor
장현성
하남구
이승하
Original Assignee
엘아이지넥스원 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘아이지넥스원 주식회사 filed Critical 엘아이지넥스원 주식회사
Priority to KR1020190024026A priority Critical patent/KR102053036B1/ko
Application granted granted Critical
Publication of KR102053036B1 publication Critical patent/KR102053036B1/ko

Links

Images

Classifications

    • G06K9/627
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N3/00Investigating strength properties of solid materials by application of mechanical stress
    • G01N3/08Investigating strength properties of solid materials by application of mechanical stress by applying steady tensile or compressive forces
    • G06K9/46
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N2021/1765Method using an image detector and processing of image signal

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Biochemistry (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Analytical Chemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

본 실시예들은 표적으로부터 획득한 파장 신호를 분광 응답을 이용하여 이산화하고 이산화한 파장 신호를 다차원 텐서의 파장 그룹에 할당하고, 다차원 텐서에 파장별 분류 모델을 적용함으로써, 표적을 상세 분류할 수 있는 표적 분류 장치를 제공한다.

Description

딥 러닝 분석을 통한 표적 분류 방법 및 장치 {Method and Apparatus for Classifying Target Using Deep Learning}
본 발명이 속하는 기술 분야는 표적으로부터 획득한 파장 신호를 학습하여 표적을 분류하는 방법 및 장치에 관한 것이다.
이 부분에 기술된 내용은 단순히 본 실시예에 대한 배경 정보를 제공할 뿐 종래기술을 구성하는 것은 아니다.
영상을 기반으로 표적을 분류하기 위해 영상 데이터를 학습시켜 의사 결정의 기준을 스스로 결정하는 딥 러닝 기반의 기술이 활용되고 있다.
기존의 학습 데이터를 학습하여 표적을 분류하는 방법은 다른 종류의 객체를 구분하는 것에 초점을 맞추었고, 유사 객체를 구분하는 데 한계가 있다. 예컨대, 자동차와 로켓을 구분할 수 있지만 로켓에 대해서 광명성호와 은하3호를 구분하지 못한다. 적군, 마네킹, 적군이 그려진 그림을 구분하지 못한다.
게다가 기존의 학습 네트워크는 입력 데이터의 차원의 크기가 제한적이어서 다양한 종류의 센서 입력 값을 사용할 수 없는 문제가 있다.
한국등록특허공보 제10-1658474호 (2016.09.22.)
본 발명의 실시예들은 표적으로부터 획득한 파장 신호를 분광 응답을 이용하여 이산화하고 이산화한 파장 신호를 다차원 텐서의 파장 그룹에 할당하고, 다차원 텐서에 파장별 분류 모델을 적용함으로써, 표적을 상세 분류하는 데 발명의 주된 목적이 있다.
본 발명의 명시되지 않은 또 다른 목적들은 하기의 상세한 설명 및 그 효과로부터 용이하게 추론할 수 있는 범위 내에서 추가적으로 고려될 수 있다.
본 실시예의 일 측면에 의하면, 하나 이상의 프로세서, 및 상기 하나 이상의 프로세서에 의해 실행되는 하나 이상의 프로그램을 저장하는 메모리를 포함하며, 상기 프로세서는 센서로부터 표적에 대하여 기 설정된 파장 대역의 파장 신호를 획득하고, 하나 이상의 기준 파장을 기반으로 상기 파장 신호를 이산화하고, 상기 이산화한 파장 신호를 상기 기 설정된 개수를 갖는 파장 그룹에 각각 할당하고, 상기 파장 그룹에 관한 차원과 영상의 크기에 관한 차원으로 구성된 다차원 텐서를 생성하고, 상기 다차원 텐서로부터 분류 모델을 이용하여 상기 표적에 대한 특징을 추출하고 상기 표적에 대한 특징을 이용하여 상기 표적을 분류하는 것을 특징으로 하는 표적 분류 장치를 제공한다.
본 실시예의 다른 측면에 의하면, 프로세서에 의해 실행 가능한 컴퓨터 프로그램 명령어들을 포함하는 컴퓨터 판독 가능한 저장 매체에 기록된 컴퓨터 프로그램으로서, 상기 컴퓨터 프로그램 명령어들이 컴퓨팅 디바이스의 적어도 하나의 프로세서에 의해 실행되는 경우에, 센서로부터 표적에 대하여 기 설정된 파장 대역의 파장 신호를 획득하는 단계, 하나 이상의 기준 파장을 기반으로 상기 파장 신호를 이산화하는 단계, 상기 이산화한 파장 신호를 상기 기 설정된 개수를 갖는 파장 그룹에 각각 할당하고, 상기 파장 그룹에 관한 차원과 영상의 크기에 관한 차원으로 구성된 다차원 텐서를 생성하는 단계, 및 상기 다차원 텐서로부터 분류 모델을 이용하여 상기 표적에 대한 특징을 추출하고 상기 표적에 대한 특징을 이용하여 상기 표적을 분류하는 단계를 포함한 동작들을 수행하는 컴퓨터 프로그램을 제공한다.
이상에서 설명한 바와 같이 본 발명의 실시예들에 의하면, 표적으로부터 획득한 파장 신호를 분광 응답을 이용하여 이산화하고 이산화한 파장 신호를 다차원 텐서의 파장 그룹에 할당하고, 다차원 텐서에 파장별 분류 모델을 적용함으로써, 표적을 상세하게 분류 가능하고, 하나의 표적에 대해 다중 파장 대역의 영상 장치로부터 획득한 영상을 조합하여 다양한 특징 획득이 가능하다.
여기에서 명시적으로 언급되지 않은 효과라 하더라도, 본 발명의 기술적 특징에 의해 기대되는 이하의 명세서에서 기재된 효과 및 그 잠정적인 효과는 본 발명의 명세서에 기재된 것과 같이 취급된다.
도 1은 본 발명의 일 실시예에 따른 표적 분류 장치의 동작을 예시한 흐름도이다.
도 2 및 도 3은 본 발명의 일 실시예에 따른 표적 분류 장치의 동작을 도식화한 것이다.
도 4는 본 발명의 일 실시예에 따른 표적 분류 장치가 생성한 텐서를 예시한 도면이다.
도 5는 본 발명의 일 실시예에 따른 표적 분류 장치가 텐서에 파장별 분류 모델을 적용한 동작을 도식화한 것이다.
도 6은 본 발명의 일 실시예에 따른 표적 분류 장치가 분광 응답 곡선을 이용하여 파장 신호를 이산화하는 동작을 예시한 도면이다.
도 7은 예시적인 실시예들에서 사용되기에 적합한 컴퓨팅 디바이스를 포함하는 컴퓨팅 환경을 예시하여 설명하기 위한 블록도이다.
이하, 본 발명을 설명함에 있어서 관련된 공지기능에 대하여 이 분야의 기술자에게 자명한 사항으로서 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하고, 본 발명의 일부 실시예들을 예시적인 도면을 통해 상세하게 설명한다.
도 1은 본 발명의 일 실시예에 따른 표적 분류 장치의 동작을 예시한 흐름도이다. 표적 분류 장치는 하나 이상의 프로세서 및 상기 하나 이상의 프로세서에 의해 실행되는 하나 이상의 프로그램을 저장하는 메모리를 포함한다. 표적 분류 장치는 표적에서 발생하는 물리적 파장 정보를 다양하게 학습하여 강인한 분류를 수행한다.
단계 S110에서 프로세서는 하나 이상의 파장 신호를 획득한다. 프로세서는 센서로부터 표적에 대하여 기 설정된 파장 대역의 파장 신호를 획득한다. 즉, 프로세서는 각 파장 대역으로부터 신호를 획득한다.
단계 S120에서 프로세서는 분광 응답을 이용하여 파장 신호를 처리한다. 프로세서는 하나 이상의 기준 파장을 기반으로 파장 신호를 이산화한다. 프로세서는 센서로 획득된 물리량을 분광 응답 곡선(Spectral Response Curve) 를 이용하여 파장(λ)/파장 그룹(D) 단위로 재구성한다.
단계 S130에서 프로세서는 획득된 신호로부터 텐서를 구성한다. 프로세서는 일정 크기의 텐서를 딥 러닝으로 학습하기 위해 파장 대역을 D 개의 밴드(Band)로 재구성한다. 프로세서는 이산화한 파장 신호를 기 설정된 개수를 갖는 파장 그룹에 각각 할당한다. 프로세서는 파장 그룹에 관한 차원과 영상의 크기에 관한 차원으로 구성된 다차원 텐서를 생성한다.
단계 S140에서 프로세서는 다차원 텐서로부터 특징을 추출하고, 단계 S150에서 특징을 기반으로 표적을 분류한다. 프로세서는 다차원 텐서로부터 분류 모델을 이용하여 표적에 대한 특징을 추출하고 표적에 대한 특징을 이용하여 표적을 분류한다.
도 2 및 도 3은 본 발명의 일 실시예에 따른 표적 분류 장치의 동작을 도식화한 것이다.
표적 분류 장치는 센서에서 획득된 하나 이상의 파장 대역의 신호를 학습된 분류 모델을 통하여 종류가 상세 분류한다. 기존의 분류 방식과 달리 단순한 형상에 따른 분류뿐만 아니라 물리적 파장 정보를 조합하여 분류의 신뢰도를 높이고 진위 여부를 판단한다.
센서는 단적외선(Short Wavelength Infrared, SWIR) 센서, 중적외선(Mid Wavelength Infrared, MWIR) 센서, 장적외선(Long Wavelength Infrared, LWIR) 센서, 초분광 센서, 또는 이들의 조합을 포함할 수 있다.
센서가 획득하는 기 설정된 파장 대역의 파장 신호는 복수의 파장 대역을 가질 수 있고, 프로세서는 복수의 센서로부터 파장 신호를 획득하여 조합할 수도 있다.
센서로부터 하나 이상의 파장신호를 획득하면 각 파장의 물리량을 재구성한다. 센서의 분광 응답을 이용하여 연속적인 파장신호를 이산화한다. 이를 정해진 개수(D)만큼의 파장 그룹(Band)에 할당하여 고정된 깊이를 갖는 텐서를 구성한다.
텐서가 구성되면 프로세서는 특징 추출을 수행한다. 특징 추출은 컨볼루션 연산과 같은 연산을 통하여 특징을 추출하고, 활성화 함수를 통해 비선형 공간으로 확장하고, 풀링을 통한 압축하는 과정을 의미한다. 이를 통해 고차원의 비선형 공간에서 물체의 특징에 따른 분류가 가능하다.
파장 대역에 따른 다양한 물리적 특징들이 조합되어 학습 네트워크에 입력되므로 딥러닝 네트워크는 물리적 파장 특징에 기반하여 학습을 수행한다.
도 4는 본 발명의 일 실시예에 따른 표적 분류 장치가 생성한 텐서를 예시한 도면이다.
표적 분류 장치의 프로세서는 다차원 텐서에서 파장 그룹에 관한 차원을 고정 값으로 설정하고, 영상의 크기에 관한 차원을 가변 값으로 설정하여, 센서가 변경될 때 분류 모델을 그대로 적용한다. 텐서(Tensor)는 신호들의 다차원 배열 또는 다차원 행렬 공간을 의미한다.
프로세서는 센서로부터 획득된 파장 신호를 D 개의 구간으로 나누어 텐서를 구성한다. 텐서는 NxMxD 크기로 구성되며 N은 제한이 없다. D는 시스템에 의해 설정된 파라미터이다. 센서의 구성에 따라 N, M 값은 가변적인 값을 갖는다. N, M은 영상과 같은 2차원 평면 좌표 또는 픽셀로 볼 수 있다.
M과 N 값은 가변적일 수 있으나, 다양한 센서 또는 다수 센서에 대해 분류를 수행하기 위해서는 파장(λ)의 차원이 동일해야 한다. 이를 위해 파장 대역을 D 개의 밴드로 구분하는 방식을 이용하여 차원 문제를 해결한다. 파장은 물리량으로 연속적인 값이기 때문에 센서에서 파장 값을 정확히 파장(λ)/파장 그룹(D)만큼 분리하기 위해 센서의 분광 응답을 이용한다. 여기서 분광 응답은 빛의 파장에 따른 출력과 입력의 비율을 의미한다.
도 5는 본 발명의 일 실시예에 따른 표적 분류 장치가 텐서에 파장별 분류 모델을 적용한 동작을 도식화한 것이다.
기존 방식은 영상에 대해 모든 파장 대역(λA ~C)의 적분 값을 이용하여 딥 러닝을 통해 특징을 추출하고 분류를 수행한다. 본 실시예에서는 다양한 파장 대역을 고려하여 물체를 판별한다.
λA의 특징을 학습한 네트워크는 해당 픽셀을 강아지로 분류할 확률이 높으나, λC의 특징을 학습한 네트워크는 해당 픽셀이 모직물로 높은 확률을 부여한다. 각각의 파장 대역 λA, λB, λC으로 학습한 네트워크가 정확한 분류를 수행한다. 파장별 분류 모델을 적용한 방식에 의하면, 신체 온도에 따라 감지된 파장이 다르기 때문에 실제 적군과 마네킹을 구분할 수 있다.
분류 모델을 구성하는 네트워크는 다차원 텐서를 입력 레이어로 하고, 클래스를 출력 레이어로 하며, 히든 레이어를 포함한다. 레이어는 파라미터를 포함할 수 있고, 레이어의 파라미터는 학습가능한 필터 집합을 포함한다. 파라미터는 노드 간의 가중치 및/또는 바이어스를 포함한다.
분류 모델을 구성하는 네트워크는 컨볼루션(Convolution) 연산을 통해 특징을 추출한다. 활성화 함수(Activation Function)를 통해 비선형 공간으로 확장하고, 풀링(Pooling) 연산을 통해 특징을 압축한다.
분류 모델은 기 설정된 파장 대역의 일부에 속하는 제1 파장 대역을 학습하는 제1 분류 모델 및 기 설정된 파장 대역의 다른 일부에 속하는 제2 파장 대역을 학습하는 제2 분류 모델을 포함할 수 있다.
프로세서는 제1 파장 대역을 학습하는 제1 분류 모델 및 제2 파장 대역을 학습하는 제2 분류 모델을 상호 독립적으로 학습할 수 있다. 프로세서는 제1 파장 대역을 학습하는 제1 분류 모델 및 제2 파장 대역을 학습하는 제2 분류 모델을 상호 종속적으로 학습할 수 있다.
프로세서는 표적의 물리적 파장 정보에 대해 지배적 특징을 갖는 제2 분류 모델보다 부수적 특징을 갖는 제1 분류 모델을 먼저 학습한 후에, 제1 분류 모델 및 상기 제2 분류 모델을 전체로 학습할 수 있다.
제2 분류 모델에 포함된 레이어의 개수가 제1 분류 모델에 포함된 레이어의 개수보다 많도록 설계되어, 제1 분류 모델 및 제2 분류 모델을 전체로 학습할 때, 제2 분류 모델의 파라미터를 제1 분류 모델의 파라미터보다 지배적으로 학습할 수 있다.
제1 분류 모델은 제1 목적 함수가 최소화하도록 정의된 제1 비용 함수로 정의되고, 제2 분류 모델은 제2 목적 함수가 최소화하도록 정의된 제2 비용 함수로 정의된다. 제2 비용 함수는 제1 비용 함수의 가중치를 이용하고, 제2 분류 모델은 제1 비용 함수의 가중치를 변경할 수 있다.
프로세서는 제1 분류 모델을 학습하고, 제2 분류 모델을 학습하고, 학습한 제1 분류 모델과 학습한 제2 분류 모델을 전체로 학습할 수 있다.
도 6은 본 발명의 일 실시예에 따른 표적 분류 장치가 분광 응답 곡선을 이용하여 파장 신호를 이산화하는 동작을 예시한 도면이다.
프로세서는 센서의 분광 응답을 이용하여 하나 이상의 기준 파장을 설정하고, 하나 이상의 기준 파장을 기반으로 파장 신호를 이산화한다.
프로세서는 파장 신호를 적분하고, 적분한 파장 신호에 분광 응답 곡선을 적용하여 하나 이상의 기준 파장을 산출하고, 하나 이상의 기준 파장을 기반으로 파장 신호를 이산화한다.
센서로 획득된 박스 영역의 적분 값에 대해 분광 응답 곡선을 비교하면 정확히 λ/D 값을 추출할 수 있다. 이를 통해 단일 센서값에서 λ/D 단위의 물리량을 획득할 수 있다. 예컨대, 만나는 지점, 변곡점, 설정된 범위 내에서 최대값 등을 추출할 수 있다.
본 실시예들에 의하면, 다양한 파장에 따른 물리적 특징을 학습에 반영하기 때문에 딥러닝 네트워크의 판단 신뢰성을 향상시킬 수 있다. 제안한 네트워크는 차원의 영향을 받지 않도록 설계되었기 때문에 기존의 다양한 파장대역의 시스템에 적용 가능하다. 형상이나 색깔 등 가짜 혹은 위장된 객체, 스텔스 객체에 대해서도 정확한 구분이 가능하다. 화염의 경우 형상뿐만 아니라 가스 조성비에 따른 파장을 보기 때문에 로켓 영상에서 화염의 특성에 따른 구분이 가능하다. 표적에서 표면 물성치에 따라 분광 영상에서 일부 다른 신호값이 산출되어도 학습 과정에서 다양한 파장 대역의 특징을 조합한 일반화를 수행하므로 강인한 분류가 가능하다.
표적 분류 장치에 포함된 복수의 구성요소들은 상호 결합되어 적어도 하나의 모듈로 구현될 수 있다. 구성요소들은 장치 내부의 소프트웨어적인 모듈 또는 하드웨어적인 모듈을 연결하는 통신 경로에 연결되어 상호 간에 유기적으로 동작한다. 이러한 구성요소들은 하나 이상의 통신 버스 또는 신호선을 이용하여 통신한다.
표적 분류 장치는 하드웨어, 펌웨어, 소프트웨어 또는 이들의 조합에 의해 로직회로 내에서 구현될 수 있고, 범용 또는 특정 목적 컴퓨터를 이용하여 구현될 수도 있다. 장치는 고정배선형(Hardwired) 기기, 필드 프로그램 가능한 게이트 어레이(Field Programmable Gate Array, FPGA), 주문형 반도체(Application Specific Integrated Circuit, ASIC) 등을 이용하여 구현될 수 있다. 또한, 장치는 하나 이상의 프로세서 및 컨트롤러를 포함한 시스템온칩(System on Chip, SoC)으로 구현될 수 있다.
표적 분류 장치는 하드웨어적 요소가 마련된 컴퓨팅 디바이스에 소프트웨어, 하드웨어, 또는 이들의 조합하는 형태로 탑재될 수 있다. 컴퓨팅 디바이스는 각종 기기 또는 유무선 통신망과 통신을 수행하기 위한 통신 모뎀 등의 통신장치, 프로그램을 실행하기 위한 데이터를 저장하는 메모리, 프로그램을 실행하여 연산 및 명령하기 위한 마이크로프로세서 등을 전부 또는 일부 포함한 다양한 장치를 의미할 수 있다.
도 1에서는 각각의 과정을 순차적으로 실행하는 것으로 기재하고 있으나 이는 예시적으로 설명한 것에 불과하고, 이 분야의 기술자라면 본 발명의 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 도면에 기재된 순서를 변경하여 실행하거나 또는 하나 이상의 과정을 병렬적으로 실행하거나 다른 과정을 추가하는 것으로 다양하게 수정 및 변형하여 적용 가능할 것이다.
도 7은 예시적인 실시예들에서 사용되기에 적합한 컴퓨팅 디바이스를 포함하는 컴퓨팅 환경을 예시하여 설명하기 위한 블록도이다. 도시된 실시예에서, 각 컴포넌트들은 이하에 기술된 것 이외에 상이한 기능 및 능력을 가질 수 있고, 이하에 기술되지 것 이외에도 추가적인 컴포넌트를 포함할 수 있다.
도시된 컴퓨팅 환경은 컴퓨팅 디바이스(12)를 포함한다. 일 실시예에서, 컴퓨팅 디바이스(12)는 타 단말과 신호를 송수신하는 모든 형태의 컴퓨팅 디바이스일 수 있다.
컴퓨팅 디바이스(12)는 적어도 하나의 프로세서(14), 컴퓨터 판독 가능한 저장매체(16) 및 통신 버스(18)를 포함한다. 프로세서(14)는 컴퓨팅 디바이스(12)로 하여금 앞서 언급된 예시적인 실시예에 따라 동작하도록 할 수 있다. 예컨대, 프로세서(14)는 컴퓨터 판독 가능한 저장 매체(16)에 저장된 하나 이상의 프로그램들을 실행할 수 있다. 상기 하나 이상의 프로그램들은 하나 이상의 컴퓨터 실행 가능 명령어를 포함할 수 있으며, 상기 컴퓨터 실행 가능 명령어는 프로세서(14)에 의해 실행되는 경우 컴퓨팅 장치(12)로 하여금 예시적인 실시예에 따른 동작들을 수행하도록 구성될 수 있다.
컴퓨터 판독 가능한 저장 매체(16)는 컴퓨터 실행 가능 명령어 내지 프로그램 코드, 프로그램 데이터 및/또는 다른 적합한 형태의 정보를 저장하도록 구성된다. 컴퓨터 판독 가능한 저장 매체(16)에 저장된 프로그램(20)은 프로세서(14)에 의해 실행 가능한 명령어의 집합을 포함한다. 일 실시예에서, 컴퓨터 판독한 가능 저장 매체(16)는 메모리(랜덤 액세스 메모리와 같은 휘발성 메모리, 비휘발성 메모리, 또는 이들의 적절한 조합), 하나 이상의 자기 디스크 저장 디바이스들, 광학 디스크 저장 디바이스들, 플래시 메모리 디바이스들, 그 밖에 컴퓨팅 디바이스(12)에 의해 액세스되고 원하는 정보를 저장할 수 있는 다른 형태의 저장 매체, 또는 이들의 적합한 조합일 수 있다.
통신 버스(18)는 프로세서(14), 컴퓨터 판독 가능한 저장 매체(16)를 포함하여 컴퓨팅 장치(12)의 다른 다양한 컴포넌트들을 상호 연결한다.
컴퓨팅 디바이스(12)는 또한 하나 이상의 입출력 장치(24)를 위한 인터페이스를 제공하는 하나 이상의 입출력 인터페이스(22) 및 하나 이상의 통신 인터페이스(26)를 포함할 수 있다. 입출력 인터페이스(22) 및 통신 인터페이스(26)는 통신 버스(18)에 연결된다. 입출력 장치(미도시)는 입출력 인터페이스(22)를 통해 컴퓨팅 디바이스(12)의 다른 컴포넌트들에 연결될 수 있다. 예시적인 입출력 장치는 포인팅 장치(마우스 또는 트랙패드 등), 키보드, 터치 입력 장치(터치패드 또는 터치스크린 등), 음성 또는 소리 입력 장치, 다양한 종류의 센서 장치 및/또는 촬영 장치와 같은 입력 장치, 및/또는 디스플레이 장치, 프린터, 스피커 및/또는 네트워크 카드와 같은 출력 장치를 포함할 수 있다. 예시적인 입출력 장치(24)는 컴퓨팅 디바이스(12)를 구성하는 일 컴포넌트로서 컴퓨팅 디바이스(12)의 내부에 포함될 수도 있고, 컴퓨팅 디바이스(12)와는 구별되는 별개의 장치로 컴퓨팅 디바이스와 연결될 수도 있다.
본 실시예들에 따른 동작은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능한 매체에 기록될 수 있다. 컴퓨터 판독 가능한 매체는 실행을 위해 프로세서에 명령어를 제공하는 데 참여한 임의의 매체를 나타낸다. 컴퓨터 판독 가능한 매체는 프로그램 명령, 데이터 파일, 데이터 구조 또는 이들의 조합을 포함할 수 있다. 예를 들면, 자기 매체, 광기록 매체, 메모리 등이 있을 수 있다. 컴퓨터 프로그램은 네트워크로 연결된 컴퓨터 시스템 상에 분산되어 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수도 있다. 본 실시예를 구현하기 위한 기능적인(Functional) 프로그램, 코드, 및 코드 세그먼트들은 본 실시예가 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있을 것이다.
본 실시예들은 본 실시예의 기술 사상을 설명하기 위한 것이고, 이러한 실시예에 의하여 본 실시예의 기술 사상의 범위가 한정되는 것은 아니다. 본 실시예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.

Claims (13)

  1. 하나 이상의 프로세서; 및
    상기 하나 이상의 프로세서에 의해 실행되는 하나 이상의 프로그램을 저장하는 메모리를 포함하며,
    상기 프로세서는 센서로부터 표적에 대하여 기 설정된 파장 대역의 파장 신호를 획득하고,
    상기 파장 신호를 적분하고, 상기 적분한 파장 신호에 분광 응답 곡선을 적용하여 상기 하나 이상의 기준 파장을 산출하고, 상기 하나 이상의 기준 파장을 기반으로 상기 파장 신호를 이산화하고,
    상기 이산화한 파장 신호를 상기 기 설정된 개수를 갖는 파장 그룹에 각각 할당하여 상기 파장 대역을 상기 파장 그룹으로 재구성하고, 상기 파장 그룹에 관한 차원과 영상의 크기에 관한 차원으로 구성된 다차원 텐서를 생성하고,
    상기 다차원 텐서로부터 분류 모델을 이용하여 상기 표적에 대한 특징을 추출하고 상기 표적에 대한 특징을 이용하여 상기 표적을 분류하며,
    상기 다차원 텐서에서 상기 파장 그룹에 관한 차원을 고정 값으로 설정하고, 상기 영상의 크기에 관한 차원을 가변 값으로 설정하여, 상기 센서가 변경될 때 상기 분류 모델을 그대로 적용하는 것을 특징으로 하는 표적 분류 장치.
  2. 제1항에 있어서,
    상기 센서는 단적외선(Short Wavelength Infrared, SWIR) 센서, 중적외선(Mid Wavelength Infrared, MWIR) 센서, 장적외선(Long Wavelength Infrared, LWIR) 센서, 초분광 센서, 또는 이들의 조합을 포함하는 것을 특징으로 하는 표적 분류 장치.
  3. 삭제
  4. 삭제
  5. 삭제
  6. 제1항에 있어서,
    상기 프로세서는 기 설정된 파장 대역의 파장 신호는 복수의 파장 대역을 갖고, 복수의 센서로부터 파장 신호를 획득하여 조합하는 것을 특징으로 하는 표적 분류 장치.
  7. 제1항에 있어서,
    상기 분류 모델은 상기 기 설정된 파장 대역의 일부에 속하는 제1 파장 대역을 학습하는 제1 분류 모델 및 상기 기 설정된 파장 대역의 다른 일부에 속하는 제2 파장 대역을 학습하는 제2 분류 모델을 포함하는 것을 특징으로 하는 표적 분류 장치.
  8. 제7항에 있어서,
    상기 프로세서는 상기 제1 파장 대역을 학습하는 제1 분류 모델 및 상기 제2 파장 대역을 학습하는 제2 분류 모델을 상호 독립적으로 학습하는 것을 특징으로 하는 표적 분류 장치.
  9. 제7항에 있어서,
    상기 프로세서는 상기 제1 파장 대역을 학습하는 제1 분류 모델 및 상기 제2 파장 대역을 학습하는 제2 분류 모델을 상호 종속적으로 학습하는 것을 특징으로 하는 표적 분류 장치.
  10. 제9항에 있어서,
    상기 프로세서는 상기 표적의 물리적 파장 정보에 대해 지배적 특징을 갖는 제2 분류 모델보다 부수적 특징을 갖는 제1 분류 모델을 먼저 학습한 후에, 상기 제1 분류 모델 및 상기 제2 분류 모델을 전체로 학습하는 것을 특징으로 하는 표적 분류 장치.
  11. 제9항에 있어서,
    상기 프로세서는 상기 제1 분류 모델을 학습하고, 상기 제2 분류 모델을 학습하고, 상기 학습한 제1 분류 모델과 상기 학습한 제2 분류 모델을 전체로 학습하는 것을 특징으로 하는 표적 분류 장치.
  12. 프로세서에 의해 실행 가능한 컴퓨터 프로그램 명령어들을 포함하는 컴퓨터 판독 가능한 저장 매체에 기록된 컴퓨터 프로그램으로서, 상기 컴퓨터 프로그램 명령어들이 컴퓨팅 디바이스의 적어도 하나의 프로세서에 의해 실행되는 경우에,
    센서로부터 표적에 대하여 기 설정된 파장 대역의 파장 신호를 획득하는 단계;
    하나 이상의 기준 파장을 기반으로 상기 파장 신호를 이산화하는 단계;
    상기 이산화한 파장 신호를 상기 기 설정된 개수를 갖는 파장 그룹에 각각 할당하고, 상기 파장 그룹에 관한 차원과 영상의 크기에 관한 차원으로 구성된 다차원 텐서를 생성하는 단계; 및
    상기 다차원 텐서로부터 분류 모델을 이용하여 상기 표적에 대한 특징을 추출하고 상기 표적에 대한 특징을 이용하여 상기 표적을 분류하는 단계를 포함한 동작들을 수행하며,
    상기 파장 신호를 이산화하는 단계는 상기 파장 신호를 적분하고, 상기 적분한 파장 신호에 분광 응답 곡선을 적용하여 상기 하나 이상의 기준 파장을 산출하고,
    상기 다차원 텐서를 생성하는 단계는 상기 파장 대역을 상기 파장 그룹으로 재구성하고, 상기 다차원 텐서에서 상기 파장 그룹에 관한 차원을 고정 값으로 설정하고, 상기 영상의 크기에 관한 차원을 가변 값으로 설정하여, 상기 센서가 변경될 때 상기 분류 모델을 그대로 적용하는 것을 특징으로 하는 컴퓨터 프로그램.
  13. 삭제
KR1020190024026A 2019-02-28 2019-02-28 딥 러닝 분석을 통한 표적 분류 방법 및 장치 KR102053036B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190024026A KR102053036B1 (ko) 2019-02-28 2019-02-28 딥 러닝 분석을 통한 표적 분류 방법 및 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190024026A KR102053036B1 (ko) 2019-02-28 2019-02-28 딥 러닝 분석을 통한 표적 분류 방법 및 장치

Publications (1)

Publication Number Publication Date
KR102053036B1 true KR102053036B1 (ko) 2019-12-06

Family

ID=68837271

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190024026A KR102053036B1 (ko) 2019-02-28 2019-02-28 딥 러닝 분석을 통한 표적 분류 방법 및 장치

Country Status (1)

Country Link
KR (1) KR102053036B1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111160478A (zh) * 2019-12-31 2020-05-15 北京理工大学重庆创新中心 一种基于深度学习的高光谱目标显著性检测方法
KR102256611B1 (ko) * 2020-04-21 2021-05-26 엘아이지넥스원 주식회사 적외선 분광 센서를 이용한 표적 식별 장치 및 방법
KR20230025099A (ko) * 2021-08-13 2023-02-21 한국전자통신연구원 딥러닝 기반 의상 속성 분류 장치 및 방법

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090113481A (ko) * 2008-04-28 2009-11-02 경북대학교 산학협력단 텐서 기반 데이터 생성 모델을 이용한 영상 데이터 분류방법 및 장치
KR20160096460A (ko) * 2015-02-05 2016-08-16 삼성전자주식회사 복수의 분류기를 포함하는 딥 러닝 기반 인식 시스템 및 그 제어 방법
KR101658474B1 (ko) 2015-10-15 2016-09-22 국방과학연구소 적외선 영상에서의 표적과 클러터의 분류 방법 및 그 장치
KR20180027742A (ko) * 2016-09-07 2018-03-15 영남대학교 산학협력단 대상체 분류 시스템 및 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090113481A (ko) * 2008-04-28 2009-11-02 경북대학교 산학협력단 텐서 기반 데이터 생성 모델을 이용한 영상 데이터 분류방법 및 장치
KR20160096460A (ko) * 2015-02-05 2016-08-16 삼성전자주식회사 복수의 분류기를 포함하는 딥 러닝 기반 인식 시스템 및 그 제어 방법
KR101658474B1 (ko) 2015-10-15 2016-09-22 국방과학연구소 적외선 영상에서의 표적과 클러터의 분류 방법 및 그 장치
KR20180027742A (ko) * 2016-09-07 2018-03-15 영남대학교 산학협력단 대상체 분류 시스템 및 방법

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111160478A (zh) * 2019-12-31 2020-05-15 北京理工大学重庆创新中心 一种基于深度学习的高光谱目标显著性检测方法
CN111160478B (zh) * 2019-12-31 2022-07-26 北京理工大学重庆创新中心 一种基于深度学习的高光谱目标显著性检测方法
KR102256611B1 (ko) * 2020-04-21 2021-05-26 엘아이지넥스원 주식회사 적외선 분광 센서를 이용한 표적 식별 장치 및 방법
KR20230025099A (ko) * 2021-08-13 2023-02-21 한국전자통신연구원 딥러닝 기반 의상 속성 분류 장치 및 방법
KR102591835B1 (ko) * 2021-08-13 2023-10-24 한국전자통신연구원 딥러닝 기반 의상 속성 분류 장치 및 방법
US11983248B2 (en) 2021-08-13 2024-05-14 Electronics And Telecommunications Research Institute Apparatus and method for classifying clothing attributes based on deep learning

Similar Documents

Publication Publication Date Title
KR102053036B1 (ko) 딥 러닝 분석을 통한 표적 분류 방법 및 장치
Baron Machine learning in astronomy: A practical overview
US20190197357A1 (en) Misuse index for explainable artificial intelligence in computing environments
Heras et al. Exploring ELM-based spatial–spectral classification of hyperspectral images
US10885401B2 (en) Icon based malware detection
KR102412832B1 (ko) 개인 정보 보호를 위하여 원본 데이터를 변조하는 변조 네트워크를 학습하는 방법 및 테스팅하는 방법, 그리고, 이를 이용한 학습 장치 및 테스팅 장치
CN110378224A (zh) 一种地物变化的检测方法、检测系统及终端
Bagane et al. Classification of Malware using Deep Learning Techniques
Chambino et al. Multispectral facial recognition: a review
Zhou Malware detection with neural network using combined features
CN112529068B (zh) 一种多视图图像分类方法、系统、计算机设备和存储介质
Faruki et al. Droiddivesdeep: android malware classification via low level monitorable features with deep neural networks
Ren et al. Infrared-visible image fusion based on convolutional neural networks (CNN)
Wolfe et al. High precision screening for Android malware with dimensionality reduction
Bhaskara et al. Emulating malware authors for proactive protection using GANs over a distributed image visualization of dynamic file behavior
Ghanem et al. Latent code-based fusion: A volterra neural network approach
US9864834B2 (en) High-resolution melt curve classification using neural networks
Cheng et al. Deep learning based face recognition with sparse representation classification
CN112926574A (zh) 图像识别方法、图像识别装置和系统
Li et al. Ensemble stacked auto-encoder classification on LiDAR remote sensing images
Fu et al. Primitive attempt to turn images into percepts
Wang et al. Sensor band selection for multispectral imaging via average normalized information
Nhaila et al. Hyperspectral images classification and Dimensionality Reduction using Homogeneity feature and mutual information
Toai et al. Malware classification by using deep learning framework
Nadell et al. Real-data performance evaluation of Unreal Engine synthetic IR data

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant