KR102631631B1 - Hyperspectral image visualization method and appratus using neural network - Google Patents

Hyperspectral image visualization method and appratus using neural network Download PDF

Info

Publication number
KR102631631B1
KR102631631B1 KR1020220054575A KR20220054575A KR102631631B1 KR 102631631 B1 KR102631631 B1 KR 102631631B1 KR 1020220054575 A KR1020220054575 A KR 1020220054575A KR 20220054575 A KR20220054575 A KR 20220054575A KR 102631631 B1 KR102631631 B1 KR 102631631B1
Authority
KR
South Korea
Prior art keywords
image
wavelength band
data
neural network
generating
Prior art date
Application number
KR1020220054575A
Other languages
Korean (ko)
Other versions
KR20230155110A (en
Inventor
유광선
윤혁
Original Assignee
주식회사 엘로이랩
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 엘로이랩 filed Critical 주식회사 엘로이랩
Priority to KR1020220054575A priority Critical patent/KR102631631B1/en
Publication of KR20230155110A publication Critical patent/KR20230155110A/en
Priority to KR1020240007886A priority patent/KR20240015120A/en
Application granted granted Critical
Publication of KR102631631B1 publication Critical patent/KR102631631B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4046Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4015Image demosaicing, e.g. colour filter arrays [CFA] or Bayer patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/60Image enhancement or restoration using machine learning, e.g. neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10036Multispectral image; Hyperspectral image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

뉴럴 네트워크 기반 모델을 이용하여 초분광 이미지를 시각화하는 장치가 개시된다.
일 실시예에 따른 이미지 시각화 장치는 초분광 이미지에 해당하는 제1 이미지를 수신하는 수신기, 프로세서를 포함하고, 상기 프로세서는 상기 제1 이미지의 각 픽셀에 대한 각각의 파장 밴드의 세기 정보를 포함하는 원본 데이터를 추출하고,
상기 원본 데이터 및 미리 학습된 뉴럴 네트워크 기반 모델에 기초하여 상기 제1 이미지에 대응하는 RGB 이미지를 생성하기 픽셀값을 포함하는 예측 데이터를 생성하고, 상기 생성된 예측 데이터에 기초하여 상기 제1 이미지를 시각화하고, 상기 미리 학습된 뉴럴 네트워크 기반 모델은, 상기 제1 이미지보다 적은 수의 파장 밴드를 포함하는 제2 이미지를 입력으로 하여 상기 제2 이미지에 대응되는 RGB 이미지를 생성하기 위한 예측 데이터를 출력하도록 미리 학습될 수 있다.
A device for visualizing hyperspectral images using a neural network-based model is disclosed.
An image visualization device according to an embodiment includes a receiver and a processor that receive a first image corresponding to a hyperspectral image, and the processor includes intensity information of each wavelength band for each pixel of the first image. extract the original data,
Generate prediction data including pixel values to generate an RGB image corresponding to the first image based on the original data and a pre-trained neural network-based model, and generate the first image based on the generated prediction data. Visualize, and the pre-trained neural network-based model outputs prediction data for generating an RGB image corresponding to the second image by inputting a second image containing fewer wavelength bands than the first image. It can be learned in advance to do so.

Description

뉴럴 네트워크를 이용한 초분광 이미지의 시각화 방법 및 장치{HYPERSPECTRAL IMAGE VISUALIZATION METHOD AND APPRATUS USING NEURAL NETWORK}Visualization method and device for hyperspectral images using neural network {HYPERSPECTRAL IMAGE VISUALIZATION METHOD AND APPRATUS USING NEURAL NETWORK}

아래 실시예들은 뉴럴 네트워크를 이용한 초분광 이미지의 시각화 방법 및 장치에 관한 것이다.The following embodiments relate to a method and device for visualizing hyperspectral images using a neural network.

RGB는 3 개의 채널을 가지는 반면, 초분광 이미지(HSIs, Hyperspectral Images)는 많게는 200개의 대역(bands) 이상의 넓은 범위의 파장을 측정한다. 이를 위해, HSI는 RGB 이미지에서 찾을 수 없는 복잡한 특징(complex feature)을 검출한다. RGB 이미지는 공간 특징(spatial feature)만을 갖지만, HSIs는 스펙트럼 특징(spectral feature) 및 공간 특징을 모두 가지고 있어 분류에 우수한 성능을 보인다. 따라서, HSIs는 유사한 색상에 대하여 분류될 수 있어, 원격 감지(remote sensing)를 포함하는 넓은 분야에 적용될 수 있다.While RGB has three channels, hyperspectral images (HSIs) measure a wide range of wavelengths, up to 200 bands or more. To achieve this, HSI detects complex features that cannot be found in RGB images. RGB images only have spatial features, but HSIs have both spectral features and spatial features, showing excellent performance in classification. Therefore, HSIs can be classified for similar colors and thus can be applied to a wide range of fields, including remote sensing.

최근, 육질(meat quality), 랜드 커버 매핑(land cover mapping), 물체 감지(object detection), 변화 감지 및 위성 이미지 매핑과 같은 분야에서 머신 러닝 및 딥 러닝을 이용한 HSI를 채용하고 있다.Recently, HSI using machine learning and deep learning has been adopted in areas such as meat quality, land cover mapping, object detection, change detection, and satellite image mapping.

머신 러닝(machine learning)은 데이터의 분류나 선형 회귀(linear regression)의 패턴을 학습하는 수학적 모델을 포함한다. 딥 러닝(deep learning)은 컴퓨터 비전 또는 번역과 같은 다양한 분야에서 널리 사용되고 있다. 딥 러닝에 사용되는 딥 뉴럴 네트워크는 다중 레이어를 포함한다. Machine learning involves mathematical models that learn patterns of data classification or linear regression. Deep learning is widely used in various fields such as computer vision or translation. Deep neural networks used in deep learning include multiple layers.

비특허 참고문헌 1 : M. Magnusson, J. Sigurdsson, S. E. Armansson, M. O. Ulfarsson, H. Deborah and J. R. Sveinsson, "Creating RGB Images from Hyperspectral Images Using a Color Matching Function, " IGARSS 2020 - 2020 IEEE International Geoscience and Remote Sensing Symposium, 2020, pp. 2045-2048, doi: 10.1109/IGARSS39084.2020.9323397Non-patent Reference 1: M. Magnusson, J. Sigurdsson, S. E. Armansson, M. O. Ulfarsson, H. Deborah and J. R. Sveinsson, "Creating RGB Images from Hyperspectral Images Using a Color Matching Function, " IGARSS 2020 - 2020 IEEE International Geoscience and Remote Sensing Symposium, 2020, pp. 2045-2048, doi: 10.1109/IGARSS39084.2020.9323397

실시예들은 뉴럴 네트워크를 이용한 이미지 시각화 기술을 제공할 수 있다. Embodiments may provide image visualization technology using a neural network.

다만, 기술적 과제는 상술한 기술적 과제들로 한정되는 것은 아니며, 또 다른 기술적 과제들이 존재할 수 있다.However, technical challenges are not limited to the above-mentioned technical challenges, and other technical challenges may exist.

일 실시예에 따른 뉴럴 네트워크 기반 모델을 이용하여 초분광 이미지를 시각화하는 장치는 초분광 이미지에 해당하는 제1 이미지를 수신하는 수신기; 및 프로세서를 포함하고, 상기 프로세서는, 상기 제1 이미지의 각 픽셀에 대한 각각의 파장 밴드의 세기 정보를 포함하는 원본 데이터를 추출하고, 상기 원본 데이터 및 미리 학습된 뉴럴 네트워크 기반 모델에 기초하여 상기 제1 이미지에 대응하는 RGB 이미지를 생성하기 픽셀값을 포함하는 예측 데이터를 생성하고, 상기 생성된 예측 데이터에 기초하여 상기 제1 이미지를 시각화하고, 상기 미리 학습된 뉴럴 네트워크 기반 모델은, 상기 제1 이미지보다 적은 수의 파장 밴드를 포함하는 제2 이미지를 입력으로 하여 상기 제2 이미지에 대응되는 RGB 이미지를 생성하기 위한 예측 데이터를 출력하도록 미리 학습될 수 있다.An apparatus for visualizing a hyperspectral image using a neural network-based model according to an embodiment includes a receiver that receives a first image corresponding to the hyperspectral image; and a processor, wherein the processor extracts original data including intensity information of each wavelength band for each pixel of the first image, and extracts the original data based on the original data and a previously learned neural network-based model. Generating prediction data including pixel values to generate an RGB image corresponding to the first image, visualizing the first image based on the generated prediction data, and the pre-trained neural network-based model, It can be trained in advance to output prediction data for generating an RGB image corresponding to the second image by using a second image including fewer wavelength bands than one image as input.

상기 프로세서는, 상기 제1 이미지의 파장 밴드에 대한 보간을 통해 상기 제2 이미지의 파장 밴드 대응되는 세기 정보를 포함하는 전처리 데이터를 생성하고, 상기 전처리 데이터를 상기 뉴럴 네트워크 기반 모델에 입력함으로써, 상기 예측 데이터를 생성할 수 있다.The processor generates preprocessing data including intensity information corresponding to the wavelength band of the second image through interpolation of the wavelength band of the first image, and inputs the preprocessing data into the neural network-based model, Predictive data can be generated.

상기 뉴럴 네트워크 기반 모델은, 상기 제2 이미지의 파장 밴드 중 가시광선 영역에 대응되는 파장 밴드를 입력으로 하여 상기 RGB 이미지를 생성하기 위한 상기 예측 데이터를 출력하도록 미리 학습될 수 있다.The neural network-based model may be trained in advance to output the prediction data for generating the RGB image by using the wavelength band corresponding to the visible light region among the wavelength bands of the second image as input.

상기 프로세서는, 상기 생성된 예측 데이터에 샤프닝 필터를 적용하고, 샤프닝 필터 적용 결과에 기초하여 상기 제1 이미지를 시각화할 수 있다.The processor may apply a sharpening filter to the generated prediction data and visualize the first image based on a result of applying the sharpening filter.

일 실시예에 따른 초분광 이미지에 대한 이미지 시각화 방법은, 초분광 이미지에 해당하는 제1 이미지를 수신하는 단계; 상기 제1 이미지의 각 픽셀에 대한 각각의 파장 밴드의 세기 정보를 포함하는 원본 데이터를 추출하는 단계; 상기 원본 데이터 및 미리 학습된 뉴럴 네트워크 기반 모델에 기초하여 상기 제1 이미지에 대응하는 RGB 이미지를 생성하기 위한 예측 데이터를 생성하는 단계; 및 상기 생성된 예측 데이터에 기초하여 상기 제1 이미지를 시각화하는 단계를 포함할 수 있다.An image visualization method for a hyperspectral image according to an embodiment includes receiving a first image corresponding to a hyperspectral image; extracting original data including intensity information of each wavelength band for each pixel of the first image; Generating prediction data for generating an RGB image corresponding to the first image based on the original data and a pre-trained neural network-based model; and visualizing the first image based on the generated prediction data.

실시예들은 다분광 영상을 통해 학습된 뉴럴 네트워크 기반 모델을 통해 초분광 영상을 실제와 유사도가 높고 선명하게 시각화 함으로써, 초분광 영상의 활용도를 증대시킬 수 있다. 또한, 단순히 초분광 영상을 입력으로 하여 시각화 결과를 출력하도록 하는 인공 신경망에 비해 실시예들은 적은 부하로 학습을 수행할 수 있는 수단을 제공할 수 있다.Embodiments can increase the usability of hyperspectral images by clearly visualizing hyperspectral images with high similarity to reality through a neural network-based model learned through multispectral images. Additionally, compared to artificial neural networks that simply take hyperspectral images as input and output visualization results, embodiments can provide a means of performing learning with less load.

도 1은 일 실시예에 따른 이미지 시각화 장치의 개략적인 블록도를 나타낸다.
도 2는 이미지 시각화의 예시이다.
도 3은 일 실시예에 따른 이미지 시각화 방법의 흐름도를 나타낸다.
도 4는 일 실시예에 따른 시각화 방법에서 활용되는 뉴럴 네트워크 기반 모델을 학습하는 방법을 설명하기 위한 도면이다.
도 5는 일 실시예에 따른 원본 데이터의 샘플링 방법을 도시한다.
도 6a 및 도 6b는 일 실시예에 따른 시각화 방법이 적용된 실험례를 도시하는 도면이다.
Figure 1 shows a schematic block diagram of an image visualization device according to an embodiment.
Figure 2 is an example of image visualization.
Figure 3 shows a flowchart of an image visualization method according to one embodiment.
FIG. 4 is a diagram illustrating a method of learning a neural network-based model used in a visualization method according to an embodiment.
Figure 5 shows a sampling method of original data according to one embodiment.
FIGS. 6A and 6B are diagrams illustrating an experimental example to which a visualization method according to an embodiment is applied.

본 명세서에 개시되어 있는 본 발명의 개념에 따른 실시예들에 대해서 특정한 구조적 또는 기능적 설명들은 단지 본 발명의 개념에 따른 실시예들을 설명하기 위한 목적으로 예시된 것으로서, 본 발명의 개념에 따른 실시예들은 다양한 형태로 실시될 수 있으며 본 명세서에 설명된 실시예들에 한정되지 않는다.Specific structural or functional descriptions of the embodiments according to the concept of the present invention disclosed in this specification are merely illustrative for the purpose of explaining the embodiments according to the concept of the present invention. They may be implemented in various forms and are not limited to the embodiments described herein.

본 발명의 개념에 따른 실시예들은 다양한 변경들을 가할 수 있고 여러 가지 형태들을 가질 수 있으므로 실시예들을 도면에 예시하고 본 명세서에 상세하게 설명하고자 한다. 그러나, 이는 본 발명의 개념에 따른 실시예들을 특정한 개시형태들에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Since the embodiments according to the concept of the present invention can make various changes and have various forms, the embodiments will be illustrated in the drawings and described in detail in this specification. However, this is not intended to limit the embodiments according to the concept of the present invention to specific disclosed forms, and includes changes, equivalents, or substitutes included in the spirit and technical scope of the present invention.

제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만, 예를 들어 본 발명의 개념에 따른 권리 범위로부터 이탈되지 않은 채, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.Terms such as first or second may be used to describe various components, but the components should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another component, for example, a first component may be named a second component, without departing from the scope of rights according to the concept of the present invention, Similarly, the second component may also be referred to as the first component.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 표현들, 예를 들어 "~사이에"와 "바로~사이에" 또는 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.When a component is said to be "connected" or "connected" to another component, it is understood that it may be directly connected to or connected to the other component, but that other components may exist in between. It should be. On the other hand, when it is mentioned that a component is “directly connected” or “directly connected” to another component, it should be understood that there are no other components in between. Expressions that describe the relationship between components, such as “between”, “immediately between” or “directly adjacent to”, should be interpreted similarly.

본 명세서에서 사용한 용어는 단지 특정한 실시예들을 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is only used to describe specific embodiments and is not intended to limit the invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, terms such as "include" or "have" are intended to designate the presence of a described feature, number, step, operation, component, part, or combination thereof, and one or more other features or numbers, It should be understood that this does not exclude in advance the possibility of the presence or addition of steps, operations, components, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by a person of ordinary skill in the technical field to which the present invention pertains. Terms as defined in commonly used dictionaries should be interpreted as having meanings consistent with the meanings they have in the context of the related technology, and unless clearly defined in this specification, should not be interpreted in an idealized or overly formal sense. No.

본 명세서에서의 모듈(module)은 본 명세서에서 설명되는 각 명칭에 따른 기능과 동작을 수행할 수 있는 하드웨어를 의미할 수도 있고, 특정 기능과 동작을 수행할 수 있는 컴퓨터 프로그램 코드를 의미할 수도 있고, 또는 특정 기능과 동작을 수행시킬 수 있는 컴퓨터 프로그램 코드가 탑재된 전자적 기록 매체, 예를 들어 프로세서 또는 마이크로 프로세서를 의미할 수 있다.A module in this specification may mean hardware that can perform functions and operations according to each name described in this specification, or it may mean computer program code that can perform specific functions and operations. , or it may mean an electronic recording medium loaded with computer program code that can perform specific functions and operations, for example, a processor or microprocessor.

다시 말해, 모듈이란 본 발명의 기술적 사상을 수행하기 위한 하드웨어 및/또는 상기 하드웨어를 구동하기 위한 소프트웨어의 기능적 및/또는 구조적 결합을 의미할 수 있다.In other words, a module may mean a functional and/or structural combination of hardware for carrying out the technical idea of the present invention and/or software for driving the hardware.

이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 그러나, 특허출원의 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Hereinafter, embodiments will be described in detail with reference to the attached drawings. However, the scope of the patent application is not limited or limited by these examples. The same reference numerals in each drawing indicate the same members.

도 1은 일 실시예에 따른 이미지 시각화 장치의 개략적인 블록도를 나타낸다.Figure 1 shows a schematic block diagram of an image visualization device according to an embodiment.

도 1을 참조하면, 이미지 시각화 장치(10)는 이하 제1 이미지에 대한 시각화를 수행할 수 있다. 제1 이미지는 초분광 이미지(Hyperspectral Images; HSIs)일 수 있다. 제1 이미지는 컴퓨터가 처리할 수 있는 형태로 된 정보로 이루어질 수 있다. 이미지 시각화 장치(10)는 제1 이미지를 입력 받아 뉴럴 네트워크를 이용하여 제1 이미지를 처리함으로써 제1 이미지에 대한 시각화를 수행할 수 있다. Referring to FIG. 1, the image visualization device 10 may perform visualization of the first image below. The first image may be a hyperspectral image (HSIs). The first image may be comprised of information in a form that can be processed by a computer. The image visualization device 10 may perform visualization of the first image by receiving the first image and processing the first image using a neural network.

뉴럴 네트워크(또는 인공 신경망)는 기계학습과 인지과학에서 생물학의 신경을 모방한 통계학적 학습 알고리즘을 포함할 수 있다. 뉴럴 네트워크는 시냅스의 결합으로 네트워크를 형성한 인공 뉴런(노드)이 학습을 통해 시냅스의 결합 세기를 변화시켜, 문제 해결 능력을 가지는 모델 전반을 의미할 수 있다.Neural networks (or artificial neural networks) can include statistical learning algorithms that mimic neurons in biology in machine learning and cognitive science. A neural network can refer to an overall model in which artificial neurons (nodes), which form a network through the combination of synapses, change the strength of the synapse connection through learning and have problem-solving capabilities.

뉴럴 네트워크의 뉴런은 가중치 또는 바이어스의 조합을 포함할 수 있다. 뉴럴 네트워크는 하나 이상의 뉴런 또는 노드로 구성된 하나 이상의 레이어(layer)를 포함할 수 있다. 뉴럴 네트워크는 뉴런의 가중치를 학습을 통해 변화시킴으로써 임의의 입력으로부터 예측하고자 하는 결과를 추론할 수 있다.Neurons in a neural network can contain combinations of weights or biases. A neural network may include one or more layers consisting of one or more neurons or nodes. Neural networks can infer the results they want to predict from arbitrary inputs by changing the weights of neurons through learning.

뉴럴 네트워크는 심층 뉴럴 네트워크 (Deep Neural Network)를 포함할 수 있다. 뉴럴 네트워크는 CNN(Convolutional Neural Network), RNN(Recurrent Neural Network), 퍼셉트론(perceptron), 다층 퍼셉트론(multilayer perceptron), FF(Feed Forward), RBF(Radial Basis Network), DFF(Deep Feed Forward), LSTM(Long Short Term Memory), GRU(Gated Recurrent Unit), AE(Auto Encoder), VAE(Variational Auto Encoder), DAE(Denoising Auto Encoder), SAE(Sparse Auto Encoder), MC(Markov Chain), HN(Hopfield Network), BM(Boltzmann Machine), RBM(Restricted Boltzmann Machine), DBN(Depp Belief Network), DCN(Deep Convolutional Network), DN(Deconvolutional Network), DCIGN(Deep Convolutional Inverse Graphics Network), GAN(Generative Adversarial Network), LSM(Liquid State Machine), ELM(Extreme Learning Machine), ESN(Echo State Network), DRN(Deep Residual Network), DNC(Differentiable Neural Computer), NTM(Neural Turning Machine), CN(Capsule Network), KN(Kohonen Network) 및 AN(Attention Network)를 포함할 수 있으나 이에 한정되는 것이 아닌 임의의 뉴럴 네트워크를 포함할 수 있음은 통상의 기술자가 이해할 것이다.Neural networks may include deep neural networks. Neural networks include CNN (Convolutional Neural Network), RNN (Recurrent Neural Network), perceptron, multilayer perceptron, FF (Feed Forward), RBF (Radial Basis Network), DFF (Deep Feed Forward), and LSTM. (Long Short Term Memory), GRU (Gated Recurrent Unit), AE (Auto Encoder), VAE (Variational Auto Encoder), DAE (Denoising Auto Encoder), SAE (Sparse Auto Encoder), MC (Markov Chain), HN (Hopfield) Network), BM (Boltzmann Machine), RBM (Restricted Boltzmann Machine), DBN (Depp Belief Network), DCN (Deep Convolutional Network), DN (Deconvolutional Network), DCIGN (Deep Convolutional Inverse Graphics Network), GAN (Generative Adversarial Network) ), Liquid State Machine (LSM), Extreme Learning Machine (ELM), Echo State Network (ESN), Deep Residual Network (DRN), Differential Neural Computer (DNC), Neural Turning Machine (NTM), Capsule Network (CN), Those skilled in the art will understand that it may include any neural network, including, but not limited to, KN (Kohonen Network) and AN (Attention Network).

이미지 시각화 장치(10)는 마더보드(motherboard)와 같은 인쇄 회로 기판(printed circuit board(PCB)), 집적 회로(integrated circuit(IC)), 또는 SoC(system on chip)로 구현될 수 있다. 예를 들어, 이미지 시각화 장치(10)는 애플리케이션 프로세서(application processor)로 구현될 수 있다.The image visualization device 10 may be implemented with a printed circuit board (PCB) such as a motherboard, an integrated circuit (IC), or a system on chip (SoC). For example, the image visualization device 10 may be implemented with an application processor.

또한, 이미지 시각화 장치(10)는 PC(personal computer), 데이터 서버, 또는 휴대용 장치 내에 구현될 수 있다.Additionally, the image visualization device 10 may be implemented within a personal computer (PC), a data server, or a portable device.

휴대용 장치는 랩탑(laptop) 컴퓨터, 이동 전화기, 스마트 폰(smart phone), 태블릿(tablet) PC, 모바일 인터넷 디바이스(mobile internet device(MID)), PDA(personal digital assistant), EDA(enterprise digital assistant), 디지털 스틸 카메라(digital still camera), 디지털 비디오 카메라(digital video camera), PMP(portable multimedia player), PND(personal navigation device 또는 portable navigation device), 휴대용 게임 콘솔(handheld game console), e-북(e-book), 또는 스마트 디바이스(smart device)로 구현될 수 있다. 스마트 디바이스는 스마트 와치(smart watch), 스마트 밴드(smart band), 또는 스마트 링(smart ring)으로 구현될 수 있다.Portable devices include laptop computers, mobile phones, smart phones, tablet PCs, mobile internet devices (MIDs), personal digital assistants (PDAs), and enterprise digital assistants (EDAs). , digital still camera, digital video camera, portable multimedia player (PMP), personal navigation device or portable navigation device (PND), handheld game console, e-book ( It can be implemented as an e-book) or a smart device. A smart device may be implemented as a smart watch, smart band, or smart ring.

일 실시예에 따른 이미지 시각화 장치(10)는 수신기(100) 및 프로세서(200)를 포함할 수 있으며, 메모리(300)를 더 포함할 수 있다.The image visualization device 10 according to an embodiment may include a receiver 100 and a processor 200, and may further include a memory 300.

일 실시예에 따른 수신기(100)는 제1 이미지를 수신할 수 있다. 수신기(100)는 수신 인터페이스를 포함할 수 있다. 수신기(100)는 수신한 제1 이미지를 프로세서(200)로 출력할 수 있다.The receiver 100 according to one embodiment may receive the first image. Receiver 100 may include a receiving interface. The receiver 100 may output the received first image to the processor 200.

일 실시예에 따른 프로세서(200)는 메모리(300)에 저장된 데이터를 처리할 수 있다. 프로세서(200)는 메모리(300)에 저장된 컴퓨터로 읽을 수 있는 코드(예를 들어, 소프트웨어) 및 프로세서(200)에 의해 유발된 인스트럭션(instruction)들을 실행할 수 있다.The processor 200 according to one embodiment may process data stored in the memory 300. The processor 200 may execute computer-readable code (eg, software) stored in the memory 300 and instructions triggered by the processor 200 .

일 실시예에 따른 프로세서(200)는 목적하는 동작들(desired operations)을 실행시키기 위한 물리적인 구조를 갖는 회로를 가지는 하드웨어로 구현된 데이터 처리 장치일 수 있다. 예를 들어, 목적하는 동작들은 프로그램에 포함된 코드(code) 또는 인스트럭션들(instructions)을 포함할 수 있다.The processor 200 according to one embodiment may be a data processing device implemented in hardware that has a circuit with a physical structure for executing desired operations. For example, the intended operations may include code or instructions included in the program.

예를 들어, 하드웨어로 구현된 데이터 처리 장치는 마이크로프로세서(microprocessor), 중앙 처리 장치(central processing unit), 프로세서 코어(processor core), 멀티-코어 프로세서(multi-core processor), 멀티프로세서(multiprocessor), ASIC(Application-Specific Integrated Circuit), FPGA(Field Programmable Gate Array)를 포함할 수 있다.For example, data processing devices implemented in hardware include microprocessors, central processing units, processor cores, multi-core processors, and multiprocessors. , ASIC (Application-Specific Integrated Circuit), and FPGA (Field Programmable Gate Array).

구체적으로, 프로세서(200)는 입력된 제1 이미지에 대한 보간(Interpolation)을 통해 전처리 데이터를 생성하고, 전처리 데이터를 뉴럴 네트워크 기반 모델에 적용하여 제1 이미지의 시각화에 필요한 예측 데이터를 생성할 수 있다.Specifically, the processor 200 can generate preprocessed data through interpolation for the input first image, and apply the preprocessed data to a neural network-based model to generate prediction data necessary for visualization of the first image. there is.

보다 구체적으로, 프로세서(200)는 제1 이미지로부터 각 픽셀을 구성하는 개별 파장 밴드의 세기 정보를 포함하는 원본 데이터를 추출하고, 추출된 원본 데이터에 대한 보간을 통해 전처리 데이터를 획득하고, 전처리 데이터로부터 획득한 샘플링 데이터를 뉴럴 네트워크 기반 모델에 입력시킴으로써 예측 데이터를 생성할 수 있다.More specifically, the processor 200 extracts original data including intensity information of individual wavelength bands constituting each pixel from the first image, obtains pre-processed data through interpolation on the extracted original data, and obtains pre-processed data. Predicted data can be generated by inputting sampling data obtained from a neural network-based model.

일 실시예에 따른 뉴럴 네트워크 기반 모델은 Auto-Encoder 모델의 Encoder로 구성될 수 있다. 뉴럴 네트워크 기반 모델은 제2 이미지를 입력으로 하여 제2 이미지에 대응되는 RGB 이미지를 출력하도록 미리 학습될 수 있다. 제2 이미지는 제1 이미지에 비해 적은 수의 파장 밴드로 구성되는 이미지일 수 있으며, 예시적으로 다분광 이미지(Multispectral Images; MSIs) 이미지일 수 있다. 예를 들어, 제2 이미지는 10개 이하의 파장 밴드로 구성된 이미지일 수 있다. 뉴럴 네트워크 기반 모델은 제2 이미지 각 픽셀을 구성하는 파장 밴드 중 가시광선 영역(예를 들어, 400nm에서 700nm 사이 파장 대역)의 파장 밴드 각각의 세기 정보를 입력으로 하여 각 픽셀의 RGB 값을 예측하도록 미리 학습될 수 있다.A neural network-based model according to one embodiment may be composed of an encoder of the Auto-Encoder model. A neural network-based model may be trained in advance to take the second image as input and output an RGB image corresponding to the second image. The second image may be an image composed of fewer wavelength bands than the first image, and may be an example of a multispectral image (MSIs) image. For example, the second image may be an image composed of 10 or less wavelength bands. The neural network-based model predicts the RGB value of each pixel by using the intensity information of each wavelength band in the visible light region (for example, the wavelength band between 400nm and 700nm) among the wavelength bands that make up each pixel of the second image as input. It can be learned in advance.

뉴럴 네트워크 기반 모델의 학습에 활용된 제2 이미지를 구성하는 파장 밴드의 파장과 제1 이미지를 구성하는 파장 밴드의 파장이 상이하기 때문에, 프로세서(200)는 제1 이미지에 대한 보간을 통해 생성된 전처리 데이터를 활용하여 제1 이미지에 대한 시각화를 수행할 수 있다. 보다 구체적으로, 프로세서(200)는 제1 이미지 각 픽셀을 구성하는 제1 파장 밴드에 대한 세기 정보(개별 픽셀을 구성하는 각각의 파장 밴드의 세기 정보)의 보간을 통해 제2 이미지 각 픽셀을 구성하는 제2 파장 밴드에 대응하는 세기 정보를 산출함으로써, 전처리 데이터를 생성할 수 있다. 예를 들어, 제1 이미지를 구성하는 개별 픽셀은 전체 파장 대역을 100개로 분할한 파장 밴드로 구성되고, 제2 이미지를 구성하는 개별 픽셀은 전체 파장 대역을 10개로 분할한 파장 밴드로 구성된 상황에서, 프로세서(200)는 전처리 데이터를 구성하는 첫번째 파장 밴드의 세기 정보를 획득하기 위하여, 제1 이미지의 첫번째 파장 밴드부터 10번째 파장 밴드의 세기 값에 대한 보간을 수행할 수 있다. 동일한 방식으로 전처리 데이터를 구성하는 각각의 파장 밴드에 대응하는 세기 정보가 제1 이미지로부터 도출될 수 있다. 예를 들어, 프로세서(200)는 전처리 데이터를 구성하는 두번째 파장 밴드의 세기 정보를 획득하기 위하여, 제2 이미지의 11번째 파장 밴드부터 20번째 파장 밴드의 세기값에 대한 보간을 수행할 수 있다. 동일한 방식으로 제2 이미지의 550nm 파장 밴드에 대응하는 전처리 데이터를 생성하기 위하여, 앞서 설명된 방식을 통해 제1 이미지의 10개의 파장 밴드를 보간할 수 있다. 프로세서(200)는 10개의 파장 밴드를 보간하는 과정에서, 보간에 사용되는 10개의 파장 밴드 각각의 파장과 550nm 사이의 차이에 반비례하도록 가중치를 부여함으로써 보간을 수행할 수 있다.Since the wavelength of the wavelength band constituting the second image used for learning the neural network-based model is different from the wavelength of the wavelength band constituting the first image, the processor 200 generates the generated through interpolation for the first image. Visualization of the first image can be performed using preprocessed data. More specifically, the processor 200 configures each pixel of the second image through interpolation of intensity information for the first wavelength band constituting each pixel of the first image (intensity information of each wavelength band constituting each pixel). Preprocessing data can be generated by calculating intensity information corresponding to the second wavelength band. For example, in a situation where the individual pixels constituting the first image are composed of wavelength bands that divide the entire wavelength band into 100, and the individual pixels that constitute the second image are composed of wavelength bands that divide the entire wavelength band into 10 , the processor 200 may perform interpolation on the intensity values of the 10th wavelength band from the 1st wavelength band of the first image to obtain intensity information of the 1st wavelength band constituting the preprocessing data. In the same way, intensity information corresponding to each wavelength band constituting the preprocessing data can be derived from the first image. For example, the processor 200 may perform interpolation on the intensity values of the 11th wavelength band to the 20th wavelength band of the second image in order to obtain intensity information of the second wavelength band constituting the preprocessing data. In the same way, in order to generate preprocessing data corresponding to the 550 nm wavelength band of the second image, 10 wavelength bands of the first image can be interpolated through the method described above. In the process of interpolating the 10 wavelength bands, the processor 200 may perform interpolation by assigning a weight inversely proportional to the difference between the wavelength of each of the 10 wavelength bands used for interpolation and 550 nm.

다른 예시에서, 프로세서(200)는 제2 이미지에 포함된 파장 밴드의 파장과 유사도가 가장 높은 소정 개수의 제1 이미지의 파장 밴드를 결정하고, 결정된 파장 밴드 사이의 보간을 통해 전처리 데이터를 생성할 수도 있다. 유사하게, 프로세서(200)는 제2 이미지에 포함된 파장 밴드의 파장과 유사도가 소정의 임계치 이상인 제1 이미지의 파장 밴드를 결정하고, 결정된 파장 밴드 사이의 보간을 통해 전처리 데이터를 생성할 수도 있다. 예를 들어, 제2 이미지에 포함된 550nm 파장 밴드에 대응하는 전처리 데이터를 생성하기 위하여, 프로세서(200)는 550nm와 가장 가까운 파장의 파장 밴드를 미리 정해진 개수(예를 들어, 5개)만큼 선택하고, 선택된 파장 밴드 사이의 보간에 기초하여 전처리 데이터를 생성할 수 있다. 보간을 수행하는 과정에서, 550nm와 가까운 정도에 따라 가중치가 부여될 수도 있다.보간을 수행하는 방식은 제시된 예시에 한정되는 것은 아니고, 임의의 보간 방식이 적용될 수 있음은 통상의 기술자가 이해할 것이다.In another example, the processor 200 determines a predetermined number of wavelength bands of the first image that have the highest similarity to the wavelengths of the wavelength bands included in the second image, and generates preprocessing data through interpolation between the determined wavelength bands. It may be possible. Similarly, the processor 200 may determine a wavelength band of the first image whose similarity to the wavelength of the wavelength band included in the second image is greater than or equal to a predetermined threshold, and generate preprocessing data through interpolation between the determined wavelength bands. . For example, in order to generate preprocessing data corresponding to the 550nm wavelength band included in the second image, the processor 200 selects a predetermined number (e.g., 5) of the wavelength bands with the closest wavelength to 550nm. And, preprocessing data can be generated based on interpolation between selected wavelength bands. In the process of performing interpolation, weights may be assigned depending on the degree of proximity to 550 nm. Those skilled in the art will understand that the method of performing interpolation is not limited to the presented example, and that any interpolation method may be applied.

또 다른 예시에서, 프로세서(200)는 제2 이미지에 포함된 파장 밴드 중 소정 임계치 이상의 유사도를 가진 파장을 가지는 파장 밴드가 제1 이미지에 존재하는 제2 이미지의 파장 밴드를 제2-1 파장 밴드로 결정하고, 나머지 파장 밴드를 제2-2 파장 밴드로 결정할 수 있다. 프로세서(200)는 제2-1 파장 밴드에 대해서는 유사도가 가장 높은 것으로 결정된 제1 이미지의 파장 밴드를 그대로 활용하되, 제2-2 파장 밴드에 대응하는 데이터에 대해서만 제1 이미지에 대한 보간을 수행함으로써, 전처리 데이터를 생성할 수 있다. 이를 통해 본원 발명은 전처리 과정의 연산을 절감할 수 있다. In another example, the processor 200 selects the wavelength band of the second image in which a wavelength band having a wavelength having a similarity greater than a predetermined threshold among the wavelength bands included in the second image is present in the first image to the 2-1 wavelength band. , and the remaining wavelength band can be determined as the 2-2 wavelength band. The processor 200 uses the wavelength band of the first image determined to have the highest similarity for the 2-1 wavelength band as is, but performs interpolation on the first image only for data corresponding to the 2-2 wavelength band. By doing so, preprocessing data can be generated. Through this, the present invention can save calculations in the pre-processing process.

프로세서(200)는 전처리 데이터 중 뉴럴 네트워크 모델의 학습에 활용된 파장 밴드의 파장에 대응되는 데이터를 샘플링 데이터로써 획득하고, 획득한 샘플링 데이터를 뉴럴 네트워크 기반 모델에 입력함으로써, 예측 데이터를 생성할 수 있다. 프로세서(200)는 전처리 데이터 중 가시광선 대역에 대응되는 파장 밴드의 세기 정보를 샘플링 데이터로써 획득하고, 샘플링 데이터를 뉴럴 네트워크 기반 모델에 입력함으로써, 예측 데이터를 획득할 수 있다. 예측 데이터는 각 픽셀의 RGB 값의 형태로 구성될 수 있다. 예측 데이터를 토대로 제1 이미지에 대한 RGB 형태의 시각화가 이루어질 수 있다.The processor 200 acquires data corresponding to the wavelength of the wavelength band used for learning the neural network model among the preprocessed data as sampling data, and inputs the obtained sampling data into the neural network-based model to generate prediction data. there is. The processor 200 may obtain prediction data by acquiring intensity information of a wavelength band corresponding to the visible light band among the preprocessed data as sampling data and inputting the sampling data into a neural network-based model. Prediction data may be configured in the form of RGB values of each pixel. Based on the prediction data, the first image may be visualized in RGB form.

일 실시예에 따른 메모리(300)는 프로세서(200)에 의해 실행가능한 인스트럭션들(또는 프로그램)을 저장할 수 있다. 예를 들어, 인스트럭션들은 프로세서의 동작 및/또는 프로세서의 각 구성의 동작을 실행하기 위한 인스트럭션들을 포함할 수 있다.The memory 300 according to one embodiment may store instructions (or programs) executable by the processor 200. For example, the instructions may include instructions for executing the operation of the processor and/or the operation of each component of the processor.

메모리(300)는 휘발성 메모리 장치 또는 불휘발성 메모리 장치로 구현될 수 있다.The memory 300 may be implemented as a volatile memory device or a non-volatile memory device.

휘발성 메모리 장치는 DRAM(dynamic random access memory), SRAM(static random access memory), T-RAM(thyristor RAM), Z-RAM(zero capacitor RAM), 또는 TTRAM(Twin Transistor RAM)으로 구현될 수 있다.Volatile memory devices may be implemented as dynamic random access memory (DRAM), static random access memory (SRAM), thyristor RAM (T-RAM), zero capacitor RAM (Z-RAM), or twin transistor RAM (TTRAM).

불휘발성 메모리 장치는 EEPROM(Electrically Erasable Programmable Read-Only Memory), 플래시(flash) 메모리, MRAM(Magnetic RAM), 스핀전달토크 MRAM(Spin-Transfer Torque(STT)-MRAM), Conductive Bridging RAM(CBRAM), FeRAM(Ferroelectric RAM), PRAM(Phase change RAM), 저항 메모리(Resistive RAM(RRAM)), 나노 튜브 RRAM(Nanotube RRAM), 폴리머 RAM(Polymer RAM(PoRAM)), 나노 부유 게이트 메모리(Nano Floating Gate Memory(NFGM)), 홀로그래픽 메모리(holographic memory), 분자 전자 메모리 소자(Molecular Electronic Memory Device), 또는 절연 저항 변화 메모리(Insulator Resistance Change Memory)로 구현될 수 있다.Non-volatile memory devices include EEPROM (Electrically Erasable Programmable Read-Only Memory), flash memory, MRAM (Magnetic RAM), Spin-Transfer Torque (STT)-MRAM (MRAM), and Conductive Bridging RAM (CBRAM). , FeRAM (Ferroelectric RAM), PRAM (Phase change RAM), Resistive RAM (RRAM), Nanotube RRAM (Nanotube RRAM), Polymer RAM (PoRAM), Nano Floating Gate Memory (NFGM), holographic memory, molecular electronic memory device, or insulation resistance change memory.

도 2는 이미지 시각화의 예시이다. Figure 2 is an example of image visualization.

도 2를 참조하면, RGB 시각화 이미지(210)와 초분광 시각화 이미지(220)가 나타난다. Referring to Figure 2, an RGB visualization image 210 and a hyperspectral visualization image 220 appear.

RGB 카메라에 의해 촬영된 이미지의 데이터를 사용하여 시각화를 수행하는 경우 정형화된 세 개의 채널을 사용하여 이미지를 시각화함으로써 이미지(210)와 같이 우리가 실제 눈으로 보는 것과 유사한 색상으로 시각화가 이루어질 수 있다. 반면, 초분광 카메라의 의해 촬영된 이미지의 데이터를 사용하는 경우 다수의 파장 밴드에 대한 세기 데이터가 포함되어 있어, 이를 시각화하기 위해서는 많은 밴드들 중 3개의 밴드를 선택하여 시각화를 진행할 수 있으나, 이러한 경우 데이터의 취사 선택에 의한 왜곡이 일어나 이미지(220)와 같이 실제 이미지와 상이하게 시각화가 이루어질 수 있다. When visualization is performed using data from images captured by an RGB camera, visualization can be achieved in colors similar to what we actually see with our eyes, as shown in image 210, by visualizing the image using three standardized channels. . On the other hand, when using data from images taken by a hyperspectral camera, intensity data for multiple wavelength bands is included, and in order to visualize this, three bands can be selected among many bands for visualization. In this case, distortion may occur due to the selection of data, resulting in visualization that is different from the actual image, such as image 220.

이러한 이미지 시각화의 왜곡을 최소화하여 초분광 시각화 이미지가 실제 이미지와 유사한 구현이 가능하도록 하기 위해 도 3의 일 실시예에 따른 초분광 이미지 시각화 방법이 사용될 수 있다.In order to minimize distortion of image visualization and enable hyperspectral visualization images to be similar to actual images, the hyperspectral image visualization method according to the embodiment of FIG. 3 may be used.

도 3은 일 실시예에 따른 이미지 시각화 방법의 흐름도를 나타낸다. Figure 3 shows a flowchart of an image visualization method according to one embodiment.

도 3의 이미지 시각화 방법은 도 1의 이미지 시각화 장치(10)에 의해 수행될 수 있다. The image visualization method of FIG. 3 may be performed by the image visualization device 10 of FIG. 1 .

구체적으로, 이미지 시각화 장치(10)는 수신기(100)를 통해 제1 이미지를 수신할 수 있다(S310). 예를 들어, 제1 이미지는 각각의 픽셀별로 10개를 초과하는 다수의 파장 밴드로 구현되는 초분광 이미지를 포함할 수 있다.Specifically, the image visualization device 10 may receive the first image through the receiver 100 (S310). For example, the first image may include a hyperspectral image implemented with multiple wavelength bands exceeding 10 for each pixel.

일 실시예에 따른 이미지 시각화 장치(10)는 수신된 제1 이미지로부터 각 픽셀의 개별 파장 밴드의 세기 정보를 포함하는 원본 데이터를 추출할 수 있다(S320). The image visualization device 10 according to an embodiment may extract original data including intensity information of an individual wavelength band of each pixel from the received first image (S320).

원본 데이터는 각 픽셀 별로, 개별 픽셀을 구성하는 개별 파장 밴드의 세기 정보를 포함할 수 있으며, 구현 례에 따라서 적게는 11개의 파장 밴드, 경우에 따라서는 200개 이상의 파장 밴드 각각의 세기 정보로 구성될 수 있다.The original data may include intensity information for each pixel and individual wavelength bands that make up each pixel. Depending on the implementation, the original data may consist of intensity information for each of as few as 11 wavelength bands, and in some cases, more than 200 wavelength bands. It can be.

일 실시예에 따른 이미지 시각화 장치(10)는 원본 데이터로부터 전처리 데이터를 생성하고, 전처리 데이터로부터 샘플링 데이터를 획득할 수 있다(S330). 전처리 데이터는 각 픽셀 별 복수의 파장 밴드의 세기 정보를 포함할 수 있으며, 원본 데이터에 대한 보간을 통해 생성될 수 있다. 샘플링 데이터는 전처리 데이터에 포함된 파장 밴드 중 가시광선 영역의 파장 밴드의 세기 정보를 포함할 수 있다. 단계(S320) 및 단계(S330)를 통해 샘플링 데이터를 획득하는 방식은 이하 첨부될 도 5를 통해 보다 상세하게 설명된다.The image visualization device 10 according to an embodiment may generate preprocessed data from original data and obtain sampling data from the preprocessed data (S330). The preprocessed data may include intensity information of multiple wavelength bands for each pixel and may be generated through interpolation of the original data. The sampling data may include intensity information of a wavelength band in the visible light region among the wavelength bands included in the preprocessing data. The method of acquiring sampling data through steps S320 and S330 will be described in more detail with reference to FIG. 5 below.

이미지 시각화 장치(10)는 획득한 샘플링 데이터를 뉴럴 네트워크 기반 모델에 입력하여 예측 데이터를 획득할 수 있다. 뉴럴 네트워크 기반 모델은 제1 이미지보다 적을 파장 밴드로 구성되는 제2 이미지(예를 들어, 다분광 이미지)를 입력으로 하여, 다분광 이미지를 RGB 이미지로 시각화하기 위한 픽셀 별 RGB 값에 대응하는 예측 데이터를 출력하도록 미리 학습될 수 있다. 뉴럴 네트워크 기반 모델에 대한 상세 설명은 이하 첨부되는 도 4를 통해 보다 상세하게 설명될 수 있다.The image visualization device 10 may obtain prediction data by inputting the acquired sampling data into a neural network-based model. The neural network-based model takes as input a second image (e.g., multispectral image) consisting of fewer wavelength bands than the first image, and predicts corresponding RGB values for each pixel to visualize the multispectral image as an RGB image. It can be trained in advance to output data. A detailed description of the neural network-based model can be explained in more detail through FIG. 4 attached below.

이미지 시각화 장치(10)는 앞서 획득한 예측 데이터를 통해 제1 이미지에 대한 시각화를 수행할 수 있다. 제1 이미지는 예측 데이터에 기초한 시각화를 통해 RGB 이미지로 시각화될 수 있다. 일 실시예에 따르면, 이미지 시각화 장치(10)는 앞서 획득한 예측 데이터에 샤프닝 필터(Sharpening filter)를 적용하여 RGB 이미지의 선명도를 보다 향상시킬 수 있다. 샤프닝 필터는 RGB 이미지의 선명도를 높이는 필터로, 예시적으로 라플라시안 필터(Laplacian Filter)가 활용될 수 있으나, 활용 가능한 샤프팅 필터의 종류는 이에 한정되는 것이 아니고, 이미지의 선명도를 향상시킬 수 있는 임의의 이미지 처리 필터가 활용될 수 있음은 통상의 기술자가 이해할 것이다. The image visualization device 10 may perform visualization of the first image using previously acquired prediction data. The first image may be visualized as an RGB image through visualization based on prediction data. According to one embodiment, the image visualization device 10 may further improve the clarity of the RGB image by applying a sharpening filter to previously acquired prediction data. A sharpening filter is a filter that improves the sharpness of an RGB image. For example, a Laplacian filter can be used. However, the type of sharpening filter that can be used is not limited to this, and any type of sharpening filter that can improve the sharpness of the image can be used. Those skilled in the art will understand that image processing filters may be utilized.

도 4는 일 실시예에 따른 시각화 방법에서 활용되는 뉴럴 네트워크 기반 모델을 학습하는 방법을 설명하기 위한 도면이다.FIG. 4 is a diagram illustrating a method of learning a neural network-based model used in a visualization method according to an embodiment.

도 4를 참고하면, 일 실시예에 따른 시각화 방법에서 활용되는 뉴럴 네트워크 기반 모델(420)은 제2 이미지(예를 들어, 다분광 이미지) 입력으로부터 제2 이미지를 RGB 이미지로 시각화하기 위한 예측 데이터를 출력하도록 미리 학습될 수 있다.Referring to FIG. 4, the neural network-based model 420 used in the visualization method according to one embodiment includes prediction data for visualizing the second image as an RGB image from the second image (e.g., multispectral image) input. It can be learned in advance to output .

보다 구체적으로, 뉴럴 네트워크 기반 모델(420)은 Auto-encoder 모델의 encoder로 구성될 수 있다. 뉴럴 네트워크 기반 모델(420)은 다분광 이미지에 기초하여 생성되는 학습 데이터(410)로부터 예측 결과(430)를 출력하고, 예측 결과(430)와 타깃 결과(440)를 통해 계산되는 손실 값이 최소화되는 방향으로 학습될 수 있다. 학습 데이터(410)는 다분광 이미지의 픽셀 별 파장 밴드의 각각의 세기 정보를 포함할 수 있으며, 학습 데이터에 포함되는 파장 밴드는 전체 파장 밴드 중 가시광선 대역의 파장 밴드일 수 있다. 예측 데이터(430)는 픽셀 별 RGB 값으로 구성될 수 있다. 타깃 결과(440)는 학습 데이터(410)와 동일한 객체에 대해 획득된 RGB 이미지일 수 있다. 뉴럴 네트워크 기반 모델(420)는 수학식 1에 해당하는 손실 값이 최소화되는 방향으로 학습될 수 있다.More specifically, the neural network-based model 420 may be composed of an encoder of an auto-encoder model. The neural network-based model 420 outputs a prediction result 430 from learning data 410 generated based on a multispectral image, and the loss value calculated through the prediction result 430 and the target result 440 is minimized. It can be learned in a way that works. The learning data 410 may include information on the intensity of each wavelength band for each pixel of the multispectral image, and the wavelength band included in the learning data may be a wavelength band in the visible light band among all wavelength bands. Prediction data 430 may be composed of RGB values for each pixel. The target result 440 may be an RGB image obtained for the same object as the training data 410. The neural network-based model 420 can be learned in a way that minimizes the loss value corresponding to Equation 1.

는 뉴럴 네트워크 기반 모델(420)의 손실 값, N은 이미지에 포함된 픽셀의 개수, 는 학습 데이터(410)에 포함된 개별 픽셀의 개별 파장 밴드의 세기 정보에 해당하는 입력 정보, 는 입력 정보 에 따른 뉴럴 네트워크 기반 모델(420)의 예측 결과(430), 는 입력 정보 에 대응되는 타깃 결과(440)의 픽셀값(RGB 값)일 수 있다. is the loss value of the neural network-based model 420, N is the number of pixels included in the image, is input information corresponding to the intensity information of individual wavelength bands of individual pixels included in the learning data 410, is the input information The prediction result (430) of the neural network-based model (420) according to is the input information It may be a pixel value (RGB value) of the target result 440 corresponding to .

도 5는 일 실시예에 따른 원본 데이터의 샘플링 방법을 도시한다. Figure 5 shows a sampling method of original data according to one embodiment.

도 5를 참고하면, 프로세서는 초분광 영상에 대응되는 제1 이미지(510)로 부터 뉴럴 네트워크 기반 모델의 학습에 활용된 다분광 영상에 대응되는 제2 이미지(520)에 대응되는 전처리 데이터를 생성할 수 있다. 예시적으로 제1 이미지(510)는 각각의 픽셀(511)에 대하여 100개의 파장 밴드의 세기값(512)을 포함할 수 있다. 제2 이미지(520)는 각각의 픽셀(512)에 대하여 제1 이미지(510)에 비해 적은 수의 파장 밴드의 세기값으로 구성될 수 있으며, 예를 들어, 10개의 파장 밴드의 세기값(522)을 포함할 수 있다. 도시된 바와 같이, 제1 이미지(510)과 제2 이미지(520)에 포함된 파장 밴드의 파장이 상이하기 때문에 프로세서는 제1 이미지(510)로부터 제2 이미지(520) 파장에 대응되는 전처리 데이터를 생성할 수 있다. 보다 구체적으로, 프로세서는 픽셀(521)의 첫번째 파장 밴드(523)에 대응되는 전처리 데이터를 생성하기 위하여 픽셀(511)의 첫번째 파장 밴드 내지 10번째 파장 밴드(513)의 세기값에 대한 보간을 수행할 수 있다. 보간을 수행하는 방식은 앞서 설명된 방식을 토대로 진행될 수 있다. 동일한 방식으로, 프로세서는 픽셀(521)의 두번째 파장 밴드 내지 열번째 파장 밴드에 대응되는 전처리 데이터를 생성하기 위하여, 픽셀(511)에 포함된 파장 밴드의 세기값(512)을 차례로 보간할 수 있다. 프로세서는 픽셀(511) 이외의 나머지 픽셀 모두에 대해서도 동일한 보간을 수행함으로써 전처리 데이터를 생성할 수 있다.Referring to FIG. 5, the processor generates preprocessing data corresponding to the second image 520 corresponding to the multispectral image used for learning the neural network-based model from the first image 510 corresponding to the hyperspectral image. can do. Exemplarily, the first image 510 may include intensity values 512 of 100 wavelength bands for each pixel 511. The second image 520 may be composed of intensity values of a smaller number of wavelength bands for each pixel 512 than the first image 510, for example, intensity values 522 of 10 wavelength bands. ) may include. As shown, since the wavelengths of the wavelength bands included in the first image 510 and the second image 520 are different, the processor processes preprocessed data corresponding to the wavelength of the second image 520 from the first image 510. can be created. More specifically, the processor performs interpolation on the intensity values of the first to tenth wavelength bands 513 of the pixel 511 to generate preprocessing data corresponding to the first wavelength band 523 of the pixel 521. can do. The method of performing interpolation may be based on the method described above. In the same way, the processor may sequentially interpolate the intensity values 512 of the wavelength bands included in the pixel 511 to generate preprocessing data corresponding to the second to tenth wavelength bands of the pixel 521. . The processor may generate preprocessed data by performing the same interpolation for all pixels other than pixel 511.

다른 예시에서, 프로세서는 파장 밴드(523)에 대응하는 전처리 데이터를 생성하기 위하여, 픽셀(511)에 포함된 파장 밴드 중 파장 밴드(523)과 파장의 유사도가 높은 소정의 개수(예를 들어, 5개)의 파장 밴드를 선택하고 선택된 파장 밴드의 보간을 통해 전처리 데이터를 생성할 수도 있다. 이 경우, 전처리 데이터를 생성하는 과정에서, 선택된 파장 밴드와 파장 밴드(523)의 유사도가 높을수록 보다 높은 가중치가 부여되어 전처리 데이터가 생성될 수도 있다.In another example, in order to generate preprocessing data corresponding to the wavelength band 523, the processor selects a predetermined number (e.g., You can also select five (5) wavelength bands and generate preprocessing data through interpolation of the selected wavelength bands. In this case, in the process of generating preprocessing data, the higher the similarity between the selected wavelength band and the wavelength band 523, a higher weight may be assigned to generate preprocessing data.

프로세서는 생성된 전처리 데이터 중 가시광선 영역에 대응되는 파장 밴드의 세기값을 추출함으로써 샘플링 데이터를 생성할 수 있고, 샘플링 데이터를 뉴럴 네트워크 기반 모델에 입력하여 예측 데이터를 획득할 수 있다. 프로세서는 예측 데이터에 포함된 RGB 값에 기초하여 제1 이미지(510)에 대한 시각화를 수행할 수 있다.The processor can generate sampling data by extracting the intensity value of the wavelength band corresponding to the visible light region from the generated preprocessed data, and obtain prediction data by inputting the sampling data into a neural network-based model. The processor may perform visualization of the first image 510 based on RGB values included in the prediction data.

또한, 프로세서는, 앞서 설명한 바와 같이, 제2 이미지의 파장 밴드의 파장과 제1 이미지의 파장 밴드의 파장의 유사도에 기초하여, 보간을 수행할 파장 밴드와 보간 없이 그대로 사용할 파장 밴드를 결정하고, 결정 결과에 기초하여 전처리를 수행할 수도 있다.In addition, as described above, the processor determines a wavelength band to perform interpolation and a wavelength band to be used as is without interpolation, based on the similarity between the wavelength of the wavelength band of the second image and the wavelength of the wavelength band of the first image, Preprocessing may be performed based on the decision result.

도 6a 및 도 6b는 일 실시예에 따른 시각화 방법이 적용된 실험례를 도시하는 도면이다.FIGS. 6A and 6B are diagrams illustrating an experimental example to which a visualization method according to an embodiment is applied.

일 실시예에 따른 시각화 방법의 효과를 확인하기 위하여 3가지 서로 다른 방식으로 초분광 이미지에 대한 시각화를 수행하였다. 제1 비교 시각화 방식은 초분광 영상에 포함된 복수의 파장 밴드 중 서로 다른 3개의 파장 밴드를 선택하여 시각화하는 방식일 수 있다. 제2 비교 시각화 방식은 Color Matching Function을 이용하여 초분광 이미지를 시각화하는 방식으로 비특허 참고문헌 1(M. Magnusson, J. Sigurdsson, S. E. Armansson, M. O. Ulfarsson, H. Deborah and J. R. Sveinsson, "Creating RGB Images from Hyperspectral Images Using a Color Matching Function, " IGARSS 2020 - 2020 IEEE International Geoscience and Remote Sensing Symposium, 2020, pp. 2045-2048, doi: 10.1109/IGARSS39084.2020.9323397)을 통해 통상의 기술자가 용이하게 구현할 수 있다.In order to confirm the effectiveness of the visualization method according to one embodiment, hyperspectral images were visualized in three different ways. The first comparative visualization method may be a method of selecting and visualizing three different wavelength bands among a plurality of wavelength bands included in a hyperspectral image. The second comparative visualization method is to visualize hyperspectral images using a color matching function, and is described in non-patent reference 1 (M. Magnusson, J. Sigurdsson, S. E. Armansson, M. O. Ulfarsson, H. Deborah and J. R. Sveinsson, "Creating RGB Images from Hyperspectral Images Using a Color Matching Function, "IGARSS 2020 - 2020 IEEE International Geoscience and Remote Sensing Symposium, 2020, pp. 2045-2048, doi: 10.1109/IGARSS39084.2020.9323397) can be easily implemented by a person skilled in the art. .

이하 실험에 활용된 카메라는 FX10 Specim(400~1000nm)에 해당할 수 있다.The camera used in the experiment below may correspond to FX10 Specim (400~1000nm).

도 6a는 무말랭이에 해당하는 타깃 물체에 대한 초분광 이미지를 시각화한 실험례를 도시한다. 이미지(611)은 휴대폰 카메라 등 임의의 RGB 카메라를 통해 타깃 물체인 무말랭이를 촬영한 이미지일 수 있다.Figure 6a shows an experimental example of visualizing a hyperspectral image for a target object corresponding to dried radish. Image 611 may be an image taken of a target object, dried radish, through any RGB camera, such as a mobile phone camera.

이미지(612)는 앞서 설명된 제1 비교 시각화 방식을 통해 타깃 물체에 대한 초분광 이미지가 시각화된 이미지일 수 있다.The image 612 may be an image in which a hyperspectral image of a target object is visualized through the first comparative visualization method described above.

이미지(613)은 앞서 설명된 제2 비교 시각화 방식을 통해 타깃 물체에 대한 초분광 이미지가 시각화된 이미지일 수 있다.The image 613 may be an image in which a hyperspectral image of a target object is visualized through the second comparative visualization method described above.

이미지(614)는 일 실시예에 따른 시각화 방법이 적용되어 타깃 물체에 대한 시각화가 진행된 이미지일 수 있다.The image 614 may be an image in which the target object has been visualized by applying a visualization method according to an embodiment.

제시된 이미지(611, 612, 613, 614)를 비교해볼 때에, 본원 발명에 따른 시각화가 수행된 이미지(614)가 일반 RGB 이미지(611)과 유사도가 높고 실제 타깃 물체를 선명도 높게 시각화된 것을 확인할 수 있다.When comparing the presented images (611, 612, 613, and 614), it can be seen that the image (614) on which visualization according to the present invention was performed has a high degree of similarity to the general RGB image (611) and that the actual target object was visualized with high clarity. there is.

도 6b는 쥐포에 해당하는 타깃 물체에 대한 초분광 이미지를 시각화한 실험례를 도시한다. 이미지(621)은 휴대폰 카메라 등 임의의 RGB 카메라를 통해 타깃 물체인 쥐포를 촬영한 이미지일 수 있다.Figure 6b shows an example of an experiment visualizing a hyperspectral image for a target object corresponding to a rat gun. Image 621 may be an image taken of a rat, which is a target object, through any RGB camera, such as a mobile phone camera.

이미지(622)는 앞서 설명된 제1 비교 시각화 방식을 통해 타깃 물체에 대한 초분광 이미지가 시각화된 이미지일 수 있다.The image 622 may be an image in which a hyperspectral image of a target object is visualized through the first comparative visualization method described above.

이미지(623)은 앞서 설명된 제2 비교 시각화 방식을 통해 타깃 물체에 대한 초분광 이미지가 시각화된 이미지일 수 있다.The image 623 may be an image in which a hyperspectral image of a target object is visualized through the second comparative visualization method described above.

이미지(624)는 일 실시예에 따른 시각화 방법이 적용되어 타깃 물체에 대한 시각화가 진행된 이미지일 수 있다.The image 624 may be an image in which the target object has been visualized by applying a visualization method according to an embodiment.

제시된 이미지(621, 622, 623, 624)를 비교해볼 때에, 본원 발명에 따른 시각화가 수행된 이미지(624)가 일반 RGB 이미지(621)와 유사도가 높고 실제 타깃 물체를 선명도 높게 시각화된 것을 확인할 수 있다. When comparing the presented images (621, 622, 623, 624), it can be seen that the image (624) on which visualization according to the present invention was performed has a high degree of similarity to the general RGB image (621) and that the actual target object was visualized with high clarity. there is.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The device described above may be implemented with hardware components, software components, and/or a combination of hardware components and software components. For example, devices and components described in embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA), etc. , may be implemented using one or more general-purpose or special-purpose computers, such as a programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. A processing device may execute an operating system (OS) and one or more software applications that run on the operating system. Additionally, a processing device may access, store, manipulate, process, and generate data in response to the execution of software. For ease of understanding, a single processing device may be described as being used; however, those skilled in the art will understand that a processing device includes multiple processing elements and/or multiple types of processing elements. It can be seen that it may include. For example, a processing device may include a plurality of processors or one processor and one controller. Additionally, other processing configurations, such as parallel processors, are possible.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of these, which may configure a processing unit to operate as desired, or may be processed independently or collectively. You can command the device. Software and/or data may be used on any type of machine, component, physical device, virtual equipment, computer storage medium or device to be interpreted by or to provide instructions or data to a processing device. , or may be permanently or temporarily embodied in a transmitted signal wave. Software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer-readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc., singly or in combination. Program instructions recorded on the medium may be specially designed and configured for the embodiment or may be known and available to those skilled in the art of computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -Includes optical media (magneto-optical media) and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, etc. Examples of program instructions include machine language code, such as that produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter, etc. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with limited examples and drawings, various modifications and variations can be made by those skilled in the art from the above description. For example, the described techniques are performed in a different order than the described method, and/or components of the described system, structure, device, circuit, etc. are combined or combined in a different form than the described method, or other components are used. Alternatively, appropriate results may be achieved even if substituted or substituted by an equivalent.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents of the claims also fall within the scope of the claims described below.

Claims (5)

뉴럴 네트워크 기반 모델을 이용하여 초분광 이미지를 시각화하는 장치에 있어서,
초분광 이미지에 해당하는 제1 이미지를 수신하는 수신기; 및
프로세서
를 포함하고,
상기 프로세서는,
상기 제1 이미지의 각 픽셀에 대한 각각의 파장 밴드의 세기 정보를 포함하는 원본 데이터를 추출하고,
상기 원본 데이터 및 미리 학습된 뉴럴 네트워크 기반 모델에 기초하여 상기 제1 이미지에 대응하는 RGB 이미지를 생성하기 픽셀값을 포함하는 예측 데이터를 생성하고,
상기 생성된 예측 데이터에 기초하여 상기 제1 이미지를 시각화하고,
상기 미리 학습된 뉴럴 네트워크 기반 모델은,
상기 제1 이미지보다 적은 수의 파장 밴드를 포함하는 제2 이미지를 입력으로 하여 상기 제2 이미지에 대응되는 RGB 이미지를 생성하기 위한 예측 데이터를 출력하도록 미리 학습되고,
상기 프로세서는,
상기 제1 이미지의 파장 밴드에 대한 보간을 통해 상기 제2 이미지의 파장 밴드 대응되는 세기 정보를 포함하는 전처리 데이터를 생성하고,
상기 전처리 데이터를 상기 뉴럴 네트워크 기반 모델에 입력함으로써, 상기 예측 데이터를 생성하고,
상기 뉴럴 네트워크 기반 모델은,
상기 제2 이미지의 파장 밴드 중 가시광선 영역에 대응되는 파장 밴드를 입력으로 하여 상기 RGB 이미지를 생성하기 위한 상기 예측 데이터를 출력하도록 미리 학습되고,
상기 프로세서는,
상기 제2 이미지의 제2 픽셀에 포함되는 제2 파장 밴드에 대응하는 상기 전처리 데이터를 생성하는 과정에서,
상기 제2 픽셀에 대응되는 상기 제1 이미지의 제1 픽셀에 포함된 파장 밴드 중 상기 제2 파장 밴드의 파장과 유사도가 소정의 임계치 이상인 파장 밴드를 선택하고, 상기 선택된 파장 밴드에 대한 보간에 기초하여 상기 전처리 데이터를 생성하는 이미지 시각화 장치.
In a device for visualizing hyperspectral images using a neural network-based model,
A receiver that receives a first image corresponding to a hyperspectral image; and
processor
Including,
The processor,
Extract original data including intensity information of each wavelength band for each pixel of the first image,
Generating prediction data including pixel values to generate an RGB image corresponding to the first image based on the original data and a pre-trained neural network-based model,
Visualize the first image based on the generated prediction data,
The pre-trained neural network-based model is,
Learning in advance to output prediction data for generating an RGB image corresponding to the second image by using a second image including a smaller number of wavelength bands than the first image as input,
The processor,
Generate preprocessing data including intensity information corresponding to the wavelength band of the second image through interpolation of the wavelength band of the first image,
Generating the prediction data by inputting the preprocessed data into the neural network-based model,
The neural network-based model is,
Trained in advance to output the prediction data for generating the RGB image by using a wavelength band corresponding to the visible light region among the wavelength bands of the second image as input,
The processor,
In the process of generating the preprocessing data corresponding to the second wavelength band included in the second pixel of the second image,
Select a wavelength band whose similarity to the wavelength of the second wavelength band is more than a predetermined threshold among the wavelength bands included in the first pixel of the first image corresponding to the second pixel, and based on interpolation for the selected wavelength band An image visualization device that generates the preprocessed data.
삭제delete 제1항에 있어서,
상기 프로세서는,
상기 유사도가 소정의 임계치를 초과하는 파장 밴드의 경우, 보간 없이 상기 임계치를 초과하는 파장 밴드를 그대로 사용하여 상기 전처리 데이터를 생성하는, 이미지 시각화 장치.
According to paragraph 1,
The processor,
In the case of a wavelength band whose similarity exceeds a predetermined threshold, the preprocessing data is generated by using the wavelength band exceeding the threshold without interpolation.
제1항에 있어서,
상기 프로세서는,
상기 생성된 예측 데이터에 샤프닝 필터를 적용하고,
샤프닝 필터 적용 결과에 기초하여 상기 제1 이미지를 시각화하는, 이미지 시각화 장치.
According to paragraph 1,
The processor,
Apply a sharpening filter to the generated prediction data,
An image visualization device that visualizes the first image based on a sharpening filter application result.
초분광 이미지에 대한 이미지 시각화 방법에 있어서,
초분광 이미지에 해당하는 제1 이미지를 수신하는 단계;
상기 제1 이미지의 각 픽셀에 대한 각각의 파장 밴드의 세기 정보를 포함하는 원본 데이터를 추출하는 단계;
상기 원본 데이터 및 미리 학습된 뉴럴 네트워크 기반 모델에 기초하여 상기 제1 이미지에 대응하는 RGB 이미지를 생성하기 위한 예측 데이터를 생성하는 단계;
상기 생성된 예측 데이터에 기초하여 상기 제1 이미지를 시각화하는 단계
를 포함하고,
상기 미리 학습된 뉴럴 네트워크 기반 모델은,
상기 제1 이미지보다 적은 수의 파장 밴드를 포함하는 제2 이미지를 입력으로 하여 상기 제2 이미지에 대응되는 RGB 이미지를 생성하기 위한 예측 데이터를 출력하도록 미리 학습되고,
상기 예측 데이터를 생성하는 단계는,
상기 제1 이미지의 파장 밴드에 대한 보간을 통해 상기 제2 이미지의 파장 밴드 대응되는 세기 정보를 포함하는 전처리 데이터를 생성하고,
상기 전처리 데이터를 상기 뉴럴 네트워크 기반 모델에 입력함으로써, 상기 예측 데이터를 생성하고,
상기 뉴럴 네트워크 기반 모델은,
상기 제2 이미지의 파장 밴드 중 가시광선 영역에 대응되는 파장 밴드를 입력으로 하여 상기 RGB 이미지를 생성하기 위한 상기 예측 데이터를 출력하도록 미리 학습되고,
상기 제2 이미지의 제2 픽셀에 포함되는 제2 파장 밴드에 대응하는 상기 전처리 데이터를 생성하는 과정에서,
상기 제2 픽셀에 대응되는 상기 제1 이미지의 제1 픽셀에 포함된 파장 밴드 중 상기 제2 파장 밴드의 파장과 유사도가 소정의 임계치 이상인 파장 밴드를 선택하고, 상기 선택된 파장 밴드에 대한 보간에 기초하여 상기 전처리 데이터를 생성하는 이미지 시각화 방법.
In an image visualization method for a hyperspectral image,
Receiving a first image corresponding to a hyperspectral image;
extracting original data including intensity information of each wavelength band for each pixel of the first image;
Generating prediction data for generating an RGB image corresponding to the first image based on the original data and a pre-trained neural network-based model;
Visualizing the first image based on the generated prediction data
Including,
The pre-trained neural network-based model is,
Learning in advance to output prediction data for generating an RGB image corresponding to the second image by using a second image including a smaller number of wavelength bands than the first image as input,
The step of generating the prediction data is,
Generate preprocessing data including intensity information corresponding to the wavelength band of the second image through interpolation of the wavelength band of the first image,
Generating the prediction data by inputting the preprocessed data into the neural network-based model,
The neural network-based model is,
Trained in advance to output the prediction data for generating the RGB image by using a wavelength band corresponding to the visible light region among the wavelength bands of the second image as input,
In the process of generating the preprocessing data corresponding to the second wavelength band included in the second pixel of the second image,
Select a wavelength band whose similarity to the wavelength of the second wavelength band is more than a predetermined threshold among the wavelength bands included in the first pixel of the first image corresponding to the second pixel, and based on interpolation for the selected wavelength band. An image visualization method for generating the preprocessed data.
KR1020220054575A 2022-05-03 2022-05-03 Hyperspectral image visualization method and appratus using neural network KR102631631B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020220054575A KR102631631B1 (en) 2022-05-03 2022-05-03 Hyperspectral image visualization method and appratus using neural network
KR1020240007886A KR20240015120A (en) 2022-05-03 2024-01-18 Hyperspectral image visualization method and appratus using neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220054575A KR102631631B1 (en) 2022-05-03 2022-05-03 Hyperspectral image visualization method and appratus using neural network

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020240007886A Division KR20240015120A (en) 2022-05-03 2024-01-18 Hyperspectral image visualization method and appratus using neural network

Publications (2)

Publication Number Publication Date
KR20230155110A KR20230155110A (en) 2023-11-10
KR102631631B1 true KR102631631B1 (en) 2024-02-01

Family

ID=88742280

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020220054575A KR102631631B1 (en) 2022-05-03 2022-05-03 Hyperspectral image visualization method and appratus using neural network
KR1020240007886A KR20240015120A (en) 2022-05-03 2024-01-18 Hyperspectral image visualization method and appratus using neural network

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020240007886A KR20240015120A (en) 2022-05-03 2024-01-18 Hyperspectral image visualization method and appratus using neural network

Country Status (1)

Country Link
KR (2) KR102631631B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102661533B1 (en) * 2023-12-07 2024-04-26 (주)엘로이랩 Method for processing transformation of hyperspectral image data

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Danping Liao et al., "A Manifold Alignment Approach for Hyperspectral Image Visualization With Natural Color", IEEE Transactions on Geoscience and Remote Sensing Volume: 54, Issue: 6, (2016)*
Rongxin Tang et al., Supervised learning with convolutional neural networks for hyperspectral visualization", Remote Sensing Letters, (2020.02.06.)*

Also Published As

Publication number Publication date
KR20230155110A (en) 2023-11-10
KR20240015120A (en) 2024-02-02

Similar Documents

Publication Publication Date Title
Lorenzo et al. Particle swarm optimization for hyper-parameter selection in deep neural networks
US10373312B2 (en) Automated skin lesion segmentation using deep side layers
Ahmad et al. Leaf image-based plant disease identification using color and texture features
KR20240015120A (en) Hyperspectral image visualization method and appratus using neural network
KR102317992B1 (en) Product inspection method and appratus using the neural network and method of training product inspection appratus
CN111656390A (en) Image transformation for machine learning
KR102506987B1 (en) Apparatus and method of anomaly detection based on neural network using sliding window
Chakraborty et al. Feature map reduction in CNN for handwritten digit recognition
Chen et al. Highly parallelized memristive binary neural network
KR102620875B1 (en) Method and device for dcnn-based image stitching
US20230153961A1 (en) Method and apparatus with image deblurring
KR20230150150A (en) Apparatus and method for preprocessing hyperspectral image analysis deep learning model
US20230058341A1 (en) Neural network training method and apparatus using trend
Guo et al. An interpretable neural network model through piecewise linear approximation
KR102633944B1 (en) Face recognition and device using 3d lidar sensor
US20220067498A1 (en) Apparatus and method with neural network operation
KR102662997B1 (en) Hyperspectral image classification method and appratus using neural network
CN114912590A (en) Processor, method of operating the processor, and electronic device including the processor
KR102506991B1 (en) Apparatus of anomaly detection using neural network trained using rejection
KR102668317B1 (en) System for object recognition using radar signal processing
US20230143371A1 (en) Apparatus and method with neural network operation
US20240153070A1 (en) Method and device with defect detection
US20230086316A1 (en) Neural network operation method and apparatus
US11928469B2 (en) Apparatus and method with neural network operation
KR102248468B1 (en) Color coordinate providing apparatus

Legal Events

Date Code Title Description
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right