KR102292678B1 - System for classificating mental workload using eeg and method thereof - Google Patents

System for classificating mental workload using eeg and method thereof Download PDF

Info

Publication number
KR102292678B1
KR102292678B1 KR1020190136685A KR20190136685A KR102292678B1 KR 102292678 B1 KR102292678 B1 KR 102292678B1 KR 1020190136685 A KR1020190136685 A KR 1020190136685A KR 20190136685 A KR20190136685 A KR 20190136685A KR 102292678 B1 KR102292678 B1 KR 102292678B1
Authority
KR
South Korea
Prior art keywords
derived
cognitive load
level feature
level
brain cognitive
Prior art date
Application number
KR1020190136685A
Other languages
Korean (ko)
Other versions
KR20210051419A (en
Inventor
김성은
Original Assignee
한밭대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한밭대학교 산학협력단 filed Critical 한밭대학교 산학협력단
Priority to KR1020190136685A priority Critical patent/KR102292678B1/en
Publication of KR20210051419A publication Critical patent/KR20210051419A/en
Application granted granted Critical
Publication of KR102292678B1 publication Critical patent/KR102292678B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/369Electroencephalography [EEG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/725Details of waveform analysis using specific filters therefor, e.g. Kalman or adaptive filters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7253Details of waveform analysis characterised by using transforms
    • A61B5/7257Details of waveform analysis characterised by using transforms using Fourier transforms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7253Details of waveform analysis characterised by using transforms
    • A61B5/726Details of waveform analysis characterised by using transforms using Wavelet transforms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Public Health (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Medical Informatics (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Psychiatry (AREA)
  • Physiology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Neurosurgery (AREA)
  • Neurology (AREA)
  • Dermatology (AREA)
  • Fuzzy Systems (AREA)
  • Psychology (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
  • Image Analysis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

본 기술은 뇌 인지 부하 분류 시스템 및 방법이 개시된다. 본 기술의 구체적인 예에 따르면, 입력된 뇌파 신호의 스펙트럼 및 공간 정보를 포함하는 3차원 이미지의 입력 데이터에 대한 소정 수의 콘볼루션을 통해 각 레이어의 각 멀티 레벨 특징을 도출하고, 도출된 멀티 레벨 특징과 학습을 통해 최적화된 파라미터를 토대로 각 멀티 레벨 특징의 각 가중치를 도출하며, 도출된 가중치 및 멀티 레벨 특징에 대한 곱으로 각 멀티 레벨 특징의 로지트를 도출하고, 도출된 각 멀티 레벨 특징의 로지트에 분류 손실 함수를 적용하여 각 멀티 레벨 특징의 각도 손실을 연산하며, 연산된 각도 손실이 최소화된 각 멀티 레벨 특징을 완전 결합하여 입력된 뇌파 신호에 대한 뇌 인지 부하를 다수의 분류기 중 하나로 분류함에 따라, 뇌의 인지 부하의 분류 정확도를 향상시킬 수 있고, 뇌파 신호에 의거 가중치를 학습하여 최적화된 가중치를 결정함에 따라 학습 속도를 높일 수 있고, 이에 시스템의 성능을 향상시킬 수 있다.The present technology discloses a brain cognitive load classification system and method. According to a specific example of the present technology, each multi-level feature of each layer is derived through a predetermined number of convolutions on input data of a three-dimensional image including spectral and spatial information of an input EEG signal, and the derived multi-level Each weight of each multi-level feature is derived based on the parameters optimized through features and learning, and a log of each multi-level feature is derived by multiplying the derived weight and multi-level feature, and the log of each derived multi-level feature is derived. The angular loss of each multi-level feature is calculated by applying the classification loss function to Accordingly, the classification accuracy of the cognitive load of the brain can be improved, and the learning speed can be increased by determining the optimized weight by learning the weight based on the EEG signal, thereby improving the performance of the system.

Description

뇌 인지 부하 분류 시스템 및 방법{SYSTEM FOR CLASSIFICATING MENTAL WORKLOAD USING EEG AND METHOD THEREOF}SYSTEM FOR CLASSIFICATING MENTAL WORKLOAD USING EEG AND METHOD THEREOF

본 발명은 뇌 인지 부하 분류 시스템 및 방법에 관한 것으로, 더욱 상세하게는 주어진 작업에 대해 측정된 뇌파 신호의 스펙트럼 및 공간 정보를 토대로 3차원 컨볼루션 신경 네트워크(CNN) 알고리즘을 통해 뇌 인지 부하를 분류할 수 있도록 한 기술에 관한 것이다.The present invention relates to a brain cognitive load classification system and method, and more particularly, to classify brain cognitive load through a three-dimensional convolutional neural network (CNN) algorithm based on spectral and spatial information of EEG signals measured for a given task. It's about the technology that made it possible.

대부분의 CNN 알고리즘은 마지막 콘볼루션 레이어에서 추출된 심층 특징만 사용하여 분류를 수행한다. 심층 특징은 정확한 분류를 위한 필수 정보로 상위 레벨 구조 정보가 포함되고 중간 콘볼루션 레이어에서 추출된 하위 레벨 특징에도 풍부한 로컬 구조 정보가 포함되어 있다. Most CNN algorithms perform classification using only deep features extracted from the last convolutional layer. Deep features are essential information for accurate classification, and high-level structural information is included, and low-level features extracted from intermediate convolutional layers also contain rich local structural information.

이에 로컬 구조 정보는 딥러닝 성능을 향상시키기 때문에, 멀티 레벨 특징 융합 방법은 다양한 응용 분야에 적용된다. Because local structure information improves deep learning performance, the multi-level feature fusion method is applied to various applications.

그리고 다양한 응용 프로그램에 대해 이러한 로컬 구조 정보를 이용한 다단계 기능 융합 방법을 제안하고 있다. 예를 들어, 음악 자동 태깅 문제에 대해 멀티 레벨의 특징을 수집하고 수집된 멀티 레벨의 특징은 상이한 타임 스케일 특징에 활용된다.In addition, we propose a multi-step functional fusion method using this local structure information for various applications. For example, multi-level features are collected for the music auto-tagging problem, and the collected multi-level features are utilized for different time scale features.

인간의 뇌는 기능적으로 분리와 통합이라는 두 가지 속성을 가지며, 여기서 분리는 특화된 정보를 국부적으로 처리하는 국부 인지 부하이고, 통합은 전체 뇌에 걸쳐 정보의 글로벌 통합을 수행하는 글로벌 인지 부하이다. The human brain functionally has two properties: separation and integration, where separation is a local cognitive load that processes specialized information locally, and integration is a global cognitive load that performs global integration of information across the entire brain.

이러한 뇌의 인지 부하를 정확하게 나타내기 위해 국부 인지 부하를 나타내는 뇌파 신호의 로우 레벨 특징과 글로벌 인지 부하를 나타내는 뇌파 신호의 하이 레벨 특징을 분류하여야 한다.In order to accurately represent the cognitive load of the brain, it is necessary to classify the low-level characteristic of the EEG signal representing the local cognitive load and the high-level characteristic of the EEG signal representing the global cognitive load.

그러나, 기존에는 뇌파 신호에 의거 도출된 멀티 레벨 특징으로부터 인지 부하를 정확하게 분류하는 CNN 기반의 알고리즘은 전혀 없었다.However, there has been no CNN-based algorithm that accurately classifies cognitive load from multi-level features derived from EEG signals in the past.

삭제delete

한국 특허공개 제2020-0129505호(뇌과학 기반 학습 기억 방법 및 시스템 그리고 기록 매체)Korean Patent Publication No. 2020-0129505 (Neuroscience-based learning and memory method and system and recording medium)

따라서 본 발명은 CNN 기반의 멀티 레벨 특징 융합 기법을 토대로 뇌파 신호에 의거 학습 속도를 높일 수 있고, 뇌의 인지 부하의 분류 정확도를 향상시킬 수 있는 뇌 인지 부하 분류 시스템 및 방법을 제공하고자 하는 것을 목적으로 한다.Therefore, an object of the present invention is to provide a brain cognitive load classification system and method that can increase the learning speed based on the EEG signal based on the CNN-based multi-level feature fusion technique and improve the classification accuracy of the brain cognitive load. do it with

전술한 목적을 달성하기 위한 일 실시 예의 양태에 의거 뇌 인지 부하 분류 시스템은 Brain cognitive load classification system according to an aspect of an embodiment for achieving the above object

적어도 하나의 주어진 각 작업에 대해 뇌파 신호를 적어도 하나를 획득하는 데이터 수집부;a data collection unit for acquiring at least one EEG signal for at least one given task;

상기 데이터 수집부의 뇌파 신호에 대해 스펙트럼 및 공간 정보를 포함하는 3차원 이미지의 입력 데이터로 출력하는 전처리부;a pre-processing unit for outputting the EEG signal of the data collection unit as input data of a three-dimensional image including spectral and spatial information;

상기 전처리부의 입력 데이터에 대해 학습하여 최적화된 리스케일링 파라미터, 가중치, 바이어스 파라미터, 히든 레이어 파라미터, 및 분류기를 출력하는 학습부; 및a learning unit that learns the input data of the preprocessor and outputs an optimized rescaling parameter, a weight, a bias parameter, a hidden layer parameter, and a classifier; and

상기 최적화된 리스케일링 파라미터, 가중치, 및 분류기와 상기 전처리부의 입력 데이터를 토대로 3차원 컨볼루션 신경망(CNN) 알고리즘을 수행하여 뇌 인지 부하를 다수의 분류기 중 하나에 분류하는 CNN 수행부를 포함할 수 있다.The optimized rescaling parameter, the weight, and the CNN performing unit for classifying the brain cognitive load into one of a plurality of classifiers by performing a three-dimensional convolutional neural network (CNN) algorithm based on the input data of the classifier and the preprocessor. .

바람직하게 상기 뇌 인지 부하의 분류는 하나의 레벨로 출력될 수 있다.Preferably, the classification of the brain cognitive load may be output as one level.

바람직하게 상기 전처리부는,Preferably, the pre-processing unit,

획득된 소정 주파수 범위의 진동 형태의 뇌파 신호에서 필터링을 통해 노이즈 성분을 제거하고 신호원 국지화 (source localization)를 통해 단일 소스의 신호로 복구하는 필터모듈;a filter module that removes noise components from the acquired EEG signal in the form of vibration in a predetermined frequency range through filtering and restores it to a single source signal through source localization;

상기 시계열의 단일 소스의 뇌파 신호를 고속 퓨리에 변환 및 웨이블릿을 사용하여 기 정해진 주파수 범위의 스펙트럼 전력의 밀도를 출력하는 추정모듈; an estimation module for outputting a density of spectral power in a predetermined frequency range using a fast Fourier transform and wavelet on the EEG signal of the single source of the time series;

중심점에서의 비례적으로 보정된 거리에 전극이 있다는 정의에 의해 방위각 등거리 투영법(azimuthal equidistant projection)을 적용하여 3차원 전극을 2차원 이미지로 변환하여 뇌파 신호의 공간 정보를 획득하는 매핑모듈; 및A mapping module for obtaining spatial information of an EEG signal by converting a three-dimensional electrode into a two-dimensional image by applying an azimuthal equidistant projection by definition that an electrode is located at a proportionally corrected distance from the central point; and

각 공간 별 해당 전극의 스펙트럼 전력에 대해 3차 스플라인 보간법(Cubic Spline Interpolation)을 이용하여 전극과 전극 사이의 빈 공간의 스펙트럼 전력을 보간하여 스펙트럼 및 공간 정보를 포함하는 3차원 이미지의 입력 데이터를 출력하는 보간모듈을 포함할 수 있다.Outputs input data of a three-dimensional image including spectrum and spatial information by interpolating the spectral power of the empty space between the electrode and the electrode using cubic spline interpolation for the spectral power of the corresponding electrode in each space It may include an interpolation module that

바람직하게 상기 CNN 수행부는,Preferably, the CNN performing unit,

소정 수 콘볼루션 계층과 폴링 계층과 완전 연결 계층을 포함하되,A predetermined number of convolutional layers, polling layers, and fully connected layers,

소정 수의 콘볼루션 계층은,A certain number of convolutional layers is

3차원 이미지의 입력 데이터에 대해 지수 선형 단위(Exponential Linear Unit)에 의거 활성화하여 소정 수의 멀티 레벨 특징을 포함하는 레이어를 도출하도록 구비될 수 있고,It may be provided to derive a layer including a predetermined number of multi-level features by activation based on an exponential linear unit for input data of a three-dimensional image,

폴링 계층은,The polling layer is

소정 수의 레이어의 중 로우 레벨 특징을 나타내는 일부 레이어에 대한 평균 폴링 및 최대 폴링을 적용하여 각 채널 별 평균 및 최대 폴링 특징으로 출력하도록 구비될 수 있고,It may be provided to apply average polling and maximum polling to some layers representing medium and low-level features of a predetermined number of layers to output the average and maximum polling features for each channel,

상기 완전 연결 계층은,The fully connected layer is

상기 각 멀티 레벨 특징과 각 분류기의 곱으로 도출된 멀티 레벨 특징의 로지트, 히든 레이어 파라미터, 및 바이어스 파라미터에 대한 활성화 함수를 이용하여 각 멀티 레벨 특징의 중요도를 나타내는 각 가중치를 도출한 다음Each weight representing the importance of each multi-level feature is derived using the activation function for the log of the multi-level feature derived from the product of each multi-level feature and each classifier, the hidden layer parameter, and the bias parameter.

상기 도출된 각 가중치와 멀티 레벨 특징의 로지트에 대한 기 정해진 활성화 함수값 및 리스케일링 파라미터의 곱의 합으로 뇌 인지 부하를 추정하고 추정된 뇌 인지 부하를 기 정해진 다수의 분류기 중 하나에 분류하도록 구비될 수 있다.Estimate the brain cognitive load by the sum of the product of each of the derived weights and the predetermined activation function value and the rescaling parameter for the logit of the multi-level feature, and classify the estimated brain cognitive load into one of a plurality of predetermined classifiers can be

바람직하게 상기 학습부는Preferably, the learning unit

각 멀티 레벨 특징의 로지트에 대한 분류 손실 함수로부터 멀티 레벨 특징의 각도 손실을 도출하고,Derive the angular loss of the multi-level feature from the classification loss function for the log of each multi-level feature,

도출된 각도 손실의 최소화 해로 최적화된 각 멀티 레벨 특징의 각 가중치를 도출하여 3차원 CNN 수행부로 전달하도록 구비될 수 있다. It may be provided to derive each weight of each multi-level feature optimized as a minimized solution of the derived angle loss and deliver it to the 3D CNN execution unit.

바람직하게 상기 각도 손실의 최소화 해는Preferably, the solution to minimize the angular loss is

각 멀티 레벨 특징의 각도 손실에 대한 특징 벡터의 편미분 방정식인 그래디언트 기법으로 도출하도록 구비될 수 있다.It may be provided to derive the gradient technique, which is a partial differential equation of the feature vector for the angular loss of each multi-level feature.

일 실시 예의 다른 양태에 의거 뇌 인지 부하 분류 방법은,Brain cognitive load classification method according to another aspect of an embodiment,

적어도 하나의 주어진 각 작업에 대해 뇌파 신호를 적어도 하나를 획득하는 데이터 수집 단계; a data collection step of acquiring at least one EEG signal for at least one given task;

상기 데이터 수집부의 뇌파 신호에 대해 스펙트럼 및 공간 정보를 포함하는 2차원 이미지의 입력 데이터로 출력하는 전처리 단계;a pre-processing step of outputting the EEG signal of the data collection unit as input data of a two-dimensional image including spectral and spatial information;

상기 전처리부의 입력 데이터에 대해 학습하여 최적화된 리스케일링 파라미터, 가중치, 바이어스 파라미터, 히든 레이어 파라미터, 및 분류기를 출력하는 학습단계; 및a learning step of learning the input data of the preprocessor and outputting an optimized rescaling parameter, a weight, a bias parameter, a hidden layer parameter, and a classifier; and

상기 최적화된 리스케일링 파라미터, 가중치, 및 분류기와 상기 전처리부의 스펙트럼 및 공간 정보를 토대로 3차원 컨볼루션 신경망(CNN) 알고리즘을 수행하여 뇌 인지 부하를 다수의 분류기 중 하나에 분류하는 CNN 수행 단계를 포함할 수 있다.A CNN performing step of classifying the brain cognitive load into one of a plurality of classifiers by performing a three-dimensional convolutional neural network (CNN) algorithm based on the optimized rescaling parameters, weights, and spectral and spatial information of the classifier and the preprocessor can do.

바람직하게 상기 뇌 인지 부하의 분류는 하나의 레벨로 출력될 수 있다.Preferably, the classification of the brain cognitive load may be output as one level.

바람직하게 상기 전처리단계는Preferably, the pretreatment step is

획득된 소정 주파수 범위의 진동 형태의 뇌파 신호에서 필터링을 통해 노이즈 성분을 제거하고 신호원 국지화 (source localization)를 통한 단일 소스의 신호로 복구하는 단계;removing a noise component through filtering from the obtained EEG signal in the form of vibration in a predetermined frequency range and restoring a signal of a single source through source localization;

상기 시계열의 단일 소스의 뇌파 신호를 고속 퓨리에 변환 및 웨이브릿을 사용하여 기 정해진 주파수 범위의 스펙트럼 전력의 밀도를 출력하는 단계;outputting a density of spectral power in a predetermined frequency range using a fast Fourier transform and wavelet of the EEG signal of the single source of the time series;

중심점에서의 비례적으로 보정된 거리에 전극이 있다는 정의에 의해 방위각 등거리 투영법(azimuthal equidistant projection)을 적용하여 3차원 전극을 2차원 이미지로 변환하여 뇌파 신호의 공간 정보를 획득하는 단계; 및obtaining spatial information of an EEG signal by converting a three-dimensional electrode into a two-dimensional image by applying an azimuthal equidistant projection according to the definition that an electrode is located at a proportionally corrected distance from the central point; and

각 공간 별 해당 전극의 스펙트럼 전력에 대해 3차 스플라인 보간법(Cubic Spline Interpolation)을 이용하여 전극과 전극 사이의 빈 공간의 스펙트럼 전력을 보간하여 스펙트럼 및 공간 정보를 포함하는 3차원 이미지의 입력 데이터를 출력하는 단계를 포함할 수 있다.Outputs input data of a three-dimensional image including spectrum and spatial information by interpolating the spectral power of the empty space between the electrode and the electrode using cubic spline interpolation for the spectral power of the corresponding electrode in each space may include the step of

바람직하게 상기 CNN 수행단계는Preferably, the CNN performing step is

소정 수 콘볼루션 계층과 폴링 계층과 완전 연결 계층을 포함하되,A predetermined number of convolutional layers, polling layers, and fully connected layers,

소정 수의 컨볼루션 계층은,A certain number of convolutional layers is

3차원 이미지의 입력 데이터에 대해 지수 선형 단위(Exponential Linear Unit)에 의거 활성화하여 소정 수의 멀티 레벨 특징으로 포함하는 레이어를 도출하도록 구비될 수 있고,It may be provided to derive a layer including a predetermined number of multi-level features by activating it based on an exponential linear unit with respect to the input data of the three-dimensional image,

폴링 계층은,The polling layer is

소정 수의 레이어 중 로우 레벨 특징을 나타내는 일부 레이어에 대한 평균 폴링 및 최대 폴링을 적용하여 각 채널 별 평균 및 최대 폴링 특징으로 출력하도록 구비될 수 있고,It may be provided to apply average polling and maximum polling to some layers exhibiting low-level features among a predetermined number of layers and output the average and maximum polling features for each channel,

상기 완전 연결 계층은,The fully connected layer is

상기 각 멀티 레벨 특징과 각 분류기의 곱으로 도출된 멀티 레벨 특징의 로지트, 히든 레이어 파라미터, 및 바이어스 파라미터에 대한 활성화 함수를 이용하여 각 멀티 레벨 특징의 중요도를 나타내는 각 가중치를 도출한 다음Each weight representing the importance of each multi-level feature is derived using the activation function for the log of the multi-level feature derived from the product of each multi-level feature and each classifier, the hidden layer parameter, and the bias parameter.

상기 도출된 각 가중치와 멀티 레벨 특징의 로지트에 대한 기 정해진 활성화 함수값 및 리스케일링 파라미터의 곱의 합으로 뇌 인지 부하를 추정하고 추정된 뇌 인지 부하를 기 정해진 다수의 분류기 중 하나에 분류하도록 구비될 수 있다.Estimate the brain cognitive load by the sum of the product of each of the derived weights and the predetermined activation function value and the rescaling parameter for the logit of the multi-level feature, and classify the estimated brain cognitive load into one of a plurality of predetermined classifiers can be

바람직하게 상기 학습 단계는Preferably, the learning step

각 멀티 레벨 특징의 로지트에 대한 분류 손실 함수로부터 멀티 레벨 특징의 각도 손실을 도출하고,Derive the angular loss of the multi-level feature from the classification loss function for the log of each multi-level feature,

도출된 각도 손실의 최소화 해로 최적화된 각 멀티 레벨 특징의 각 가중치를 도출하여 3차원 CNN 수행단계로 전달하도록 구비될 수 있다. It may be provided to derive each weight of each multi-level feature optimized as a solution for minimizing the derived angle loss and deliver it to the 3D CNN execution step.

바람직하게 상기 각도 손실의 최소화 해는Preferably, the solution to minimize the angular loss is

각 멀티 레벨 특징의 각도 손실에 대한 특징 벡터의 편미분 방정식인 그래디언트 기법으로 도출하도록 구비될 수 있다.It may be provided to derive the gradient technique, which is a partial differential equation of the feature vector for the angular loss of each multi-level feature.

일 실시 예에 따르면, 입력된 뇌파 신호의 스펙트럼 및 공간 정보를 포함하는 3차원 이미지의 입력 데이터에 대한 소정 수의 콘볼루션을 통해 각 레이어의 각 멀티 레벨 특징을 도출하고, 도출된 멀티 레벨 특징과 학습을 통해 최적화된 파라미터를 토대로 각 멀티 레벨 특징의 각 가중치를 도출하며, 도출된 가중치 및 멀티 레벨 특징에 대한 곱으로 각 멀티 레벨 특징의 로지트를 도출하고, 도출된 각 멀티 레벨 특징의 로지트에 분류 손실 함수를 적용하여 각 멀티 레벨 특징의 각도 손실을 연산하며, 연산된 각도 손실이 최소화된 각 멀티 레벨 특징을 완전 결합하여 입력된 뇌파 신호에 대한 뇌 인지 부하를 다수의 분류기 중 하나로 분류함에 따라, 뇌의 인지 부하의 분류 정확도를 향상시킬 수 있고, 뇌파 신호에 의거 가중치를 학습하여 최적화된 가중치를 결정함에 따라 학습 속도를 높일 수 있고, 이에 시스템의 성능을 향상시킬 수 있다.According to an embodiment, each multi-level feature of each layer is derived through a predetermined number of convolutions on input data of a three-dimensional image including spectral and spatial information of the input EEG signal, and the derived multi-level feature and Based on the parameters optimized through learning, each weight of each multi-level feature is derived, and the log of each multi-level feature is derived by multiplying the derived weight and multi-level feature, and classified into the derived log of each multi-level feature The angular loss of each multi-level feature is calculated by applying the loss function, and each multi-level feature with the calculated angular loss is fully combined to classify the brain cognitive load for the input EEG signal into one of a number of classifiers. The classification accuracy of the cognitive load of the brain can be improved, and the learning speed can be increased by determining the optimized weight by learning the weight based on the EEG signal, thereby improving the performance of the system.

본 명세서에서 첨부되는 다음의 도면들은 본 발명의 바람직한 실시 예를 예시하는 것이며, 후술하는 발명의 상세한 설명과 함께 본 발명의 기술사상을 더욱 이해시키는 역할을 하는 것이므로, 본 발명은 그러한 도면에 기재된 사항에만 한정되어 해석되어서는 아니된다.
도 1은 일 실시예의 뇌 인지 부하 분류 시스템의 전체 구성도이다.
도 2는 일 실시예의 주어진 작업을 보인 예시도이다.
도 3은 일 실시예의 뇌파 신호를 획득하는 전극을 보인 예시도이다.
도 4는 일 실시예의 전처리부의 세부 구성도이다.
도 5는 일 실시예의 뇌파 신호의 스펙트럼 밀도를 보인 예시도이다.
도 6은 일 실시예의 CNN 구조를 보인 예시도이다.
도 7은 일 실시예의 가중치 도출 과정을 보인 예시도이다.
도 8은 일 실시예의 각 이미지 별 가중치의 CDF를 보인 그래프이다.
The following drawings attached to this specification illustrate preferred embodiments of the present invention, and serve to further understand the technical spirit of the present invention together with the detailed description of the present invention to be described later, so the present invention is a matter described in such drawings should not be construed as being limited only to
1 is an overall configuration diagram of a brain cognitive load classification system according to an embodiment.
2 is an exemplary diagram showing a given operation of one embodiment.
3 is an exemplary diagram illustrating an electrode for acquiring an EEG signal according to an embodiment.
4 is a detailed configuration diagram of a preprocessor according to an embodiment.
5 is an exemplary diagram illustrating a spectral density of an EEG signal according to an embodiment.
6 is an exemplary diagram showing the structure of a CNN according to an embodiment.
7 is an exemplary diagram illustrating a weight derivation process according to an embodiment.
8 is a graph showing a CDF of a weight for each image according to an embodiment.

이하에서는 도면을 참조하여 본 발명의 실시예들을 보다 상세하게 설명한다.Hereinafter, embodiments of the present invention will be described in more detail with reference to the drawings.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.Advantages and features of the present invention and methods of achieving them will become apparent with reference to the embodiments described below in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only these embodiments allow the disclosure of the present invention to be complete, and common knowledge in the art to which the present invention pertains It is provided to fully inform those who have the scope of the invention, and the present invention is only defined by the scope of the claims.

본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다.Terms used in this specification will be briefly described, and the present invention will be described in detail.

본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.The terms used in the present invention have been selected as currently widely used general terms as possible while considering the functions in the present invention, but these may vary depending on the intention or precedent of a person skilled in the art, the emergence of new technology, and the like. In addition, in a specific case, there is a term arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the corresponding invention. Therefore, the term used in the present invention should be defined based on the meaning of the term and the overall content of the present invention, rather than the name of a simple term.

명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에서 사용되는 "부"라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부"는 어떤 역할들을 수행한다. 그렇지만 "부"는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부"는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다.When a part "includes" a certain element throughout the specification, this means that other elements may be further included, rather than excluding other elements, unless otherwise stated. Also, as used herein, the term “unit” refers to a hardware component such as software, FPGA, or ASIC, and “unit” performs certain roles. However, "part" is not meant to be limited to software or hardware. A “unit” may be configured to reside on an addressable storage medium and may be configured to refresh one or more processors.

따라서, 일 예로서 "부"는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부"들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부"들로 결합되거나 추가적인 구성요소들과 "부"들로 더 분리될 수 있다.Thus, by way of example, “part” includes components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, procedures, subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays and variables. The functionality provided within components and “parts” may be combined into a smaller number of components and “parts” or further divided into additional components and “parts”.

아래에서는 첨부한 도면을 참고하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략한다.Hereinafter, with reference to the accompanying drawings, embodiments of the present invention will be described in detail so that those of ordinary skill in the art can easily implement them. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description will be omitted.

일 실시 예가 적용되는 뇌 인지 부하 분류 시스템은 각각의 구성요소에 대해 임의 개를 임의의 적절한 구성으로 포함할 수도 있다. 일반적으로, 컴퓨팅 및 통신 시스템들은 광범위한 구성들로 나타나며, 도면은 본 개시의 범위를 어떤 특정 구성으로 한정하지 않는다. 도면은 본 특허 문서에서 개시된 다양한 특성들이 사용될 수 있는 하나의 동작 환경을 도시하고 있지만, 그러한 특성들은 어떤 다른 적절한 시스템에서 사용될 수도 있다.The brain cognitive load classification system to which an embodiment is applied may include arbitrary dogs in any suitable configuration for each component. In general, computing and communication systems are presented in a wide variety of configurations, and the drawings do not limit the scope of the present disclosure to any particular configuration. While the drawings illustrate one operating environment in which the various features disclosed in this patent document may be used, such features may be used in any other suitable system.

이하, 일 실시 예를 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, an embodiment will be described in detail with reference to the accompanying drawings.

일 실시 예에서 작업에 대한 뇌의 인지 부하는 뇌의 국부적인 동작을 수행하는 분리 인지 부하와 뇌의 통합 동작하는 글로벌 인지 부하를 포함하고, 각 분리 인지 부하는 뇌파 신호의 로우 레벨 특징으로 나타내며, 글로벌 인지 부하는 뇌파 신호의 상위 레벨 특징으로부터 나타낸다. In an embodiment, the cognitive load of the brain for a task includes a separate cognitive load that performs a local operation of the brain and a global cognitive load that performs an integrated operation of the brain, and each separate cognitive load is represented by a low-level characteristic of an EEG signal, Global cognitive load is expressed from high-level features of EEG signals.

이에 일 실시예는 입력된 뇌파 신호의 스펙트럼 및 공간 정보를 포함하는 2차원 이미지의 입력 데이터에 대한 소정 수의 콘볼루션을 통해 각 레이어의 각 멀티 레벨 특징을 도출하고, 도출된 멀티 레벨 특징과 학습을 통해 최적화된 파라미터를 토대로 각 멀티 레벨 특징의 각 가중치를 도출하며, 도출된 가중치 및 멀티 레벨 특징에 대한 곱으로 각 멀티 레벨 특징의 로지트를 도출하고, 도출된 각 멀티 레벨 특징의 로지트에 분류 손실 함수를 적용하여 각 멀티 레벨 특징의 각도 손실을 연산하며, 연산된 각도 손실이 최소화된 각 멀티 레벨 특징을 완전 결합하여 입력된 뇌파 신호에 대한 뇌 인지 부하를 다수의 분류기 중 하나로 분류한다. 이에 뇌 인지 부하는 세분화되어 정확하게 분류된다. Accordingly, in one embodiment, each multi-level feature of each layer is derived through a predetermined number of convolutions on input data of a two-dimensional image including spectral and spatial information of the input EEG signal, and the derived multi-level features and learning are performed. Each weight of each multi-level feature is derived based on the parameters optimized through The angular loss of each multi-level feature is calculated by applying a function, and each multi-level feature with the calculated angular loss is completely combined to classify the brain cognitive load for the input EEG signal as one of a number of classifiers. Accordingly, the brain cognitive load is subdivided and accurately classified.

도 1은 일 실시 예에 따른 뇌파 신호를 이용하여 뇌 인지 부하를 추정하기 위한 도면으로서, 도 1을 참조하면 일 실시 예의 뇌의 인지부하 분류 시스템은, 딥러닝의 일종인 콘볼루션 신경망(CNN)을 사용한 멀티레벨 특징 융합 기법을 토대로 뇌 인지 부하를 다수의 분류기 중 하나로 분류하도록 구비될 수 있으며, 이에 시스템은 데이터 수집부(110), 전처리부(120), 학습부(130), 및 3차원 CNN 수행부(140) 중 적어도 하나를 포함할 수 있다.1 is a diagram for estimating a brain cognitive load using an EEG signal according to an embodiment. Referring to FIG. 1 , the cognitive load classification system of the brain according to an embodiment is a convolutional neural network (CNN), which is a type of deep learning. It may be provided to classify the brain cognitive load into one of a plurality of classifiers based on a multi-level feature fusion technique using It may include at least one of the CNN performing unit 140 .

데이터 수집부(110)는 Sternberg에 의거 정해진 작업(Task)의 수행에 따라 측정된 뇌파 신호를 수집하는 것을 포함할 수 있다.The data collection unit 110 may include collecting EEG signals measured according to the performance of a task determined by Sternberg.

도 2는 Sternberg에 의거 기 정해진 작업(Task)을 보인 예시도이고, 도 3은 도 2의 각 자극에 대한 뇌파 신호를 검출하기 위해 두피에 설치되는 전극을 나타낸 예시도로서, 도 2 및 도 3을 참조하면, 3개의 자극 T3, A1, G7 는 소정(일 례로 0.5초) 주기로 램덤하게 순차 수행되고, 이때 각 자극에 대한 뇌파 신호(EEG: electroencephalogram)는 참가자의 두피에 설치된 소정 수(일 례로 30개)의 전극으로부터 획득된다. 이러한 뇌파 신호가 획득될 때까지 전술한 소정 수의 자극은 반복하여 순차 수행된다.2 is an exemplary view showing a task determined by Sternberg, and FIG. 3 is an exemplary view showing an electrode installed on the scalp to detect an EEG signal for each stimulus of FIG. 2, and FIGS. 2 and 3 Referring to, the three stimuli T3, A1, and G7 are randomly sequentially performed at a predetermined (for example, 0.5 second) cycle, and at this time, an electroencephalogram (EEG) for each stimulus is installed on the participant's scalp by a predetermined number (eg, an electroencephalogram). 30) electrodes. Until such an EEG signal is obtained, the above-described predetermined number of stimuli are repeatedly performed sequentially.

이 후 마지막으로 주어진 자극 G7이 완전히 사라진 다음 제공되는 자극에 대해 뇌파 신호는 일정 시간(2초) 동안 유지하기 위해, 소정 수의 각 자극은 일정 시간 동안 유지된다.After that, the last given stimulus G7 completely disappears, and then, in order to maintain the EEG signal for a given stimulus for a certain period of time (2 seconds), a predetermined number of each stimulus is maintained for a certain period of time.

이러한 자극에 대한 뇌파 신호는 소정 주파수(500Hz) 주기의 샘플링 속도로 획득된다. 추출된 뇌파 신호의 크기가 기 정해진 소정 범위를 초과하는 경우 소정 범위를 초과한 뇌파 신호는 제거되고 소정 범위 내의 뇌파 신호는 전처리부(120)로 전달된다.EEG signals for these stimuli are acquired at a sampling rate of a predetermined frequency (500 Hz) period. When the magnitude of the extracted EEG signal exceeds a predetermined range, the EEG signal exceeding the predetermined range is removed, and the EEG signal within the predetermined range is transmitted to the preprocessor 120 .

전처리부(120)는 입력된 각 전극으로부터 측정된 뇌파 신호를 스펙트럼 및 공간 정보를 포함하는 3D 이미지로 변환하는 기능을 수행한다. The preprocessor 120 converts the EEG signal measured from each input electrode into a 3D image including spectral and spatial information.

도 4는 전처리부(120)의 세부 구성을 보인 도면으로서, 전처리부(120)는 MATLAB 기반으로 수행될 수 있다. 이에 전처리부(120)는 도 4를 참조하면, 필터모듈(121), 추정모듈(123), 매핑모듈(125), 및 보간모듈(127) 중 적어도 하나를 포함할 수 있다. 4 is a view showing a detailed configuration of the pre-processing unit 120, the pre-processing unit 120 may be performed based on MATLAB. Accordingly, the preprocessor 120 may include at least one of a filter module 121 , an estimation module 123 , a mapping module 125 , and an interpolation module 127 with reference to FIG. 4 .

필터모듈(121)은 획득된 소정 주파수 범위(4Hz~30Hz)의 뇌파 신호를 소정 주파수 대역(0.5Hz~40Hz)에 대해 밴드 패스 필터링한 후 직류성분 및 노이즈 성분을 제거하고 필터링된 뇌파 신호를 소정 주파수(100Hz)로 다운 샘플링을 수행한다. The filter module 121 band-pass filters the obtained EEG signal in a predetermined frequency range (4Hz to 30Hz) for a predetermined frequency band (0.5Hz to 40Hz), then removes a DC component and a noise component, and sets the filtered EEG signal to a predetermined value. Downsampling is performed to a frequency (100 Hz).

여기서 획득된 뇌파 신호는 대뇌 피질의 뇌 활동이 반영된 신호이고, 대뇌 피질은 전두엽, 측두엽, 정수리엽, 및 후두엽을 포함한다. 이에 뇌파 신호는 각 자극에 대한 스펙트럼 전력 및 공간 특성으로 나타낼 수 있다.The EEG signal obtained here is a signal in which brain activity of the cerebral cortex is reflected, and the cerebral cortex includes a frontal lobe, a temporal lobe, a parietal lobe, and an occipital lobe. Accordingly, the EEG signal can be expressed as spectral power and spatial characteristics for each stimulus.

이러한 각 자극에 대한 스펙트럼 전력 및 공간 정보를 추출하기 위해, 다수의 소스에서 생성된 신호의 합인 뇌파 신호는 단일 전극에 의거 획득된다. 이에 중첩된 뇌파 신호에 대해 단일 소스의 신호로 복구하기 위해 라플라시안 필터링을 수행할 수 있다. In order to extract the spectral power and spatial information for each of these stimuli, an EEG signal, which is the sum of signals generated from multiple sources, is acquired based on a single electrode. Laplacian filtering may be performed to recover the superimposed EEG signal as a signal from a single source.

이에 필터모듈(121)은 직류성분 및 노이즈 성분이 제거된 뇌파 신호에 대해 라플라시안 필터링을 수행하여 각 전극

Figure 112019111269688-pat00001
의 인접된 전극
Figure 112019111269688-pat00002
에 대해 가중치의 합을 감산함으로써, 단일 소스의 뇌파 신호를 도출할 수 있으며, 단일 소스의 뇌파 신호
Figure 112019111269688-pat00003
는 다음 식1을 만족한다.Accordingly, the filter module 121 performs Laplacian filtering on the EEG signal from which the DC component and the noise component are removed, so that each electrode
Figure 112019111269688-pat00001
adjacent electrodes of
Figure 112019111269688-pat00002
By subtracting the sum of weights for , a single source EEG signal can be derived, and a single source EEG signal
Figure 112019111269688-pat00003
satisfies Equation 1 below.

[식 1][Equation 1]

Figure 112019111269688-pat00004
Figure 112019111269688-pat00004

여기서,

Figure 112019111269688-pat00005
i 번째 전극의 뇌파 신호이고,
Figure 112019111269688-pat00006
는 시점 t에서 i번째 전극과 가장 인접된 전극이며,
Figure 112019111269688-pat00007
i 번째 전극과 j 번째 전극의 역에 의해 결정된 가중치로서, 주어진 임의의 i 에 대해
Figure 112019111269688-pat00008
를 만족하도록 정규화된다.here,
Figure 112019111269688-pat00005
is the EEG signal of the i-th electrode,
Figure 112019111269688-pat00006
is the electrode closest to the i- th electrode at time t,
Figure 112019111269688-pat00007
is the weight determined by the inverse of the i- th electrode and the j- th electrode, for any given i
Figure 112019111269688-pat00008
is normalized to satisfy

여기서,

Figure 112019111269688-pat00009
는 각 전극에 대해 가장 인접된 전극 세트로 정의된다. here,
Figure 112019111269688-pat00009
is defined as the closest set of electrodes for each electrode.

또한, 라플라시안 필터링된 단일 소스의 뇌파 신호는 추정 모듈(123)로 전달된다. In addition, the Laplacian-filtered single source EEG signal is transmitted to the estimation module 123 .

추정모듈(123)은 시계열의 단일 소스의 뇌파 신호를 고속 퓨리에 변환을 사용하여 주파수 영역의 뇌파 신호로 변환하고 변환된 주파수 영역의 뇌파 신호에 대해 Welch 기법을 수행하여 소정 주파수 범위(2Hz~ 40Hz)의 스펙트럼 전력의 밀도를 출력할 수 있다. 이러한 스펙트럼 전력의 밀도는 웨이블릿 및 multitaper 방법 등 다양한 방식으로 연산될 수 있으나, 이에 한정하지 아니한다. 도 5는 각 자극에 대한 뇌파 신호의 스펙트럼 전력의 밀도를 보인 예시도이다. The estimation module 123 converts the EEG signal of a single source of the time series into an EEG signal in the frequency domain using a fast Fourier transform, and performs Welch technique on the EEG signal in the frequency domain to a predetermined frequency range (2Hz to 40Hz) We can output the density of the spectral power of . The density of the spectral power may be calculated in various ways, such as a wavelet method and a multitaper method, but is not limited thereto. 5 is an exemplary diagram showing the density of spectral power of EEG signals for each stimulus.

한편, 뇌파 신호에 대한 공간 정보를 획득하기 위해, 매핑모듈(125)은 두피의 3차원 전극을 2차원 이미지로 변환하도록 구비될 수 있다. 즉, 매핑모듈(125)는 중심점에서의 비례적으로 보정된 거리에 전극이 있다는 정의에 의해 방위각 등거리 투영법(azimuthal equidistant projection)을 적용하여 3차원 전극을 2차원 이미지로 변환할 수 있다.Meanwhile, in order to obtain spatial information about the EEG signal, the mapping module 125 may be provided to convert the 3D electrode of the scalp into a 2D image. That is, the mapping module 125 may convert the 3D electrode into a 2D image by applying an azimuthal equidistant projection by definition that the electrode is at a proportionally corrected distance from the center point.

이 후 매핑모듈(125)는 투영된 지점을 소정 크기로 분할된 영역에 맵핑한 다음 각 공간에 대한 각 주파수의 해당 전극의 뇌파 신호에 대한 스펙트럼 전력을 할당한다. Thereafter, the mapping module 125 maps the projected point to a region divided into predetermined sizes, and then allocates spectral power to the EEG signal of the corresponding electrode of each frequency for each space.

그리고, 각 공간 별 해당 전극의 스펙트럼 전력은 보간모듈(127)로 전달된다.And, the spectral power of the corresponding electrode for each space is transmitted to the interpolation module 127 .

보간모듈(127)은 각 공간 별 해당 전극의 스펙트럼 전력에 대해 3차 스플라인 보간법(Cubic Spline Interpolation)을 이용하여 전극과 전극 사이의 빈 공간의 스펙트럼 전력을 보간함에 따라 30개의 전극으로부터 획득된 각 뇌파 신호에 대해 스펙트럼 및 공간 정보를 포함하는 3차원 뇌파 이미지로 변환할 수 있다. The interpolation module 127 interpolates the spectral power of the empty space between the electrode and the electrode by using cubic spline interpolation for the spectral power of the corresponding electrode for each space, so that each EEG obtained from 30 electrodes The signal can be converted into a three-dimensional brainwave image containing spectral and spatial information.

이러한 각 뇌파 신호에 대해 스펙트럼 및 공간 정보를 포함하는 다수의 3차원 뇌파 이미지의 다수의 입력 데이터 중 소정 수의 입력 데이터는 학습 데이터로서 학습부(130)로 전달된다. A predetermined number of input data among a plurality of input data of a plurality of three-dimensional brainwave images including spectral and spatial information for each of these EEG signals is transmitted to the learning unit 130 as learning data.

학습부(130)는 학습 데이터에 대해 다수의 파라미터에 대해 최적화된 파라미터를 도출할 수 있다. 여기서, 다수의 파라미터는 리스케일링 파라미터

Figure 112019111269688-pat00010
, 가중치
Figure 112019111269688-pat00011
, 바이어스 파라미터
Figure 112019111269688-pat00012
, 히든 레이어 파라미터
Figure 112019111269688-pat00013
, 및 분류기
Figure 112019111269688-pat00014
중 적어도 하나이다.The learner 130 may derive parameters optimized for a plurality of parameters with respect to the training data. Here, a plurality of parameters are rescaling parameters
Figure 112019111269688-pat00010
, weight
Figure 112019111269688-pat00011
, bias parameter
Figure 112019111269688-pat00012
, hidden layer parameters
Figure 112019111269688-pat00013
, and classifier
Figure 112019111269688-pat00014
at least one of

또한, 학습부(130)의 최적화된 파라미터 리스케일링 파라미터

Figure 112019111269688-pat00015
, 가중치
Figure 112019111269688-pat00016
, 바이어스 파라미터
Figure 112019111269688-pat00017
, 히든 레이어 파라미터
Figure 112019111269688-pat00018
, 및 분류기
Figure 112019111269688-pat00019
와 전처리부(120)의 다수의 입력 데이터 중 학습 데이터를 제외한 나머지 입력 데이터는 테스트 데이터로 3차원 콘볼루션 신경망(3차원 CNN) 수행부(140)로 전달된다.In addition, the optimized parameter rescaling parameter of the learning unit 130
Figure 112019111269688-pat00015
, weight
Figure 112019111269688-pat00016
, bias parameter
Figure 112019111269688-pat00017
, hidden layer parameters
Figure 112019111269688-pat00018
, and classifier
Figure 112019111269688-pat00019
and the remaining input data excluding the training data among the plurality of input data of the preprocessor 120 are transmitted to the 3D convolutional neural network (3D CNN) performing unit 140 as test data.

도 6은 3차원 CNN 구조를 보인 도면으로서, 도 6을 참조하면, 3차원 CNN 수행부(140)는 뇌파 신호에 대한 스펙트럼 및 공간 정보를 학습하기 위해 3차원 커널(Kernal)을 기반으로 소정 수(바람직하게 4 개) 콘볼루션 계층(131)과 폴링 계층(135) 및 완전 연결 계층(137)을 포함하는 CNN 구조로 구비될 수 있다. 6 is a diagram showing a 3D CNN structure. Referring to FIG. 6 , the 3D CNN performing unit 140 performs a predetermined number based on a 3D kernel in order to learn spectral and spatial information for an EEG signal. (preferably four) may be provided in a CNN structure including a convolutional layer 131 , a polling layer 135 , and a fully connected layer 137 .

여기서, 콘볼루션 계층(131)의 선형 각 레이어는 지수 선형 단위(ELU: Exponential Linear Unit)에 의거 활성화되어 출력되며, 지수 선형 단위(ELU)는 다음 식 2로 나타낼 수 있다. Here, each linear layer of the convolutional layer 131 is activated and output based on an exponential linear unit (ELU), and the exponential linear unit (ELU) can be expressed by Equation 2 below.

[식 2][Equation 2]

Figure 112019111269688-pat00020
Figure 112019111269688-pat00020

일 실시 예에서 각 레이어는 지수 선형 단위에 의거 활성화되어 출력될 수 있으나, 필요에 따라 정류 선형 단위(ReLYU: Rectified Linear Unit)에 의거 활성화되어 출력될 수 있으며, 이에 한정하지 아니한다.In an embodiment, each layer may be activated and output based on an exponential linear unit, but may be activated and output based on a rectified linear unit (ReLYU) if necessary, but is not limited thereto.

여기서, β는 음의 입력 데이터

Figure 112019111269688-pat00021
에 대해 포화값을 제어하기 위한 양의 하이퍼 파라미터이고, 고정된 하이퍼 파라미터의 경우 β=1 이다.where β is negative input data
Figure 112019111269688-pat00021
It is a positive hyperparameter for controlling the saturation value for , and β=1 for a fixed hyperparameter.

도 6에 도시된 바와 같이, 다수의 Layer 1 내지 Layer 4로 구비된 콘볼루션 계층(131) 중 Layer 1 내지 Layer 3의 로우 레벨 특징은 각 Layer 1 내지 Layer 3 간을 연결하기 위해 추정되어야 하는 파라미터의 수가 크게 증가된다.As shown in FIG. 6 , the low-level characteristics of Layers 1 to 3 among the convolutional layers 131 provided with a plurality of Layers 1 to 4 are parameters to be estimated in order to connect between Layers 1 to 3, respectively. the number is greatly increased.

이에 로우 레벨 특징의 차수를 줄이기 위해 3차원 CNN 수행부(140)는 각 채널 별로 로우 레벨 특징 각각에 대해 평균 폴링 및 최대 폴링을 적용하여 각 채널 별 폴링 계층(135)를 생성하고, 생성된 각 채널 별 평균 폴링 및 최대 폴링 특징은 완전 연결 계층(137)에 공급된다.Accordingly, in order to reduce the order of the low-level features, the 3D CNN performing unit 140 applies average polling and maximum polling to each of the low-level features for each channel to generate a polling layer 135 for each channel, and each generated The average polling and maximum polling characteristics per channel are fed to the fully connected layer 137 .

여기서, 로우 레벨 특징은 뇌의 분리 인지 부하를 나타내고, 상위 레벨 특징은 뇌의 통합 인지 부하를 나타내며 일 실시 예의 3차원 CNN 수행부(140)는 평균 폴링 및 최대 폴링에 의해 상위 레벨 특징과 로우 레벨 특징을 통합하여 뇌의 인지 부하를 하나로 분류할 수 있다.Here, the low-level feature represents the separate cognitive load of the brain, the high-level feature represents the integrated cognitive load of the brain, and the 3D CNN performing unit 140 of an embodiment performs the high-level feature and the low-level feature by average polling and maximum polling. By integrating features, it is possible to classify the cognitive load of the brain.

도 7은 로우 레벨 특징과 하위 레벨 특징을 융합하여 최종 뇌의 인지부하를 하나로 분류하기 위한 가중치를 도출하는 다층 구조의 퍼셉트론의 연산 과정을 보인 도면으로서, 도 7을 참조하면, 우선 3차원 CNN 수행부(140)는 각 레이어의 출력 데이터인 각 멀티 레벨 특징을 1차원의 멀티 레벨 특징 벡터

Figure 112019111269688-pat00022
로 변환한 다음 각 멀티 레벨 특징의 로지트(Logit)을 연산한다. 여기서, 로지트(logit)는 후술될 활성화 함수인 소프트맥스(softmax) 함수 이전에 비정규화된 최종 점수를 말한다. 7 is a view showing the calculation process of a multi-layered perceptron that derives a weight for classifying the final brain cognitive load into one by fusing low-level features and low-level features. Referring to FIG. 7, first, a three-dimensional CNN is performed. The unit 140 converts each multi-level feature that is the output data of each layer into a one-dimensional multi-level feature vector.
Figure 112019111269688-pat00022
, and then calculate the logit of each multi-level feature. Here, the logit refers to the final score denormalized before the softmax function, which is an activation function to be described later.

즉, 3차원 CNN 수행부(140)는 각 멀티 레벨 특징

Figure 112019111269688-pat00023
및 각 분류기
Figure 112019111269688-pat00024
의 열에 대해 L2 정규화를 수행한 다음 각 정규화된 항을 곱하여 각 멀티 레벨 특징의 로지트
Figure 112019111269688-pat00025
을 도출한다. 이때 각 멀티 레벨 특징의 로지트
Figure 112019111269688-pat00026
는 L2 정규화를 통해 임의의 i 및 j에 대해 -1과 +1 사이의 값을 가진다. 즉, 각 멀티 레벨 특징의 로지트
Figure 112019111269688-pat00027
Figure 112019111269688-pat00028
,
Figure 112019111269688-pat00029
를 만족한다.That is, the three-dimensional CNN performing unit 140 performs each multi-level feature.
Figure 112019111269688-pat00023
and each classifier
Figure 112019111269688-pat00024
Perform L 2 regularization on the columns of , then multiply each normalized term to obtain the logit of each multilevel feature.
Figure 112019111269688-pat00025
to derive In this case, the logit of each multi-level feature
Figure 112019111269688-pat00026
has a value between -1 and +1 for any i and j through L 2 normalization. That is, the logit of each multi-level feature
Figure 112019111269688-pat00027
Is
Figure 112019111269688-pat00028
,
Figure 112019111269688-pat00029
is satisfied with

그리고, 3차원 CNN 수행부(140)는 멀티 레벨 특징의 로지트

Figure 112019111269688-pat00030
에 하나의 히든 레이어
Figure 112019111269688-pat00031
와, 바이어스
Figure 112019111269688-pat00032
및 활성화 함수
Figure 112019111269688-pat00033
를 이용하여 각 멀티 레벨 특징에 대한 가중치
Figure 112019111269688-pat00034
를 도출할 수 있다. 여기서 일 실시 예에서 활성화 함수
Figure 112019111269688-pat00035
는 Softmax 함수이다. 즉, 각 멀티 레벨 특징에 대한 가중치
Figure 112019111269688-pat00036
는 다음 식 2로 나타낼 수 있다.And, the three-dimensional CNN performing unit 140 is a log of multi-level features
Figure 112019111269688-pat00030
one hidden layer on
Figure 112019111269688-pat00031
wow, bias
Figure 112019111269688-pat00032
and activation function
Figure 112019111269688-pat00033
weights for each multi-level feature using
Figure 112019111269688-pat00034
can be derived. Here, in one embodiment, the activation function
Figure 112019111269688-pat00035
is the Softmax function. That is, the weights for each multi-level feature
Figure 112019111269688-pat00036
can be expressed by Equation 2 below.

[식 3][Equation 3]

Figure 112019111269688-pat00037
Figure 112019111269688-pat00037

여기서,

Figure 112019111269688-pat00038
는 입력값인 멀티 레벨 특징
Figure 112019111269688-pat00039
이고,
Figure 112019111269688-pat00040
는 L2 정규화된 멀티 레벨 특징이며,
Figure 112019111269688-pat00041
는 하나의 히든 레이어이며,
Figure 112019111269688-pat00042
는 바이어스 파라미터이고,
Figure 112019111269688-pat00043
는 가중치이며,
Figure 112019111269688-pat00044
는 softmax 함수이다. 여기서, 가중치
Figure 112019111269688-pat00045
는 각 멀티 레벨 특징의 중요도로 가중치
Figure 112019111269688-pat00046
의 합은 1이다.here,
Figure 112019111269688-pat00038
is the input multi-level feature
Figure 112019111269688-pat00039
ego,
Figure 112019111269688-pat00040
is the L 2 normalized multi-level feature,
Figure 112019111269688-pat00041
is one hidden layer,
Figure 112019111269688-pat00042
is the bias parameter,
Figure 112019111269688-pat00043
is the weight,
Figure 112019111269688-pat00044
is a softmax function. Here, the weight
Figure 112019111269688-pat00045
is weighted by the importance of each multi-level feature
Figure 112019111269688-pat00046
The sum of is 1.

그리고, 가중치

Figure 112019111269688-pat00047
는 바이어스 파라미터
Figure 112019111269688-pat00048
와 멀티 레벨 특징의 곱의 합과 히든 레이어
Figure 112019111269688-pat00049
에 의해 결정되며, 여기서, 바이어스 파라미터
Figure 112019111269688-pat00050
및 히든 레이어
Figure 112019111269688-pat00051
은 학습 가능한 파라미터로 학습부(130)로부터 최적화된 바이어스 파라미터 및 히든 레이어이다.and weight
Figure 112019111269688-pat00047
is the bias parameter
Figure 112019111269688-pat00048
and the sum of products of multi-level features and hidden layers
Figure 112019111269688-pat00049
is determined by , where the bias parameter
Figure 112019111269688-pat00050
and hidden layers
Figure 112019111269688-pat00051
is a learnable parameter, and is a bias parameter and a hidden layer optimized by the learning unit 130 .

그리고, 가중치

Figure 112019111269688-pat00052
는 3차원 뇌파 신호로부터 추출된 정규화된
Figure 112019111269688-pat00053
의 종속되어 적응적으로 결정된다.and weight
Figure 112019111269688-pat00052
is the normalized extracted from the 3D EEG signal.
Figure 112019111269688-pat00053
is dependent and adaptively determined.

j 번째 클래스의 인지 부하는 각 가중치가 부여된 출력값의 합으로 도출되며, j 번째 클래스의 인지 부하 추정값

Figure 112019111269688-pat00054
는 식 3으로 정의된다.The cognitive load of the j-th class is derived as the sum of each weighted output, and the cognitive load estimate of the j-th class
Figure 112019111269688-pat00054
is defined by Equation 3.

[식 4][Equation 4]

Figure 112019111269688-pat00055
Figure 112019111269688-pat00055

여기서,

Figure 112019111269688-pat00056
는 분류기
Figure 112019111269688-pat00057
의 i 번째 열로 정의되고,
Figure 112019111269688-pat00058
는 가중치
Figure 112019111269688-pat00059
의 i 번째 성분으로 정의되며,
Figure 112019111269688-pat00060
는 양의 실수를 가지는 리스케일링 파라미터이다. 리스케일링 파라미터
Figure 112019111269688-pat00061
는 네트워크 커버리지에 의해 유도된다.here,
Figure 112019111269688-pat00056
is a classifier
Figure 112019111269688-pat00057
is defined as the i-th column of
Figure 112019111269688-pat00058
is the weight
Figure 112019111269688-pat00059
is defined as the i-th component of
Figure 112019111269688-pat00060
is a rescaling parameter with a positive real number. rescaling parameters
Figure 112019111269688-pat00061
is derived by the network coverage.

이러한 상위 레벨 특징 및 하위 레벨 특징이 융합된 하나의 특징값인 인지부하 추정값

Figure 112019111269688-pat00062
은 학습부(130)로 전달되며, 이에 일 실시 예는 인지부하 추정값에 대한 학습을 통해 인지부하 추정값에 대한 분류 정확도를 향상시킬 수 있다.Cognitive load estimate, which is a single feature value fused with these high-level and low-level features
Figure 112019111269688-pat00062
is transmitted to the learning unit 130 , and according to an embodiment of the present disclosure, classification accuracy of the estimated cognitive load may be improved through learning of the estimated cognitive load.

즉, 각 멀티 레벨 특징에 대한 인지 부하 추정값으로 해당 클래스로 분류하기 위해 가중치

Figure 112019111269688-pat00063
를 도출함에 있어, 일 실시 예는 입력된 멀티 레벨 특징의 로지트는 분류기와 멀티 레벨 특징의 방향 및 크기로 분해된다. 즉,
Figure 112019111269688-pat00064
That is, the cognitive load estimate for each multi-level feature is weighted to classify it into the corresponding class.
Figure 112019111269688-pat00063
In deriving , according to an embodiment, the log of the input multi-level feature is decomposed into a classifier and the direction and magnitude of the multi-level feature. in other words,
Figure 112019111269688-pat00064

여기서,

Figure 112019111269688-pat00065
는 L2 정규화된 각 멀티레벨 특징 벡터
Figure 112019111269688-pat00066
의 놈(norm)이고, L2 정규화된 벡터의 놈은 하나이며, 분류를 위해 각도 정보는 사용된다. 그리고 각 멀티 레벨 특징의 분류 결과는 가중치의 곱으로 가중된다. 이에 멀티 레벨 특징의 각도 손실(angular loss)이 가중되어 발생되고 이러한 가중된 분류 각도 손실은 가중 계수의 문제를 해인 그래디언트 보상 방법에 의해 최소화된다. here,
Figure 112019111269688-pat00065
is L 2 each normalized multilevel feature vector
Figure 112019111269688-pat00066
is the norm of , and the norm of the L 2 normalized vector is one, and the angle information is used for classification. And the classification result of each multi-level feature is weighted by the product of weights. Accordingly, the angular loss of the multi-level feature is weighted and generated, and this weighted classification angular loss is minimized by the gradient compensation method which solves the problem of the weighting coefficient.

즉, 분류 손실 함수

Figure 112019111269688-pat00067
는 softmax 함수인 교차 엔트로피 손실 함수로 사용되고, softmax 함수는 다음 식 5로 나타낼 수 있다.i.e. the classification loss function
Figure 112019111269688-pat00067
is used as a cross-entropy loss function, which is a softmax function, and the softmax function can be expressed by Equation 5 below.

[식 5][Equation 5]

Figure 112019111269688-pat00068
Figure 112019111269688-pat00068

여기서,

Figure 112019111269688-pat00069
는 입력값인 심층 특징으로 정의되고,
Figure 112019111269688-pat00070
는 심층 특징
Figure 112019111269688-pat00071
의 인코딩된 클래스 레벨이며,
Figure 112019111269688-pat00072
는 j 번째 열의 바이어스 파라미터이며,
Figure 112019111269688-pat00073
은 분류의 클래스 수이다. 그리고 단순화하기 위해, 배치 사이즈(batch size)는 1로 설정되고,
Figure 112019111269688-pat00074
은 마지막 콘볼루션으로부터 추출되는 특징으로서, 활성화 함수 없이 네트워크의 최종 출력 특징의 로지트는
Figure 112019111269688-pat00075
로 표현될 수 있다.here,
Figure 112019111269688-pat00069
is defined as a deep feature as an input,
Figure 112019111269688-pat00070
is an in-depth feature
Figure 112019111269688-pat00071
is the encoded class level of
Figure 112019111269688-pat00072
is the bias parameter of the j-th column,
Figure 112019111269688-pat00073
is the number of classes in the classification. And for simplicity, the batch size is set to 1,
Figure 112019111269688-pat00074
is the feature extracted from the last convolution, and the logit of the final output feature of the network without an activation function is
Figure 112019111269688-pat00075
can be expressed as

그러나, 모든 멀티 레벨 특징의 로지트는

Figure 112019111269688-pat00076
로 나타낼 수 있다. 여기서, 분류 벡터
Figure 112019111269688-pat00077
와 특징 벡터
Figure 112019111269688-pat00078
는 L2 정규화된다. However, the logit of all multi-level features is
Figure 112019111269688-pat00076
can be expressed as where the classification vector
Figure 112019111269688-pat00077
with feature vector
Figure 112019111269688-pat00078
is L 2 normalized.

그리고, 임의의 i에 대해 바이어스 파라미터

Figure 112019111269688-pat00079
로 설정되면, 멀티 레벨 특징의 로지트는 다음 식 6으로 나타낼 수 있다.And, for any i, the bias parameter
Figure 112019111269688-pat00079
If set to , the logit of the multi-level feature can be expressed by Equation 6 below.

[식 6][Equation 6]

Figure 112019111269688-pat00080
Figure 112019111269688-pat00080

여기서,

Figure 112019111269688-pat00081
는 분류 벡터
Figure 112019111269688-pat00082
와 특징 벡터
Figure 112019111269688-pat00083
사이의 각도이다. 이러한 멀티 레벨 특징의 로지트는 각도
Figure 112019111269688-pat00084
로 나타낼 수 있다. 여기서 L2 정규화 추정값은 분류 벡터
Figure 112019111269688-pat00085
와 특징 벡터
Figure 112019111269688-pat00086
사이의 각
Figure 112019111269688-pat00087
에 종속된다. here,
Figure 112019111269688-pat00081
is a classification vector
Figure 112019111269688-pat00082
with feature vector
Figure 112019111269688-pat00083
is the angle between The logit of these multi-level features is the angle
Figure 112019111269688-pat00084
can be expressed as where the L 2 normalized estimate is the classification vector
Figure 112019111269688-pat00085
with feature vector
Figure 112019111269688-pat00086
angle between
Figure 112019111269688-pat00087
is dependent on

따라서, 식 6을 정리하면 멀티 레벨 특징의 각도 손실

Figure 112019111269688-pat00088
은 식 7으로 나타낼 수 있다.Therefore, rearranging Equation 6 gives the angular loss of multi-level features.
Figure 112019111269688-pat00088
can be expressed by Equation 7.

[식 7][Equation 7]

Figure 112019111269688-pat00089
Figure 112019111269688-pat00089

다음으로 멀티 레벨 특징의 중요도를 할당하기 위해 가중치

Figure 112019111269688-pat00090
와 각 멀티 레벨 특징의 로지트
Figure 112019111269688-pat00091
의 곱으로 멀티 레벨 특징의 각도 손실
Figure 112019111269688-pat00092
이 도출되며, 이에 도출된 멀티 레벨 특징의 각도 손실
Figure 112019111269688-pat00093
은 다음 식 8로 도출될 수 있다.Next, weights are used to assign importance to multi-level features.
Figure 112019111269688-pat00090
and logit of each multi-level feature
Figure 112019111269688-pat00091
angular loss of multi-level features as a product of
Figure 112019111269688-pat00092
is derived, and the angular loss of the derived multi-level feature
Figure 112019111269688-pat00093
can be derived from the following Equation 8.

[식 8][Equation 8]

Figure 112019111269688-pat00094
Figure 112019111269688-pat00094

여기서,

Figure 112019111269688-pat00095
은 멀티 레벨 특징 벡터
Figure 112019111269688-pat00096
의 로지트이고 각도 손실
Figure 112019111269688-pat00097
은 멀티 레벨 특징의 벡터
Figure 112019111269688-pat00098
의 중요도를 나타내는 가중치
Figure 112019111269688-pat00099
와 멀티 레벨 특징 벡터의 로지트
Figure 112019111269688-pat00100
의 곱에 의해 결정된다.here,
Figure 112019111269688-pat00095
is a multi-level feature vector
Figure 112019111269688-pat00096
is the logit of and the angle loss
Figure 112019111269688-pat00097
is a vector of multi-level features
Figure 112019111269688-pat00098
weight indicating the importance of
Figure 112019111269688-pat00099
and logit of multi-level feature vectors
Figure 112019111269688-pat00100
is determined by the product of

또한 각 특징 벡터와 각 분류기의 열이 L2 정규화되면, 교차 엔트로피 손실함수는 로우 바운드(하한계 :Low Bound)를 가진다. 그리고, 손실 함수는 수 천만의 반복을 통해 매우 큰 값으로 수렴하고 네트워크는 수렴하지 아니한다. 이에 일 실시 예는 이러한 문제를 해결하기 위해, 각 멀티 레벨 특징의 로지트에 리스케일링 파라미터

Figure 112019111269688-pat00101
을 곱하고 역전파 알고리즘에 의해 결정된 리스케일링 파라미터의 학습으로 로지트의 스케일을 재조정한다. 이에 최종 분류 손실 함수는 로지트의 재스케일링에 의거 얻을 수 있으며 최종 분류 손실 함수는 다음 식 9를 만족한다.Also, when each feature vector and each classifier column are L 2 normalized, the cross entropy loss function has a low bound (low bound). And, the loss function converges to a very large value through tens of millions of iterations, and the network does not converge. Accordingly, in one embodiment, in order to solve this problem, the rescaling parameter in the log of each multi-level feature is
Figure 112019111269688-pat00101
Multiply by and rescale the logit by learning the rescaling parameters determined by the backpropagation algorithm. Accordingly, the final classification loss function can be obtained by logit rescaling, and the final classification loss function satisfies Equation 9 below.

[식 9][Equation 9]

Figure 112019111269688-pat00102
Figure 112019111269688-pat00102

여기서, 리스케일링 파라미터

Figure 112019111269688-pat00103
는 학습 가능한 파라미터이다. 이에 각 멀티 레벨 특징의 분류는 각 정보에 의해 결정되고, 각 멀티 레벨 특징의 중요도는 가중치에 의해 결정된다. Here, the rescaling parameter
Figure 112019111269688-pat00103
is a learnable parameter. Accordingly, the classification of each multi-level feature is determined by each piece of information, and the importance of each multi-level feature is determined by a weight.

즉, 각 멀티 레벨 특징 벡터

Figure 112019111269688-pat00104
의 각 로지트에 가중치
Figure 112019111269688-pat00105
를 곱하고, 이에 멀티 레벨 특징의 학습 속도는 가중치
Figure 112019111269688-pat00106
에 의존된다. 즉, 가중치
Figure 112019111269688-pat00107
가 높을수록 훈련 속도는 빨라지고, 가중치
Figure 112019111269688-pat00108
가 작으면 멀티레벨 특징의 학습은 수렴되지 아니한다.That is, each multi-level feature vector
Figure 112019111269688-pat00104
weight for each log of
Figure 112019111269688-pat00105
multiplied by , and the learning rate of multi-level features is weighted
Figure 112019111269688-pat00106
depend on i.e. weight
Figure 112019111269688-pat00107
The higher the value, the faster the training speed, and the
Figure 112019111269688-pat00108
If is small, the learning of multi-level features does not converge.

이러한 문제를 해결하기 위한 식 9의 최종의 분류 손실 함수

Figure 112019111269688-pat00109
는 다음 식 10으로 정리된다.The final classification loss function of Equation 9 to solve this problem
Figure 112019111269688-pat00109
is summarized in Equation 10 below.

[식 10][Equation 10]

Figure 112019111269688-pat00110
Figure 112019111269688-pat00110

여기서, 멀티 레벨 특징

Figure 112019111269688-pat00111
에 대한 분류기
Figure 112019111269688-pat00112
의 그래디언트(gradient)는 다음 식 11로 도출될 수 있다.Here, the multi-level feature
Figure 112019111269688-pat00111
classifier for
Figure 112019111269688-pat00112
The gradient of can be derived from Equation 11 below.

[식 11][Equation 11]

Figure 112019111269688-pat00113
Figure 112019111269688-pat00113

여기서,

Figure 112019111269688-pat00114
here,
Figure 112019111269688-pat00114

여기서,

Figure 112019111269688-pat00115
는 멀티 레벨 특징
Figure 112019111269688-pat00116
,
Figure 112019111269688-pat00117
의 벡터이고,
Figure 112019111269688-pat00118
이다. here,
Figure 112019111269688-pat00115
features multi-level
Figure 112019111269688-pat00116
,
Figure 112019111269688-pat00117
is a vector of
Figure 112019111269688-pat00118
am.

여기서,

Figure 112019111269688-pat00119
의 그래디언트는 가중치
Figure 112019111269688-pat00120
에 대한 그래디언트와 특징 벡터
Figure 112019111269688-pat00121
에 대한 그래디언트로 나누어진다. 가중치
Figure 112019111269688-pat00122
에 특징 벡터
Figure 112019111269688-pat00123
를 곱하기 때문에 가중치
Figure 112019111269688-pat00124
의 학습 속도와 유사한 멀티레벨 특징
Figure 112019111269688-pat00125
의 학습 속도의 조절이 가능하다.here,
Figure 112019111269688-pat00119
The gradient of is weighted
Figure 112019111269688-pat00120
Gradients and feature vectors for
Figure 112019111269688-pat00121
is divided by the gradient for . weight
Figure 112019111269688-pat00122
in the feature vector
Figure 112019111269688-pat00123
weight because it is multiplied by
Figure 112019111269688-pat00124
Multilevel features similar to the learning rate of
Figure 112019111269688-pat00125
It is possible to control the learning rate of

즉, 가중치

Figure 112019111269688-pat00126
가 다른 가중치에 비해 극도로 작은 경우 멀티 레벨 특징의 벡터
Figure 112019111269688-pat00127
을 추출함에 있어 역전파 알고리즘 수행 과정에서 멀티레벨 특징 벡터의 학습 속도를 보상하기 위해 가중치
Figure 112019111269688-pat00128
의 역수의 곱하여 멀티 레벨 특징
Figure 112019111269688-pat00129
에 대한 그래디언트를 도출하며, 도출된 멀티 레벨 특징에 대한 그래디언트는 다음 식 13으로 나타낼 수 있다.i.e. weight
Figure 112019111269688-pat00126
A vector of multilevel features if is extremely small compared to the other weights
Figure 112019111269688-pat00127
To compensate for the learning speed of multilevel feature vectors in the process of performing the backpropagation algorithm in extracting
Figure 112019111269688-pat00128
Multi-level features by multiplying the reciprocal of
Figure 112019111269688-pat00129
A gradient is derived for , and the gradient for the derived multi-level feature can be expressed by the following Equation 13.

[식 13][Equation 13]

Figure 112019111269688-pat00130
Figure 112019111269688-pat00130

여기서, 멀티 레벨 특징의 벡터

Figure 112019111269688-pat00131
를 추출하는데 사용되는 콘볼루션 계층과 완전 연결 계층의 가중치
Figure 112019111269688-pat00132
는 그래디언트 보정에 영향을 받으며, 가중치
Figure 112019111269688-pat00133
및 분류기
Figure 112019111269688-pat00134
를 추출되는데 사용되는 히든 레이어
Figure 112019111269688-pat00135
및 바이어스 파라미터
Figure 112019111269688-pat00136
는 경사 보정에 영향을 받지 아니한다.Here, a vector of multi-level features
Figure 112019111269688-pat00131
The weights of the convolutional layer and the fully connected layer used to extract
Figure 112019111269688-pat00132
is affected by gradient correction,
Figure 112019111269688-pat00133
and classifier
Figure 112019111269688-pat00134
hidden layer used to extract
Figure 112019111269688-pat00135
and bias parameters
Figure 112019111269688-pat00136
is not affected by slope correction.

3차원 CNN 수행부(140)는 완전 결합 계층(147)에 의거 각도 손실의 최소화된 각 멀티 레벨 특징 및 가중치의 곱의 합으로 결합하여 입력된 뇌파 신호에 대해 뇌 인지 부하를 다수의 분류기 중 하나로 분류한다.The three-dimensional CNN performing unit 140 combines the sum of products of each multi-level feature and weights with minimized angular loss based on the full coupling layer 147 to convert the brain cognitive load into one of a plurality of classifiers for the input EEG signal. classify

이에 일 실시 예는, 입력된 뇌파 신호의 스펙트럼 및 공간 정보를 포함하는 2차원 이미지의 입력 데이터에 대한 소정 수의 콘볼루션을 통해 각 레이어의 각 멀티 레벨 특징을 도출하고, 도출된 멀티 레벨 특징과 학습을 통해 최적화된 파라미터를 토대로 각 멀티 레벨 특징의 각 가중치를 도출하며, 도출된 가중치 및 멀티 레벨 특징에 대한 곱으로 각 멀티 레벨 특징의 로지트를 도출하고, 도출된 각 멀티 레벨 특징의 로지트에 분류 손실 함수를 적용하여 각 멀티 레벨 특징의 각도 손실을 연산하며, 연산된 각도 손실이 최소화된 각 멀티 레벨 특징을 완전 결합하여 입력된 뇌파 신호에 대한 뇌 인지 부하를 다수의 분류기 중 하나로 분류함에 따라, 뇌파 신호에 의거 학습 속도를 높일 수 있고, 뇌의 인지 부하의 분류 정확도를 향상시킬 수 있다.Accordingly, in one embodiment, each multi-level feature of each layer is derived through a predetermined number of convolutions on input data of a two-dimensional image including spectral and spatial information of an input EEG signal, and the derived multi-level feature and Based on the parameters optimized through learning, each weight of each multi-level feature is derived, and the log of each multi-level feature is derived by multiplying the derived weight and multi-level feature, and classified into the derived log of each multi-level feature The angular loss of each multi-level feature is calculated by applying the loss function, and each multi-level feature with the calculated angular loss is fully combined to classify the brain cognitive load for the input EEG signal into one of a number of classifiers. It is possible to increase the learning speed based on the EEG signal and improve the classification accuracy of the cognitive load of the brain.

이러한 일 실시 예의 시스템의 성능(Accuracy)와 기존의 SVM, KNN, 및 멀티레벨 융합 기법의 시스템의 성능은 하기 표 1에 도시된 바와 같다.The performance (Accuracy) of the system according to this embodiment and the performance of the system of the existing SVM, KNN, and multi-level convergence technique are shown in Table 1 below.

[표 1][Table 1]

Figure 112019111269688-pat00137
Figure 112019111269688-pat00137

표 1에 따르면, 일 실시 예에 따른 시스템의 성능이 기존의 방식 시스템의 성능 보다 향상됨을 알 수 있다.According to Table 1, it can be seen that the performance of the system according to an embodiment is improved than that of the conventional system.

또한, 고정된 가중치를 가지는 기존의 멀티레벨 융합 기법에 대한 분류 정확도와 일 실시 예에 의거 도출된 가중치에 따른 멀티레벨 융합 기법에 대한 분류 정확도는 하기 표 2에 도시된 바와 같다.In addition, the classification accuracy of the existing multilevel fusion method having a fixed weight and the classification accuracy of the multilevel fusion method according to the weight derived according to an embodiment are shown in Table 2 below.

[표 2][Table 2]

Figure 112019111269688-pat00138
Figure 112019111269688-pat00138

도 8은 각 가중치

Figure 112019111269688-pat00139
별 CDF(Cumulative Distribution Function)를 보인 그래프로서, 도 8을 참조하면, 일 실시 예는 뇌파 신호에 의거 결정된 히든 레이어 파라미터
Figure 112019111269688-pat00140
과 멀티 레벨 특징
Figure 112019111269688-pat00141
의 곱으로 가중치
Figure 112019111269688-pat00142
가 도출되므로 뇌파 신호에 따라 상이한 가중치
Figure 112019111269688-pat00143
가 도출된다. 이에 도 8을 참조하면, 중간 멀티 레벨 특징
Figure 112019111269688-pat00144
,
Figure 112019111269688-pat00145
에 대한 가중치
Figure 112019111269688-pat00146
,
Figure 112019111269688-pat00147
는 주로 0과 0.05 사이에 분포되며 매우 작다. 그러나, 첫 번째 및 마지막 멀티 레벨 특징
Figure 112019111269688-pat00148
,
Figure 112019111269688-pat00149
의 가중치
Figure 112019111269688-pat00150
,
Figure 112019111269688-pat00151
는 각각 0.2와 0.8 사이에 분포되어 있으므로 상대적으로 높다는 것을 알 수 있다.8 shows each weight
Figure 112019111269688-pat00139
As a graph showing a star CDF (Cumulative Distribution Function), referring to FIG. 8 , an embodiment shows a hidden layer parameter determined based on an EEG signal.
Figure 112019111269688-pat00140
and multi-level features
Figure 112019111269688-pat00141
weighted by the product of
Figure 112019111269688-pat00142
is derived, so different weights depending on the EEG signal
Figure 112019111269688-pat00143
is derived Referring to FIG. 8, the intermediate multi-level feature
Figure 112019111269688-pat00144
,
Figure 112019111269688-pat00145
weight for
Figure 112019111269688-pat00146
,
Figure 112019111269688-pat00147
is mainly distributed between 0 and 0.05 and is very small. However, the first and last multi-level features
Figure 112019111269688-pat00148
,
Figure 112019111269688-pat00149
weight of
Figure 112019111269688-pat00150
,
Figure 112019111269688-pat00151
is distributed between 0.2 and 0.8, respectively, so it can be seen that they are relatively high.

이에 제1 콘볼루션의 레이어 Layer 1은 로우 레벨 특징을 가지며, 제4 콘볼루션의 레이어 Layer 4는 상위 레벨 특징을 가진다고 추정할 수 있다. 따라서, 뇌파 신호에 대한 최적화된 가중치

Figure 112019111269688-pat00152
를 결정함에 따라 시스템 성능이 향상된다. Accordingly, it can be estimated that layer 1 of the first convolution has a low-level feature, and layer 4 of the fourth convolution has a high-level feature. Therefore, optimized weights for EEG signals
Figure 112019111269688-pat00152
The system performance is improved by determining

즉, 일 실시 예는 분리 인지 부하인 로컬 구조와 글로벌 인지 부하인 글러벌 구조를 모두 포함하는 뇌파 신호에 대해 스펙트럼 및 공간 정보를 포함하는 3차원 이미지로 변환한 다음 3차원 콘볼루션 신경망 기반으로 각 멀티 레벨 특징을 추출하고 추출된 멀티 레벨 특징에 가중치를 곱하여 멀티 레벨 특징의 중요도를 결정하고 결정된 멀티 레벨 특징의 중요도에 따라 뇌 인지 부하를 분류한다. 이때 가중치는 뇌파 신호에 대한 학습을 통해 최적화된다. 이에 시스템의 성능이 향상되며, 기존의 다른 알고리즘에 비해 뇌 인지 부하의 분류 정확도가 더욱 향상된다. That is, one embodiment converts an EEG signal including both a local structure as a separate cognitive load and a global structure as a global cognitive load into a 3D image including spectral and spatial information, and then converts each multi By extracting the level features and multiplying the extracted multi-level features by weights, the importance of the multi-level features is determined, and the brain cognitive load is classified according to the determined importance of the multi-level features. At this time, the weights are optimized through learning about EEG signals. As a result, the performance of the system is improved, and the classification accuracy of brain cognitive load is further improved compared to other existing algorithms.

이상에서 대표적인 실시 예를 통하여 본 발명을 상세하게 설명하였으나, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 상술한 실시 예에 대하여 본 발명의 범주에서 벗어나지 않는 한도 내에서 다양한 변형이 가능함을 이해할 것이다. 그러므로 본 발명의 권리 범위는 설명한 실시 예에 국한되어 정해져서는 안 되며, 후술하는 청구범위뿐만 아니라 청구범위와 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태에 의하여 정해져야 한다. Although the present invention has been described in detail through representative embodiments above, those of ordinary skill in the art to which the present invention pertains will understand that various modifications are possible within the limits without departing from the scope of the present invention with respect to the above-described embodiments. will be. Therefore, the scope of the present invention should not be limited to the described embodiments, but should be defined by all changes or modifications derived from the claims and equivalent concepts as well as the claims to be described later.

입력된 뇌파 신호의 스펙트럼 및 공간 정보를 포함하는 3차원 이미지의 입력 데이터에 대한 소정 수의 콘볼루션을 통해 각 레이어의 각 멀티 레벨 특징을 도출하고, 도출된 멀티 레벨 특징과 학습을 통해 최적화된 파라미터를 토대로 각 멀티 레벨 특징의 각 가중치를 도출하며, 도출된 가중치 및 멀티 레벨 특징에 대한 곱으로 각 멀티 레벨 특징의 로지트를 도출하고, 도출된 각 멀티 레벨 특징의 로지트에 분류 손실 함수를 적용하여 각 멀티 레벨 특징의 각도 손실을 연산하며, 연산된 각도 손실이 최소화된 각 멀티 레벨 특징을 완전 결합하여 입력된 뇌파 신호에 대한 뇌 인지 부하를 다수의 분류기 중 하나로 분류함에 따라, 뇌의 인지 부하의 분류 정확도를 향상시킬 수 있고, 뇌파 신호에 의거 가중치를 학습하여 최적화된 가중치를 결정함에 따라 학습 속도를 높일 수 있고, 이에 시스템의 성능을 향상시킬 수 있는 뇌 인지부하 분류 시스템 및 방법에 대한 운용의 정확성 및 신뢰도 측면, 더 나아가 성능 효율 면에 매우 큰 진보를 가져올 수 있으며, 이미지 분류하는 도구의 시판 또는 영업의 가능성이 충분할 뿐만 아니라 현실적으로 명백하게 실시할 수 있는 정도이므로 산업상 이용 가능성이 있는 발명이다.Each multi-level feature of each layer is derived through a predetermined number of convolutions on input data of a three-dimensional image including spectral and spatial information of the input EEG signal, and parameters optimized through the derived multi-level features and learning Each weight of each multi-level feature is derived based on The angular loss of multi-level features is calculated, and each multi-level feature with the calculated angular loss is completely combined to classify the brain cognitive load for the input EEG signal into one of a number of classifiers. Accuracy of operation of brain cognitive load classification system and method that can improve accuracy, learn weights based on EEG signals and determine optimized weights, increase learning speed, and improve system performance It can bring very great progress in terms of reliability and performance efficiency, and it is an invention that has industrial applicability because it has a sufficient possibility of commercialization or sales of an image classification tool, as well as a degree that can be clearly implemented in reality.

Claims (12)

적어도 하나의 주어진 각 작업에 대해 뇌파 신호를 적어도 하나를 획득하는 데이터 수집부;
상기 데이터 수집부의 뇌파 신호에 대해 스펙트럼 및 공간 정보를 포함하는 3차원 이미지의 입력 데이터로 출력하는 전처리부;
상기 전처리부의 입력 데이터에 대해 학습하여 리스케일링 파라미터, 가중치, 바이어스 파라미터, 히든 레이어 파라미터, 및 분류기를 출력하는 학습부; 및
상기 리스케일링 파라미터, 가중치, 및 분류기와 상기 전처리부의 입력 데이터를 토대로 3차원 컨볼루션 신경망(CNN) 알고리즘을 수행하여 뇌 인지 부하를 다수의 분류기 중 하나에 분류하는 CNN 수행부를 포함하되,
상기 학습부는,
상기 전처리부의 3차원 이미지의 입력 데이터에 대해 지수 선형 단위(Exponential Linear Unit)에 의거 활성화하여 소정 수의 멀티 레벨 특징을 도출하고,
상기 도출된 각 멀티 레벨 특징과 각 분류기의 곱으로 도출된 멀티 레벨 특징의 로지트에 대한 분류 손실 함수로부터 멀티 레벨 특징의 각도 손실을 도출하며,
도출된 각도 손실의 최소화 해로 각 멀티 레벨 특징의 각 가중치를 도출하여 도출된 각 멀티 레벨 특징의 가중치를 상기 CNN 수행부로 전달하는 것을 특징으로 하는 뇌 인지 부하 분류 시스템.
a data collection unit for acquiring at least one EEG signal for at least one given task;
a preprocessing unit for outputting the EEG signal of the data collection unit as input data of a three-dimensional image including spectral and spatial information;
a learning unit that learns the input data of the preprocessor and outputs a rescaling parameter, a weight, a bias parameter, a hidden layer parameter, and a classifier; and
A CNN performing unit for classifying a brain cognitive load into one of a plurality of classifiers by performing a three-dimensional convolutional neural network (CNN) algorithm based on the rescaling parameters, weights, and input data of the classifier and the preprocessor,
The learning unit,
A predetermined number of multi-level features are derived by activating the input data of the three-dimensional image of the preprocessor based on an exponential linear unit,
Deriving the angular loss of the multi-level feature from the classification loss function for the log of the multi-level feature derived by the product of each of the derived multi-level features and each classifier,
Brain cognitive load classification system, characterized in that by deriving each weight of each multi-level feature as a minimized solution of the derived angle loss, and delivering the derived weight of each multi-level feature to the CNN execution unit.
제1항에 있어서, 상기 뇌 인지 부하의 분류는
하나의 레벨로 출력되는 것을 특징으로 하는 뇌 인지 부하 분류 시스템.
The method of claim 1, wherein the classification of the brain cognitive load is
Brain cognitive load classification system, characterized in that output as one level.
제1항에 있어서, 상기 전처리부는,
획득된 소정 주파수 범위의 진동 형태의 뇌파 신호에서 필터링을 통해 노이즈 성분을 제거하고 신호원 국지화 (source localization)를 통해 단일 소스의 신호로 복구하는 필터모듈;
시계열의 단일 소스의 뇌파 신호를 고속 퓨리에 변환 및 웨이브릿을 사용하여 기 정해진 주파수 범위의 스펙트럼 전력의 밀도를 출력하는 추정모듈;
중심점에서의 비례적으로 보정된 거리에 전극이 있다는 정의에 의해 방위각 등거리 투영법(azimuthal equidistant projection)을 적용하여 3차원 전극을 2차원 이미지로 변환하여 뇌파 신호의 공간 정보를 획득하는 매핑모듈; 및
각 공간 별 해당 전극의 스펙트럼 전력에 대해 3차 스플라인 보간법(Cubic Spline Interpolation)을 이용하여 전극과 전극 사이의 빈 공간의 스펙트럼 전력을 보간하여 스펙트럼 및 공간 정보를 포함하는 3차원 이미지의 입력 데이터를 출력하는 보간모듈을 포함하는 것을 특징으로 하는 뇌 인지 부하 분류 시스템.
According to claim 1, wherein the pre-processing unit,
a filter module that removes noise components through filtering from the acquired EEG signals in the form of vibrations in a predetermined frequency range and restores them to a single source signal through source localization;
an estimation module for outputting a density of spectral power in a predetermined frequency range using a fast Fourier transform and wavelet for a single source EEG signal of a time series;
A mapping module for obtaining spatial information of an EEG signal by converting a three-dimensional electrode into a two-dimensional image by applying an azimuthal equidistant projection by definition that an electrode is located at a proportionally corrected distance from the central point; and
Outputs input data of a three-dimensional image including spectrum and spatial information by interpolating the spectral power of the empty space between the electrode and the electrode using cubic spline interpolation for the spectral power of the corresponding electrode in each space Brain cognitive load classification system, characterized in that it comprises an interpolation module.
제3항에 있어서, 상기 CNN 수행부는,
소정 수 콘볼루션 계층과 폴링 계층과 완전 연결 계층을 포함하되,
소정 수의 콘볼루션 계층은,
3차원 이미지의 입력 데이터에 대해 지수 선형 단위(Exponential Linear Unit)에 의거 활성화하여 소정 수의 멀티 레벨 특징을 포함하는 레이어를 도출하도록 구비될 수 있고,
폴링 계층은,
소정 수의 레이어의 중 로우 레벨 특징을 나타내는 일부 레이어에 대한 평균 폴링 및 최대 폴링을 적용하여 각 채널 별 평균 및 최대 폴링 특징으로 출력하도록 구비될 수 있고,
상기 완전 연결 계층은,
상기 각 멀티 레벨 특징과 각 분류기의 곱으로 도출된 멀티 레벨 특징의 로지트, 히든 레이어 파라미터, 및 바이어스 파라미터에 대한 활성화 함수를 이용하여 각 멀티 레벨 특징의 중요도를 나타내는 각 가중치를 도출한 다음
상기 도출된 각 가중치와 멀티 레벨 특징의 로지트에 대한 기 정해진 활성화 함수값 및 리스케일링 파라미터의 곱의 합으로 뇌 인지 부하를 추정하고 추정된 뇌 인지 부하를 기 정해진 다수의 분류기 중 하나에 분류하도록 구비되는 것을 특징으로 하는 뇌 인지 부하 분류 시스템.
According to claim 3, wherein the CNN performing unit,
A predetermined number of convolutional layers, polling layers, and fully connected layers,
A certain number of convolutional layers is
It may be provided to derive a layer including a predetermined number of multi-level features by activation based on an exponential linear unit for input data of a three-dimensional image,
The polling layer is
It may be provided to apply average polling and maximum polling to some layers representing medium and low-level features of a predetermined number of layers to output the average and maximum polling features for each channel,
The fully connected layer is
Each weight representing the importance of each multi-level feature is derived using the activation function for the log, hidden layer parameter, and bias parameter of the multi-level feature derived from the product of each multi-level feature and each classifier, and then
Estimate the brain cognitive load by the sum of the product of each of the derived weights and the predetermined activation function value and the rescaling parameter for the logit of the multi-level feature, and classify the estimated brain cognitive load into one of a plurality of predetermined classifiers Brain cognitive load classification system, characterized in that.
삭제delete 제1항에 있어서, 상기 각도 손실의 최소화 해는
각 멀티 레벨 특징의 각도 손실에 대한 특징 벡터의 편미분 방정식인 그래디언트 기법으로 도출하도록 구비되는 것을 특징으로 하는 뇌 인지 부하 분류 시스템.
The method according to claim 1, wherein the solution to minimize the angular loss is
Brain cognitive load classification system, characterized in that it is provided to derive the gradient technique, which is a partial differential equation of the feature vector for the angular loss of each multi-level feature.
제1항의 뇌 인지 부하 분류 시스템에 의거 실행되는 뇌 인지 부하 분류 방법에 있어서,
데이터 수집부에서, 적어도 하나의 주어진 각 작업에 대해 뇌파 신호를 적어도 하나를 획득하는 데이터 수집 단계;
전처리부에서, 상기 데이터 수집부의 뇌파 신호에 대해 스펙트럼 및 공간 정보를 포함하는 2차원 이미지의 입력 데이터로 출력하는 전처리 단계;
학습부에서, 상기 전처리부의 입력 데이터에 대해 학습하여 스케일링 파라미터, 가중치, 바이어스 파라미터, 히든 레이어 파라미터, 및 분류기를 출력하는 학습단계; 및
CNN 수행부에서, 상기 리스케일링 파라미터, 가중치, 및 분류기와 상기 전처리부의 스펙트럼 및 공간 정보를 토대로 3차원 컨볼루션 신경망(CNN) 알고리즘을 수행하여 뇌 인지 부하를 다수의 분류기 중 하나에 분류하는 CNN 수행 단계를 포함하되,
상기 학습 단계는,
상기 전처리부의 3차원 이미지의 입력 데이터에 대해 지수 선형 단위(Exponential Linear Unit)에 의거 활성화하여 소정 수의 멀티 레벨 특징을 도출하고,
상기 도출된 각 멀티 레벨 특징과 각 분류기의 곱으로 도출된 멀티 레벨 특징의 로지트에 대한 분류 손실 함수로부터 멀티 레벨 특징의 각도 손실을 도출하며,
도출된 각도 손실의 최소화 해로 각 멀티 레벨 특징의 각 가중치를 도출하여 도출된 각 멀티 레벨 특징의 가중치를 상기 CNN 수행부로 전달하는 것을 특징으로 하는 뇌 인지 부하 분류 방법.
In the brain cognitive load classification method executed based on the brain cognitive load classification system of claim 1,
a data collection step of acquiring, in the data collection unit, at least one EEG signal for at least one given task;
a pre-processing step of outputting, in the pre-processing unit, input data of a two-dimensional image including spectral and spatial information with respect to the EEG signal of the data collection unit;
a learning step of, in a learning unit, learning the input data of the preprocessor and outputting a scaling parameter, a weight, a bias parameter, a hidden layer parameter, and a classifier; and
In the CNN performing unit, a 3D convolutional neural network (CNN) algorithm is performed based on the rescaling parameters, weights, and spectral and spatial information of the classifier and the preprocessor to classify the brain cognitive load into one of a plurality of classifiers. comprising steps,
The learning step is
A predetermined number of multi-level features are derived by activating the input data of the three-dimensional image of the preprocessor based on an exponential linear unit,
Deriving the angular loss of the multi-level feature from the classification loss function for the log of the multi-level feature derived by the product of each of the derived multi-level features and each classifier,
Brain cognitive load classification method, characterized in that by deriving each weight of each multi-level feature as a minimized solution of the derived angle loss, and delivering the derived weight of each multi-level feature to the CNN execution unit.
제7항에 있어서, 상기 뇌 인지 부하의 분류는
하나의 레벨로 출력되는 것을 특징으로 하는 뇌 인지 부하 분류 방법.
The method of claim 7, wherein the classification of the brain cognitive load is
Brain cognitive load classification method, characterized in that output as one level.
제7항에 있어서, 상기 전처리단계는
획득된 소정 주파수 범위의 진동 형태의 뇌파 신호에서 필터링을 통해 노이즈 성분을 제거하고 신호원 국지화 (source localization)를 통해 단일 소스의 신호로 복구하는 단계;
시계열의 단일 소스의 뇌파 신호를 고속 퓨리에 변환 및 웨이브릿을 사용하여 기 정해진 주파수 범위의 스펙트럼 전력의 밀도를 출력하는 단계;
중심점에서의 비례적으로 보정된 거리에 전극이 있다는 정의에 의해 방위각 등거리 투영법(azimuthal equidistant projection)을 적용하여 3차원 전극을 2차원 이미지로 변환하여 뇌파 신호의 공간 정보를 획득하는 단계; 및
각 공간 별 해당 전극의 스펙트럼 전력에 대해 3차 스플라인 보간법(Cubic Spline Interpolation)을 이용하여 전극과 전극 사이의 빈 공간의 스펙트럼 전력을 보간하여 스펙트럼 및 공간 정보를 포함하는 3차원 이미지의 입력 데이터를 출력하는 단계를 포함하는 것을 특징으로 하는 뇌 인지 부하 분류 방법.
The method of claim 7, wherein the pretreatment step
removing a noise component through filtering from the obtained EEG signal in the form of vibration in a predetermined frequency range and restoring a signal of a single source through source localization;
outputting a density of spectral power in a predetermined frequency range using a fast Fourier transform and wavelet of a single source EEG signal of a time series;
obtaining spatial information of an EEG signal by converting a three-dimensional electrode into a two-dimensional image by applying an azimuthal equidistant projection according to the definition that an electrode is located at a proportionally corrected distance from the central point; and
Outputs input data of a three-dimensional image including spectrum and spatial information by interpolating the spectral power of the empty space between the electrode and the electrode using cubic spline interpolation for the spectral power of the corresponding electrode in each space Brain cognitive load classification method comprising the step of.
제9항에 있어서, 상기 CNN 수행단계는
소정 수 콘볼루션 계층과 폴링 계층과 완전 연결 계층을 포함하되,
소정 수의 컨볼루션 계층은,
3차원 이미지의 입력 데이터에 대해 지수 선형 단위(Exponential Linear Unit)에 의거 활성화하여 소정 수의 멀티 레벨 특징으로 포함하는 레이어를 도출하도록 구비될 수 있고,
폴링 계층은,
소정 수의 레이어의 중 로우 레벨 특징을 나타내는 일부 레이어에 대한 평균 폴링 및 최대 폴링을 적용하여 각 채널 별 평균 및 최대 폴링 특징으로 출력하도록 구비될 수 있고,
상기 완전 연결 계층은,
상기 각 멀티 레벨 특징과 각 분류기의 곱으로 도출된 멀티 레벨 특징의 로지트, 히든 레이어 파라미터, 및 바이어스 파라미터에 대한 활성화 함수를 이용하여 각 멀티 레벨 특징의 중요도를 나타내는 각 가중치를 도출한 다음
상기 도출된 각 가중치와 멀티 레벨 특징의 로지트에 대한 기 정해진 활성화 함수값 및 리스케일링 파라미터의 곱의 합으로 뇌 인지 부하를 추정하고 추정된 뇌 인지 부하를 기 정해진 다수의 분류기 중 하나에 분류하도록 구비되는 것을 특징으로 하는 뇌 인지 부하 분류 방법.
10. The method of claim 9, wherein the CNN performing step
A predetermined number of convolutional layers, polling layers, and fully connected layers,
A certain number of convolutional layers is
It may be provided to derive a layer including a predetermined number of multi-level features by activating it based on an exponential linear unit with respect to the input data of the three-dimensional image,
The polling layer is
It may be provided to apply average polling and maximum polling to some layers representing medium and low-level features of a predetermined number of layers to output the average and maximum polling features for each channel,
The fully connected layer is
Each weight representing the importance of each multi-level feature is derived using the activation function for the log, hidden layer parameter, and bias parameter of the multi-level feature derived from the product of each multi-level feature and each classifier, and then
Estimate the brain cognitive load by the sum of the product of each of the derived weights and the predetermined activation function value and the rescaling parameter for the logit of the multi-level feature, and classify the estimated brain cognitive load into one of a plurality of predetermined classifiers Brain cognitive load classification method, characterized in that.
삭제delete 제7항에 있어서, 상기 각도 손실의 최소화 해는
각 멀티 레벨 특징의 각도 손실에 대한 특징 벡터의 편미분 방정식인 그래디언트 기법으로 도출하도록 구비되는 것을 특징으로 하는 뇌 인지 부하 분류 방법.
8. The method of claim 7, wherein the minimized solution of the angular loss is
Brain cognitive load classification method, characterized in that it is provided to derive the gradient technique, which is a partial differential equation of the feature vector for the angular loss of each multi-level feature.
KR1020190136685A 2019-10-30 2019-10-30 System for classificating mental workload using eeg and method thereof KR102292678B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190136685A KR102292678B1 (en) 2019-10-30 2019-10-30 System for classificating mental workload using eeg and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190136685A KR102292678B1 (en) 2019-10-30 2019-10-30 System for classificating mental workload using eeg and method thereof

Publications (2)

Publication Number Publication Date
KR20210051419A KR20210051419A (en) 2021-05-10
KR102292678B1 true KR102292678B1 (en) 2021-08-24

Family

ID=75917520

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190136685A KR102292678B1 (en) 2019-10-30 2019-10-30 System for classificating mental workload using eeg and method thereof

Country Status (1)

Country Link
KR (1) KR102292678B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024005259A1 (en) * 2022-06-29 2024-01-04 주식회사 뉴로그린 Eeg signal pre-processing device and method

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113627377A (en) * 2021-08-18 2021-11-09 福州大学 Cognitive radio frequency spectrum sensing method and system Based on Attention-Based CNN
CN114176607B (en) * 2021-12-27 2024-04-19 杭州电子科技大学 Electroencephalogram signal classification method based on vision transducer
CN117033638B (en) * 2023-08-23 2024-04-02 南京信息工程大学 Text emotion classification method based on EEG cognition alignment knowledge graph

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102237118B1 (en) 2019-05-09 2021-04-08 (주)해피마인드 Method, system and recording medium for learning memory based on brain science

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Amor N, etc., EEG Dynamic Source Localization using Constrained Particle Filtering. IEEE Symposium Series on Computational Intelligence. 2016, pp1-8 1부.*
Bashivan P, etc., Learning Representations from EEG with Deep Recurrent-Convolutional Neural Networks. ICLR Conference. 2016, pp1-15 1부.*
Zhang P, etc., Learning Spatial-Spectral-Temporal EEG Features With Recurrent 3D Convolutional Neural Networks. IEEE Trans. on Neural Sys. and Rehab. Engineering. Jan. 2019, Vol. 27, No. 1, pp31-42 1부*

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024005259A1 (en) * 2022-06-29 2024-01-04 주식회사 뉴로그린 Eeg signal pre-processing device and method

Also Published As

Publication number Publication date
KR20210051419A (en) 2021-05-10

Similar Documents

Publication Publication Date Title
KR102292678B1 (en) System for classificating mental workload using eeg and method thereof
Amin et al. Deep Learning for EEG motor imagery classification based on multi-layer CNNs feature fusion
Hu et al. 3D separable convolutional neural network for dynamic hand gesture recognition
Bashivan et al. Learning representations from EEG with deep recurrent-convolutional neural networks
CN110139597B (en) System and method for iterative classification using neurophysiological signals
Barachant et al. Riemannian geometry applied to BCI classification
Turnip et al. Classifying mental activities from EEG-P300 signals using adaptive neural network
Ilyas et al. A survey of analysis and classification of EEG signals for brain-computer interfaces
CN115769228A (en) Automatic neural network structure constructed by Bayesian graph exploration
Hsu Application of competitive Hopfield neural network to brain-computer interface systems
Ashokkumar et al. Implementation of deep neural networks for classifying electroencephalogram signal using fractional S‐transform for epileptic seizure detection
Shoka et al. An efficient CNN based epileptic seizures detection framework using encrypted EEG signals for secure telemedicine applications
Amin et al. Attention based Inception model for robust EEG motor imagery classification
KR20190033972A (en) Method and apparatus for an automatic artifact removal of EEG based on a deep leaning algorithm
Abbas et al. Hypo-driver: a multiview driver fatigue and distraction level detection system
Gupta et al. Supervised computer-aided diagnosis (CAD) methods for classifying Alzheimer’s disease-based neurodegenerative disorders
Ren et al. A co-training algorithm for EEG classification with biomimetic pattern recognition and sparse representation
Katthi et al. Deep canonical correlation analysis for decoding the auditory brain
CN114578967A (en) Emotion recognition method and system based on electroencephalogram signals
Al-dabag et al. EEG motor movement classification based on cross-correlation with effective channel
Chalaki et al. Epileptic seizure classification using ConvLSTM deep classifier and rotation short-time Fourier Transform
Dalhoumi et al. An adaptive accuracy-weighted ensemble for inter-subjects classification in brain-computer interfacing
Barmpas et al. BrainWave-Scattering Net: a lightweight network for EEG-based motor imagery recognition
Hsu et al. Tracking non-stationary EEG sources using adaptive online recursive independent component analysis
CN115721323A (en) Brain-computer interface signal identification method and system and electronic equipment

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant