KR102290243B1 - Classification method for Electroencephalography motor imagery - Google Patents

Classification method for Electroencephalography motor imagery Download PDF

Info

Publication number
KR102290243B1
KR102290243B1 KR1020200043455A KR20200043455A KR102290243B1 KR 102290243 B1 KR102290243 B1 KR 102290243B1 KR 1020200043455 A KR1020200043455 A KR 1020200043455A KR 20200043455 A KR20200043455 A KR 20200043455A KR 102290243 B1 KR102290243 B1 KR 102290243B1
Authority
KR
South Korea
Prior art keywords
classification
data
features
query
attention
Prior art date
Application number
KR1020200043455A
Other languages
Korean (ko)
Inventor
박상현
안시온
Original Assignee
재단법인대구경북과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인대구경북과학기술원 filed Critical 재단법인대구경북과학기술원
Priority to KR1020200043455A priority Critical patent/KR102290243B1/en
Application granted granted Critical
Publication of KR102290243B1 publication Critical patent/KR102290243B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/369Electroencephalography [EEG]
    • A61B5/377Electroencephalography [EEG] using evoked responses
    • A61B5/378Visual stimuli
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/50Prostheses not implantable in the body
    • A61F2/68Operating or control means
    • A61F2/70Operating or control means electrical
    • A61F2/72Bioelectric control, e.g. myoelectric
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/906Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks
    • G06N3/0427
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/50Prostheses not implantable in the body
    • A61F2002/5016Prostheses not implantable in the body adjustable
    • A61F2002/5036Prostheses not implantable in the body adjustable self-adjustable, e.g. self-learning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/50Prostheses not implantable in the body
    • A61F2/68Operating or control means
    • A61F2/70Operating or control means electrical
    • A61F2002/704Operating or control means electrical computer-controlled, e.g. robotic control

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Pathology (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Surgery (AREA)
  • Computing Systems (AREA)
  • Psychiatry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Epidemiology (AREA)
  • Fuzzy Systems (AREA)
  • Physiology (AREA)
  • Signal Processing (AREA)
  • Primary Health Care (AREA)
  • Cardiology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Transplantation (AREA)
  • Vascular Medicine (AREA)
  • Psychology (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

The present invention relates to an electroencephalography motor imagery classification method. The present invention relates to an electroencephalography motor imagery classification method, which is performed by at least one processor in a computing device or computing network. The method includes: an embedding step of receiving support data and query data and extracting support features and query features for classification; an attention step of calculating a classification representative feature using the support features and query features obtained in the embedding step; and a relation step of associating the classification representative feature calculated in the attention step with the query feature, and predicting a label. Therefore, it is possible to effectively perform electroencephalography motor imagery classification for a new object by using a relatively small number of data.

Description

운동 상상 뇌전도 분류 방법{Classification method for Electroencephalography motor imagery}Classification method for Electroencephalography motor imagery

본 발명은 운동 상상 뇌전도 분류방법에 관한 것으로, 더 상세하게는 소규모의 데이터를 사용하면서도 정확한 분류를 수행할 수 있는 운동 상상 뇌전도 분류 방법에 관한 것이다.The present invention relates to a motor imaginary EEG classification method, and more particularly, to a motor imaginary EEG classification method capable of performing accurate classification while using small-scale data.

통상 운동 상상 뇌전도 분류(Electroencephalography(EEG) motor imagery(MI) classification)는 뇌전도 기반 뇌-컴퓨터 인터페이스(EEG based Brain-computer interface, BCI) 중 하나로 재활로봇, 인공 신체 등 헬스케어 어플리케이션(healthcare application)의 많은 분야에서 적용되고 있다.In general, Electroencephalography (EEG) motor imagery (MI) classification is one of the EEG based Brain-computer interface (BCI). It is applied in many fields.

최근 운동 상상 뇌전도 분류(EEG MI classification)에 딥러닝 기법들이 적용되면서, 분류 성능을 크게 향상시켰다.Recently, as deep learning techniques have been applied to EEG MI classification, classification performance has been greatly improved.

예를 들어 대한민국 등록특허 10-16659739호(2016년 9월 6일 등록, 뇌파 기반의 착용형 로봇의 제어 장치 및 방법)에서는 각 뇌파 신호를 움직임 커맨드별로 분류하여 학습데이터를 생성하고, 학습하는 구성이 기재되어 있다.For example, in Republic of Korea Patent Registration No. 10-16659739 (registered on September 6, 2016, EEG-based control device and method of wearable robot), each EEG signal is classified by movement command to generate learning data and learn. This is described.

그러나 이러한 종래의 방식들은 각 대상의 변화(variance)를 고려하지 않기 때문에 학습에 사용한 대상의 데이터가 아니면 분류를 잘 수행하지 못하는 문제가 있었다. However, since these conventional methods do not consider the variance of each object, there is a problem in that classification cannot be performed well unless the data of the object used for learning is used.

이러한 문제점의 원인으로 뇌전도는 낮은 신호 대 잡음비(SNR), 제한된 공간 분해능을 나타내는 특성이 있으며, 운동 상상 분류의 복잡한 역할은 EEG 데이터의 정확한 분류 및 분석이 어렵다는데 기인한다.As the cause of these problems, electroencephalography has characteristics of low signal-to-noise ratio (SNR) and limited spatial resolution.

특히, 강력한 딥 러닝 모델은 다른 행동에 대한 대규모의 다양한 레이블링 된 데이터가 있어야 하는 문제점이 있었다.In particular, powerful deep learning models have a problem in that there must be large-scale, diversely labeled data for different behaviors.

딥러닝 기반의 종래 운동 상상(MI) 분류 방법들은 높은 성능을 보여주었으며, 종래 분류 방법의 구체적인 예를 살펴보면 다음과 같다.Conventional motion imaginary (MI) classification methods based on deep learning showed high performance, and a detailed example of the conventional classification method is as follows.

"S. U. Amin, M. Alsulaiman, G. Muhammad, M. A. Bencherif, and M. S. Hossain, “Multilevel weighted feature fusion using convolutional neural networks for EEG motor imagery classification” IEEE Access, vol. 7, pp. 18 940-18950, 2019."에는 다차원 특징을 추출하고 레이블을 예측하기 위하여 1D CNN을 적용하였다.“SU Amin, M. Alsulaiman, G. Muhammad, MA Bencherif, and MS Hossain, “Multilevel weighted feature fusion using convolutional neural networks for EEG motor imagery classification” IEEE Access, vol. 7, pp. 18 940-18950, 2019. 1D CNN was applied to extract multidimensional features and predict labels.

또한 "M. Dai, D. Zheng, R. Na, S. Wang, and S. Zhang, “EEG classification of motor imagery using a novel deep learning framework,” Sensors, vol. 19, no. 3, p. 551, 2019."에서는 STFT를 사용하여 시간 도메인 신호를 주파수 도메인으로 변환한 후, 주파수 강도에 CNN을 적용하였다.See also “M. Dai, D. Zheng, R. Na, S. Wang, and S. Zhang, “EEG classification of motor imagery using a novel deep learning framework,” Sensors, vol. 19, no. 3, p. 551 , 2019.", after converting the time domain signal to the frequency domain using STFT, applied CNN to the frequency intensity.

그리고 "R. Zhang, Q. Zong, L. Dou, and X. Zhao, “A novel hybrid deep learning scheme for four-class motor imagery classification,” Journal of neural engineering, vol. 16, no. 6, p. 066004, 2019."에는 순차적인 시간 영역 데이터를 처리하기 위하여 CNN과 장기 단기 메모리 모델(LSTM)을 모두 포함하는 네트워크를 제안하고 있다.and “R. Zhang, Q. Zong, L. Dou, and X. Zhao, “A novel hybrid deep learning scheme for four-class motor imagery classification,” Journal of neural engineering, vol. 16, no. 6, p. 066004, 2019." proposes a network including both CNN and long-term short-term memory model (LSTM) to process sequential time-domain data.

후속 연구로서, "G. Dai, J. Zhou, J. Huang, and N. Wang, “HS-CNN: a CNN with hybrid convolution scale for EEG motor imagery classification,” Journal of neural engineering, vol. 17, no. 1, p. 016025, 2020."에는 4~7Hz, 8~13Hz, 13~32Hz 주파수 대역의 대역 통과 필터를 사용하여 신호를 3개의 신호로 분리하고 필터 크기가 다른 컨벌루션 레이어에 공급하는 하이브리드 컨볼루션 스케일 CNN을 제안하였다.As a follow-up study, “G. Dai, J. Zhou, J. Huang, and N. Wang, “HS-CNN: a CNN with hybrid convolution scale for EEG motor imagery classification,” Journal of neural engineering, vol. 17, no . 1, p. 016025, 2020.", a hybrid convolution that uses bandpass filters in the frequency bands 4 to 7 Hz, 8 to 13 Hz, and 13 to 32 Hz to separate the signal into three signals and feed them to convolutional layers with different filter sizes. A solution scale CNN is proposed.

위의 연구들은 이전의 전통적인 분류 방법들에 비하여 분류 성능을 향상시켰지만, 딥러닝 방법들은 종종 대상(주제)에 대한 훈련 샘플이 제한적일 때 실패할 수 있다. Although the above studies have improved classification performance compared to previous traditional classification methods, deep learning methods can often fail when the training sample for a subject (subject) is limited.

따라서, 강력한 모델을 훈련시키기 위해서는 각각의 주제에 대한 많은 수의 훈련 샘플을 확보해야 하는 문제점이 있었다.Therefore, in order to train a robust model, there is a problem in that it is necessary to secure a large number of training samples for each subject.

상기와 같은 문제점을 감안한 본 발명이 해결하고자 하는 과제는, 상대적으로 소량의 데이터를 이용하여 학습하고, 그 학습에 따라 정확한 분류를 수행할 수 있는 분류 방법을 제공함에 있다.An object of the present invention to be solved in consideration of the above problems is to provide a classification method capable of learning using a relatively small amount of data and performing accurate classification according to the learning.

상기와 같은 기술적 과제를 해결하기 위한 본 발명 운동 상상 뇌전도 분류 방법은, 컴퓨팅 장치 또는 컴퓨팅 네트워크에서 적어도 하나의 프로세서에 의해 수행되는 운동 상상 뇌전도 분류 방법으로서, 서포트 데이터(support data)와 쿼리 데이터(query data)를 입력받아 분류를 위한 서포트 특징들과 쿼리 특징들을 추출하는 임베딩 단계와, 상기 임베딩 단계에서 획득한 상기 서포트 특징들(support features)과 쿼리 특징들(query features)을 이용하여 분류 대표 특징을 산출하는 어텐션 단계와, 상기 어텐션 단계에서 산출된 분류 대표 특징과 쿼리 특징을 연관시키고, 레이블을 예측하는 릴레이션 단계를 포함한다.The present invention motor imaginary electroencephalogram classification method for solving the above technical problem is a motor imaginary electroencephalogram classification method performed by at least one processor in a computing device or computing network, and includes support data and query data. data) and an embedding step of extracting support features and query features for classification, and classification representative features using the support features and query features obtained in the embedding step It includes an attention step of calculating, and a relation step of associating the classification representative feature calculated in the attention step with the query feature, and predicting a label.

본 발명의 실시 예에서, 상기 임베딩 단계는, 한 쌍의 서포트 데이터와 쿼리 데이터를 입력으로 하여, 컨볼루셔널 레이어들(convolutional layers)을 사용하여 분류를 위한 의미적 특징(semantic feature)을 추출하되, 뇌전도 데이터를 특정한 기준으로 분류된 주파수 대역 별로 분리하고, 분리된 주파수 대역의 데이터를 제1컨볼루션 레이어를 이용하여 특징을 얻을 수 있다.In an embodiment of the present invention, the embedding step receives a pair of support data and query data as inputs, and extracts semantic features for classification using convolutional layers. , it is possible to separate the EEG data for each frequency band classified according to a specific criterion, and obtain features of the separated frequency band data using the first convolution layer.

본 발명의 실시 예에서, 상기 제1컨볼루션 레이어는, 상기 분리된 주파 수대역의 수와 동수이며 각기 커널의 크기가 상이한 것일 수 있다.In an embodiment of the present invention, the first convolutional layer may have the same number as the number of the divided frequency bands and may have different kernel sizes.

본 발명의 실시 예에서, 상기 임베딩 단계는, 상기 컨볼루션 레이어를 사용하여 추출된 특징을 제2컨볼루션 레이어를 통해 연관시키는 과정과, 다시 동일 크기의 스트라이드(stride)와 커널을 가지는 맥스 풀링 레이어(max pooling layer)를 통과시켜, 모든 특징을 연관시킨 임베딩 특징을 획득하는 과정을 더 포함할 수 있다.In an embodiment of the present invention, the embedding step includes a process of associating features extracted using the convolutional layer through a second convolutional layer, and a max pooling layer having strides and kernels of the same size again. (max pooling layer) may further include a process of obtaining an embedding feature correlating all features.

본 발명의 실시 예에서, 상기 어텐션 단계는, 서포트 데이터의 세트 내의 중요한 신호를 판단에 주요하게 반영하기 위하여 각 서포트 데이터의 세트 신호 특징들과 쿼리 신호의 특징을 채널 방향으로 연관시켜 어텐션 스코어를 예측하는 과정과, 어텐션 스코어를 이용하여 아래의 수학식 1로 표현되는 어텐션 가중 특징을 구하는 과정과, 상기 어텐션 가중 특징과 쿼리 데이터 특징을 연관시켜 각 분류에 대하여 아래의 수학식2의 분류 대표 특징을 구하는 과정을 포함할 수 있다.In an embodiment of the present invention, the attention step predicts an attention score by associating the set signal characteristics of each support data with the query signal characteristics in the channel direction in order to mainly reflect important signals in the set of support data in the determination The process of obtaining the attention-weighted characteristic expressed by Equation 1 below using the attention score, and the classification representative characteristic of Equation 2 below for each classification by associating the attention-weighted characteristic with the query data characteristic It may include a retrieval process.

[수학식 1][Equation 1]

[수학식 2][Equation 2]

본 발명의 실시 예에서, 상기 릴레이션 단계는, 퓨-샷(few-shot) 러닝을 이용하여 관계 네트워크 학습에 의해 레이블을 예측할 수 있다.In an embodiment of the present invention, in the relation step, a label may be predicted by learning a relational network using few-shot learning.

본 발명의 실시 예에서, 상기 관계 네트워크 학습에서 가장 큰 관계 점수를 가지는 분류를 레이블로 정할 수 있다.In an embodiment of the present invention, a classification having the largest relationship score in the relationship network learning may be defined as a label.

본 발명은 상대적으로 적은 수의 데이터를 이용하여 새로운 대상에 대한 운동 상상 뇌전도 분류를 효과적으로 수행할 수 있는 효과가 있다.The present invention has the effect of effectively performing motor imaginary EEG classification for a new object using a relatively small number of data.

도 1은 본 발명 운동 상상 뇌전도 분류 방법의 흐름도이다.
도 2는 임베딩 단계의 흐름도이다.
도 3은 본 발명과 종래 분류 방법의 9회 반복 과정마다의 정확도 그래프이다.
1 is a flow chart of the present invention motor imaginary electroencephalogram classification method.
2 is a flowchart of an embedding step.
3 is an accuracy graph for each 9 iteration process of the present invention and the conventional classification method.

본 발명의 구성 및 효과를 충분히 이해하기 위하여, 첨부한 도면을 참조하여 본 발명의 바람직한 실시 예들을 설명한다. 그러나 본 발명은 이하에서 개시되는 실시 예에 한정되는 것이 아니라, 여러가지 형태로 구현될 수 있고 다양한 변경을 가할 수 있다. 단지, 본 실시 예에 대한 설명은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위하여 제공되는 것이다. 첨부된 도면에서 구성요소는 설명의 편의를 위하여 그 크기를 실제보다 확대하여 도시한 것이며, 각 구성요소의 비율은 과장되거나 축소될 수 있다.In order to fully understand the configuration and effects of the present invention, preferred embodiments of the present invention will be described with reference to the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, and may be embodied in various forms and various modifications may be made. However, the description of the present embodiment is provided so that the disclosure of the present invention is complete, and to fully inform those of ordinary skill in the art to which the present invention belongs, the scope of the invention. In the accompanying drawings, components are enlarged in size than actual for convenience of description, and ratios of each component may be exaggerated or reduced.

'제1', '제2' 등의 용어는 다양한 구성요소를 설명하는데 사용될 수 있지만, 상기 구성요소는 위 용어에 의해 한정되어서는 안 된다. 위 용어는 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용될 수 있다. 예를 들어, 본 발명의 권리범위를 벗어나지 않으면서 '제1구성요소'는 '제2구성요소'로 명명될 수 있고, 유사하게 '제2구성요소'도 '제1구성요소'로 명명될 수 있다. 또한, 단수의 표현은 문맥상 명백하게 다르게 표현하지 않는 한, 복수의 표현을 포함한다. 본 발명의 실시 예에서 사용되는 용어는 다르게 정의되지 않는 한, 해당 기술분야에서 통상의 지식을 가진 자에게 통상적으로 알려진 의미로 해석될 수 있다.Terms such as 'first' and 'second' may be used to describe various elements, but the elements should not be limited by the above terms. The above term may be used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, a 'first component' may be termed a 'second component', and similarly, a 'second component' may also be termed a 'first component'. can Also, the singular expression includes the plural expression unless the context clearly dictates otherwise. Unless otherwise defined, terms used in the embodiments of the present invention may be interpreted as meanings commonly known to those of ordinary skill in the art.

또한, 본 발명은 운동 상상 뇌전도 분류 방법에 관한 것으로, 뇌전도 데이터를 제안된 프레임워크를 이용하여 학습 및 분류하는 방법에 관한 발명이다.Also, the present invention relates to a method for classifying motor imaginary electroencephalogram, and to a method for learning and classifying electroencephalogram data using the proposed framework.

본 발명은 프레임워크를 수행하는 마이크로 프로세서 등의 프로세서와, 뇌전도 데이터가 저장되는 저장수단, 분류 및 학습 수행 시 데이터를 임시 호출할 수 있는 메모리수단, 사용자의 제어명령을 입력할 수 있는 입력수단, 분류 결과를 표시하는 표시수단을 포함하는 컴퓨팅 장치에서 수행될 수 있다.The present invention provides a processor such as a microprocessor for performing a framework, a storage means for storing EEG data, a memory means for temporarily calling data when classification and learning are performed, an input means for inputting a user's control command, It may be performed in a computing device including a display means for displaying the classification result.

이에 더하여 뇌전도 데이터를 취득하는 뇌전도 검출수단을 더 포함할 수도 있다.In addition, it may further include an electroencephalogram detecting means for acquiring electroencephalogram data.

상기 컴퓨팅 장치는 퍼스널 컴퓨터, 서버, 스마트 패드, 스마트 폰 등의 단일 기기 뿐만 아니라 뇌전도 데이터를 수집하는 단말들과, 수집된 뇌전도 데이터를 학습하고 분류하는 서버를 포함하는 네트워크 장치일 수도 있다.The computing device may be a single device, such as a personal computer, a server, a smart pad, or a smart phone, as well as a network device including terminals for collecting EEG data and a server for learning and classifying the collected EEG data.

즉, 본 발명은 단일 또는 네트워크를 구성하는 컴퓨팅 시스템을 이용하는 방법이며, 특히 프로세서에서 처리되는 과정으로 이해될 수 있다.That is, the present invention is a method using a computing system constituting a single or network, and in particular, may be understood as a process processed by a processor.

따라서 특별한 언급이 없더라도 본 발명을 이루는 각 단계의 수행 주체는 표현상의 차이가 있을 수 있으나 통상의 프로세서일 수 있다.Therefore, even if there is no special mention, the subject performing each step constituting the present invention may have a difference in expression, but may be a normal processor.

도 1은 본 발명의 바람직한 실시 예에 따른 운동 상상 뇌전도 분류 방법의 흐름도이다.1 is a flowchart of a motion imaginary electroencephalogram classification method according to a preferred embodiment of the present invention.

도 1은 앞서 설명한 프로세서에서 수행하는 프레임워크를 도시한 것으로, 본 발명의 운동 상상 뇌전도 분류 방법은 3개의 특징적인 단계(프레임워크 모듈)를 포함한다.1 shows the framework performed by the processor described above, the motor imaginary electroencephalogram classification method of the present invention includes three characteristic steps (framework module).

구체적으로, 본 발명은 임베딩 단계(embeding step(module), S10), 어텐션 단계(attention step(module), S20) 및 릴레이션 단계(relation step(module), S30)로 이루어진다.Specifically, the present invention consists of an embedding step (module), S10), an attention step (module), S20, and a relation step (module), S30).

상기 임베딩 단계(S10)는 서포트 데이터(support data)와 쿼리 데이터(query data)를 입력받아 분류를 위한 특징(feature)을 추출한다. The embedding step S10 receives support data and query data and extracts features for classification.

그 다음, 어텐션 단계(S20)에서는 임베딩 단계에서 획득한 복수의 서포트 특징들(support features)과 쿼리 특징들(query features)을 각각 연관(concatenate)시키고, 어텐션 스코어(attention score)를 예측한다.Next, in the attention step ( S20 ), a plurality of support features and query features obtained in the embedding step are respectively concatenated and an attention score is predicted.

그 다음, 어텐션 스코어를 바탕으로 복수의 서포트 특징들(support features) 각각에 대한 가중 평균(weighted average)을 구하여, 분류 대표 특징(class representative feature)를 계산한다.Then, a weighted average of each of a plurality of support features is obtained based on the attention score, and a class representative feature is calculated.

그 다음, 릴레이션 단계(S30)에서는 획득한 분류 대표 특징과 쿼리 특징을 연관시켜, 각 분류(class)에 대한 릴레이션 스코어(relation score)를 예측한다. Next, in the relation step (S30), a relation score for each class is predicted by associating the obtained classification representative feature with the query feature.

테스트 스테이지에서는 릴레이션 스코어가 가장 큰 분류를 레이블(label)로 예측한다.In the test stage, the classification with the highest relation score is predicted as a label.

이하에서는 본 발명을 이루는 각 단계별 특징에 대하여 좀 더 구체적으로 설명한다.Hereinafter, the characteristics of each step constituting the present invention will be described in more detail.

먼저, 임베딩 단계(S10)의 F(x)는 한 쌍의 서포트 데이터와 쿼리 데이터를 입력으로 하여, 컨볼루셔널 레이어들(convolutional layers)을 사용하여 분류를 위한 의미적 특징(semantic feature)을 추출한다.First, F(x) of the embedding step (S10) takes a pair of support data and query data as inputs, and extracts semantic features for classification using convolutional layers. do.

통상의 3X3 커널의 CNN 블록을 사용하는 경우, 노이즈가 심한 1차원 신호에 동일한 CNN 블록을 적용하면 유의미한 특징들을 추출하기 위한 필터들을 학습하기에 어려움이 있다.In the case of using a conventional 3X3 kernel CNN block, it is difficult to learn filters for extracting meaningful features when the same CNN block is applied to a noisy one-dimensional signal.

본 발명에서는 주파수별로 유의미한 신호 특징을 추출하고, 추출된 결과를 연관시켜 특징으로 이용하는 기법을 사용한다.In the present invention, a technique of extracting a significant signal feature for each frequency and correlating the extracted result is used as a feature.

도 2는 임베딩 단계(S10)의 흐름도이다.2 is a flowchart of the embedding step ( S10 ).

본 발명의 설명을 위하여 좌우측 및 중앙엽(C3, C4, CZ) 채널에서의 뇌전도 데이터를 예로 하였다. 좌우측 및 중앙엽(C3, C4, CZ) 채널에서 얻어진 뇌전도 데이터를 4~7Hz, 8~13Hz 및 14~32Hz로 주파수 영역을 나누어 처리한다.For the explanation of the present invention, electroencephalogram data in the left and right and central lobe (C3, C4, CZ) channels were taken as an example. EEG data obtained from the left and right and central lobe (C3, C4, CZ) channels are processed by dividing the frequency domain into 4~7Hz, 8~13Hz, and 14~32Hz.

나눠진 주파수 영역대 신호들에 대하여 컨볼루션 레이어를 통과시켜 특징을 얻는다. 즉, 데이터에 직접 컨볼루션 레이어를 적용하는 방법을 사용하지 않고, 뇌전도 데이터를 특정한 기준으로 분류된 주파수 대역 별로 분리하고, 분리된 주파수 대역의 데이터를 컨볼루션 레이어를 이용하여 특징을 얻는다.Characteristics are obtained by passing the convolutional layer for the divided frequency-domain signals. That is, without using the method of directly applying the convolutional layer to the data, the EEG data is separated for each frequency band classified according to a specific criterion, and the data of the separated frequency band is obtained using the convolution layer.

이때 C3, C4, CZ 전극에서 얻어진 데이터(x)는 4차 버터 워스 대역통과필터(butterworth bandpass filter)를 이용하여 주파수 대역 데이터(xb)로 얻어진다.At this time, data (x) obtained from the C3, C4, and CZ electrodes is obtained as frequency band data (xb) by using a fourth-order Butterworth bandpass filter.

여기서 b는 분할된 상기 주파수 영역 4~7Hz, 8-13Hz, 14-32Hz가 된다.Here, b is the divided frequency range of 4-7Hz, 8-13Hz, and 14-32Hz.

각각의 xb에 대하여 상이한 커널의 크기(45x1, 65x1, 85x1)를 가지는 3개의 컨볼루션 레이어를 사용하여 특징을 추출한다.For each xb, features are extracted using three convolutional layers having different kernel sizes (45x1, 65x1, 85x1).

이러한 과정을 통해 얻어진 3개의 특징은 C3, C4, CZ 사이에서 더 높은 레벨의 특징을 추출하기 위하여 커널의 크기가 1x3인 다른 컨볼루션 레이어를 통해 연관되어 통과된다.The three features obtained through this process are passed through another convolutional layer with a kernel size of 1x3 in order to extract higher-level features between C3, C4, and CZ.

그 다음, 다시 스트라이드(stride)가 6x1이고, 6x1의 커널 크기를 가지는 맥스 풀링 레이어(max pooling layer)를 통과시켜, 최종적으로 모든 특징을 연관시킨 임베딩 특징(z=F(x))을 얻을 수 있게 된다.Then, the stride is 6x1 and the max pooling layer is passed through a max pooling layer with a kernel size of 6x1 to finally obtain an embedding feature (z=F(x)) that relates all features. there will be

그 다음, 어텐션 단계(S20)에서는 상기 임베디드 단계(S10)에서 추출된 특징들로부터 쿼리 시그널을 예측하는데 유용한 분류 대표 특징을 구한다.Next, in the attention step (S20), a classification representative feature useful for predicting a query signal is obtained from the features extracted in the embedding step (S10).

서포트 데이터 세트는 각 레이블에 대하여 k개의 데이터를 포함한다고 하면, l-way, k-shot의 경우 lxk 개의 데이터를 포함한다. Assuming that the support data set includes k data for each label, l-way and k-shot include lxk data.

따라서 상기 임베디드 단계(S10)에서 추출된 각 데이터의 특징(f(Sij), i= 1, 2, 3, ..., l, j=1, 2, 3, ..., k)으로부터 쿼리 신호를 예측하기 위한 분류 대표 특징(f"(Sij))를 구한다.Therefore, query from the features (f(Sij), i=1, 2, 3, ..., l, j=1, 2, 3, ..., k) of each data extracted in the embedding step (S10). A classification representative feature f"(Sij) for predicting a signal is obtained.

종래에는 분류 대표 특징을 얻기 위하여 각 서포트 데이터의 시그널로부터 특징을 추출하고, 이를 엘리먼트 와이즈 섬(element wise sum)이나 평균(average)을 구하는 방법을 사용하였다.Conventionally, in order to obtain a classification representative feature, a method of extracting a feature from a signal of each support data and obtaining an element wise sum or average is used.

그러나 종래의 방법은 모든 서포트 데이터의 신호가 동등하게 분류 대표 특징에 작용하기 때문에 서포트 데이터 세트 내의 데이터 중 쿼리 시그널의 예측에 유용한 데이터를 효과적으로 이용할 수 없었다.However, the conventional method could not effectively use data useful for prediction of query signals among data in the support data set because the signals of all support data equally act on the classification representative features.

종래의 방법은 주어진 쿼리 데이터 세트가 특정 분류에 속하는 이유를 설명하기에는 쉬운 예이지만, 노이즈 데이터 세트 샘플이 서포트 데이터 세트에 존재하면 예측이 부정확해질 수 있다.The conventional method is an easy example to explain why a given query data set belongs to a particular classification, but if a noisy data set sample is present in the support data set, the prediction can become inaccurate.

이러한 문제를 해결하기 위해, 본 발명에서는 어텐션 베이스 접근법을 사용하여 서포트 샘플들에 초점을 맞추는데 더 유리하다.To solve this problem, in the present invention, it is more advantageous to focus on the support samples using the attention-based approach.

본 발명에서는 서포트 데이터 세트 내의 중요한 신호를 판단에 주요하게 반영하기 위하여 각 서포트 데이터 세트의 신호 특징((ZS ij) i=1, 2, 3, ..., N j=1, 2, 3, ..., k)들과 쿼리 테이터 특징(zQ)을 채널 방향으로 연관시킨 후, 어텐션 스코어(aS ij)를 예측한다.In the present invention, the signal characteristics of each support data set ((Z S ij ) i=1, 2, 3, ..., N j=1, 2, 3 , ..., k) and the query data feature (z Q ) are correlated in the channel direction, and then an attention score (a S ij ) is predicted.

이때의 연관식은 아래의 수학식 1로 표현할 수 있다.In this case, the relational expression can be expressed as Equation 1 below.

Figure 112020037084187-pat00001
Figure 112020037084187-pat00001

위의 수학식 1에서 연산기호(

Figure 112020037084187-pat00002
)는 연관을 나타낸다.In Equation 1 above, the operation symbol (
Figure 112020037084187-pat00002
) indicates an association.

따라서, 어텐션 스코어(aS ij)는 어텐션 함수(A(ZSQ ij)로 얻어진다.Accordingly, the attention score a S ij is obtained by the attention function A(Z SQ ij ).

이를 위하여 어텐션 단계(S20)는 두 개의 컨볼루셔널 레이어(conv_a1, conv_a2)와 두 개의 풀리 연결 레이어(fc_a1, fc_a2)를 이용한다.To this end, the attention step S20 uses two convolutional layers conv_a1 and conv_a2 and two pulley connection layers fc_a1 and fc_a2.

두 개의 컨볼루셔널 레이어(conv_a1, conv_a2)는 각각 16x1 커널과 4x1 커널을 이용한다. The two convolutional layers conv_a1 and conv_a2 use a 16x1 kernel and a 4x1 kernel, respectively.

두 개의 풀리 연결 레이어(fc_a1, fc_a2)는 64와 1-디멘저널(demensional) 풀리 연결 레이어(fully connected layer)이며 글로벌 특징과 로컬 특징 둘 다를 고려한다.The two pulley connection layers fc_a1 and fc_a2 are 64 and 1-dimensional fully connected layers, taking into account both global and local features.

각 분류에 의해, 어텐션 가중 특징은 아래의 수학식 2로 표현될 수 있다.For each classification, the attention-weighted feature may be expressed by Equation 2 below.

Figure 112020037084187-pat00003
Figure 112020037084187-pat00003

그리고 상기 어텐션 가중 특징과 ZQ를 연관시켜 각 분류(class)에 대하여 아래의 수학식3의 벡터가 포함된 최종 분류 대표 특징을 구하여, 최종적으로 레이블을 예측하기 위하여 릴레이션 단계(S30)에 공급한다.And by associating the attention-weighted feature with Z Q to obtain the final classification representative feature including the vector of Equation 3 below for each class, it is supplied to the relation step S30 to finally predict the label. .

Figure 112020037084187-pat00004
Figure 112020037084187-pat00004

그 다음, 릴레이션 단계(S30)에서는 퓨-샷(few-shot) 러닝을 이용하여 레이블을 예측한다.Next, in the relation step S30, the label is predicted using few-shot learning.

종래 몇 몇의 퓨-샷 러닝 방법은 분류 대표 특징과 쿼리 특징간의 거리 메트릭(distance metric)을 기반으로 레이블을 예측하였으나, 본 발명에서는 관계 네트워크 학습에 의해 레이블을 예측한다.Conventionally, some pew-shot learning methods predict a label based on a distance metric between a classification representative feature and a query feature, but in the present invention, the label is predicted by learning a relational network.

릴레이션 단계의 함수(R(x)는 수학식 2의 어텐션 가중 특성으로부터 유래한 관계 점수(relation score) rS i=R(ZSQi)로 예측된다. The function R(x) of the relation step is predicted as a relation score r S i =R(Z SQ i) derived from the attention-weighted characteristic of Equation (2).

최종적으로 예측된 가장 큰 관계 점수를 가지는 분류가 레이블이 된다. Finally, the classification with the highest predicted relationship score becomes the label.

1-디멘젼 특징 벡터로부터 예측된 레이블을 추정하기 위한 릴레이션 단계(S30)는 30x1과 15x1의 커널을 각각 가지는 두 컨볼루션 레이어를 사용하며, 256과 100 디멘젼을 가지는 두 풀리 연결 레이어들을 사용한다.The relation step (S30) for estimating the label predicted from the 1-dimensional feature vector uses two convolutional layers having kernels of 30x1 and 15x1, respectively, and two pulley connection layers having 256 and 100 dimensions.

트레이닝을 위하여 본 발명에서는 아래의 수학식 4와 같은 크로스 엔트로피 손실 함수(cross entropy loss function)를 사용한다.For training, the present invention uses a cross entropy loss function as in Equation 4 below.

Figure 112020037084187-pat00005
Figure 112020037084187-pat00005

수학식 4에서 y는 서포트 데이터의 클래스와 쿼리 데이터가 동일하면 1이고, 동일하지 않으면 0이 된다.In Equation 4, y is 1 if the class of the support data and the query data are the same, and is 0 if not the same.

"D. P. Kingma and J. Ba, “Adam: A method for stochastic optimization,”"arXiv preprint arXiv:1412.6980, 2014."에서 언급된 아담 옵티마이져(Adam optimizer)를 매개 변수를 최적화하는데 사용하였다.The Adam optimizer mentioned in “D. P. Kingma and J. Ba, “Adam: A method for stochastic optimization,” “arXiv preprint arXiv: 1412.6980, 2014.” was used to optimize the parameters.

또한 배치 크기는 100으로 설정하고, 초기 학습률을 10-4으로 설정하였다.Also, the batch size was set to 100 and the initial learning rate was set to 10 -4.

매번 반복 학습을 할 때마다 학습률은 0.033%의 지수 감소비로 감소된다.With each repetition of learning, the learning rate is reduced by an exponential decay ratio of 0.033%.

본 발명의 모델은 검증 손실이 최소일 때 저장되었다.The model of the present invention was saved when the validation loss was minimal.

이하에서는 좀 더 구체적인 실시 예를 들어 본 발명의 효과에 대하여 설명한다.Hereinafter, the effect of the present invention will be described with reference to a more specific embodiment.

a. 데이터 세트a. data set

본 발명의 효과를 검증하기 위하여 "R. Leeb, C. Brunner, G. Muller-Putz, A. Schlogl, and G. Pfurtscheller, “BCI competition 2008-Graz data set B,”Graz University of Technology, Austria, pp. 1-6, 2008."의 데이터 세트를 사용하였다.In order to verify the effect of the present invention, "R. Leeb, C. Brunner, G. Muller-Putz, A. Schlogl, and G. Pfurtscheller, "BCI competition 2008-Graz data set B," Graz University of Technology, Austria, pp. 1-6, 2008.” was used.

상기 데이터 세트에는 MI 분류를 위한 9명의 대상에 대한 실험 당 약 120개의 로우 EGG 데이터가 포함되어 있으며, 각 대상은 지시에 따라 오른쪽 또는 왼쪽으로의 움직임을 상상한다.The data set contains about 120 raw EGG data per experiment for 9 subjects for MI classification, each subject imagines moving to the right or left as instructed.

각 대상에 대한 5가지 실험이 수행되었으며, 9명의 대상에 대하여 총 45개의 실험 데이터가 수집되었다.Five experiments were performed for each subject, and a total of 45 experimental data were collected for nine subjects.

수집된 샘플은 국제 10-20 시스템의 프로토콜에 따라 3개의 전극(C3, C4, CZ)에서 250Hz의 샘플링 주파수에서 측정되었다.The collected samples were measured at a sampling frequency of 250 Hz at three electrodes (C3, C4, CZ) according to the protocol of the International 10-20 System.

본 발명에서는 5400회의 실험(120x45) 중에서, 일부 거부된 시험을 무시하고, 나머지 시험에서 3.5s에서 7s까지의 신호를 사용했다.In the present invention, out of 5400 experiments (120x45), some rejected tests were ignored, and signals from 3.5s to 7s were used in the remaining tests.

상기 3개의 전극에 대하여 875 개의 데이터를 얻어 875x3 행렬의 데이터를 입력 데이터로 사용하였다.875 pieces of data were obtained for the three electrodes, and data of an 875x3 matrix was used as input data.

b. 시험 세팅b. test setup

위의 데이터 세트를 이용한 실험을 위하여, 8개의 대상 데이터 샘플로 훈련된 모델을 사용하는 9회의 교차 검증 방법을 사용하고, 검증 에피소드 당 나머지를 테스트하였다.For the experiments with the above data set, 9 cross-validation methods using a model trained with 8 subject data samples were used, and the remainder per validation episode was tested.

각 훈련 세트는 대상 당 처음의 네 개의 실험으로 구성되고, 다섯 번째 실험은 검증 세트로 사용되었다.Each training set consisted of the first four experiments per subject, and the fifth experiment was used as the validation set.

시험 세트는 나머지 대상들의 전체 세트로 이루어진다.The test set consists of the full set of the remaining subjects.

트레이닝 동안 서포트와 쿼리 데이터 샘플들은 각 반복 과정에서 훈련과 유효성 검사 세트에서 무작위로 선택되도록 설정했다.During training, support and query data samples were set to be randomly selected from the training and validation sets at each iteration.

시험을 위하여 전체 샘플을 각 분류에서 두 그룹으로 나누었으며, 구체적으로 20개의 샘플은 서포트 데이터로 나머지 샘플은 쿼리 데이터로 나누었다.For the test, the entire sample was divided into two groups in each classification. Specifically, 20 samples were divided into support data and the remaining samples were divided into query data.

본 발명의 어텐션의 영향을 평가하기 위하여, 어텐션이 없는 k=[1, 5, 10, 20] 샷(shot)의 퓨-샷 러닝 모델의 성능도 평가한다.In order to evaluate the effect of the attention of the present invention, the performance of the pew-shot learning model of k = [1, 5, 10, 20] shots without attention is also evaluated.

또한, 본 발명에서는 대상의 서포트 데이터 세트에서 단지 40개의 샘플로 트레이닝 된 HS-CNN과, 8개의 대상의 모든 트래이닝 샘플을 이용한 HS-CNN을 비교한다.In addition, in the present invention, HS-CNN trained with only 40 samples in the target's support data set is compared with HS-CNN using all training samples of 8 targets.

서포트 데이터 세트가 변경됨에 따라 결과가 달라질 수 있으므로, 동일한 실험을 10회 반복하고 평균을 모든 경우의 최종 정확도로 사용한다.As the results may vary as the support data set changes, the same experiment is repeated 10 times and the mean is used as the final accuracy in all cases.

정확도는 전체 데이터 세트에 대한 양성 및 음성 수를 기준으로 측정된다.Accuracy is measured based on the number of positives and negatives for the entire data set.

c. 결과c. result

도 3은 본 발명과 종래 분류 방법의 9회 반복 과정마다의 정확도 그래프이고, 표 1은 본 발명과 종래 방법의 표준 편차에 대한 전체 정확도를 나타낸다.3 is a graph of the accuracy of each of 9 iterations of the present invention and the conventional classification method, and Table 1 shows the overall accuracy with respect to the standard deviation of the present invention and the conventional method.

Figure 112020037084187-pat00006
Figure 112020037084187-pat00006

도 3과 표 1에 도시한 바와 같이 본 발명은 모든 경우에서 종래의 방법에 비하여 더 높은 성능 특성을 나타낸다.3 and Table 1, the present invention exhibits higher performance characteristics than the conventional method in all cases.

특히, 종래의 지도 학습 기반의 방법을 기재한 "G. Dai, J. Zhou, J. Huang, and N. Wang, “HS-CNN: a CNN with hybrid convolution scale for EEG motor imagery classification,”"Journal of neural engineering, vol. 17, no. 1, p. 016025, 2020."에서는 충분한 훈련 데이터가 사용될 때 분류 성능이 87.6%에 도달한다고 설명하지만, 모델이 교차 대상 세팅에서 훈련될 때 훈련 성능이 65.3%로 크게 떨어진다. 즉, 모델이 소량의 샘플로 훈련되었을 때, 대상에서 얻은 데이터(분류당 20개의 샘플)의 정확도는 매우 제한적이다.In particular, "G. Dai, J. Zhou, J. Huang, and N. Wang, "HS-CNN: a CNN with hybrid convolution scale for EEG motor imagery classification," "Journal, which describes a conventional supervised learning-based method of neural engineering, vol. 17, no. 1, p. 016025, 2020." explains that the classification performance reaches 87.6% when sufficient training data is used, but the training performance drops significantly to 65.3% when the model is trained in a cross-object setting. That is, the model is trained with a small number of samples. However, the accuracy of the data obtained from the subject (20 samples per classification) is very limited.

반면에 본 발명은 성능을 향상시킬 수 있으며, 훈련에 사용된 대상당 하나의 레이블이 지정된 샘플만 있는 1-샷(one-shot) 설정에서 종래에 비하여 1.7% 향상되었으며, 5-샷에서 4.9%, 10-샷에서 6.4%, 20-샷에서 8.6% 향상되는 것으로 확인되었다.On the other hand, the present invention can improve performance, with a 1.7% improvement over the prior art in a one-shot setup with only one labeled sample per subject used for training, and 4.9% in a 5-shot. , 6.4% in 10-shot and 8.6% in 20-shot.

마지막으로 본 발명은 20-샷 설정의 정확도가 평균 74.6%로 종래에 비하여 9.3% 증가한 것을 확인할 수 있다.Finally, in the present invention, it can be confirmed that the accuracy of the 20-shot setting is an average of 74.6%, which is increased by 9.3% compared to the prior art.

본 발명에서 제안된 어텐션 단계의 성능도 일관되게 개선됨을 알 수 있다.It can be seen that the performance of the attention step proposed in the present invention is also consistently improved.

특히 모든 퓨-샷(few-shot, f=1, 5, 10, 20)에서 본 발명은 평균적으로 1.5%의 향상이 관찰되었다.In particular, in all few-shots (f=1, 5, 10, 20), an average improvement of 1.5% was observed in the present invention.

이는 어텐션 단계에서 쿼리 예측에 중요한 서포트 데이터 세트 기능 표현에 집중하는 동시에 잡음이 많은 신호의 기능을 억제하여 더 높은 성능을 달성할 수 있는 것으로 확인되었다.It has been confirmed that in the attention phase, higher performance can be achieved by suppressing the function of noisy signals while concentrating on the expression of support data set features important for query prediction.

또한, 도 3에 도시한 바와 같이 2번째와 3번째 반복 트레이닝에서 종래 기술(HS-CNN-All)과 본 발명의 정확도 점수가 상대적으로 낮다는 것을 확인하였다. In addition, as shown in FIG. 3 , it was confirmed that the accuracy scores of the prior art (HS-CNN-All) and the present invention were relatively low in the second and third repetition training.

이러한 결과는 뇌파 데이터의 특성에 기인한 것으로, 신호대 잡음비(SNR)가 크기 때문에 몇 개의 서포트 데이터 세트만으로는 쿼리 데이터를 분류하기 어렵기 때문이다.This result is due to the characteristics of the EEG data, because it is difficult to classify the query data with only a few support data sets because the signal-to-noise ratio (SNR) is large.

데이터의 노이즈가 충분히 줄어들면 성능이 크게 개선될 수 있다.If the noise in the data is sufficiently reduced, the performance can be greatly improved.

보다 효과적인 비교를 위하여 2차 및 3차 반복을 제외한 평균 예측 정확도(도 3의 avg)를 비교하면, 종래 기술의 경우 67.3%, 20 샷의 경우 79.5%로 나타남으로써 본 발명은 정확도가 개선됨을 확인할 수 있다.When comparing the average prediction accuracy (avg in Fig. 3) excluding the 2nd and 3rd iterations for a more effective comparison, the present invention shows that the accuracy is improved by 67.3% in the case of the prior art and 79.5% in the case of 20 shots. can

모든 두 번째와 세 번째를 제외한 모든 반복에서 비슷한 결과를 얻을 수 있으며, 12.2% 이상 성능이 개선됨을 확인할 수 있다.Similar results are obtained in all iterations except for every second and third time, and it can be seen that the performance is improved by more than 12.2%.

이처럼 본 발명에 따른 분류 방법은 운동 상상 뇌전도 분류에 퓨-샷(few-shot) 학습 개념을 적용하여, 보이지 않는 대상에 대하여 잘 수행되는 양방향의 퓨-샷 분류 네트워크를 제공할 수 있다.As such, the classification method according to the present invention can provide a bidirectional few-shot classification network that performs well on invisible objects by applying the few-shot learning concept to motor imaginary electroencephalogram classification.

본 발명은 종래에 비하여 분류 정확도가 향상됨을 입증하였으며, 제한된 샘플을 이용하면서도 EEG 데이터를 분류할 수 있다는 증거를 제공한다.The present invention has demonstrated that classification accuracy is improved compared to the prior art, and provides evidence that EEG data can be classified while using a limited sample.

또한 쿼리 데이터와 관련성이 높은 서포트 데이터의 정보를 강조함으로써, 어텐션 단계에서 성능을 더욱 향상시킬 수 있다.In addition, by emphasizing information in support data that is highly related to query data, performance can be further improved in the attention stage.

이상에서 본 발명에 따른 실시 예들이 설명되었으나, 이는 예시적인 것에 불과하며, 당해 분야에서 통상적 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 범위의 실시 예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 다음의 청구범위에 의해서 정해져야 할 것이다.Although the embodiments according to the present invention have been described above, these are merely exemplary, and those of ordinary skill in the art will understand that various modifications and equivalent ranges of embodiments are possible therefrom. Accordingly, the true technical protection scope of the present invention should be defined by the following claims.

Claims (7)

컴퓨팅 장치 또는 컴퓨팅 네트워크에서 적어도 하나의 프로세서에 의해 수행되는 운동 상상 뇌전도 분류 방법으로서,
서포트 데이터(support data)와 쿼리 데이터(query data)를 입력받아 분류를 위한 서포트 특징들과 쿼리 특징들을 추출하는 임베딩 단계;
상기 임베딩 단계에서 획득한 상기 서포트 특징들(support features)과 쿼리 특징들(query features)을 이용하여 분류 대표 특징을 산출하는 어텐션 단계; 및
상기 어텐션 단계에서 산출된 분류 대표 특징과 쿼리 특징을 연관시키고, 레이블을 예측하는 릴레이션 단계를 포함하는 운동 상상 뇌전도 분류 방법.
A method for classifying motor imaginary electroencephalograms performed by at least one processor in a computing device or computing network, the method comprising:
an embedding step of receiving support data and query data and extracting support features and query features for classification;
an attention step of calculating a classification representative feature using the support features and query features obtained in the embedding step; and
and a relation step of associating the classification representative feature calculated in the attention step with the query feature, and predicting a label.
제1항에 있어서,
상기 임베딩 단계는,
한 쌍의 서포트 데이터와 쿼리 데이터를 입력으로 하여, 컨볼루셔널 레이어들(convolutional layers)을 사용하여 분류를 위한 의미적 특징(semantic feature)을 추출하되,
뇌전도 데이터를 특정한 기준으로 분류된 주파수 대역 별로 분리하고, 분리된 주파수 대역의 데이터를 제1컨볼루션 레이어를 이용하여 특징을 얻는 것을 특징으로 하는 운동 상상 뇌전도 분류 방법.
According to claim 1,
The embedding step is
With a pair of support data and query data as inputs, semantic features for classification are extracted using convolutional layers,
A motor imaginary electroencephalogram classification method, characterized in that the electroencephalogram data is separated for each frequency band classified according to a specific criterion, and features of the separated frequency band data are obtained using a first convolution layer.
제2항에 있어서,
상기 제1컨볼루션 레이어는,
상기 분리된 주파 수대역의 수와 동수이며 각기 커널의 크기가 상이한 것을 특징으로 하는 운동 상상 뇌전도 분류 방법.
3. The method of claim 2,
The first convolutional layer is
The motor imaginary electroencephalogram classification method, characterized in that the same number as the number of the separated frequency bands and the size of each kernel is different.
제3항에 있어서,
상기 임베딩 단계는,
상기 컨볼루션 레이어를 사용하여 추출된 특징을 제2컨볼루션 레이어를 통해 연관시키는 과정; 및
다시 동일 크기의 스트라이드(stride)와 커널을 가지는 맥스 풀링 레이어(max pooling layer)를 통과시켜, 모든 특징을 연관시킨 임베딩 특징을 획득하는 과정을 더 포함하는 운동 상상 뇌전도 분류 방법.
4. The method of claim 3,
The embedding step is
associating features extracted using the convolutional layer through a second convolutional layer; and
Again, passing through a max pooling layer having a stride and a kernel of the same size, and obtaining an embedding feature correlating all features.
제4항에 있어서,
상기 어텐션 단계는,
서포트 데이터의 세트 내의 중요한 신호를 판단에 주요하게 반영하기 위하여 각 서포트 데이터의 세트 신호 특징들과 쿼리 신호의 특징을 채널 방향으로 연관시켜 어텐션 스코어를 예측하는 과정;
어텐션 스코어를 이용하여 아래의 수학식 1로 표현되는 어텐션 가중 특징을 구하는 과정; 및
상기 어텐션 가중 특징과 쿼리 데이터 특징을 연관시켜 각 분류에 대하여 아래의 수학식2의 분류 대표 특징을 구하는 과정을 포함하는 운동 상상 뇌전도 분류 방법.
[수학식 1]
Figure 112020037084187-pat00007

[수학식 2]
Figure 112020037084187-pat00008
5. The method of claim 4,
The attention step is
predicting an attention score by associating the set signal features of each support data with the query signal features in a channel direction in order to mainly reflect an important signal in the set of support data in decision;
obtaining an attention-weighted feature expressed by Equation 1 below using the attention score; and
and a process of associating the attention-weighted feature with the query data feature to obtain the classification representative feature of Equation 2 below for each classification.
[Equation 1]
Figure 112020037084187-pat00007

[Equation 2]
Figure 112020037084187-pat00008
제1항 내지 제5항 중 어느 한 항에 있어서,
상기 릴레이션 단계는,
퓨-샷(few-shot) 러닝을 이용하여 관계 네트워크 학습에 의해 레이블을 예측하는 운동 상상 뇌전도 분류 방법.
6. The method according to any one of claims 1 to 5,
The relation step is
A motor imaginary electroencephalogram classification method to predict labels by relational network learning using few-shot learning.
제6항에 있어서,
상기 관계 네트워크 학습에서 가장 큰 관계 점수를 가지는 분류를 레이블로 정하는 운동 상상 뇌전도 분류 방법.
7. The method of claim 6,
A motor imaginary electroencephalogram classification method in which a classification having the greatest relational score in the relational network learning is designated as a label.
KR1020200043455A 2020-04-09 2020-04-09 Classification method for Electroencephalography motor imagery KR102290243B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200043455A KR102290243B1 (en) 2020-04-09 2020-04-09 Classification method for Electroencephalography motor imagery

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200043455A KR102290243B1 (en) 2020-04-09 2020-04-09 Classification method for Electroencephalography motor imagery

Publications (1)

Publication Number Publication Date
KR102290243B1 true KR102290243B1 (en) 2021-08-18

Family

ID=77464422

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200043455A KR102290243B1 (en) 2020-04-09 2020-04-09 Classification method for Electroencephalography motor imagery

Country Status (1)

Country Link
KR (1) KR102290243B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116458897A (en) * 2023-04-18 2023-07-21 山东省人工智能研究院 Electrocardiosignal quality assessment method based on two-dimensional image and attention mechanism

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120122617A (en) * 2011-04-29 2012-11-07 가톨릭대학교 산학협력단 Electroencephalography Classification Method for Movement Imagination and Apparatus Thereof
KR20190035368A (en) * 2017-09-26 2019-04-03 연세대학교 산학협력단 Method and Apparatus for Recognizing Emotion Based on Image Converted from Brain Signal
KR102096565B1 (en) * 2018-11-08 2020-04-02 광운대학교 산학협력단 Analysis method of convolutional neural network based on Wavelet transform for identifying motor imagery brain waves
KR20200036209A (en) * 2018-09-28 2020-04-07 경북대학교 산학협력단 Method and device egg data augmentation for deep learning, recording medium for performing the method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120122617A (en) * 2011-04-29 2012-11-07 가톨릭대학교 산학협력단 Electroencephalography Classification Method for Movement Imagination and Apparatus Thereof
KR20190035368A (en) * 2017-09-26 2019-04-03 연세대학교 산학협력단 Method and Apparatus for Recognizing Emotion Based on Image Converted from Brain Signal
KR20200036209A (en) * 2018-09-28 2020-04-07 경북대학교 산학협력단 Method and device egg data augmentation for deep learning, recording medium for performing the method
KR102096565B1 (en) * 2018-11-08 2020-04-02 광운대학교 산학협력단 Analysis method of convolutional neural network based on Wavelet transform for identifying motor imagery brain waves

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116458897A (en) * 2023-04-18 2023-07-21 山东省人工智能研究院 Electrocardiosignal quality assessment method based on two-dimensional image and attention mechanism
CN116458897B (en) * 2023-04-18 2024-01-26 山东省人工智能研究院 Electrocardiosignal quality assessment method based on two-dimensional image and attention mechanism

Similar Documents

Publication Publication Date Title
US11564612B2 (en) Automatic recognition and classification method for electrocardiogram heartbeat based on artificial intelligence
CN113440149B (en) ECG signal classification method based on twelve-lead electrocardiograph data two-dimensional multi-input residual neural network
Kahl et al. Recognizing birds from sound-the 2018 birdclef baseline system
Huang et al. End-to-end continuous emotion recognition from video using 3D ConvLSTM networks
CN114578967B (en) Emotion recognition method and system based on electroencephalogram signals
CN117520891A (en) Motor imagery electroencephalogram signal classification method and system
Song et al. Adaptive common spatial pattern for single-trial EEG classification in multisubject BCI
KR102290243B1 (en) Classification method for Electroencephalography motor imagery
CN116343261A (en) Gesture recognition method and system based on multi-modal feature fusion and small sample learning
Sreeshakthy et al. A survey on emotion classification from EEG signal using various techniques and performance analysis
Azami et al. Automatic signal segmentation based on singular spectrum analysis and imperialist competitive algorithm
Gopika et al. Performance improvement of residual skip convolutional neural network for myocardial disease classification
Anwar et al. Classification of expert-novice level of mobile game players using electroencephalography
CN117407748A (en) Electroencephalogram emotion recognition method based on graph convolution and attention fusion
Mao et al. Classification of non-time-locked rapid serial visual presentation events for brain-computer interaction using deep learning
Zhang et al. Classification method of ecg signals based on ranet
Jeong et al. Fine-grained Temporal Attention Network for EEG-based Seizure Detection
Iscan Mlsp competition, 2010: description of second place method
CN113907762A (en) Method for identifying interference waves of ECG signals on wearable equipment
Luo et al. Classification algorithm for motor imagery EEG signals based on parallel DAMSCN-LSTM
CN110430340A (en) A kind of noise-reduction method and system of pulse array signals
Dondup et al. EEG based emotion recognition using variational mode decomposition and convolutional neural network for affective computing interfaces
Vashishth et al. Artificial neural networks & discrete Wavelet transform enabled healthcare model for stress and emotion assessment using speech signal recognition
Flamary et al. Large margin filtering for signal sequence labeling
Gjoreski A method for combining classical and deep machine learning for mobile health and behavior monitoring

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant