KR20220098533A - Data acquisition method for brain-computer interface based on speech imagery using ear-eeg and the system thereof - Google Patents

Data acquisition method for brain-computer interface based on speech imagery using ear-eeg and the system thereof Download PDF

Info

Publication number
KR20220098533A
KR20220098533A KR1020210000334A KR20210000334A KR20220098533A KR 20220098533 A KR20220098533 A KR 20220098533A KR 1020210000334 A KR1020210000334 A KR 1020210000334A KR 20210000334 A KR20210000334 A KR 20210000334A KR 20220098533 A KR20220098533 A KR 20220098533A
Authority
KR
South Korea
Prior art keywords
eeg
ear
scalp
data
brain
Prior art date
Application number
KR1020210000334A
Other languages
Korean (ko)
Other versions
KR102511641B1 (en
Inventor
조성호
카온고엔 네티위트
최재훈
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR1020210000334A priority Critical patent/KR102511641B1/en
Publication of KR20220098533A publication Critical patent/KR20220098533A/en
Application granted granted Critical
Publication of KR102511641B1 publication Critical patent/KR102511641B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/25Bioelectric electrodes therefor
    • A61B5/251Means for maintaining electrode contact with the body
    • A61B5/256Wearable electrodes, e.g. having straps or bands
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/25Bioelectric electrodes therefor
    • A61B5/279Bioelectric electrodes therefor specially adapted for particular uses
    • A61B5/291Bioelectric electrodes therefor specially adapted for particular uses for electroencephalography [EEG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/369Electroencephalography [EEG]
    • A61B5/372Analysis of electroencephalograms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/369Electroencephalography [EEG]
    • A61B5/377Electroencephalography [EEG] using evoked responses
    • A61B5/378Visual stimuli
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Psychiatry (AREA)
  • Psychology (AREA)
  • Neurology (AREA)
  • General Physics & Mathematics (AREA)
  • Dermatology (AREA)
  • Neurosurgery (AREA)
  • Human Computer Interaction (AREA)
  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)

Abstract

The present invention relates to a data acquisition method for a brain-computer interface based on a speech image using ear-EEG and a system using the same. The method comprises the steps of: using an audio image to measure ear-EEG data (ear-EEG) using an ear-peripheral electrode and measuring scalp-EEG data (scalp-EEG) using a scalp-peripheral electrode; extracting an ear-EEG feature matrix and a scalp-EEG feature matrix by decomposing the ear-EEG data and the scalp-EEG data into EEG frequency bands; and acquiring result data of the scalp-EEG, the ear-EEG, and the ear-scalp EEG for voice image monitoring in a brain-computer interface by mapping the ear-EEG feature matrix and the scalp-EEG feature matrix using an extreme learning machine (ELM) model. The present invention is to acquire the result data for the voice image monitoring in the brain-computer interface.

Description

귀-EEG를 이용한 음성 이미지 기반의 뇌-컴퓨터 인터페이스를 위한 데이터 획득 방법 및 시스템{DATA ACQUISITION METHOD FOR BRAIN-COMPUTER INTERFACE BASED ON SPEECH IMAGERY USING EAR-EEG AND THE SYSTEM THEREOF}DATA ACQUISITION METHOD FOR BRAIN-COMPUTER INTERFACE BASED ON SPEECH IMAGERY USING EAR-EEG AND THE SYSTEM THEREOF

본 발명은 귀-EEG를 이용한 음성 이미지 기반의 뇌-컴퓨터 인터페이스를 위한 데이터 획득 방법 및 시스템에 관한 것으로서, 보다 상세하게는 두피-EEG 획득 방법의 대안으로 이미지 모니터링을 위한 귀-EEG 획득 방법에 관한 것이다. The present invention relates to a data acquisition method and system for a brain-computer interface based on a voice image using an ear-EEG, and more particularly, to an ear-EEG acquisition method for image monitoring as an alternative to the scalp-EEG acquisition method. will be.

뇌-컴퓨터 인터페이스(Brain-Computer Interface; BCI)는 사용자의 뇌 활동을 컴퓨터 명령으로 변환하여 통신 및 제어의 대안적 방법으로 광범위하게 연구되어 왔다. 많은 연구들은 BCI가 신경 질환을 앓고 있는 환자들이 정상 생활을 할 수 있는 능력을 되찾도록 성공적으로 도울 수 있다는 것을 증명했다. 그러나 BCI는 특히 정상적인 건강한 사람들에게 일상 생활에 아직 적합하지 않다. 다만, 그 효과와는 별도로, 일상 생활을 위한 BCI는 편리하고, 쉽고, 유행에 뒤떨어져야 하며, 일상 생활 활동과 조화를 이루어야 한다. 많은 연구에서 보고된 BCI 패러다임은 BCI의 모드에 의해 제한된다. 예를 들면, 반응성 BCI와 시각적 유발 잠재력(Steady State Visually Evoked Potential; SSVEP)과 같은 정상 상태 BCI에는 외부 자극이 필요하며, 일상생활에서 그것들을 부적절하게 만든다. 운동 이미지(Motor Imagery; MI)를 사용하는 BCI는 자극이 필요하지 않지만 제어에 사용될 때 자유도에 의해 제한되므로 통신에 적합하지 않다. 또한, MI 기반의 BCI는 사용자가 원하는 작업(예를 들면, TV 켜기)과 MI 작업을 연관짓기 어려울 수 있으므로 상황에 따라 직관적이지 않을 수 있다.Brain-Computer Interface (BCI) has been extensively studied as an alternative method of communication and control by converting a user's brain activity into computer commands. Numerous studies have demonstrated that BCI can successfully help patients with neurological disorders regain the ability to lead a normal life. However, BCI is not yet suitable for everyday life, especially in normal healthy people. However, apart from its effect, BCI for daily life should be convenient, easy, out of fashion, and in harmony with daily life activities. The BCI paradigm reported in many studies is limited by the mode of BCI. For example, steady-state BCIs, such as reactive BCI and Steady State Visually Evoked Potential (SSVEP), require external stimuli, rendering them inappropriate in daily life. BCI using motor imagery (MI) does not require stimulation, but is limited by degrees of freedom when used for control and is therefore not suitable for communication. In addition, the MI-based BCI may be difficult to associate with a user's desired task (eg, turning on a TV) and thus may not be intuitive depending on the situation.

이러한 한계를 극복하기 위해, 음성 이미지는 BCI의 대체 모드로서 연구되고 제안되었다. 음성 이미지(Speech Imagery; SI)는 사용자가 실제로 연결자를 이동하거나 말을 하지 않고 큰 소리로 말하는 것을 상상하는 정신적 작업의 한 유형이다. 음성 이미지 기반 BCI는 사용자가 단순히 시스템이 감지할 출력 명령과 관련된 단어를 생각할 수 있다는 점에서 BCI의 다른 유형에 비해 직관적일 수 있다. 또한, 음성 이미지 작업은 대부분의 사람들이 이미 자연스럽게 그것에 익숙해져 있기 때문에 훈련 시간이 덜 필요하며, 이론적으로는 단어 수만큼 명령어를 지원한다.To overcome these limitations, speech images have been studied and proposed as an alternative mode of BCI. Speech Imagery (SI) is a type of mental task in which the user imagines speaking aloud without actually moving the connector or speaking. Speech image-based BCI can be intuitive compared to other types of BCI in that the user can simply think of a word related to an output command that the system will detect. Also, working with speech images requires less training time as most people are already naturally accustomed to it, and theoretically supports as many commands as there are words.

초기 음성 이미지 연구의 대부분은 모음을 상상하는 것에 기초했다. 예를 들면, 기존 연구는 모음/a/의 상상으로부터 유발된 잠재력을 조사함으로써 음성 이미지의 아이디어를 제안하거나, 수집된 EEG 신호에서 공통 공간 패턴(Common Spatial Patterns; CSP)을 사용하여 피실험자가 모음 /a/, /u/ 및 휴식 상태를 상상할 때 획득한 뇌파(electroencephalogram; EEG) 분류를 수행했다. 마찬가지로, 기존 연구는 일본어 모음의 상상으로부터 EEG를 분류하기 위해 지원 벡터 머신(Support Vector Machine; SVM)과 관련 벡터 머신(Relevance Vector Machine; RVM)을 사용했다. 또한, 기존 연구는 Hilbert 스펙트럼 분석을 사용하여 음절 /ba/와 /ku/ 상상의 음절을 다른 리듬으로 분류하거나, 다른 리듬에서 상상된 음절(/ba/)을 포함하는 분류 작업을 수행했다.Much of the early speech image research was based on imagining vowels. For example, existing studies suggest the idea of a speech image by examining the potential elicited from the imagination of vowel /a/, or by using Common Spatial Patterns (CSP) in the collected EEG signal, subjects A/, /u/ and electroencephalogram (EEG) classifications obtained when imagining resting states were performed. Similarly, previous studies used a Support Vector Machine (SVM) and a Relevance Vector Machine (RVM) to classify EEGs from the imagination of Japanese vowels. In addition, existing studies used Hilbert spectral analysis to classify syllables /ba/ and /ku/ into different rhythms, or to classify syllables including imagined syllables (/ba/) in different rhythms.

전술한 바와 더불어 최근에는 의미론적 뜻이 있는 단어들을 사용하는 음성 이미지 또한 연구되고 있다. 예를 들면, 기존 연구는 고정된 리듬에서 주기적으로 상상되는 짧은 단어, 긴 단어 및 모음의 분류에 사용되는 Riemannian 매니폴드 특성을 활용하거나, 5개의 단어(go, back, left, right, stop)를 사용하여 다중 클래스 분류를 수행했으며 최대 40.30%의 정확도를 달성하기도 한다. 또한, 기존 연구는 4개 단어에 대해 군집화하고 학습된 클러스터를 사용하여 5개 단어 모두를 분류하는 방식으로 5개의 스페인어 단어(up, down, left, right, select)를 상상하는 것으로부터 데이터 분류에 전송 학습을 적용하거나, 13개의 다른 단어와 이미지에 대해 음성 이미지와 시각적 이미지 실험을 모두 수행했다. In addition to the above, recently, voice images using words with semantic meanings are also being studied. For example, existing studies have utilized the Riemannian manifold characteristics used for classification of short, long, and vowels that are periodically imagined in a fixed rhythm, or five words (go, back, left, right, stop). has been used to perform multi-class classification and achieves an accuracy of up to 40.30%. In addition, existing studies have focused on data classification from imagining five Spanish words (up, down, left, right, select) by clustering on four words and classifying all five words using the learned cluster. Transfer learning was applied, or both voice and visual image experiments were performed on 13 different words and images.

그러나 전술한 바와 같은 연구들의 대부분은 캡에 전해질 젤 또는 전기 전도성 페이스트(즉, 습식 전극)가 있는 전극을 사용하여 사용자의 두피에서 EEG를 획득하는 기존의 EEG 획득 방법을 사용하여 수행되었다. 이 방법은 BCI 시스템의 정확성에 관한 한 이 EEG 획득 기술을 최상으로 만드는 인간 두뇌의 모든 부분을 커버하는 광범위한 EEG 채널과 함께 고품질 EEG 신호를 제공한다. 그럼에도 불구하고 두피 기반 EEG는 (1)장비 준비에 시간이 걸리고 다른 사람의 추가 도움이 필요하며, (2)캡과 습식 전극이 불편하게 만들고, (3)유행성이 없고 사회적으로 어색할 수 있다는 세 가지 주요 이유로 일상 생활에서 사용을 목표로 하는 BCI에 적합하지 않다. 이러한 문제를 해결하기 위해 연구원들은 습식 전극을 다른 유형의 전극으로 교체하고 착용할 수 있도록 EEG 획득 도구의 설계를 변경하려고 시도했다. 상용 착용형 EEG 획득 장치의 예로는 사용자의 이마에서 EEG를 획득하기 위해 하나의 활성건식 전극을 사용하는 NeuroSky와 식염수 용액과 일회용 스폰지 전극을 사용하는 Emotiv가 있다.However, most of the studies as described above were performed using conventional EEG acquisition methods to acquire EEG from the user's scalp using an electrode with an electrolyte gel or electrically conductive paste (ie, a wet electrode) in the cap. This method provides high-quality EEG signals with a wide range of EEG channels covering all parts of the human brain that makes this EEG acquisition technique the best when it comes to the accuracy of the BCI system. Nevertheless, scalp-based EEG has three major concerns: (1) it takes time to prepare the equipment and requires additional assistance from others, (2) caps and wet electrodes make them uncomfortable, and (3) they are not fashionable and can be socially awkward. It is not suitable for BCI intended for use in everyday life for several main reasons. To address this problem, the researchers attempted to change the design of the EEG acquisition tool so that the wet electrode could be replaced and worn with a different type of electrode. Examples of commercially available wearable EEG acquisition devices include NeuroSky, which uses a single active dry electrode to acquire EEG from a user's forehead, and Emotiv, which uses a saline solution and disposable sponge electrodes.

귀-EEG는 편의성, 이동성 및 신중성으로 인해 BCI 연구 분야에서 인기를 얻고 있는 대안적 EEG 획득 방법이다. 이 EEG 획득 방법은 사용자의 귀를 중심으로 EEG를 측정한다. 귀-EEG는 복잡한 장비 준비를 필요로 하지 않으며, 센서가 사용자의 머리카락과 접촉하지 않으므로 사용자가 기존의 두피-EEG 방법보다 사용하기 쉽고 편리하다. 또한, 귀-EEG 방법에서의 전극 배치는 또한 그들을 다른 사람에게 보이지 않게 하고 이 방법을 매우 신중하고 일상 생활에서 원하지 않는 주의를 일으키지 않는다.Ear-EEG is an alternative EEG acquisition method that is gaining popularity in the field of BCI research due to its convenience, mobility, and prudence. This EEG acquisition method measures the EEG around the user's ear. Ear-EEG does not require complicated equipment preparation, and since the sensor does not come into contact with the user's hair, it is easier and more convenient for the user to use than the conventional scalp-EEG method. In addition, electrode placement in the ear-EEG method also makes them invisible to others and makes this method very careful and does not cause unwanted attention in daily life.

이에 따라서, 본 발명은 일상 생활에서 BCI의 개발을 촉진하기 위해, 귀-EEG를 사용하는 음성 이미지 기반의 BCI 시스템을 제안한다. Accordingly, the present invention proposes a voice image-based BCI system using an ear-EEG to promote the development of BCI in daily life.

Looney D, Kidmose P, Park C, Ungstrup M, Rank ML, Rosenkranz K, Mandic DP. The in-the-ear recording concept: User-centered and wearable brain monitoring. IEEE pulse. 2012 Dec 12;3(6):32-42. Looney D, Kidmose P, Park C, Ungstrup M, Rank ML, Rosenkranz K, Mandic DP. The in-the-ear recording concept: User-centered and wearable brain monitoring. IEEE pulse. 2012 Dec 12;3(6):32-42.

본 발명의 목적은 저비용의 귀-EEG 획득 장치(예를 들면, 웨어러블 기기)를 착용 가능하게 하여 음성 이미지 기반의 BCI 시스템을 통해 귀-EEG를 획득하고, 두피-주변 전극을 이용하여 두피-EEG 데이터를 획득하여 뇌-컴퓨터 인터페이스에서 음성 이미지 모니터링을 위한 결과 데이터를 획득하고자 한다.An object of the present invention is to obtain an ear-EEG through a voice image-based BCI system by making it possible to wear a low-cost ear-EEG acquisition device (eg, a wearable device), and scalp-EEG using a scalp-peripheral electrode We want to acquire the data and obtain the result data for voice image monitoring in the brain-computer interface.

본 발명의 실시예에 따른 귀-EEG를 이용한 음성 이미지(Speech-imagery) 기반의 뇌-컴퓨터 인터페이스(Brain-Computer Interface; BCI)를 위한 데이터 획득 방법에 있어서, 음성 이미지에 의해, 귀-주변 전극을 이용하여 귀-EEG 데이터(ear-EEG)를 측정하고, 두피-주변 전극을 이용하여 두피-EEG 데이터(scalp-EEG)를 측정하는 단계, 상기 귀-EEG 데이터 및 상기 두피-EEG 데이터를 EEG 주파수 대역으로 분해하여 귀-EEG 특성 행렬 및 두피-EEG 특성 행렬을 추출하는 단계 및 ELM(Extreme Learning Machine) 모델을 이용하여 상기 귀-EEG 특성 행렬 및 상기 두피-EEG 특성 행렬을 매핑하여 뇌-컴퓨터 인터페이스에서 음성 이미지 모니터링을 위한 두피-EEG, 귀-EEG 및 귀-두피 EEG의 결과 데이터를 획득하는 단계를 포함한다.In the data acquisition method for a brain-computer interface (BCI) based on speech-imagery using the ear-EEG according to an embodiment of the present invention, by the voice image, the ear-peripheral electrode Measuring ear-EEG data (ear-EEG) using, scalp-EEG data (scalp-EEG) using peripheral electrodes, the ear-EEG data and the scalp-EEG data to EEG Extracting an ear-EEG characteristic matrix and a scalp-EEG characteristic matrix by decomposing it into frequency bands, and mapping the ear-EEG characteristic matrix and the scalp-EEG characteristic matrix using an ELM (Extreme Learning Machine) model to a brain-computer and acquiring result data of scalp-EEG, ear-EEG, and ear-scalp EEG for voice image monitoring in the interface.

본 발명의 실시예에 따른 귀-EEG를 이용한 음성 이미지(Speech-imagery) 기반의 뇌-컴퓨터 인터페이스(Brain-Computer Interface; BCI)를 위한 데이터 획득 시스템에 있어서, 음성 이미지에 의해, 귀-주변 전극을 이용하여 귀-EEG 데이터(ear-EEG)를 측정하고, 두피-주변 전극을 이용하여 두피-EEG 데이터(scalp-EEG)를 측정하는 측정부, 상기 귀-EEG 데이터 및 상기 두피-EEG 데이터를 EEG 주파수 대역으로 분해하여 귀-EEG 특성 행렬 및 두피-EEG 특성 행렬을 추출하는 추출부 및 ELM(Extreme Learning Machine) 모델을 이용하여 상기 귀-EEG 특성 행렬 및 상기 두피-EEG 특성 행렬을 매핑하여 뇌-컴퓨터 인터페이스에서 음성 이미지 모니터링을 위한 두피-EEG, 귀-EEG 및 귀-두피 EEG의 결과 데이터를 획득하는 획득부를 포함한다.In the data acquisition system for the brain-computer interface (BCI) based on speech-imagery using the ear-EEG according to an embodiment of the present invention, by the voice image, the ear-peripheral electrode Measuring ear-EEG data (ear-EEG) using a measurement unit that measures scalp-EEG data (scalp-EEG) using scalp-peripheral electrodes, the ear-EEG data and the scalp-EEG data The ear-EEG characteristic matrix and the scalp-EEG characteristic matrix are mapped using an extractor that extracts the ear-EEG characteristic matrix and the scalp-EEG characteristic matrix by decomposing it into EEG frequency bands and an ELM (Extreme Learning Machine) model. - Includes an acquisition unit for acquiring result data of scalp-EEG, ear-EEG, and ear-scalp EEG for voice image monitoring in the computer interface.

본 발명의 실시예에 따르면, 저비용의 귀-EEG 획득 장치(예를 들면, 웨어러블 기기)를 착용 가능하게 하여 음성 이미지 기반의 BCI 시스템을 통해 귀-EEG를 획득하고, 두피-주변 전극을 이용하여 두피-EEG 데이터를 획득하여 뇌-컴퓨터 인터페이스에서 음성 이미지 모니터링을 위한 결과 데이터를 획득할 수 있다.According to an embodiment of the present invention, a low-cost ear-EEG acquisition device (eg, a wearable device) can be worn to acquire ear-EEG through a voice image-based BCI system, and scalp-peripheral electrodes are used to By acquiring the scalp-EEG data, it is possible to acquire result data for voice image monitoring in the brain-computer interface.

또한, 본 발명의 실시예에 따르면, 귀-EEG가 음성 이미지 모니터링을 위한 두피-EEG 획득 방법의 대안으로 큰 잠재력을 가지고 있음을 확인할 수 있다. In addition, according to an embodiment of the present invention, it can be confirmed that the ear-EEG has great potential as an alternative to the scalp-EEG acquisition method for monitoring voice images.

도 1은 본 발명의 실시예에 따른 귀-EEG를 이용한 음성 이미지 기반의 BCI를 위한 데이터 획득 방법의 동작 흐름도를 도시한 것이다.
도 2는 본 발명의 실시예에 따른 귀-EEG 및 두피-EEG의 전극 배치의 예를 도시한 것이다.
도 3은 본 발명의 실시예에 따른 귀-EEG 측정을 위한 웨어러블 기기의 예를 도시한 것이다.
도 4는 본 발명의 실시예에 따른 모델 구조를 도시한 것이다.
도 5는 본 발명의 실시예에 따른 음성 이미지 작업 및 휴식 작업의 실험 절차를 도시한 것이다.
도 6은 본 발명의 실시예에 따른 EEG 데이터 수집, 특징 추출 및 분류를 처리하는 데이터 획득 시스템의 절차를 도시한 것이다.
도 7은 본 발명의 실시예에 따른 귀-EEG를 이용한 음성 이미지 기반의 BCI를 위한 데이터 획득 시스템의 세부 구성을 블록도로 도시한 것이다.
1 is a flowchart illustrating a data acquisition method for voice image-based BCI using an ear-EEG according to an embodiment of the present invention.
2 shows an example of electrode arrangement of ear-EEG and scalp-EEG according to an embodiment of the present invention.
3 illustrates an example of a wearable device for measuring ear-EEG according to an embodiment of the present invention.
4 shows a model structure according to an embodiment of the present invention.
5 is a diagram illustrating an experimental procedure of a voice image task and a rest task according to an embodiment of the present invention.
6 illustrates a procedure of a data acquisition system processing EEG data collection, feature extraction, and classification according to an embodiment of the present invention.
7 is a block diagram illustrating a detailed configuration of a data acquisition system for voice image-based BCI using ear-EEG according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.Advantages and features of the present invention and methods of achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but will be embodied in various different forms, and only these embodiments allow the disclosure of the present invention to be complete, and common knowledge in the art to which the present invention pertains It is provided to fully inform those who have the scope of the invention, and the present invention is only defined by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며, 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.The terminology used herein is for the purpose of describing the embodiments, and is not intended to limit the present invention. In this specification, the singular also includes the plural, unless specifically stated otherwise in the phrase. As used herein, “comprises” and/or “comprising” refers to the presence of one or more other components, steps, operations and/or elements mentioned. or addition is not excluded.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used herein may be used with the meaning commonly understood by those of ordinary skill in the art to which the present invention belongs. In addition, terms defined in a commonly used dictionary are not to be interpreted ideally or excessively unless clearly specifically defined.

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예들을 보다 상세하게 설명하고자 한다. 도면 상의 동일한 구성요소에 대해서는 동일한 참조 부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.Hereinafter, preferred embodiments of the present invention will be described in more detail with reference to the accompanying drawings. The same reference numerals are used for the same components in the drawings, and repeated descriptions of the same components are omitted.

본 발명은 웨어러블 귀-EEG 획득 장치를 이용하여 다중 클래스 음성 이미지 분류 작업에서 기존의 32 채널 두피-EEG 설정과 성능을 직접 비교하여 뇌-컴퓨터 인터페이스(BCI)에서 음성 이미지 모니터링을 위한 두피-EEG, 귀-EEG 및 귀-두피 EEG를 획득하는 것을 그 요지로 한다.The present invention directly compares the performance with the existing 32-channel scalp-EEG setting in a multi-class voice image classification task using a wearable ear-EEG acquisition device to provide a scalp-EEG for voice image monitoring in a brain-computer interface (BCI), Its gist is to acquire an ear-EEG and an ear-scalp EEG.

이에, 본 발명은 다중 클래스 음성 이미지 실험에서 두피와 귀에서 동시에 EEG를 측정하고, 두 개의 EEG 획득 방법 사이의 분류 결과를 직접 비교하며, 귀-EEG 기반 시스템의 정확도를 향상시키기 위해 귀-EEG 특성을 두피-EEG 기능 공간에 매핑하도록 훈련된다. 이때, 본 발명의 특성 추출 방법은 Riemannian 프레임워크의 EEG 공분산 행렬을 기반으로 한다. 또한, 본 발명은 다층 극한 학습 기계(Multi-Layer Extreme Learning Machine; MLELM)를 분류기로 사용한다.Accordingly, the present invention measures the EEG in the scalp and the ear simultaneously in a multi-class voice image experiment, directly compares the classification results between the two EEG acquisition methods, and provides ear-EEG characteristics to improve the accuracy of the ear-EEG-based system. is trained to map to the scalp-EEG functional space. At this time, the feature extraction method of the present invention is based on the EEG covariance matrix of the Riemannian framework. In addition, the present invention uses a Multi-Layer Extreme Learning Machine (MLELM) as a classifier.

이러한 본 발명에 대해 이하에서는 첨부된 도면을 이용하여 상세하게 설명한다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 실시예에 따른 귀-EEG를 이용한 음성 이미지 기반의 BCI를 위한 데이터 획득 방법의 동작 흐름도를 도시한 것이며, 도 2는 본 발명의 실시예에 따른 귀-EEG 및 두피-EEG의 전극 배치의 예를 도시한 것이다. 또한, 도 3은 본 발명의 실시예에 따른 귀-EEG 측정을 위한 웨어러블 기기의 예를 도시한 것이며, 도 4는 본 발명의 실시예에 따른 모델 구조를 도시한 것이다.1 is a flowchart illustrating a data acquisition method for voice image-based BCI using ear-EEG according to an embodiment of the present invention, and FIG. 2 is an ear-EEG and scalp-EEG according to an embodiment of the present invention. An example of the electrode arrangement is shown. Also, FIG. 3 shows an example of a wearable device for measuring ear-EEG according to an embodiment of the present invention, and FIG. 4 shows a model structure according to an embodiment of the present invention.

도 1의 방법은 도 7에 도시된 본 발명의 실시예에 따른 귀-EEG를 이용한 음성 이미지 기반의 BCI를 위한 데이터 획득 시스템에 의해 수행된다.The method of FIG. 1 is performed by the data acquisition system for voice image-based BCI using the ear-EEG according to the embodiment of the present invention shown in FIG. 7 .

도 1을 참조하면, 단계 S110에서, 음성 이미지에 의해, 귀-주변 전극을 이용하여 귀-EEG 데이터(ear-EEG)를 측정하고, 두피-주변 전극을 이용하여 두피-EEG 데이터(scalp-EEG)를 측정한다. Referring to FIG. 1 , in step S110, ear-EEG data (ear-EEG) is measured using an ear-peripheral electrode by a voice image, and scalp-EEG data (scalp-EEG) is measured using a scalp-peripheral electrode. ) is measured.

단계 S110은 사용자의 귀 뒤쪽을 감싸는 C자형 이어폰의 웨어러블 기기를 이용하며, 웨어러블 기기에 부착된 스냅 습식 전극의 귀-주변 전극을 이용하여 음성 이미지에 대한 귀-EEG 데이터를 측정할 수 있다. 또한, 단계 S110은 사용자의 뇌 반구 주변에 부착된 복수개의 두피-주변 전극을 이용하여 음성 이미지에 대한 두피-EEG 데이터를 측정할 수 있다. In step S110, a wearable device of a C-shaped earphone that wraps around the back of the user's ear is used, and ear-EEG data for a voice image may be measured using an ear-peripheral electrode of a snap wet electrode attached to the wearable device. Also, in step S110, scalp-EEG data for the voice image may be measured using a plurality of scalp-peripheral electrodes attached to the periphery of the user's brain hemisphere.

도 2를 참조하여 설명하면, 본 발명은 도 2(a)에 도시된 바와 같이 실험대상자(또는 사용자)의 양쪽 귀에서 각각 3개씩 6개의 채널을 통해 귀-EEG 데이터를 측정한다. 이때, 왼쪽 귀의 주변 전극은 L1, L2, L3이고, 오른쪽 귀의 주변 전극은 R1, R2, R3이다. 귀-주변 전극은 각각 오른쪽 하단(REF)과 왼쪽 귀(GND)의 전극을 기준으로 접지된다. 더욱이, L1과 R1 사이의 길이와 GND와 REF 전극 사이의 길이는 55mm이며, 채널 L3과 R3은 20mm 거리로 L1-GND 및 R1-REF 라인에 수직인 것을 특징으로 한다.Referring to FIG. 2 , the present invention measures ear-EEG data through 6 channels, 3 each in both ears of the test subject (or user), as shown in FIG. 2( a ). At this time, the peripheral electrodes of the left ear are L1, L2, and L3, and the peripheral electrodes of the right ear are R1, R2, and R3. The ear-peripheral electrode is grounded with respect to the electrode of the lower right (REF) and left ear (GND), respectively. Moreover, it is characterized in that the length between L1 and R1 and the length between the GND and REF electrodes is 55 mm, and the channels L3 and R3 are perpendicular to the L1-GND and R1-REF lines with a distance of 20 mm.

귀-EEG 데이터는 도 3에 도시된 바와 같은 웨어러블 기기를 사용하여 획득된다. 착용 가능한 웨어러블 기기는 사용자의 귀 뒤쪽을 감싸고, 사용자의 뒤통수를 감싸는 수평 머리띠 형태로써 귀를 감싸는 유연한 실리콘으로 만들어진 C자형 이어폰을 포함한다. 본 발명은 웨어러블 기기에 대해 직경 14mm로 절단된 폼 타입의 스냅 습식 전극(3M Red Dot)을 사용하며, 상기 전극은 실리콘 이어폰에 내장된 소켓에서 쉽게 부착 및 분리할 수 있다. 실리콘 이어폰과 폼 타입의 스냅 전극은 사용자의 피부에 부드러운 촉감을 주어 장치를 편안하게 착용할 수 있게 한다. 더욱이, 상기 전극은 15KΩ 미만의 임피던스 값을 달성하며, 최소 6시간 동안 동일한 임피던스 수준을 유지한다.Ear-EEG data is obtained using a wearable device as shown in FIG. 3 . The wearable device includes a C-shaped earphone made of flexible silicone that wraps around the ear in the form of a horizontal headband that wraps around the back of the user's ear and the back of the user's head. The present invention uses a foam-type snap wet electrode (3M Red Dot) cut to a diameter of 14 mm for a wearable device, and the electrode can be easily attached and detached from a socket built into a silicone earphone. Silicone earphones and foam-type snap electrodes provide a soft touch to the user's skin, making the device comfortable to wear. Moreover, the electrode achieves an impedance value of less than 15 KΩ and maintains the same impedance level for at least 6 hours.

더욱이, 실리콘 이어폰은 ABS 소재로 제작된 3D 프린팅 프레임에 부착된다. 전선은 사용자의 옷에 연결할 수 있는 3D 인쇄 케이스에 포함된 EEG 감지 보드에 연결되며, 케이스에는 휴대용 배터리와 충전기가 포함된다. 또한, 본 발명은 OpenBCI의 Cyton Biosensing Board를 EEG 센싱 보드로 사용하며, EEG 획득 샘플링 속도는 250Hz를 나타낸다. Moreover, the silicone earphones are attached to a 3D printed frame made of ABS material. Wires connect to an EEG sensing board included in a 3D-printed case that can be attached to the user's clothing, which includes a portable battery and charger. In addition, the present invention uses the Cyton Biosensing Board of OpenBCI as an EEG sensing board, and the EEG acquisition sampling rate is 250 Hz.

도 2를 참조하여 설명하면, 본 발명은 도 2(b)에 도시된 바와 같이 왼쪽 반구 주변에 32개의 Ag/AgCl 전극으로 구성된 EEG 캡이 있는 BrainVision actiCHAMP를 사용하여 500Hz의 샘플링 속도로 두피-EEG 데이터를 획득한다. 이때, Fpz와 FCz를 각각 접지 채널과 기준 채널로 선택한다.Referring to Fig. 2, the present invention is scalp-EEG at a sampling rate of 500 Hz using BrainVision actiCHAMP with an EEG cap composed of 32 Ag/AgCl electrodes around the left hemisphere as shown in Fig. 2(b). Acquire data. In this case, Fpz and FCz are selected as the ground channel and the reference channel, respectively.

본 발명은 두 가지 주요 이유로 뇌의 왼쪽 반구에만 두피-주변 전극을 부착한다. 첫 번째 이유는 전극의 수를 줄여서 장비 준비 시간을 단축하여 사용자의 피로를 줄이기 위함이다. 두 번째 이유는 좌뇌가 Broca 영역(F5, FT7, FC5, FC3)과 음성의 생성과 관련된 Wernicke 영역(TP7, CP5, CP3, P5)을 포함하기 때문이다. 나아가, 두피-주변 전극은 귀-주변 전극에 근접하기 때문에 채널 T9, TP9 및 P9에 배치되지 않는다. 또한, 전해질 젤을 삽입하여 전극과 두피 사이의 연결을 보장하고 임피던스 레벨을 10KΩ 미만으로 유지한다. The present invention attaches scalp-peripheral electrodes only to the left hemisphere of the brain for two main reasons. The first reason is to reduce user fatigue by reducing the number of electrodes to shorten equipment preparation time. The second reason is that the left brain contains Broca's areas (F5, FT7, FC5, FC3) and Wernicke's areas (TP7, CP5, CP3, P5) involved in speech production. Furthermore, the scalp-peripheral electrodes are not placed in channels T9, TP9 and P9 because they are close to the ear-peripheral electrodes. In addition, an electrolyte gel is inserted to ensure the connection between the electrode and the scalp and keep the impedance level below 10 KΩ.

다시 도 1을 참조하면, 단계 S120에서, 귀-EEG 데이터 및 두피-EEG 데이터를 EEG 주파수 대역으로 분해하여 귀-EEG 특성 행렬 및 두피-EEG 특성 행렬을 추출한다. Referring back to FIG. 1 , in step S120 , the ear-EEG data and the scalp-EEG data are decomposed into EEG frequency bands to extract an ear-EEG characteristic matrix and a scalp-EEG characteristic matrix.

단계 S120은 노치 필터(Notch filter)를 귀-EEG 데이터 및 두피-EEG 데이터에 적용하여 노이즈를 제거(Data Pre-Processing)하고, EEG epoch로 분할하여 EEG 주파수 대역으로 분해하며, 각 주파수 대역에 대한 접선 벡터를 산출하여 특성 행렬 차원의 귀-EEG 특성 행렬 및 두피-EEG 특성 행렬의 공분산 행렬(Covariance Matrix)을 추출할 수 있다. 이때, 단계 S120은 공분산 행렬을 해당 접선 공간에 투영(Tangent Space Projection)하고 접선 벡터를 구성하여 이를 분류 알고리즘의 특징으로 효과적으로 사용할 수 있도록 한다.In step S120, a notch filter is applied to the ear-EEG data and the scalp-EEG data to remove noise (Data Pre-Processing), divided into EEG epochs, and decomposed into EEG frequency bands, By calculating the tangent vector, a covariance matrix of the ear-EEG feature matrix and the scalp-EEG feature matrix of the feature matrix dimension may be extracted. In this case, in step S120, the covariance matrix is projected onto the corresponding tangent space (Tangent Space Projection) and the tangent vector is constructed so that it can be effectively used as a feature of the classification algorithm.

보다 구체적으로, 단계 S120은 60Hz 컷오프 주파수를 가진 노치 필터를 귀-EEG 데이터 및 두피-EEG 데이터에 적용하여 전원 라인에서 노이즈를 제거한다. 그런 다음, 귀-EEG 데이터 및 두피-EEG 데이터는 시각적 신호의 시작부터 각 시행에 대해 여러 개의 2초 EEG epoch으로 분할되고, 해당 클래스로 라벨 지정된다. 마지막으로, EEG epoch을 델타(0.5Hz - 4Hz), Theta(4Hz - 7Hz), 알파(7Hz - 14Hz), 베타(14Hz - 30Hz), 감마(30Hz - 100Hz) 및 ‘전부’(0.5Hz - 100Hz)를 포함한 5개의 EEG 주파수 대역으로 분해한다. 처음 5개의 주파수 대역은 고유한 특성과 기능에 따라 분류되는 공통 EEG 주파수 대역이며, ‘전부’ 대역의 목적은 EEG 데이터를 전체적으로 캡처하고 처리하는 것이다. 이에 따라서, 단계 S120은 EEG 데이터를 다른 대역으로 분해하고 다른 대역에서 특성을 추출함으로써, 실험 결과를 분석하여 음성 이미지 작업의 EEG와 인지 메커니즘 사이의 관계를 추출할 수 있다. More specifically, step S120 applies a notch filter having a 60Hz cutoff frequency to the ear-EEG data and the scalp-EEG data to remove noise from the power line. The ear-EEG data and scalp-EEG data are then split into multiple 2-second EEG epochs for each trial from the beginning of the visual cue, and labeled with the corresponding classes. Finally, the EEG epochs are delta (0.5 Hz - 4 Hz), Theta (4 Hz - 7 Hz), alpha (7 Hz - 14 Hz), beta (14 Hz - 30 Hz), gamma (30 Hz - 100 Hz) and 'all' (0.5 Hz - 100 Hz). ) into 5 EEG frequency bands including The first five frequency bands are common EEG frequency bands classified according to their unique characteristics and functions, and the purpose of the ‘all’ bands is to capture and process EEG data as a whole. Accordingly, in step S120, by decomposing the EEG data into different bands and extracting features from the different bands, the relationship between the EEG and the cognitive mechanism of the voice image task can be extracted by analyzing the experimental results.

EEG 데이터에서 귀-EEG 특성 행렬 및 두피-EEG 특성 행렬을 추출하는 과정을 설명하자면, i번째 시행의 각 주파수 대역의 EEG 데이터 epoch는 행렬

Figure pat00001
을 나타낼 수 있으며, 여기서 n은 채널의 수를 나타내고, T는 한 epoch의 데이터 포인트를 나타낸다. 공분산 행렬
Figure pat00002
은 다음과 같이 정의된다. To explain the process of extracting the ear-EEG characteristic matrix and the scalp-EEG characteristic matrix from the EEG data, the EEG data epoch of each frequency band in the i-th trial is a matrix
Figure pat00001
, where n denotes the number of channels and T denotes a data point of one epoch. covariance matrix
Figure pat00002
is defined as

[수식 1][Formula 1]

Figure pat00003
Figure pat00003

이때, 결과 공분산 행렬 Pi는 대칭 양의 정부호(Symmetric Positive-Definite; SPD) 행렬을 나타낸다.In this case, the resulting covariance matrix Pi represents a symmetric positive-definite (SPD) matrix.

SPD 행렬의 공간은 Riemannian 매니폴드에 있기 때문에, 본 발명은 하이퍼 평면으로 투영을 기반으로 하는 분류 알고리즘의 특징으로 공분산 행렬을 직접적으로 효과적으로 사용할 수 없다. 이에, 본 발명은 공분산 행렬을 해당 접선 공간에 투영하고 접선 벡터를 구성하여 이를 분류 알고리즘의 특징으로 효과적으로 사용할 수 있도록 한다. 각 공분산 행렬 Pi에 대해

Figure pat00004
에서 접선 공간 벡터
Figure pat00005
는 하기의 [수식 2]와 같이 정의된다. Since the space of the SPD matrix is in the Riemannian manifold, the present invention cannot effectively use the covariance matrix directly as a feature of the classification algorithm based on projection to the hyperplane. Accordingly, the present invention projects the covariance matrix into the corresponding tangent space and constructs a tangent vector so that it can be effectively used as a feature of a classification algorithm. For each covariance matrix Pi
Figure pat00004
tangent space vector in
Figure pat00005
is defined as in [Equation 2] below.

[수식 2][Equation 2]

Figure pat00006
Figure pat00006

여기서, upper(X)는 행렬 X의 상부 삼각형 부분만 유지하고 대각선 요소에 단일 가중치를 적용하여 나머지에

Figure pat00007
가중치를 적용함으로써, 이를 벡터화하는 연산자를 나타낸다. PR은 N 공분산 행렬의 Riemannian 평균을 나타내고, Logc(P)는 [수식 3]과 같이 정의된 기준점 C를 사용한 행렬 P의 로그 매핑을 나타낸다.Here, upper(X) maintains only the upper triangular part of the matrix X and applies a single weight to the diagonal elements to the rest.
Figure pat00007
By applying a weight, we represent an operator that vectorizes it. PR represents the Riemannian mean of the N covariance matrix, and Logc(P) represents the log mapping of the matrix P using the reference point C defined as in [Equation 3].

[수식 3][Equation 3]

Figure pat00008
Figure pat00008

이후에, 본 발명은 각 주파수 대역에 대해 별도로 접선 벡터를 계산한다. 그런 다음 특성 행렬은 각 주파수 대역의 모든 접선 벡터를 연결하여 구성된다. 특성 행렬의 차원은 귀-EEG 데이터의 경우 (Ns×126)이고, 두피-EEG 데이터의 경우 (Ns×2976)이며, 여기서 Ns는 샘플 수를 나타낸다. 마지막으로, ANONA F-값을 계산하고, 최종 특성 행렬의 차원을 (Ns×k)로 결론짓는 분류에 가장 적합한 k 특성을 선택하는 데 사용한다. 이때, 본 발명은 귀-EEG의 경우 k=[1, 10, 20, …, 110]을 사용하고, 두피-EEG의 경우 k=[1, 100, 200, …, 2500]을 사용하여 알고리즘을 실행한다. 특성 선택 방법은 시스템의 계산 비용을 줄이는 데 도움이 될 수 있으며, 시스템의 정확도를 향상시킬 수 있다.Then, the present invention calculates the tangent vector separately for each frequency band. Then the characteristic matrix is constructed by connecting all the tangent vectors of each frequency band. The dimension of the feature matrix is (Ns×126) for ear-EEG data and (Ns×2976) for scalp-EEG data, where Ns represents the number of samples. Finally, the ANONA F-value is computed and used to select the k-features that are best suited for classification, concluding that the dimension of the final feature matrix is (Ns×k). At this time, the present invention is k = [1, 10, 20, ... in the case of ear-EEG. , 110], and for scalp-EEG, k = [1, 100, 200, … , 2500] to run the algorithm. The feature selection method can help to reduce the computational cost of the system, and can improve the accuracy of the system.

다시 도 1을 참조하면, 단계 S130에서, ELM(Extreme Learning Machine) 모델을 이용하여 귀-EEG 특성 행렬(ear feature matrix) 및 두피-EEG 특성 행렬(scalp feature matrix)을 매핑하여 뇌-컴퓨터 인터페이스에서 음성 이미지 모니터링을 위한 두피-EEG, 귀-EEG 및 귀-두피 EEG의 결과 데이터를 획득한다. Referring back to FIG. 1 , in step S130, an ear-EEG feature matrix and a scalp-EEG feature matrix are mapped using an ELM (Extreme Learning Machine) model in the brain-computer interface. Acquire result data of scalp-EEG, ear-EEG, and ear-scalp EEG for voice image monitoring.

단계 S130은 ELM 모델을 이용하여 귀-EEG 특성 행렬을 두피-EEG 특성 공간에 매핑하여 귀-EEG를 개선시켜 획득할 수 있다. 이때, 단계 S130은 ELM 모델에서 출력 계층과 동일한 샘플의 두피-EEG 특성 행렬을 사용하여 획득되는 귀-두피 특성 행렬(Ear-to-Scalp mapped feature matrix)을 통해 뇌-컴퓨터 인터페이스에서 음성 이미지 모니터링을 위한 두피-EEG(Scalp-EEG results), 귀-EEG(Ear-EEG Results) 및 귀-두피 EEG(Ear-to-Scalp Results)의 결과 데이터를 획득할 수 있다. Step S130 may be obtained by improving the ear-EEG by mapping the ear-EEG feature matrix to the scalp-EEG feature space using the ELM model. At this time, in step S130, voice image monitoring is performed at the brain-computer interface through an Ear-to-Scalp mapped feature matrix obtained using the scalp-EEG feature matrix of the same sample as the output layer in the ELM model. For scalp-EEG (Scalp-EEG results), ear-EEG (Ear-EEG Results), and ear-scalp EEG (Ear-to-Scalp Results) result data can be obtained.

보다 구체적으로, ELM(Extreme Learning Machine) 모델은 입력 계층, 단일 은닉 계층 및 출력 계층으로 구성된 단일 계층 피드포워드 신경 네트워크(single layer feed-forward neural network)이다. ELM 모델은 입력 가중치와 편향 값에 대한 랜덤 초기화로 인해 훈련 속도가 매우 빠르며, EEG의 비정적 특성 때문에 분류 모델을 정기적으로 업데이트해야 하는 일상생활 애플리케이션의 BCI에 적합하다. 또한, ELM 모델은 일반적인 분류 방법에 비해 음성 이미지 기반 BCI에서 더 나은 성능을 보여준다.More specifically, an ELM (Extreme Learning Machine) model is a single layer feed-forward neural network composed of an input layer, a single hidden layer, and an output layer. The ELM model has a very fast training speed due to random initialization of the input weights and bias values, and is suitable for BCI in everyday life applications where the classification model needs to be updated regularly due to the non-static nature of EEG. In addition, the ELM model shows better performance in the speech image-based BCI compared to the general classification method.

i=1, …, N를 나타내고, j는 입력 노드의 수를 나타내며, m은 출력 노드의 수인 N개의 구별되는 샘플

Figure pat00009
Figure pat00010
에서 은닉 계층 출력은 하기의 [수식 4]와 같이 정의된다.i=1, … , N, where j denotes the number of input nodes, and m denotes the number of output nodes, N distinct samples.
Figure pat00009
and
Figure pat00010
The hidden layer output is defined as [Equation 4] below.

[수식 4][Equation 4]

Figure pat00011
Figure pat00011

여기서, g(x)는 활성화 함수를 나타내고,

Figure pat00012
는 입력 가중치를 나타내며,
Figure pat00013
는 편향을 나타낸다. 출력 계층은 하기의 [수식 5]와 같이 정의된다.where g(x) represents the activation function,
Figure pat00012
is the input weight,
Figure pat00013
represents the bias. The output layer is defined as [Equation 5] below.

[수식 5][Equation 5]

Figure pat00014
Figure pat00014

여기서,

Figure pat00015
은 출력 계층의 행렬을 나타낸다. N 훈련 샘플을 고려해보면, n개의 은닉 노드를 가지는 ELM 모델은 다음과 같이 구성될 수 있다.here,
Figure pat00015
denotes the matrix of the output layer. Considering N training samples, an ELM model with n hidden nodes can be constructed as follows.

[수식 6][Equation 6]

Figure pat00016
Figure pat00016

ELM 모델을 학습시키는 데는 세 가지 단계가 있다. 첫 번째 단계는 입력 가중치 a와 편향 b에 랜덤 값(0과 1)을 할당하는 것이며, 두 번째 단계는 행렬 H를 계산하는 것이고, 마지막으로 출력 가중치는

Figure pat00017
로 계산할 수 있다. 이때, Ht는 행렬 H의 Moore-Penrose 일반화 역을 나타낸다.There are three steps to training an ELM model. The first step is to assign random values (0 and 1) to the input weights a and bias b, the second step is to compute the matrix H, and finally the output weights are
Figure pat00017
can be calculated as In this case, Ht represents the Moore-Penrose generalization inverse of the matrix H.

ELM 모델의 변형 중 하나는 자동 인코딩 ELM(ELM-AE)이다. ELM-AE의 모델 구조는 도 4(a)에 도시되며, 네트워크의 출력을 네트워크의 입력과 동일하게 구성된 비지도 학습 ELM을 나타낸다. 이때, ELM-AE는 일반 ELM과 같은 방식으로 훈련된다.One variant of the ELM model is the automatic encoding ELM (ELM-AE). The model structure of the ELM-AE is shown in Fig. 4(a), which shows an unsupervised learning ELM in which the output of the network is the same as the input of the network. At this time, ELM-AE is trained in the same way as general ELM.

나아가, 본 발명은 딥러닝에 대한 관심이 높아지면서 딥러닝의 개념을 ELM에 적용했다. 다층 극한 학습 기계(Multi-Layer Extreme Learning Machine; MLELM)는 다수의 ELM-AE를 사용하여 구성되었다. MLELM은 여러 개의 ELM-AE를 사용하여 각 은닉 계층에 대한 입력을 훈련시키고, 이는 ELM-AE에서 학습된 출력 가중치 V를 사용하여 각 계층의 입력 데이터를 특성 공간으로 전송한다. MLELM 모델의 l번째 은닉 계층은 다음과 같이 표현될 수 있다.Furthermore, the present invention applies the concept of deep learning to ELM as interest in deep learning increases. A Multi-Layer Extreme Learning Machine (MLELM) was constructed using multiple ELM-AEs. MLELM uses multiple ELM-AEs to train the input for each hidden layer, which uses the output weights V learned from the ELM-AE to transfer the input data of each layer to the feature space. The l-th hidden layer of the MLELM model can be expressed as follows.

[수식 7][Equation 7]

Figure pat00018
Figure pat00018

첫 번째 은닉 계층(l=1)에서 H0은 입력 계층 x라는 점에 유의해야 한다. 마지막 은닉 계층과 출력 계층을 연결하는 출력 가중치는 원래의 ELM과 동일한 방식으로 학습되며, k은닉 계층을 가진 MLELM 모델의 구조는 도 4(b)에 도시되었다. Note that in the first hidden layer (l=1), H0 is the input layer x. The output weight connecting the last hidden layer and the output layer is learned in the same way as the original ELM, and the structure of the MLELM model with k hidden layers is shown in Fig. 4(b).

이에 따라서 도 1에서, 단계 S130은 ELM 모델을 이용하여 귀-EEG 특성 행렬을 두피-EEG 특성 공간에 매핑하여 귀-EEG를 개선시켜 획득할 수 있다. 구체적으로, 매핑 프로세스는 ELM 모델을 사용하여 수행된다. 귀-두피 매핑 ELM 모델은 분류 작업과 동일한 방식으로 훈련되지만 샘플 라벨 y를 출력 계층으로 설정하는 대신 출력 계층과 동일한 샘플의 두피-EEG 특성을 사용한다. 이때, Ear-to-Scalp 특성 행렬은 귀-EEG 특성 행렬 및 두피-EEG 특성 행렬과 동일한 방식으로 추가 처리 및 분류된다. Accordingly, in FIG. 1 , step S130 may be obtained by improving the ear-EEG by mapping the ear-EEG feature matrix to the scalp-EEG feature space using the ELM model. Specifically, the mapping process is performed using an ELM model. The ear-scalp mapping ELM model is trained in the same way as the classification task, but instead of setting the sample label y as the output layer, it uses the scalp-EEG characteristics of the same sample as the output layer. At this time, the Ear-to-Scalp feature matrix is further processed and classified in the same manner as the ear-EEG feature matrix and the scalp-EEG feature matrix.

도 5는 본 발명의 실시예에 따른 음성 이미지 작업 및 휴식 작업의 실험 절차를 도시한 것이다. 5 is a diagram illustrating an experimental procedure of a voice image task and a rest task according to an embodiment of the present invention.

실험 절차는 실험 시작 시 시각적 단서를 사용하여 설명되며, 실험 중에 피험자들의 귀-EEG와 두피-EEG를 동시에 기록한다. 실험의 각 세션에는 10개의 작업 블록이 있으며, 각 블록에는 단어 "Right", "Left", "Foward" 및 "Go back"에 대한 네 가지 음성 이미지 작업과 피험자가 눈을 뜬 채로 긴장을 풀도록 하는 제어 작업이 랜덤 순서로 포함되어 있다.The experimental procedure is described using visual cues at the start of the experiment, and the subjects' ear-EEG and scalp-EEG are simultaneously recorded during the experiment. Each session of the experiment had 10 task blocks, each with four voice image tasks on the words "Right," "Left," "Foward," and "Go back," and asked subjects to relax with their eyes open. control tasks are included in random order.

음성 이미지 작업과 제어 작업(휴식 상태 작업) 간에 실험 단계가 다르다. 음성 이미지 작업(도 5(a))은 미국 억양으로 여성 목소리가 해당 단어를 읽는 오디오 신호로 시작했다. 2초 후, 피실험자들에게 긴장을 풀도록 지시하는 동안 1초 동안 십자형 신호가 나타났다. 그리고 나서, 동그라미 표시가 2초 동안 주어졌고, 그들은 전에 주어진 단어를 말할 것으로 기대되었다. 이어 이완을 위해 1초간의 십자형이 다시 보여졌다. 실제 연결된 음성은 일반적으로 1초도 걸리지 않았기 때문에, 피험자들은 다음 단계를 위해 실제로 1초 이상 쉬었다. 그런 다음 적재 막대를 2초간 보여주었고, 실험 대상자는 로딩 바(loading bar)의 진행 상황에 따라 단어를 확장된 방식으로 상상하도록 지시받는다. 이것은 5번 연속으로 보여졌고, 그 사이에 1초간의 십자형이 보여졌다. 피험자는 다음 과제를 시작하기 전에 2.5초 동안 휴식을 취했다. The experimental steps are different between the voice image task and the control task (the resting state task). The voice image task (Fig. 5(a)) started with an audio signal in which a female voice reads the word with an American accent. Two seconds later, a crosshair signal appeared for one second while instructing the subjects to relax. Then, circle marks were given for 2 seconds, and they were expected to say the previously given word. Then, a cross for 1 second was shown again for relaxation. Because the actual connected voice usually took less than a second, the subjects actually rested for more than a second for the next step. The loading bar was then shown for 2 seconds, and the subject was instructed to imagine the word in an expanded fashion according to the progress of the loading bar. It was shown 5 times in a row, with a crosshair of 1 second in between. Subjects rested for 2.5 seconds before starting the next task.

제어 작업(도 5(b))은 음성 이미지 작업과 유사한 방식으로 수행되었지만 청각 단어 대신 삐 소리가 나며 연결된 음성에는 다음 단계가 없다. 이 과제에서 피험자는 아무 말도 상상하지 않고 로딩 바를 살펴보도록 지시받는다. The control task (Fig. 5(b)) was performed in a similar manner to the voice image task, but instead of an auditory word, a beep sounded and there was no next step in the connected voice. In this task, the subject is instructed to look at the loading bar without imagining a word.

전술한 실험 절차를 통한 10명의 피험자에 걸친 분류 결과는 각각 38.2%, 43.1%로 최대 43.8%이며, 두피-EEG의 경우 55.0%이다. 분산 분석(ANOVA)에 따르면 10명 중 6명의 피험자가 귀-EEG와 두피-EEG의 성능 간에 유의한 차이를 보이지 않았다. 이를 통해서 귀-EEG가 음성 이미지 모니터링을 위한 두피-EEG 획득 방법의 대안으로 큰 잠재력을 가지고 있음을 확인할 수 있다. Classification results over 10 subjects through the above-described experimental procedure were 38.2% and 43.1%, respectively, which is a maximum of 43.8%, and 55.0% for scalp-EEG. Analysis of variance (ANOVA) showed that 6 out of 10 subjects showed no significant difference between the performance of ear-EEG and scalp-EEG. Through this, it can be confirmed that the ear-EEG has great potential as an alternative to the scalp-EEG acquisition method for monitoring voice images.

도 6은 본 발명의 실시예에 따른 EEG 데이터 수집, 특징 추출 및 분류를 처리하는 데이터 획득 시스템의 절차를 도시한 것이며, 도 7은 본 발명의 실시예에 따른 귀-EEG를 이용한 음성 이미지 기반의 BCI를 위한 데이터 획득 시스템의 세부 구성을 블록도로 도시한 것이다.6 shows a procedure of a data acquisition system processing EEG data collection, feature extraction and classification according to an embodiment of the present invention, and FIG. It is a block diagram showing the detailed configuration of a data acquisition system for BCI.

도 6 및 도 7을 참조하면, 본 발명의 실시예에 따른 데이터 획득 시스템(700)은 두피-EEG 획득 방법의 대안으로 이미지 모니터링을 위한 귀-EEG 획득할 수 있다.6 and 7 , the data acquisition system 700 according to an embodiment of the present invention may acquire ear-EEG for image monitoring as an alternative to the scalp-EEG acquisition method.

이를 위해, 본 발명의 실시예에 따른 데이터 획득 시스템(700)은 측정부(710), 추출부(720) 및 획득부(730)를 포함한다.To this end, the data acquisition system 700 according to the embodiment of the present invention includes a measuring unit 710 , an extracting unit 720 , and an acquiring unit 730 .

측정부(710)는 음성 이미지에 의해, 귀-주변 전극(6 Channels Ear-EEG)을 이용하여 귀-EEG 데이터(ear-EEG)를 측정하고, 두피-주변 전극(32 Channels Scalp-EEG)을 이용하여 두피-EEG 데이터(scalp-EEG)를 측정한다. The measurement unit 710 measures the ear-EEG data (ear-EEG) using the 6 Channels Ear-EEG by the voice image, and the scalp-peripheral electrode (32 Channels Scalp-EEG) to measure scalp-EEG data (scalp-EEG).

측정부(710)는 사용자의 귀 뒤쪽을 감싸는 C자형 이어폰의 웨어러블 기기를 이용하며, 웨어러블 기기에 부착된 스냅 습식 전극의 귀-주변 전극을 이용하여 음성 이미지에 대한 귀-EEG 데이터를 측정할 수 있다. 또한, 측정부(710)는 사용자의 뇌 반구 주변에 부착된 복수개의 두피-주변 전극을 이용하여 음성 이미지에 대한 두피-EEG 데이터를 측정할 수 있다.The measurement unit 710 uses a wearable device of a C-shaped earphone that wraps around the back of the user's ear, and can measure the ear-EEG data for the voice image using the ear-peripheral electrode of the snap wet electrode attached to the wearable device. have. In addition, the measurement unit 710 may measure the scalp-EEG data for the voice image by using a plurality of scalp-peripheral electrodes attached to the periphery of the user's brain hemisphere.

추출부(720)는 귀-EEG 데이터 및 두피-EEG 데이터를 EEG 주파수 대역으로 분해하여 귀-EEG 특성 행렬 및 두피-EEG 특성 행렬을 추출한다.The extraction unit 720 decomposes the ear-EEG data and the scalp-EEG data into EEG frequency bands to extract an ear-EEG characteristic matrix and a scalp-EEG characteristic matrix.

추출부(720)는 노치 필터(Notch filter)를 귀-EEG 데이터 및 두피-EEG 데이터에 적용하여 노이즈를 제거(Data Pre-Processing)하고, EEG epoch로 분할하여 EEG 주파수 대역으로 분해하며, 각 주파수 대역에 대한 접선 벡터를 산출하여 특성 행렬 차원의 귀-EEG 특성 행렬 및 두피-EEG 특성 행렬의 공분산 행렬(Covariance Matrix)을 추출할 수 있다. 이때, 추출부(720)는 공분산 행렬을 해당 접선 공간에 투영(Tangent Space Projection)하고 접선 벡터를 구성하여 이를 분류 알고리즘의 특징으로 효과적으로 사용할 수 있도록 한다.The extraction unit 720 applies a notch filter to the ear-EEG data and the scalp-EEG data to remove noise (Data Pre-Processing), divides it into EEG epochs, and decomposes it into EEG frequency bands, each frequency By calculating a tangent vector with respect to a band, a covariance matrix of the ear-EEG feature matrix and the scalp-EEG feature matrix of the feature matrix dimension may be extracted. In this case, the extraction unit 720 projects the covariance matrix onto the corresponding tangent space (Tangent Space Projection) and constructs a tangent vector so that it can be effectively used as a feature of the classification algorithm.

획득부(730)는 ELM(Extreme Learning Machine) 모델을 이용하여 귀-EEG 특성 행렬(ear feature matrix) 및 두피-EEG 특성 행렬(scalp feature matrix)을 매핑하여 뇌-컴퓨터 인터페이스에서 음성 이미지 모니터링을 위한 두피-EEG, 귀-EEG 및 귀-두피 EEG의 결과 데이터를 획득한다.The acquisition unit 730 maps an ear-EEG feature matrix and a scalp-EEG feature matrix using an ELM (Extreme Learning Machine) model to monitor voice images in a brain-computer interface. Acquire result data of scalp-EEG, ear-EEG and ear-scalp EEG.

획득부(730)는 ELM 모델(Classification Model)을 이용하여 귀-EEG 특성 행렬을 두피-EEG 특성 공간에 매핑하여 귀-EEG를 개선시켜 획득할 수 있다. 이때, 획득부(730)는 ELM 모델에서 출력 계층과 동일한 샘플의 두피-EEG 특성 행렬을 사용하여 획득되는 귀-두피 특성 행렬(Ear-to-Scalp mapped feature matrix)을 통해 뇌-컴퓨터 인터페이스에서 음성 이미지 모니터링을 위한 두피-EEG(Scalp-EEG Results), 귀-EEG(Ear-EEG Results) 및 귀-두피 EEG(Ear-to-Scalp EEG Results)의 결과 데이터를 획득할 수 있다. The acquirer 730 may improve and acquire the ear-EEG by mapping the ear-EEG characteristic matrix to the scalp-EEG characteristic space using an ELM model (Classification Model). At this time, the acquisition unit 730 receives the voice from the brain-computer interface through an Ear-to-Scalp mapped feature matrix obtained by using the scalp-EEG characteristic matrix of the same sample as the output layer in the ELM model. Result data of scalp-EEG (Scalp-EEG Results), ear-EEG (Ear-EEG Results), and ear-scalp EEG (Ear-to-Scalp EEG Results) for image monitoring may be acquired.

본 발명의 실시예에 따른 데이터 획득 시스템(700)은 실험의 각 세션에 대해 10폴드 교차 검증을 사용하여 평가된다. 교차 검증의 각 반복에 대해 225개의 훈련 샘플과 25개의 테스트 샘플이 제공되며, 동일한 블록의 표본이 같은 접힌 곳에 머무르는 방식으로 수행되었다. 접선 공간 투영 및 특성 선택기는 훈련 샘플의 데이터만 사용하여 계산된다. 또한, 그리드 검색 방법을 사용하여 ELM 및 MLELM 모델의 각 계층에서 [50, 60, …, 200]의 숨겨진 노드 수를 최적화하며, ELM 모델과 그 변형은 그것의 가중치와 편향 값으로 랜덤화된 값을 사용하기 때문에, 모델 훈련의 각 실행이 동일한 출력을 제공하도록 랜덤 시드가 지정된다. A data acquisition system 700 according to an embodiment of the present invention is evaluated using 10-fold cross-validation for each session of the experiment. For each iteration of the cross-validation, 225 training samples and 25 test samples were provided, and samples from the same block stayed in the same fold. Tangent space projections and feature selectors are computed using only data from the training sample. In addition, using the grid search method, [50, 60, … , 200], and since the ELM model and its variants use randomized values as their weights and bias values, random seeds are specified such that each run of model training gives the same output.

비록, 본 발명의 도 7의 시스템에서 그 설명이 생략되었더라도, 본 발명의 시스템을 구성하는 구성 수단은 도 1 내지 도 6에서 설명한 모든 내용을 포함할 수 있으며, 이는 이 기술 분야에 종사하는 당업자에게 있어서 자명하다. Although the description is omitted in the system of FIG. 7 of the present invention, the constituent means constituting the system of the present invention may include all the contents described in FIGS. 1 to 6 , which will be appreciated by those skilled in the art. it is self-evident

이상에서 설명된 시스템 또는 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(Field Programmable Gate Array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The system or apparatus described above may be implemented as a hardware component, a software component, and/or a combination of the hardware component and the software component. For example, the devices and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA). , a programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions, may be implemented using one or more general purpose or special purpose computers. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For convenience of understanding, although one processing device is sometimes described as being used, one of ordinary skill in the art will recognize that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that may include For example, the processing device may include a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as parallel processors.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may comprise a computer program, code, instructions, or a combination of one or more thereof, which configures a processing device to operate as desired or is independently or collectively processed You can command the device. The software and/or data may be any kind of machine, component, physical device, virtual equipment, computer storage medium or device, to be interpreted by or to provide instructions or data to the processing device. , or may be permanently or temporarily embody in a transmitted signal wave. The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with reference to the limited embodiments and drawings, various modifications and variations are possible by those skilled in the art from the above description. For example, the described techniques are performed in a different order than the described method, and/or the described components of the system, structure, apparatus, circuit, etc. are combined or combined in a different form than the described method, or other components Or substituted or substituted by equivalents may achieve an appropriate result.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (12)

귀-EEG를 이용한 음성 이미지(Speech-imagery) 기반의 뇌-컴퓨터 인터페이스(Brain-Computer Interface; BCI)를 위한 데이터 획득 방법에 있어서,
음성 이미지에 의해, 귀-주변 전극을 이용하여 귀-EEG 데이터(ear-EEG)를 측정하고, 두피-주변 전극을 이용하여 두피-EEG 데이터(scalp-EEG)를 측정하는 단계;
상기 귀-EEG 데이터 및 상기 두피-EEG 데이터를 EEG 주파수 대역으로 분해하여 귀-EEG 특성 행렬 및 두피-EEG 특성 행렬을 추출하는 단계; 및
ELM(Extreme Learning Machine) 모델을 이용하여 상기 귀-EEG 특성 행렬 및 상기 두피-EEG 특성 행렬을 매핑하여 뇌-컴퓨터 인터페이스에서 음성 이미지 모니터링을 위한 두피-EEG, 귀-EEG 및 귀-두피 EEG의 결과 데이터를 획득하는 단계
를 포함하는 데이터 획득 방법.
In a data acquisition method for a brain-computer interface (BCI) based on speech-imagery using an ear-EEG,
Measuring the ear-EEG data (ear-EEG) using the ear-peripheral electrode and measuring the scalp-EEG data (scalp-EEG) using the scalp-peripheral electrode by the voice image;
extracting an ear-EEG characteristic matrix and a scalp-EEG characteristic matrix by decomposing the ear-EEG data and the scalp-EEG data into EEG frequency bands; and
Results of scalp-EEG, ear-EEG, and ear-scalp EEG for voice image monitoring in a brain-computer interface by mapping the ear-EEG feature matrix and the scalp-EEG feature matrix using an Extreme Learning Machine (ELM) model Steps to Acquire Data
A data acquisition method comprising
제1항에 있어서,
상기 측정하는 단계는
사용자의 귀 뒤쪽을 감싸는 C자형 이어폰의 웨어러블 기기를 이용하며, 상기 웨어러블 기기에 부착된 스냅 습식 전극의 상기 귀-주변 전극을 이용하여 상기 음성 이미지에 대한 상기 귀-EEG 데이터를 측정하는, 데이터 획득 방법.
According to claim 1,
The measuring step
Using a wearable device of a C-shaped earphone surrounding the back of the user's ear, and measuring the ear-EEG data for the voice image using the ear-peripheral electrode of a snap wet electrode attached to the wearable device, data acquisition Way.
제1항에 있어서,
상기 측정하는 단계는
사용자의 뇌 반구 주변에 부착된 복수개의 상기 두피-주변 전극을 이용하여 상기 음성 이미지에 대한 상기 두피-EEG 데이터를 측정하는, 데이터 획득 방법.
According to claim 1,
The measuring step
A data acquisition method of measuring the scalp-EEG data for the voice image using a plurality of the scalp-peripheral electrodes attached to the periphery of the user's brain hemisphere.
제1항에 있어서,
상기 추출하는 단계는
노치 필터(Notch filter)를 상기 귀-EEG 데이터 및 상기 두피-EEG 데이터에 적용하여 노이즈를 제거하고, EEG epoch로 분할하여 EEG 주파수 대역으로 분해하며, 각 주파수 대역에 대한 접선 벡터를 산출하여 특성 행렬 차원의 상기 귀-EEG 특성 행렬 및 상기 두피-EEG 특성 행렬을 추출하는, 데이터 획득 방법.
According to claim 1,
The extraction step
A notch filter is applied to the ear-EEG data and the scalp-EEG data to remove noise, divided into EEG epochs and decomposed into EEG frequency bands, and a characteristic matrix by calculating a tangent vector for each frequency band and extracting the ear-EEG feature matrix and the scalp-EEG feature matrix of dimensions.
제1항에 있어서,
상기 획득하는 단계는
상기 ELM 모델을 이용하여 귀-EEG 특성 매트릭스를 두피-EEG 특성 공간에 매핑하여 귀-EEG를 개선시키는 것을 특징으로 하는, 데이터 획득 방법.
According to claim 1,
The obtaining step is
The method for acquiring data, characterized in that the ear-EEG is improved by mapping the ear-EEG characteristic matrix to the scalp-EEG characteristic space using the ELM model.
제5항에 있어서,
상기 획득하는 단계는
상기 ELM 모델에서 출력 계층과 동일한 샘플의 상기 두피-EEG 특성 행렬을 사용하여 획득되는 귀-두피 특성 행렬(Ear-to-Scalp)을 통해 뇌-컴퓨터 인터페이스에서 음성 이미지 모니터링을 위한 두피-EEG, 귀-EEG 및 귀-두피 EEG의 결과 데이터를 획득하는 것을 특징으로 하는, 데이터 획득 방법.
6. The method of claim 5,
The obtaining step is
Scalp-EEG, ear for voice image monitoring in the brain-computer interface through the ear-scalp feature matrix (Ear-to-Scalp) obtained using the scalp-EEG feature matrix of the same sample as the output layer in the ELM model - A method of acquiring data, characterized in that it acquires result data of EEG and ear-scalp EEG.
귀-EEG를 이용한 음성 이미지(Speech-imagery) 기반의 뇌-컴퓨터 인터페이스(Brain-Computer Interface; BCI)를 위한 데이터 획득 시스템에 있어서,
음성 이미지에 의해, 귀-주변 전극을 이용하여 귀-EEG 데이터(ear-EEG)를 측정하고, 두피-주변 전극을 이용하여 두피-EEG 데이터(scalp-EEG)를 측정하는 측정부;
상기 귀-EEG 데이터 및 상기 두피-EEG 데이터를 EEG 주파수 대역으로 분해하여 귀-EEG 특성 행렬 및 두피-EEG 특성 행렬을 추출하는 추출부; 및
ELM(Extreme Learning Machine) 모델을 이용하여 상기 귀-EEG 특성 행렬 및 상기 두피-EEG 특성 행렬을 매핑하여 뇌-컴퓨터 인터페이스에서 음성 이미지 모니터링을 위한 두피-EEG, 귀-EEG 및 귀-두피 EEG의 결과 데이터를 획득하는 획득부
를 포함하는 데이터 획득 시스템.
In a data acquisition system for a brain-computer interface (BCI) based on speech-imagery using an ear-EEG,
a measurement unit for measuring ear-EEG data (ear-EEG) using an ear-peripheral electrode, and measuring scalp-EEG data (scalp-EEG) using a scalp-peripheral electrode;
an extraction unit for decomposing the ear-EEG data and the scalp-EEG data into EEG frequency bands to extract an ear-EEG characteristic matrix and a scalp-EEG characteristic matrix; and
Results of scalp-EEG, ear-EEG, and ear-scalp EEG for voice image monitoring in a brain-computer interface by mapping the ear-EEG feature matrix and the scalp-EEG feature matrix using an Extreme Learning Machine (ELM) model Acquisition unit that acquires data
A data acquisition system comprising a.
제7항에 있어서,
상기 측정부는
사용자의 귀 뒤쪽을 감싸는 C자형 이어폰의 웨어러블 기기를 이용하며, 상기 웨어러블 기기에 부착된 스냅 습식 전극의 상기 귀-주변 전극을 이용하여 상기 음성 이미지에 대한 상기 귀-EEG 데이터를 측정하는, 데이터 획득 시스템.
8. The method of claim 7,
The measurement unit
Using a wearable device of a C-shaped earphone surrounding the back of the user's ear, and measuring the ear-EEG data for the voice image using the ear-peripheral electrode of a snap wet electrode attached to the wearable device, data acquisition system.
제7항에 있어서,
상기 측정부는
사용자의 뇌 반구 주변에 부착된 복수개의 상기 두피-주변 전극을 이용하여 상기 음성 이미지에 대한 상기 두피-EEG 데이터를 측정하는, 데이터 획득 시스템.
8. The method of claim 7,
The measurement unit
A data acquisition system for measuring the scalp-EEG data for the voice image by using a plurality of the scalp-peripheral electrodes attached to the periphery of the user's brain hemisphere.
제7항에 있어서,
상기 추출부는
노치 필터(Notch filter)를 상기 귀-EEG 데이터 및 상기 두피-EEG 데이터에 적용하여 노이즈를 제거하고, EEG epoch로 분할하여 EEG 주파수 대역으로 분해하며, 각 주파수 대역에 대한 접선 벡터를 산출하여 특성 행렬 차원의 상기 귀-EEG 특성 행렬 및 상기 두피-EEG 특성 행렬을 추출하는, 데이터 획득 시스템.
8. The method of claim 7,
The extraction unit
A notch filter is applied to the ear-EEG data and the scalp-EEG data to remove noise, divided into EEG epochs and decomposed into EEG frequency bands, and a characteristic matrix by calculating a tangent vector for each frequency band extracting the ear-EEG feature matrix and the scalp-EEG feature matrix of dimensions.
제7항에 있어서,
상기 획득부는
상기 ELM 모델을 이용하여 귀-EEG 특성 매트릭스를 두피-EEG 특성 공간에 매핑하여 귀-EEG를 개선시키는 것을 특징으로 하는, 데이터 획득 시스템.
8. The method of claim 7,
the acquisition unit
and improving the ear-EEG by mapping the ear-EEG feature matrix to the scalp-EEG feature space using the ELM model.
제11항에 있어서,
상기 획득부는
상기 ELM 모델에서 출력 계층과 동일한 샘플의 상기 두피-EEG 특성 행렬을 사용하여 획득되는 귀-두피 특성 행렬(Ear-to-Scalp)을 통해 뇌-컴퓨터 인터페이스에서 음성 이미지 모니터링을 위한 두피-EEG, 귀-EEG 및 귀-두피 EEG의 결과 데이터를 획득하는 것을 특징으로 하는, 데이터 획득 시스템.
12. The method of claim 11,
the acquisition unit
Scalp-EEG, ear for voice image monitoring in the brain-computer interface through the ear-scalp feature matrix (Ear-to-Scalp) obtained using the scalp-EEG feature matrix of the same sample as the output layer in the ELM model - A data acquisition system, characterized in that it acquires result data of EEG and ear-scalp EEG.
KR1020210000334A 2021-01-04 2021-01-04 Data acquisition method for brain-computer interface based on speech imagery using ear-eeg and the system thereof KR102511641B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210000334A KR102511641B1 (en) 2021-01-04 2021-01-04 Data acquisition method for brain-computer interface based on speech imagery using ear-eeg and the system thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210000334A KR102511641B1 (en) 2021-01-04 2021-01-04 Data acquisition method for brain-computer interface based on speech imagery using ear-eeg and the system thereof

Publications (2)

Publication Number Publication Date
KR20220098533A true KR20220098533A (en) 2022-07-12
KR102511641B1 KR102511641B1 (en) 2023-03-21

Family

ID=82419964

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210000334A KR102511641B1 (en) 2021-01-04 2021-01-04 Data acquisition method for brain-computer interface based on speech imagery using ear-eeg and the system thereof

Country Status (1)

Country Link
KR (1) KR102511641B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180006573A (en) * 2016-07-08 2018-01-18 주식회사 에이치나인헬스케어 The apparatus and method of forming a multi experience
KR20180097359A (en) * 2017-02-23 2018-08-31 이상호 Wearable device for Brain Computer Interface
WO2019073603A1 (en) * 2017-10-13 2019-04-18 マクセル株式会社 Display device, brain wave interface device, heads-up display system, projector system, and method for display of visual stimulus signal
KR20190097146A (en) * 2016-12-14 2019-08-20 이너 코스모스 엘엘씨 Brain computer interface system and its use method
KR20190127490A (en) * 2018-05-04 2019-11-13 계명대학교 산학협력단 Game-based rehabilitation system that combines brain stimulation and brain-computer interface techniques to maximize activation of mirror nerve cells and its control method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180006573A (en) * 2016-07-08 2018-01-18 주식회사 에이치나인헬스케어 The apparatus and method of forming a multi experience
KR20190097146A (en) * 2016-12-14 2019-08-20 이너 코스모스 엘엘씨 Brain computer interface system and its use method
JP2020501743A (en) * 2016-12-14 2020-01-23 インナー コスモス エルエルシーInner Cosmos Llc Brain computer interface system and method of using the same
KR20180097359A (en) * 2017-02-23 2018-08-31 이상호 Wearable device for Brain Computer Interface
WO2019073603A1 (en) * 2017-10-13 2019-04-18 マクセル株式会社 Display device, brain wave interface device, heads-up display system, projector system, and method for display of visual stimulus signal
KR20190127490A (en) * 2018-05-04 2019-11-13 계명대학교 산학협력단 Game-based rehabilitation system that combines brain stimulation and brain-computer interface techniques to maximize activation of mirror nerve cells and its control method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Looney D, Kidmose P, Park C, Ungstrup M, Rank ML, Rosenkranz K, Mandic DP. The in-the-ear recording concept: User-centered and wearable brain monitoring. IEEE pulse. 2012 Dec 12;3(6):32-42.

Also Published As

Publication number Publication date
KR102511641B1 (en) 2023-03-21

Similar Documents

Publication Publication Date Title
Zhang et al. A survey on deep learning-based non-invasive brain signals: recent advances and new frontiers
US20220326772A1 (en) Brain computer interface for augmented reality
Nguyen et al. A lightweight and inexpensive in-ear sensing system for automatic whole-night sleep stage monitoring
Abhang et al. Introduction to EEG-and speech-based emotion recognition
Hwang et al. Driver drowsiness detection using the in-ear EEG
Schaaff et al. Towards an EEG-based emotion recognizer for humanoid robots
Ozmen et al. A biologically inspired approach to frequency domain feature extraction for EEG classification
CN108520239B (en) Electroencephalogram signal classification method and system
Kaongoen et al. Speech-imagery-based brain–computer interface system using ear-EEG
Rashid et al. Wink based facial expression classification using machine learning approach
Tian et al. Study on classification of left-right hands motor imagery EEG signals based on CNN
Blanco-Díaz et al. Enhancing P300 detection using a band-selective filter bank for a visual P300 speller
Melek et al. Low-cost brain-computer interface using the emotiv epoc headset based on rotating vanes
Tong et al. Hybrid mental tasks based human computer interface via integration of pronunciation and motor imagery
KR102511641B1 (en) Data acquisition method for brain-computer interface based on speech imagery using ear-eeg and the system thereof
Shatilov et al. Emerging natural user interfaces in mobile computing: A bottoms-up survey
Mai et al. Real-Time On-Chip Machine-Learning-Based Wearable Behind-The-Ear Electroencephalogram Device for Emotion Recognition
ZENG et al. Emotion detection using EEG and ECG signals from wearable textile devices for elderly people
Nguyen et al. LIBS: a bioelectrical sensing system from human ears for staging whole-night sleep study
Reaves et al. Assessment and application of EEG: A literature review
Nguyen et al. LIBS: a low-cost in-ear bioelectrical sensing solution for healthcare applications
Tong et al. Towards Improving Motor Imagery Brain–Computer Interface Using Multimodal Speech Imagery
Kanaga et al. A Pilot Investigation on the Performance of Auditory Stimuli based on EEG Signals Classification for BCI Applications
Lin et al. Toward Affective Brain–Computer Interface: Fundamentals and Analysis of EEG‐Based Emotion Classification
Seric et al. Human emotions classification using bag-of-words method on single electrode brain computer interface

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant