KR102096565B1 - Analysis method of convolutional neural network based on Wavelet transform for identifying motor imagery brain waves - Google Patents

Analysis method of convolutional neural network based on Wavelet transform for identifying motor imagery brain waves Download PDF

Info

Publication number
KR102096565B1
KR102096565B1 KR1020180136945A KR20180136945A KR102096565B1 KR 102096565 B1 KR102096565 B1 KR 102096565B1 KR 1020180136945 A KR1020180136945 A KR 1020180136945A KR 20180136945 A KR20180136945 A KR 20180136945A KR 102096565 B1 KR102096565 B1 KR 102096565B1
Authority
KR
South Korea
Prior art keywords
eeg
neural network
wavelet transform
frequency
convolutional neural
Prior art date
Application number
KR1020180136945A
Other languages
Korean (ko)
Inventor
최영석
이현규
Original Assignee
광운대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 광운대학교 산학협력단 filed Critical 광운대학교 산학협력단
Priority to KR1020180136945A priority Critical patent/KR102096565B1/en
Application granted granted Critical
Publication of KR102096565B1 publication Critical patent/KR102096565B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/04012
    • A61B5/0476
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/369Electroencephalography [EEG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7253Details of waveform analysis characterised by using transforms
    • A61B5/726Details of waveform analysis characterised by using transforms using Wavelet transforms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Public Health (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Psychiatry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physiology (AREA)
  • Signal Processing (AREA)
  • Evolutionary Computation (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Psychology (AREA)
  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)

Abstract

Disclosed is a convolution neural network analysis method based on wavelet transform for motion imagination brain signal recognition. The convolution neural network analysis technique based on wavelet transform for motion imagination brain signal recognition uses a brain wave analysis program of a computer connected to an electroencephalogram (EEG) measuring device connected to multiple EEG detection sensors to be worn on right and left heads. Brain wave measurement is performed during left-hand motion imagination and right-hand motion imagination by a brain wave measurement, amplification, A/D conversion, and wavelet transform computer interface (brain wave analysis program). Among EEG data signals measured by band pass filters (BPF2, BPF3) of the EEG measuring device, only mu (8 to 13 Hz alpha wave) and beta (13 to 30 Hz beta wave) band frequency domains are extracted from the output spectrum along the frequency axis. The motion image EEG signal is wavelet-transformed to extract and classify the characteristics of a motion imagination brain signal based on a one-dimensional convolution neural network (CNN) for a time-frequency image.

Description

움직임 상상 뇌신호 인식을 위한 웨이블릿 변환 기반의 컨볼루션 신경망 분석 방법{Analysis method of convolutional neural network based on Wavelet transform for identifying motor imagery brain waves}Analysis method of convolutional neural network based on Wavelet transform for identifying motor imagery brain waves}

본 발명은 움직임 상상(motor imagery, MI) 뇌신호 분석 방법에 관한 것으로, 보다 상세하게는 머리에 착용되는 다수의 뇌파 검출 센서와 연결된 뇌파 측정 장치를 사용하여 왼손 움직임 상상과 오른손 움직임 상상시에 뇌파 측정->증폭->A/D변환-> 웨이블렛 변환- 컴퓨터 인터페이스(뇌파 분석 프로그램)에 의해 뇌파가 측정되고, 뇌파 측정 장치의 대역통과필터(BPF2, BPF3)를 통해 측정된 뇌전도(EEG) 데이터 신호 중에서 주파수 축에 따른 출력 스펙트럼에서 뮤(8~13Hz 알파파)와 베타(13-30Hz 베타파) 밴드 주파수 영역만을 추출하여 그 움직임 심상 뇌전도 신호를 웨이블릿 변환을 수행하여 시간-주파수 이미지에 대한 컨볼루션 신경망(CNN) 기반의 움직임 상상 뇌신호를 분석하는, 움직임 상상 뇌신호 인식을 위한 웨이블릿 변환 기반의 컨볼루션 신경망 분석 방법에 관한 것이다.The present invention relates to a method for analyzing a brain image of a motor imagery (MI), and more specifically, a brain wave in a left hand motion and a right hand motion imagination using an EEG measuring device connected to a plurality of EEG detection sensors worn on the head. Measurement-> Amplification-> A / D conversion-> Wavelet conversion- EEG data is measured by computer interface (EEG analysis program), and EEG data measured through band pass filter (BPF2, BPF3) of EEG measurement device Convolution for time-frequency images by performing wavelet transform on the image of the motion image EEG by extracting only the band frequency regions of mu (8 ~ 13Hz alpha wave) and beta (13-30Hz beta wave) from the output spectrum along the frequency axis among signals. Convolutional neural network analysis method based on wavelet transform for motion imagination brain signal recognition, which analyzes motion imagination brain signals based on solution neural networks (CNN) It is done.

뇌파(brainwave) 또는 뇌전도(Electroencephalography, EEG)는 신경계와 뇌신경 사이에 신호가 전달될 때 발생할 때 생기는 미세한 생체 전기의 흐름으로써, 뇌 표면에서 발생하는 전기 포텐셜 차이를 전극(electrode)을 사용하여 측정하며, 델타(δ)파, 쎄타(θ)파, 알파(α)파, 베타(β)파, 감마(γ)파로 분류된다.Brainwave (Electroencephalography, EEG) is a microscopic flow of bioelectricity that occurs when a signal is transmitted between the nervous system and the brain, and measures the electrical potential difference that occurs on the brain surface using an electrode. , Delta (δ) wave, theta (θ) wave, alpha (α) wave, beta (β) wave, gamma (γ) wave.

뇌파는 그 주파수와 진폭에 따라 분류할 수 있고, 사람의 뇌에서 출력되는 뇌파는 0~30Hz의 주파수가 출력되며, 대략 20~200μV의 진폭을 보인다. EEG can be classified according to its frequency and amplitude, and the EEG output from the human brain outputs a frequency of 0 to 30 Hz and shows an amplitude of approximately 20 to 200 μV.

뇌파는 진동하는 주파수의 범위에 따라 인위적으로 델타 -δ파(0.2 ~ 3.99 Hz), 쎄타 -θ파(4 ~ 7.99 Hz), 알파 -α파(8 ~ 12.99 Hz), 베타 -β파(13 ~ 29.99 Hz), 감마- g파(30~50 Hz)로 구분된다EEG is artificially delta-δ wave (0.2 to 3.99 Hz), theta -θ wave (4 to 7.99 Hz), alpha -α wave (8 to 12.99 Hz), beta -β wave (13 ~ 29.99 Hz), gamma-g wave (30 ~ 50 Hz)

델타파는 0.2~4Hz의 주파수와 20~200 V의 진폭을 가지며 정상인의 깊은 수면상태나 신생아에서 주로 나타난다. 그리고, 델타파 상태는 취침시에 많은 양의 성장 호르몬을 생성시킨다는 연구 결과가 있다. 성장기 청소년이 잠잘 때 키가 크는 이야기는 이러한 과학적인 사실이 뒷받침하고 있다.The delta wave has a frequency of 0.2 to 4 Hz and an amplitude of 20 to 200 V, and appears mainly in the deep sleep state of normal people or in newborns. In addition, there is a study that deltapa state produces a large amount of growth hormone at bedtime. The story of being tall when adolescents are sleeping is supported by these scientific facts.

쎄타파는 4~8Hz의 주파수와 20~100 V의 진폭을 가지며, 정서적으로 안정된 상태나 수면에 빠지기 전에 나타나며, 쎄타파는 사람이 인지하는 지각과 꿈의 경계상태에 발생된다. 이 상태는 꿈과 같은 마음의 이미지를 발생하며 생생한 기억으로 이어지게 된다. Theta waves have a frequency of 4 to 8 Hz and an amplitude of 20 to 100 V, and appear emotionally stable or before falling into sleep. Theta waves occur in the perception of human perception and the boundary between dreams. This state creates an image of the mind like a dream and leads to a vivid memory.

알파파는 8~13Hz의 주파수와 20~60 V의 진폭을 가지며, 명상 같은 편안한 상태에서 나타나며 스트레스 해소 및 집중력 향상에 도움을 준다. 우리가 눈을 감고 몸을 이완시키면, 뇌파의 활동은 속도를 완화시킨다. 이때, 뇌는 알파파를 생산하게 되며, 뇌는 알파상태가 된다. 건강하고 스트레스 없는 상태의 사람들은 알파파 활동상태가 많이 생성된다. Alpha waves have a frequency of 8 to 13 Hz and an amplitude of 20 to 60 V, appear in a relaxed state like meditation, and help relieve stress and improve concentration. When we close our eyes and relax, the EEG activity slows down. At this time, the brain produces alpha waves, and the brain becomes an alpha state. People who are healthy and stress-free have a lot of alpha wave activity.

베타파는 13~30Hz의 주파수와 2~20 V의 진폭을 가지며, 긴장, 흥분 상태 등 활동할 때에 나타난다. 운동력 향상에 도움을 주고, 의식이 깨어 있을 때의 뇌파이다. 사람이 눈을 뜨고, 걷고, 외부 세계에 초점을 맞추고 있는 상태에서는 베타파가 주로 나타난다. 베타파는 주로 머리의 좌우 전두엽에서 많이 나타나며, 깨어 있을 때, 말할 때와 같이 모든 의식적인 활동시에 나타나며, 특히, 불안한 상태나 긴장시, 복잡한 계산처리시에 우세하게 나타난다. The beta wave has a frequency of 13 ~ 30Hz and an amplitude of 2 ~ 20V, and it appears during activity such as tension and excitation. It helps to improve athletic ability and is an EEG when the consciousness is awake. Beta waves appear mainly when a person opens his eyes, walks, and focuses on the outside world. Beta waves appear mainly in the left and right frontal lobes of the head, and appear in all conscious activities, such as when awake and speaking, especially in anxiety, tension, and complicated computation.

감마파는 30~50Hz의 주파수와 2~20 V의 진폭을 가지며, 주로 흥분했을 때 나타난다. 감마파는 베타파보다 더 빠르게 진동하는 형태로 정서적으로 더욱 초조한 상태이거나 추리, 판단 등의 고도의 인지정보처리와 관련 있다고 한다.Gamma waves have a frequency of 30 to 50 Hz and an amplitude of 2 to 20 V, and appear mainly when excited. It is said that gamma waves vibrate faster than beta waves, and are emotionally more nervous or related to advanced cognitive information processing such as reasoning and judgment.

델타파, 쎄타파, 알파파, 베타파, 감마파는 편리상 작위적으로 분류한 뇌파의 주파수 영역이다. 뇌파의 특징을 분석하는 연구자들은 0-50Hz의 각 주파수 성분에 대한 파워의 분포를 전체적으로 보여주는 파워스펙트럼 분포를 관찰한 후, 주파수 성분을 분석하여 이러한 파워스펙트럼 분포를 머리표면의 각 측정부위마다 조금씩 다른 양상을 나타낸다. Delta waves, theta waves, alpha waves, beta waves, and gamma waves are frequency domains of brain waves classified conveniently for convenience. Researchers analyzing the characteristics of the EEG observe the power spectrum distribution showing the power distribution for each frequency component of 0-50 Hz as a whole, and then analyze the frequency component to make the power spectrum distribution slightly different for each measurement area on the head surface. Aspect.

머리표면 아래의 대뇌피질(cerebral cortex)은 전두엽(Frontal Lobe), 두정부엽(Parietal Lobe), 측두엽(Temporal Lobe), 후두엽(Occipital Lobe)으로 크게 나뉘며 조금씩 역할이 다르다. 예를 들면, 뒤통수에 해당하는 후두엽엔 일차 시각피질이 있어 일차적인 시각정보 처리를 담당하며, 정수리 근처에 해당하는 두정부엽엔 체성감각 피질이 있어 운동/감각관련 정보처리를 담당한다.The cerebral cortex below the head surface is largely divided into the frontal lobe, parietal lobe, temporal lobe, and occipital lobe. For example, the occipital lobe, which corresponds to the back of the head, has primary visual cortex to handle primary visual information processing, and the parietal lobe, located near the parietal lobe, has somatosensory cortex to handle exercise / sensory related information processing.

도 1a 및 도 1b는 종래의 뇌파 측정 장치 및 방법을 나타낸 도면이다.1A and 1B are views showing a conventional EEG measuring device and method.

뇌파 측정 장치는 머리 다지점 측정 타입 또는 헤어 밴드 타입 뇌파 측정 장치로 좌우 전두엽의 뇌파를 측정하며, 뇌파 측정->증폭->A/D변환-> 고속 퓨리에 변환(FFT, Fast Fourier Transform)- 컴퓨터 인터페이스(뇌파 분석 프로그램)에 의해 주파수 축에 따른 출력 파워 스펙트럼을 확인하여 특징을 추출하고 뇌파가 측정되어 분석된다. 뇌파 기록 시에, EEG 신호는 델타 파(δ파: 0~4Hz), 세타 파(θ파: 4~8Hz), 알파 파(α파: 8~13Hz), 베타 파(β파: 13~30Hz), 감마 파(γ파: 30Hz 이상) 신호로 분류된다. *델타 파는 수면 상태, 세타 파는 피곤하고 우울한 느낌이 들 때 지배적이며, 알파파는 주로 심신이 안정을 취하고 있는 이완 상태, 베타 파는 바쁘거나 불안한 상태일 때 지배적이다. 감마 파는 극도의 흥분이나 각성 시 전두엽과 두정엽에서 많이 발생한다.EEG measuring device is a head multi-point measuring type or hair band type EEG measuring device, which measures the EEG of the left and right frontal lobe, and EEG measurement->amplification-> A / D conversion-> Fast Fourier Transform (FFT) -computer By checking the output power spectrum along the frequency axis by the interface (EEG analysis program), features are extracted and EEG is measured and analyzed. When recording the EEG, the EEG signals include delta waves (δ waves: 0 to 4 Hz), theta waves (θ waves: 4 to 8 Hz), alpha waves (α waves: 8 to 13 Hz), and beta waves (β waves: 13 to 30 Hz) ), Gamma wave (γ wave: 30 Hz or more). * Delta waves dominate when sleeping, and theta waves dominate when you feel tired and depressed. Alpha waves dominate when your mind and body are resting, while beta waves dominate when you are busy or anxious. Gamma waves occur in the frontal and parietal lobes during extreme excitement or awakening.

예를들면, 의료기기로 사용되는 헤어밴드 타입의 뇌파 측정 장치로부터 USB 케이블, 또는 Bluetooth 또는 Wi-Fi 통신 중 어느 하나의 통신을 사용하여 검출된 EEG 신호를 뇌파 분석 프로그램이 설치된 컴퓨터 또는 스마트폰/태블릿 PC로 전송하며, 단말기(컴퓨터 또는 스마트폰/타블렛 PC)의 뇌파 분석 프로그램에 의해 뇌파 기록과 스펙트럼 분석을 통해 뇌파의 특징을 추출하여 뇌파를 분석한다. For example, an EEG signal detected using a USB cable, or any one of Bluetooth or Wi-Fi communication from a hairband type EEG measuring device used as a medical device, or a computer or smartphone equipped with an EEG analysis program / It transmits to the tablet PC and analyzes the EEG by extracting the characteristics of the EEG through EEG recording and spectrum analysis by the EEG analysis program of the terminal (computer or smartphone / tablet PC).

스펙트럼 분석은 각각의 뇌파를 파장별로 에너지 분포를 구하는 분석 방법이며, 고속 푸리에 변환(FFT: Fast Fourier Transform) 방법과 이산 웨이브렛 변환(DWT, Discrete Wavelet Transform) 방법이 사용된다. Spectrum analysis is an analysis method for obtaining an energy distribution for each wavelength of each EEG, and a Fast Fourier Transform (FFT) method and a Discrete Wavelet Transform (DWT) method are used.

도 1c는 휴대전화 사용이 사람의 뇌에 미치는 영향을 조사하기 위해, EEG 신호를 웨이블렛 변환을 사용하여 측정된 i) 평상시, ii) 왼쪽 귀 휴대전화 사용시, iii) 오른쪽 귀 휴대전화 사용시에 관찰된 베타 파의 웨이브렛 계수(Wavelet Coefficient)를 나타낸 측정결과를 보인 도면이다. FIG. 1c shows i) normal, ii) left ear cell phone, iii) right ear cell phone, measured using wavelet transform of EEG signal to investigate the effect of cell phone use on human brain This diagram shows the measurement results showing the wavelet coefficient of a beta wave.

도 2는 종래의 헤어밴드 타입 EEG 검출센서를 이용한 뇌파 측정 시스템의 구성도이다. 2 is a configuration diagram of an EEG measurement system using a conventional hairband type EEG detection sensor.

헤어밴드 타입 EEG 검출센서를 이용한 뇌파 측정 시스템은 피검자의 머리 또는 이마 부위에 부착하는 헤어밴드; 상기 헤어밴드가 착용된 머리에 둘레 길이에 맞춰 조이는 조임 장치; 피검자의 머리의 이마 부위에 부착된 전극들(electrodes)로부터 EEG 신호를 검출하는 적어도 하나 이상의 뇌파 검출센서; 적어도 하나 이상의 뇌파 검출센서로부터 검출된 뇌파 신호를 증폭, A/D 변환, 제어부에 의해 고속퓨리에 변환(FFT) 후 RS232 직렬 포트 또는 USB 케이블, 또는 Bluetooth 또는 Wi-Fi 등의 유무선 통신을 통해 단말기(컴퓨터, 스마트폰, 태블릿 PC)로 전송하여 뇌파 분석 응용프로그램으로 EEG(Electroencephalogram, 뇌전도)를 출력하고 대뇌 내비 피질(enthohinal cortex)을 통해 해마(hippocampus)내 뉴런(신경 세포)의 활성화(activation)시 발생하는 생체전기신호를 측정한 후 EEG encoding하여 컴퓨터의 뇌파 분석 프로그램에 의해 뇌파가 분석된다. The EEG measurement system using the hairband type EEG detection sensor includes a hairband attached to the subject's head or forehead area; A tightening device for tightening the hair band to a circumferential length on the head where it is worn; At least one EEG detection sensor that detects an EEG signal from electrodes attached to the forehead area of the subject's head; After amplifying, A / D conversion, and fast Fourier conversion (FFT) by the control unit, the EEG signal detected by at least one EEG detection sensor is detected through an RS232 serial port or a USB cable, or through a wired or wireless communication such as Bluetooth or Wi-Fi. EEG (Electroencephalogram) is output to the EEG analysis application by sending it to a computer, smartphone, or tablet PC, and upon activation of neurons (nerve cells) in the hippocampus through the enthohinal cortex. After measuring the generated bioelectrical signal, EEG is encoded and analyzed by the computer's EEG analysis program.

적어도 하나 이상의 뇌파 검출센서는 머리의 측정 부위에 전도성 젤을 바른 금속전극을 부착하지 않고, "뇌파 검출용 섬유 전극"을 사용한다.At least one brain wave detection sensor does not attach a metal electrode coated with a conductive gel to the measurement area of the head, and uses a “fiber electrode for brain wave detection”.

도 1을 참조하면, 헤어밴드 타입 뇌파 측정 장치는 다수의 뇌파 검출 전극(섬유 전극)(31), 뇌파 신호 검출부(32), 앰프(EEG Amplifier)(33), 필터(34), A/D변환기(35), 제어부(36), 버튼부(37), LED부(38), 전원 공급부(40), 저장부(43), 및 무선통신부(44)로 구성된다. Referring to FIG. 1, the hairband type EEG measuring device includes a plurality of EEG detection electrodes (fiber electrodes) 31, an EEG signal detection unit 32, an EEG amplifier 33, a filter 34, and A / D. It is composed of a converter 35, a control unit 36, a button unit 37, an LED unit 38, a power supply unit 40, a storage unit 43, and a wireless communication unit 44.

전원 공급부(40)는 AC 220V 전원을 입력받는 전원부(41), 및 AC 220V 전원을 소정 DC 구동 전압(DC 5V)으로 변환하는 AC/DC 컨버터(42)로 구성된다. The power supply unit 40 is composed of a power supply unit 41 that receives AC 220V power, and an AC / DC converter 42 that converts AC 220V power into a predetermined DC driving voltage (DC 5V).

헤어밴드 타입 뇌파 측정 장치는 취침 전 피검자의 머리의 이마에 헤어밴드 타입 뇌파 측정 장치를 부착하고, 취침시 머리 표면으로부터 EEG 신호를 측정하며 섬유 전극을 사용하는 적어도 하나 이상의 뇌파 검출 전극(31); 각 측정위치에 부착된 외파 검출 전극으로부터 측정된 EEG 신호를 검출하는 뇌파 신호 검출부(32); 뇌파 신호 검출부(32)로부터 측정된 미세한 EEG 신호를 증폭하고 가우시안 노이즈를 제거하는 앰프(EEG Amplifier)(33); 0~50Hz 범위 주파수를 가진 뇌파의 분류별로 LPF, BPF1, BPF2, BPF3, HPF를 사용하여 델타파(LPF, 4Hz 이하), 쎄타파(BPF1, 4~8Hz), 알파파(BPF2, 8~13Hz), 베타파(BPF3, 13~30Hz), 감마파(HPF, 30Hz 이상)의 뇌파의 주파수 범위별로 필터링하도록 다수의 필터(LPF, BPF1, BPF2, BPF3, HPF)를 구비하며, 버튼에 의해 수면 뇌파(Sleep EEG)를 검출하도록 설정된 경우 4Hz 이하의 저역통과 필터(LPF)를 사용하여 수면 뇌파를 필터링하는 필터(34); 필터링된 아날로그 뇌파 신호를 디지털 뇌파 신호로 변환하는 A/D변환기(35); 사용자의 버튼 설정에 따라 뇌파의 주파수를 필터링 되도록 제어하며 A/D변환기(35)로부터 디지털 뇌파 신호를 수신하여 실시간으로 저장되면서 무선 통신으로 단말기의 뇌파 분석 프로그램(Sleep EEG)으로 측정된 EEG 신호를 전송되도록 제어하는 제어부(36); 전원 ON/OFF 버튼을 구비하고, 델타파(LPF, 4Hz 이하), 쎄타파(BPF1, 4~8Hz), 알파파(BPF2, 8~13Hz), 베타파(BPF3, 13~30Hz), 감마파(HPF, 30Hz 이상)의 뇌파의 주파수 범위별로 필터 설정을 제어하는 버튼부(37); 뇌파 측정 장치의 전원 ON/OFF 또는 수면 뇌파 감지시 색상을 표시하는 LED부(38); 헤어밴드 타입 뇌파측정장치의 다수의 뇌파검출전극(섬유 전극)으로부터 측정된 EEG 신호를 저장하는 저장부(43); 및 측정된 EEG 신호를 Bluetooth 또는 Wi-Fi 무선 통신을 사용하여 컴퓨터 단말기의 뇌파 분석 응용프로그램(70)으로 전송하는 무선통신부(44)를 포함한다. The headband type EEG measuring device includes at least one EEG detection electrode 31 that attaches a headband EEG measuring device to the forehead of the subject's head before bedtime, measures EEG signals from the head surface at bedtime, and uses fiber electrodes; EEG signal detection unit 32 for detecting the EEG signal measured from the external wave detection electrode attached to each measurement position; An amplifier for amplifying the fine EEG signal measured from the EEG signal detection unit 32 and removing Gaussian noise (EEG Amplifier) 33; Delta waves (LPF, 4 Hz or less), theta waves (BPF1, 4 to 8 Hz), alpha waves (BPF2, 8 to 13 Hz) using LPF, BPF1, BPF2, BPF3, and HPF by classification of brain waves having a frequency in the range of 0 to 50 Hz ), Beta wave (BPF3, 13 ~ 30Hz), gamma wave (HPF, 30Hz or more) Equipped with a number of filters (LPF, BPF1, BPF2, BPF3, HPF) to filter by the frequency range of EEG, sleep by button A filter 34 that filters sleep EEG using a low pass filter (LPF) of 4 Hz or less when it is set to detect EEG (Sleep EEG); An A / D converter 35 for converting the filtered analog EEG signal to a digital EEG signal; It controls the frequency of the EEG to be filtered according to the user's button setting, receives the digital EEG signal from the A / D converter 35, and stores it in real time. A control unit 36 that is controlled to be transmitted; Equipped with power ON / OFF button, delta wave (LPF, 4Hz or less), theta wave (BPF1, 4 ~ 8Hz), alpha wave (BPF2, 8 ~ 13Hz), beta wave (BPF3, 13 ~ 30Hz), gamma wave A button unit 37 for controlling filter settings for each frequency range of the EEG (HPF, 30 Hz or more); An LED unit 38 displaying a color when power ON / OFF of the EEG measuring device or sleep EEG is detected; A storage unit 43 for storing EEG signals measured from a plurality of EEG detection electrodes (fiber electrodes) of the hairband type EEG measurement device; And a wireless communication unit 44 that transmits the measured EEG signal to the EEG analysis application program 70 of the computer terminal using Bluetooth or Wi-Fi wireless communication.

측정된 뇌전도(EEG)는 뇌의 학습 메모리 강화(consolidation)와 밀접한 관련이 있는 뇌파 0.2~4Hz Delta파와 직후에 따르는 EOG(electroocculogram, 안전위도)를 2회 이상 검출하여 학습이 강화되는 최적의 수면시간을 검출하고 학습강화관련 뇌파확인 완료 직후 1번째 또는 2번째의 EOG가 감지되는 것을 사용하여 수면 뇌파에 사용된다. The measured electroencephalogram (EEG) detects the brain wave 0.2 ~ 4Hz Delta wave closely related to the brain's learning memory consolidation and the EOG (electroocculogram, safety latitude) followed immediately by two or more times to improve learning. It is used for sleep EEG by detecting the EEG and detecting the 1st or 2nd EOG immediately after completion of the learning-related EEG check.

단말기(PC, 스마트폰, Tablet PC)는 헤드 밴드 타입 뇌파 측정 장치로부터 측정된 EEG 신호를 RS232 직렬 포트 또는 USB 케이블, 또는 Bluetooth 또는 Wi-Fi 근거리 무선 통신을 통해 수신받는 무선 통신부(45); 뇌의 소정 위치들에서 검출된 다수 채널의 증폭 후 A/D 변환된 뇌파 신호를 고속 퓨리에(FFT 변환)하여 뇌파를 검출하도록 각 기능을 제어하는 마이컴(46); 뇌파 분석 응용프로그램(SLM App)(70) 및 시간대별 측정된 EEG 신호를 저장하는 메모리(48); 분석된 뇌파 신호를 출력하는 LCD 표시부(47)를 구비하며, 뇌파 분석 응용프로그램(70)은 사용자의 뇌파 신호를 출력하는 LCD 표시부(47)를 포함한다.The terminal (PC, smart phone, Tablet PC) is a wireless communication unit 45 that receives the EEG signal measured from the headband type EEG measurement device through an RS232 serial port or a USB cable, or Bluetooth or Wi-Fi short-range wireless communication; A microcomputer 46 that controls each function to detect EEG by performing a fast Fourier (FFT conversion) of the A / D-converted EEG signal after amplification of multiple channels detected at predetermined positions in the brain; EEG analysis application (SLM App) (70) and a memory for storing the measured EEG signal by time (48); It has an LCD display unit 47 for outputting the analyzed EEG signal, and the EEG analysis application program 70 includes an LCD display unit 47 for outputting a user's EEG signal.

1. 비침습적인 뇌-컴퓨터 인터페이스(BCI)1. Non-invasive brain-computer interface (BCI)

최근, 뇌-컴퓨터 인터페이스(Brain-Computer Interface, BCI)는 뇌전도(Electroencephalogram, EEG)를 바탕으로 하는 뇌파와 외부 장치를 직접적으로 연결하는 시스템이다. 뇌전도(EEG)는 다른 뇌파 활동들에 비해 사용하기가 쉽고 비용이 적다는 측면에서 비침습적인 뇌-컴퓨터 인터페이스(BCI) 연구에서 많이 사용하고 있다. 뇌-컴퓨터 인터페이스(BCI) 연구는 주로 극심한 지체장애를 겪고 있는 사람들에게 오직 뇌파만을 이용하여 몸을 제어할 수 있게 하는 것이다[1]. 뇌-컴퓨터 인터페이스 연구에 사용되는 뇌전도(EEG)는 다양한 특정 자극에 영향을 받고 그 자극에 따른 반응을 이용하여 신호를 분석한다. 특정 자극에는 사건 관련 전위(event-related potential, ERP), 정상상태시각유발전위(steady-state visual evoked potential, SSVEP, 움직임 상상(motor imagery, MI) 등이 현재 가장 많이 사용되고 있다. Recently, a brain-computer interface (BCI) is a system that directly connects an EEG based on an electroencephalogram (EGG) and an external device. Electroencephalogram (EEG) is widely used in non-invasive brain-computer interface (BCI) research because it is easier to use and less expensive than other EEG activities. Brain-computer interface (BCI) research is primarily aimed at enabling people with severe physical disabilities to control the body using only brain waves [1]. Electroencephalogram (EEG), which is used in brain-computer interface research, is affected by a variety of specific stimuli and analyzes the signals using responses according to the stimuli. Event-related potential (ERP), steady-state visual evoked potential (SSVEP), and motor imagery (MI) are the most commonly used for specific stimuli.

이를 위해, 본 연구에서는 움직임 상상에 대해 public open 데이터를 사용하여 연구를 진행하였다.To this end, this study used public open data for motion imagination.

특허 등록번호 10-0282733 (등록일자 2000년 11월 30일), "헤드밴드를 이용한 실시간 뇌파측정장치", 주식회사 창세Patent Registration No. 10-0282733 (Registration Date November 30, 2000), "Real-time EEG Measurement Device Using Headband", Founded 특허 등록번호 10-0450758 (등록일자 2004년 09월 20일), "뇌파 측정 장치 및 방법", 한국전자통신연구원Patent registration number 10-0450758 (Registration date September 20, 2004), "EEG measurement device and method", Korea Electronics and Telecommunications Research Institute

Shangkai Gao, Yijun Wang, Xiaorong Gao and Bo Hong, “and Auditory Brain-Computer Interfaces.”in IEEE Transaction on Biomedical Engineering, vol 61, no 5, May 2014 Shangkai Gao, Yijun Wang, Xiaorong Gao and Bo Hong, “and Auditory Brain-Computer Interfaces.” In IEEE Transaction on Biomedical Engineering, vol 61, no 5, May 2014 Yousef Rezaei Tabar, Ugur Halici, “novel deep learning approach for classification of EEG motor imagery signals”in Journal of Neural Engineering, 2017 Yousef Rezaei Tabar, Ugur Halici, “novel deep learning approach for classification of EEG motor imagery signals” in Journal of Neural Engineering, 2017 Pfurtscheller G and Da Silva F L 1999 Event-related EEG/MEG synchronization and desynch-ronization: basic principles Clin. Neurophysiol Pfurtscheller G and Da Silva F L 1999 Event-related EEG / MEG synchronization and desynch-ronization: basic principles Clin. Neurophysiol Torrence, C. and G.P. Compo. “Practical Guide to Wavelet Analysis”Bull. Am. Meteorol. Soc., 79, 6178, 1998. Torrence, C. and G.P. Compo. “Practical Guide to Wavelet Analysis” Bull. Am. Meteorol. Soc., 79, 6178, 1998.

상기한 문제점을 해결하기 위한 본 발명의 목적은 머리에 착용하는 다수의 뇌파 검출 센서와 연결된 뇌파 측정 장치를 사용하여 왼손 움직임 상상과 오른손 움직임 상상시에 뇌파 측정->증폭->A/D변환-> 웨이블렛 변환- 컴퓨터 인터페이스(뇌파 분석 프로그램)에 의해 뇌파가 측정되고, 뇌파 측정 장치의 대역통과필터(BPF2,BPF3)를 통해 측정된 뇌전도(EEG) 데이터 신호 중에서 주파수 축에 따른 출력 스펙트럼에서 뮤(8~13Hz 알파파)와 베타(13-30Hz 베타파) 밴드 주파수 영역만 추출하여 그 움직임 심상 뇌전도 신호를 웨이블릿 변환을 수행하여 시간-주파수 이미지에 대한 컨볼루션 신경망(Convolutional Neural Network, CNN) 기반의 움직임 상상 뇌신호를 분석하는, 움직임 상상 뇌신호 인식을 위한 웨이블릿 변환 기반의 컨볼루션 신경망 분석 시스템 및 방법을 제공한다. An object of the present invention for solving the above problems is to measure brain waves in left-hand movement and right-hand movement imagination using an EEG measuring device connected to a plurality of EEG detection sensors worn on the head-> amplification-> A / D conversion- > Wavelet transform-EEG is measured by computer interface (EEG analysis program), and EEG data signal measured by band pass filter (BPF2, BPF3) of EEG measuring device is selected from the output spectrum along the frequency axis. Based on the convolutional neural network (CNN) for time-frequency images by performing wavelet transformation of the motion image EEG signal by extracting only the 8-13 Hz alpha wave) and beta (13-30 Hz beta wave) band frequency domains. Provided is a wavelet transform based convolutional neural network analysis system and method for analyzing motion imagination brain signals.

본 발명의 목적을 달성하기 위해, 움직임 상상 뇌신호 인식을 위한 웨이블릿 변환 기반의 컨볼루션 신경망 분석 방법은, (a) 오른쪽과 왼쪽 머리의 다 지점에 구비된 다수의 뇌파 검출 센서와 연결된 뇌파 측정 장치로부터 통신부를 통해 컴퓨터로 오른쪽과 왼쪽 머리의 다지점에서 측정 뇌파를 전송하며, 상기 뇌파 측정 장치와 통신되는 상기 컴퓨터의 뇌파 분석 프로그램이 사용되는 단계; (b) 왼손 움직임 상상과 오른손 움직임 상상시에, 뇌파 측정->증폭->A/D변환-> 웨이블렛 변환- 컴퓨터의 뇌파 분석 프로그램으로 측정된 EEG 데이터를 전송하는 단계; (c) 상기 뇌파 측정 장치의 대역통과필터(BPF2, BPF3)를 통해 측정된 뇌전도(EEG) 데이터 신호 중에서 주파수 축의 출력 스펙트럼에서 뮤 밴드와 베타 밴드 주파수 영역만을 추출하여 움직임 심상 뇌전도 신호를 웨이블릿 변환을 수행하여 시간-주파수 이미지를 생성하는 단계; (d) 컴퓨터의 뇌파 분석 프로그램에 의해 큐빅 보간법(cubic interpolation method)을 사용하여 주파수 영역과 시간 영역에서 각각 뮤 밴드와 베타 밴드의 움직임 심상 뇌전도 신호를 m x n 크기로 줄이는 축소된 시간-주파수 2차원 이미지를 생성하는 단계; 및 (e) 상기 축소된 시간-주파수 2차원 이미지에 대하여 1차원 컨볼루션 신경망(CNN)을 사용하여 특징 추출과 분류를 통해 감지된 움직임 상상 뇌신호를 웨이블릿 변환 기반의 컨볼루션 신경망 분석 단계;를 포함하며, In order to achieve the object of the present invention, a wavelet transform based convolutional neural network analysis method for motion imagination brain signal recognition, (a) EEG measuring device connected to a plurality of EEG detection sensors provided at multiple points of the right and left heads Transmitting a measurement brainwave from the multi-points of the right and left heads to the computer from the communication unit, and using the brainwave analysis program of the computer in communication with the brainwave measurement device; (b) in the left hand movement and right hand movement imagination, EEG measurement-> amplification-> A / D conversion-> wavelet conversion-transmitting the EEG data measured by the EEG analysis program of the computer; (c) A wavelet transform of a motion image EEG signal by extracting only the mu band and the beta band frequency domain from the output spectrum of the frequency axis among the EEG data signals measured through the band pass filters (BPF2, BPF3) of the EEG measuring device. Performing to generate a time-frequency image; (d) A reduced time-frequency two-dimensional image that reduces the motion image EEG signals of the mu band and the beta band in the frequency domain and the time domain to mxn, respectively, using a cubic interpolation method by a computer EEG analysis program. Generating a; And (e) analyzing a motion imaginary brain signal detected through feature extraction and classification using a 1D convolutional neural network (CNN) with respect to the reduced time-frequency 2D image. Includes,

왼손과 오른손 움직임 상상에 대한 데이터가 각각 상상에 따른 반응이 뇌의 서로 다른 피질에서 나타나며, 이러한 특징을 이용하여 추출된 뇌파에 상기 1차원 컨볼루션 신경망(CNN)을 사용하여 감지된 움직임 상상 뇌신호의 특징을 추출하고 분류한다. Data on left and right hand movement imagination, respectively, responses to the imagination appear in different cortex of the brain, and motion imagination brain signals detected using the one-dimensional convolutional neural network (CNN) on the brain waves extracted using these features Extract and classify features.

상기 뮤 밴드는 8~13Hz 알파 파의 주파수 범위이며, 상기 베타 밴드는 13-30Hz 베타 파의 주파수 범위를 갖는다.The mu band has a frequency range of 8 to 13 Hz alpha wave, and the beta band has a frequency range of 13-30 Hz beta wave.

상기 웨이블릿 변환은 Morlet 웨이블렛 변환을 사용한다. The wavelet transform uses a Morlet wavelet transform.

상기 웨이블렛 변환은 샘플링 주파수가 250Hz인 뇌전도(EEG) 데이터를 0.5초 동안 추출하여 총 125 샘플이 사용되었으며, 상기 Morlet 웨이블렛 변환의 전처리 과정을 거친 후 시간 축과 주파수 축 각각 500 샘플과 331 샘플의 결과를 얻을 수 있고, 이를 토대로 331 ×500의 이미지를 생성하였으며, The wavelet transform extracts electroencephalogram (EEG) data having a sampling frequency of 250 Hz for 0.5 seconds, and a total of 125 samples have been used.After undergoing the pre-processing process of the Morlet wavelet transform, the results of 500 and 331 samples respectively in the time axis and frequency axis And based on this, an image of 331 × 500 was generated,

주파수 축에 따른 출력 스펙트럼에서 뮤 밴드와 베타 밴드를 추출하였으며, 상기 뮤 밴드에서 추출된 이미지 크기는 40 ×500, 베타 밴드에서 추출된 이미지 크기는 55 ×500 인 것을 특징으로 한다. Mu bands and beta bands are extracted from the output spectrum along the frequency axis, and the image size extracted from the mu band is 40 × 500, and the image size extracted from the beta band is 55 × 500.

상기 단계 (c)에서는, 상기 뮤 밴드와 상기 베타 밴드, 두 밴드의 주파수 영역과 시간 영역의 크기 상대적으로 너무 크기 때문에 상기 큐빅 보간법(cubic interpolation method)을 사용하여 주파수 영역에서 뮤 밴드 16 ×500, 베타 밴드 15 ×500 크기로 줄였으며, 주파수 영역 뿐 만이 아니라 시간 영역에서 125 샘플에서 32개의 샘플로 줄였으며,

Figure 112018111147110-pat00001
Figure 112018111147110-pat00002
의 크기를 가지는 상기 축소된 시간-주파수 이미지를 만들며, In step (c), since the size of the frequency domain and the time domain of the two bands, the mu band and the beta band, is relatively large, the mu band 16 × 500 in the frequency domain using the cubic interpolation method, Reduced the beta band size to 15 × 500, not only in the frequency domain, but also in the time domain from 125 samples to 32 samples.
Figure 112018111147110-pat00001
and
Figure 112018111147110-pat00002
To create the reduced time-frequency image having the size of,

위 과정을 C3, Cz, C4에 각각 적용하여 주파수 크기는 NF x 3 으로 만들어 주며, 이러한 과정을 통해 최종 이미지의 크기는 93 ×32 된다. The above process is applied to C3, Cz, and C4, respectively, to make the frequency size N F x 3, and through this process, the final image size is 93 × 32.

상기 1차원 컨볼루션 신경망(CNN)에서 사용된 필터는 시간에 따른 주파수 특성을 분석하기 위해 1차원 컨볼루션 필터를 사용하며, 필터의 크기는 NF = 93 x 3을 사용한다. The filter used in the one-dimensional convolutional neural network (CNN) uses a one-dimensional convolution filter to analyze frequency characteristics over time, and the size of the filter is N F = 93 x 3.

상기 1차원 컨볼루션 신경망(CNN)은 상기 축소된 시간-주파수 2차원 이미지를 인식하기 위해 컨볼류셔널 계층(Convolution Layer), 풀링 계층(Pooling Layer), FC 층(FC, Fully Connected Layer)으로 구성되며, The 1D convolutional neural network (CNN) is composed of a convolutional layer, a pooling layer, and a fully connected layer (FC) to recognize the reduced time-frequency 2D image. And

상기 컨볼류셔널 계층(Convolutional Layer)의 출력 함수는 ReLU(rectified linear unit) 함수를 적용하였으며, The output function of the convolutional layer (Convolutional Layer) was applied to the ReLU (rectified linear unit) function,

상기 풀링 계층은 max-pooling을 사용하였으며, max-pooling은 출력을 왼손, 오른손 동작의 2가지 클래스로 분류하는 상기 FC 층(Fully Connected Layer)에서 수행한다. The pooling layer used max-pooling, and max-pooling is performed by the FC layer (Fully Connected Layer) that classifies the output into two classes of left- and right-handed operations.

상기 1차원 컨볼루션 신경망(CNN)의 파라미터들은 역전파 알고리즘(back-propagation algorithm)에 의해 학습되었으며, 오차 E는 정해진 라벨이 정해진 데이터와 출력된 결과의 데이터를 계산한 뒤, 경사하강법(gradient-descent method)을 사용하여 오차 E를 작게 만든다. The parameters of the one-dimensional convolutional neural network (CNN) were trained by a back-propagation algorithm, and the error E was calculated after calculating the data of the data with the specified label and the output result. -descent method) to make the error E small.

상기 단계 (e)에서, 상기 움직임 상상 뇌신호를 웨이블릿 변환 기반의 컨볼루션 신경망 분석 단계는, 왼손 상상은 C4 채널의 ERS와 ERD의 영향이 강하게 나타나고, 오른손 상상은 C3 채널의 ERS와 ERD의 영향이 강하게 나타난다. In the step (e), in the convolutional neural network analysis step based on wavelet transform of the motion imagination brain signal, the influence of ERS and ERD of the C4 channel is strong in the left hand imagination, and the effect of ERS and ERD of the C3 channel in the right hand imagination. It appears strongly.

상기 단계 (e)에서, 상기 움직임 상상 뇌신호를 인식하기 위한 웨이블릿 변환 기반의 컨볼루션 신경망 분석 시에, 상기 컴퓨터의 뇌파 분석 프로그램은 Matlab 프로그램을 사용한다. In step (e), when analyzing a convolutional neural network based on wavelet transform for recognizing the motion imaginary brain signal, the EEG analysis program of the computer uses a Matlab program.

본 발명은 머리에 착용하는 다수의 뇌파 검출 센서와 연결된 뇌파 측정 장치를 사용하여 왼손 움직임 상상과 오른손 움직임 상상시에 뇌파 측정->증폭->A/D변환-> 웨이블렛 변환- 컴퓨터 인터페이스(뇌파 분석 프로그램)에 의해 뇌파가 측정되고, 뇌파 측정 장치의 대역통과필터(BPF2,BPF3)를 통해 측정된 뇌전도(EEG) 데이터 신호 중에서 주파수 축에 따른 출력 스펙트럼에서 뮤(8~13Hz 알파파)와 베타(13-30Hz 베타파) 밴드 주파수 영역만을 추출하여 그 움직임 심상 뇌전도 신호를 웨이블릿 변환을 수행하여 시간-주파수 이미지에 대한 컨볼루션 신경망(Convolutional Neural Network, CNN) 기반 움직임 상상 뇌신호 인식을 위한 웨이블릿 변환 기반의 컨볼루션 신경망 분석을 통해 움직임 상상 뇌신호를 분석하였다. The present invention uses an EEG measuring device connected to a plurality of EEG detection sensors worn on the head to measure EEG during left-hand movement and right-hand movement imagination-> amplification-> A / D conversion-> wavelet transform-computer interface (EEG analysis EEG is measured by the program) and among the EEG data signals measured through the band pass filters (BPF2, BPF3) of the EEG measuring device, mu (8 ~ 13Hz alpha wave) and beta (from the output spectrum along the frequency axis) 13-30Hz Beta Wave) Wavelet transform based on a convolutional neural network (CNN) for time-frequency images by performing wavelet transformation on the motion image EEG signal by extracting only the band frequency domain based on wavelet transform for motion imagination brain signal recognition Through analysis of the convolutional neural network, brain signals of motion imagination were analyzed.

움직임 상상 연구는 피실험자의 움직임 없이 몸의 일부를 움직이는 상상을 의미한다. 본 연구에서 사용한 데이터는 왼손과 오른손 움직임 상상에 대한 데이터이며, 각각 상상에 따른 반응이 뇌의 서로 다른 피질에서 나타난다. 이러한 특징을 이용하여 추출된 뇌파에 컨볼루션 신경망(CNN)을 적용하여 분류 정확도를 향상하였다. Motion imagination study means moving the part of the body without moving the subject. The data used in this study are data for left- and right-hand movement imagination, and reactions according to the imagination appear in different cortex of the brain. Using this feature, the classification accuracy was improved by applying a convolutional neural network (CNN) to the extracted brain waves.

도 1a 및 도 1b는 종래의 뇌파 측정 장치 및 방법을 나타낸 도면이다.
도 1c는 휴대전화 사용이 사람의 뇌에 미치는 영향을 조사하기 위해, EEG 신호를 웨이블렛 변환을 사용하여 측정된 i) 평상시, ii) 왼쪽 귀 휴대전화 사용시, iii) 오른쪽 귀 휴대전화 사용시에 관찰된 베타 파의 웨이브렛 계수(Wavelet Coefficient)를 나타낸 측정결과를 보인 도면이다.
도 2는 헤어밴드 타입 EEG 검출센서를 이용한 뇌파 측정 시스템의 구성도이다.
도 3은 왼손 상상에 대한 입력 이미지 형태를 나타낸 그림이다.
도 4는 본 발명에 따른 움직임 상상 뇌신호 인식을 위한 웨이블릿 변환 기반의 컨볼루션 신경망(CNN) 모델을 보인 도면이다.
도 5는 본 발명의 움직임 상상 뇌신호 인식을 위한 웨이블릿 변환 기반의 컨볼루션 신경망 분석 방법을 보인 플로차트이다.
도 6은 Matlab에 의해 분석된 데이터의 정확도 평가와 평균과 표준편차의 결과를 보인 도면이다.
1A and 1B are views showing a conventional EEG measuring device and method.
FIG. 1c shows i) normal, ii) left ear cell phone, iii) right ear cell phone, measured using wavelet transform of EEG signal to investigate the effect of cell phone use on human brain This diagram shows the measurement results showing the wavelet coefficient of a beta wave.
2 is a configuration diagram of an EEG measurement system using a hairband type EEG detection sensor.
3 is a diagram showing an input image form for left-hand imagination.
4 is a diagram showing a convolutional neural network (CNN) model based on wavelet transform for recognizing motion imaginary brain signals according to the present invention.
5 is a flowchart showing a method of analyzing a convolutional neural network based on wavelet transform for recognizing a motion imaginary brain signal of the present invention.
6 is a view showing the results of the accuracy evaluation and the mean and standard deviation of the data analyzed by Matlab.

이하, 본 발명의 바람직한 실시예를 첨부된 도면을 참조하여 발명의 구성 및 동작을 상세하게 설명한다.Hereinafter, with reference to the accompanying drawings, preferred embodiments of the present invention will be described in detail the configuration and operation of the invention.

본 발명은 움직임 상상(motor imagery, MI) 뇌신호 인식을 위한 웨이블릿 변환 기반의 컨볼루션 신경망 분석 방법은 머리에 착용하는 다수의 뇌파 검출 센서와 연결된 뇌파 측정 장치를 사용하여 왼손 움직임 상상과 오른손 움직임 상상시에 뇌파 측정->증폭->A/D변환-> 웨이블렛 변환(Wavelet Transform)- 컴퓨터 인터페이스(컴퓨터의 뇌파 분석 프로그램)에 의해 뇌파가 측정되고, 뇌파 측정 장치의 대역통과필터(BPF2,BPF3)를 통해 측정된 뇌전도(EEG) 데이터 신호 중에서 주파수 축에 따른 출력 스펙트럼에서 뮤(8~13Hz 알파파)와 베타(13-30Hz 베타파) 밴드 주파수 영역만을 추출하여 그 움직임 심상 뇌전도 신호를 웨이블릿 변환을 수행하여 시간-주파수 이미지에 대한 컨볼루션 신경망(Convolutional Neural Network, CNN) 기반의 움직임 상상 뇌신호를 분석하는, 움직임 상상 뇌신호 인식을 위한 웨이블릿 변환 기반의 컨볼루션 신경망 분석 시스템 및 방법을 제공한다.The present invention is a motion image analysis (motor imagery, MI) wavelet transform-based convolutional neural network analysis method for brain signal recognition using a brain wave measuring device connected to a plurality of EEG detection sensors worn on the head to imagine left and right hand movements EEG measurement-> amplification-> A / D conversion-> Wavelet Transform- EEG is measured by computer interface (computer's EEG analysis program) and band pass filter (BPF2, BPF3) of EEG measuring device Among the EEG data signals measured through, only the frequency bands of the mu (8 ~ 13Hz alpha wave) and beta (13 ~ 30Hz beta wave) bands are extracted from the output spectrum along the frequency axis to perform wavelet transformation of the motion image EEG signal. Motion Imagination Brain Signal, performing analysis to analyze motion imagination brain signals based on Convolutional Neural Network (CNN) for time-frequency images Provided is a convolutional neural network analysis system and method based on wavelet transform for recognition.

왼손의 동작은 오른쪽 뇌 상상 뇌신호와 관련되며, 오른손의 동작은 왼쪽 뇌 상상 뇌신호와 관련된다. The left hand motion is related to the right brain imagination brain signal, and the right hand motion is related to the left brain imagination brain signal.

EEG 신호를 검출하는 뇌파 측정 장치는 사이클시에 사용되는 헤드셋 타입의 다수의 전극들이 구비된 뇌파 측정 장치, 또는 비침습형 헤어밴드 타입의 다수의 전극들이 구비된 뇌파 측정 장치 등이 사용될 수 있다. As the EEG measuring device for detecting the EEG signal, an EEG measuring device equipped with a plurality of electrodes of a headset type used during cycling, or an EEG measuring device equipped with a plurality of electrodes of a non-invasive hairband type may be used.

EEG 신호를 검출하는 뇌파 측정 장치는 왼쪽과 오른쪽 머리의 각 지점에 구비되며, 뇌파 신호를 검출하는 32~128 채널의 전극을 구비하는 다수의 뇌파 검출 센서; 상기 32~128 채널의 전극을 구비하는 다수의 뇌파 검출 센서로부터 측정된 미세한 EEG 신호들을 각각 증폭하는 뇌파 증폭부(EEG Amplifier); 0~50Hz 범위 주파수를 가진 뇌파의 분류별로 LPF, BPF1, BPF2, BPF3, HPF를 작동하여 델타파(LPF, 4Hz 이하), 쎄타파(BPF1, 4~8Hz), 알파파(BPF2, 8~13Hz), 베타파(BPF3, 13~30Hz), 감마파(HPF, 30Hz 이상)의 뇌파의 주파수 범위별로 필터링하도록 다수의 필터부(LPF, BPF1, BPF2, BPF3, HPF); 측정된 EEG 채널별로 필터링된 아날로그 뇌파 신호를 디지털 뇌파 신호로 변환하는 A/D변환기; 뇌파 측정 장치의 버튼 선택에 의해, 머리의 각 측정 지점들의 다수의 뇌파 검출 센서들에서 검출된 EEG 데이터 신호 중에서 주파수 축에 따른 출력 스펙트럼에서 대역통과필터(BPF2,BPF3)에 의해 뮤(8~13Hz 알파파)와 베타(13-30Hz 베타파) 밴드 주파수 영역만을 추출하여 뮤 밴드와 베타 밴드의 주파수 출력값을 컴퓨터로 전송하는 통신부를 포함한다. EEG measuring device for detecting the EEG signal is provided at each point of the left and right head, a plurality of EEG detection sensors having an electrode of 32 to 128 channels for detecting the EEG signal; An EEG amplifier unit for amplifying each of the fine EEG signals measured from a plurality of EEG detection sensors having electrodes of the 32 to 128 channels; Delta waves (LPF, 4 Hz or less), theta waves (BPF1, 4 to 8 Hz), alpha waves (BPF2, 8 to 13 Hz) by operating LPF, BPF1, BPF2, BPF3, and HPF by classification of EEG with frequencies in the range of 0 to 50 Hz ), A plurality of filter units (LPF, BPF1, BPF2, BPF3, HPF) to filter by frequency range of the EEG of beta waves (BPF3, 13 ~ 30Hz), gamma waves (HPF, 30Hz or more); An A / D converter that converts the analog EEG signals filtered for each EEG channel into digital EEG signals; By selecting the button of the EEG measuring device, mu (8 ~ 13Hz) is performed by band pass filters (BPF2, BPF3) in the output spectrum along the frequency axis among the EEG data signals detected by the multiple EEG detection sensors of each measurement point of the head. Alpha wave) and beta (13-30Hz beta wave) includes a communication unit that extracts only the frequency domain of the band and transmits the frequency output values of the mu band and the beta band to a computer.

뇌파 측정 장치의 통신부와 컴퓨터의 통신부는 USB 케이블로 연결되거나, 또는 Bluetooth 또는 Wi-Fi가 사용될 수 있다. The communication unit of the EEG measuring device and the communication unit of the computer may be connected by a USB cable, or Bluetooth or Wi-Fi may be used.

컴퓨터는 뇌파 분석 프로그램을 구비하며, 유무선 통신을 통해 측정 전극 채별로 뇌파 데이터를 수신하며, 상기 뇌파 측정 장치의 대역통과필터(BPF2,BPF3)를 통해 측정된 뇌전도(EEG) 데이터 신호 중에서 주파수 축에 따른 출력 스펙트럼에서 뮤 밴드(8~13Hz 알파파)와 베타 밴드(13-30Hz 베타파) 주파수 영역만을 추출하여 웨이블렛 변환한 주파수 출력값을 수신받는 통신부; 상기 디지털로 뇌파 데이터를 웨이블렛 변환하여 주파수별 출력값을 제공하는 뇌파 신호처리부를 구비하는 제어부; 측정 뇌파 데이터를 저장하며, 컨볼루션 신경망(Convolutional Neural Network, CNN) 기반의 움직임 상상 뇌신호의 특징을 추출하고 분류하는 뇌파 분석 프로그램이 저장된 저장부; 및 시간에 따른 주파수별 출력값을 갖는 뇌파 데이터를 출력하는 LCD 표시부를 포함한다. The computer has an EEG analysis program, receives EEG data for each measurement electrode through wired / wireless communication, and is located on a frequency axis among EEG data signals measured through the band pass filters (BPF2, BPF3) of the EEG measurement device. A communication unit configured to extract wavelet transformed frequency output values by extracting only the mu band (8 to 13 Hz alpha wave) and beta band (13 to 30 Hz beta wave) frequency domains from the output spectrum; A control unit including an EEG signal processing unit for wavelet transforming the EEG data digitally to provide output values for each frequency; A storage unit that stores measurement EEG data and stores an EEG analysis program for extracting and classifying features of a motion imaginary brain signal based on a Convolutional Neural Network (CNN); And an LCD display unit that outputs EEG data having output values for each frequency over time.

움직임 상상 연구는 피실험자의 움직임 없이 몸의 일부를 움직이는 상상을 의미한다. 본 연구에서 사용한 데이터는 왼손과 오른손 움직임 상상에 대한 데이터이며 각각 상상에 따른 반응이 뇌의 서로 다른 피질에서 나타난다. 이런 특징을 이용하여 추출된 뇌파(알파파, 베타파)에 1차원 컨볼루션 신경망(CNN)을 적용하여 분류 정확도를 향상하는 것을 목표로 하였다[2].Motion imagination study means moving the part of the body without moving the subject. The data used in this study are data for left- and right-hand movement imagination, and each imaginative response appears in different cortex of the brain. The goal was to improve classification accuracy by applying a one-dimensional convolutional neural network (CNN) to the extracted brain waves (alpha and beta waves) using these features [2].

그리고, 시간에 따른 EEG 신호의 형태를 시간(time) 축과 주파수(frequency) 축 형태의 2차원 이미지를 만들고, 그 시간-주파수 2차원 이미지에 1차원 컨볼루션 신경망(CNN)을 적용하였다. Then, a 2D image in the form of a time axis and a frequency axis was created for the EEG signal over time, and a 1D convolutional neural network (CNN) was applied to the time-frequency 2D image.

컨볼루션 신경망(CNN, Convolutional Neural Network)은 컨볼루셔널 계층(Convolutional Layer), 풀링 계층(Pooling Layer), FC 층(Fully Connected Layer)를 포함하는 3개의 레이어가 사용된다.Convolutional neural network (CNN) is a convolutional layer (Convolutional Layer), three layers including a pooling layer (Pooling Layer) and an FC layer (Fully Connected Layer) are used.

이 때, 시간-주파수 이미지 형태는 웨이블릿 변환을 적용하였으며, 모든 주파수 영역을 적용한 것이 아닌 뇌파 측정 장치의 대역통과필터(BPF2,BPF3)를 사용하여 측정된 뇌전도 데이터 신호 중에서 주파수 축에 따른 출력 스펙트럼에서 뮤 밴드(8~13Hz 알파파)와 베타 밴드(13-30Hz 베타파) 주파수 영역만 추출하여 시간-주파수 2차원 이미지 형태를 만들었다. At this time, in the time-frequency image form, wavelet transform is applied, and in the output spectrum along the frequency axis among the EEG data signals measured using the bandpass filters (BPF2, BPF3) of the EEG measuring device rather than applying all frequency domains Only the frequency band of the mu band (8 ~ 13Hz alpha wave) and beta band (13 ~ 30Hz beta wave) were extracted to create a time-frequency two-dimensional image.

본 연구에서 사용된 데이터는 전 세계적으로 뇌-컴퓨터 인터페이스(BCI) 연구에서 많이 사용하고 있는 BCI Competition Ⅳ dataset 2b를 가지고 분석을 시도하였다. The data used in this study was analyzed using the BCI Competition Ⅳ dataset 2b, which is widely used in brain-computer interface (BCI) studies worldwide.

도 5를 참조하면, 본 발명의 움직임 상상 뇌신호 인식을 위한 웨이블릿 변환 기반의 컨볼루션 신경망 분석 방법은 (a) 오른쪽과 왼쪽 머리의 다 지점에 구비된 다수의 뇌파 검출 센서와 연결된 뇌파 측정 장치로부터 통신부를 통해 컴퓨터로 오른쪽과 왼쪽 머리의 다지점에서 측정 뇌파를 전송하며, 상기 뇌파 측정 장치와 통신되는 상기 컴퓨터의 뇌파 분석 프로그램이 사용되는 단계; (b) 왼손 움직임 상상과 오른손 움직임 상상시에, 뇌파 측정->증폭->A/D변환-> 웨이블렛 변환- 컴퓨터의 뇌파 분석 프로그램으로 측정된 EEG 데이터를 전송하는 단계; (c) 상기 뇌파 측정 장치의 대역통과필터(BPF2, BPF3)를 통해 측정된 뇌전도(EEG) 데이터 신호 중에서 주파수 축의 출력 스펙트럼에서 뮤 밴드(8~13Hz 알파파)와 베타 밴드(13-30Hz 베타파) 주파수 영역만을 추출하여 움직임 심상 뇌전도 신호를 웨이블릿 변환을 수행하여 시간-주파수 이미지를 생성하는 단계; (d) 상기 컴퓨터의 뇌파 분석 프로그램에 의해 큐빅 보간법(cubic interpolation method)을 사용하여 주파수 영역과 시간 영역에서 각각 뮤 밴드와 베타 밴드의 움직임 심상 뇌전도 신호를 m x n 크기로 줄이는 축소된 시간-주파수 2차원 이미지를 생성하는 단계; 및 (e) 상기 축소된 시간-주파수 2차원 이미지에 대하여 1차원 컨볼루션 신경망(CNN)을 사용하여 특징 추출과 분류를 통해 감지된 움직임 상상 뇌신호를 웨이블릿 변환 기반의 컨볼루션 신경망 분석 단계;를 포함하며, Referring to FIG. 5, a method of analyzing a convolutional neural network based on wavelet transform for recognizing a motion imaginary brain signal according to the present invention includes (a) an EEG measuring device connected to a plurality of EEG detection sensors provided at multiple points of the right and left heads. Transmitting a measurement brainwave at a multi-point of the right and left heads to a computer through a communication unit, and using the brainwave analysis program of the computer in communication with the brainwave measurement device; (b) in the left hand movement and right hand movement imagination, EEG measurement-> amplification-> A / D conversion-> wavelet conversion-transmitting the EEG data measured by the EEG analysis program of the computer; (c) Mu bands (8 to 13 Hz alpha waves) and beta bands (13 to 30 Hz beta waves) from the output spectrum of the frequency axis among the EEG data signals measured through the band pass filters (BPF2 and BPF3) of the EEG measuring device. ) Extracting only the frequency domain to perform wavelet transform of the motion image EEG signal to generate a time-frequency image; (d) Reduced time-frequency two-dimensional reduction of the motion image EEG signal of the mu band and the beta band in the frequency domain and the time domain to mxn size, respectively, using the cubic interpolation method by the EEG analysis program of the computer. Generating an image; And (e) analyzing a motion imaginary brain signal detected through feature extraction and classification using a 1D convolutional neural network (CNN) with respect to the reduced time-frequency 2D image. Includes,

왼손과 오른손 움직임 상상에 대한 데이터가 각각 상상에 따른 반응이 뇌의 서로 다른 피질에서 나타나며, 이러한 특징을 이용하여 추출된 뇌파에 컨볼루션 신경망(CNN)을 사용하여 움직임 상상 뇌신호의 특징을 추출하고 분류한다. The left and right hand movement imagination data shows the response of each imagination in different cortex of the brain, and using these features, the convolutional neural network (CNN) is used to extract the characteristics of the movement imagination brain signal. Classify.

상기 뮤 밴드는 8~13Hz 알파 파의 주파수 범위이며, 상기 베타 밴드는 13-30Hz 베타 파의 주파수 범위를 갖는다.The mu band has a frequency range of 8 to 13 Hz alpha wave, and the beta band has a frequency range of 13-30 Hz beta wave.

상기 웨이블릿 변환은 Morlet 웨이블렛 변환을 사용한다. The wavelet transform uses a Morlet wavelet transform.

참고로, Wavelet Transform은 기존의 시간 축의 일차원 신호에서 주파수 특성을 분석하기 위해 사용되었던 푸리에 변환(Fourier Transform)의 신호의 불연속성이라는 한계를 극복하기 위해 고안된 기법으로 모함수(mother function)의 scale과 translation(position)을 조절함으로써 주파수 영역의 특징만 알 수 있는 푸리에 변환에서 시간-주파수 공간적인 특징을 파악할 수 있는 향상된 기법이다. Wavelet Transform은 모함수의 형태에 따라 Haar, Morlet. Bump 등으로 나눌 수 있다.For reference, Wavelet Transform is a technique designed to overcome the limitation of the discontinuity of the signal of the Fourier Transform, which was used to analyze the frequency characteristics in the conventional one-dimensional signal on the time axis, scale and translation of the mother function. It is an improved technique to grasp the time-frequency spatial characteristics in the Fourier transform, where only the characteristics of the frequency domain are known by adjusting (position). Wavelet Transform is based on the shape of the parent function Haar, Morlet. It can be divided into bumps, etc.

Morlet Wavelet Transform 식은 다음과 같이 정의된다. Ψ는 모함수를 의미한다. t는 모함수의 translation, 시간축 이동을 의미하며, s는 scale를 의미한다.The Morlet Wavelet Transform expression is defined as follows. Ψ means the parent function. t means translation of the parent function, time axis shift, and s means scale.

Figure 112018111147110-pat00003
Figure 112018111147110-pat00003

상기 웨이블렛 변환은 샘플링 주파수가 250Hz인 뇌전도(EEG) 데이터를 0.5초 동안 추출하여 총 125 샘플이 사용되었으며, 상기 Morlet 웨이블렛 변환의 전처리 과정을 거친 후 시간 축과 주파수 축 각각 500 샘플과 331 샘플의 결과를 얻을 수 있고, 이를 토대로 331 ×500의 이미지를 생성하였으며, The wavelet transform extracts electroencephalogram (EEG) data having a sampling frequency of 250 Hz for 0.5 seconds, and a total of 125 samples have been used.After undergoing the pre-processing process of the Morlet wavelet transform, the results of 500 and 331 samples respectively in the time axis and frequency axis And based on this, an image of 331 × 500 was generated,

주파수 축에 따른 출력 스펙트럼에서, 뮤 밴드(8~13Hz 알파파)와 베타 밴드(13-30Hz 베타파)를 추출하였으며, 뮤 밴드에서 추출된 이미지 크기는 40 ×500, 베타 밴드에서 추출된 이미지 크기는 55 ×500 인 것을 특징으로 한다. In the output spectrum along the frequency axis, the mu band (8 to 13 Hz alpha wave) and beta band (13 to 30 Hz beta wave) were extracted. The image size extracted from the mu band was 40 × 500, and the image size extracted from the beta band. It is characterized in that 55 × 500.

상기 단계 (d)에서는, 상기 뮤 밴드와 베타 밴드, 두 밴드의 주파수 영역과 시간 영역의 크기 상대적으로 너무 크기 때문에 상기 큐빅 보간법(cubic interpolation method)을 사용하여 주파수 영역에서 뮤 밴드 16 ×500, 베타 밴드 15 ×500 크기로 줄였으며, 주파수 영역 뿐 만이 아니라 시간 영역에서 125 샘플에서 32개의 샘플로 줄였으며,

Figure 112018111147110-pat00004
Figure 112018111147110-pat00005
의 크기를 갖는 상기 축소된 시간-주파수 이미지를 만들며, In step (d), since the size of the frequency domain and the time domain of the two bands, the mu band and the beta band, is too large, the mu band 16 × 500, beta in the frequency domain using the cubic interpolation method The band was reduced to 15 × 500, and not only in the frequency domain, but also in the time domain from 125 samples to 32 samples.
Figure 112018111147110-pat00004
and
Figure 112018111147110-pat00005
To create the reduced time-frequency image having a size of

위 과정을 C3, Cz, C4에 각각 적용하여 주파수 크기는 NF x 3 으로 만들어 주며, 이러한 과정을 통해 최종 이미지의 크기는 93 ×32 된다. The above process is applied to C3, Cz, and C4, respectively, to make the frequency size N F x 3, and through this process, the final image size is 93 × 32.

상기 1차원 컨볼루션 신경망(CNN)에서 사용된 필터는 시간에 따른 주파수 특성을 분석하는 1차원 컨볼루션 필터를 사용하며, 필터의 크기는 NF = 93 x 3을 사용한다. The filter used in the one-dimensional convolutional neural network (CNN) uses a one-dimensional convolution filter that analyzes frequency characteristics over time, and the size of the filter is N F = 93 x 3.

상기 1차원 컨볼루션 신경망(CNN)은 상기 축소된 시간-주파수 2차원 이미지를 인식하기 위해 컨볼루셔널 계층(Convolutional Layer), 풀링 계층(Pooling Layer), FC 층(Fully Connected Layer)으로 구성되며, The 1D convolutional neural network (CNN) is composed of a convolutional layer, a pooling layer, and a fully connected layer to recognize the reduced time-frequency 2D image,

상기 컨볼루셔널 계층(Convolutional Layer)의 출력 함수는 ReLU(rectified linear unit) 함수를 적용하였으며, The output function of the convolutional layer (Convolutional Layer) was applied to the ReLU (rectified linear unit) function,

상기 풀링 계층은 max-pooling을 사용하였으며, max-pooling은 출력을 왼손, 오른손 2가지 클래스로 분류하는 FC 층(Fully Connected Layer)에서 수행한다. The pooling layer used max-pooling, and max-pooling is performed by the FC layer (Fully Connected Layer) that classifies the output into two classes: left hand and right hand.

상기 1차원 컨볼루션 신경망(CNN)의 파라미터들은 역전파 알고리즘(back-propagation algorithm)에 의해 학습되었으며, 오차 E는 정해진 라벨이 정해진 데이터와 출력된 결과의 데이터를 계산한 뒤, 경사하강법(gradient-descent method)을 사용하여 오차 E를 작게 만든다. The parameters of the one-dimensional convolutional neural network (CNN) were trained by a back-propagation algorithm, and the error E was calculated after calculating the data of the data with the specified label and the output result. -descent method) to make the error E small.

상기 단계 (e)에서, 상기 움직임 상상 뇌신호를 웨이블릿 변환 기반의 컨볼루션 신경망 분석 단계는, 왼손 상상에서는 C4 채널의 ERS와 ERD의 영향이 강하게 나타나고, 오른손 상상에서는 C3 채널의 ERS와 ERD의 영향이 강하게 나타났다. In the step (e), in the convolutional neural network analysis step based on wavelet transform of the motion imagination brain signal, the influence of ERS and ERD of the C4 channel is strong in the left-hand imagination, and the effect of ERS and ERD of the C3 channel in the right-hand imagination. It appeared strong.

상기 단계 (e)에서, 상기 움직임 상상 뇌신호를 인식하기 위한 웨이블릿 변환 기반의 컨볼루션 신경망 분석 시에, 상기 컴퓨터의 뇌파 분석 프로그램은 Matlab 프로그램을 사용하였다. In step (e), when analyzing a convolutional neural network based on wavelet transform for recognizing the motion imaginary brain signal, the EEG analysis program of the computer used a Matlab program.

2. 움직임 상상 뇌신호 인식을 위한 웨이블릿 변환 기반의 컨볼루션 신경망 분석 방법2. Wavelet Transform Based Convolutional Neural Network Analysis Method for Motion Imagination Brain Signal Recognition

2.1 이미지의 형태 2.1 Image Format

뇌 컴퓨터 인터페이스(Brain-Computer Interface, BCI) 연구에서, 실시예에서는 뇌파 측정 장치에서 머리의 다 지점의 위치에 부착된 뇌파 측정 검출 센서로부터 뇌파 측정 장치에 의해 뇌파 검출-증폭-A/D변환-웨이블렛 변환을 통해 뇌파를 검출하는 사용된 데이터의 EEG 채널의 개수는 총 6개를 사용하였으며, EEG(Electroencephalography, 뇌전도) 데이터 3개와 EOG(electrooculogram) 데이터 3개이며, 여기서 우리는 EEG 데이터 C3, Cz, C4만을 사용하였다. 앞에 나온 3개의 채널은 뇌파 데이터에서 움직임 상상의 특징이 가장 두드러지게 나타나는 부분이다[3]. In a Brain-Computer Interface (BCI) study, in an embodiment, EEG detection-amplification-A / D conversion by an EEG measurement device from an EEG measurement detection sensor attached to a multi-point location of the head in the EEG measurement device- A total of six EEG channels were used for detecting EEG through wavelet transformation, three EEG (Electroencephalography) data and three EOG (electrooculogram) data, where we have EEG data C3, Cz. , Only C4 was used. The previous three channels are the most prominent features of motion imagination in EEG data [3].

추출된 뇌파에서 특정 주파수 뮤 밴드(8~13Hz, 알파파)에서는, 움직임 상상을 하게 되면 뇌파 에너지가 감소하는 형태가 나타나게 되는데 이것을 ERD(event related desynchronization)라고 한다. In a specific frequency mu band (8 to 13 Hz, alpha wave) from the extracted EEG, when the motion is imagined, a form in which the EEG energy decreases appears, which is called event related desynchronization (ERD).

베타 밴드(13~30Hz, 베타파)에서는 에너지가 증가하는 형태가 나타나게 되며, 이것을 ERS(event related synchronization)라고 한다. 그리고, ERS와 ERD는 움직임 상상에서 왼손 상상과 오른손 상상에서 각각에 반응하는 채널이 다르다. In the beta band (13 ~ 30Hz, beta wave), the form of increasing energy appears, and this is called event related synchronization (ERS). In addition, ERS and ERD have different channels that respond to each in the left-hand imagination and the right-hand imagination in motion imagination.

왼손 상상은 C4 채널의 ERS와 ERD의 영향이 강하게 나타나고, 반대로, 오른손 상상은 C3 채널의 ERS와 ERD의 영향이 강하게 나타난다. In the left-hand imagination, the effects of ERS and ERD on the C4 channel are strongly influenced.

웨이블릿 변환은 본 연구에서 뇌전도 데이터 신호를 시간 축과 주파수 축의 2차원 이미지 형태로 만들어 주기 위해 사용되었다. 참고로, 웨이블릿 변환은 처프(chirped) 신호나 ECG(Electrocardiograph, 심전도), 그리고 영상 신호와 같이 시간적으로 주파수 성분이 변하는 신호에 대하여 시간과 주파수 성분을 표현하기 위하여 사용되는 변환 방법이다. 본 실시예에서는, 측정된 뇌파 신호를 웨이블릿(wavelet)이라고 부르며, 머리에 국부적으로 존재하는 어떤 하나의 작은 파(wavelet)를 패턴으로 하여 이를 천이시키거나 확대, 축소의 스케일(scale)을 통하여 임의의 파형으로 표현한다. Wavelet transform was used in this study to make EEG data signals into two-dimensional images in the time axis and frequency axis. For reference, wavelet transform is a transform method used to express time and frequency components for signals whose frequency components change in time, such as chirped signals, ECGs (Electrocardiographs), and video signals. In this embodiment, the measured EEG signal is referred to as a wavelet, and any one small wavelet that is locally present in the head is patterned to shift or randomize it through a scale of enlargement and reduction. It is expressed as a waveform.

도 3은 왼손 상상에 대한 입력 이미지 형태를 나타낸 그림이다. 3 is a diagram showing an input image form for left-hand imagination.

샘플링 주파수가 250Hz인 뇌전도 데이터를 0.5초 동안 추출하여 총 125 샘플이 사용되었다. 웨이블릿 변환은 Morlet 웨이블렛 변환을 사용하였다[4]. 앞선 전처리 과정을 거친 후 시간 축과 주파수 축 각각 500 샘플과 331 샘플의 결과를 얻을 수 있고, 이것을 토대로 331 ×500의 이미지 형태를 만들 수 있었다. 그리고, EEG 신호의 주파수 축에 따른 출력 스펙트럼에서 뮤 밴드와 베타 밴드를 추출하였다. 뮤 밴드에서 추출된 이미지 크기는 40 ×500 이고, 베타 밴드에서 추출된 이미지 크기는 55 ×500 이다.EEG data having a sampling frequency of 250 Hz were extracted for 0.5 second, and a total of 125 samples were used. The wavelet transform was a Morlet wavelet transform [4]. After the previous pre-processing, 500 samples and 331 samples were obtained for the time axis and the frequency axis, respectively, and based on this, an image shape of 331 × 500 was produced. Then, mu bands and beta bands were extracted from the output spectrum along the frequency axis of the EEG signal. The image size extracted from the mu band is 40 × 500, and the image size extracted from the beta band is 55 × 500.

뮤 밴드와 베타 밴드, 두 밴드의 크기 상대적으로 너무 크기 때문에 큐빅 보간법(cubic interpolation method)을 사용하여 뮤 밴드 16 ×500, 베타 밴드 15 ×500 크기로 줄여주었다. 주파수 영역 뿐 만이 아니라 시간 영역의 크기도 너무 크기 때문에 같은 방법을 사용하여 125 샘플에서 32개의 샘플로 줄였다. 그리고,

Figure 112018111147110-pat00006
Figure 112018111147110-pat00007
의 크기를 가지는 이미지를 만들 수 있었다.Since the size of the mu band and the beta band is relatively large, the size of the mu band is reduced to 16 x 500 and beta band 15 x 500 using the cubic interpolation method. Since the size of the time domain as well as the frequency domain is too large, the same method was used to reduce the size from 125 samples to 32 samples. And,
Figure 112018111147110-pat00006
and
Figure 112018111147110-pat00007
I was able to create an image with the size of.

위 과정을 C3, Cz, C4에 각각 적용하여 주파수 크기는 NF x 3 으로 만들어 준다. 이런 과정을 모두 거치면 최종 이미지의 크기는 93 ×32 된다. The above procedure is applied to C3, Cz, and C4, respectively, to make the frequency size N F x 3. After all of these steps, the final image will be 93 × 32 in size.

참고로, 보간법(Interpolation)은 임의의 2개의 끝점에서 그 사이의 값을 추정하기 위한 방법이다. 여기서, 큐빅 보간법(Cubic interpolation method)은 2개 끝점을 연결할 때 직선이 아닌 곡선의 형태인 3차 다항식을 통해 사이 값을 추정하는 방법을 의미한다. For reference, interpolation is a method for estimating a value between two end points. Here, the cubic interpolation method means a method of estimating a value between the two end points through a cubic polynomial that is not a straight line but a curved line.

도 3에서, 오른손 움직임 상상에 따른 이미지 패턴을 분석하면, 오른손 움직임 상상은 C3 채널에서 ERD와 ERS의 영향이 강하게 나타나야 한다. 허나 C3 채널에서 다른 채널에 비해 ERD의 특징은 강하게 나타나는 것을 확인할 수 있으나, ERS의 영향은 확인할 수가 없었다. 이 이미지는 다음 단계에서 컨볼루션 신경망(CNN)에 의해 분석하였다.In FIG. 3, when analyzing the image pattern according to the right hand movement imagination, the influence of ERD and ERS in the right hand movement imagination must be strongly shown in the C3 channel. However, in the C3 channel, it was confirmed that the characteristics of the ERD were stronger than other channels, but the effect of ERS could not be confirmed. This image was analyzed by a convolutional neural network (CNN) in the next step.

2.2 컨볼루션 신경망(CNN, Convolutional Neural Network, 합성곱 신경망)2.2 Convolutional Neural Network (CNN)

참고로, 기존의 다증 구조의 신경망(Multi-Layer Neural Network, MLNN)은 입력층(input layer), 은닉층(hidden layer), 출력층(output layer)으로 구성되며, 16 x 16 문자 인식(필기체 인식)에 주로 사용된다. For reference, the existing multi-layer neural network (MLNN) is composed of an input layer, a hidden layer, and an output layer, and recognizes 16 x 16 characters (handwriting recognition) It is mainly used for.

이와 달리, 컨볼루션 신경망(CNN)은 주로 영상 이미지를 인식하기 위해 사용되며, 컨볼류셔널 계층(Convolution Layer), 풀링 계층(Pooling Layer), 완전하게 연결된 계층(Fully Connected Layer)으로 구성된다. 컨볼루션 신경망(CNN)은 컨볼루션(convolution, 합성곱)과 sub-sampling(pooling이라고 하며, pooling은 sampling과 resizing을 의미)을 반복하여 데이터량을 줄이고 컨볼루션에 의해 특징 추출(feature extraction), 신경망(Neural Network, NN)에 의해 분류(classification)를 행하며, 최종적으로 FC 층(Fully Connected Layer)에서 영상 내 특징 추출과 객체 분류, 객체 탐지 기술에 사용하였다. 예를 들면, FC 층(Fully Connected Layer)은 자동차 포함 입력 이미지에서 추출된 영상의 객체의 특징(feature)이 자동차, 트럭, 버스에 해당하는지 분류한다. CNN은 2차원 데이터 학습에 적합한 구조를 가지고 있다. Unlike this, the convolutional neural network (CNN) is mainly used to recognize a video image, and is composed of a convolutional layer, a pooling layer, and a fully connected layer. The convolutional neural network (CNN) repeats convolution (convolution) and sub-sampling (pooling, and pooling means sampling and resizing) to reduce the amount of data and feature extraction by convolution. Classification is performed by a neural network (NN), and finally, it is used for feature extraction, object classification, and object detection technology in the image in the Fully Connected Layer. For example, the FC layer (Fully Connected Layer) classifies whether a feature of an object extracted from an input image including a vehicle corresponds to a vehicle, a truck, or a bus. CNN has a structure suitable for 2D data learning.

영상처리에서 컨볼루션은 convolution layer에서 입력 영상에 가중치를 갖는 2차원 필터[윈도우, (예) 3x3 window]를 씌운 후, 가중치를 갖는 필터를 행렬의 한 화소씩 이동해가며 계산하며, 입력 영상의 픽셀값과 필터(윈도우)의 가중치를 각각 곱한 후 그 합을 출력 영상의 픽셀값으로 정하며 영상을 줄여나가는 기능을 제공한다. In image processing, the convolution layer calculates the input image by moving the weighted filter by one pixel of the matrix after covering the input image with a weighted 2D filter [window, (eg, 3x3 window)]. After multiplying the weight of the value and the filter (window), the sum is set as the pixel value of the output image, and the function to reduce the image is provided.

pooling layer에서 subsampling(pooling 이라고도 하며, pooling은 sampling과 resizing을 의미)은 화면의 크기를 줄이는 과정이며, 해당 영역(예, 3x3 영역)의 최대치를 선택하는 방법 인 max pooling을 사용하였다. 참고로, 컨볼류셔널 계층(Convolution Layer)에서 출력데이터의 크기를 입력데이터의 크기를 그대로 유지하고, 풀링 계층(Pooling Layer)에서만 크기를 조절한다. In the pooling layer, subsampling (also called pooling, pooling means sampling and resizing) is a process of reducing the size of the screen, and max pooling, a method of selecting the maximum value of the relevant area (eg, 3x3 area), was used. For reference, in the convolutional layer, the size of the output data is maintained as it is in the convolutional layer, and the size is adjusted only in the pooling layer.

풀링(Pooling)은 Max-Pooling과 Average pooling이 있으며, Max-Pooling은 해당영역에서 최대값을 찾는 방법이며, Average-Pooling은 해당영역의 평균값을 계산하는 방법이다. 이미지 인식 분야에서는 주로 Max-Pooling을 사용한다. 이렇게 하여 영상의 여러장의 특징(faeture)을 추출하여 강인한 특징(왜곡, 변형)이 포함된 특징 지도(feature map)를 생성한다. 최종적으로 FC 층(Fully Connected Layer)은 영상 내 객체를 분류(classification)한다. There are Max-Pooling and Average pooling for pooling, Max-Pooling is a method for finding the maximum value in the area, and Average-Pooling is a method for calculating the average value for the area. In image recognition, Max-Pooling is mainly used. In this way, a feature map including robust features (distortion, deformation) is generated by extracting multiple features of the image. Finally, the FC layer (Fully Connected Layer) classifies objects in the image.

영상 이미지를 인식할 때 Convolution Layer에서 2차원 컨볼루션 필터를 사용하며, Pooling Layer에서는 subsampling (pooling)을 사용하여 이미지의 크기를 줄여주는 방식으로 많이 사용되고 있다. When recognizing a video image, the convolution layer uses a 2D convolution filter, and the pooling layer uses subsampling (pooling) to reduce the size of the image.

그러나, 본 연구에서는 뇌파에 대한 시간에 따른 주파수 특성을 분석하므로 1차원 컨볼루션 필터를 적용하였다. However, in this study, a 1-dimensional convolution filter was applied because the frequency characteristics of the EEG were analyzed over time.

도 4는 본 발명에 따른 움직임 상상 뇌신호 인식을 위한 웨이블릿 변환 기반의 컨볼루션 신경망(CNN) 모델을 보인 도면이다. 4 is a diagram showing a convolutional neural network (CNN) model based on wavelet transform for recognizing motion imaginary brain signals according to the present invention.

본 발명의 1차원 컨볼루션 신경망(CNN)은 시간-주파수 2차원 이미지를 인식하기 위해 컨볼류셔널 계층(Convolution Layer), 풀링 계층(Pooling Layer), 완전하게 연결된 계층(Fully Connected Layer)으로 구성되며, The 1D convolutional neural network (CNN) of the present invention is composed of a convolutional layer, a pooling layer, and a fully connected layer to recognize a time-frequency 2D image. ,

상기 컨볼류셔널 계층(Convolutional Layer)의 출력 함수는 ReLU(rectified linear unit) 함수를 적용하였으며, The output function of the convolutional layer (Convolutional Layer) was applied to the ReLU (rectified linear unit) function,

상기 풀링 계층은 max-pooling을 사용하였으며, max-pooling은 출력을 왼손, 오른손 동작의 2가지 클래스로 분류하는 FC 층(Fully Connected Layer)에서 수행한다. The pooling layer used max-pooling, and the max-pooling is performed by the FC layer (Fully Connected Layer) that classifies the output into two classes of left- and right-handed operations.

결국, 컨볼루션 신경망(CNN, Convolutional Neural Network)은 Convolution, ReLU, POOL, Dropu-out을 번갈아 적용하며, 최종적으로 FC 네트워크(Fully connected network)에 의해 객체가 분류된다. After all, Convolutional Neural Network (CNN) applies Convolution, ReLU, POOL, and Dropu-out alternately, and the object is finally classified by the FC network (Fully connected network).

필터는 시간(time)에 따른 주파수 특성(frequency feature)을 분석하는 1차원 컨볼루션 필터를 사용한다. 필터의 크기는 NF = 93 x 3을 적용하였다. The filter uses a one-dimensional convolution filter that analyzes frequency characteristics over time. Filter size of N F = 93 x 3 was applied.

1차원 컨볼루션 신경망(CNN)의 전체적인 모델은 도 4에서 확인할 수 있다. 컨볼류셔널 계층(Convolutional Layer)의 출력 함수는 ReLU(rectified linear unit) 함수를 적용하였다. ReLU는 아래와 같이 정의한다.The overall model of the one-dimensional convolutional neural network (CNN) can be seen in FIG. 4. For the output function of the convolutional layer, the ReLU (rectified linear unit) function was applied. ReLU is defined as follows.

Figure 112018111147110-pat00008
Figure 112018111147110-pat00008

ReLU는 Rectified Linear Unit의 약자이며, 최근 activation 함수로 많이 사용되고 있는 함수이다. ReLU 함수는 기존에 사용하던 sigmoid 함수가 역전파 알고리즘 수행 시 gradient가 0으로 수렴하는 Gradient Vanishing 문제를 해결할 수 있는 장점을 가지고 있어서 많이 사용되고 있다. ReLU 함수의 형태는 입력이 0보다 작으면 출력은 0이 되고, 입력이 0보다 크면 출력은 입력 그대로 출력하게 된다. ReLU is an abbreviation of Rectified Linear Unit, and it is a function that is frequently used as an activation function. The ReLU function is used a lot because it has the advantage that the previously used sigmoid function can solve the gradient vanishing problem where the gradient converges to 0 when performing the back propagation algorithm. In the form of the ReLU function, if the input is less than 0, the output is 0. If the input is greater than 0, the output is output as it is.

Figure 112018111147110-pat00009
Figure 112018111147110-pat00009

컨볼루셔널 계층(Convolutional Layer)의 출력은 Max-Pooling Layer에 의해 subsampling을 진행하여 이미지의 사이즈를 줄여준다. Max-Pooling은 출력을 왼손, 오른손 2가지 클래스로 분류하는 FC 층(Fully Connected Layer)에서 수행한다. 컨볼루션 신경망(CNN)의 파라미터들은 역전파 알고리즘(back-propagation algorithm)에 의해 학습되었다. 오차 E는 정해진 라벨이 정해진 데이터와 출력된 결과의 데이터를 계산한 뒤, 경사하강법(gradient-descent method)을 사용하여 오차 E를 작게 만들어 주어야 한다. 참고로, 경사 하강법은 뉴럴 네트워크에서

Figure 112018111147110-pat00010
식(α는 학습계수)을 사용하여 함수의 기울기로 최소값을 찾아내는 1차 근삿값 발견용 최적화 알고리즘이다. 기본 아이디어는 함수의 접선의 기울기(경사)를 구하여 프로그램에 의해 기울기가 낮은 쪽으로 계속 이동시켜 극값에 이를 때까지 반복시키는 것이다 The output of the convolutional layer reduces the size of the image by performing subsampling by the Max-Pooling Layer. Max-Pooling is performed in the FC layer (Fully Connected Layer), which classifies the output into two classes: left hand and right hand. The parameters of the convolutional neural network (CNN) were trained by a back-propagation algorithm. The error E should make the error E small using the gradient-descent method after calculating the data with the specified label and the output result. For reference, the gradient descent method is
Figure 112018111147110-pat00010
This is an optimization algorithm for first-order approximation to find the minimum value by using the equation (α is the learning coefficient) as the slope of the function. The basic idea is to find the slope (slope) of the tangent of the function and continue to move it to the lower slope by the program and repeat it until it reaches the extreme value.

Figure 112018111147110-pat00011
Figure 112018111147110-pat00011

여기서,

Figure 112018111147110-pat00012
은 학습률(learning rate)을 의미한다.
Figure 112018111147110-pat00013
는 필터 k에 대한 가중치의 행렬이며, bK는 필터에 대한 bias 값을 의미한다. here,
Figure 112018111147110-pat00012
Means learning rate.
Figure 112018111147110-pat00013
Is a matrix of weights for filter k, and b K means a bias value for filter.

역전파 알고리즘(back-propagation algorithm)은 인공신경망(Artificial Neural Network)에서 많이 사용되고 있는 알고리즘으로써 데이터의 학습을 통해 출력된 결과(y)와 원하는 결과(o)는 다를 때, 오차(e)는 출력된 결과(y)와 원하는 결과(o)의 차이에 가중치를 갱신하여 오차(e)를 줄여간다. 이 때, 훈련되는 방향과 오차의 가중치를 갱신하는 방향이 반대 방향이기 때문에 역전파 알고리즘이라고 불린다. 역전파 알고리즘은 과거 단층 신경망의 퍼셉트론(perceptron)의 단점을 보완하여 다층 신경망(multi-layer perceptron)에서 많이 사용된다.Back-propagation algorithm is an algorithm that is widely used in artificial neural networks. When the result (y) and the desired result (o) are different through learning data, the error (e) is output. The error (e) is reduced by updating the weight of the difference between the result (y) and the desired result (o). At this time, it is called a back propagation algorithm because the direction of training and the direction of updating the weight of the error are opposite directions. Back propagation algorithms are used in multi-layer perceptrons by compensating for the shortcomings of perceptrons in the past.

경사 하강법(gradient-descent method)은 임의의 데이터에서 cost function의 최솟값을 찾는 방법으로 현재 신경망(Neural Network), 머신러닝(Machine Learning, ML)과 같은 연구에서 많이 사용되고 있는 방법이다. 경사 하강법은 임의의 데이터에서의 기울기 값을 측정하여 경사도가 더 낮은 부분 즉, 0이 되는 부분을 찾아내는 방법이다. The gradient-descent method is a method of finding the minimum value of a cost function from arbitrary data, and is currently used in studies such as neural networks and machine learning (ML). The gradient descent method is a method of measuring a gradient value in arbitrary data to find a portion having a lower gradient, that is, a portion having zero.

3. 결과 3. Results

본 연구에서는 움직임 상상 뇌신호 인식을 위한 웨이블릿 변환 기반의 컨볼루션 신경망 분석 방법은 Matlab 프로그램 환경에서 구현하였다. 사용된 데이터의 90%는 훈련 데이터로 사용되었으며, 나머지 10%는 테스트 데이터로 사용되었다. 여기서, 10 ×10 fold cross validation을 적용하여 정확도를 평가하였다. batch size는 50, epoch는 300으로 설정하고 분석하였다. In this study, a convolutional neural network analysis method based on wavelet transform for motion imagination brain signal recognition was implemented in the Matlab program environment. 90% of the data used was used as training data, and the remaining 10% was used as test data. Here, accuracy was evaluated by applying 10 × 10 fold cross validation. The batch size was set to 50 and the epoch was set to 300 and analyzed.

도 6은 Matlab에 의해 분석된 데이터의 정확도 평가와 평균과 표준편차의 결과를 보인 도면이다. 6 is a view showing the results of the accuracy evaluation and the mean and standard deviation of the data analyzed by Matlab.

Figure 112018111147110-pat00014
Figure 112018111147110-pat00014

움직임 상상 연구는 피실험자의 움직임 없이 몸의 일부를 움직이는 상상을 의미한다. 예를들면, 왼손의 동작은 오른쪽 뇌 상상 뇌신호와 관련되며, 오른손의 동작은 왼쪽 뇌 상상 뇌신호와 관련된다. Motion imagination study means moving the part of the body without moving the subject. For example, the motion of the left hand is related to the brain signal of the right brain, and the motion of the right hand is associated with the brain signal of the left brain.

왼손과 오른손 움직임 상상에 대한 데이터가 각각 상상에 따른 반응이 뇌의 서로 다른 피질에서 나타나며, 이러한 특징을 이용하여 추출된 뇌파에 컨볼루션 신경망(CNN)을 사용하여 움직임 상상 뇌신호의 특징을 추출하고 분류하였다. The left and right hand movement imagination data shows the response of each imagination in different cortex of the brain, and using these features, the convolutional neural network (CNN) is used to extract the characteristics of the movement imagination brain signal. Classified.

본 연구에서 사용한 데이터는 왼손과 오른손 움직임 상상에 대한 데이터이며 각각 상상에 따른 반응이 뇌의 서로 다른 피질에서 나타난다. 이런 특징을 이용하여 추출된 뇌파(알파파, 베타파)에 1차원 컨볼루션 신경망(CNN)을 적용하여 분류 정확도를 향상하였다. The data used in this study are data for left- and right-hand movement imagination, and each imaginative response appears in different cortex of the brain. Using this feature, classification accuracy was improved by applying a one-dimensional convolutional neural network (CNN) to the extracted EEG (alpha wave, beta wave).

상기 움직임 상상 뇌신호를 웨이블릿 변환 기반의 컨볼루션 신경망 분석 단계는, 왼손 상상에서는 C4 채널의 ERS와 ERD의 영향이 강하게 나타나고, 오른손 상상에서는 C3 채널의 ERS와 ERD의 영향이 강하게 나타났다. In the convolutional neural network analysis step based on wavelet transform of the motion imagination brain signal, the influence of ERS and ERD of the C4 channel is strongly shown in the left-hand imagination, and the influence of ERS and ERD of the C3 channel is strongly shown in the right-hand imagination.

이상에서 설명한 바와 같이, 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야에서 통상의 지식을 가진자가 하기의 특허청구범위에 기재된 본 발명의 기술적 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 또는 변형하여 실시할 수 있음을 이해할 수 있을 것이다.As described above, the present invention has been described with reference to preferred embodiments of the present invention, but the present invention is within the scope of those skilled in the art without departing from the technical spirit and scope of the present invention as set forth in the claims below. It will be understood that various modifications or variations can be carried out.

CNN: 컨볼루션 신경망(Convolutional Neural Network, 합성곱 신경망)

Figure 112018111147110-pat00015
: 학습률(learning rate)
Figure 112018111147110-pat00016
: 필터 k에 대한 가중치의 행렬
bK : 필터에 대한 bias 값 E: 오차CNN: Convolutional Neural Network
Figure 112018111147110-pat00015
: Learning rate
Figure 112018111147110-pat00016
: Matrix of weights for filter k
b K : bias value for filter E: error

Claims (10)

(a) 오른쪽과 왼쪽 머리의 다 지점에 구비된 다수의 뇌파 검출 센서와 연결된 뇌파 측정 장치로부터 통신부를 통해 컴퓨터로 오른쪽과 왼쪽 머리의 다지점에서 측정 뇌파를 전송하며, 상기 뇌파 측정 장치와 통신되는 상기 컴퓨터의 뇌파 분석 프로그램이 사용되는 단계;
(b) 왼손 움직임 상상과 오른손 움직임 상상시에, 뇌파 측정->증폭->A/D변환-> 웨이블렛 변환- 컴퓨터의 뇌파 분석 프로그램으로 측정된 EEG 데이터를 전송하는 단계;
(c) 상기 뇌파 측정 장치의 대역통과필터(BPF2, BPF3)를 통해 측정된 뇌전도(EEG) 데이터 신호 중에서 주파수 축의 출력 스펙트럼에서 뮤 밴드와 베타 밴드 주파수 영역만을 추출하여 움직임 심상 뇌전도 신호를 웨이블릿 변환을 수행하여 시간-주파수 이미지를 생성하는 단계;
(d) 상기 컴퓨터의 뇌파 분석 프로그램에 의해 큐빅 보간법(cubic interpolation method)을 사용하여 주파수 영역과 시간 영역에서 각각 뮤 밴드와 베타 밴드의 움직임 심상 뇌전도 신호를 m x n 크기로 줄이는 축소된 시간-주파수 2차원 이미지를 생성하는 단계; 및
(e) 상기 축소된 시간-주파수 2차원 이미지에 대하여 1차원 컨볼루션 신경망(CNN)을 사용하여 특징 추출과 분류를 통해 감지된 움직임 상상 뇌신호를 웨이블릿 변환 기반의 컨볼루션 신경망 분석 단계;를 포함하며,
왼손과 오른손 움직임 상상에 대한 데이터가 각각 상상에 따른 반응이 뇌의 서로 다른 피질에서 나타나며, 이러한 특징을 이용하여 추출된 뇌파에 상기 1차원 컨볼루션 신경망(CNN)을 사용하여 감지된 움직임 상상 뇌신호의 특징을 추출하고 분류하는, 움직임 상상 뇌신호 인식을 위한 웨이블릿 변환 기반의 컨볼루션 신경망 분석 방법.
(a) transmits a measurement brainwave at multiple points of the right and left heads to a computer through a communication unit from a brainwave measurement device connected to a plurality of brainwave detection sensors provided at multiple points of the right and left heads, and communicates with the brainwave measurement device Using the computer's EEG analysis program;
(b) in the left hand movement and right hand movement imagination, EEG measurement->amplification-> A / D conversion-> wavelet conversion-transmitting the EEG data measured by the EEG analysis program of the computer;
(c) Among the EEG data signals measured through the band pass filters (BPF2, BPF3) of the EEG measuring device, only the mu-band and beta-band frequency domains are extracted from the output spectrum of the frequency axis to convert wavelet transforms of motion image EEG signals. Performing to generate a time-frequency image;
(d) Reduced time-frequency two-dimensional reduction of the motion image EEG signal of the mu band and the beta band in the frequency domain and the time domain to mxn size, respectively, using the cubic interpolation method by the EEG analysis program of the computer. Generating an image; And
(e) analyzing a motion imaginary brain signal detected through feature extraction and classification using a 1D convolutional neural network (CNN) on the reduced time-frequency 2D image based on wavelet transform; And
The left and right hand movement imagination data shows the response according to the imagination in different cortex of the brain, and the motion imagination brain signal detected using the one-dimensional convolutional neural network (CNN) on the brain waves extracted using these features A convolutional neural network analysis method based on wavelet transform for recognizing motion imaginary brain signals, extracting and classifying features.
제1항에 있어서,
상기 뮤 밴드는 8~13Hz 알파 파의 주파수 범위이며, 상기 베타 밴드는 13-30Hz 베타 파의 주파수 범위를 갖는, 움직임 상상 뇌신호 인식을 위한 웨이블릿 변환 기반의 컨볼루션 신경망 분석 방법.
According to claim 1,
The mu band has a frequency range of 8 to 13 Hz alpha wave, and the beta band has a frequency range of 13 to 30 Hz beta wave, a wavelet transform based convolutional neural network analysis method for motion imagination brain signal recognition.
제1항에 있어서,
상기 웨이블릿 변환은 Morlet 웨이블렛 변환을 사용하는, 움직임 상상 뇌신호 인식을 위한 웨이블릿 변환 기반의 컨볼루션 신경망 분석 방법.
According to claim 1,
The wavelet transform is a convolutional neural network analysis method based on wavelet transform for recognizing motion imaginary brain signals using Morlet wavelet transform.
제3항에 있어서,
상기 웨이블릿 변환은 샘플링 주파수가 250Hz인 뇌전도(EEG) 데이터를 0.5초 동안 추출하여 총 125 샘플이 사용되었으며, 상기 Morlet 웨이블렛 변환의 전처리 과정을 거친 후 시간 축과 주파수 축 각각 500 샘플과 331 샘플의 결과를 얻을 수 있고, 이를 토대로 331 ×500의 이미지를 생성하였으며,
주파수 축에 따른 출력 스펙트럼에서 뮤 밴드와 베타 밴드를 추출하였으며, 뮤 밴드에서 추출된 이미지 크기는 40 ×500, 베타 밴드에서 추출된 이미지 크기는 55 ×500 인 것을 특징으로 하는 움직임 상상 뇌신호 인식을 위한 웨이블릿 변환 기반의 컨볼루션 신경망 분석 방법.
According to claim 3,
The wavelet transform extracts electroencephalogram (EEG) data having a sampling frequency of 250 Hz for 0.5 seconds, and a total of 125 samples are used, and after undergoing the pre-processing process of the Morlet wavelet transform, the results of 500 and 331 samples of the time axis and the frequency axis, respectively. And based on this, an image of 331 × 500 was generated,
Mu band and beta band are extracted from the output spectrum along the frequency axis, and the image size extracted from the mu band is 40 × 500, and the image size extracted from the beta band is 55 × 500. Convolutional Neural Network Analysis Method based on Wavelet Transform.
제4항에 있어서,
상기 단계 (d)에서는
상기 뮤 밴드와 상기 베타 밴드, 두 밴드의 주파수 영역과 시간 영역의 크기 상대적으로 너무 크기 때문에 상기 큐빅 보간법(cubic interpolation method)을 사용하여 주파수 영역에서 뮤 밴드 16 ×500, 베타 밴드 15 ×500 크기로 줄였으며, 주파수 영역 뿐 만이 아니라 시간 영역에서 125 샘플에서 32개의 샘플로 줄였으며,
Figure 112018111147110-pat00017
Figure 112018111147110-pat00018
의 크기를 가지는 상기 축소된 시간-주파수 이미지를 만들며,
위 과정을 C3, Cz, C4에 각각 적용하여 주파수 크기는 NF x 3 으로 만들어 주며, 이러한 과정을 통해 최종 이미지의 크기는 93 ×32 되는, 움직임 상상 뇌신호 인식을 위한 웨이블릿 변환 기반의 컨볼루션 신경망 분석 방법.
According to claim 4,
In step (d) above
Since the size of the frequency domain and the time domain of the two bands, the mu band and the beta band, is relatively large, the cu band interpolation method is used to generate a mu band of 16 × 500 and a beta band of 15 × 500 in the frequency domain. And reduced from 125 samples to 32 samples in the time domain, not just in the frequency domain.
Figure 112018111147110-pat00017
and
Figure 112018111147110-pat00018
To create the reduced time-frequency image having the size of,
The above process is applied to C3, Cz, and C4 to make the frequency size N F x 3, and through this process, the final image size is 93 × 32, based on wavelet transform for motion imagination brain signal recognition. Neural network analysis method.
제1항에 있어서,
상기 1차원 컨볼루션 신경망(CNN)에서 사용된 필터는 시간에 따른 주파수 특성을 분석하기 위해 1차원 컨볼루션 필터를 사용하며, 필터의 크기는 NF = 93 x 3을 사용하는, 움직임 상상 뇌신호 인식을 위한 웨이블릿 변환 기반의 컨볼루션 신경망 분석 방법.
According to claim 1,
The filter used in the one-dimensional convolutional neural network (CNN) uses a one-dimensional convolution filter to analyze frequency characteristics over time, and the size of the filter uses N F = 93 x 3, a motion imaginary brain signal Convolutional neural network analysis method based on wavelet transform for recognition.
제1항에 있어서,
상기 1차원 컨볼루션 신경망(CNN)은 상기 축소된 시간-주파수 2차원 이미지를 인식하기 위해 컨볼류셔널 계층(Convolution Layer), 풀링 계층(Pooling Layer), FC 층(Fully Connected Layer)으로 구성되며,
상기 컨볼류셔널 계층(Convolutional Layer)의 출력 함수는 ReLU(rectified linear unit) 함수를 사용하였으며,
상기 풀링 계층은 max-pooling을 사용하였으며, max-pooling은 출력을 왼손, 오른손 동작의 2가지 클래스로 분류하는 상기 FC 층(Fully Connected Layer)에서 수행하며, 움직임 상상 뇌신호 인식을 위한 웨이블릿 변환 기반의 컨볼루션 신경망 분석 방법.
According to claim 1,
The 1D convolutional neural network (CNN) is composed of a convolutional layer, a pooling layer, and a fully connected layer to recognize the reduced time-frequency 2D image,
The output function of the convolutional layer (Convolutional Layer) was used the ReLU (rectified linear unit) function,
The pooling layer uses max-pooling, and max-pooling is performed by the FC layer (Fully Connected Layer) that classifies the output into two classes of left- and right-handed motions, and based on wavelet transform for motion imagination brain signal recognition. Convolutional neural network analysis method.
제7항에 있어서,
상기 1차원 컨볼루션 신경망(CNN)의 파라미터들은 역전파 알고리즘(back-propagation algorithm)에 의해 학습되었으며, 오차 E는 정해진 라벨이 정해진 데이터와 출력된 결과의 데이터를 계산한 뒤, 경사하강법(gradient-descent method)을 사용하여 오차 E를 작게 만드는, 움직임 상상 뇌신호 인식을 위한 웨이블릿 변환 기반의 컨볼루션 신경망 분석 방법.
The method of claim 7,
The parameters of the one-dimensional convolutional neural network (CNN) were trained by a back-propagation algorithm, and the error E was calculated after calculating the data of the data with the specified label and the output result. -descent method) to make the error E small, wavelet transform based convolutional neural network analysis method for motion imagination brain signal recognition.
제1항에 있어서,
상기 단계 (e)에서,
상기 움직임 상상 뇌신호를 웨이블릿 변환 기반의 컨볼루션 신경망 분석 단계는, 왼손 상상은 C4 채널의 ERS와 ERD의 영향이 강하게 나타나고, 오른손 상상은 C3 채널의 ERS와 ERD의 영향이 강하게 나타나는, 움직임 상상 뇌신호 인식을 위한 웨이블릿 변환 기반의 컨볼루션 신경망 분석 방법.
According to claim 1,
In step (e),
In the convolutional neural network analysis step based on wavelet transform of the motion imagination brain signal, the left hand imagination has a strong influence of ERS and ERD of the C4 channel, and the right hand imagination shows a strong influence of the ERS and ERD of the C3 channel. Convolutional neural network analysis method based on wavelet transform for signal recognition.
제1항에 있어서,
상기 단계 (e)에서,
상기 움직임 상상 뇌신호를 인식하기 위한 웨이블릿 변환 기반의 컨볼루션 신경망 분석 시에, 상기 컴퓨터의 뇌파 분석 프로그램은 Matlab 프로그램을 사용하는, 움직임 상상 뇌신호 인식을 위한 웨이블릿 변환 기반의 컨볼루션 신경망 분석 방법.
According to claim 1,
In step (e),
When analyzing a convolutional neural network based on wavelet transform for recognizing the motion imaginary brain signal, the computer's EEG analysis program uses a Matlab program, a wavelet transform based convolutional neural network analysis method for recognizing the motion imaginary brain signal.
KR1020180136945A 2018-11-08 2018-11-08 Analysis method of convolutional neural network based on Wavelet transform for identifying motor imagery brain waves KR102096565B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180136945A KR102096565B1 (en) 2018-11-08 2018-11-08 Analysis method of convolutional neural network based on Wavelet transform for identifying motor imagery brain waves

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180136945A KR102096565B1 (en) 2018-11-08 2018-11-08 Analysis method of convolutional neural network based on Wavelet transform for identifying motor imagery brain waves

Publications (1)

Publication Number Publication Date
KR102096565B1 true KR102096565B1 (en) 2020-04-02

Family

ID=70281617

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180136945A KR102096565B1 (en) 2018-11-08 2018-11-08 Analysis method of convolutional neural network based on Wavelet transform for identifying motor imagery brain waves

Country Status (1)

Country Link
KR (1) KR102096565B1 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112057047A (en) * 2020-09-11 2020-12-11 首都师范大学 Device for realizing motor imagery classification and hybrid network system construction method thereof
CN112120694A (en) * 2020-08-19 2020-12-25 中国地质大学(武汉) Motor imagery electroencephalogram signal classification method based on neural network
CN112633365A (en) * 2020-12-21 2021-04-09 西安理工大学 Mirror convolution neural network model and motor imagery electroencephalogram recognition algorithm
KR102265515B1 (en) * 2020-12-22 2021-06-15 건국대학교 산학협력단 Authentication method and apparatus based on a brain wave
CN113011239A (en) * 2020-12-02 2021-06-22 杭州电子科技大学 Optimal narrow-band feature fusion-based motor imagery classification method
CN113112039A (en) * 2021-04-13 2021-07-13 合肥工业大学 Active power distribution system initial fault identification method based on time-frequency memory recurrent neural network
KR102290243B1 (en) * 2020-04-09 2021-08-18 재단법인대구경북과학기술원 Classification method for Electroencephalography motor imagery
CN113408397A (en) * 2021-06-16 2021-09-17 西安电子科技大学 Domain-adaptive cross-subject motor imagery electroencephalogram signal identification system and method
CN113419902A (en) * 2021-06-29 2021-09-21 上海大学 Multichannel electroencephalogram signal correlation analysis and data recovery method based on long-time and short-time memory network
CN114242202A (en) * 2021-12-17 2022-03-25 钧晟(天津)科技发展有限公司 Cerebral apoplexy hand rehabilitation training method, device and system
WO2023099962A1 (en) * 2021-12-01 2023-06-08 Field - Neuroscience Solutions, Lda Brain wave sensing and processing method and system

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100282733B1 (en) 1999-03-23 2001-02-15 박병운 Real-time brain wave estimation apparatus using a headband
KR100450758B1 (en) 2002-01-22 2004-10-01 한국전자통신연구원 Apparatus and method for measuring electroencephalogram
KR101205892B1 (en) * 2010-08-24 2012-11-28 연세대학교 원주산학협력단 Method for producing two-dimensional spatiospectral erd/ers patterns from electroencephalogram, method for classifying mental tasks based on the two-dimensional spatiospectral patterns and brain-computer interface system using classified electroencephalogram by the classifying method as input signal
KR101480536B1 (en) * 2014-02-27 2015-01-12 주식회사 올비트앤 Electroencephalogram detecting system including a portable electroencephalogram detecting apparatus of hair band type, and a sleep management method using the same
JP2016067922A (en) * 2014-09-25 2016-05-09 エスエヌユー アールアンドディービー ファウンデーション Brain-machine interface device and method
KR101670949B1 (en) * 2015-03-24 2016-10-31 포항공과대학교 산학협력단 Information folw measuring appratus

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100282733B1 (en) 1999-03-23 2001-02-15 박병운 Real-time brain wave estimation apparatus using a headband
KR100450758B1 (en) 2002-01-22 2004-10-01 한국전자통신연구원 Apparatus and method for measuring electroencephalogram
KR101205892B1 (en) * 2010-08-24 2012-11-28 연세대학교 원주산학협력단 Method for producing two-dimensional spatiospectral erd/ers patterns from electroencephalogram, method for classifying mental tasks based on the two-dimensional spatiospectral patterns and brain-computer interface system using classified electroencephalogram by the classifying method as input signal
KR101480536B1 (en) * 2014-02-27 2015-01-12 주식회사 올비트앤 Electroencephalogram detecting system including a portable electroencephalogram detecting apparatus of hair band type, and a sleep management method using the same
JP2016067922A (en) * 2014-09-25 2016-05-09 エスエヌユー アールアンドディービー ファウンデーション Brain-machine interface device and method
KR101670949B1 (en) * 2015-03-24 2016-10-31 포항공과대학교 산학협력단 Information folw measuring appratus

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Pfurtscheller G and Da Silva F L 1999 Event-related EEG/MEG synchronization and desynch-ronization: basic principles Clin. Neurophysiol
Shangkai Gao, Yijun Wang, Xiaorong Gao and Bo Hong, "and Auditory Brain-Computer Interfaces."in IEEE Transaction on Biomedical Engineering, vol 61, no 5, May 2014
Torrence, C. and G.P. Compo. "Practical Guide to Wavelet Analysis"Bull. Am. Meteorol. Soc., 79, 6178, 1998.
Yousef Rezaei Tabar, Ugur Halici, "novel deep learning approach for classification of EEG motor imagery signals"in Journal of Neural Engineering, 2017

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102290243B1 (en) * 2020-04-09 2021-08-18 재단법인대구경북과학기술원 Classification method for Electroencephalography motor imagery
CN112120694A (en) * 2020-08-19 2020-12-25 中国地质大学(武汉) Motor imagery electroencephalogram signal classification method based on neural network
CN112120694B (en) * 2020-08-19 2021-07-13 中国地质大学(武汉) Motor imagery electroencephalogram signal classification method based on neural network
CN112057047A (en) * 2020-09-11 2020-12-11 首都师范大学 Device for realizing motor imagery classification and hybrid network system construction method thereof
CN113011239B (en) * 2020-12-02 2024-02-09 杭州电子科技大学 Motor imagery classification method based on optimal narrow-band feature fusion
CN113011239A (en) * 2020-12-02 2021-06-22 杭州电子科技大学 Optimal narrow-band feature fusion-based motor imagery classification method
CN112633365A (en) * 2020-12-21 2021-04-09 西安理工大学 Mirror convolution neural network model and motor imagery electroencephalogram recognition algorithm
CN112633365B (en) * 2020-12-21 2024-03-19 西安理工大学 Mirror convolution neural network model and motor imagery electroencephalogram recognition algorithm
KR102265515B1 (en) * 2020-12-22 2021-06-15 건국대학교 산학협력단 Authentication method and apparatus based on a brain wave
CN113112039B (en) * 2021-04-13 2022-11-25 合肥工业大学 Active power distribution system initial fault identification method based on time-frequency memory recurrent neural network
CN113112039A (en) * 2021-04-13 2021-07-13 合肥工业大学 Active power distribution system initial fault identification method based on time-frequency memory recurrent neural network
CN113408397A (en) * 2021-06-16 2021-09-17 西安电子科技大学 Domain-adaptive cross-subject motor imagery electroencephalogram signal identification system and method
CN113419902A (en) * 2021-06-29 2021-09-21 上海大学 Multichannel electroencephalogram signal correlation analysis and data recovery method based on long-time and short-time memory network
WO2023099962A1 (en) * 2021-12-01 2023-06-08 Field - Neuroscience Solutions, Lda Brain wave sensing and processing method and system
CN114242202A (en) * 2021-12-17 2022-03-25 钧晟(天津)科技发展有限公司 Cerebral apoplexy hand rehabilitation training method, device and system

Similar Documents

Publication Publication Date Title
KR102096565B1 (en) Analysis method of convolutional neural network based on Wavelet transform for identifying motor imagery brain waves
Zhang et al. A survey on deep learning-based non-invasive brain signals: recent advances and new frontiers
KR101238780B1 (en) Devices and methods for readiness potential-based brain-computer interface
Ochoa EEG signal classification for brain computer interface applications
Murugappan et al. Inferring of human emotional states using multichannel EEG
US20040267152A1 (en) Method and system for predicting and preventing seizures
US20040138578A1 (en) Method and system for a real time adaptive system for effecting changes in cognitive-emotive profiles
KR20150098607A (en) Configuration and spatial placement of frontal electrode sensors to detect physiological signals
KR20180134310A (en) Appratus for controlling integrated supervisory of pilots status and method for guiding task performance ability of pilots using the same
Prashant et al. Brain computer interface: A review
Alamdari et al. A review of methods and applications of brain computer interface systems
Naveen et al. Brain computing interface for wheel chair control
Goudiaby et al. Eeg biometrics for person verification
Bastos-Filho Introduction to non-invasive EEG-Based brain-computer interfaces for assistive technologies
KR102420359B1 (en) Apparatus and method for generating 1:1 emotion-tailored cognitive behavioral therapy in metaverse space through AI control module for emotion-customized CBT
Hu et al. Multi-feature fusion method based on WOSF and MSE for four-class MI EEG identification
KR101527273B1 (en) Method and Apparatus for Brainwave Detection Device Attached onto Frontal Lobe and Concentration Analysis Method based on Brainwave
KR20080107961A (en) User adaptative pattern clinical diagnosis/medical system and method using brain waves and the sense infomation treatment techniques
Chenane et al. EEG Signal Classification for BCI based on Neural Network
Reaves et al. Assessment and application of EEG: A literature review
Al-Turabi et al. Brain computer interface for wheelchair control in smart environment
Sagar et al. Drowsiness detection using combined neuroimaging: Overview and Challenges
Andreoni et al. Human machine interface for healthcare and rehabilitation
Vasavi et al. A mind operated computer mouse using Discrete wavelet transforms for elderly people with multiple disabilities
Saikia et al. EEG signal processing and its classification for rehabilitation device control

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant