KR20170121110A - Method and apparatus for extracting Brain information - Google Patents

Method and apparatus for extracting Brain information Download PDF

Info

Publication number
KR20170121110A
KR20170121110A KR1020170136607A KR20170136607A KR20170121110A KR 20170121110 A KR20170121110 A KR 20170121110A KR 1020170136607 A KR1020170136607 A KR 1020170136607A KR 20170136607 A KR20170136607 A KR 20170136607A KR 20170121110 A KR20170121110 A KR 20170121110A
Authority
KR
South Korea
Prior art keywords
extracting
pupil
beta
subject
data
Prior art date
Application number
KR1020170136607A
Other languages
Korean (ko)
Other versions
KR101870919B1 (en
Inventor
황민철
박상인
이동원
황성택
원명주
Original Assignee
상명대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 상명대학교산학협력단 filed Critical 상명대학교산학협력단
Priority to KR1020170136607A priority Critical patent/KR101870919B1/en
Publication of KR20170121110A publication Critical patent/KR20170121110A/en
Application granted granted Critical
Publication of KR101870919B1 publication Critical patent/KR101870919B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/369Electroencephalography [EEG]
    • A61B5/372Analysis of electroencephalograms
    • A61B5/374Detecting the frequency distribution of signals, e.g. detecting delta, theta, alpha, beta or gamma waves
    • A61B5/048
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/11Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils
    • A61B3/112Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils for measuring diameter of pupils
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • A61B5/04012
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7225Details of analog processing, e.g. isolation amplifier, gain or sensitivity adjustment, filtering, baseline or drift compensation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis

Abstract

The present invention relates to a method for extracting brain information of a subject to be tested through a pupil size change rate. The method comprises the steps of: acquiring a video from a face of a subject to be tested; extracting a pupil area from the video; extracting a pupil size change rate from an image of the pupil area; and extracting brain information of the subject to be tested from the pupil size change rate.

Description

동공 크기 변화율을 이용한 뇌 정보 (EEG spectrum) 추출 방법 및 그 장치{Method and apparatus for extracting Brain information}TECHNICAL FIELD The present invention relates to a method and apparatus for extracting brain information (EEG spectrum)

본 발명은 동공 크기 변화율을 이용하여 뇌 정보 (EEG spectrum)를 추출하는 방법 및 그 장치에 관한 것이다.The present invention relates to a method and apparatus for extracting brain information (EEG spectrum) using a pupil size change rate.

생체신호 모니터링 기술 (VSM, Vital Sign Monitoring)은 사용자의 신체에 부착된 센서를 이용하여 생체정보를 취득하는 기술은 의미한다. 센서를 통해 취득하는 사용자의 생체 정보는 맥박, 혈압, 심전도, 체온 등이 있다. 사용자로부터 취득된 생체정보는 U-healthcare 산업 (Wellness IT), 감성 ICT 산업 (Emotion Marketing, Services, Therapy 등), 보안 산업, 교육 산업 등의 다양한 산업분야에 적용되어 응용 및 부가가치 창출한다. 또한, 이는 산업간 융복합 및 제품·서비스의 가치혁신을 통해 기존 제품과 전혀 다른 기능·형태의 새로운 제품 및 서비스 제공이 가능하다 (장병준 & 최선웅, 2008; 더힘스 & 박승훈, 2013; 정혜실, 2014).Vital Sign Monitoring (VSM) refers to a technique for acquiring biometric information using a sensor attached to a user's body. Biometric information of the user acquired through the sensor includes pulse, blood pressure, electrocardiogram, body temperature and the like. The biometric information obtained from the user is applied to a variety of industrial fields such as U-healthcare industry, Emotion Marketing, Services, Therapy, security industry, education industry, etc. to create application and added value. In addition, it is possible to provide new products and services with functions and forms completely different from those of existing products through the innovation of value-added products and services in the industry (Jung Byung Joon & Choi Seon Hoon, 2008; 2014).

기존의 생체신호 모니터링 기술은 사용자에 생체 반응을 취득하기 위해 센서를 신체에 부착하는 비현실적 센싱 방법으로 산업분야에 적용하는데 그 한계가 있다. 따라서, 인체에 접촉하지 않고 고통을 주지 않으며 사용자의 활동에 지장을 주지 않도록 의식하지 못하는 가운데 생체정보를 측정하는 무구속/무자각 센싱 기술이 필요한 실정이다 (더힘스 & 박승훈, 2013). 이에 따라, 최근 카메라 기술을 이용해 사용자의 생체정보를 추론하는 기술이 개발되고 있다. 카메라를 이용한 생체 정보 추론 기술은 완전한 무구속/무자각 생체신호 센싱 기술로 볼 수 있다. MIT media lab에서 심장에서 얼굴로 유입되는 혈액에 따라 미세하게 나타나는 얼굴의 색상정보를 분석하고 이를 통해 심장 박동을 추론하는 기술을 개발하였다 (Poh et al., 2011). 또한, MIT CSAIL lab에서는 심장에서 머리로 혈액이 유입되는 과정에서 머리의 미세 움직임이 발생하고 머리의 미세 움직임을 PCA 분석을 통해 심장관련 주파수 영역을 찾아냄으로써, 심장박동을 추론하는 기술을 보고하였다 (Balakrishnan et al., 2013).Conventional bio-signal monitoring technology is an unrealistic sensing method of attaching a sensor to a body in order to acquire a biological response to a user. Therefore, there is a need for non-restraint / non-self-sensing technology that measures biometrics while not being in contact with the human body and not giving any pain and not interfering with the user's activities (The Twins & Park Seung Hoon, 2013). Accordingly, techniques for inferring biometric information of a user using camera technology have been developed. The bioinformatic inference technique using a camera can be regarded as a completely non-constrained / noninvasive biological signal sensing technology. The MIT media lab developed a technique for inferring the heartbeat by analyzing the color information of the face that appears finely according to the blood flowing from the heart to the face (Poh et al ., 2011). The MIT CSAIL lab has also reported a technique for inferring heart beat by micro-movement of the head during blood flow from the heart to the head and PCA analysis of the micro-movement of the head to find the heart-related frequency domain Balakrishnan et al ., 2013).

상기에 보고된 비접촉식 심장 정보 추론 기술은 추론 가능한 심장 변수가 한정적으로 실제 활용도가 높은 심장 변수가 충분히 고려되지 않았다. 또한, 데이터 검증의 과정에서 피험자의 평균값을 기준으로 계산하여 분석에 사용된 샘플 수가 12개로 검증의 신뢰성 부족하고 자체 개발된 ECG 센서를 기준으로 추론된 데이터를 검증하여 검정의 신뢰성이 부족하다. 따라서 본 발명에서는 선행 연구의 심장 정보 추론 기술에 대비하여 심장 정보의 유효 추론 변수의 증가 및 높은 정확도를 확보할 수 있는 방법론을 제안하고자 한다. 본 발명에서 개발된 무구속/무자각 생체정보 추론 기술은 U-healthcare (Wellness IT), 감성 ICT (Emotion Marketing, Services, Therapy etc.), 보안, 교육 등의 다양한 산업 분야에 적용되어 새로운 제품 및 서비스를 기반으로 새로운 가치를 창출 할 수 있을 것으로 기대된다.The noncontact cardiac information reasoning technique reported above does not sufficiently consider cardiac variables with reasonably probable cardiac variables and high actual utilization. In addition, the number of samples used in the analysis was 12 based on the average value of the subjects in the data verification process. Therefore, the reliability of the verification is insufficient and the reliability of the verification is insufficient by verifying the inferred data based on the self-developed ECG sensor. Accordingly, the present invention proposes a methodology for securing an increase in the effective inference parameters of the cardiac information and high accuracy against the cardiac information reasoning technique of the prior art. The non-constrained / non-conscious biometric information reasoning technology developed in the present invention is applied to various industrial fields such as U-healthcare (wellness IT), emotion marketing, services, therapy etc., It is expected to create new value based on services.

Balakrishnan, G., Durand, F., and Guttag, J. (2013). Detecting pulse from head motions in video. In Computer Vision and Pattern Recognition (CVPR), 2013 IEEE Conference on (pp. 3430-3437). IEEE.Balakrishnan, G., Durand, F., and Guttag, J. (2013). Detecting pulse from head motions in video. In Computer Vision and Pattern Recognition (CVPR), 2013 IEEE Conference on (pp. 3430-3437). IEEE. Poh, M. Z., McDuff, D. J., and Picard, R. W. (2011). Advancements in noncontact, multiparameter physiological measurements using a webcam. Biomedical Engineering, IEEE Transactions on, 58(1), 7-11.Poh, M. Z., McDuff, D. J., and Picard, R. W. (2011). Advancements in noncontact, multiparameter physiological measurements using a webcam. Biomedical Engineering, IEEE Transactions on, 58 (1), 7-11. 더힘스, 박승훈. (2013). 웰니스 분야의 IT 융합 동향.The Twins, Park Seung Hoon. (2013). IT convergence trend in the wellness field. 장병준, 최선웅. (2008). Wireless Body Area Network 기술 동향. 전자파기술, 19(3), 35-46.However, (2008). Wireless Body Area Network Technology Trend. Electromagnetic Wave Technology, 19 (3), 35-46. 정혜실. (2014). 헬스케어 웨어러블 디바이스의 동향과 전망. KHIDI Brief, 115.Jong Hye - Sil. (2014). Trends and prospects of healthcare wearable devices. KHIDI Brief, 115.

본 발명은 동공영상으로부터 뇌의 지점별 주파수 정보를 추출하는 방법 및 장치를 제시한다.The present invention discloses a method and apparatus for extracting frequency information of each brain point from a pupil image.

본 발명에 따른 방법:은Method according to the invention:

피험자의 안면으로 동영상을 획득하는 단계;Acquiring a moving picture on the face of the subject;

상기 동영상으로부터 동공영역을 추출하는 단계;Extracting a pupil region from the moving image;

상기 동공영역의 영상으루부터 동공 크기 변화률을 추출하는 단계;Extracting a pupil size change rate from the image of the pupil region;

상기 동공 크기 변화률로부터 피험자의 뇌 정보를 추출하는 단계;를 포함한다.And extracting brain information of the subject from the pupil size change rate.

본 발명의 일 실시 예에 따르면, 상기 동공 크기 변화률을 주파수 대역별로 필터링하되, 1/100 조화 주파수를 적용하여 해당 주파수 대역의 뇌 정보에 대응하는 데이터로 추출할 수 있다.According to an embodiment of the present invention, the pupil size change rate may be filtered by frequency bands, and a 1/100 harmonic frequency may be applied to extract data corresponding to brain information of the corresponding frequency band.

본 발명의 다른 실시 예에 따르면, 상기 주파수 대역별로 필터링된 데이터를 FFT 분석을 통해 Power Spectrum Density를 추출하고 추출된 파워를 합(Summation) 할 수 있다.According to another embodiment of the present invention, the power spectral density can be extracted by FFT analysis on the data filtered by the frequency bands, and the extracted power can be summarized.

본 발명의 다른 실시 예에 따르면, 상기 주파수 대역별로 필터링된 데이터를 FFT 분석하여 얻어진 파워 값을 Total Power로 하여 각 주파수 대역의 파워량 (%)을 계산 할 수 있다.According to another embodiment of the present invention, the power amount (%) of each frequency band can be calculated by setting the power value obtained by FFT analysis of the data filtered by the frequency band as total power.

상기 방법을 수행하는 본 발명에 따른 동공 크기 변화율을 이용한 뇌 정보 추출 장치:는 상기 피험자의 안면을 촬영하는 동영상 카메라;와A brain information extracting apparatus using the pupil size change rate according to the present invention performing the above method comprises: a moving picture camera for photographing the face of the subject;

상기 동영상으로부터 동공영역을 추출하고, 이를 이용해 동공 크기 변화률을 추출하여 피험자의 뇌정보에 대응하는 데이터를 추출하는 분석 시스템;을 구비할 수 있다.And an analysis system for extracting a pupil region from the moving image, extracting a pupil size change rate using the extracted pupil size, and extracting data corresponding to brain information of the subject.

본 발명은 동공영상으로부터 뇌의 지점별 주파수 정보 (FP1 - low beta, mid beta, SMR, F3 - beta, F8 - high beta, C4 - mu, P4 - gamma)를 추출하는 방법 및 시스템을 제시한다. 이에 따라, 뇌파 센서로부터 취득된 데이터와 동공 데이터에서 추론한 데이터간의 정확도를 분석하였고 두 신호간의 높은 상관성과 낮은 에러율을 확인 하였다. 또한, 상기의 알고리즘을 기반으로 실시간으로 동공 영상을 취득하여 뇌의 주파수 정보를 추론할 수 있는 시스템을 개발하였다. 본 발명에서 개발된 무구속/무자각 뇌정보 추론 기술은 U-healthcare (Wellness IT), 감성 ICT (Emotion Marketing, Services, Therapy etc.), 보안, 교육 등의 다양한 산업 분야에 적용되어 새로운 제품 및 서비스를 기반으로 새로운 가치를 창출 할 수 있을 것으로 기대된다.The present invention proposes a method and system for extracting frequency information (FP1 - low beta, mid beta, SMR, F3 - beta, F8 - high beta, C4 - mu and P4 - gamma) of a brain from a pupil image. Therefore, we analyzed the accuracy between the data obtained from the EEG sensor and the data deduced from the pupil data, and confirmed the high correlation between the two signals and the low error rate. In addition, we have developed a system that can infer brain frequency information by acquiring pupil images in real time based on the above algorithm. The non-constrained / non-conscious brain information reasoning technology developed in the present invention is applied to various industrial fields such as U-healthcare (wellness IT), emotion marketing, services, therapy etc., It is expected to create new value based on services.

도1은 국제10-20법에 따른 EEG(Electroencephalogram) 측정 지점을 나타내 보인다.
도2는 본 발명에 따른 동공 영상 처리 과정을 예시한다.
도3은 본 발명은 뇌파 신호 처리 과정을 예시한다.
도4는 동공 및 뇌파 기반 EEG spectrum (low beta in FP1 area) 신호 비교 결과 (Participants 7) 를 도시한다.
도5는 동공 및 뇌파 기반 EEG spectrum (mid beta in FP1 area) 신호 비교 결과 (Participants 7) 를 도시한다.
도6은 동공 및 뇌파 기반 EEG spectrum (SMR in FP1 area) 신호 비교 결과 (Participants 7) 를 도시한다.
도7은 동공 및 뇌파 기반 EEG spectrum (beta in F3 area) 신호 비교 결과 (Participants 7)를 도시한다.
도8은 동공 및 뇌파 기반 EEG spectrum (high beta in F8 area) 신호 비교 결과 (Participants 7)
도9는 동공 및 뇌파 기반 EEG spectrum (mu in C4 area) 신호 비교 결과 (Participants 7) 를 도시한다.
도10은 동공 및 뇌파 기반 EEG spectrum (gamma in P4 area) 신호 비교 결과 (Participants 7) 를 도시한다.
도11은 동공 및 뇌파 기반 EEG spectrum 신호 상관성 및 에러율 비교 결과를 보인다.
도12는 동공 기반 뇌 반응 추론 시스템의 인터페이스 화면을 예시한다.
Figure 1 shows an EEG (Electroencephalogram) measurement point according to International 10-20 method.
FIG. 2 illustrates a pupil image processing process according to the present invention.
3 illustrates an EEG signal processing process according to the present invention.
FIG. 4 shows the result of comparing the EEG spectrum (low beta in FP1 area) based on the pupil and EEG signals (Participants 7).
FIG. 5 shows the result of the signal comparison between the pupil and EEG spectrum (mid beta in FP1 area) (Participants 7).
FIG. 6 shows the results of a comparison of signals of the EEG spectrum (SMR in FP1 area) based on pupil and EEG (Participants 7).
FIG. 7 shows a comparison result of the EEG spectrum (beta in F3 area) based on pupil and brain wave (Participants 7).
FIG. 8 shows the results of the EEG spectrum (high beta in F8 area) based on pupil and brain wave (Participants 7)
Figure 9 shows the results of the pupil and EEG-based EEG spectrum comparison (Participants 7).
FIG. 10 shows the result of comparing the EEG spectrum (gamma in P4 area) based on pupil and EEG signals (Participants 7).
FIG. 11 shows the signal correlation and error rate comparison results of the EEG spectrum based on the pupil and EEG.
Figure 12 illustrates an interface screen of a pupil-based brain response reasoning system.

이하, 첨부된 도면을 참고하면서, 본 발명에 따라 동공 영상으로부터 뇌파의지점 별 주파수 정보를 추출하는 방법 및 영상 카메라와 분석 시스템을 포함하는 PC 기반의 시스템에 대해 살펴본다.Hereinafter, a PC-based system including a method of extracting frequency-specific frequency information of brain waves from a pupil image and an image camera and an analysis system according to the present invention will be described with reference to the accompanying drawings.

1. 피험자1. Subjects

본 발명의 실험에서는 피험자 15 명 (남, 여 각각 7명 - 평균 나이: 28.2±3.24)이 실험에 참여하였다. 피험자는 중추 및 자율신경계와 시각기능에 병력이나 과거력이 없는 자를 대상으로 하였다. 실험에 참여하기 전, 신경계에 영향을 끼칠 수 있는 음주, 흡연, 카페인 등을 제한하였고 실험 전날 충분한 수면을 통해 실험 당일, 피로를 최소화할 수 있도록 하였다. 피험자로부터 연구 목적을 제외하고 실험에 대한 대략적인 사항에 대해 설명한 후 자발적 참여의사에 대한 피험자 동의서를 받았다. 실험에 참여한 대가로 소정의 금액을 지불하여 실험 참여의사를 높였다.In the experiments of the present invention, 15 subjects (7 male and 7 female, mean age: 28.2 ± 3.24) participated in the experiment. The subjects were those who had no history or history of central and autonomic nervous system and visual function. Prior to participating in the experiment, drinking, smoking, and caffeine, which could affect the nervous system, were limited and enough sleep was allowed on the day before the experiment to minimize fatigue on the day of the experiment. The subjects were informed of the outline of the experiment except for the purpose of the study, and then they received the consent of volunteers to participate voluntarily. I paid a certain amount of money to participate in the experiment and increased my intention to participate in the experiment.

2. 실험절차2. Experimental Procedure

피험자는 편안한 의자에 앉은 상태로 스크린을 응시하도록 하였고 피험자와 스크린과의 거리는 1m로 하였다. 움직임이 없는 상태에서 3분 동안 스크린에 제시되는 기준 자극(reference stimuli)으로서 그레이바(grey bar)응시하도록 하였다. 피험자가 스크린을 응시하는 동안 심전도 (ECG, electrocardiogram)과 동공 이미지(Pupil image)를 동시에 측정하였다. 동공 측정에 영향을 줄 수 있는 실험 환경 및 자극의 조명은 모든 피험자에게 동일한 조건으로 통제하였다.The subject was allowed to sit on a comfortable chair and the distance between the subject and the screen was 1 m. A gray bar was stared as a reference stimuli presented on the screen for 3 minutes in the absence of motion. The electrocardiogram (ECG, electrocardiogram) and pupil image were simultaneously measured while the subject stared at the screen. Illumination of the experimental environment and stimulation that could affect the pupil measurement was controlled by the same conditions for all subjects.

3. 데이터 수집 및 신호처리3. Data collection and signal processing

뇌파는 도1에 도시된 바와 같이, 국제전극배치법 '10-20' 시스템을 기준으로 FP1, FP2, F3, Fz, F4, F7, F8, C3, Cz, C4, T3, T4, T5, T6, P3, Pz, P4, O1, O2 지점의 19 채널 데이터를 측정하였고, AFz 지점을 그라운드로 양쪽 귀를 레퍼런스 (Ear Reference, A1 & A2)로 하여 저항이 3 KΩ 이하가 되도록 하였다. 뇌파는 Mitsar-EEG 202 Machine (Mitsar Ltd., in Russia) 장비를 이용하여 500 Hz Sampling rate로 취득하였다. DC level은 0 - 150 Hz로 설정하였고 300 mV로 취득하였다. 뇌파 신호 취득을 위한 Montage는 Monopolar electrode montages로 설정하였다. 수집된 신호는 Labview 2010 software (National Instrument Inc., USA)를 사용하여 신호처리 하였다. 동공 영상은 Point grey camera (FL3-GE-50S5M-C, Canada)를 이용해 30 frame/second로 취득하였고 영상의 해상도는 960*400으로 하였다.As shown in FIG. 1, the brain waves are generated by using the global electrode arrangement method '10 -20 'based on the FP1, FP2, F3, Fz, F4, F7, F8, C3, Cz, C4, T3, T4, T5, T6, P3, Pz, P4, O1, and O2 were measured. The AFz point was set to ground and both ears were referenced (Ear Reference, A1 & A2). The brain waves were acquired at a 500 Hz sampling rate using a Mitsar-EEG 202 Machine (Mitsar Ltd., Russia). The DC level was set at 0 - 150 Hz and acquired at 300 mV. Montage for EEG acquisition was set to Monopolar electrode montages. The collected signals were processed using Labview 2010 software (National Instrument Inc., USA). The pupil images were acquired at 30 frames / second using a point gray camera (FL3-GE-50S5M-C, Canada) and the resolution of the images was 960x400.

취득된 적외선 영상에서 동공 영역을 추출하기 위해 OpenCV를 이용하여 그레이스케일과 Threshold를 통한 이진화 변환하였다. 동공 이외의 영역이 제거된 이진화 영상에서 윤곽선 검출 방법을 이용하여 동공 영역을 트래킹 하였다. 영상 처리 프로그램에서 사각형 객체(Object) rect로 저장된 동공 영역에서 동공 크기에 영향을 주는 눈 깜빡임을 측정하기 위한 아래의 식 1의 조건에 부합하는 경우에만 동공의 반지름인 rect.width를 원주율 공식에 적용하여 동공 크기를 추출하였다.In order to extract the pupil region from the acquired infrared image, we used OpenCV for binarization through gray scale and threshold. The pupil region was tracked using the contour detection method in the binarized image from which the region other than the pupil was removed. In the image processing program, rect.width, which is the radius of the pupil, is applied to the circularity formula only when it meets the condition of Equation 1 below to measure the blinking of the pupil, which affects the pupil size, And the pupil size was extracted.

Figure pat00001
Figure pat00001

즉, 동공의 높이(rect.height)에 대해 그 폭(rect.width)의 비가 0.5 이상일 때 깜빡임으로 판정하였다. 뇌파 데이터와 비교하기 위해 각 주파수 대역 별로 대역 통과 필터, 즉BPF(Band Pass Filter) 처리하였다. 동공 크기 변화율 데이터는 1 Hz로 샘플링된 데이터로 최대 0.5 Hz 대역까지 주파수 정보를 확인할 수 있으므로 뇌파 주파수와 비교하기 위해 1/100 비율의 조화 주파수(Harmonic Frequency) 개념을 적용하였다. 1/100의 조화 주파수 정보를 , Delta (0.01 - 0.04 Hz), Theta (0.04 - 0.08 Hz), Alpha (0.08 - 0.13 Hz), Beta (0.13 - 0.30 Hz), Gamma (0.30 - 0.50 Hz), Slow alpha (0.08 - 0.09 Hz), Fast Alpha (0.10 - 0.12 Hz), Low Beta (0.12 - 0.15 Hz), Mid Beta (0.15 - 0.18 Hz), High Beta (0.20 - 0.30 Hz), Mu (0.9 - 0.12 Hz), SMR (0.12 - 0.15 Hz) 대역으로 Band Pass Filter 처리하였다. 각 주파수 대역별로 처리된 데이터는 FFT 분석을 통해 Power Spectrum Density를 추출하고 추출된 파워를 모두 합(Summation) 하였다. That is, when the ratio of the rect (height) to the height (rect.width) of the pupil is greater than or equal to 0.5, the blinking is determined. In order to compare with EEG data, band pass filter (BPF) was applied to each frequency band. Since the pupil size change rate data can be used to confirm the frequency information up to 0.5 Hz with the data sampled at 1 Hz, the concept of harmonic frequency of 1/100 ratio is applied to compare with the EEG frequency. The harmonic frequency information of 1/100 is represented by Delta (0.01-0.04 Hz), Theta (0.04-0.08 Hz), Alpha (0.08-0.13 Hz), Beta (0.13-0.30 Hz), Gamma (0.30-0.50 Hz) 0.10-0.15 Hz), Mid Beta (0.15-0.18 Hz), High Beta (0.20-0.30 Hz), Mu (0.9-0.12 Hz), Alpha (0.08-0.09 Hz) ) And SMR (0.12 - 0.15 Hz) band, respectively. Data processed by each frequency band is extracted by Power Spectrum Density (FFT) analysis and summarized.

Figure pat00002
Figure pat00002

Figure pat00003
Figure pat00003

이때, 추출된 각 주파수 대역의 파워는 0.01 - 0.5 Hz로 BPF 처리한 동공 크기 데이터를 FFT 하여 얻어진 파워 값을 Total Power로 하여 각 주파수 대역의 파워량 (%)을 계산 하였다. 본 과정에서 추출된 동공의 Delta, Theta, Alpha, Beta, Gamma, Slow alpha, Fast alpha, Low beta, Mid beta, High beta, SMR, Mu의 주파수 대역의 파워량 (%)은 뇌파의 Delta, Theta, Alpha, Beta, Gamma, Slow alpha, Fast alpha, Low beta, Mid beta, High beta, SMR, Mu를 추론하는데 활용하였다. 자세한 신호처리 과정은 도2와 같다.In this case, the power of each extracted frequency band is calculated by using the power obtained by FFT processing of the BPF-processed pupil size data at 0.01-0.5 Hz as total power, and the power amount (%) of each frequency band is calculated. The power (%) of the frequency bands of Delta, Theta, Alpha, Beta, Gamma, Slow alpha, Fast alpha, Low beta, Mid beta, High beta, SMR, , Alpha, Beta, Gamma, Slow alpha, Fast alpha, Low beta, Mid beta, High beta, SMR, Mu. Detailed signal processing is shown in FIG.

Figure pat00004
Figure pat00004

뇌파 데이터는 BPF (Low cut: 1 Hz, High cut: 50 Hz)를 통해, Delta (1 - 4 Hz)에서부터 Gamma (30 - 50 Hz)까지 분석에 필요한 뇌파 주파수 대역을 제외한 나머지 대역의 노이즈 성분을 제거하였다 (수식 2 참조). EEG data were obtained by filtering the noise components of the remaining bands excluding the EEG frequency band required for analysis from Delta (1 - 4 Hz) to Gamma (30 - 50 Hz) through BPF (low cut: 1 Hz, (See Equation 2).

BPF (Low cut: 1 Hz, High cut: 50 Hz) 처리된 뇌파 신호는 주파수 분석을 위해 FFT (Fast Fourier Transform) 분석을 실시하였다 (수식 3 참조). FFT 분석을 통해 추출된 EEG Spectrum Data로부터 Delta를 통해, Delta (1 - 4 Hz), Theta (4 - 8 Hz), Alpha (8 - 13 Hz), Beta (13 - 30 Hz), Gamma (30 - 50 Hz), Slow alpha (8 - 9 Hz), Fast Alpha (10 - 12 Hz), Low Beta (12 - 15 Hz), Mid Beta (15 - 18 Hz), High Beta (20 - 30 Hz), Mu (9 - 12 Hz), SMR (12 - 15 Hz) 12개의 주파수 대역별 파워값을 추출하였다. 각 주파수 대역별로 추출된 파워값은 Total Power (1 - 50 Hz) 대비 각 주파수 대역별 파워값이 차지하고 있는 비율 (Percentage, %)로 계산하였다. 이는 동공 반응을 통해 추론한 결과와 비교하였다. 자세한 신호처리 과정은 도3과 같다.Fast Fourier transform (FFT) analysis was performed on the EEG signal processed by BPF (low cut: 1 Hz, high cut: 50 Hz) (see Equation 3). Delta (1 - 4 Hz), Theta (4 - 8 Hz), Alpha (8 - 13 Hz), Beta (13 - 30 Hz) and Gamma (30 - 50 Hz), Slow alpha (8-9 Hz), Fast Alpha (10-12 Hz), Low Beta (12-15 Hz), Mid Beta (15-18 Hz) (9 - 12 Hz) and SMR (12 - 15 Hz), respectively. The power value extracted for each frequency band is calculated by the ratio (Percentage,%) that the power value per frequency band is compared with Total Power (1 - 50 Hz). This was compared with the results of inferring through pupil response. Detailed signal processing is shown in FIG.

4. 실험 결과4. Experimental results

동공 크기 변화율을 기반으로 추론한 EEG spectrum 신호와 센서 기반의 뇌파 데이터로부터 추출된 EEG spectrum 데이터를 비교하였다. 도1을 참조하면, FP1 지점에서는 low beta, mid beta, SMR 대역에서 상관성이 높고 (low beta - r = .684, p < .05 / mid beta - r = .576, p < .05 / SMR - r = .642, p < .05) 추론된 데이터간의 편차가 작은 것을 확인하였다 (low beta: 0.26%, mid beta: 0.19%, SMR: 0.26%). 자세한 결과는 도4 ~ 6과 같다 (Participants 7).We compared the EEG spectrum signal deduced based on the pupil size change rate and the EEG spectrum data extracted from the sensor based EEG data. 1, there is a high correlation in the low beta, mid beta and SMR bands at FP1 (low beta - r = .684, p <.05 / mid beta - r = .576, p < (low beta: 0.26%, mid beta: 0.19%, SMR: 0.26%). The detailed results are shown in Figs. 4-6 (Participants 7).

F3 지점에서는 beta 대역에서 상관성이 높고 (r = .624, p < .05). 추론된 데이터간의 편차가 작은 것을 확인하였다 (error rate: 0.08%). 자세한 결과는 도7 과 같다 (Participants 7).At the F3 point, the correlation was high in the beta band (r = .624, p <.05). It was confirmed that the deviation between the inferred data is small (error rate: 0.08%). The detailed results are shown in Fig. 7 (Participants 7).

F8 지점에서는 high beta 대역에서 상관성이 높고 (r = .582, p < .05) 추론된 데이터간의 편차가 작은 것을 확인하였다 (error rate: 0.1%). 자세한 결과는 도8과 같다 (Participants 7).At the F8 point, the correlation was high (r = .582, p <.05) in the high beta band and the deviation between the inferred data was small (error rate: 0.1%). The detailed results are shown in FIG. 8 (Participants 7).

C4 지점에서는 mu 대역에서 상관성이 높고 (r = .576, p < .05) 추론된 데이터간의 편차가 작은 것을 확인하였다 (error rate: 0.07%). 자세한 결과는 도9와 같다 (Participants 7).At the C4 point, the correlation between the inferred data was high (r = .576, p <.05) and the error rate was 0.07%. The detailed results are shown in Fig. 9 (Participants 7).

P4 지점에서는 gamma 대역에서 상관성이 높고 (r = .639, p < .05) 추론된 데이터간의 편차가 작은 것을 확인하였다 (error rate: 2.47%). 자세한 결과는 도10과 같다 (Participants 7).At the P4 point, we found that the correlation between the inferred data is high (2.47%) with high correlation in the gamma band (r = .639, p <.05). Detailed results are shown in Fig. 10 (Participants 7).

피험자 15명의 데이터는 각각의 피험자 별로 Sliding window (Window size: 30s, Resolution 1s)를 통해 각각 160 데이터 샘플의 상관분석 (correlation)과 에러율 (error rate)을 계산하였다. 상관분석은 피어슨의 상관분석을 통해 r 값을 계산하였고 error rate는 아래의 식 5를 통해 계산하였다.Correlation and error rate of 160 data samples were calculated by sliding window (Window size: 30s, Resolution 1s) for each subject. Correlation analysis was performed by Pearson correlation analysis and the error rate was calculated by the following equation (5).

Figure pat00005
Figure pat00005

피험자 15명의 EEG spectrum 데이터의 정확도 비교 결과는 도11과 같다. 동공과 심전도를 기반으로 추출된 EEG spectrum 데이터의 정확도를 비교한 결과, 강한 양의 상관성 (FP1 - low beta: r = 0.613±0.048, p < .05, mid beta: r = 0.599±0.036,p < .05, SMR: r = 0.599±0.029,p < .05, F3 - beta: r = 0.632±0.027,p < .05, F8 - high beta: r = 0.610±0.033, p < .05, C4 - mu: r = 0.627±0.039, p < .05, P4 - gamma: r = 0.618±0.034, p < .05)을 확인 하였고 평균 에러율은 (FP1 - low beta: 0.173±0.079 (%), mid beta: 0.181±0.217 (%), SMR: 0.173±0.079 (%), F3 - beta: 0.682±1.593 (%), F8 - high beta: 0.492±1.131 (%), C4 - mu: 1.773±5.335 (%), P4 - gamma: 1.646±1.938 (%))로 확인 되었다.The results of the accuracy comparison of EEG spectrum data of 15 subjects are shown in FIG. The accuracy of the extracted EEG spectrum data based on the pupil and electrocardiogram was found to be strong correlations (FP1 - low beta: r = 0.613 ± 0.048, p <.05, mid beta: r = 0.599 ± 0.036, p < .05, SMR: r = 0.599 ± 0.029, p <.05, F3 - beta: r = 0.632 ± 0.027, p <.05, F8 - high beta: r = 0.610 ± 0.033, p < The mean error rate was (FP1 - low beta: 0.173 ± 0.079 (%), mid beta: 0.181 (p = Beta: 0.682 ± 1.593 (%), F8 - high beta: 0.492 ± 1.131 (%), C4-mu: 1.773 ± 5.335 (%), P4 - gamma: 1.646 ± 1.938 (%)).

상기의 뇌 정보 추론 알고리즘을 기반으로 실시간으로 취득되는 동공영상을 기반으로 뇌의 주파수 정보를 추론할 수 있는 시스템을 개발하였고 개발된 시스템 화면은 도12와 같다. 도12에는 (1) 은 Input 영상, (2)는 이진화 영상, (3)은 동공 트래킹 영상, 그리고 (4)는 뇌 지점별 주파수 대역 파워량 추론 결과를 보인다.A system capable of inferring brain frequency information based on the pupil image acquired in real time based on the above brain information inference algorithm was developed and the developed system screen is shown in FIG. In Fig. 12, (1) shows the input image, (2) shows the binarized image, (3) shows the pupil tracking image, and (4) shows the power amount inference results per brain point.

5. 결론5. Conclusion

본 발명은 동공영상으로부터 뇌의 지점별 주파수 정보 (FP1 - low beta, mid beta, SMR, F3 - beta, F8 - high beta, C4 - mu, P4 - gamma)를 추출하는 방법론 및 시스템 개발을 그 목적으로 하였다. 이를 위해, 뇌파 센서로부터 취득된 데이터와 동공 데이터에서 추론한 데이터간의 정확도를 분석하였고 두 신호간의 높은 상관성과 낮은 에러율을 확인 하였다. 또한, 상기의 알고리즘을 기반으로 실시간으로 동공 영상을 취득하여 뇌의 주파수 정보를 추론할 수 있는 시스템을 개발하였다. 본 발명에서 개발된 무구속/무자각 뇌정보 추론 기술은 U-healthcare (Wellness IT), 감성 ICT (Emotion Marketing, Services, Therapy etc.), 보안, 교육 등의 다양한 산업 분야에 적용되어 새로운 제품 및 서비스를 기반으로 새로운 가치를 창출 할 수 있을 것으로 기대된다.The method and system for extracting frequency information (FP1 - low beta, mid beta, SMR, F3 - beta, F8 - high beta, C4 - mu and P4 - gamma) Respectively. For this, we analyzed the accuracy between the data obtained from EEG sensors and the data deduced from the pupil data, and confirmed the high correlation between the two signals and the low error rate. In addition, we have developed a system that can infer brain frequency information by acquiring pupil images in real time based on the above algorithm. The non-constrained / non-conscious brain information reasoning technology developed in the present invention is applied to various industrial fields such as U-healthcare (wellness IT), emotion marketing, services, therapy etc., It is expected to create new value based on services.

이상에서, 본원 발명의 이해를 돕기 위하여 모범적인 실시 예가 설명되고 첨부된 도면에 도시되었다. 그러나, 이러한 실시 예는 단지 본 발명을 예시하기 위한 것이고 이를 제한하지 않는다는 점이 이해되어야 할 것이다. 그리고 본 발명은 도시되고 설명된 내용에 국한되지 않는다는 점이 이해되어야 할 것이다. 이는 다양한 다른 변형이 본 기술분야에서 통상의 지식을 가진 자에게 일어날 수 있기 때문이다. In the foregoing, exemplary embodiments have been described and shown in the accompanying drawings to facilitate understanding of the present invention. It should be understood, however, that such embodiments are merely illustrative of the present invention and not limiting thereof. And it is to be understood that the invention is not limited to the details shown and described. Since various other modifications may occur to those of ordinary skill in the art.

Claims (5)

피험자의 안면으로 동영상을 획득하는 단계;
상기 동영상으로부터 동공영역을 추출하는 단계;
상기 동공영역의 영상으루부터 동공 크기 변화률을 추출하는 단계; 그리고
상기 동공 크기 변화률로부터 피험자의 뇌 정보를 추출하는 단계;를 포함하는 동공 크기 변화율을 이용한 뇌 정보 추출방법.
Acquiring a moving picture on the face of the subject;
Extracting a pupil region from the moving image;
Extracting a pupil size change rate from the image of the pupil region; And
And extracting the brain information of the subject from the pupil size change rate.
제1항에 있어서,
상기 동공 크기 변화률을 주파수 대역별로 필터링하되, 1/100 조화 주파수를 적용하여 해당 주파수 대역의 뇌 정보에 대응하는 데이터로 추출하는 것을 특징으로 하는 동공 크기 변화율을 이용한 뇌 정보 추출방법.
The method according to claim 1,
Wherein the pupil size change rate is filtered for each frequency band, and a 1/100 harmonic frequency is applied to extract the data corresponding to the brain information of the corresponding frequency band.
제2항에 있어서,
상기 주파수 대역별로 필터링된 데이터를 FFT 분석을 통해 Power Spectrum Density를 추출하고 추출된 파워를 합(Summation) 하는 것을 특징으로 하는 동공 크기 변화율을 이용한 뇌 정보 추출방법.
3. The method of claim 2,
Extracting Power Spectrum Density through FFT analysis on the data filtered by the frequency bands, and summarizing the extracted powers.
제3항에 있어서,
상기 주파수 대역별로 필터링된 데이터를 FFT 분석하여 얻어진 파워 값을 Total Power로 하여 각 주파수 대역의 파워량 (%)을 계산 하는 것을 특징으로 하는 동공 크기 변화율을 이용한 뇌정보 추출 방법.
The method of claim 3,
And calculating a power amount (%) of each frequency band by using a power value obtained by FFT analysis of the data filtered by the frequency bands as total power.
제1항 내지 제4 항 중의 어느 한 항의 방법을 수행하는 뇌정보 추출 장치에 있어서,
상기 피험자의 안면을 촬영하는 동영상 카메라;와
상기 동영상으로부터 동공영역을 추출하고, 이를 이용해 동공 크기 변화률을 추출하여 피험자의 뇌정보에 대응하는 데이터를 추출하는 분석 시스템;을 구비하는 동공 크기 변화율을 이용한 뇌정보 추출 장치.
A brain information extracting apparatus for performing the method according to any one of claims 1 to 4,
A moving picture camera for photographing the face of the subject;
And an analysis system for extracting a pupil region from the moving image, extracting pupil size change rate using the extracted pupil region, and extracting data corresponding to brain information of a subject.
KR1020170136607A 2017-10-20 2017-10-20 Method and apparatus for extracting Brain information KR101870919B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170136607A KR101870919B1 (en) 2017-10-20 2017-10-20 Method and apparatus for extracting Brain information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170136607A KR101870919B1 (en) 2017-10-20 2017-10-20 Method and apparatus for extracting Brain information

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020150095042A Division KR20170004547A (en) 2015-07-03 2015-07-03 Method and apparatus for extracting Brain information

Publications (2)

Publication Number Publication Date
KR20170121110A true KR20170121110A (en) 2017-11-01
KR101870919B1 KR101870919B1 (en) 2018-06-25

Family

ID=60382877

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170136607A KR101870919B1 (en) 2017-10-20 2017-10-20 Method and apparatus for extracting Brain information

Country Status (1)

Country Link
KR (1) KR101870919B1 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001309890A (en) * 2000-02-24 2001-11-06 Matsushita Electric Works Ltd Method of examining function of brain and its equipment
JP3721980B2 (en) 2000-05-15 2005-11-30 松下電工株式会社 Brain function testing device
JP2006254115A (en) 2005-03-10 2006-09-21 Matsushita Electric Ind Co Ltd Broadcasting system and speaker failure inspecting method
JP5225870B2 (en) 2008-09-30 2013-07-03 花村 剛 Emotion analyzer
JP5570386B2 (en) 2010-10-18 2014-08-13 パナソニック株式会社 Attention state discrimination system, method, computer program, and attention state discrimination device

Also Published As

Publication number Publication date
KR101870919B1 (en) 2018-06-25

Similar Documents

Publication Publication Date Title
Moretti et al. Computerized processing of EEG–EOG–EMG artifacts for multi-centric studies in EEG oscillations and event-related potentials
Karthikeyan et al. Detection of human stress using short-term ECG and HRV signals
US7672717B1 (en) Method and system for the denoising of large-amplitude artifacts in electrograms using time-frequency transforms
KR101752873B1 (en) Method and system for extracting heart information of time domain
US20190343457A1 (en) Pain assessment method and apparatus for patients unable to self-report pain
Kim Preprocessing of EEG
US20180279935A1 (en) Method and system for detecting frequency domain cardiac information by using pupillary response
Amin et al. Robust inference of autonomic nervous system activation using skin conductance measurements: A multi-channel sparse system identification approach
Athanasiou et al. Functional brain connectivity during multiple motor imagery tasks in spinal cord injury
Artoni et al. REMOV: EEG artifacts removal methods during Lokomat lower-limb rehabilitation
Fadlallah et al. Quantifying cognitive state from EEG using dependence measures
Fiedler et al. Fusion-based approach for respiratory rate recognition from facial video images
KR20170004547A (en) Method and apparatus for extracting Brain information
KR101996027B1 (en) Method and system for extracting Heart Information of Frequency domain by using pupil size variation
Suárez-Revelo et al. Validation of EEG pre-processing pipeline by test-retest reliability
KR20170004549A (en) Method and system for extracting Heart Information of Frequency domain
CN108451494B (en) Method and system for detecting time-domain cardiac parameters using pupil response
Jung et al. A review on EEG artifacts and its different removal technique
KR20170004548A (en) Method and system for extracting heart information of time domain
Sutharsan et al. Electroencephalogram signal processing with independent component analysis and cognitive stress classification using convolutional neural networks
KR101870919B1 (en) Method and apparatus for extracting Brain information
CN108451496B (en) Method and system for detecting information of brain-heart connectivity
Zammouri et al. Intelligentocular artifacts removal in a noninvasive singlechannel EEG recording
Qi Algorithms benchmarking for removing EOG artifacts in brain computer interface
Khatter et al. Study of various automatic eeg artifact removal techniques

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
N231 Notification of change of applicant
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant