KR20190045041A - Method for recogniging user intention by estimating brain signals, and brain-computer interface apparatus based on head mounted display implementing the method - Google Patents

Method for recogniging user intention by estimating brain signals, and brain-computer interface apparatus based on head mounted display implementing the method Download PDF

Info

Publication number
KR20190045041A
KR20190045041A KR1020180057871A KR20180057871A KR20190045041A KR 20190045041 A KR20190045041 A KR 20190045041A KR 1020180057871 A KR1020180057871 A KR 1020180057871A KR 20180057871 A KR20180057871 A KR 20180057871A KR 20190045041 A KR20190045041 A KR 20190045041A
Authority
KR
South Korea
Prior art keywords
brain
learning
head
user
screen
Prior art date
Application number
KR1020180057871A
Other languages
Korean (ko)
Other versions
KR102029219B1 (en
Inventor
이성환
곽노상
Original Assignee
고려대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 고려대학교 산학협력단 filed Critical 고려대학교 산학협력단
Priority to US16/117,814 priority Critical patent/US10795441B2/en
Publication of KR20190045041A publication Critical patent/KR20190045041A/en
Application granted granted Critical
Publication of KR102029219B1 publication Critical patent/KR102029219B1/en

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Abstract

The present invention relates to a method for enabling a controller to recognize the intention of a user wearing a head-mounted display attached with brain conduction electrodes. The method comprises the steps of: obtaining learning brain signals measured at each of the head-mounted display and an additional electrode device coupled to the head-mounted display in a state in which a learning screen inducing brain signals is displayed on the head-mounted display; learning a relationship model of the electrodes of the head-mounted display and the electrodes of the additional electrode device from the learning brain signals; acquiring the brain signals measured in the head-mounted display, from which the additional electrode device is detached, in a state in which a specific screen is displayed on the head-mounted display; estimating brain signals of the additional electrode device not measured from the brain signals measured in the head-mounted display based on the relationship model; and detecting user intention corresponding to the measured brain signals and the estimated brain signals.

Description

뇌 신호를 추정하여 사용자 의도를 인식하는 방법, 그리고 이를 구현한 헤드 마운트 디스플레이 기반 뇌-컴퓨터 인터페이스 장치{METHOD FOR RECOGNIGING USER INTENTION BY ESTIMATING BRAIN SIGNALS, AND BRAIN-COMPUTER INTERFACE APPARATUS BASED ON HEAD MOUNTED DISPLAY IMPLEMENTING THE METHOD}TECHNICAL FIELD [0001] The present invention relates to a method of recognizing a user's intention by estimating a brain signal, and a head-mounted display-based brain-computer interface device implementing the method. }

본 발명은 뇌-컴퓨터 인터페이스(Brain-Computer Interface, BCI)에 관한 것이다.The present invention relates to a Brain-Computer Interface (BCI).

뇌-컴퓨터 인터페이스는 다양한 두뇌 활동 시 발생하는 뇌 신호를 분석하여 사용자 의도를 인식하고 이를 통해 외부 장치를 제어하는 기술이다. 사용자는 뇌-컴퓨터 인터페이스를 통해 근육을 사용하지 않아도 컴퓨터 또는 기계들을 제어할 수 있다. 뇌-컴퓨터 인터페이스는 사고나 질병에 의해 운동신경 장애가 있는 환자들의 움직임을 보조해 주기 위한 장치 개발에 주로 이용되었고, 최근에는 다양한 분야에서 뇌-컴퓨터 인터페이스를 적용하기 위한 연구가 진행되고 있다.The brain-computer interface is a technology for recognizing user's intention by analyzing brain signals generated during various brain activities and controlling the external device through this. The user can control the computer or machines without using the muscle through the brain-computer interface. The brain-computer interface has been used mainly for the development of devices to assist the movement of patients with motor neuropathy due to accidents or diseases. Recently, studies are being conducted to apply brain-computer interfaces in various fields.

헤드 마운트 디스플레이와 같은 웨어러블 장치는 사용자의 눈과 대면하는 위치에 영상을 출력하여 증강 현실(Augmented Reality) 또는 가상 현실(Virtual Reality)을 제공한다. 헤드 마운트 디스플레이는 자이로 센서 등을 이용하여 사용자의 동작을 감지할 수 있으나, 사용자는 헤드 마운트 디스플레이를 착용하고, 조이스틱, 키보드 등의 도구를 이용하여 화면을 제어해야 한다. 뇌-컴퓨터 인터페이스가 헤드 마운트 디스플레이 제어에 이용된다면, 도구 사용 없이 제어할 수 있을 것이다. 하지만, 뇌-컴퓨터 인터페이스로 사용자 의도를 인식하기 위해서는 다양한 뇌 영역에서 발생하는 뇌 신호를 분석해야 하므로, 많은 전극을 두피에 부착해야 하는 문제가 있다. 만약, 적은 수의 전극을 부착한다면 전극을 부착한 영역의 뇌 신호만을 획득할 수 있어서, 인식 정확도가 낮아지는 문제가 있다. 또한, 모자 형태의 헤드 마운트 디스플레이에 전극들을 부착할 수는 있으나, 소형 및 경량으로 제작하기 어렵고 가격이 높아져, 헤드 마운트 디스플레이에 뇌-컴퓨터 인터페이스를 적용하는 것이 쉽지 않다. A wearable device such as a head mount display provides augmented reality or virtual reality by outputting an image at a position facing a user's eyes. The head mount display can detect a user's operation using a gyro sensor or the like, but the user must wear a head mount display and control the screen using a joystick, a keyboard, or the like. If a brain-computer interface is used for head-mounted display control, it will be possible to control without using a tool. However, in order to recognize the intention of the user through the brain-computer interface, brain signals generated in various brain regions must be analyzed. Therefore, many electrodes must be attached to the scalp. If a small number of electrodes are attached, only the brain signal of the area where the electrodes are attached can be obtained, which lowers the recognition accuracy. It is also possible to attach electrodes to a head-mounted display in the form of a hat, but it is difficult to apply a brain-computer interface to the head-mounted display due to the difficult and costly manufacture of small and lightweight displays.

따라서, 사용자가 실생활에서 편리하게 사용하기 위해서는, 적은 수의 전극을 사용하면서도 높은 인식 성능을 유지할 수 있는 뇌-컴퓨터 인터페이스 기술이 필요하다. 또한 다양한 뇌-컴퓨터 인터페이스의 뇌 신호 측정 패러다임을 이용하여 헤드 마운트 디스플레이를 효율적으로 제어하기 위한 방법이 필요하다. Therefore, a brain-computer interface technology capable of maintaining a high recognition performance while using a small number of electrodes is required for a user to use the device conveniently in a real life environment. There is also a need for a method for efficiently controlling the head-mounted display using the brain signal measurement paradigm of various brain-computer interfaces.

본 발명이 해결하고자 하는 과제는 뇌 신호를 추정하여 사용자 의도를 인식하는 방법, 이를 구현한 헤드 마운트 디스플레이 기반 뇌-컴퓨터 인터페이스 장치를 제공하는 것이다. 구체적으로, 본 발명이 해결하고자 하는 과제는 전극들이 부착된 헤드 마운트 디스플레이에 탈부착형 추가 전극 장치를 결합한 후 뇌 신호들을 획득하고, 전극들에서 획득한 뇌 신호들을 이용하여 전극간 관계 모델을 생성하며, 헤드 마운트 디스플레이에서 측정된 뇌 신호들과 전극간 관계 모델을 이용하여 사용자 의도 인식에 필요한 뇌 신호들을 추정하는 것이다. A problem to be solved by the present invention is to provide a method for recognizing a user's intention by estimating a brain signal and a head-mounted display-based brain-computer interface device implementing the same. Specifically, the present invention provides a head-mounted display having electrodes attached to a removable additional electrode device to acquire brain signals, and generates an inter-electrode relationship model using brain signals acquired from the electrodes , And brain signals required for user's intention recognition using the brain signals measured in the head mount display and the relationship model between the electrodes.

또한, 본 발명이 해결하고자 하는 과제는 안구 전도(ElectroOculoGraphy, EOG) 신호를 사용하여 헤드 마운트 디스플레이를 제어하는 방법을 제공하는 것이다.Another object of the present invention is to provide a method of controlling a head-mounted display using an electro-oculography (EOG) signal.

한 실시예에 따른 제어기가, 뇌 전도 전극들이 부착된 헤드 마운트 디스플레이를 착용한 사용자의 의도를 인식하는 방법으로서, 뇌 신호들을 유발하는 학습 화면을 상기 헤드 마운트 디스플레이에 표시한 상태에서, 상기 헤드 마운트 디스플레이 및 상기 헤드 마운트 디스플레이에 결합된 추가 전극 장치 각각에서 측정된 학습용 뇌 신호들을 획득하는 단계, 상기 학습용 뇌 신호들로부터 상기 헤드 마운트 디스플레이의 전극들과 상기 추가 전극 장치의 전극들의 관계 모델을 학습하는 단계, 특정 화면을 상기 헤드 마운트 디스플레이에 표시한 상태에서, 상기 추가 전극 장치가 분리된 상기 헤드 마운트 디스플레이에서 측정된 뇌 신호들을 획득하는 단계, 상기 관계 모델을 기초로 상기 헤드 마운트 디스플레이에서 측정된 뇌 신호들로부터 미측정된 상기 추가 전극 장치의 뇌 신호들을 추정하는 단계, 그리고 상기 측정된 뇌 신호들과 추정한 뇌 신호들에 해당하는 사용자 의도를 검출하는 단계를 포함한다.There is provided a method of recognizing a user's intention of wearing a head mounted display to which brain conduction electrodes are attached in a state in which a learning screen for causing brain signals is displayed on the head mounted display, Acquiring learning brain signals measured at each of a display and an additional electrode device coupled to the head-mounted display, learning relationship models of the electrodes of the head-mounted display and the electrodes of the additional electrode device from the learning brain signals The method comprising the steps of: obtaining brain signals measured in the head-mounted display from which the additional electrode device has been separated, with a specific screen displayed on the head-mounted display; Signals from the unmeasured phase Estimating brain signals of the additional electrode device, and detecting user intent corresponding to the measured brain signals and estimated brain signals.

상기 사용자 의도 인식 방법은 상기 학습용 뇌 신호들로부터 사용자 의도 분류 모델을 학습하는 단계를 더 포함할 수 있다. 상기 사용자 의도를 검출하는 단계는 학습된 상기 사용자 의도 분류 모델을 기초로 상기 측정된 뇌 신호들과 상기 추정한 뇌 신호들을 조합한 신호에 해당하는 사용자 의도를 검출할 수 있다.The user's intention recognition method may further include learning a user's intention classification model from the learning brain signals. The step of detecting the user intention may detect a user intention corresponding to a signal obtained by combining the measured brain signals with the estimated brain signals based on the learned user's intention classification model.

상기 학습 화면은 특정 뇌-컴퓨터 인터페이스 패러다임에 해당하는 뇌 신호들을 유발하기 위해 제작된 인터페이스 화면일 수 있다.The learning screen may be an interface screen designed to generate brain signals corresponding to a specific brain-computer interface paradigm.

상기 뇌-컴퓨터 인터페이스 패러다임은 동작 상상(Motor Imagery) 전위, 정상 상태 시각/청각/촉각 유발 전위(Steady-State Visual/Auditory/Somatosensory Evoked Potential), 그리고 사건 관련 전위(Event Related Potential) 중 적어도 하나일 수 있다.The brain-computer interface paradigm includes at least one of a motor imagery potential, a steady state visual / auditory / somatosensory evoked potential, and an event related potential. .

상기 학습 화면이 동작 상상에 해당하는 뇌 신호들을 유발하는 인터페이스 화면인 경우, 상기 학습용 뇌 신호들은 상기 학습 화면에서 지정한 신체 부위를 움직이는 상상으로 유발된 신호일 수 있다.When the learning screen is an interface screen for generating brain signals corresponding to an operation image, the brain signals for learning may be imaginary signals that move a body part designated on the learning screen.

상기 학습 화면이 사건 관련 전위에 해당하는 뇌 신호들을 유발하는 인터페이스 화면인 경우, 상기 학습 화면은 양쪽 눈에 각각 대응하는 좌측 화면 및 우측 화면을 분리 제공하고, 상기 좌측 화면과 상기 우측 화면에서 동일 객체를 서로 다른 주파수로 점멸하는 시각 자극을 제공할 수 있다. 상기 학습용 뇌 신호들은 상기 학습 화면에 포함된 시각 자극으로 유발된 신호일 수 있다.When the learning screen is an interface screen for generating brain signals corresponding to an event related potential, the learning screen separates the left screen and the right screen corresponding to the respective eyes, and provides the left screen and the right screen with the same object Can be provided with a visual stimulus that blinks at different frequencies. The learning brain signals may be signals induced by visual stimulation included in the learning screen.

상기 학습 화면이 정상 상태 시각 유발 전위에 해당하는 뇌 신호들을 유발하는 인터페이스 화면인 경우, 상기 학습 화면은 선택 가능한 복수의 객체들을 서로 다른 시각 자극으로 제공할 수 있다. 상기 학습용 뇌 신호들은 상기 학습 화면에서 복수의 객체들 중 특정 객체를 응시할 때 유발된 신호일 수 있다.When the learning screen is an interface screen for generating brain signals corresponding to the steady state visual evoked potential, the learning screen may provide a plurality of selectable objects as different visual stimuli. The learning brain signals may be a signal induced when a specific object among a plurality of objects is gazed on the learning screen.

상기 관계 모델을 학습하는 단계는 전극별로 현재 주기에서 측정된 뇌 신호에 과거 주기들에서 측정된 일정 수의 뇌 신호들을 포함하여 뇌 신호 특징 벡터를 생성하고, 상기 뇌 신호 특징 벡터를 이용하여 상기 관계 모델을 학습할 수 있다.Wherein the learning of the relationship model includes generating brain signal feature vectors including a predetermined number of brain signals measured in past cycles on a brain signal measured in a current cycle for each electrode, The model can be learned.

상기 사용자 의도 인식 방법은 검출한 사용자 의도를 기초로 상기 특정 화면을 제어하는 단계를 더 포함할 수 있다.The user's intention recognizing method may further include controlling the specific screen based on the detected user intention.

상기 특정 화면을 제어하는 단계는 상기 헤드 마운트 디스플레이에 부착된 안구 전도 전극들로부터 획득된 안구 전도 신호들을 기초로 시선 움직임을 검출하고, 검출한 시선 움직임에 따라 상기 특정 화면의 시점을 변경하며, 상기 측정된 뇌 신호들과 추정한 뇌 신호들로 검출한 사용자 의도에 따라 상기 특정 화면을 제어할 수 있다.The step of controlling the specific screen may include detecting eye movements based on the eye conduction signals obtained from the eye conduction electrodes attached to the head mount display, changing the view of the specific screen according to the detected eye movement, The specific screen can be controlled according to the user's intention detected by the measured brain signals and the estimated brain signals.

상기 사용자 의도 인식 방법은 상기 특정 화면을 제어하는 단계 이전에, 커서 화면에 시선이 따라 움직이는 커서를 표시한 상태에서, 상기 안구 전도 전극들로부터 획득된 학습용 안구 전도 신호들과 커서 속도의 관계 모델을 학습하는 단계를 더 포함할 수 있다. 상기 특정 화면을 제어하는 단계는 상기 안구 전도 신호들과 커서 속도의 관계 모델을 기초로, 상기 획득된 안구 전도 신호들에 해당하는 시선 움직임을 검출할 수 있다.Wherein the user's intention recognizing method includes a step of displaying a relationship model of the cursor velocity with the learning eye conduction signals obtained from the eye conduction electrodes in a state in which a cursor moving along the eye direction is displayed on the cursor screen prior to the step of controlling the specific screen And may further include learning steps. The step of controlling the specific screen may detect eye movements corresponding to the obtained eye conduction signals based on a relationship model of the eye conduction signals and the cursor speed.

한 실시예에 따른 뇌-컴퓨터 인터페이스 장치로서, 제1 채널 그룹의 뇌 전도 전극들이 부착된 헤드 마운트 디스플레이, 상기 헤드 마운트 디스플레이에 탈착되고, 제2 채널 그룹의 뇌 전도 전극들이 부착된 추가 전극 장치, 그리고 상기 제1 채널 그룹의 뇌 전도 전극들과 상기 제2 채널 그룹의 뇌 전도 전극들에서 획득되는 뇌 신호들의 관계 모델을 저장하고, 상기 관계 모델을 기초로 상기 추가 전극 장치가 분리된 상기 헤드 마운트 디스플레이를 제어하는 제어기를 포함한다. 상기 제어기는 특정 화면을 상기 헤드 마운트 디스플레이에 표시한 상태에서 상기 제1 채널 그룹에서 측정된 뇌 신호들이 입력되면, 상기 관계 모델을 기초로 상기 제2 채널 그룹의 뇌 전도 전극들의 뇌 신호들을 추정하고, 상기 제1 채널 그룹에서 측정된 뇌 신호들과 상기 제2 채널 그룹에서 추정된 뇌 신호들을 이용하여 사용자 의도를 검출하며, 검출한 사용자 의도를 기초로 상기 특정 화면을 제어한다.A brain-computer interface apparatus according to one embodiment, comprising: a head-mounted display having a first channel group of brain conduction electrodes attached thereto; an additional electrode unit detachably attached to the head-mounted display, Storing a relationship model of brain signals obtained at the brain conduction electrodes of the first channel group and the brain conduction electrodes of the second channel group, and based on the relationship model, And a controller for controlling the display. Wherein the controller estimates brain signals of brain conduction electrodes of the second channel group based on the relationship model when the brain signals measured in the first channel group are inputted while displaying a specific screen on the head mount display Detects user intention using brain signals measured in the first channel group and brain signals estimated in the second channel group, and controls the specific screen based on the detected user intention.

상기 제어기는 상기 추가 전극 장치가 상기 헤드 마운트 디스플레이에 결합된 학습 모드에서, 뇌 신호들을 유발하는 학습 화면을 상기 헤드 마운트 디스플레이에 표시하고, 상기 제1 채널 그룹과 상기 제2 채널 그룹에서 측정된 학습용 뇌 신호들을 획득하며, 상기 학습용 뇌 신호들을 이용하여 상기 관계 모델을 학습시킨 후, 학습된 상기 관계 모델을 저장할 수 있다.Wherein the controller displays on the head mounted display a learning screen that causes brain signals in a learning mode in which the additional electrode device is coupled to the head mounted display, Acquiring brain signals, learning the relational model using the learning brain signals, and storing the learned relational model.

상기 학습 화면은 특정 뇌-컴퓨터 인터페이스 패러다임에 해당하는 뇌 신호들을 유발하기 위해 제작된 인터페이스 화면이고, 상기 뇌-컴퓨터 인터페이스 패러다임은 동작 상상(Motor Imagery) 전위, 정상 상태 시각/청각/촉각 유발 전위(Steady-State Visual/Auditory/Somatosensory Evoked Potential), 그리고 사건 관련 전위(Event Related Potential) 중 적어도 하나일 수 있다.Wherein the learning screen is an interface screen produced to induce brain signals corresponding to a specific brain-computer interface paradigm, wherein the brain-computer interface paradigm includes a motor imagery potential, a steady state visual / auditory / tactile evoked potential Steady-State Visual / Auditory / Somatosensory Evoked Potential, and Event Related Potential.

상기 제어기는 상기 학습용 뇌 신호들을 회귀 분석하여 상기 관계 모델을 학습시킬 수 있다.The controller may learn the relational model by regression analysis of the learning brain signals.

상기 제어기는 학습된 사용자 의도 분류 모델을 기초로, 상기 제1 채널 그룹에서 측정된 뇌 신호들과 상기 제2 채널 그룹에서 추정된 뇌 신호들을 조합한 신호의 특징에 해당하는 상기 사용자 의도를 검출할 수 있다. 상기 사용자 의도 분류 모델은 상기 제1 채널 그룹과 상기 제2 채널 그룹에서 획득된 뇌 신호들의 특징을 기초로 특정 뇌-컴퓨터 인터페이스 패러다임에서 지정한 복수의 의도들 중 어느 하나로 분류하도록 학습된 모델일 수 있다.The controller detects the user intention corresponding to the feature of the signal obtained by combining the brain signals measured in the first channel group and the brain signals estimated in the second channel group based on the learned user's intention classification model . The user's intention classification model may be a model learned to classify into one of a plurality of intents specified in a specific brain-computer interface paradigm based on characteristics of brain signals acquired in the first channel group and the second channel group .

다른 실시예에 따른 뇌-컴퓨터 인터페이스 장치로서, 내측면의 적어도 일부가 사용자의 안면에 접하도록 착용되고, 적어도 하나의 프로세서, 메모리 그리고 디스플레이를 포함하는 본체, 그리고 상기 본체와 연결되며 상기 본체가 사용자의 안면에 착용된 상태로 고정되도록 지지하는 고정부를 포함하는 헤드 마운트 디스플레이, 그리고 상기 헤드 마운트 디스플레이에 결합되거나 분리되고, 사용자의 두피에 접하는 내 측면에 뇌 전도 전극들이 부착된 추가 전극 장치를 포함한다. 상기 헤드 마운트 디스플레이는, 상기 고정부의 내측면에 사용자의 머리 둘레를 따라 임의의 간격으로 배치된 복수의 뇌 전도 전극들, 상기 본체의 내측면에 사용자의 안구가 접하는 위치로부터 복수의 방향으로 임의의 간격으로 배치된 복수의 안구 전도 전극들, 상기 본체에 사용자의 안면의 일부가 접하는 영역에 배치되는 레퍼런스 전극, 그리고 상기 본체와 상기 고정부 중 적어도 하나에 배치되어, 상기 추가 전극 장치와 결합하거나 분리되는 체결부를 더 포함한다.A brain-computer interface apparatus according to another embodiment, comprising: a main body including at least one processor, a memory and a display, wherein at least a portion of the inner surface is in contact with the user's face, And an additional electrode device coupled to or separated from the head mount display and having an inner surface adjacent to the user's scalp and having brain conduction electrodes attached thereto do. The head-mounted display includes a plurality of brain conduction electrodes arranged at an arbitrary interval along a circumference of a user on the inner surface of the fixing unit, a plurality of brain conduction electrodes arranged in a plurality of directions from a position where the user & A plurality of eye conduction electrodes arranged at intervals of a predetermined distance, a reference electrode disposed in a region where a part of the user's face is in contact with the main body, and at least one of the main body and the fixing portion, And a separate fastening portion.

실시예에 따르면, 헤드 마운트 디스플레이에 탈부착형 추가 전극 장치를 결합하여 전극간 관계 모델을 생성한 이후, 추가 전극 장치 없이 헤드 마운트 디스플레이의 전극들에서 측정된 뇌 신호들로부터 사용자 의도를 정확히 인식할 수 있다.According to embodiments, after attaching the removable additional electrode device to the head-mounted display to create the inter-electrode relationship model, the user's intention can be accurately identified from the brain signals measured at the electrodes of the head- have.

실시예에 따르면, 뇌 전도 전극과 안구 전도 전극을 부착한 헤드 마운트 디스플레이를 통해 사용자에게 편리하고 현실감이 높으며 자연스러운 제어 환경을 제공할 수 있다. 따라서, 헤드 마운트 디스플레이 기반 뇌-컴퓨터 인터페이스 장치를 착용한 사용자는 직접 손이나 팔 등의 몸을 사용하여 제어 대상을 제어하는 대신, 생각이나 눈 움직임으로 제어 대상을 제어할 수 있다.According to the embodiment, a head-mounted display having a brain conduction electrode and an ocular conduction electrode can provide a user with a convenient, realistic and natural control environment. Therefore, a user who wears a head-mounted display-based brain-computer interface device can control the object to be controlled by thinking or eye movement instead of using the body of the hand or arm directly to control the object.

실시예에 따르면, 사용자의 시야 변화에 따라 사용자에게 제공되는 화면 변화를 제공함으로써, 사용자의 눈 움직임에 따라 실생활과 유사한 증강 현실 및 가상 현실을 제공할 수 있다.According to the embodiments, it is possible to provide augmented reality and virtual reality similar to the real life according to the user's eye motion by providing a screen change provided to the user in accordance with the change of the user's view.

실시예에 따르면, 헤드 마운트 디스플레이를 활용하는 게임, 엔터테인먼트, 헬스케어, 모바일 디스플레이 등의 다양한 분야에 뇌-컴퓨터 인터페이스를 적용하여 콘텐츠에 적합한 최적의 제어 환경을 제공할 수 있다.According to embodiments, a brain-computer interface can be applied to various fields such as game, entertainment, healthcare, and mobile display utilizing a head mount display, thereby providing an optimal control environment suitable for contents.

도 1은 한 실시예에 따른 헤드 마운트 디스플레이 기반 뇌-컴퓨터 인터페이스 장치의 착용 상태를 설명하는 도면이다.
도 2는 한 실시예에 따른 헤드 마운트 디스플레이 기반 뇌-컴퓨터 인터페이스 장치의 전극간 관계 모델을 개념적으로 설명하는 도면이다.
도 3과 도 4 각각은 한 실시예에 따른 헤드 마운트 디스플레이 기반 뇌-컴퓨터 인터페이스 장치의 예시이다.
도 5는 한 실시예에 따른 헤드 마운트 디스플레이 기반 뇌-컴퓨터 인터페이스 장치의 개념적인 구성도이다.
도 6은 한 실시예에 따른 제어기의 기능 블록도이다.
도 7은 한 실시예에 따른 제어기의 전극간 관계 모델 학습 방법의 흐름도이다.
도 8은 한 실시예에 따른 제어기의 사용자 의도 인식을 위한 분류 모델 학습 방법의 흐름도이다.
도 9는 한 실시예에 따른 제어기의 뇌 신호 추정 방법의 흐름도이다.
도 10은 뇌-컴퓨터 인터페이스 패러다임 중 동작 상상을 위한 학습 인터페이스 화면의 예시이다.
도 11과 도 12는 동작 상상에 따른 화면 제어의 예시이다.
도 13은 뇌-컴퓨터 인터페이스 패러다임 중 정상 상태 시각 유발 전위를 위한 학습 인터페이스 화면의 예시이다.
도 14는 뇌-컴퓨터 인터페이스 패러다임 중 사건 관련 전위를 위한 학습 인터페이스 화면의 예시이다.
도 15는 사건 관련 전위 기반의 시각 자극을 이용한 문자 입력 인터페이스의 예시이다.
도 16은 뇌-컴퓨터 인터페이스 패러다임 중 정상 상태 청각 유발 전위를 위한 학습 인터페이스 화면의 예시이다.
도 17은 한 실시예에 따른 사용자의 안구 움직임에 의한 화면 제어의 예시이다.
도 18은 한 실시예에 따른 사용자의 머리 및 안구 움직임에 화면 제어의 예시이다.
1 is a view for explaining a wearing state of a head-mounted display-based brain-computer interface device according to an embodiment.
FIG. 2 is a conceptual illustration of a relationship model between electrodes of a head-mounted display-based brain-computer interface device according to an embodiment.
Each of Figures 3 and 4 is an example of a head-mounted display based brain-computer interface device according to one embodiment.
5 is a conceptual block diagram of a head-mounted display-based brain-computer interface device according to an embodiment.
6 is a functional block diagram of a controller according to one embodiment.
7 is a flowchart of a method of learning the inter-electrode relationship model of a controller according to an embodiment.
8 is a flowchart of a classification model learning method for user's intention recognition of a controller according to an embodiment.
9 is a flowchart of a brain signal estimation method of a controller according to an embodiment.
FIG. 10 is an illustration of a learning interface screen for operation imagination in a brain-computer interface paradigm.
Figs. 11 and 12 show an example of screen control according to the operation image.
13 is an illustration of a learning interface screen for steady state visual evoked potentials in the brain-computer interface paradigm.
14 is an illustration of a learning interface screen for event related potentials in the brain-computer interface paradigm.
15 is an illustration of a character input interface using event-related potential-based visual stimulation.
Figure 16 is an illustration of a learning interface screen for steady state auditory evoked potentials in a brain-computer interface paradigm.
17 is an illustration of screen control by eye movement of a user according to an embodiment.
18 is an illustration of screen control over the head and eye movements of a user according to one embodiment.

아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily carry out the present invention. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In order to clearly illustrate the present invention, parts not related to the description are omitted, and similar parts are denoted by like reference characters throughout the specification.

명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "…부", "…기", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.Throughout the specification, when an element is referred to as " comprising ", it means that it can include other elements as well, without excluding other elements unless specifically stated otherwise. Also, the terms " part, " " module, " and " module ", etc. in the specification mean a unit for processing at least one function or operation and may be implemented by hardware or software or a combination of hardware and software have.

도 1은 한 실시예에 따른 헤드 마운트 디스플레이 기반 뇌-컴퓨터 인터페이스 장치의 착용 상태를 설명하는 도면이고, 도 2는 한 실시예에 따른 헤드 마운트 디스플레이 기반 뇌-컴퓨터 인터페이스 장치의 전극간 관계 모델을 개념적으로 설명하는 도면이다.FIG. 1 is a view for explaining a wear state of a head-mounted display-based brain-computer interface device according to an embodiment, and FIG. 2 is a conceptual Fig.

도 1을 참고하면, 헤드 마운트 디스플레이 기반 뇌-컴퓨터 인터페이스 장치(10)는 전극들이 부착된 헤드 마운트 디스플레이(100) 그리고 헤드 마운트 디스플레이(100)에 탈부착되는 전극 장치(앞으로, "추가 전극 장치"라고 한다)(200)를 포함한다. 헤드 마운트 디스플레이(100)와 추가 전극 장치(200) 각각에 배치된 뇌 전도 전극들의 위치는 사용자의 뇌 신호를 측정할 수 있는 지점들로 미리 설정되거나 사용자가 조정할 수 있다. 헤드 마운트 디스플레이(100)는 안구 전도 신호를 측정할 수 있는 안구 전도 전극들을 더 포함할 수 있다. 1, a head-mounted display-based brain-computer interface device 10 includes a head-mounted display 100 to which electrodes are attached and an electrode device (hereinafter referred to as an "additional electrode device" (200). The positions of the brain conduction electrodes disposed in each of the head mount display 100 and the additional electrode device 200 can be preset or adjusted by the user to measure the user's brain signal. The head mount display 100 may further include eye conduction electrodes capable of measuring an ocular conduction signal.

도 1의 (a)와 같이, 헤드 마운트 디스플레이(100)와 추가 전극 장치(200)는 결합될 수 있고, 이를 결합 상태라고 부른다. 도 1의 (b)와 같이, 추가 전극 장치(200)가 헤드 마운트 디스플레이(100)에서 분리될 수 있고, 이를 분리 상태라고 부른다. As shown in Fig. 1 (a), the head-mounted display 100 and the additional electrode device 200 can be combined, which is referred to as a coupled state. As shown in FIG. 1 (b), the additional electrode device 200 can be disconnected from the head mounted display 100, which is referred to as a disconnected state.

설명에서는 하나의 추가 전극 장치(200)가 헤드 마운트 디스플레이(100)에 결합되거나 분리된다고 설명하나, 복수의 추가 전극 장치들이 헤드 마운트 디스플레이(100)에 결합될 수 있다. 이 경우, 복수의 추가 전극 장치들 중 적어도 하나의 추가 전극 장치가 분리된 상태를 분리 상태라고 부를 수 있다. Although only one additional electrode device 200 is described as being coupled to or separated from the head-mounted display 100, a plurality of additional electrode devices may be coupled to the head-mounted display 100 in the description. In this case, the separated state of at least one additional electrode device among the plurality of additional electrode devices may be referred to as a disconnection state.

도 2의 (a)를 참고하면, 추가 전극 장치(200)가 결합된 헤드 마운트 디스플레이(100)를 사용자가 착용한 상태에서, 뇌 신호들이 측정된다. 이렇게 결합 상태에서 측정된 뇌 신호들이 분리 상태의 뇌 신호 추정을 위한 학습 데이터로 사용된다. 측정된 뇌 신호들을 이용하여 헤드 마운트 디스플레이(100)와 추가 전극 장치(200)의 전극들 사이의 관계 모델(W)(간단히, 전극간 관계 모델이라고 한다)을 학습한다. 즉, 헤드 마운트 디스플레이(100)의 전극들(X1, X2, ..., Xnx)에서 측정된 뇌 신호들(x)과 추가 전극 장치(200)의 전극들(Y1, Y2, .., Yny)에서 측정된 뇌 신호들(y)로 전극간 관계 모델(W)이 학습된다. 전극간 관계 모델(W)은 선형 회귀 분석, 비선형 회귀 분석 등의 회귀 분석으로 도출된 회귀 모델일 수 있다.Referring to FIG. 2 (a), brain signals are measured with the user wearing the head-mounted display 100 with the additional electrode device 200 coupled thereto. The brain signals measured in the coupled state are used as learning data for brain signal estimation in the separated state. Using the measured brain signals, a relationship model W (simply referred to as an inter-electrode relationship model) between electrodes of the head mount display 100 and the additional electrode device 200 is learned. That is, the brain signals x measured at the electrodes X 1 , X 2 , ..., X nx of the head mount display 100 and the electrodes Y 1 , Y 2 , ..., Y ny ), the inter-electrode relationship model (W) is learned. The interelectrode relationship model (W) can be a regression model derived from regression analysis such as linear regression analysis and nonlinear regression analysis.

도 2의 (b)를 참고하면, 추가 전극 장치(200)가 분리된 헤드 마운트 디스플레이(100)를 사용자가 착용한 상태에서는 헤드 마운트 디스플레이(100)의 전극들(X1, X2, ..., Xnx)에서 뇌 신호들이 측정된다. 이때, 결합 상태에서 측정된 뇌 신호들로 학습된 전극간 관계 모델(W)로 미측정된 지점들, 즉 추가 전극 장치(200)의 전극들(Y1, Y2, ..., Yny)의 뇌 신호들

Figure pat00001
을 추정할 수 있다. 2 (b), the electrodes X 1 , X 2 ,... Of the head-mounted display 100 are connected to the head-mounted display 100 while the additional electrode device 200 is worn by the user. ., X nx ). At this time, the electrodes (Y 1 , Y 2 , ..., Y ny ) of the additional electrode device 200 are not measured with the inter-electrode relationship model W learned from the brain signals measured in the coupled state, ) Brain signals
Figure pat00001
Can be estimated.

이처럼 본 발명에 따르면, 헤드 마운트 디스플레이(100)만을 착용한 상태에서 일부 지점(전극 채널)의 뇌 신호들만을 측정하더라도, 학습된 전극간 관계 모델을 통해 다른 지점들의 뇌 신호들을 추정할 수 있다. 즉, 뇌 신호 추정을 통해 사용자 의도를 정확히 인식하기 위해 요구되는 수준의 뇌 신호들이 추가적으로 획득된다. 따라서, 사용자는 항상 추가 전극 장치(200)가 결합된 헤드 마운트 디스플레이(100)를 착용할 필요 없이, 학습 이후에는 간단히 헤드 마운트 디스플레이(100)만을 착용하더라도, 뇌 신호들이 충분히 획득되고, 결과적으로 사용자 의도를 간편하면서도 정확히 인식할 수 있다.According to the present invention, even if only the brain signals of some points (electrode channels) are measured while wearing only the head mount display 100, brain signals of other points can be estimated through the learned inter-electrode relationship model. That is, brain signals of a level required to accurately recognize the user's intention through the brain signal estimation are additionally obtained. Therefore, even if the user wears only the head mounted display 100 after learning, the user does not always have to wear the head mounted display 100 to which the additional electrode device 200 is attached, the brain signals are sufficiently acquired, The intention can be recognized easily and accurately.

도 3과 도 4 각각은 한 실시예에 따른 헤드 마운트 디스플레이 기반 뇌-컴퓨터 인터페이스 장치의 예시이다.Each of Figures 3 and 4 is an example of a head-mounted display based brain-computer interface device according to one embodiment.

도 3 및 도 4를 참고하면, 헤드 마운트 디스플레이(100)는 사용자에게 착용되어 증강 현실 및 가상 현실 기반 콘텐츠를 제공하는 본체(110), 그리고 본체(110)를 머리에 고정 지지하는 고정부(120)를 포함한다. 사용자가 헤드 마운트 디스플레이(100)를 머리에 착용하면, 본체(110)는 내측면이 사용자의 안면 중 적어도 일부에 접촉되도록 밀착 지지되고, 고정부(12)는 내측면이 사용자의 안면의 일부 및 머리 둘레를 따라 적어도 일부의 두피에 접촉되도록 밀착 지지된다.3 and 4, the head mount display 100 includes a main body 110 that is worn by a user and provides augmented reality and virtual reality-based contents, and a fixing unit 120 that fixes and supports the main body 110 to the head ). When the user wears the head mount display 100 on the head, the main body 110 is tightly supported so that the inner surface thereof contacts at least a part of the face of the user, and the fixing portion 12 has the inner surface, So as to contact at least a part of the scalp along the head circumference.

헤드 마운트 디스플레이(100)는 증강 현실 및 가상 현실을 제공하는데 필요한 다양한 구성 요소들을 포함할 수 있는데, 일반적인 헤드 마운트 디스플레이의 구성 요소들을 포함할 수 있다. 예를 들면, 본체(110)는 적어도 하나의 프로세서, 메모리, 증강 현실 영상이나 가상 현실 영상을 표시하는 디스플레이를 포함하고, 본체(110)의 외측에 증강 현실을 제공하기 위해, 외부를 실시간으로 촬영할 수 있는 카메라(111)가 장착될 수 있다. 본체(110)의 안면부에는 사용자의 두 눈에 대면하는 위치에 렌즈(112)가 장착될 수 있다. 고정부(120)에는 헤드 마운트 디스플레이 제어 시 발생되는 음향(오디오 신호)을 제공하기 위한 이어폰(121)이나 스피커(미도시)가 포함될 수 있다. 한편, 이어폰(121)의 삽입부(즉, 사용자의 귀에 직접 삽입되는 부분)에 귀 내부에서 뇌 신호를 측정할 수 있는 뇌 전도 전극이 더 포함될 수 있다.The head mount display 100 may include various components necessary to provide augmented reality and virtual reality, and may include components of a typical head mount display. For example, the main body 110 may include at least one processor, a memory, a display for displaying an augmented reality image or a virtual reality image, and may be configured to photograph outside in real time in order to provide an augmented reality outside the main body 110 The camera 111 can be mounted. A lens 112 may be mounted on the face of the main body 110 at a position facing the user's eyes. The fixing unit 120 may include an earphone 121 or a speaker (not shown) for providing sound (audio signal) generated in the head mount display control. Meanwhile, the insertion portion of the earphone 121 (i.e., the portion directly inserted into the user's ear) may further include a brain conduction electrode capable of measuring a brain signal in the ear.

본체(110)와 고정부(120) 중 적어도 하나에, 추가 전극 장치(200)가 결합/분리되는 체결부(130, 131)가 형성된다. 결합 모양에 따라 체결부의 위치는 다양하게 형성될 수 있다. 예를 들어, 도 2와 같은 추가 전극 장치(200)인 경우, 체결부(130, 131)에 추가 전극 장치(200)의 전방 결합부(230) 및 후방 결합부(231)가 각각 삽입되어 결합될 수 있다.At least one of the main body 110 and the fixing portion 120 is formed with coupling portions 130 and 131 for coupling / separating the additional electrode device 200. Depending on the shape of the coupling, the position of the coupling part can be variously formed. 2, the front coupling part 230 and the rear coupling part 231 of the additional electrode device 200 are inserted into the coupling parts 130 and 131, respectively, .

헤드 마운트 디스플레이(100)는 복수의 전극들을 포함한다. 전극들의 위치는 뇌 신호 측정 지점들/안구 전도 신호 측정 지점들에 따라 다양하게 배치될 수 있다. 고정부(120)의 내측면(즉, 사용자의 머리에 직접적으로 대면하는 일부면)에 머리 둘레를 따라 복수의 뇌 전도 전극들(141, 142, ..., 149)이 부착될 수 있다. 본체(11)의 사용자의 안면에 직접적으로 대면하는 내측면에 복수의 안구 전도 전극들(151, 152, ..., 158)이 부착될 수 있다. 각 안구 전도 전극은 안면부 중 사용자의 눈에 근접한 위치에 배치되고, 눈 주위의 상/하/좌/우에 부착될 수 있다. 본체(11)는 뇌 신호 및 안구 전도 신호의 기준이 되는 레퍼런스 전극(또는 그라운드 전극)(160)을 포함하고, 예를 들면, 사용자의 코 위치에 대면하는 영역에 부착될 수 있다. 이때, 레퍼런스 전극과 그라운드 전극은 하나의 전극으로 사용 가능하다.The head mount display 100 includes a plurality of electrodes. The positions of the electrodes can be variously arranged according to brain signal measurement points / eye conduction signal measurement points. A plurality of brain conduction electrodes 141, 142, ..., 149 may be attached along the head circumference to the inner surface of the fixation portion 120 (i.e., a portion of the surface directly facing the user's head). A plurality of ocular conductive electrodes 151, 152, ..., 158 may be attached to the inner surface directly facing the face of the user of the body 11. [ Each eye conduction electrode is disposed at a position close to the user's eye in the face portion, and can be attached to the upper / lower / left / right of the eyes. The main body 11 includes a reference electrode (or a ground electrode) 160 that serves as a reference for a brain signal and an ocular conduction signal, and may be attached to, for example, an area facing a user's nose position. At this time, the reference electrode and the ground electrode can be used as one electrode.

추가 전극 장치(200)는 착용한 사용자의 머리에 접촉하는 내측면(하부면)에 복수의 뇌 전도 전극들(미도시)이 부착된다. 예를 들면, 추가 전극 장치(200)의 하부면에서 가로 방향 및 세로 방향으로 복수의 뇌 전도 전극들이 배치될 수 있다.The additional electrode device 200 is attached with a plurality of brain conduction electrodes (not shown) on the inner surface (lower surface) contacting the wearer's head. For example, a plurality of brain conduction electrodes may be arranged in the lateral direction and the longitudinal direction on the lower surface of the additional electrode device 200.

추가 전극 장치(200)의 모양은 다양하게 설계될 수 있다. 예를 들면, 추가 전극 장치(200)는 사용자의 착용 상태에서, 전후 방향으로 일정의 길이 및 면적을 갖는 제1 바디, 그리고 좌우 방향으로 일정의 길이 및 면적을 갖는 제2 바디로 구성되고, 제1 바디와 제2 바디는 서로 교차하는 중심에 연결부(210)를 통해 물리적으로 연결되고, 전기적으로도 연결될 수 있다. The shape of the additional electrode device 200 can be variously designed. For example, the additional electrode device 200 is composed of a first body having a predetermined length and area in the forward and backward directions and a second body having a predetermined length and area in the left and right direction, The first body and the second body may be physically connected to each other through the connection part 210 and may be electrically connected to each other.

추가 전극 장치(200)를 사용자의 머리에 맞추고, 뇌 전도 전극 사이의 간격을 조절하기 위해, 추가 전극 장치(200)는 전후 전극 간격 확장부(220)와 좌우 전극 간격 확장부(222)를 포함한다. 전후 전극 간격 확장부(220)는 연결부(210)로부터 전후 방향으로 연장되고, 좌우 전극 간격 확장부(222)는 연결부(210)로부터 좌우 방향으로 연장될 수 있다. 각 전극 간격 확장부(220, 222)는 복수의 마디 형상을 가지고, 연결부(210)를 향해 각 마디가 이전 마디에 삽입되어 있다가 연장될수록 순차적으로 외부로 펼쳐질 수 있고, 적어도 하나의 마디가 펼쳐지면 사용자의 머리 굴곡에 따라 밀착되는 휘어진 바(bar) 형상이 될 수 있다. 뇌 전도 전극은 연결부(210), 전후 전극 간격 확장부(220) 및 좌우 전극 간격 확장부(222)의 각 마디에 부착될 수 있다. 이러한 추가 전극 장치(200)를 통해 헤드 마운트 디스플레이(100)에서 측정할 수 없는 사용자의 다양한 뇌 영역의 뇌 신호를 측정할 수 있다.In order to align the additional electrode device 200 with the user's head and adjust the gap between the brain conduction electrodes, the additional electrode device 200 includes the front and rear electrode interval extension part 220 and the left and right electrode interval extension part 222 do. The front and rear electrode interval extension portions 220 extend in the front-rear direction from the connection portion 210 and the left and right electrode interval extension portions 222 can extend in the left-right direction from the connection portion 210. Each of the electrode interval extension portions 220 and 222 has a plurality of bar shapes and each bar is inserted into a previous bar toward the bar 210 and can be sequentially extended outwardly as the bar is extended. It may be a curved bar shape that closely adheres to the head curvature of the floor user. The brain conduction electrode may be attached to each node of the connection portion 210, the front and rear electrode interval extension portion 220, and the left and right electrode interval extension portion 222. Through this additional electrode device 200, brain signals of various brain areas of the user, which can not be measured in the head-mounted display 100, can be measured.

전후 전극 간격 확장부(220) 및 좌우 전극 간격 확장부(222) 각각은 사용자 머리 위에서 지탱 및 고정하기 위한 다리부(240, 242)가 연장될 수 있다. 다리부(240, 242)는 사용자 머리에 접촉되며, 스트랩 또는 유연한 재질로 구성될 수 있다. 다리부(240, 242) 중 적어도 하나의 끝단은 헤드 마운트 디스플레이(100)의 체결부(130, 131)에 삽입되는 전방 결합부(230) 및 후방 결합부(231)가 형성될 수 있다.Each of the front and rear electrode spacing extension portions 220 and the left and right electrode spacing extension portions 222 may extend leg portions 240 and 242 for supporting and fixing on the user's head. The legs 240 and 242 are in contact with the user's head and may be constructed of a strap or a flexible material. At least one end of the legs 240 and 242 may be formed with a front engaging portion 230 and a rear engaging portion 231 that are inserted into the engaging portions 130 and 131 of the head mount display 100.

한편, 도 3 및 도 4에서는 표시되어 있지 않으나, 뇌-컴퓨터 인터페이스 장치(10)는 본 발명에서 설명하는 방법을 수행하는 프로세서(미도시), 메모리(미도시), 통신 모듈(미도시) 등의 하드웨어를 포함하고, 하드웨어를 통해 본 발명에서 설명하는 방법을 수행하는 프로그램들(예를 들면, 헤드 마운트 디스플레이 제어 프로그램)을 실행한다. 프로그램들은 적어도 하나의 메모리에 저장되고, 적어도 하나의 프로세서가 프로그램들을 실행하여 본 발명에서 설명하는 방법을 처리한다. 헤드 마운트 디스플레이(100)와 추가 전극 장치(200) 각각이 적어도 하나의 메모리, 적어도 하나의 프로세서, 그리고 적어도 하나의 통신 모듈 등의 하드웨어에 의해 동작할 수 있고, 또는 헤드 마운트 디스플레이(100)가 결합된 추가 전극 장치(200)의 뇌 신호 측정을 제어할 수 있다.3 and 4, the brain-computer interface device 10 includes a processor (not shown), a memory (not shown), a communication module (not shown), and the like (E.g., a head mount display control program) that performs the method described in the present invention through hardware. The programs are stored in at least one memory, and at least one processor executes the programs to process the methods described in the present invention. Each of the head mount display 100 and the additional electrode device 200 may be operated by hardware such as at least one memory, at least one processor, and at least one communication module, or the head mounted display 100 may be coupled The brain signal measurement of the additional electrode device 200 can be controlled.

추가 전극 장치(200)에서 측정된 뇌 신호들은 측정된 뇌 신호들을 기초로 전극간 관계 모델을 학습하는 장치로 전달되는데, 전극간 관계 모델을 학습하는 장치는 헤드 마운트 디스플레이(100)이거나, 별도의 외부 제어 장치일 수 있다. 이때, 추가 전극 장치(200)에서 측정된 뇌 신호들은 결합된 헤드 마운트 디스플레이(100)로 전달되거나, 추가 전극 장치(200)가 측정된 뇌 신호들을 직접 지정된 서버로 전송할 수 있다. 헤드 마운트 디스플레이(100)와 추가 전극 장치(200)는 통신 모듈을 통해 통신할 수 있다. 또는 헤드 마운트 디스플레이(100)에 결합된 추가 전극 장치(200)는 헤드 마운트 디스플레이(100)에 전기적으로 연결되고, 헤드 마운트 디스플레이(100)는 결합된 추가 전극 장치(200)를 통해 뇌 신호들을 측정할 수 있다. The brain signals measured at the additional electrode device 200 are transmitted to a device for learning an inter-electrode relationship model based on the measured brain signals. The device for learning the inter-electrode relationship model may be a head mount display 100, May be an external control device. At this time, the brain signals measured at the additional electrode device 200 may be transmitted to the combined head-mounted display 100, or the additional electrode device 200 may transmit the measured brain signals directly to a designated server. The head mount display 100 and the additional electrode device 200 can communicate through a communication module. Or the additional electrode device 200 coupled to the head mounted display 100 is electrically connected to the head mounted display 100 and the head mounted display 100 measures the brain signals through the combined additional electrode device 200 can do.

헤드 마운트 디스플레이(100)는 통신 모듈을 통해 외부 장치(미도시), 예를 들어, 모바일 단말과 통신할 수 있다. 헤드 마운트 디스플레이(100)는 통신 모듈을 통해 외부 제어 서버와 통신할 수 있다. The head mount display 100 may communicate with an external device (not shown), e.g., a mobile terminal, via a communication module. The head mount display 100 can communicate with an external control server via a communication module.

다음에서 헤드 마운트 디스플레이 기반 뇌-컴퓨터 인터페이스 장치가 뇌 신호를 추정하여 사용자 의도를 인식하는 방법에 대해 설명한다. 본 발명에서 설명하는 방법은 헤드 마운트 디스플레이(100)에 내장된 프로세서가 수행할 수 있고, 또는 헤드 마운트 디스플레이(100), 추가 전극 장치(200), 외부 제어 장치 각각에 내장된 프로세서들이 연동하여 수행할 수 있다. 설명에서는 적어도 하나의 프로세서에 의해 동작하는 제어기(300)가 본 발명에서 설명하는 방법을 처리한다고 가정하고, 제어기(300)는 헤드 마운트 디스플레이(100)에 포함된 것으로 가정한다.The following describes how a head-mounted display-based brain-computer interface device estimates the brain signal and recognizes the user's intention. The method described in the present invention can be performed by a processor built in the head mount display 100 or by the processors incorporated in the head mount display 100, the additional electrode device 200, can do. In the description, it is assumed that the controller 300, which is operated by at least one processor, processes the method described in the present invention, and that the controller 300 is included in the head mounted display 100.

도 5는 한 실시예에 따른 헤드 마운트 디스플레이 기반 뇌-컴퓨터 인터페이스 장치의 개념적인 구성도이고, 도 6은 한 실시예에 따른 제어기의 기능 블록도이다.FIG. 5 is a conceptual block diagram of a head-mounted display-based brain-computer interface apparatus according to an embodiment, and FIG. 6 is a functional block diagram of a controller according to an embodiment.

도 5를 참고하면, 뇌-컴퓨터 인터페이스 장치(10)는 헤드 마운트 디스플레이(100) 그리고 추가 전극 장치(200)를 포함하고, 이들을 제어하는 제어기(300)를 포함할 수 있다. 추가적으로, 헤드 마운트 디스플레이(100)는 사용자 단말이나 외부 제어 서버를 포함하는 외부 제어 장치와 통신할 수 있다. Referring to FIG. 5, the brain-computer interface device 10 includes a head-mounted display 100 and an additional electrode device 200, and may include a controller 300 for controlling them. Additionally, the head mount display 100 may communicate with an external control device including a user terminal or an external control server.

한편, 제어기(300)는 헤드 마운트 디스플레이(100)의 외부에서 헤드 마운트 디스플레이(100)와 외부 통신하여 헤드 마운트 디스플레이(100)를 제어하도록 설계 변경할 수 있다. 또한, 제어기(300)의 일부 기능은 헤드 마운트 디스플레이(100)의 프로세서가 처리하고, 나머지 기능은 외부 제어 장치가 처리할 수 있도록 설계 변경할 수 있다.On the other hand, the controller 300 may be designed and modified to communicate with the head mounted display 100 outside the head mounted display 100 to control the head mounted display 100. In addition, some of the functions of the controller 300 can be modified by the processor of the head mount display 100, and the remaining functions can be processed by the external control device.

도 6을 참고하면, 제어기(300)는 뇌 신호 측정부(310), 뇌 신호 학습부(330), 뇌 신호 추정부(350), 그리고 사용자 의도 인식부(370)를 포함한다. Referring to FIG. 6, the controller 300 includes a brain signal measuring unit 310, a brain signal learning unit 330, a brain signal estimating unit 350, and a user's intention recognizing unit 370.

뇌 신호 측정부(310)는 헤드 마운트 디스플레이(100)와 추가 전극 장치(200)가 결합 상태에서 사용자의 뇌 신호들을 측정한다. 결합 상태에서 측정된 뇌 신호들은 뇌 전도 전극들 간의 관계 모델의 학습에 사용되는 학습 데이터이다. 이때, 뇌 신호 측정부(310)는 뇌-컴퓨터 인터페이스 패러다임별로 제작된 화면, 진동, 소리 등을 헤드 마운트 디스플레이(100)의 디스플레이, 진동 센서, 스피커 등으로 출력하고, 각 뇌-컴퓨터 인터페이스 패러다임에서 유발된 뇌 신호들을 측정할 수 있다. 뇌-컴퓨터 인터페이스 패러다임은 예를 들어, 신체 움직임을 상상하여 유발되는 동작 상상(Motor Imagery, MI) 전위, 정상 상태 시각/청각/촉각 유발 전위(Steady-State Visual/Auditory/Somatosensory Evoked Potential), 사건 관련 전위(Event Related Potential, ERP) 등을 포함할 수 있다.The brain signal measuring unit 310 measures the user's brain signals when the head-mounted display 100 and the additional electrode device 200 are in a coupled state. The brain signals measured in the combined state are the learning data used to learn the relationship model between the brain conduction electrodes. At this time, the brain signal measuring unit 310 outputs a screen, vibration, and sound produced for each brain-computer interface paradigm to a display of the head mount display 100, a vibration sensor, a speaker, The induced brain signals can be measured. The brain-computer interface paradigm, for example, can be classified into three categories: motor Imagery (MI) potential induced by imagining body movements, steady state visual / auditory / somatosensory evoked potential, An Event Related Potential (ERP), and the like.

뇌 신호 측정부(310)는 뇌 신호 추정부(330)로부터 헤드 마운트 디스플레이에서 측정된 뇌 신호들과 함께 추정된 뇌 신호들을 입력받을 수 있다. 입력받은 데이터는 학습 데이터로 사용될 수 있다.The brain signal measuring unit 310 receives the estimated brain signals from the brain signal estimating unit 330 along with the brain signals measured in the head mount display. The input data can be used as learning data.

또한, 뇌 신호 측정부(310)는 추가 전극 장치(200)가 분리된 상태에서, 헤드 마운트 디스플레이(100)를 착용한 사용자의 뇌 신호들을 측정한다. 분리 상태에서 측정된 뇌 신호들은 미측정 지점들의 뇌 신호들의 추정에 사용된다.In addition, the brain signal measuring unit 310 measures brain signals of the user wearing the head-mounted display 100, with the additional electrode device 200 separated. The brain signals measured in the detached state are used to estimate the brain signals of the unmeasured points.

뇌 신호 측정부(310)는 측정한 뇌 신호들을 구분하기 위해 측정 전에 뇌 신호 측정 모드를 설정할 수 있다. 뇌 신호 측정 모드는 학습용 뇌 신호 측정을 위한 학습 모드 또는 결합 모드, 사용자 의도 인식 모드 또는 분리 모드 등으로 구분될 수 있다. 또한, 뇌 신호 측정부(310)는 뇌-컴퓨터 인터페이스 패러다임을 설정할 수 있다. 뇌 신호 측정부(310)는 설정에 따라 측정된 뇌 신호들을 구분하여 저장한다.The brain signal measuring unit 310 may set a brain signal measuring mode before measurement to distinguish the measured brain signals. The brain signal measurement mode can be classified into a learning mode or a combination mode for learning brain signal measurement, a user intention recognition mode, or a separation mode. In addition, the brain signal measuring unit 310 can set a brain-computer interface paradigm. The brain signal measuring unit 310 separately stores the brain signals measured according to the setting.

뇌 신호 학습부(330)는 뇌 신호 측정부(310)에서 측정한 학습용 뇌 신호들을 기초로 헤드 마운트 디스플레이(100)와 추가 전극 장치(200)의 뇌 전도 전극들 간의 관계 모델을 학습한다. The brain signal learning unit 330 learns a relationship model between the head mounted display 100 and the brain conduction electrodes of the additional electrode device 200 based on the learning brain signals measured by the brain signal measuring unit 310.

또한, 뇌 신호 학습부(330)는 뇌 신호 측정부(310)에서 측정한 학습용 뇌 신호들을 기초로 뇌-컴퓨터 인터페이스 패러다임에 적합한 사용자 의도 인식을 위한 분류 모델을 학습한다. In addition, the brain signal learning unit 330 learns a classification model for user's intention recognition suitable for the brain-computer interface paradigm based on the brain signals measured by the brain signal measuring unit 310.

뇌 신호 학습부(330)는 학습할 데이터가 많을수록 높은 성능을 제공할 수 있는 딥러닝의 특성에 따라, 획득한 학습 데이터를 증강(Data Augmentation)하여 학습 데이터를 늘릴 수 있다. 데이터 증강 방법은 다양할 수 있다. The brain signal learning unit 330 can increase the learning data by performing data augmentation on the acquired learning data according to the characteristics of the deep learning that can provide higher performance as more data to learn. Data reinforcement methods can vary.

뇌 신호 추정부(330)는 학습된 전극간 관계 모델을 기초로, 사용자가 헤드 마운트 디스플레이(100)만을 착용한 상태에서 측정된 뇌 신호들로부터 미측정된 추가 전극 장치(200)의 뇌 신호들을 추정한다.The brain signal estimating unit 330 estimates brain signals of the additional electrode device 200 not measured from brain signals measured by the user wearing only the head mount display 100 based on the learned inter- .

사용자 의도 인식부(250)는 학습된 사용자 의도 인식을 위한 분류 모델을 기초로, 입력된 뇌 신호들에 해당하는 사용자 의도를 판단한다. 입력된 뇌 신호들은 헤드 마운트 디스플레이(100)에서 측정된 뇌 신호들과 추정한 뇌 신호들일 수 있다. 또는 입력된 뇌 신호들은 헤드 마운트 디스플레이(100)와 추가 전극 장치(200)가 결합 상태에서 측정된 뇌 신호들일 수 있다.The user's intention recognition unit 250 determines a user's intention corresponding to the inputted brain signals based on the classification model for the learned user's intention recognition. The input brain signals may be brain signals measured at the head mount display 100 and estimated brain signals. Or the inputted brain signals may be brain signals measured in the state in which the head mounted display 100 and the additional electrode device 200 are coupled.

도 7은 한 실시예에 따른 제어기의 전극간 관계 모델 학습 방법의 흐름도이다.7 is a flowchart of a method of learning the inter-electrode relationship model of a controller according to an embodiment.

도 7을 참고하면, 사용자가 추가 전극 장치(200)가 결합된 헤드 마운트 디스플레이(100)를 착용한 상태에서, 제어기(300)는 뇌-컴퓨터 인터페이스 패러다임을 지정한다(S110). 뇌-컴퓨터 인터페이스 패러다임은 사용자에 의해 선택될 수 있고, 또는 학습 모드에서 학습할 패러다임이 지정될 수 있다.Referring to FIG. 7, in a state in which the user wears the head-mounted display 100 to which the additional electrode device 200 is coupled, the controller 300 specifies a brain-computer interface paradigm (S110). The brain-computer interface paradigm can be selected by the user, or a paradigm for learning in the learning mode can be specified.

제어기(300)는 지정된 뇌-컴퓨터 인터페이스 패러다임에 해당하는 뇌 신호들을 유발하는 인터페이스 화면을 표시한 상태에서, 사용자의 뇌 신호들을 측정한다(S120). 헤드 마운트 디스플레이(100)의 전극들에서 측정된 뇌 신호들(x1, x2, ..., xnx)과 추가 전극 장치(200)의 전극들에서 측정된 뇌 신호들(y1, y2, ..., yny)이 획득된다. 이때, 헤드 마운트 디스플레이(100)와 추가 전극 장치(200)에서 측정된 뇌 신호들들은 동일한 샘플비(Sampling rate)를 갖는다. 각 전극은 채널 식별자로 구분될 수 있다. 한편, 헤드 마운트 디스플레이(100)의 전극들(채널들)을 제1 채널 그룹이라고 하고, 추가 전극 장치(200)의 전극들(채널들)을 제2 채널 그룹이라고 할 수 있다.The controller 300 measures the user's brain signals while displaying an interface screen for generating brain signals corresponding to the designated brain-computer interface paradigm (S120). (X 1 , x 2 , ..., x nx ) measured at the electrodes of the head mount display 100 and the brain signals y 1 , y 2 , ..., y ny are obtained. At this time, brain signals measured at the head mount display 100 and the additional electrode device 200 have the same sample rate. Each electrode can be identified by a channel identifier. On the other hand, the electrodes (channels) of the head mount display 100 may be referred to as a first channel group, and the electrodes (channels) of the additional electrode device 200 may be referred to as a second channel group.

제어기(300)는 지정된 뇌-컴퓨터 인터페이스 패러다임에 대해서 일정 시간 동안 측정한 뇌 신호들을 저장한다(S130). 측정된 뇌 신호는 대역 통과 필터가 적용되고, 정규화되는 전처리를 거친다. 대역 통과 필터는 지정된 뇌 신호 측정 패러다임에 관련된 주파수 범위가 설정될 수 있다. 정규화 방법은 다양한데, 예를 들면, 각 전극(채널)의 뇌 신호의 평균값이 0이고, 분산값이 1이 되도록 정규화할 수 있다.The controller 300 stores brain signals measured for a predetermined time for the designated brain-computer interface paradigm (S130). The measured brain signal is subjected to a band-pass filter and a normalized pre-processing. The bandpass filter can be set to a frequency range that is related to the specified brain signal measurement paradigm. For example, the normalization method can be normalized such that the mean value of the brain signals of each electrode (channel) is 0 and the variance value is 1.

제어기(300)는 측정한 뇌 신호들로부터 해당 뇌-컴퓨터 인터페이스 패러다임을 위한 학습 데이터를 생성한다(S140). 학습용 뇌 신호는 각 전극에서 일정 시간 동안의 측정을 반복적으로 시도(Trial)하여 획득될 수 있고, 또는 각 전극에서 연속된 시간 동안 측정된 신호일 수 있다. 또는 학습용 뇌 신호는 각 전극에서 과거(예를 들면, 이전 측정 주기들)에 측정된 뇌 신호들(샘플)을 축적하여 생성될 수 있다. 한편, 제어기(300)는 측정한 뇌 신호들을 학습용, 검증용, 평가용으로 분리하고, 측정한 뇌 신호들 중 일부를 학습 데이터로 사용할 수 있다. The controller 300 generates learning data for the brain-computer interface paradigm from the measured brain signals (S140). The learning brain signal can be obtained by repeatedly attempting to measure a certain time at each electrode, or it can be a signal measured for successive times at each electrode. Or a learning brain signal can be generated by accumulating brain signals (samples) measured at each electrode in the past (e. G., Previous measurement periods). Meanwhile, the controller 300 separates the measured brain signals for learning, verification, and evaluation, and uses some of the measured brain signals as learning data.

제어기(300)는 학습 데이터를 이용하여 헤드 마운트 디스플레이(100)와 추가 전극 장치(200)의 전극들 간의 관계 모델(W)을 초기 학습한다(S150). 전극간 관계 모델(W)은 헤드 마운트 디스플레이(100)의 뇌 신호들과 추가 전극 장치(200)의 뇌 신호들을 관계를 포함하고, 이후 측정 지점인 헤드 마운트 디스플레이(100)의 뇌 신호들로부터 미측정 지점들의 뇌 신호들을 추정하는데 이용된다. 미측정 지점들은 추가 전극 장치(200)의 전극들의 전극 위치들이고, 뇌 신호 추정 지점이라고 부를 수 있다.The controller 300 initially learns the relationship model W between the electrodes of the head-mounted display 100 and the additional electrode device 200 using the learning data (S150). The inter-electrode relationship model W includes the relationship between the brain signals of the head-mounted display 100 and the brain signals of the additional electrode device 200, and then the relationship between the brain signals of the head- It is used to estimate brain signals of measurement points. The unmeasured points are electrode positions of the electrodes of the additional electrode device 200 and may be referred to as a brain signal estimation point.

제어기(300)는 검증용 뇌 신호들을 이용하여 초기 학습된 전극간 관계 모델(W)의 파라미터들을 최적화한다(S160).The controller 300 optimizes the parameters of the initial learned inter-electrode relationship model W using the verification brain signals (S160).

제어기(300)는 평가용 뇌 신호들을 이용하여 최적화된 전극간 관계 모델(W)을 평가한다(S170). 관계 모델 평가 지표는, 측정된 뇌 신호(y)와 전극간 관계 모델로 추정된 뇌 신호

Figure pat00002
의 상관 계수(Correlation coefficient), 또는 평균 제곱 오차를 사용할 수 있다. 상관 계수가 1에 가까울수록 또는 평균 제곱 오차가 0에 가까울수록 관계 모델의 정확도가 증가한다.The controller 300 evaluates the optimized inter-electrode relationship model W using the brain signals for evaluation (S170). The relational model evaluation index is calculated from the brain signal (y) measured and the brain signal
Figure pat00002
Correlation coefficient, or mean square error, can be used. The closer the correlation coefficient is to 1 or the closer to the mean square error is, the more accurate the relationship model is.

제어기(300)는 정확도가 기준값 이상이면, 전극간 관계 모델의 학습을 종료한다(S180). 만약, 제어기(300)는 정확도가 기준값 미만인 경우, 전극간 관계 모델의 학습, 최적화, 평가를 반복할 수 있다. 필요 시, 제어기(300)는 추가적인 뇌 신호 측정을 요청할 수 있다. 제어기(300)는 뇌-컴퓨터 인터페이스 패러다임별로 전극간 관계 모델을 학습시킬 수 있다.If the accuracy is equal to or greater than the reference value, the controller 300 ends the learning of the inter-electrode relationship model (S180). If the accuracy is less than the reference value, the controller 300 can repeat the learning, optimization, and evaluation of the inter-electrode relationship model. If desired, the controller 300 may request additional brain signal measurements. The controller 300 may learn the inter-electrode relationship model by brain-computer interface paradigm.

제어기(300)는 추정된 뇌 신호의 오차를 피드백하여 전극간 관계 모델을 최적화하는 오차 교정 방법을 통해, 전극간 관계 모델의 정확도를 높일 수 있다. 제어기(300)는 다양한 회귀 분석 기법의 조합으로 오차를 교정할 수 있고, 예를 들면, 선형 회귀 분석(Linear Regression Analysis)을 통해 추정된 뇌 신호에서 발생한 오차를 커널 리지 회귀 분석(Kernel Ridge Regression)으로 오차를 줄일 수 있다.The controller 300 can improve the accuracy of the inter-electrode relation model through an error correction method of optimizing the inter-electrode relation model by feeding back the error of the estimated brain signal. The controller 300 can correct the error by a combination of various regression analysis techniques. For example, the error generated in the brain signal estimated by the linear regression analysis is subjected to kernel ridge regression, The error can be reduced.

전극간 관계 모델은 적용하는 회귀 분석 기법에 따라 다양하게 생성될 수 있다. 전극들 간의 관계 모델은 예를 들어 선형 회귀 분석, 리지 회귀 분석, 커널 리지 회귀 분석, 앙상블 회귀 분석(Ensemble Regression Analysis) 등으로 생성될 수 있다. 전극간 관계 모델의 변수 개수는 회귀 모델에 따라 달라지며, 예를 들어 리지 회귀 분석으로 생성되는 관계 모델은 리지 크기가 변수가 되고, 커널 리지 분석으로 생성되는 관계 모델은 리지 크기 및 커널 크기 등이 변수가 될 수 있다. The relationship model between electrodes can be variously generated according to the applied regression analysis technique. The relationship model between the electrodes can be generated by, for example, linear regression analysis, ridge regression analysis, kernel ridge regression analysis, ensemble regression analysis, and the like. The number of variables in the inter-electrode relationship model depends on the regression model. For example, the relation model generated by the ridge regression analysis is the ridge size, and the relationship model generated by the kernel ridge analysis is the ridge size and the kernel size It can be a variable.

회귀 분석에 따른 전극간 관계 모델은 표 1과 같이 정의될 수 있다. 표 1에서, x는 헤드 마운트 디스플레이(100)에서 측정된 뇌 신호이고, y는 추가 전극 장치(200)에서 측정된 뇌 신호이다.

Figure pat00003
는 리지의 크기를 나타내는 변수이다. k는 커널을 의미하고, 커널은 선형(Linear) 커널, 다항(Polynomial) 커널, 가우시안 커널 등이 선택적으로 사용될 수 있다. m은 앙상블에 사용된 모델의 개수이며, 3개의 모델뿐만 아니라 다양한 모델의 조합으로 형성될 수 있다.The relationship model between the electrodes according to the regression analysis can be defined as shown in Table 1. In Table 1, x is the brain signal measured at the head-mounted display 100 and y is the brain signal measured at the additional electrode device 200.
Figure pat00003
Is a variable indicating the size of the ridge. k means the kernel, and the kernel can optionally be a linear kernel, a polynomial kernel, or a Gaussian kernel. m is the number of models used in the ensemble, and can be formed of a combination of various models as well as three models.

회귀 분석 기법Regression analysis technique 전극간 관계 모델Inter-electrode relationship model 선형 회귀 분석Linear regression analysis

Figure pat00004
Figure pat00004
리지 회귀 분석Ridge regression analysis
Figure pat00005
Figure pat00005
커널 리지 회귀 분석Kernel ridge regression analysis
Figure pat00006
Figure pat00007
Figure pat00006
Figure pat00007
앙상블 회귀 분석Ensemble regression analysis
Figure pat00008
Figure pat00008

제어기(300)는 측정 방법을 선택하고 측정한 데이터를 가공하여 다양한 차원의 학습 데이터를 생성할 수 있다. 예를 들어, 제어기(300)는 특정 뇌-컴퓨터 인터페이스 패러다임에서, 일정 시간 동안 측정을 반복적으로 시도하여 해당 패러다임에서의 뇌 신호들을 획득할 수 있다. 반복적 측정 시도에 따라 획득된 뇌 신호는 표 2의 종류1과 같은 데이터 차원(데이터 수)으로 저장될 수 있다. 연속적인 시간에 따라 획득된 뇌 신호는 표 2의 종류2와 같고, 이 경우의 데이터 차원은 전극 수와 같다. 반복적 시도에 따라 획득된 뇌 신호는 표 2의 종류3과 같이 시도 시간을 통합한 데이터로 변형되어 저장될 수 있다.The controller 300 may select measurement methods and process the measured data to generate training data of various dimensions. For example, in a particular brain-computer interface paradigm, the controller 300 may repeatedly attempt measurements over a period of time to obtain brain signals in that paradigm. The brain signals obtained according to the repeated measurement attempts can be stored in the same data dimension (number of data) as the type 1 in Table 2. The brain signals acquired over successive times are the same as Type 2 in Table 2, and the data dimension in this case is equal to the number of electrodes. The brain signals obtained by the repeated attempts can be transformed into data combining trial times as in Type 3 of Table 2 and stored.

종류Kinds 헤드 마운트 디스플레이의 뇌 신호들
(Ncx: 전극 수)
The brain signals of the head mount display
(N cx : number of electrodes)
추가 전극 장치의 뇌 신호들
(Ncy: 전극 수)
The brain signals of the additional electrode device
(N cy : number of electrodes)
1One

Figure pat00009

Ttrial: 단일 시도(trial)의 시간
Ntrial: 시도 수
Figure pat00009

T trial : the time of a single trial
N trial : number of attempts
Figure pat00010

Ttrial: 단일 시도의 시간
Ntrial: 시도 수
Figure pat00010

T trial : Time of a single attempt
N trial : number of attempts
22
Figure pat00011

T: 시간
Figure pat00011

T: Time
Figure pat00012

T: 시간
Figure pat00012

T: Time
33
Figure pat00013

Ttrial x nt: 전체 시도 시간
Figure pat00013

T trial x nt : Total trial time
Figure pat00014

Ttrial x nt: 전체 시도 시간
Figure pat00014

T trial x nt : Total trial time

한편, 제어기(300)는 각 전극에서 과거(과거 주기)에 측정된 일정 수의 뇌 신호들(샘플)을 축적하여 학습 데이터를 생성할 수 있다. 제어기(300)는 시간 지연된 샘플들을 이용하여 특정 시점(t)(현재 주기)에서의 뇌 신호 특징을 변환할 수 있다. On the other hand, the controller 300 can generate learning data by accumulating a predetermined number of brain signals (samples) measured in the past (past period) at each electrode. The controller 300 may use the time delayed samples to convert brain signal characteristics at a particular time t (current period).

특정 시점(t)에서 시간 지연 샘플들로 변환된 뇌 신호의 특징 벡터[x'(t)]는 수학식 1과 같은 벡터로 표현될 수 있고, 시간 지연 샘플들로 변환된 뇌 신호는 수학식 2와 같은 데이터 차원으로 저장될 수 있다. 수학식 1에서, ch는 해당 전극 채널이고, k은 시간 지연된 샘플 수이다. 수학식 2에서,

Figure pat00015
는 전극 수와 시간 지연된 샘플 수의 곱이고,
Figure pat00016
는 전체 시도 시간이다. The feature vector x [tau] (t) of the brain signal converted into the time delay samples at a specific time t may be expressed by a vector as shown in Equation (1) 2 < / RTI > In Equation (1), ch is the corresponding electrode channel and k is the number of samples delayed in time. In Equation (2)
Figure pat00015
Is the product of the number of electrodes and the number of samples delayed by time,
Figure pat00016
Is the total attempt time.

Figure pat00017
Figure pat00017

Figure pat00018
Figure pat00018

전극마다 시간 지연된 샘플들을 축적하고 이를 특정 시점(t)에서의 전극간 관계 학습에 사용하므로, 특정 시간에서 사용하는 뇌 신호의 수(차원)가 늘어나는 효과가 있다. 즉, 특정 시점(t)에서의 전극간 관계를 나타내는 학습 데이터를 생성할 때, 특정 시점(t)에서 측정한 뇌 신호들만을 사용하는 것이 아니라, 과거에 측정한 뇌 신호들도 특정 시점(t)에서의 전극간 관계를 나타내는 학습 데이터에 포함시킨다. 예를 들어, 헤드 마운트 디스플레이의 3개 전극에서 측정된 뇌 신호에 대해서 10개의 시간 지연된 샘플을 이용하면, 특정 시점의 뇌 신호를 추정하기 위해 30개의 특징값을 이용하게 된다. 표 3부터 표 5를 비교하면, 샘플 지연 방법은 관계 모델의 정확도를 높일 수 있음을 알 수 있다.Since the time-delayed samples are accumulated for each electrode and used for learning the interelectrode relation at a specific time t, there is an effect that the number (dimension) of brain signals used at a specific time is increased. That is, when generating the learning data indicating the relationship between the electrodes at the specific time point t, not only the brain signals measured at the specific time point t but also the brain signals measured in the past are also used at a specific time point t In the learning data indicating the interelectrode relationship in the electrodes. For example, using 10 time-delayed samples for brain signals measured at three electrodes on the head-mounted display, 30 feature values are used to estimate the brain signal at a given time. Comparing Table 3 through Table 5 shows that the sample delay method can increase the accuracy of the relational model.

표 3은 10초의 학습 데이터에 대해 샘플 지연이 없을 경우의 측정한 뇌 신호와 추정한 뇌 신호

Figure pat00019
의 상관 계수이다. 표 4는 10초의 학습 데이터에 대해 15개의 샘플 지연을 적용한 경우의 두 뇌 신호
Figure pat00020
의 상관 계수이다. 표 5는 25초의 학습 데이터에 대해 15개의 샘플 지연을 적용한 경우의 두 신호
Figure pat00021
의 상관 계수이다. 표 3부터 표 5를 비교하면, 시간 지연된 샘플들을 이용하여 학습한 경우, 관계 모델의 정확도를 평가하는 지표인 상관 계수가 증가하는 것을 보이고, 학습 데이터를 증가시킬 때에도 상관 계수가 증가되는 것을 확인할 수 있다.Table 3 shows the measured brain signals in the absence of sample delay for 10 seconds of training data and the estimated brain signals
Figure pat00019
. Table 4 shows the results of two brain signals with 15 sample delays applied to 10 seconds of training data
Figure pat00020
. Table 5 shows two signals with 15 sample delays applied for 25 seconds of training data
Figure pat00021
. Comparing Table 3 to Table 5 shows that correlation coefficient, which is an index for evaluating the accuracy of relationship model, increases when learning with time delayed samples, and that correlation coefficient increases even when learning data is increased have.

Figure pat00022
Figure pat00022

Figure pat00023
Figure pat00023

Figure pat00024
Figure pat00024

한편, 학습 데이터가 많을수록 높은 분류 성능을 제공할 수 있는 딥러닝의 특성에 따라, 각 학습 데이터를 데이터 증강(Data Augmentation)할 수 있다. 예를 들어, 데이터 증강 방법은 뇌 신호의 주파수 정보를 활용하는 정상 상태 시각/시각/촉각 유발 전위에 활용 가능하다. 예를 들어, 단일 시도의 시간에 수집된 뇌 신호에 작은 크기의 윈도우를 적용하여, 시간 축에서 한 샘플씩 이동해가며 주파수 특징을 추출하고, 이를 학습 데이터로 이용할 수 있다.On the other hand, according to the characteristics of the deep learning that can provide a higher classification performance as the learning data is larger, the data of each learning data can be augmented. For example, the data enhancement method can be used for steady state visual / visual / tactile evoked potentials that utilize frequency information of the brain signal. For example, by applying a small-sized window to a brain signal collected at a single trial time, frequency characteristics can be extracted by moving one sample in the time axis and used as learning data.

도 8은 한 실시예에 따른 제어기의 사용자 의도 인식을 위한 분류 모델 학습 방법의 흐름도이다.8 is a flowchart of a classification model learning method for user's intention recognition of a controller according to an embodiment.

도 8을 참고하면, 제어기(300)는 뇌-컴퓨터 인터페이스 패러다임에 대해서 일정 시간 동안 측정한 뇌 신호들을 이용하여 분류 모델 학습을 위한 학습 데이터를 생성한다(S210). 제어기(300)는 전극간 관계 모델의 학습을 위해 측정한 뇌 신호들을 이용하여 분류 모델 학습을 위한 학습 데이터를 생성할 수 있다. 한편, 제어기(300)는 측정된 뇌 신호들과 전극간 관계 모델로 추정된 뇌 신호들도 분류 모델 학습을 위한 학습 데이터로 이용할 수 있다. 학습 데이터는 헤드 마운트 디스플레이(100)의 뇌 신호(x)와 추가 전극 장치(200)의 뇌 신호(y)를 조합한 뇌 신호(EEGcombination)일 수 있다. EEGcombination은 전극간 관계 모델 학습에 사용된 표 2의 특징 벡터와 같이 시도 시간, 시도 횟수 등에 따라 다양하게 가공될 수 있다.Referring to FIG. 8, the controller 300 generates training data for classifying model learning using brain signals measured for a certain period of time with respect to the brain-computer interface paradigm (S210). The controller 300 may generate training data for classification model learning using brain signals measured for learning of the inter-electrode relationship model. Meanwhile, the controller 300 may use brain signals estimated from the measured brain signals and the inter-electrode relationship model as learning data for classifying model learning. The training data may be an EEG combination of the brain signal x of the head mounted display 100 and the brain signal y of the additional electrode device 200. EEG combination can be variously processed according to the trial time, number of attempts, and so on, as shown in Table 2, which is used for learning the inter-electrode relation model.

제어기(300)는 뇌-컴퓨터 인터페이스 패러다임별 학습 데이터를 기초로 사용자 의도 인식을 위한 분류 모델을 생성한다(S220). 이때, 제어기(300)는 공통 공간 패턴(Common Spatial Pattern), 선형판별분석법(Linear Discriminant Analysis), 서포트벡터머신(Support Vector Machine), 정준상관분석(Canonical Correlation Analysis), 푸리에 변환(Fourier transform), 딥러닝(Deep Learning) 등의 다양한 패턴 인식 및 기계학습 기법을 이용하여 분류 모델을 생성할 수 있다. 분류 모델은 전극간 관계모델 학습과 유사하게, 학습, 검증, 평가를 거쳐 생성될 수 있다.The controller 300 generates a classification model for user's intention recognition based on learning data for each brain-computer interface paradigm (S220). At this time, the controller 300 may generate a common spatial pattern, a linear discriminant analysis, a support vector machine, a canonical correlation analysis, a Fourier transform, And classifying models can be generated using various pattern recognition and machine learning techniques such as deep learning. The classification model can be generated through learning, verification, and evaluation, similar to the inter-electrode relationship model learning.

분류 모델은 뇌-컴퓨터 인터페이스 패러다임에 따라 다르게 생성된다.The classification model is generated differently according to the brain-computer interface paradigm.

동작 상상(Motor Imagery) 패러다임에서 측정된 뇌 신호인 경우, 서로 다른 두 클래스 간 분산 차이를 극대화하는 공간 필터(즉, 한 클래스에 대해서 분산을 최대화하고 동시에 다른 클래스의 분산을 최소화)를 설계하는 공통 공간 패턴(Common Spatial Pattern) 방법을 이용할 수 있다. 필터를 통해 변환된 뇌 신호의 분산을 계산하고 정규화하여 이를 사용자 의도 분류를 위한 특징 벡터로 사용한다. 이때, 선형 판별 분석법(Linear Discriminant Analysis), 서포트 벡터 머신(Support Vector Machine), 딥러닝(Deep Learning) 등의 분류기가 사용될 수 있다.In the case of a brain signal measured in the Motor Imagery paradigm, a spatial filter that maximizes dispersion between two different classes (ie, maximizes dispersion for one class while minimizing dispersion of other classes) A common spatial pattern method can be used. The variance of the brain signal transformed through the filter is calculated and normalized and used as a feature vector for user's intention classification. At this time, classifiers such as Linear Discriminant Analysis, Support Vector Machine, and Deep Learning may be used.

정상 상태 시각/청각/촉각 유발 전위에서 측정된 뇌 신호인 경우, 주파수 특징을 고려할 수 있는 정준 상관 분석 기법(Canonical Correlation Analysis), 푸리에 변환(Fourier Transform) 등이 사용될 수 있다. 정준 상관 분석 기법을 진행할 경우 시각/청각/촉각 자극과 같은 주파수를 갖는 참조 신호들(Reference Signals)을 생성한다. 그리고 정준 상관 분석 기법을 통해 참조 신호들과 단일 시도(Trial) 뇌 신호 간 상관 관계를 최대화하는 가중치 벡터를 구하고, 각각의 참조 신호와의 상관 관계를 이용하여 사용자 의도를 분류한다. 최대값 비교, 최대 근접 이웃 (k-nearest neighbor), 서포트 벡터 머신(Support Vector Machine), 딥러닝(Deep Learning) 등의 분류기가 사용될 수 있다.For brain signals measured at steady state visual / auditory / tactile evoked potentials, Canonical Correlation Analysis and Fourier Transform can be used to consider frequency characteristics. When the canonical correlation analysis is performed, reference signals having frequencies such as visual / auditory / tactile stimuli are generated. Then, a weight vector that maximizes the correlation between the reference signals and the trial brain signal is obtained through canonical correlation analysis, and the user intention is classified using the correlation with each reference signal. Classifiers such as maximum value comparison, k-nearest neighbor, Support Vector Machine, and Deep Learning may be used.

사건 유발 전위에서 측정된 뇌 신호인 경우, 사건(이벤트 또는 자극)이 주어진 후, 특정 시간(수백 ms) 후에 발생하는 뇌 신호의 크기 변화를 이용하여 사용자 의도를 분류한다. 먼저 선형 판별 분석법(Linear Discriminant Analysis), 주성분 분석법(Principal Component Analysis), 독립 성분 분석법(Independent Component Analysis)을 통해, 뇌 신호로부터 사건 유발 전위와 관련된 뇌 신호 특징을 추출한다. 선형 판별 분석법, 서포트 벡터 머신, 딥러닝 등의 분류기가 사용될 수 있다.In the case of a brain signal measured at the event evoked potential, the user's intention is classified using the magnitude change of the brain signal occurring after a certain time (several hundred ms) after the event (event or stimulus) is given. First, the brain signal features related to the event evoked potentials are extracted from the brain signal through Linear Discriminant Analysis, Principal Component Analysis, and Independent Component Analysis. Classifiers such as linear discriminant analysis, support vector machines, and deep learning may be used.

도 9는 한 실시예에 따른 제어기의 뇌 신호 추정 방법의 흐름도이다.9 is a flowchart of a brain signal estimation method of a controller according to an embodiment.

도 9를 참고하면, 제어기(300)는 학습된 전극간 관계 모델과 학습된 사용자의도 분류 모델을 저장한다(S310).Referring to FIG. 9, the controller 300 stores the learned inter-electrode relationship model and the learned user's degree classification model (S310).

사용자가 추가 전극 장치(200)가 분리된 헤드 마운트 디스플레이(100)를 착용한 상태에서, 제어기(300)는 헤드 마운트 디스플레이(100)에서 측정된 뇌 신호들(x*)을 획득한다(S320). 제어기(300)는 학습 시 수행한 전처리와 동일하게 측정된 뇌 신호들을 전처리한다.When the user wears the separate head-mounted display 100 with the additional electrode device 200, the controller 300 acquires the brain signals x * measured at the head-mounted display 100 (S320) . The controller 300 preprocesses the brain signals measured in the same manner as the preprocessing performed during learning.

제어기(300)는 학습된 전극간 관계 모델의 입력 벡터에 대응하도록 측정된 뇌 신호들의 특징 벡터를 생성한다(S330). 즉, 제어기(300)는 전극간 관계 모델의 학습에서 사용한 데이터 차원 및 데이터 형식에 맞게, 뇌 신호들을 측정하고 가공한다. 예를 들어, 수학식 1과 같이, 전극마다 시간 지연된 샘플들을 축적하고 이를 특정 시점(t)에서의 특징 벡터로 생성할 수 있다.The controller 300 generates the feature vector of the brain signals measured to correspond to the input vector of the learned inter-electrode relationship model (S330). That is, the controller 300 measures and processes brain signals in accordance with the data dimension and data format used in the learning of the inter-electrode relationship model. For example, as shown in Equation (1), it is possible to accumulate time-delayed samples for each electrode and generate it as a feature vector at a specific time t.

제어기(300)는 학습된 전극간 관계 모델을 기초로, 측정된 뇌 신호들의 특징 벡터로부터 미측정된 지점들의 뇌 신호들을 추정한다(S340). 미측정된 지점은 추가 전극 장치(200)의 전극 위치에 해당한다.The controller 300 estimates brain signals of the unmeasured points from the feature vectors of the measured brain signals based on the learned inter-electrode relationship model (S340). The non-measured point corresponds to the electrode position of the additional electrode device 200.

제어기(300)는 측정된 뇌 신호들(x*)과 추정한 뇌 신호들

Figure pat00025
의 조합 신호(EEGcombination)를 생성한다(S350). 이때, 조합 신호는 수학식 3과 같이, 헤드 마운트 디스플레이 전극들과 추정된 추가 전극 장치의 전극들에서 시간(T) 동안 획득된 신호 벡터로서 표현될 수 있다.The controller 300 compares the measured brain signals (x * ) and estimated brain signals
Figure pat00025
The generation of the combined signal (EEG combination) (S350). At this time, the combination signal can be expressed as a signal vector obtained for the time (T) at the head-mounted display electrodes and the electrodes of the estimated additional electrode device, as shown in Equation (3).

Figure pat00026
Figure pat00026

제어기(300)는 학습된 사용자 의도 인식을 위한 분류 모델을 기초로, 조합 신호의 특징에 해당하는 사용자 의도를 판단한다(S360). 예를 들면, 동적 상상 전위를 학습한 분류 모델은 뇌 신호 특징으로부터 사용자가 상상한 부위를 분류할 수 있다. 분류 모델은 뇌-컴퓨터 인터페이스 패러다임에 따라 복수의 의도들 중 어느 하나로 분류되도록 학습된다.The controller 300 determines a user intention corresponding to the characteristic of the combination signal based on the classification model for learning the user intention (S360). For example, a classification model that learns dynamic imaginary potentials can classify a user imagined part from brain signal characteristics. The classification model is learned to be classified into one of a plurality of intents according to the brain-computer interface paradigm.

이처럼, 사용자 머리에 많은 수의 전극을 부착하지 않아도 헤드 마운트 디스플레이를 착용하는 것만으로도 향상된 사용자 의도 인식 및 그에 따른 가상/증강 현실을 편리하게 제공할 수 있다.As described above, even if a large number of electrodes are not attached to the user's head, improved user's intention recognition and corresponding virtual / augmented reality can be conveniently provided by wearing the head-mounted display.

도 10은 뇌-컴퓨터 인터페이스 패러다임 중 동작 상상을 위한 학습 인터페이스 화면의 예시이고, 도 11과 도 12는 동작 상상에 따른 화면 제어의 예시이다.FIG. 10 shows an example of a learning interface screen for an operation image of a brain-computer interface paradigm, and FIGS. 11 and 12 show an example of a screen control according to an operation image.

도 10을 참고하면, 제어기(300)는 뇌-컴퓨터 인터페이스 패러다임 중 동작 상상 학습을 위해, 추가 전극 장치(200)가 결합된 헤드 마운트 디스플레이(100)를 착용한 사용자에게, 오른손, 왼손, 발, 혀 등의 특정 신체 부위를 통한 움직임을 상상하도록 하는 화면을 제시한다. 예를 들어, 제어기(300)는 사용자 중심의 1인칭 시점으로 제공되는 화면에서 오른손, 왼손을 각각 움켜쥐고 피는 동작을 반복하는 장면, 발가락을 까닥 까닥하는 장면, 또는 혀를 움직이는 장면을 보여주면서 뇌 신호를 유도할 수 있다. 이외에도, 제어기(300)는 상/하/좌/우 화살표 또는 임의의 형태의 도형을 보여주면서 신체 움직임을 상상을 유도할 수도 있으며, 사용하려는 동작 상상의 신체 부위를 바꾸어가며 반복할 수 있다.10, the controller 300 may be provided for a user who wears the head-mounted display 100 to which the additional electrode device 200 is coupled for operation imaginative learning of the brain-computer interface paradigm, Tongue, and other parts of the body. For example, the controller 300 displays a scene in which a user repeatedly performs a blood clenching operation, a scene involving a toe, or a scene in which a tongue is moved, by grabbing the right and left hands of a user, Signal can be derived. In addition, the controller 300 may induce imagination of the body movements by displaying arrows or arrows of an arbitrary shape, or alternate the body parts of the imaginary body to be used.

뇌-컴퓨터 인터페이스 패러다임이 동작 상상으로 선택된 경우, 도 4의 (a)는 오른손 동작 상상 뇌 신호를 유도하기 위한 학습 단계에서 제시되는 영상의 예이고, 도 4의 (b)는 오른손 동작 상상 뇌 신호를 유도하기 위한 학습 단계에서 제시되는 영상의 예이다.4 (a) is an example of an image presented in a learning stage for deriving a right-hand motion imaginary brain signal, and FIG. 4 (b) is an example of a right- Which is an example of the image presented in the learning step for deriving the image.

제어기(300)는 동작 상상에 의해 유발되는 뇌 신호들을 통해 학습한 전극간 관계 모델과 분류 모델을 기초로, 사용자에게 제시되는 가상 현실 화면/증강 현실 화면에서 특정 부위의 움직임을 인식할 수 있다. 본 발명에 따르면 사용자는 동작 상상을 이용하여 3차원 공간 이동을 할 수 있다.The controller 300 can recognize the movement of the specific region on the virtual reality screen / augmented reality screen presented to the user based on the inter-electrode relationship model and the classification model learned through the brain signals induced by the operation imagery. According to the present invention, a user can perform three-dimensional space movement using an operation image.

예를 들어, 도 11의 (a)와 같이, 헤드 마운트 디스플레이(100)가 사용자에게왼쪽 화면과 오른쪽 화면을 제공하면, 사용자가 도 11의 (b)와 같은 화면을 헤드 마운트 디스플레이(100)를 통해 인식한다. 이때, 제어기(300)는 발의 움직임은 직진, 오른손 움직임은 우회전, 왼손 움직임은 좌회전, 혀의 움직임은 후진과 매핑하고, 사용자에게 제시되는 가상 현실 화면/증강 현실 화면에서 사용자의 뇌 신호로부터 동작 상상 부위를 인식하고, 인식한 부위에 매핑된 화면 제어를 할 수 있다. 그리고 제어기(300)는 사용자가 동작 상상하지 않을 때는 화면 움직임을 정지할 수 있다.For example, if the head mount display 100 provides the user with a left screen and a right screen as shown in FIG. 11 (a), the user can display the screen shown in FIG. 11 (b) . At this time, the controller 300 maps the motion of the foot to the straight line, the right-hand motion to the right, the left-hand motion to the left, and the tongue to the backward motion, It is possible to recognize the region and to control the screen mapped to the recognized region. The controller 300 can stop the screen movement when the user does not imagine the operation.

도 12를 참고하면, 제어기(300)는 특정 신체 움직임 상상을 검출하면 인터페이스 화면에서 특정 신체 움직임에 대응된 방향 표시 화살표의 색/모양/크기를 변경할 수 있다. Referring to FIG. 12, the controller 300 may change the color / shape / size of the direction indicating arrow corresponding to a specific body movement on the interface screen when the specific body motion imagination is detected.

제어기(300)는 동작 상상을 이용하여 검출된 사용자 의도의 지속 시간이나 강도를 피드백할 수 있다. 예를 들어, 제어기(300)는 전진에 매핑된 발 동작 상상이 지속되거나 강도가 강해질 때, 전진 방향의 화살표 /모양/크기를 변경할 수 있다. 이를 통해, 제어기(300)는 사용자에게 올바른 동작 상상이 발현되는지에 대한 피드백을 제공할 수 있어서, 편리하고 정확한 인터페이스를 제공할 수 있다.The controller 300 may feedback the duration or intensity of the user intention detected using the operationalimage. For example, the controller 300 may change the arrow / shape / size of the forward direction when the forward motion imagination mapped to the forward is persistent or intensified. This allows the controller 300 to provide feedback to the user as to whether a correct operational image is being generated, thereby providing a convenient and accurate interface.

도 13은 뇌-컴퓨터 인터페이스 패러다임 중 정상 상태 시각 유발 전위를 위한 학습 인터페이스 화면의 예시이다.13 is an illustration of a learning interface screen for steady state visual evoked potentials in the brain-computer interface paradigm.

도 13을 참고하면, 제어기(300)는 정상 상태 시각 유발 전위 학습을 위해, 추가 전극 장치(200)가 결합된 헤드 마운트 디스플레이(100)를 착용한 사용자에게, 적어도 한 개 이상의 시각 자극을 포함하는 화면을 제시한다. 예를 들어, 시각 자극은 자극이 제시되는 동안 특정 주파수로 점멸될 수 있고, 도형, 글자, 물체 형상 등을 포함할 수 있다. 13, the controller 300 may provide a user wearing the head-mounted display 100 with an additional electrode device 200 for steady-state visual evoked potential learning to a user wearing at least one visual stimulus Present the screen. For example, the visual stimulus may be flickered at a specific frequency while the stimulus is presented, and may include shapes, letters, object shapes, and the like.

제어기(300)는 정상 상태 시각 유발 전위에 의해 유발되는 뇌 신호들을 통해 학습한 전극간 관계 모델과 분류 모델을 기초로, 사용자에게 제시되는 가상 현실 화면/증강 현실 화면에서 시각 자극 패턴이 할당된 객체들을 인식할 수 있다. 이를 위해, 가상 환경 및 증강 현실 영상은 특정 객체 대응하는 시각 자극 패턴을 할당하여 시각 자극으로 유발된 뇌 신호들을 측정할 수 있도록 제작된다. 이때 시각 자극의 형태는 특정 객체뿐만 아니라 도형, 글자 등의 다양한 형태가 가능하며, 이를 통해 다양한 사용자 의도를 검출할 수 있다.Based on the inter-electrode relationship model and the classification model learned through the brain signals induced by the steady-state visual evoked potential, the controller 300 generates a virtual stimulus pattern on the virtual reality screen / . ≪ / RTI > To this end, the virtual environment and the augmented reality image are produced so as to measure brain signals induced by visual stimulation by assigning visual stimulus patterns corresponding to specific objects. In this case, the form of the visual stimulus can be various forms such as a figure, a letter, and the like, as well as a specific object, thereby detecting various user intentions.

도 13의 (a)를 참고하면, 뇌-컴퓨터 인터페이스 패러다임이 정상 상태 시각 유발 전위로 선택된 경우, 헤드 마운트 디스플레이(100)가 사용자에게 왼쪽 화면과 오른쪽 화면을 제공하되, 좌/우 화면에서 특정 객체의 시각 자극 주파수를 상이하게 제공할 수 있다. 예를 들어, 제1 객체에 대한 시각 자극이 왼쪽 눈으로 F1Hz가 제공되고 오른쪽 눈으로 F3Hz가 제공될 수 있다. 또한 제2 객체에 대한 시각 자극이 왼쪽 눈으로 F2Hz가 제공되고 오른쪽 눈으로 F4Hz가 제공될 수 있다. 13 (a), when the brain-computer interface paradigm is selected as the steady state visual evoked potential, the head mount display 100 provides the user with a left screen and a right screen, It is possible to provide different visual stimulation frequencies. For example, the visual stimulus for the first object may be given F 1 Hz with the left eye and F 3 Hz with the right eye. The visual stimulus for the second object may also be given F 2 Hz with the left eye and F 4 Hz with the right eye.

사용자는 도 13의 (b)와 같은 화면을 헤드 마운트 디스플레이 장치를 통해 인식한다. 이때, 사용자는 두 가지 주파수 성분을 인식하여 사용자 의도 인식 성능을 높일 수 있다. 즉, 사용자는 제1 객체를 F1Hz과 F3Hz의 결합으로 인식하고, 제2 객체를 F2Hz과 F4Hz의 결합으로 인식할 수 있다. The user recognizes the screen as shown in FIG. 13 (b) through the head mount display device. At this time, the user can recognize two frequency components, thereby enhancing the user's intention recognition performance. That is, the user inputs the first object as F 1 Hz F 3 Hz, and recognizes the second object as F 2 Hz and F 4 Hz. ≪ / RTI >

도 14는 뇌-컴퓨터 인터페이스 패러다임 중 사건 관련 전위를 위한 학습 인터페이스 화면의 예시이고, 도 15는 사건 관련 전위 기반의 시각 자극을 이용한 문자 입력 인터페이스의 예시이다.FIG. 14 is an illustration of a learning interface screen for event related potentials in a brain-computer interface paradigm, and FIG. 15 is an illustration of a character input interface using visual stimulation based on event related potentials.

도 14를 참고하면, 제어기(300)는 사건 관련 전위 학습을 위해, 추가 전극 장치(200)가 결합된 헤드 마운트 디스플레이(100)를 착용한 사용자에게, 적어도 한 개 이상의 시각 자극을 포함하는 화면을 제시한다. 예를 들어, 한 개 이상의 시각 자극이 제시될 수 있으며, 시각 자극은 사용자가 예측하지 못하는 순서로 번갈아 가면서 제시될 수 있다. 시각 자극은 도형, 글자, 사진, 얼굴, 소리 등을 포함할 수 있다. 사건 관련 전위는 3차원 공간에 다양한 자극이 제시되어야 할 때 편리하게 사용될 수 있다. 14, the controller 300 displays a screen including at least one visual stimulus to the user wearing the head-mounted display 100 coupled with the additional electrode device 200 for event-related dislocation learning present. For example, one or more visual stimuli may be presented, and visual stimuli may be presented alternately in an order that the user can not predict. Visual stimuli can include shapes, letters, pictures, faces, sounds, and so on. Event - related potentials can be conveniently used when various stimuli must be presented in a three - dimensional space.

제어기(300)는 사건 관련 전위에 의해 유발되는 뇌 신호들을 통해 학습한 전극간 관계 모델과 분류 모델을 기초로, 사용자에게 제시되는 가상 현실 화면/증강 현실 화면에서 시각 자극을 통해 사용자가 선택한 객체들을 인식할 수 있다. 이를 위해, 가상 환경 및 증강 현실 영상은 특정 객체 대응하는 시각 자극 패턴을 할당하여 시각 자극으로 유발된 뇌 신호들을 측정할 수 있도록 제작된다.Based on the inter-electrode relationship model and the classification model learned through brain signals induced by the event-related potential, the controller 300 displays the objects selected by the user through visual stimulation on the virtual reality screen / Can be recognized. To this end, the virtual environment and the augmented reality image are produced so as to measure brain signals induced by visual stimulation by assigning visual stimulus patterns corresponding to specific objects.

도 14의 (a)를 참고하면, 뇌-컴퓨터 인터페이스 패러다임이 사건 관련 전위로 선택된 경우, 헤드 마운트 디스플레이(100)가 3차원 공간에 존재하는 객체를 대상으로 사건 관련 전위를 이용한 시각 자극을 제공한다. 사용자는 도 14의 (b)와 같은 화면을 헤드 마운트 디스플레이를 통해 인식한다.Referring to FIG. 14A, when the brain-computer interface paradigm is selected as the event-related potential, the head mount display 100 provides visual stimulation using an event-related potential to an object existing in a three-dimensional space . The user recognizes the screen as shown in FIG. 14 (b) through the head mount display.

사건 관련 전위를 이용한 시각 자극을 제공하는 방법은 다양할 수 있는데, 예를 들어, 다른 거리에 있는 객체들을 서로 번갈아 점멸하고, 깜빡임의 반복은 사용자가 예측 불가능한 시점이나 예측 불가능한 순서로 제공된다. There are a variety of ways to provide visual stimuli using event related potentials. For example, objects at different distances are alternately blinked, and blinking repetitions are provided in unpredictable or unpredictable order.

제어기(300)는 인터페이스 화면에서 사용자가 원하는 객체를 응시할 때 유발되는 뇌 신호를 학습하고, 학습된 분류 모델을 기초로 사용자 의도를 인식한다.The controller 300 learns a brain signal generated when a user looks at an object desired on the interface screen, and recognizes the user's intention based on the learned classification model.

도 15를 참고하면, 제어기(300)는 사건 관련 전위를 유발하는 입력 인터페이스를 이용하여 글자 입력 기능을 제공할 수 있다. 도 15의 (a)와 같이 헤드 마운트 디스플레이(100)가 사용자에게 입력 인터페이스를 제공하면, 사용자는 도 15의 (b)와 같이 인식한다. 예를 들면, 입력 인터페이스는 문자들이 번갈아가며 점멸되는 QWERTY 형태의 키보드일 수 있다.Referring to FIG. 15, the controller 300 may provide a character input function using an input interface that causes an event related potential. When the head mount display 100 provides an input interface to the user as shown in FIG. 15A, the user recognizes the display as shown in FIG. 15B. For example, the input interface may be a QWERTY keyboard in which characters alternate and flash.

도 16은 뇌-컴퓨터 인터페이스 패러다임 중 정상 상태 청각 유발 전위를 위한 학습 인터페이스 화면의 예시이다. Figure 16 is an illustration of a learning interface screen for steady state auditory evoked potentials in a brain-computer interface paradigm.

도 16을 참고하면, 제어기(300)는 정상 상태 청각 유발 전위 학습을 위해, 추가 전극 장치(200)가 결합된 헤드 마운트 디스플레이(100)를 착용한 사용자에게, 적어도 한 개 이상의 청각 자극을 포함하는 화면을 제시한다. 예를 들어, 한 개 이상의 청각 자극이 제시될 수 있으며, 청각 자극은 사용자가 예측하지 못하는 순서로 번갈아 가면서 제시될 수 있다. 청각 자극은 단일 주파수 또는 복수의 주파수 조합으로 구성될 수 있다. 청각 자극은 헤드 마운트 디스플레이(100)에 포함된 스피커 또는 이어폰을 통해 제공될 수 있다.Referring to Figure 16, the controller 300 may provide a user wearing the head-mounted display 100 with an additional electrode device 200 for steady-state auditory evoked potential learning to a user wearing at least one auditory stimulus Present the screen. For example, one or more auditory stimuli may be presented, and auditory stimuli may be presented alternately in a sequence that the user can not predict. The auditory stimulus can be composed of a single frequency or a combination of multiple frequencies. The auditory stimulation may be provided through a speaker or earphone included in the head mount display 100. [

제어기(300)는 정상 상태 청각 유발 전위에 의해 유발되는 뇌 신호들을 통해 학습한 전극간 관계 모델과 분류 모델을 기초로, 사용자에게 제시되는 가상 현실 화면/증강 현실 화면에서 사용자 의도를 인식할 수 있다.The controller 300 can recognize the user's intention on the virtual reality screen / augmented reality screen presented to the user based on the inter-electrode relationship model and the classification model learned through the brain signals induced by the steady state auditory evoked potential .

청각 자극 제시 방법은 다양할 수 있는데, 예를 들어, 사용자를 기준으로 왼쪽과 오른쪽에서 각각 발생하는 것처럼 들리는 청각 자극을 제공할 수 있다. 이때, 왼쪽에서 발생하는 것처럼 느껴지는 소리는 시간 지연없이 제공하고 오른쪽에서 발생하는 것처럼 느껴지는 소리는 왼쪽에 비해 일정 시간 지연시켜 제공할 수 있으며, 그 반대의 경우도 가능하다. The methods of presenting auditory stimuli can vary, for example, providing auditory stimuli that sound like they occur on the left and right sides, respectively, relative to the user. At this time, it is possible to provide the sound that appears to be generated from the left side without time delay, and the sound that appears to occur on the right side can be provided with a delay time compared to the left side, and vice versa.

양쪽에서 들리는 소리는 각각 다른 주파수의 소리로 이루어져 있으며, 사용자가 어느 한쪽의 소리에 집중할 때 발생하는 뇌 신호를 분석하여 사용자의 왼쪽 또는 오른쪽 의도를 검출할 수 있다. 또한 시간 지연뿐만 아니라 소리의 크기를 다르게 제공함으로써 소리 자극의 방향성을 제공할 수도 있다.The sound heard from both sides is composed of sounds of different frequencies, and the user can detect the left or right intention by analyzing the brain signal generated when the user concentrates on one sound. It may also provide the direction of sound stimulation by providing a different amount of sound as well as time delay.

추가적으로, 헤드 마운트 디스플레이(100)와 유선/무선으로 연결된 적어도 하나의 진동 자극을 사용자 신체에 부착하고, 제어기(300)는 정상 상태 촉각 유발 전위 학습을 위해, 진동 자극을 통한 자극을 제시할 수도 있다. Additionally, at least one vibratory stimulus wired / wirelessly connected to the head-mounted display 100 may be attached to the user's body, and the controller 300 may present a stimulus via a vibrational stimulus for steady state tactile evoked potential learning .

이처럼 제어기(300)는, 뇌 신호를 기초로 학습된 사용자 의도 인식을 위한 분류 모델을 이용하여, 사용자에게 제시되는 가상 현실 화면/증강 현실 화면에서 측정 및 추정된 뇌 신호에 해당하는 사용자 의도를 인식할 수 있다. 그리고 제어기(300)는 인식된 사용자 의도에 따라 가상 현실 화면/증강 현실 화면을 제어(이동, 객체 선택, 키보드 입력 등)할 수 있다. As described above, the controller 300 recognizes the user's intention corresponding to the brain signal measured and estimated in the virtual reality screen / augmented reality screen presented to the user by using a classification model for learning the user's intention learned based on the brain signal can do. The controller 300 can control (move, object select, keyboard input, etc.) the virtual reality screen / augmented reality screen according to the recognized user's intention.

도 17은 한 실시예에 따른 사용자의 안구 움직임에 의한 화면 제어의 예시이고, 도 18은 한 실시예에 따른 사용자의 머리 및 안구 움직임에 화면 제어의 예시이다.FIG. 17 shows an example of screen control by the user's eye movement according to an embodiment, and FIG. 18 shows an example of a screen control on a user's head and eye movement according to an embodiment.

도 17과 도 18을 참고하면, 제어기(300)는 헤드 마운트 디스플레이(100)로부터 측정된 안구 전도 신호를 기초로 사용자의 시선의 움직임에 따른 사용자 의도(예를 들면, 방향 전환, 시선 움직임 방향)를 인식할 수 있다. 즉, 제어기(300)는 안구 전도 신호를 사용자 의도로 인식하여 헤드 마운트 디스플레이를 제어할 수 있다. 제어기(300)는 뇌 신호와 안구 전도 신호로부터 검출한 사용자 의도를 기초로 헤드 마운트 디스플레이를 제어할 수 있다.Referring to FIGS. 17 and 18, the controller 300 displays user intention (for example, direction change, eye movement direction) according to the movement of the user's gaze on the basis of the eye conduction signal measured from the head mount display 100, Can be recognized. That is, the controller 300 can control the head mount display by recognizing the eye conduction signal as a user's intention. The controller 300 can control the head mount display based on the user's intention detected from the brain signal and the ocular conduction signal.

이때, 제어기(300)는 뇌 신호를 기초로 학습된 사용자 의도 인식을 위한 분류 모델을 이용하여 사용자 의도를 인식하는 방법과 유사하게, 안구 전도 신호를 기초로 사용자 의도 인식(시선 움직임)을 위한 분류 모델을 학습하고, 학습된 분류 모델을 기초로 사용자 시선 움직임을 검출할 수 있다.At this time, similar to the method of recognizing the intention of the user using the classification model for learning the intention of the user based on the brain signal, the controller 300 may classify the intention recognition (eye movement) based on the eye conduction signal The user can learn the model and detect the user's gaze movement based on the learned classification model.

제어기(300)는 안구 전도에 따른 사용자 시선 움직임 검출을 위해 헤드 마운트 디스플레이(100)에 사용자가 응시하기 위한 커서 화면을 제공할 수 있다. 커서의 움직임에 따라 사용자는 눈을 움직이게 되고, 이때 발생되는 안구 전도 신호가 안구 전도 전극들을 통해 획득된다. The controller 300 may provide a cursor screen for the user to gaze on the head mount display 100 for user's gaze motion detection according to eye conduction. According to the movement of the cursor, the user moves the eye, and an ocular conduction signal generated at this time is obtained through the ocular conductive electrodes.

커서 화면은 중심으로부터 수평축(x-axis)과 수직축(y-axis)를 형성하고 커서의 위치 변화를 통해 수평 방향과 수직방향에 대한 속도(v)는 수학식 4와 같이 계산될 수 있다.The cursor screen forms a horizontal axis (x-axis) and a vertical axis (y-axis) from the center, and the velocity (v) in the horizontal direction and the vertical direction through the change of the cursor position can be calculated as shown in Equation (4).

Figure pat00027
Figure pat00027

제어기(300)는 왼쪽 눈 주변에 부착된 전극들(

Figure pat00028
,
Figure pat00029
,
Figure pat00030
,
Figure pat00031
)과 오른쪽 눈 주변에 부착된 전극들(
Figure pat00032
,
Figure pat00033
,
Figure pat00034
,
Figure pat00035
)을 이용하여 수직(
Figure pat00036
,
Figure pat00037
) 성분과 수평(
Figure pat00038
,
Figure pat00039
) 성분을 추출한다. 왼쪽 눈에서 측정된 수직 성분과 수평 성분은 수학식 5와 같이 표현될 수 있다.The controller 300 includes electrodes (e.g.,
Figure pat00028
,
Figure pat00029
,
Figure pat00030
,
Figure pat00031
) And electrodes attached around the right eye (
Figure pat00032
,
Figure pat00033
,
Figure pat00034
,
Figure pat00035
),
Figure pat00036
,
Figure pat00037
) And horizontal (
Figure pat00038
,
Figure pat00039
) Components. The vertical component and the horizontal component measured in the left eye can be expressed by Equation (5).

Figure pat00040
Figure pat00040

제어기(300)는 커서의 속도와 안구 전도의 관계 모델을 구축하기 위해 회귀 모델의 종속 변수(즉, 커서의 속도)와 독립 변수(즉, 안구 전도)를 수학식 6과 같이 생성할 수 있다.The controller 300 can generate the dependent variable (i.e., the velocity of the cursor) and the independent variable (i.e., the ocular conduction) of the regression model as shown in Equation (6) to establish a model of the relationship between the velocity of the cursor and the ocular conduction.

Figure pat00041
Figure pat00041

제어기(300)는 뇌 신호 처리 시의 학습 방법과 유사하게, 다양한 회귀 분석 기법을 적용하여 관계 모델을 생성하고, 관계 모델을 기초로 사용자가 눈을 움직일 때 발생하는 안구 전도 신호로부터 시선 움직임을 검출할 수 있다. 이에 따라, 제어기(300)는 사용자의 시선 움직임 따라 시점 변화된 화면을 출력함으로써, 자연스러운 화면 제공이 가능하다.The controller 300 generates a relational model by applying various regression analysis techniques similar to the learning method in brain signal processing and detects eye movements from eye conduction signals generated when the user moves his eyes based on the relational model can do. Accordingly, the controller 300 outputs a screen that is changed in viewpoint according to the user's gaze motion, thereby providing a natural screen.

도 17의 (a)를 참고하면, 사용자가 헤드 마운트 디스플레이(100)를 착용한 상태에서 상하 방향으로 안구를 움직인다. 그러면, 제어기(300)는 도 17의 (b)와 같이 카메라의 렌즈 각도를 제어하여 촬영한다. 이를 통해 제어기(300)는 도 17의 (c)와 같이 사용자가 바라본 시야에 매칭된 촬영 화면을 제공할 수 있다. Referring to FIG. 17 (a), the user moves the eyeball in the vertical direction while wearing the head mount display 100. Then, the controller 300 photographs by controlling the lens angle of the camera as shown in FIG. 17 (b). The controller 300 can provide a photographing screen matched with the field of view viewed by the user as shown in (c) of FIG.

가상 현실 영상의 경우에도, 제어기(300)는 사용자가 위/아래/좌/우/원거리/근거리를 볼 때 발생하는 안구 전도 신호를 분석하여 가상 현실 영상 내에서 대응되는 시점으로 화면 이동한다. In the case of the virtual reality image, the controller 300 analyzes the eye conduction signal generated when the user views the up / down / left / right / remote / close range and scrolls to the corresponding point in the virtual reality image.

도 18을 참조하면, 사용자가 헤드 마운트 디스플레이(100)를 착용한 상태에서 눈과 머리를 함께 움직일 수 있다. 머리 움직임은 자이로센서 등으로 측정될 수 있다.Referring to FIG. 18, the user can move the eyes and head together while wearing the head mount display 100. Head movement can be measured with a gyro sensor or the like.

도 18의 (b)를 현재 사용자의 응시 화면이라고 가정하면, 제어기(300)는 도 18의 (a)와 같이 사용자의 머리와 눈이 움직이면, (a-1) 내지 (a-3)과 같은 화면 변화를 제공한다. 제어기(300)는 도 18의 (c)와 같이 사용자의 머리와 눈이 움직이면, (c-1) 내지 (c-3)과 같은 화면 변화를 제공한다. If the user's head and eyes move as shown in (a) of FIG. 18, the controller 300 determines that the current user's gazing screen is the same as (a-1) to (a-3) Provides screen changes. The controller 300 provides screen changes such as (c-1) to (c-3) when the user's head and eyes move as shown in (c) of FIG.

이와 같이, 제어기(300)는 뇌-컴퓨터 인터페이스 패러다임에 따라 유발된 뇌 신호를 학습하여 사용자 의도 분류 모델을 생성하고, 또한 헤드 마운트 디스플레이(100)와 추가 전극 장치(200)의 전극간 관계 모델을 생성할 수 있다. 이를 통해 사용자는 헤드 마운트 디스플레이(100)만을 착용하더라도 가상 현실 영상/증강 현실 영상을 제어에서 요구되는 뇌 신호들을 획득할 수 있다.In this way, the controller 300 learns the brain signals induced according to the brain-computer interface paradigm to generate a user's intention classification model, and also generates a relationship model between the head mount display 100 and the additional electrode device 200 Can be generated. Accordingly, the user can acquire brain signals required for controlling the virtual reality / augmented reality image even if only the head mount display 100 is worn.

또한, 제어기(300)는 안구 전도 신호를 학습하여 시선 움직임(시야 방향 변화)을 검출할 수 있다. 이를 통해 사용자는 헤드 마운트 디스플레이(100)만을 착용한 상태에서 눈을 움직여 가상 현실 영상/증강 현실 영상의 시점을 제어할 수 있다.In addition, the controller 300 can learn the eye conduction signal and detect eye movement (change in the visual field direction). Accordingly, the user can control the viewpoint of the virtual reality / augmented reality image by moving his / her eyes while wearing only the head mount display 100.

이때, 헤드 마운트 디스플레이(100)의 뇌 전도 전극을 통한 뇌 신호 측정 및 안구 전도 전극을 통한 안구 전도 신호 측정은 병렬적으로 진행되어, 헤드 마운트 디스플레이 제어에 복합적으로 적용될 수 있다.At this time, brain signal measurement through the brain conduction electrode of the head mount display 100 and ocular conduction signal measurement through the ocular conduction electrode proceed in parallel and can be applied to the head mount display control in a complex manner.

이상에서 설명한 본 발명의 실시예는 장치 및 방법을 통해서만 구현이 되는 것은 아니며, 본 발명의 실시예의 구성에 대응하는 기능을 실현하는 프로그램 또는 그 프로그램이 기록된 기록 매체를 통해 구현될 수도 있다. 또한, 설명한 방법은 컴퓨터에 의해 판독 가능한 명령어를 포함하는 기록 매체로 구현될 수 있다. The embodiments of the present invention described above are not implemented only by the apparatus and method, but may be implemented through a program for realizing the function corresponding to the configuration of the embodiment of the present invention or a recording medium on which the program is recorded. Furthermore, the described method can be implemented as a recording medium including instructions readable by a computer.

이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, It belongs to the scope of right.

Claims (17)

제어기가, 뇌 전도 전극들이 부착된 헤드 마운트 디스플레이를 착용한 사용자의 의도를 인식하는 방법으로서,
뇌 신호들을 유발하는 학습 화면을 상기 헤드 마운트 디스플레이에 표시한 상태에서, 상기 헤드 마운트 디스플레이 및 상기 헤드 마운트 디스플레이에 결합된 추가 전극 장치 각각에서 측정된 학습용 뇌 신호들을 획득하는 단계,
상기 학습용 뇌 신호들로부터 상기 헤드 마운트 디스플레이의 전극들과 상기 추가 전극 장치의 전극들의 관계 모델을 학습하는 단계,
특정 화면을 상기 헤드 마운트 디스플레이에 표시한 상태에서, 상기 추가 전극 장치가 분리된 상기 헤드 마운트 디스플레이에서 측정된 뇌 신호들을 획득하는 단계,
상기 관계 모델을 기초로 상기 헤드 마운트 디스플레이에서 측정된 뇌 신호들로부터 미측정된 상기 추가 전극 장치의 뇌 신호들을 추정하는 단계, 그리고
상기 측정된 뇌 신호들과 추정한 뇌 신호들에 해당하는 사용자 의도를 검출하는 단계를 포함하는 사용자 의도 인식 방법.
CLAIMS What is claimed is: 1. A method for a controller to recognize a user's intention to wear a head-mounted display to which brain conduction electrodes are attached,
Obtaining learning brain signals measured at each of the head-mounted display and the additional electrode device coupled to the head-mounted display, with the learning screen displaying brain signals being displayed on the head-mounted display,
Learning relationship models of the electrodes of the head-mounted display and the electrodes of the additional electrode device from the learning brain signals,
Acquiring brain signals measured in the head-mounted display from which the additional electrode device is detached, with a specific screen displayed on the head-mounted display,
Estimating brain signals of the further electrode device not measured from brain signals measured at the head-mounted display based on the relational model, and
And detecting user intention corresponding to the measured brain signals and estimated brain signals.
제1항에서,
상기 학습용 뇌 신호들로부터 사용자 의도 분류 모델을 학습하는 단계를 더 포함하고,
상기 사용자 의도를 검출하는 단계는
학습된 상기 사용자 의도 분류 모델을 기초로 상기 측정된 뇌 신호들과 상기 추정한 뇌 신호들을 조합한 신호에 해당하는 사용자 의도를 검출하는, 사용자 의도 인식 방법.
The method of claim 1,
Further comprising learning a user's intention classification model from the learning brain signals,
The step of detecting the user intention
And a user intention corresponding to a signal obtained by combining the measured brain signals with the estimated brain signals based on the learned user's intention classification model.
제1항에서,
상기 학습 화면은 특정 뇌-컴퓨터 인터페이스 패러다임에 해당하는 뇌 신호들을 유발하기 위해 제작된 인터페이스 화면인, 사용자 의도 인식 방법.
The method of claim 1,
Wherein the learning screen is an interface screen produced to induce brain signals corresponding to a specific brain-computer interface paradigm.
제3항에서,
상기 뇌-컴퓨터 인터페이스 패러다임은
동작 상상(Motor Imagery) 전위, 정상 상태 시각/청각/촉각 유발 전위(Steady-State Visual/Auditory/Somatosensory Evoked Potential), 그리고 사건 관련 전위(Event Related Potential) 중 적어도 하나인, 사용자 의도 인식 방법.
4. The method of claim 3,
The brain-computer interface paradigm
Wherein the method is at least one of a Motor Imagery Potential, a Steady State Visual / Auditory / Somatosensory Evoked Potential, and an Event Related Potential.
제3항에서,
상기 학습 화면이 동작 상상에 해당하는 뇌 신호들을 유발하는 인터페이스 화면인 경우,
상기 학습용 뇌 신호들은 상기 학습 화면에서 지정한 신체 부위를 움직이는 상상으로 유발된 신호인, 사용자 의도 인식 방법.
4. The method of claim 3,
If the learning screen is an interface screen for generating brain signals corresponding to an operation image,
Wherein the learning brain signals are images generated by imagining moving body parts designated on the learning screen.
제3항에서,
상기 학습 화면이 사건 관련 전위에 해당하는 뇌 신호들을 유발하는 인터페이스 화면인 경우, 상기 학습 화면은 양쪽 눈에 각각 대응하는 좌측 화면 및 우측 화면을 분리 제공하고, 상기 좌측 화면과 상기 우측 화면에서 동일 객체를 서로 다른 주파수로 점멸하는 시각 자극을 제공하고,
상기 학습용 뇌 신호들은 상기 학습 화면에 포함된 시각 자극으로 유발된 신호인, 사용자 의도 인식 방법.
4. The method of claim 3,
When the learning screen is an interface screen for generating brain signals corresponding to an event related potential, the learning screen separates the left screen and the right screen corresponding to the respective eyes, and provides the left screen and the right screen with the same object To a different frequency,
Wherein the learning brain signals are signals caused by visual stimulation included in the learning screen.
제3항에서,
상기 학습 화면이 정상 상태 시각 유발 전위에 해당하는 뇌 신호들을 유발하는 인터페이스 화면인 경우, 상기 학습 화면은 선택 가능한 복수의 객체들을 서로 다른 시각 자극으로 제공하고,
상기 학습용 뇌 신호들은 상기 학습 화면에서 복수의 객체들 중 특정 객체를 응시할 때 유발된 신호인, 사용자 의도 인식 방법.
4. The method of claim 3,
When the learning screen is an interface screen for generating brain signals corresponding to a steady state visual evoked potential, the learning screen provides a plurality of selectable objects as different visual stimuli,
Wherein the learning brain signals are signals generated when a specific object among a plurality of objects is gazed at the learning screen.
제1항에서,
상기 관계 모델을 학습하는 단계는
전극별로 현재 주기에서 측정된 뇌 신호에 과거 주기들에서 측정된 일정 수의 뇌 신호들을 포함하여 뇌 신호 특징 벡터를 생성하고, 상기 뇌 신호 특징 벡터를 이용하여 상기 관계 모델을 학습하는, 사용자 의도 인식 방법.
The method of claim 1,
The step of learning the relational model
A brain signal feature vector including a predetermined number of brain signals measured in past cycles on a brain signal measured at a current cycle for each electrode and learning the relational model using the brain signal feature vector, Way.
제1항에서,
검출한 사용자 의도를 기초로 상기 특정 화면을 제어하는 단계를 더 포함하는, 사용자 의도 인식 방법.
The method of claim 1,
And controlling the specific screen based on the detected user intention.
제9항에서,
상기 특정 화면을 제어하는 단계는
상기 헤드 마운트 디스플레이에 부착된 안구 전도 전극들로부터 획득된 안구 전도 신호들을 기초로 시선 움직임을 검출하고, 검출한 시선 움직임에 따라 상기 특정 화면의 시점을 변경하며, 상기 측정된 뇌 신호들과 추정한 뇌 신호들로 검출한 사용자 의도에 따라 상기 특정 화면을 제어하는, 사용자 의도 인식 방법.
The method of claim 9,
The step of controlling the specific screen
The method includes detecting eye movements based on eye conduction signals obtained from the eye conduction electrodes attached to the head mount display, changing the view of the specific screen according to the detected eye movement, And controlling the specific screen according to a user's intention detected with brain signals.
제10항에서,
상기 특정 화면을 제어하는 단계 이전에,
커서 화면에 시선이 따라 움직이는 커서를 표시한 상태에서, 상기 안구 전도 전극들로부터 획득된 학습용 안구 전도 신호들과 커서 속도의 관계 모델을 학습하는 단계를 더 포함하고,
상기 특정 화면을 제어하는 단계는
상기 안구 전도 신호들과 커서 속도의 관계 모델을 기초로, 상기 획득된 안구 전도 신호들에 해당하는 시선 움직임을 검출하는, 사용자 의도 인식 방법.
11. The method of claim 10,
Before the step of controlling the specific screen,
Further comprising the step of learning a relationship model of cursor velocity and learning ocular conduction signals obtained from the ocular conduction electrodes while displaying a cursor moving along a line of sight on a cursor screen,
The step of controlling the specific screen
And a gaze movement corresponding to the acquired ocular conduction signals is detected based on a relationship model between the ocular conduction signals and the cursor velocity.
뇌-컴퓨터 인터페이스 장치로서,
제1 채널 그룹의 뇌 전도 전극들이 부착된 헤드 마운트 디스플레이,
상기 헤드 마운트 디스플레이에 탈착되고, 제2 채널 그룹의 뇌 전도 전극들이 부착된 추가 전극 장치, 그리고
상기 제1 채널 그룹의 뇌 전도 전극들과 상기 제2 채널 그룹의 뇌 전도 전극들에서 획득되는 뇌 신호들의 관계 모델을 저장하고, 상기 관계 모델을 기초로 상기 추가 전극 장치가 분리된 상기 헤드 마운트 디스플레이를 제어하는 제어기를 포함하고,
상기 제어기는
특정 화면을 상기 헤드 마운트 디스플레이에 표시한 상태에서 상기 제1 채널 그룹에서 측정된 뇌 신호들이 입력되면, 상기 관계 모델을 기초로 상기 제2 채널 그룹의 뇌 전도 전극들의 뇌 신호들을 추정하고, 상기 제1 채널 그룹에서 측정된 뇌 신호들과 상기 제2 채널 그룹에서 추정된 뇌 신호들을 이용하여 사용자 의도를 검출하며, 검출한 사용자 의도를 기초로 상기 특정 화면을 제어하는, 뇌-컴퓨터 인터페이스 장치.
A brain-computer interface device,
A head-mounted display to which brain conduction electrodes of the first channel group are attached,
An additional electrode device attached to the head mounted display and attached to the brain conduction electrodes of the second channel group,
Storing a relationship model of brain signals obtained at the brain conduction electrodes of the first channel group and the brain conduction electrodes of the second channel group and based on the relationship model, And a control unit
The controller
When the brain signals measured in the first channel group are inputted while displaying a specific screen on the head mount display, the brain signals of the brain conduction electrodes of the second channel group are estimated based on the relationship model, Wherein the user's intention is detected using brain signals measured in one channel group and brain signals estimated in the second channel group, and the specific screen is controlled based on the detected user intention.
제12항에서,
상기 제어기는
상기 추가 전극 장치가 상기 헤드 마운트 디스플레이에 결합된 학습 모드에서, 뇌 신호들을 유발하는 학습 화면을 상기 헤드 마운트 디스플레이에 표시하고, 상기 제1 채널 그룹과 상기 제2 채널 그룹에서 측정된 학습용 뇌 신호들을 획득하며, 상기 학습용 뇌 신호들을 이용하여 상기 관계 모델을 학습시킨 후, 학습된 상기 관계 모델을 저장하는, 뇌-컴퓨터 인터페이스 장치.
The method of claim 12,
The controller
In the learning mode in which the additional electrode device is coupled to the head mounted display, a learning screen for causing brain signals is displayed on the head mounted display, and the learning brain signals measured in the first channel group and the second channel group Acquiring learning models of the brain models, and learning the relationship models using the learning brain signals, and then storing the learned relationship models.
제13항에서,
상기 학습 화면은 특정 뇌-컴퓨터 인터페이스 패러다임에 해당하는 뇌 신호들을 유발하기 위해 제작된 인터페이스 화면이고,
상기 뇌-컴퓨터 인터페이스 패러다임은
동작 상상(Motor Imagery) 전위, 정상 상태 시각/청각/촉각 유발 전위(Steady-State Visual/Auditory/Somatosensory Evoked Potential), 그리고 사건 관련 전위(Event Related Potential) 중 적어도 하나인, 뇌-컴퓨터 인터페이스 장치.
The method of claim 13,
The learning screen is an interface screen generated to generate brain signals corresponding to a specific brain-computer interface paradigm,
The brain-computer interface paradigm
A brain-computer interface device that is at least one of a Motor Imagery Potential, a Steady State Visual / Auditory / Somatosensory Evoked Potential, and an Event Related Potential.
제13항에서,
상기 제어기는
상기 학습용 뇌 신호들을 회귀 분석하여 상기 관계 모델을 학습시키는, 뇌-컴퓨터 인터페이스 장치.
The method of claim 13,
The controller
And the learning brain signals are regression analyzed to learn the relational model.
제12항에서,
상기 제어기는
학습된 사용자 의도 분류 모델을 기초로, 상기 제1 채널 그룹에서 측정된 뇌 신호들과 상기 제2 채널 그룹에서 추정된 뇌 신호들을 조합한 신호의 특징에 해당하는 상기 사용자 의도를 검출하고,
상기 사용자 의도 분류 모델은 상기 제1 채널 그룹과 상기 제2 채널 그룹에서 획득된 뇌 신호들의 특징을 기초로 특정 뇌-컴퓨터 인터페이스 패러다임에서 지정한 복수의 의도들 중 어느 하나로 분류하도록 학습된 모델인, 뇌-컴퓨터 인터페이스 장치.
The method of claim 12,
The controller
Detecting a user intention corresponding to a feature of a signal obtained by combining brain signals measured in the first channel group and brain signals estimated in the second channel group based on the learned user's intention classification model,
Wherein the user's intention classification model is a model learned to classify into one of a plurality of intents designated in a specific brain-computer interface paradigm based on characteristics of brain signals obtained in the first channel group and the second channel group, - Computer interface device.
뇌-컴퓨터 인터페이스 장치로서,
내측면의 적어도 일부가 사용자의 안면에 접하도록 착용되고, 적어도 하나의 프로세서, 메모리 그리고 디스플레이를 포함하는 본체, 그리고 상기 본체와 연결되며 상기 본체가 사용자의 안면에 착용된 상태로 고정되도록 지지하는 고정부를 포함하는 헤드 마운트 디스플레이, 그리고
상기 헤드 마운트 디스플레이에 결합되거나 분리되고, 사용자의 두피에 접하는 내 측면에 뇌 전도 전극들이 부착된 추가 전극 장치를 포함하고,
상기 헤드 마운트 디스플레이는,
상기 고정부의 내측면에 사용자의 머리 둘레를 따라 임의의 간격으로 배치된 복수의 뇌 전도 전극들,
상기 본체의 내측면에 사용자의 안구가 접하는 위치로부터 복수의 방향으로 임의의 간격으로 배치된 복수의 안구 전도 전극들,
상기 본체에 사용자의 안면의 일부가 접하는 영역에 배치되는 레퍼런스 전극, 그리고
상기 본체와 상기 고정부 중 적어도 하나에 배치되어, 상기 추가 전극 장치와 결합하거나 분리되는 체결부
를 더 포함하는, 뇌-컴퓨터 인터페이스 장치.
A brain-computer interface device,
A main body including at least one processor, a memory and a display; at least a portion of an inner surface of the main body being worn to abut the user ' s face, the main body being connected to the main body and supporting the main body in a state of being worn on the user ' A head-mounted display including a head, and
An additional electrode device coupled to or separated from the head mount display and having brain conduction electrodes attached to an inner surface of the user's scalp,
Wherein the head mount display comprises:
A plurality of brain conduction electrodes arranged at an arbitrary interval along the user's head circumference on an inner surface of the fixing portion,
A plurality of eye conduction electrodes arranged at an arbitrary interval in a plurality of directions from a position where the user ' s eyeball contacts the inner surface of the body,
A reference electrode disposed in an area where a part of the user's face is in contact with the main body, and
And a fixing unit (20) disposed on at least one of the main body and the fixing unit,
Wherein the computer-readable medium further comprises a computer-readable medium.
KR1020180057871A 2017-10-23 2018-05-21 Method for recogniging user intention by estimating brain signals, and brain-computer interface apparatus based on head mounted display implementing the method KR102029219B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/117,814 US10795441B2 (en) 2017-10-23 2018-08-30 Method of recognizing user intention by estimating brain signals, and brain-computer interface apparatus based on head mounted display implementing the method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20170137143 2017-10-23
KR1020170137143 2017-10-23

Publications (2)

Publication Number Publication Date
KR20190045041A true KR20190045041A (en) 2019-05-02
KR102029219B1 KR102029219B1 (en) 2019-10-04

Family

ID=66581446

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180057871A KR102029219B1 (en) 2017-10-23 2018-05-21 Method for recogniging user intention by estimating brain signals, and brain-computer interface apparatus based on head mounted display implementing the method

Country Status (1)

Country Link
KR (1) KR102029219B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113434040A (en) * 2021-06-07 2021-09-24 西北工业大学 Brain-computer interface technical method based on augmented reality induction
KR20210129437A (en) * 2020-04-20 2021-10-28 한국과학기술연구원 System and method for controlling exoskeleton robot using brain waves according to motion imagination
CN113648541A (en) * 2021-08-13 2021-11-16 上海大学 Magnetic stimulation and brain signal acquisition combined synchronous integrated device
KR20220022390A (en) * 2020-08-18 2022-02-25 고려대학교 산학협력단 Method for providing 360° panoramic video based on real-time field-of-view changes with eye-gaze tracking in mri environment, recording medium and device for performing the method
KR20220091090A (en) * 2020-12-23 2022-06-30 울산과학기술원 Brain-computer interface method and device using video to stimulate movement image

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102270046B1 (en) * 2020-02-18 2021-06-25 고려대학교 산학협력단 Brain-machine interface based intention determination device and method using virtual environment

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020069382A (en) * 2001-02-26 2002-09-04 학교법인 한양학원 Visual displaying device for virtual reality with a built-in biofeedback sensor
KR101203921B1 (en) * 2011-09-21 2012-11-27 유제형 Information providing apparatus using an eye tracking and local based service

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020069382A (en) * 2001-02-26 2002-09-04 학교법인 한양학원 Visual displaying device for virtual reality with a built-in biofeedback sensor
KR101203921B1 (en) * 2011-09-21 2012-11-27 유제형 Information providing apparatus using an eye tracking and local based service

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210129437A (en) * 2020-04-20 2021-10-28 한국과학기술연구원 System and method for controlling exoskeleton robot using brain waves according to motion imagination
KR20220022390A (en) * 2020-08-18 2022-02-25 고려대학교 산학협력단 Method for providing 360° panoramic video based on real-time field-of-view changes with eye-gaze tracking in mri environment, recording medium and device for performing the method
KR20220091090A (en) * 2020-12-23 2022-06-30 울산과학기술원 Brain-computer interface method and device using video to stimulate movement image
CN113434040A (en) * 2021-06-07 2021-09-24 西北工业大学 Brain-computer interface technical method based on augmented reality induction
CN113434040B (en) * 2021-06-07 2024-01-05 西北工业大学 Brain-computer interface technical method based on augmented reality induction
CN113648541A (en) * 2021-08-13 2021-11-16 上海大学 Magnetic stimulation and brain signal acquisition combined synchronous integrated device

Also Published As

Publication number Publication date
KR102029219B1 (en) 2019-10-04

Similar Documents

Publication Publication Date Title
US10795441B2 (en) Method of recognizing user intention by estimating brain signals, and brain-computer interface apparatus based on head mounted display implementing the method
KR102029219B1 (en) Method for recogniging user intention by estimating brain signals, and brain-computer interface apparatus based on head mounted display implementing the method
US11366517B2 (en) Human-computer interface using high-speed and accurate tracking of user interactions
US20200268296A1 (en) Brain-computer interface with adaptations for high-speed, accurate, and intuitive user interactions
Lee et al. Real-time “eye-writing” recognition using electrooculogram
US20170293356A1 (en) Methods and Systems for Obtaining, Analyzing, and Generating Vision Performance Data and Modifying Media Based on the Vision Performance Data
CN106580346B (en) Emotion estimation method and emotion estimation device
JP2021511567A (en) Brain-computer interface with adaptation for fast, accurate, and intuitive user interaction
CN113156650A (en) Augmented reality system and method using images
JP2018187287A (en) Sensitivity estimation device, sensitivity estimation system, sensitivity estimation method and program
KR101571848B1 (en) Hybrid type interface apparatus based on ElectronEncephaloGraph and Eye tracking and Control method thereof
WO2020186230A1 (en) Systems, devices, and methods of determining data associated with a person's eyes
KR101734845B1 (en) Emotion classification apparatus using visual analysis and method thereof
KR102064510B1 (en) Adhd/ads diagnosis apparatus using eeg and method thereof
KR101306922B1 (en) Apparatus and method for measuring EEG
JP2013255742A (en) Sensibility evaluation device, method and program
CN116133594A (en) Sound-based attention state assessment
CN113576497A (en) Visual steady-state evoked potential detection system oriented to binocular competition
JP2021092883A (en) Information processing device, information processing method, and program
US20230418372A1 (en) Gaze behavior detection
Matthies et al. Wearable Sensing of Facial Expressions and Head Gestures
KR101887296B1 (en) Iris diagnosis system and stress diagnosing method for the same
VLADIĆ et al. USING EYE TRACKING TECHNOLOGY IN PRODUCT DESIGN EVALUATION
Belhaouari et al. A Tactile P300 Brain-Computer Interface: Principle and Paradigm

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right